US-amerikanische Kolonien
US-amerikanische Kolonien. Als vormalige Kolonie des britischen Empire verstanden sich die Vereinigten Staaten von Amerika seit ihrer Gründung als Hort des Antikolonialismus (Monroedoktrin 1823, Manifest Destiny um 1840). Ende des 19. Jahrhunderts ging der »idealistische«, freihändlerisch orientierte Imperialismus der USA jedoch in eine kolonial-annexionistische Phase über. Im Friedensschluss nach
Informationen zum Artikel
Quellenangabe