US-amerikanische Kolonien

US-amerikanische Kolonien. Als vormalige Kolonie des britischen Empire verstanden sich die Vereinigten Staaten von Amerika seit ihrer Gründung als Hort des Antikolonialismus (Monroedoktrin 1823, Manifest Destiny um 1840). Ende des 19. Jahrhunderts ging der »idealistische«, freihändlerisch orientierte Imperialismus der USA jedoch in eine kolonial-annexionistische Phase über. Im Friedensschluss nach

Quellenangabe

Kostenlos testen
  • redaktionell geprüfte und verlässliche Inhalte

  • altersgerecht aufbereitet im Schullexikon

  • monatlich kündbar

oder
Sie sind Lehrkraft? Starten Sie Ihren kostenlosen Test hier.