Wilder Westen

Wilder Westen, in Nordamerika die v. a. während des 19. Jahrhunderts im Rahmen der Expansion nach Westen vorrückende Übergangsregion vom administrierten Siedlungsgebiet der Einwanderer (»Zivilisation«) zum Indianerterritorium (»Wildnis«). Der Wilde Westen, geprägt durch blutige Kämpfe der vordringenden Siedler und Abenteurer mit den Indianern, durch Pioniergeist und harten Existenzkampf (zum Teil

Weitere Medien

Quellenangabe

Kostenlos testen
  • redaktionell geprüfte und verlässliche Inhalte

  • altersgerecht aufbereitet im Schullexikon

  • monatlich kündbar

oder
Sie sind Lehrkraft? Starten Sie Ihren kostenlosen Test hier.