Western (Film)

Western [englisch, zu western »West-«] der, -(s)/-, Film:

Genrebezeichnung für (amerikanische) Spielfilme, die die Kolonisation des nordamerikanischen Westens (entlang der Grenze [Frontier] zwischen »amerikanischer Zivilisation« und »Wildem Westen«) im 19. Jahrhundert (1865–90) thematisieren. Seltener sind Western, die in die Zeit der Unabhängigkeitskriege hineinreichen oder nach 1900 angesiedelt sind.

Werke

Quellenangabe

Kostenlos testen
  • redaktionell geprüfte und verlässliche Inhalte

  • altersgerecht aufbereitet im Schullexikon

  • monatlich kündbar

oder
Sie sind Lehrkraft? Starten Sie Ihren kostenlosen Test hier.