Western (Film)
Western [englisch, zu western »West-«] der, -(s)/-, Film:
Genrebezeichnung für (amerikanische) Spielfilme, die die Kolonisation des nordamerikanischen Westens (entlang der Grenze [Frontier] zwischen »amerikanischer Zivilisation« und »Wildem Westen«) im 19. Jahrhundert (1865–90) thematisieren. Seltener sind Western, die in die Zeit der Unabhängigkeitskriege hineinreichen oder nach 1900 angesiedelt sind.
Werke
Informationen zum Artikel
Quellenangabe