Western (Film)
Western [englisch, zu western »West-«] der, -(s)/-, Film:
Genrebezeichnung für (amerikanische) Spielfilme, die die Kolonisation des nordamerikanischen Westens (entlang der Grenze [Frontier] zwischen »amerikanischer Zivilisation« und »Wildem Westen«) im 19. Jahrhundert (1865–90) thematisieren. Seltener sind Western, die in die Zeit der Unabhängigkeitskriege hineinreichen oder nach 1900 angesiedelt sind.
Werke
Quellenangabe