Japonismus

Japonismus [französisch Japon »Japan«] der, -,

das stark ausgeprägte Interesse an japanischer Kultur und deren Einflussnahme auf Kunst und Kunsthandwerk in Europa in der zweiten Hälfte des 19. und zu Beginn des 20. Jahrhunderts. Der Japonismus wurde gefördert durch die Weltausstellungen in Paris (1855, 1867, 1878) und London (1862).

Quellenangabe

Kostenlos testen
  • redaktionell geprüfte und verlässliche Inhalte

  • altersgerecht aufbereitet im Schullexikon

  • monatlich kündbar

oder
Sie sind Lehrkraft? Starten Sie Ihren kostenlosen Test hier.