Nation

Der Begriff Nation in Deutschland

In Deutschland setzte sich der Nationalstaat erst sehr viel später durch. Das Deutsche Reich wurde erst 1871 gegründet. Das lag auch daran, dass sich die deutschen Denker und Philosophen weniger um die politische Bedeutung des Begriffes kümmerten, sondern vielmehr eine kulturelle Nation in den Mittelpunkt rückten: Bei ihnen ging es

Mitwirkende

Dr. Melanie Carina Schmoll

Quellenangabe

Kostenlos testen
  • redaktionell geprüfte und verlässliche Inhalte

  • altersgerecht aufbereitet im Schullexikon

  • monatlich kündbar

oder
Sie sind Lehrkraft? Starten Sie Ihren kostenlosen Test hier.