Der Begriff Nation in Deutschland
In Deutschland setzte sich der Nationalstaat erst sehr viel später durch. Das Deutsche Reich wurde erst 1871 gegründet. Das lag auch daran, dass sich die deutschen Denker und Philosophen weniger um die politische Bedeutung des Begriffes kümmerten, sondern vielmehr eine kulturelle Nation in den Mittelpunkt rückten: Bei ihnen ging es
Mitwirkende
Dr. Melanie Carina Schmoll
Quellenangabe
Kostenlos testen
redaktionell geprüfte und verlässliche Inhalte
altersgerecht aufbereitet im Schullexikon
monatlich kündbar