Der Begriff Nation in Deutschland
In Deutschland setzte sich der Nationalstaat erst sehr viel später durch. Das Deutsche Reich wurde erst 1871 gegründet. Das lag auch daran, dass sich die deutschen Denker und Philosophen weniger um die politische Bedeutung des Begriffes kümmerten, sondern vielmehr eine kulturelle Nation in den Mittelpunkt rückten: Bei ihnen ging es
Informationen zum Artikel
Mitwirkende
Dr. Melanie Carina Schmoll
Quellenangabe