Deutschland nach 1945
Nachdem das Deutsche Reich den Zweiten Weltkrieg (1939–1945) verloren hatte und Deutschland militärisch, sozial, politisch, wirtschaftlich und gesellschaftlich am Boden lag, wurde mit der Nachkriegsordnung Europa neu aufgestellt. Die bedingungslose Kapitulation des Deutschen Reiches vom Mai 1945 bedeutete auch das Ende der deutschen Nationalstaatlichkeit.
Informationen zum Artikel
Mitwirkende
Dr. Melanie Carina Schmoll
Quellenangabe