Das Ende der deutschen Kolonien
Der Erste Weltkrieg (1914–1918) mündete für die Kolonien in die Freiheit von der deutschen Herrschaft. Im Vertrag von Versailles (1919) musste Deutschland, das den Krieg verloren hatte, auf alle seine Kolonien verzichten. In der Begründung der Siegermächte hieß es, Deutschland habe durch Misswirtschaft und Misshandlung der einheimischen Bevölkerung seine Ansprüche
Informationen zum Artikel
Quellenangabe