Deutsche Kolonien

Das Ende der deutschen Kolonien

Der Erste Weltkrieg (1914–1918) mündete für die Kolonien in die Freiheit von der deutschen Herrschaft. Im Vertrag von Versailles (1919) musste Deutschland, das den Krieg verloren hatte, auf alle seine Kolonien verzichten. In der Begründung der Siegermächte hieß es, Deutschland habe durch Misswirtschaft und Misshandlung der einheimischen Bevölkerung seine Ansprüche

Quellenangabe

Kostenlos testen
  • redaktionell geprüfte und verlässliche Inhalte

  • altersgerecht aufbereitet im Schullexikon

  • monatlich kündbar

oder
Sie sind Lehrkraft? Starten Sie Ihren kostenlosen Test hier.