Kolonie

Entkolonialisierung

Nach dem Zweiten Weltkrieg kam es zu einem verstärkten Prozess der Entkolonialisierung. Das bedeutet, dass sich die Kolonialmacht aus der Kolonie zurückzieht und diese als eigenständiges Land ihre Unabhängigkeit erhält.

Quellenangabe

Kostenlos testen
  • redaktionell geprüfte und verlässliche Inhalte

  • altersgerecht aufbereitet im Schullexikon

  • monatlich kündbar

oder
Sie sind Lehrkraft? Starten Sie Ihren kostenlosen Test hier.