Kolonie

Die Kolonie ist der Besitz eines Staates außerhalb des eigentlichen Staatsgebietes. 

Wenn man heute von einer Kolonie spricht, meint man meist ein Gebiet, das nach 1500 von einem europäischen Land erobert und ausgebeutet wurde (siehe dazu: Kolonialismus). Doch Kolonien gab es auch schon in der Antike.

Kolonien in der Antike

Kolonien in der Neuzeit

Geschichte

Anfänge

17. und 18. Jahrhundert

Imperialismus

Entkolonialisierung

Quellenangabe

Kostenlos testen
  • redaktionell geprüfte und verlässliche Inhalte

  • altersgerecht aufbereitet im Schullexikon

  • monatlich kündbar

oder
Sie sind Lehrkraft? Starten Sie Ihren kostenlosen Test hier.