Deutsche Kolonien

Die deutschen Kolonien, auch Schutzgebiete genannt, sind die überseeischen Besitzungen, die das Deutsche Reich in der Zeit von 1884–1918 hatte.

Deutschland solle auch einen Platz an der Sonne bekommen. Das jedenfalls war die Meinung einiger deutscher Politiker am Ende des 19. Jahrhunderts. Sie meinten damit, dass Deutschland, so wie z. B. Großbritannien, auch Kolonien gründen sollte, um wirtschaftlich und politisch zu wachsen. Das 19. Jahrhundert war das Zeitalter des europäischen

Reichsgründung und Kolonien

Ablehnender Reichskanzler

Die erste deutsche Kolonie

Deutsche Schutzgebiete

Kolonien außerhalb Afrikas

Die Verhältnisse in den Kolonien

Das Ende der deutschen Kolonien

Literatur

Quellenangabe

Kostenlos testen
  • redaktionell geprüfte und verlässliche Inhalte

  • altersgerecht aufbereitet im Schullexikon

  • monatlich kündbar

oder
Sie sind Lehrkraft? Starten Sie Ihren kostenlosen Test hier.