Deutsche Kolonien
Die deutschen Kolonien, auch Schutzgebiete genannt, sind die überseeischen Besitzungen, die das Deutsche Reich in der Zeit von 1884–1918 hatte.
Deutschland solle auch einen Platz an der Sonne bekommen. Das jedenfalls war die Meinung einiger deutscher Politiker am Ende des 19. Jahrhunderts. Sie meinten damit, dass Deutschland, so wie z. B. Großbritannien, auch Kolonien gründen sollte, um wirtschaftlich und politisch zu wachsen. Das 19. Jahrhundert war das Zeitalter des europäischen
Reichsgründung und Kolonien
Ablehnender Reichskanzler
Die erste deutsche Kolonie
Deutsche Schutzgebiete
Kolonien außerhalb Afrikas
Die Verhältnisse in den Kolonien
Das Ende der deutschen Kolonien
Literatur
Informationen zum Artikel
Quellenangabe