Deutsche Kolonien
Deutsche Kolonien, die überseeischen Besitzungen des Deutschen Reiches, die als Schutzgebiete bezeichnet wurden.
Weitere Medien
Informationen zum Artikel
Quellenangabe
Informationen zum Artikel
Quellenangabe
redaktionell geprüfte und verlässliche Inhalte
altersgerecht aufbereitet im Schullexikon
monatlich kündbar