Deutsche Kolonien
Deutsche Kolonien, die überseeischen Besitzungen des Deutschen Reiches, die als Schutzgebiete bezeichnet wurden.
Weitere Medien
Quellenangabe
Kostenlos testen
redaktionell geprüfte und verlässliche Inhalte
altersgerecht aufbereitet im Schullexikon
monatlich kündbar