Deutsche Kolonien

Kolonien außerhalb Afrikas

Da die Welt bereits vor der deutschen Reichsgründung unter den großen Kolonialmächten aufgeteilt worden war, blieben für die Deutschen nicht mehr viele Möglichkeiten, ihrerseits Kolonien zu gründen. In Afrika gab es keine weiteren weißen Flecken auf der Landkarte. So richtete sich der Blick nach Ostasien. Zu diesem Zeitpunkt war Bismarck

Quellenangabe

Kostenlos testen
  • redaktionell geprüfte und verlässliche Inhalte

  • altersgerecht aufbereitet im Schullexikon

  • monatlich kündbar

oder
Sie sind Lehrkraft? Starten Sie Ihren kostenlosen Test hier.