Kolonialismus

Der Kolonialismus bezeichnet die politische, wirtschaftliche und kulturelle Herrschaft über ein fremdes Land oder Gebiet durch eine Kolonialmacht.

Der Begriff »Kolonialismus« stammt aus dem Lateinischen und bezeichnet die Inbesitznahme und die Beherrschung von Gebieten durch fremde Mächte. Er umfasst die Ausbeutung von Ressourcen, die Unterdrückung der einheimischen Bevölkerung sowie die Durchsetzung eigener Interessen und Normen. Der Begriff wurde im 19. Jahrhundert verwendet, um die Idee der

Historischer Hintergrund

Entwicklungen in der Frühen Neuzeit

Kolonialismus im 19. Jahrhundert

Ausbeutung und Machtmissbrauch

Einfluss und Macht durch Kolonien

Mitwirkende

Dr. Melanie Carina Schmoll

Quellenangabe

Kostenlos testen
  • redaktionell geprüfte und verlässliche Inhalte

  • altersgerecht aufbereitet im Schullexikon

  • monatlich kündbar

oder
Sie sind Lehrkraft? Starten Sie Ihren kostenlosen Test hier.