Legalismus

Legalismus der, -,

die Haltung eines Staates, der seine Handlungen immer und ohne Ausnahme an bestehenden positiven Rechtsnormen ausrichtet (Rechtspositivismus). Ein legalistisch orientierter Staat bewertet die Handlungen anderer Staaten ohne Rücksicht auf eigene Interessen oder obwaltende Machtverhältnisse allein unter dem Blickwinkel der Legalität. In der legalistischen Linie der Politik eines Staates zeigt sich

Quellenangabe

Kostenlos testen
  • redaktionell geprüfte und verlässliche Inhalte

  • altersgerecht aufbereitet im Schullexikon

  • monatlich kündbar

oder
Sie sind Lehrkraft? Starten Sie Ihren kostenlosen Test hier.