Legalismus
Legalismus der, -,
die Haltung eines Staates, der seine Handlungen immer und ohne Ausnahme an bestehenden positiven Rechtsnormen ausrichtet (Rechtspositivismus). Ein legalistisch orientierter Staat bewertet die Handlungen anderer Staaten ohne Rücksicht auf eigene Interessen oder obwaltende Machtverhältnisse allein unter dem Blickwinkel der Legalität. In der legalistischen Linie der Politik eines Staates zeigt sich
Informationen zum Artikel
Quellenangabe