biologische Medizin
biologische Medizin, Richtung der Medizin, welche die natürlichen Heilmittel der Naturheilkunde bevorzugt und die Selbstheilungskräfte des Körpers durch Umstimmung und Reizbehandlung zu fördern sucht. (Außenseiterverfahren)
Informationen zum Artikel
Quellenangabe