biologische Medizin

biologische Medizin, Richtung der Medizin, welche die natürlichen Heilmittel der Naturheilkunde bevorzugt und die Selbstheilungskräfte des Körpers durch Umstimmung und Reizbehandlung zu fördern sucht. (Außenseiterverfahren)

Quellenangabe

Kostenlos testen
  • redaktionell geprüfte und verlässliche Inhalte

  • altersgerecht aufbereitet im Schullexikon

  • monatlich kündbar

oder
Sie sind Lehrkraft? Starten Sie Ihren kostenlosen Test hier.