Anatomie

Anatomie [zu griechisch anatomḗ »das Zerschneiden«] die, die Wissenschaft vom Bau der Lebewesen, die aus der Untersuchung der Struktur des Körpers, der Organe, Gewebe, Zellen und Organellen deren Zusammenspiel und Funktion erschließt. 

Oft wird der Begriff Anatomie mit dem Begriff Morphologie gleichgesetzt. Man unterscheidet die »normale« von der pathologischen Anatomie, die sich mit dem Studium krankhafter Veränderungen des Körpers beschäftigt. Die Anatomie wird untergliedert in makroskopische Anatomie, das Betrachten und Beschreiben der Organe mit bloßem Auge, und mikroskopische Anatomie,

Werke

Quellenangabe

Kostenlos testen
  • redaktionell geprüfte und verlässliche Inhalte

  • altersgerecht aufbereitet im Schullexikon

  • monatlich kündbar

oder
Sie sind Lehrkraft? Starten Sie Ihren kostenlosen Test hier.