Anatomie

Lehre vom Körperbau. Die Anatomie ist die Wissenschaft vom äußeren und inneren Aufbau eines Körpers und seiner Organe.