Dr. phil. Paul Natterer

Präbiotische Chemie

Grundprinzipien des Lebens

Aleksandr Oparin [WikiCommons]

In der präbiotischen Chemie werden mögliche Schritte zum Leben ausgehend von nichtbelebter Materie untersucht. Es geht m.a.W. um die physikalisch-chemische Synthese von (Makro-)Molekülen lebender Organismen (Oparin, Haldane, Miller ab den 20er Jahren des 20. Jh.; vgl. Ulrich Kutschera: Evolutionsbiologie, 3. Auflage Stuttgart 2008, 133—134). [Foto rechts: Aleksandr Oparin (1894—1980), seit 1935 Leiter des Biochemischen Instituts der Akademie der Wissenschaften der UDSSR. Gelegentlich wurde er der "Darwin des 20. Jahrhunderts" genannt]

In der Wissenschaftsgeschichte standen sich hierzu zwei Positionen gegenüber: Die Theorie des Aristoteles von der Möglichkeit und Tatsächlichkeit der Urzeugung aus nichtbelebter Materie. Und die von den ersten experimentellen Biologen F. Redi und W. Harvey im 17. Jh. aufgestellte These omne vivum ex ovo, also Leben kommt nur von Leben: Es gibt keine abiotische spontane Entstehung von Leben. Diese These galt noch 150 Jahre lang als kühne, weniger gut begründete Hypothese gegenüber der Urzeugungstheorie. Erst im 19. Jh., unter dem Einfluss der Arbeit L. Pasteurs, wurde die Theorie der andauernden Urzeugung aufgegeben.

Drei Einzelfragen stellen sich der präbiotischen Chemie entsprechend den Minimalbedingungen des uns bekannten Lebens: (1) Die Frage nach der Entstehung der Proteine als Strukturmaterial und Stoffwechselmaschinen (Enzyme) des Lebens — (2) Die Frage nach der Entstehung der Nukleinsäuren als Träger des Lebensbauplans (genetische Information) — (3) Die Frage nach der  Integration und Selbstreplikation von (1) und (2).

Die Randbedingungen zu diesen Fragen sind diese: „Eigenständiges Leben außerhalb des 'Elementarorganismus Zelle' gibt es nicht, d.h. Lebensprozesse sind immer an zelluläre Strukturen gekoppelt.“ (Kutschera, U.: Evolutionsbiologie, 3. Auflage, Stuttgart 2008, 10). M.a.W.: „Alle Lebewesen (Organismen), vom Bakterium über die Pilze, Pflanzen und Tiere bis zum Menschen, sind einmal aus einer Einzelzelle hervor gegangen.“ (Kutschera 2008, 10). Im Einzelnen benennt Ulrich Kutschera, führender deutscher Evolutionsbiologe, diese 12 Grundprinzipien des Lebens (Kutschera 2008, 16—21, Hervorhebungen von mir, PN)):

(1) „Lebensprozesse sind an flüssiges Wasser (H2O) gebunden“ — (2) „Wir kennen nur zwei verschiedene Zell-Grundtypen: die einfach gebauten, urtümlichen Protocyten (Bakterienzellen) und die für alle anderen Lebewesen ... typischen Eucyten. Die letzteren sind durch einen membranumgrenzten Kern (Nucleus) gekennzeichnet und enthalten im Cytoplasma zahlreiche Organellen“. — (3) „Die Zellen sind aus organischen Makromolekülen zusammengesetzt, die aus Kohlenstoff-Wasserstoff (C-H)-Gerüsten und einigen weiteren chemischen Elementen ... bestehen. Diese sogenannten Biomoleküle bilden die Substanzklassen der Kohlenhydrate, Lipide (Fette), Nukleinsäuren (Desoyribonucleinsäuren [DNS/DNA] bzw. Ribonucleinsäuren [RNS/RNA]) und Proteine (Eiweißstoffe).“ — (4) „Erbinformation ist in Form unverzweigter Desoxyribonucleinsäure-Kettenmoleküle gespeichert. Die im Nucleus zu Chromosomen vereinigte DNA ist Träger der genetischen Information [...] Sie enthält den Bauplan des Individuums“. — (5) „Die genetische Information ist in Form eines 'Wörterbuchs', d.h. einer Nucleotid (= Basen)-Sequenz aus den 4 'Buchstaben' Adenin (A), Thymin (T), Guanin (G) und Cytosin (C ) verschlüsselt [...] Eine Abfolge von 3 Nucleotiden (Basen) auf der DNA kodiert eine Aminosäure im Genprodukt“. — (6) „Der genetische Code ... ist nahezu universell.“ — (7) „Praktisch sämtliche Proteine und Polypetide lebender Zellen bestehen aus denselben 20 'linkshändigen' L-Aminosäuren.“ Diese tragen am zentralen a-C-Atom eine Carbonsäure (-COOH)- und eine Amino(-NH2)-Gruppe (R-CHNH2-COOH). Der variable Rest (-R) bestimmt den Namen der L-Aminosäure“. — (8) „Zentrale Stoffwechselwege, wie z.B. der Kohlenhydratabbau (Glykolyse) und die Speicherung/Expression der ... DNA, sind universell ausgebildet“. — (9) „Ein Gen ist ein Abschnitt auf der DNA, der für die Biosythese eines funktionstüchtigen Proteins (Genprodukt) bzw. einer RNA verantwortlich ist (Protein- und RNA-Gene) [...] Nur ein Teil der DNA (bei Säugetieren weniger als 5 %) trägt ... Gene. Die Masse des Genoms besteht aus nicht kodierendem, vermutlich funktionslosem 'DNA-Schrott'“.

Kutschera ist ein kämpferischer Naturalist bzw. Materialist. Dies ist bei den wissenschaftstheoretisch sorglosen, fast vierschrötigen Aufstellungen zu den beiden nächsten Prinzipien des Lebens in Rechnung zu setzen (vgl. dazu das Untermenu: Philosophie der Biologie sowie die Abschnitte in Folge): (10) „Lebensvorgänge sind im Prinzip physikalisch-chemisch erklärbar. Es gibt keine naturwissenschaftlich verifizierbaren Hinweise auf das Wirken spezieller 'Lebenskräfte', einer 'Lebensenergie' oder einer nicht-materiellen 'Seele' im pflanzlichen, tierischen und menschlichen Organismus.“ — (11) „Die komplexen Strukturen der Zellen und Organe der Lebewesen können nur unter stetiger Zufuhr an freier Energie aufrechterhalten werden (Tiere: Aufnahme energiereicher Nahrung; grüne Pflanzen: Absorption von Sonnenlicht) [...] der universelle Energieträger aller Zellen ... ist das Adenosintriphosphat (ATP) [...] Diese Uniformität zentraler Biomoleküle dokumentiert den gemeinsamen Ursprung der rezenten Organismen“. — (12) "Lebewesen sind somit sich stetig selbst erneuernde, offene biochemische Systeme“.

Präbiotische und protobiotische Chronologie

Zu den folgenden realwissenschaftlichen Theoriebildungen noch einmal das bereits in der Einführung Gesagte: Da die synthetische (neodarwinistische) Evolutionstheorie nach wie vor das vorherrschende Paradigma ist, wird unsere Bilanz deren Begriffen und Einteilungen folgen und konstruktionistische bzw. auch evolutionskritische Argumente jeweils fortlaufend mit integrieren. Dasselbe gilt für den hier vorgestellten chronologischen Rahmen:

(I) Archaikum: 4, 6 [Entstehung der Erde] bis 2, 5 Mrd. Jahre. Kein Sauerstoff (anaerobe Periode, nur Protozyten).
4, 2 bis 3, 8 Mrd. Jahre: Entstehung der Erdkruste und Urozeane (großenteils durch Kometen = 'schmutzige Schneebälle') und Uratmosphäre (CO2 + H2, kein Sauerstoff!) und Extrembedingungen (unaufhörliche extreme Gewitter, Vulkanausbrüche, Meteoriteneinschläge, UV-Strahlung und Radioaktivität).
3, 8 bis 0, 4 Mrd. Jahre: Leben nur im Meer.
3, 8 Mrd. Jahre: Erste Lebensspuren.
3, 5 Mrd. Jahre: Mikroben (Protozyten).

(II) Proterozoikum: 2, 5 bis 0, 542 Mrd. Jahre: Sauerstoffanstieg in Ozeanen — Luftsauerstoff 3 %: aerobe Ära — Massenaussterben wegen prinzipiell giftigem Sauerstoff — Bildung einer Ozonschicht als Schutzschirm gegen die UV-Strahlung — Vorkommen von Eucyten.
2 Mrd. Jahre: Eucyten (Algen) und Mitochondrien.
1, 5 Mrd. Jahre: Pflanzenzellen und Chloroplasten.
1 Mrd. Jahre: mehrzellige Eukaryoten.
0, 6 Mrd. Jahre: Schwämme (Parazoa) und Ediacarawesen (weiche skelettlose sog. Vendobionta).

[Paläozoikum: 542—251 Mio. Jahre. 20—31 % Luftsauerstoff — Kambrische Explosion des Lebens: Urknall der Paläoontologie in Form einer hochdifferenzierten Tierwelt mit vielfältigen Arten hartschaliger und/oder skelettbesitzender Metazoa (Mehrzeller). Siehe Untermenu: Morphologie und Anatomie!]

Hypothesen zur Biogenese

Ursuppenhypothese: Ausgangspunkt sind hier die geschätzten 10 Mrd. kg organische Moleküle / Jahr im Urozean (vgl. Kutschera 2008, 134)

Impakthypothese: Ausgangspunkt ist hier der archaische extraterrestrische Materieeintrag von 108 kg / Jahr (mit 14 % organischen Verbindungen in Kometen) (vgl. Kutschera 2008, 135).

Vulkanschlothypothese: Ausgangspunkt ist hier die anaerobe Reaktion von Schwefelwasserstoff (H2S) mit Eisensulfid (FeS) an Unterwasservulkanen, welche zu Aminosäuren führen soll. (Eine Variante ist eine photoautotrophe Biogenese an der Erdoberfläche, vgl. Kutschera 2008, 135—137.)

Dawkins (The God Delusion, London 2007, 162—169) führt wegen der extremen Unwahrscheinlichkeit dieser Hypothesen (lokal und in sich betrachtet) eine — wie er es nennt — planetarische Version des sog. Anthropischen Prinzips ein. Letzteres besagt, dass wir in einem statistisch unwahrscheinlich lebensfreundlichen Universum leben, das so hochkomplexe und statistisch praktisch ausgeschlossene Schritte wie (a) die Synthese von Leben in präbiotischer Chemie, (b) die Entstehung von Eukaryoten, (c) das Auftreten von Bewusstsein begünstigt und ermöglicht. Dies könne, so Dawkins, nur so gedacht werden, dass wir in einem Universum und auf einem Planeten leben, das einen extrem seltenen Glücksfall darstellt. Dieser entferne sich aber aus dem Bereich des Unmöglichen, wenn man angesichts der mindestens 1 Mrd. Planeten in unserer Galaxie und der 100 Mrd. Galaxien im Universum davon ausgehe, dass Leben auf 1 von 1 Mrd. Planeten entstehen könne. Dann gäbe es im Universum immer noch Leben auf 1 Mrd. Planeten.

So elegant diese Rechnung auf den ersten Blick aussieht, so bietet sie sowohl quantenmechanisch wie makrophysikalisch keine kausale Erklärung extraterrestrischen Lebens, sondern lediglich eine deskriptive statistische Extrapolation der globalen Situation im Universum - wenn und nachdem anderweitig spontane Biogenese auf physikalistischer Grundlage kausal erklärt worden sein sollte. Andererseits ist schon die Interaktion von Astrophysik, Geophysik und Biosphäre von so unvorstellbarer individueller Komplexität, dass sich in jüngster Zeit Stimmen häufen, welche die spontane physikalische Möglichkeit außerirdischen Lebens schlicht zurückweisen. Gute Darstellungen dessen, worum es hier geht, finden Interessierte in allgemeinverständlicher Form bei I. Stewart / J. C. Lynch: Expedition Erde. Die Urkräfte unseres Planeten, München 2008 oder D. Beerling: The Emerald Planet: How Planets Changed Earth History, Cambridge 2007.

Dasselbe gilt für die ebenso unwahrscheinliche Entstehung einer interessanten Chemie mit stabilen chemischen Elementen als entfernter physikalisch-chemischer Voraussetzung von Leben. Unsere Chemie und damit das Leben hängt an präziser Feinstabstimmung von grundlegenden Naturgesetzen und Naturkonstanten (v.a. 6 Zahlen; vgl. Rees: Just six numbers, London 1999, und Our Cosmic Habitat, London 2001). Bei Dawkins (2007, 169ff) ist dies die kosmologische Version des Anthropischen Prinzips. Um aus der Todeszone statistischer Unmöglichkeit herauszukommen, zieht Dawkins hier die z.Zt. vielerörterte Multiversumtheorie heran (2007, 174—175). Siehe dazu auch Smolin: The Life of the Cosmos, London 1997; Barrow: Theorien für Alles, Heidelberg/Berlin/New York 1992 [neubearb. als New Theories of Everything, Oxford 2007], und diese Verknüpfung zur physikalischen Grundlagendiskussion. Die extravagante und spekulative Multiversumtheorie ist freilich für den Naturalismus ähnlich herausfordernd wie die Annahme Gottes, wie Kritiker einwenden. Das Multiversum wäre als unendliche Totalität, Komplexität und zugleich Einheit jenseits von Raum und Zeit in der Tat quasi ein Modell des Absoluten oder Gottes.

Darüber hinaus wird der Multiversumtheorie m.E. zu Recht dasselbe wie oben entgegengehalten, dass sie speziell quantenmechanisch keine kausalen Erklärungen der Phänomene liefert, sondern lediglich deren deskriptive statistische Extrapolation.

Protein-Biogenese

Aminosäuren als Grundbausteine der Proteine lassen sich präbiotisch synthetisieren (Kutschera 2008, 140): Kritische Standpunkte betonen hier gerne, dass die Synthese nicht unvermischt und unaufbereitet und stabil genug gelingt (vgl. Junker/Scherer: Evolution, Gießen 2006, Kap. 7).

Die nächste Stufe auf dem Weg zu Proteinen sind Polypeptide, d.h. Ketten von Aminosäuren: Polymerisationreaktionen / Kettenbildungen konnten präbiotisch nicht erzeugt werden.

Proteine konnten a fortiori präbiotisch nicht erzeugt werden. Proteine haben nicht nur eine Primärstruktur (Reihenfolge von Aminosäuren), sondern auch eine Sekundärstruktur (lokale räumliche Struktur: Helix, Faltblätter, Schleifen), eine Tertiärstruktur (globale Raumstruktur) und eine Quartärstruktur (mehrere Proteine mit einer Funktion). Die Faltung und Raumstruktur bestimmt die Funktion des Proteins, so dass die geringste Änderung eine Fehlfunktion oder Krankheit verursachen kann. Dabei liegt das sog. Levinthal-Paradox vor, insofern einerseits die zufallsstatistisch benötigte Zeit zum Durchlaufen aller möglichen Faltungen eines Proteins Quadrillarden Jahre beträgt, tatsächlich aber in Sekundenbruchteilen eine exakt definierte räumliche Struktur entsteht. Man hat hierfür intelligente Proteinmaschinen (Faltungshelfer-Proteine oder Chaperone) ausfindig machen können, welche wie ein Navigationsgerät den Pfad zur endgültigen Proteinstruktur zeigen und bahnen.

Biogenese von Nukleinsäuren (DNS/RNS)

Nukleobasen / Nukleotide als Grundbausteine der Nukleinsäuren umfassen (a) (Desoxy-)Ribose (Zucker), welche sich präbiotisch synthetisieren lässt, aber nicht unvermischt und unaufbereitet und stabil genug, (b) Phosphorsäure und (c) Stickstoffbase, welche sich präbiotisch synthetisieren lässt (Cyanwasserstoffkomplexe).

Die nächste Stufe auf dem Weg zu Nukleinsäuren sind Polynukleotide, Ketten von Nukleotiden. Sie lassen sich nur synthetisieren, wenn fertige Nukleotide oder sogar Oligonukleotiden (kleine Ketten) als Ausgangssubstrat gewählt werden und dann nur zusammen mit blockierenden / zerstörerischen Nebenverbindungen. Kutschera (2008, 140) zeigt sich hier dennoch sehr optimistisch. Nukleinsäuren (DNS/RNS) konnten a fortiori präbiotisch nicht erzeugt werden.

Integration/Selbstreplikation von Proteinen und Nukleinsäure

Genom [WikiCommons]Voraussetzung für Leben ist die genaue räumliche Gestalt lebensnotwendiger Moleküle wie Aminosäuren und Nukleotide: In der Natur herrscht eine molekulare Asymmetrie, d.h. Moleküle weisen Chiralität, Händigkeit auf (siehe oben). Sie existieren in spiegelbildlichen Versionen, oder Enantiomeren, die nicht kongruent zueinander sind. In der nichtorganischen Natur entstehen bei Reaktionen und Kristallisationen nur Razemate (1:1-Gemische von Enantiomeren), da beide spiegelbildliche Formen gleich wahrscheinlich sind. [Skizze rechts: Schematischer Aufbau des Genoms]

Für die Existenz, Organisation und Physiologie biologischer Organismen ist jeweils nur eine von zwei nicht kongruenten (spiegelbildlichen) Formen oder Enantiomeren lebensnotwendig (Homochiralität). Die Frage, woher die enantiomerenreinen Substanzen stammen, ist experimentell und theoretisch nicht beantwortet. Eine spekulative Hypothese findet sich dazu u.a. bei Kutschera 2008, 248—249).

Kritiker sprechen ferner von einem präbiotischen Henne-Ei-Dilemma: Was war zuerst? Die Henne (Proteine) oder das Ei (Nukleinsäuren DNS/RNS)? In Einzellern werden zur Synthese von Nukleinsäuren mindestens 100 Proteine (Enzyme) benötigt. Umgekehrt wird zur Herstellung von Proteinen (Proteinbiosythese) die hochkomplexe DNS benötigt. Das heißt: Proteine und Nukleinsäuren werden gleichzeitig benötigt. Die einfachsten bekannten selbstreplikativen Organismen sind sodann Zellen, also Replikationseinheiten mit Biomembranen (Aggregate von Phospholipiden mit differenzierten Transportmechanismen). Das Minimum an Genen für solche selbstreplikative Organismen (Bakterium Mycoplasma genitalium) ist 470 Gene bzw. beim Archaebakterium 1738 Gene.

Zur Beantwortung der Frage nach der ersten Replikationseinheit, d.h. einem molekularen Modell aus einem Protein und einer RNS, das sich selbst verdoppeln kann, ist ein Lösungsansatz das Modell einer RNS-Welt: Man hat Nukleinsäuren mit enzymatischer Aktivität entdeckt (RNS, Ribozyme). Ein mathematisches Modell der Stabilisierung und Optimierung (nicht der Entstehung) eines Replikationssystem (Hyperzyklus) für Replikaseproteine und Ribozyme mit Replikaseaktivität wurde entwickelt (Manfred Eigen und Mitarbeiter, vgl. Kutschera 2008, 226—228 und Junker/Scherer 2006, 109). Es sind jedoch keine präbiotischen Synthesewege der RNS-Welt bekannt.

Kutschera 2008, 141—142 bietet zwar eine Spekulation, die auf Zeit und Quantität setzt, sowie auf die spontane Selbstorganisation von Biomolekülen unter bestimmten Voraussetzungen verweist (ebd. 138—140): Spontane Lipid-Doppelschichten in Wasser — Spontane Ausbildung von DNS-Doppelsträngen in Form geordneter Schrauben — Spontane 3-dimensionale Strukturen von Polypeptiden in Wasser — Spontan sich ausbildende DNS-Vesikel im biotechnologischen Gen-Transfer. Kutschera ist überzeugt (ebd. 142: „Die Urozeane trugen die 'Keime' der ersten Zellen in sich, d.h., Leben war eine im System der Erde vorprogrammierte Erscheinung“. Vgl. ebd.143: „Die bekannten Gesetze [!] der Physik und Chemie ... sowie die Systemeigenschaften [!] der Biomoleküle ... sind somit ausreichend, um im Prinzip die Entstehung der ersten Protozellen erklären zu können“. Die Frage wäre dann mithin jene Kants (siehe das Untermenu: Philosophie der Biologie), ob nämlich die physikalisch-chemische Natur in ihren Gesetzen und System-Eigenschaften das Potenzial zur Biogenese enthält. Die Biogenese hätte aber dann diese weitreichenden Gesetze und Eigenschaften zur Voraussetzung.

Das Argument Kants zur Sache ist, dass das Faktum der Evolution des Lebens und der Lebensformen, die Kant so beschreibt, wie sie auch heute gedacht wird, akzeptiert werden kann, ohne dass sich logisch die Situation gegenüber einer Theorie der direkten Erzeugung oder Erschaffung der Arten ändert. Auch die Evolutionstheorie muss dem „Mutterschoß der Erde“ und ihrem ursprünglichen „chaotischen Zustande“ eine „auf alle diese Geschöpfe zweckmäßig gestellte Organisation beilegen, widrigenfalls die Zweckform der Produkte des Tier- und Pflanzenreichs ihrer Möglichkeit nach gar nicht zu denken ist“ (Kritik der Urteilskraft [KU] B 369). Dann hat der Evolutionstheoretiker aber „den Erklärungsgrund nur weiter aufgeschoben, und kann sich nicht anmaßen, die Erzeugung jener zwei Reiche von der Bedingung der Endursachen unabhängig gemacht zu haben“ (KU B 369—370). Davon abgesehen macht Kutschera selbst folgenden empirischen Vorbehalt (2008,142):

„Es sollte ausdrücklich hervorgehoben werden, dass die ... dargestellten Vorgänge [Entstehung der Protozellen] noch nicht im Labor simuliert werden konnten. Die Herstellung einer sich selbst fortpflanzenden Protozelle im Reagenzglas aus chemisch synthetisierten Einzelkomponenten ist bisher noch keinem Wissenschaftler gelungen. Das umgekehrte Experiment, d.h. die Zerlegung einer lebenden Zelle in Einzelbausteine und die anschließende Rekonstruktion des intakten, sich vermehrenden Systems durch Zusammenfügung der Komponenten steht ebenfalls noch aus.“

Evolutionskritiker weisen natürlich ganz besonders auf die schiere Größe des Problems der Entstehung von biologischer Information unter präbiotischen Bedingungen hin. Zum Hintergrund noch einmal die bekannten Basisdaten: Nukleotide bestehen aus vier Nukleobasen, von denen je zwei komplementär sind. Drei Paare bilden ein Codon oder Triplett, was einer spezifischen Aminosäure entspricht (vergleichbar einem Buchstaben der menschlichen Sprache). Dutzende bis Hunderte der Codons (vergleichbar Worten und Sätzen der Sprache) entsprechen Proteinfunktionen (Proteinbauplänen). Mittels des Enzyms RNS-Polymerase erfolgt die Transkription in Boten-RNS (mRNS), d.h. die Anfertigung einer Arbeitskopie. In den Ribosomen erfolgt dann über Transfer-Ribonukleinsäuren (tRNS) die Translation des Codes, d.h. die Übersetzung in Proteinstrukturen (Proteinkodierung), deren Aminosäuresequenz eindeutig durch die Triplettsequenz der mRNS bestimmt ist. Eine Folge von Tripletts, welche einen Proteincode ausmachen, ist ein Gen.
Für die Tripletts oder Codons gibt es nun 64 mögliche Kombinationen (= Aminosäuren). Verwendet werden aber nur 20 Kombinationen + drei Stoppcodons (proteinkodierende Gene werden durch sog. Promotoren und einen Startkodon angezeigt). D.h. mehrere Codons stehen für dieselbe Aminosäure und sind so maximal redundant. Der genetische Code ist informationstheoretisch, syntaktisch und semantisch von nachweisbarer hochgradiger Optimalität, Fehlertoleranz und Anpassungsfähigkeit.
Die DNS zeigt eine äußerst hohe Informationsdichte. Sie umfasst nicht nur die Proteinsyntheseinformation, sondern auch vielfältige Regulationssequenzen und Ribozymen-Codes, überlappende Gene etc., wobei auch die Raumstruktur der DNS informationstragend ist. Im Bild: Sie ist ein „Computer ..., der gleichzeitig die Information für eine Computerfabrik enthält und Kopien von sich selbst herstellt“ (Junker/Scherer 2006, 120 und überhaupt Kap. 8)

Es besteht zwar eine sog. stereochemische Hypothese zur Entstehung des Codes. Gemeint ist damit die Entstehung via einer primitiven Vorform von RNS-Sequenzen (RNS-Oligonukleotide, Aptamere), die sich räumlich falten können und je nach Faltungsart spezifische Bindungsoptionen für Liganden (organische Moleküle) bieten. Der Hypothese steht eine transastronomisch kleine Wahrscheinlichkeit zufälliger proteincodierender Aptamerfolgen (Gene) und eine außerordentlich hohe Fehlerquote entgegen. Dazu treten katastrophale Destabilisierungsszenarios (Funktionsstörungen) bei späteren Umprogrammierungsprozessen zu den mindestens acht unterschiedlichen genetischen Codes der heutigen Organismen (so Junker/Scherer 2006, 123). Experimentell sollen solche Versuche durchgängig selektionsnegativ sein (ebd. 125). Der genetische Code und seine Übersetzungsvorgänge tragen für Evolutionskritiker Kennzeichen einer "irreduzibel komplexen Struktur" (ebd. 125, zur Kontroverse und Diskussion um diesen Begriff siehe in Folge).

Ähnliche skeptische Überlegungen finden sich angesichts Hypothesen zur Entstehung der Information für funktionale Proteine (Enzyme — Regulationsproteine — Strukturproteine): „Eine Aminosäurekette von n Positionen kann bei 20 verschiedenen Aminosäuren insgesamt 20 hoch n unterschiedliche Sequenzen annehmen. Diese Zahl wird als Sequenzraum R bezeichnet. Bei 100 Positionen umfasst der Sequenzraum R = 20100 = 10130 Sequenzen. Da das Universum auf etwa 1080 Atome geschätzt wird, ist der Sequenzraum transastronomisch groß“ (Junker/Scherer 2008, 125-126). Oder: "Für eine bestimmte [biologische] Funktion kann man heute zumindest grobe Abschätzungen vornehmen, wie viele [aktive] Sequenzen im Sequenzraum diese Funktion ausüben könnten [...] Folgendes Zahlenbeispiel soll das veranschaulichen: Der in der Biomasse der Erde enthaltene Kohlenstoff wiegt etwa 280 Milliarden Tonnen. Wenn man diesen Kohlenstoff verwenden würde, um damit Proteine einer Länge von 92 Aminosäuren [die durchschnittliche Länge liegt um ein Vielfaches höher, bei 200—500 Aminosäuren] ... herzustellen, dann könnte man insgesamt etwa 1037 Proteinmoleküle herstellen. Die rechnerische Chance, dass sich darunter ... ein funktionales [Protein wie ein Enzym] befindet, wäre mit ... 10-7 [bis] 10-26 [und 10-40] nahezu Null.“ (Junker/Scherer 2006, 126—127).

Kritikern erscheint die hypothetische Urzelle und insbesondere ihre biologische Information nach dem derzeitigen Kenntnisstand ebenfalls als ein irreduzibel komplexes System. Man weist darauf hin, dass eine parasitär lebende Zelle (Einzeller) mindestens 200 Proteine und damit 200-300 proteincodierende Gene benötigt. Dies ist mithin die minimale Größe von Zell-Genomen (vgl. Junker/Scherer 2006, 129).

Eine wissenschaftstheoretisch reflektierte Zusammenfassung dieses Abschnitts resp. Kapitels 'Präbiotische Chemie' können Interessierte auf der folgenden Verknüpfung 'Wissenschaftsphilosophie der chemischen Evolution: Interdisziplinärer Diskussionsstand zur präbiotischen Nuklein- und Proteinsynthese' einsehen:

Molekularbiologie

Basisdaten

Die zwei Säulen der Evolutionstheorie sind die Molekularbiologie (Entstehungswahrscheinlichkeiten) und die Populationsbiologie (Fixierungswahrscheinlichkeiten). Menschen (22.000 Gene) wie Säugetiere überhaupt (Maus 22.000 Gene) haben im Verhältnis sehr wenige Gene (nicht wesentlich mehr als Würmer (20.000 Gene) und Fliegen (14.000 Gene) und weniger als manche Blütenpflanzen (28.000 Gene) und Fische (27.000 Gene). Das Genom (Menge an DNS im Zellkern) ist ebenfalls hinsichtlich der Komplexität der Lebensformen in sich nicht aussagekräftig: Amphibien (20000 MB) und Pflanzen (bis zu 68000 MB) haben um Dimensionen größere Genome als Mensch (3000 MB) und Säugetiere (Maus: 2600 MB).

Die größere genetische Leistungsfähigkeit der Säugetiere erklärt sich wohl durch erhöhte Kombinationsmöglichkeit der Genmodule (Exons) nach der Gentranskription (alternatives Spleißen), so dass dasselbe Gen viele verschiedene Proteinvarianten erzeugen kann. Zum Hintergrund: Bei Einzellern (Bakterien) finden sich oft hintereinander geschaltetete Folgen von Genen (Operone), welche kooperierende Proteine codieren. (Proteine sind dabei meist Enzyme, d.h. Stoffwechselmaschinen der Zelle.) Bei zellkernhaltigen Lebewesen (Eukaryoten) sind die DNS-Sequenzen in Exons (kodierende Sequenzen) und Introns unterteilt. In diesem Zusammenhang kommt es auch zum sog. Exon shuffling, d.h. der Kombination von Exons unterschiedlicher Gene bei der Rekombination und durch Transposone (springende Gene). Schätzungen gehen davon aus, dass über 70 % der menschlichen Gene in dieser Weise polyfunktional sind. Daher hat der Mensch 10 mal mehr Proteintypen als Gene. Die DNS ist überhaupt ein dynamisches Molekül in laufendem Umbau und Veränderung: Es gibt mobile DNS (springende Gene, s.o.) und horizontalen Gentransfer, d.h. die Übernahme frei flottierender DNS (Plasmide) von Individuen anderer Arten (z.B. über Viren und Nahrung). Im menschlichen Genom stammen 220 Gene aus solchem horizontalen Gentransfer.

Nur 1, 2 % des menschlichen Erbgutes bestehen aus klassischen Genen. Eine der bahnbrechendsten Entdeckungen der letzten 15 Jahre war nun, dass der Rest kein mitgeschleppter DNS-Schrott ist, so die bisherige Annahme, sondern wahrscheinlich ein für die Entwicklung von Komplexität und auch neuen Arten zentrales Instrumentarium. Seine Leistungen sind die Duplikation, Umsetzung und Neukombination von Genen, aber auch die aktive Hemmung genetischer Aktivitäten durch die sog. RNS-Interferenz. Diese Prozesse sind nicht dem reinen Zufall überlassen, sondern werden vom Genom selbst organisiert. 43 % des Genoms bestehen so aus kreativen Modulen im Dienst der binnen- und zwischenzellulären Wahrnehmung, Kommunikation und kreativen, aktiven Konstruktion, aber auch hochkomplexen Kontrolle und Überwachung. Es handelt sich v.a. um sog. Mikro-RNS aus der genetischen Gattung der sog. Repeat-Sequenzen. Diese können von den Zellen selbst hergestellt und anschließend aktiv in das Genom des Zellkerns eingefügt werden = sog. reverse, umgekehrte Transkription (vgl. Bauer: Das kooperative Gen, 2008, 40—45, 81—99, 112—119).

Dabei scheint es in der Biogenese zu einer entsprechenden Überproduktion neuer Gene bzw. Genkombinationen des Genoms zu kommen (sog. Exaption) wie in der vor- und nachgeburtlichen Ontogenese zur riesigen Überproduktion von Neuronen, Dendriten und Synapsen des Gehirns (sog. Blooming), welche in der weiteren kindlichen Entwicklung auf ein funktionales Maß 'zurückgeschnitten' werden (sog. Pruning).

Viele Forschungsbeiträge der letzten 15—20 Jahre stützen — damit zusammenhängend — die folgende Sicht, hier in der Formulierung von Bauer (Das kooperative Gen 2008, 94—95): "Entgegen dem darwinistischen Dogma, genetische Mutationen ereigneten sich gleichmäßig und rein zufällig (und würden anschließend von der Selektion ausgewählt oder verworfen), verhält es sich ... tatsächlich genau umgekehrt: Werden die Umgebungsbedingungen [z.B.] für Bakterien ungemütlich genug, steigert sich die Wahrscheinlichkeit, dass genetische Veränderungen eintreten, um das bis zu Zehntausendfache."

Mutationen

Genom-Mutationen: Sie bestehen in der Änderung der Chromosomenanzahl eines Organismus (diploid — haploid (z.B. Keimzellen) — polyploid)

Gen-Mutationen: Genmutationen sind Punktmutationen. Diese können auch sog. stille oder neutrale Mutationen sein, d.h. ohne Auswirkungen (wegen der Redundanz des genetischen Codes). Mutationen können im Übrigen auch nicht nur die Keimzellen betreffen, sondern den Aufbau und die Funktionen der Körperzellen. Wenn regulatorische Bereiche der DNS betroffen sind, dann können große phänotypische Auswirkungen erfolgen (überzählige oder fehlangeschlossene komplexe Gestaltmuster wie Glieder und Organe). Dies betrifft insbesondere die sog. genetischen Schalter für das An- und Abschalten von Makrostrukturen (Homeoboxgene). Diese sind oft in sog. Homeoboxen gebündelt und entsprechen in der Informatik dem Aufrufen eines Computerprogramms, nicht dem Programmieren desselben (vgl. Kutschera 2008,  241—242). Laborexperimente (Lenski et al.) zur Evolution in 12 Evolutionslinien von Bakterien mit jeweils 1 Milliarde Mutationen über 20 Jahre haben eine begrenzte Größen- und Fitnesssteigerung der Zellen gezeigt. Das umweltspezifische Anpassungs- und Optimierungspotenzial wurde durch Spezialisierung mithin nahezu ausgeschöpft, verbunden mit Fitnessverlusten für andere Umwelten. Die Änderungen verblieben im mikroevolutiven Bereich. Letzterer Befund wird von Kritikern betont, und zwar gegen eine unbesehene spekulative Ausweitung oder Extrapolation in den makroevolutiven Bereich der Phylogenese (so beispielsweise bei Kutschera 2008, 225—226).

Chromosomen-Mutationen: Chromosomenmutationen umfassen den Verlust eines DNS-Abschnittes (Deletion), die Einfügung (Insertion), Verlagerung (Translokation) und Verdopplung (Duplikation) von DNS-Abschnitten bis zu ganzen Chromosomen.

Mutationsraten

Ernst Mayr [WikiCommons]Mutationsereignisse sind ungerichtet und die Mutationsrate darf eine Fehlertoleranzgrenze nicht überschreiten, da sonst die biologische Information zerfällt und die Population aufgrund zu vieler mangelhafter Mutanten ausstirbt. Deswegen verfügt jede Zelle über ein Arsenal von Schutz-, Kontroll- und Reparaturmechanismen. Diese Mechanismen senken die Mutationshäufigkeit auf 10-9 bis 10-11 pro Nukleotid und Replikation: „Die Präzision ist derart hoch, dass nur ein Vergleich zum Verständnis hilft: Der Text der Bibel enthält knapp 4.000.000 Buchstaben. Wenn eine Sekretärin mit der gleichen Genauigkeit wie die DNS-Synthese einer Bakterienzelle arbeiten könnte, dann wäre der erste Tippfehler nach ca. 200 Abschriften der Bibel zu erwarten. Dabei dürfte sie an einer Abschrift aber nur rund 10 Minuten arbeiten“ (Junker/Scherer 2006, 138). [Foto oben: Der deutsch-amerikanische Zoologe Ernst Mayr (1904—2005), einer der Väter der Synthetischen Evolutionstheorie und des Biospezies-Konzeptes]

Spontanmutationen können vorteilhaft und überlebenswichtig sein. Sie bewegen sich experimentell in der Regel auf der Ebene der Mikroevolution und beinhalten keine Komplexitätszunahme. Ihre Reichweite kann bei der Tier- und Pflanzenzüchtung beobachtet werden. Hier zeigt sich, dass Mutationen tendenziell entdifferenzierend sind und zu Uniformierung zu führen scheinen, während Differenzierungs-Mutationen empirisch entsprechend selten zu belegen sind. Polyploidisierung (Vervielfachung von Chromosomensätzen) insbesondere scheint lediglich zu mikroevolutiver Artbildung innerhalb eines immer wiederkehrenden Mutantenspektrums zu führen (Regel der rekurrenten Variation). Nur in diesem sehr eingeschränkten Sinne ist die Aussage Kutscheras (2008, 257) zutreffend: „Als einen 'Motor' in der Evolution der Blütenpflanzen [haben wir] die Polyploidisierung kennen gelernt“.

Die überwältigende Mehrzahl der Mutationen ist allerdings von schädlicher Wirkung. Mutationen führen ganz überwiegend zu Defekten, die durch Selektion beseitigt werden. Vgl. Kutschera 2008, 70: „Viele ... Mutationen führen zum Funktionsausfall bestimmter Gene, wodurch Krankheiten oder gar der Tod verursacht werden. Neben diesen Erbgutänderungen mit negativem Effekt gibt es jedoch auch ... Mutationen, die einen ... Selektionsvorteil bringen“. Dazu Kutschera (2008, 257) genauer: „Die Mehrzahl der Mutationen sind Selektions-neutral, d.h. sie führen zu keiner Änderung im Phänotyp. In der Tat bringen jedoch viele spontane Änderungen in der Erbinformation keinen Selektionsvorteil für das Individuum (s. z.B. die genetisch bedingten Krankheiten des Menschen). Allerdings kennen wir Fallstudien, die gezeigt haben, dass 'adaptive Keimbahn-Mutationen' gegenüber dem Wildtyp einen Überlebensvorteil erbracht haben“.

Der moderne, genetisch argumentierende evolutionsbiologische Konstruktivismus betont: "Solche sogenannten Punktmutationen ... allein führen - selbst wenn sich viele Mutationen summieren ... nicht zur Bildung neuer Spezies. Dafür ist nicht ein einziges Beispiel bekannt [...] Im Übrigen zeigt die Genomanalyse vieler Spezies, dass Mutationen dieser Art ... keinswegs rein zufällig auftreten, sondern dass Genome bestimmte Bereiche für intensive Mutationstätigkeit können, während andere Teile (z.B. Gene für Körperbaupläne) davor aktiv geschützt werden." (Bauer: Das kooperative Gen, Hamburg 2008, 71) Eine Arbeitsgruppe evolutionskritischer Biologen um Gerald R. Bergman hat sich die Mühe gemacht und die einschlägige Forschungsliteratur (ca. 19 Mio Veröffentlichungen) nach vorteilhaften Mutationen durchforstet. Man stieß auf 453.732 beschriebene Mutationen, von denen lediglich 186 vorteilhaft für die betreffende Lebensform waren. Aber auch diese 186 Mutationen waren nicht mit einer Zunahme von Information für neue leistungsfähige Proteine verbunden. (Bergman: Darwinism and the Deterioration of the Genome. In: Creation Research Society Quarterly 42 (2005), 110—112)

Die Gesamtheit aller beim Menschen festgestellten Mutationserscheinungen katalogisiert fortlaufend A. V. McKusick (Mendelian Inheritance in Man, 8. Auflage Baltimore 1990). Zur Zeit zählt die einschlägige Forschung über 5000 rekurrent auftretende erbliche Abweichungen: "Fast alle davon sind als Krankheiten oder Missbildungen im medizinischen Sinne des Wortes anzusprechen [...] Gewiß fallen Mutationen, die schwere körperliche und geistige Schäden verursachen, mehr auf und stellen demnach eine gewisse Interessantheitsauslese dar, weil die betreffenden Patienten früher oder später den Weg zum Arzt finden. Die Tatsache aber, daß Hunderten von Genetikern, die im letzten halben Jahrhundert genetische Untersuchungen am Menschen durchführten, in keinem einzigen Falle der Nachweis einer überzeugenden vorteilhaften Mutation gelang, ist ein klarer Beweis dafür, wie unsicher das Fundament ist, auf dem der Neodarwinismus einen wahren Wolkenkratzer an Spekulationen errichtet hat." (Schmidt, F.: Grundlagen der kybernetischen Evolution, Krefeld 1985, 26, 31)

Offizielle Schätzungen in der genetischen Evolutionsbiologie besagen, dass auf eine nützliche Mutation 10.000 (das ist das Minimum) bis 1.000.000 schädliche Mutationen kommen. Bei der sehr vorsichtigen und konservativen Schätzung von 1:10.000 bedeutet dies, dass lediglich 0, 0001 % der Punktmutationen positiv sind (vgl. Sanford, J. C.: Genetic Entropy & the Mystery of the Genome, London 2005, Kap.2). Die Evaluation des empirischen Befundes geht dahin, dass 70 bis 80 % der negativen Mutationen von der natürlichen Auslese nicht erfassbar sind. Bei den seltenen Punktmutationen mit einer Tauglichkeitszunahme werden sogar 99 % von der natürlichen Auslese nicht erfasst. Das heißt: Die allermeisten Mutationen sind im Blick auf die darwinistische Selektion near-neutral. Dies hat bekanntlich zur Formulierung der sog. Neutralen Theorie der molekularen Evolution durch Motoo Kimura (1924—1994) geführt, den führenden Evolutionsgenetiker und großen alten Mann der Populationsgenetik nach dem Zweiten Weltkrieg. Die grundlegenden Berechnungen Kimuras gehen dementsprechend dahin, dass phänotypische Überlegenheit nur mit 0, 4 % die Gesamtvererbung beeinflusst. Das heißt: Von o.g. 0, 0001 % vorteilhafter Mutationen werden noch einmal 99 % von der natürlichen Auslese nicht erfasst und bringen somit keinen Wettbewerbsvorteil. Auf der anderen Seite bedeutet dies aber, dass parallel dazu die negativen Mutationen, welche 99, 9999 % aller Mutationen ausmachen, und selber auch zu 70 % bis 80 % nicht von der Selektion erfasst und eliminiert werden, sich trotz der genetischen Kontroll- und Reparaturmechanismen tendenziell massiver als positive Mutationen im Genom akkumulieren, sodass der maßgebliche Pionier der Gentechnologie, John Sanford, von einer genetischen Entropie spricht, also einer fortlaufenden Komplexitätsverringerung und Abbaus von sinnvoller und nützlicher Information im Genom. Mehr zur Neutral resp. Near-neutral-Theory der Evolution und zur genetischen Entropie-These finden Interessierte in folgendem Skript:

In der Literatur wird häufig — v.a. von evolutionskritischer Seite — die Entstehungsmöglichkeit und -wahrscheinlichkeit einer molekularen Maschine durch Evolution verhandelt. Meistens anhand des nanotechnischen Elektro-Rotationsmotors von Escherichia coli. Dies ist ein selbstbewegliches Bakterium von 2 Mikrometer Länge + 10 Mikrometer für die Antriebsgeißel (Schiffsschraube) und 8—15 Elektromotoren mit einer Arbeitsspannung von 25—200 mV und einer Leistung von je 10—15 Watt und einer Höchstgeschwindigkeit von 25 Mikrometer/sec. Der Bakterienmotor wird aus 40 Proteinen gebildet und durch 8 Proteine gesteuert. Selbst wenn eine 100 mal größere Mutationshäufigkeit als heute vorliegend angenommen wird, liegt die Wahrscheinlichkeit, dass der Umbau eines bereits konstruktiv vorangepassten Motorproteins durch im Minimum 10 Mutationen während einer Generationszeit in einer Zelle auftritt bei 10-60. Für einen Selektionsvorteil würden gleichzeitig 16 solcher Proteine benötigt, welche zusammen erst eine neue Mikrofunktion entstehen lässt: „Dieser Sachverhalt zeigt, dass der Umbau von präadaptierten Motorproteinen durch die zufällige Entstehung aller notwendigen Mutationen zu einem Zeitpunkt in einer Zelle mit derart niedriger Wahrscheinlichkeit abläuft, dass dieses Ereignis selbst in erdgeschichtlichen Zeiträumen nicht zu erwarten ist“ (Junker/Scherer 2006, 162). Das Fazit dieser Autoren ist dennoch vorsichtig: „...zeichnet sich ... ab, dass die bekannten molekularen Evolutionsmechanismen den Ursprung einer komplexen Struktur wie des Bakterienmotors nicht erklären können [...] Es kann [allerdings] nicht ausgeschlossen werden, dass künftig neuartige Makroevolutionsmechanismen entdeckt werden, welche die hier geschilderten Probleme lösen.“ (ebd. 163) Jüngste Forschungen berichten tatsächlich, dass ein primitver Bakterienmotor in einem Evolutions-Experiment spontan entstanden sein soll. Vgl. auch Dawkins (The God Delusion, London 2007, 147, 156—159), der darauf hinweist, dass die überzeugendste evolutionsbiologische Erklärung des bacterial flagellar motor von dem theistischen Evolutionisten und überzeugten Christen Kenneth Miller stammt, dem Autor des Buches: Finding Darwin's God, New York 1999.

Möglicherweise unterschätzen Kritiker hier die Entwicklungspotenziale von Organismen. Auf der anderen Seite sind die Denkfiguren selbst führender Evolutionisten gelegentlich von außerordentlicher Schlichtheit, und durchsetzt von Trugschlüssen. Hier drei Beispiele. Kutschera (2008, 247—248) argumentiert an einer Stelle so: „Evolutionskritiker gehen ... davon aus, dass eine für Proteine kodierende (funktionale) DNA-Sequenz ... spontan in einem Schritt entstanden ist." NB: Das ist normalerweise keine Annahme von Evolutionskritikern, aber geschenkt! Der Trugschluss (Paralogismus) kommt im Folgenden: "Die chemische Evolution ... war jedoch ein über zahlreiche kleine Stufen ablaufender Prozess [...] Ein modernes Auto (oder Flugzeug) wird nicht in einem Schritt aus den Rohmaterialien (Eisenerz, Kautschuk, Kunststoffplatten) hergestellt. Es sind zahlreiche Einzelschritte notwendig, um aus immer komplexer werdenden fertigen Bauteilen (z.B. Motor, Getriebe usw.) das funktionstüchtige Gesamtsystem 'Auto' bzw. 'Flugzeug' herzustellen“. Hier liegt gleich eine Serie von Paralogismen vor: Es geht erstens nämlich nicht um wenige große oder viele kleine Schritte, es geht um die Ursache der Ordnung oder Komplexität des Systems. Zweitens: Ein Auto oder Flugzeug entsteht nicht durch spontane Selbstorganisation der Atome und Moleküle in vielen kleinen Schritten, sondern durch absichtliche Planung und Produktion intelligenter Agenten (Wissenschaftler, Ingenieure, Designer). Das Beispiel ist also genau besehen ein Gegenbeispiel. Und drittens sind die von Kutschera favorisierten immanenten Ordnungsprinzipien in der Materie unter entsprechenden Randbedingungen (organische Doppelhelix, Lipidbläschen, Viren, aber auch anorganische Strukturen wie die wabenförmige Kieselhäute-Anordnung von SiO2) bereits kein blinder Zufall mehr, sondern zeigen Systemeigenschaften mit Gesetzescharakter.

Das zweite Beispiel stammt von demselben Autor. Er bringt gegen evolutionskritische Wahrscheinlichkeitsrechnungen folgendes Argument: „Die Wahrscheinlichkeit, ... von unseren beiden Eltern jeweils ein Chromosom [zu] bekommen, ist 1:2. Da wir pro Zelle 2 x 23 Chromosomen haben, ist die Gesamtwahrscheinlichkeit, mit der wir exakt 46 erhalten, gleich (½)46, d.h. 1/7 mal 10-13 (~ Null). Wir haben somit bewiesen, dass wir statistisch betrachtet nicht existieren!“ (Kutschera (2008, 248) Bewiesen haben wir dadurch freilich etwas ganz anderes, nämlich, dass die Tatsache der korrekten Rekombination des chromosomalen Erbgutes in der befruchteten Eizelle nicht durch zufällige Wahrscheinlichkeitsverteilungen kausal erklärt werden kann, sondern hierfür zusätzliche physiologische Gesetze und Programme angenommen werden müssen. Wir wissen heute positiv, dass dieser Vorgang tatsächlich einer aufwändigen genetischen Steuerung und Kontrolle unterliegt.

Noch ein Fehlschluss aus derselben Veröffentlichung: „Obwohl es extrem unwahrscheinlich ist, sechs Richtige im Zahlenlotto zu treffen (6 aus 49), gibt es in jeder Woche aufs neue einzelne Gewinner. Diese glücklichen Lotto-Millionäre dürften, statistisch betrachtet, nicht 'durch den Zufall' entstanden sein.“ (Kutschera 2008, a.a.O.) Im Gegenteil: Sie müssen, statistisch betrachtet, durch Zufall entstanden sein. Erstens handelt es sich hier um eine sog. aleatorische Wahrscheinlichkeit (auch: ontische/objektive/statistische Wahrscheinlichkeit). Diese beschreibt die relative Häufigkeit zukünftiger Ereignisse, die von einem zufälligen physikalischen Prozess bestimmt werden. Genauer handelt es sich hier um deterministische physikalische Prozesse, die mit ausreichend genauer Information im Prinzip sogar vorhersagbar wären (Würfelwurf, Fall der Lotteriekugeln, Wettervorhersage). Das Ziehungsgerät ist dabei ein Zufallsgenerator, der bei jeder Ziehung eine rein zufällige Zahl im Bereich von 1 bis 49 ausgibt. Die Wahrscheinlichkeit von sechs Richtigen ist mathematisch ziemlich genau 1 zu 14 Millionen (0, 000007 %). Das heißt: Ab 14 Millionen Mitspielern muss rein statistisch ein Spieler sechs Richtige haben.

Rekombination

Die Rekombination ist die Neukombination des Erbgutes bei der sexuellen Fortpflanzung. Zum Hintergrund: Die doppelte Funktion der Gene ist wie erwähnt einmal die Steuerung der Zellvermehrung bei der Fortpflanzung und bei der Neubildung von Zellen im erwachsenen Organismus, also die Steuerung des Aufbaus von Geweben, Organen, Organismen durch Erstellung externer Selbstkopien der DNS. Zum anderen die Kontrolle aller Lebensvorgänge in der Zelle durch Gentranskription (interne Kopien) und Gentranslation (Synthese struktureller und funktioneller Zellbausteine). Genetische Veränderungen und Entwicklungen durch Rekombination (und natürlich auch durch vorkommende Mutationen) sind nun sowohl strukturell als auch funktionell verursacht.

Strukturelle Natur hat die genetische Variabilität aufgrund von Genmutation und Genrekombination in den Meiosen (Reifeteilungen), d.h. bei der Vermischung und Neukombination der väterlichen und mütterlichen Gene in den ersten Zellteilungen (Mitosen) der Keimbahnzelle nach der Befruchtung. Die Genrekombination, nicht die Mutation ist entgegen der landläufigen Meinung Hauptfaktor der genetischen Variabilität. Diese Rekombination kann intrachromosomal und interchromosomal sein und ist die Ursache phänotyischer Neuentwicklungen und Neukombinationen von Eigenschaften und Aussehen (vgl. Birbaumer/Schmidt: Biologische Psychologie, Berlin / Heidelberg / New York 1996, 20—21).

Funktionelle Natur hat die genetische Varianz in der polygenen Vererbung, d.h. aufgrund des funktionellen Zusammenwirkens der verschiedenen Gene. Diese Genwirkungen sind zum einen additiv: Summe der Genwirkung an allen beteiligten Genorten (A); und zum anderen nichtadditiv: einmal als Dominanzwirkung (D) einzelner Gene und zum anderen durch Epistase (I). Letzteres ist die nichtlineare Dynamik einer Interaktion von Genen (z.B. multiplikative Wirkung). Die funktionelle Gesamtvarianz (Vg) ergibt sich somit aus der Formel Vg = VA + VD + VI. Diese funktionelle genetische Varianz nennt man Emergenesis, da sie emergente Eigenschaften auftreten lässt, die nicht strukturell genetisch vererbt werden. Dazu zählen insbesondere intellektuelle und emotionale Eigenschaften wie berufliche und geistige Interessen und Talente, Kreativität, soziale Einstellungen, Extraversion, gutes Aussehen (vgl. Birbaumer/Schmidt: Biologische Psychologie, 3. Aufl. Berlin et al. 1996, 27).

Morphologie und Anatomie

Homologien und Analogien (Konvergenzen)

Anatomische Ähnlichkeiten beruhen entweder auf (1) gemeinsamer Abstammung: Homologien oder (2) funktionalen Zwängen: Konvergenzen oder Analogien. Vgl. Kutschera (2008, 40—43, 55). Homologien sind „dasselbe Organ in unterschiedlichen Tieren in verschiedener Form und Funktion“ oder natürlich auch in derselben Funktion (ebd. 41). Artüberschreitende Ähnlichkeit durch Abstammung ist ein Analogieschluss ausgehend von beobachtbarer artimmanenter Vererbung.

Homologien sind analytisch (beschreibend) definiert, nicht kausal (erklärend). Es gibt kein absolutes logisches Kriterium zur Unterscheidung von Homologien und Konvergenzen. Auch empirisch sind beide nicht klar unterscheidbar, zumal Merkmalsverteilungen oft nicht widerspruchsfrei in Stammbäume integrierbar sind. Wenn Kutschera (2008, 52—56, 79) ausführt: Identische Gene, Enzyme, Moleküle, Baupläne etc. beweisen automatisch gemeinsame Abstammung, ist dies nicht nur logisch nicht zwingend, sondern auch empirisch nicht zutreffend, da die parallele und wiederholte unabhängige Entwicklung derselben Organe, Funktionen, Baupläne notorisches Fakt ist, wie Kutschera selbst oft betont. Diese voneinander unabhängigen Konvergenzen verkörpern oft sogar identische komplexe Strukturen, was für eine phylogenetische Rekonstruktion besonders verwirrend sein kann. Auch scheint insofern Vorsicht geboten, als die Genesis homologer Strukturen nicht selten auf unterschiedlichen ontogenetischen Wegen geschieht (z.B. entsteht die Speiseröhre verschiedener Spezies aus unterschiedlichem Keimgewebe). Schließlich findet sich keine genetische Entsprechung homologer Strukturen: Ähnliche Gene zeigen hier im Gegenteil unterschiedliche Wirkungen.

Stammbäume (Dendrogramme)

Haeckel: Stammbaum [WikiCommons]Es gibt nichtchronologische Cladogramme und chronologische Phylogramme (erstellt durch DNS-Vervielfältigung in sog. Polymerase-Kettenreaktion (PCR) und DNS-Sequenzierung). Vgl. Kutschera (2008, 165—187) und das Trea of Life-Projekt, welches ein globales Phylogramm aller Lebewesen anstrebt, sowie den Barcode of Life (= DNS-Strichcode jeder Spezies auf der Grundlage eines artspezifischen mitochondrialen Gens). Kritiker meinen allerdings, dass molekularbiologische Stammbäume (Dendrogramme) und genetische DNS-Stammbäume sehr voraussetzungsreich und oft uneindeutig sind. Aber auch Kutschera (2008, 167) räumt ein: „In jedem Cladogramm kommt eine gewisse subjektive Gewichtung der einbezogenen Merkmale zum Ausdruck“. [Bild links: Die berühmte Zeichnung des "deutschen Darwin" E. Haeckel mit dem hypothetischen Stammbaum der Lebensformen]

Es existiert ferner keine globale molekulare Uhr der Biochemie und Molekularbiologie. Die zugrundeliegende Philosophie ist vielmehr diese: Je länger zwei Arten auf getrennten Wegen evolviert sind, desto größere Unterschiede in den Sequenzen (= Abfolgen) von Proteinen (= lange Ketten aus Aminosäuren) und der DNS (= lange Ketten aus Nukleotiden) sind zu erwarten. Kann aus paläontologischen und geologischen Daten der Zeitpunkt der Trennung zweier Linien abgeschätzt werden, so ergibt sich aus den Sequenzunterschieden eine „Ganggeschwindigkeit" der molekularen Uhr für das betreffende Protein bzw. Gen. Die so bestimmte molekulare Uhr kann dann eingesetzt werden, um den (ungefähren) Trennungszeitpunkt anderer Arten anzugeben, für die es keine fossile Dokumentation gibt. Voraussetzung für eine brauchbare molekulare Uhr ist allerdings, dass Aminosäure- bzw. Nucleotidaustausche über längere makroevolutionäre Zeiträume hinweg in konstanten Raten erfolgen, was häufig nicht der Fall zu sein scheint.

Endosymbiontenhypothese

Die Endosymbiontenhypothese (ESH) besagt: Mitochondrien und Chloroplasten und ev. sonstige Plastiden (Organellen mit eigenem Erbgut oder Genom) von Eukaryoten (Zellen mit echtem Zellkern) sind ursprünglich eingefangene oder symbiotisch koexistierende Prokaryoten. Letztere sind Zellen ohne echten Kern. Zu ihnen zählen die Archaea (extremophile: thermophile, halophile, methanogene Mikroorganismen) und die Bakterien. (Eukarioten ihrerseits sind (a) Protista (Einzeller und Algen), (b) Fungi (Pilze), (c) Plantae (grüne vielzellige Pflanzen) und (d) Animalia (Metazoa, mehrzellige Gewebetiere). Vgl. Kutschera (2008, 145—164, 255). Das Größenverhältnis von Eucyte zu Protocyte ist in der Regel 1000:1. Pflanzen wären nach diesem Ansatz Tiere mit photosynthetisch aktiven Cyanobakterien (Blaualgen) + zellulosehaltigen Zellwänden + hydrostatischem Innendruck + ausschließlich gasförmiger/flüssiger Nahrung. Von Kritikern wird eingewendet: Die komplexe Abhängigkeit und Vernetzung von Wirtszellen und Organellen (Organell-Proteine werden im Kern-Genom codiert!) bei gleichzeitiger Eigenständigkeit erfordert eine so aufwändige Neuevolution aller Funktionen der Organellen, dass ein irreduzibel komplexes System zu vermuten ist (vgl. Junker/Scherer 2006, Kap. 10).

Rudimentäre Organe

Rudimentäre, funktionslose Organe (Atavismen) werden als Belege für frühere, überwundene evolutive Schritte angesehen (vgl. Kutschera 2008, 256—257). Kritiker machen dagegen den Punkt stark, dass in denselben oft degenerierte Entwicklungen vorlägen, zumal auch Missbildungen in der Regel nicht Atavismen sind. Kritiker wenden ferner ein, dass die Funktionslosigkeit nicht feststellbar oder widerlegt sei und Atavismen manchmal ontogenetische Funktionen haben könnten. Die Debatte pro und contra geht z.B. darum, ob der menschliche Blinddarm eine biologische Funktion hat oder nicht hat.

Entwicklungsbiologie

Evolutionsbiologisch ist hier das sog. biogenetische Grundgesetz des klassischen Darwinisten Haeckel zu einem zentralen und vielumkämpften Lehrstück geworden. Die These ist in knappster Form: Die Ontogenese des Individuums repräsentiert verkürzt die wichtigsten Formveränderungen der stammesgeschichtlichen Vorfahren (Adultformen) der eigenen Art. Zu Berechtigung oder Nichtberechtigung dieses Grundgesetzes in seiner heutigen Beurteilung ist folgendes Skript E1.Biogenetisches Grundgesetz zu vergleichen:

Paläobiologie

Geologische Systeme

Die Paläontologie (heute: Paläobiologie) erforscht die Überreste von Lebewesen aus der geologischen Vergangenheit. Sie beschreibt und deutet die Fossilüberlieferung und steht in engem Zusammenhang mit der Geologie, namentlich bei der Bestimmung der Länge der erdgeschichtlich verflossenen Zeit. Evolutionstheoretisch stellt sich hier diese Frage: Bietet die Tier- und Pflanzenwelt vergangener Lebensräume der Erde Belege für Makroevolution?

Die geologische Zeitskala stützt sich für eine absolute Datierung auf Radiometrie (vgl. Kutschera 2008, 86): Uran-Blei-Methode, Kalium-Argon-Methode, Rubidium-Strontium-Methode, Radiocarbon-Methode (letztere max. 70000 Jahre). Voraussetzung der Verlässlichkeit dieser Methoden ist der Uniformitarismus oder Aktualismus. Dieser Begriff meint, dass auch in der geologischen und ökologischen Vergangenheit gleichförmig nur die aktuell vorfindlichen physikalischen Prozesse und Veränderungsgeschwindigkeiten existierten. Der heute allgemein akzeptierte Katastrophismus (mindesten fünf globale Katastrophen kosmischen Ausmaßes seit dem Paläozoikum) macht diese Voraussetzung apriori fraglich. Darauf und auf empirische Belege für variable oder widersinnige Messergebnisse weisen Kritiker der etablierten Geochronologie hin.

Kritiker stützen sich ferner auf Simulationen und Extrapolationen der verfügbaren geologischen Daten. Einen Einblick in die Argumentation kann die bis heute als grundlegend betrachtete systematische Studie des Geologen Ariel A. Roth vermitteln: Some Questions About Geochronology. In: Origins 13 (1986), Nr. 2, 64—85. Roth hat unter detaillierter Auswertung der einschlägigen Fachliteratur hochgerechnet, wie viel Schlamm und Geröll jährlich durch die heutigen Flüsse in die Ozeane geschwemmt wird. Es ist soviel, dass nach 10 Millionen Jahren die Kontinente unseres Planeten bis auf Meereshöhe erodiert und abgetragen wären, wenn sie nicht parallel dazu durch tektonische Prozesse angehoben würden. Das heißt aber u.a., dass (1) in den oben gelegenen Gesteinsschichten keine mehr als 10 Millionen Jahre alte Fossilien vorkommen dürften, da diese Schichten abgetragen sein müssen; (2) bei 3, 5 Mrd. Jahren Erdalter die Kontinente 170—340 Mal erodiert und abgetragen und die Ozeane 19 Mal aufgefüllt worden sein müssen; (3) bei 3, 5 Mrd. Jahren Erdalter 14 bis 23 Mal mehr Sedimente und 20-80 Mal mehr vulkanisches Ergussgestein gefunden werden müssten.

Die Stratigraphie untersucht Gesteinsabfolgen in ihrer relativen zeitlichen Ordnung zueinander anhand (an)organischer Merkmale und Inhalte. Es gilt i.A. das Lagerungsgesetz: von oben nach unten = von neu nach alt (vgl. Kutschera 2008,  85—86). Dieses Gesetz wurde durch die sog. sequentielle Stratigraphie jedoch eingeschränkt. Danach sind übereinander gelagerte Schichten nicht notwendig Beleg für zeitlich periodisch unterbrochene Ablagerungen, sondern diese können gleichzeitig, kontinuierlich entstanden sein. Umgekehrt müssen nicht alle Teilbereiche einer Schicht gleich alt sein (Julien: Erosion and Sedimentation, Cambridge, Mass. 1995). In Deutschland hat der Würzburger Geologe E. Rutte analysiert, dass die 50 Meter mächtigen eiszeitlichen Schotter und Sande des mittleren Maintals mit einer reichen Säugetierfauna sehr schnell abgelagert wurden: „Die Sedimente sind in einer einzigen, einheitlichen Schüttungsphase ohne nennenswerte Unterbrechung geschüttet worden“, wobei die heutige Geologie weder die Gestellung der hierfür nötigen riesigen Wassermengen noch die Herkunft der Sedimentmassen erklären kann (Rutte: Die Fossilfundstellen des Mittelmaincromer im stratigraphischen Vergleich mit den benachbarten Fundstellen. In: Quartärpaläontologie 8, Berlin 1990, 233—236).

Die Sequenz der Fossilien und der Sedimentgesteine ist auf der Erde überall parallel. Die Erdepochen und geologischen Systeme sind das Präkambrium (>545 Mio. Jahre/radiometrische Messung), das bereits zur präbiotischen Chemie thematisch war: magmatisches Tiefengestein wie Basalt oder Granit (inkl. magmatisches Eruptivgestein: 95 % der Erdkruste) mit dem Vorkommen von Bakterien und Algen. Die folgenden geologischen Epochen sind durch Sedimentgestein charakterisiert (geschichtete Ablagerungen: 75 % der sichtbaren Erdoberfläche). Das  Paläozoikum reicht vom Kambrium (545-510 Mio Jahre): Sandstein + Schiefer + Kalkstein mit fremdartigen marinen Organismen, v.a. Trilobiten, bis zum Karbon (355—290 Mio. Jahre) und Perm (290—250 Mio. Jahre): Kohle aus einer üppigen Planzenwelt oder Vegetationsdecke (mit Zwischenschichten). Das Mesozoikum (250-65 Mio. Jahre) und Känozoikum (65 Mio. Jahre — dato) zeigt watt- und wüstenartige Schichtenstapel mit marinen Kalksteinen + Mergel/Ton/Sandstein und einer reichen Landtierwelt.

Fossilüberlieferung

Ernst Haeckel [WikiCommons]Die Biostratigraphie versucht anhand von sog. Leitfossilien die erdgeschichtlichen Abfolgen zu deuten, während die Lithographie dies anhand von Gesteinsmerkmalen unternimmt. 95 % der Spezies sind wieder ausgestorben (Kutschera 2008,  65). Man muss dabei oft ohne positive Anhaltspunkte das Postulat großer zeitlicher Lücken in den Sedimentationspausen aufstellen, da die Bildungszeiten der Schichtgesteine nicht die erforderlichen großen Zeiträume bieten (vgl. Junker/Scherer 2006, Kap. 13 und Kutschera 2008, 128). Ein Hauptpunkt von Kritikern ist, dass die von der Theorie geforderten zahllosen Bindeglieder zwischen den unterschiedlichen Grundtypen der Organismen nicht oder extrem selten gefunden werden und fast stets umstritten sind. Man muss daher das weitere Postulat aufstellen, dass alle wesentlichen evolutiven Vorgänge in kleinen Randpopulationen mit geringer Wahrscheinlichkeit der Fossilisation stattgefunden haben. Kutscheras (2008) Standardwerk versteht sich zwar als "Buch der Zwischenformen", behandelt aber nur auf wenigen Seiten fossile und lebende (rezente) Übergangsformen (130—131, 200—206, 230—232 und noch einmal polemisch 255—256). Es bietet im Gegensatz zu dem kritischen Konkurrenzwerk von Junker/Scherer (2006) in der Regel keine detaillierte Diskussion insbesondere fossiler Zwischenformen, sondern behauptet diesen Status lediglich für entsprechende Kandidaten und verweist ansonsten auf Veröffentlichungen, also auf Autoritätsargumente. Der Beweisanspruch ist dennoch sehr hoch: „Obwohl die Zahl dieser Dokumente [fossile Übergangsformen] noch immer recht überschaubar ist, belegen diese Funde eindeutig den ... postulierten graduellen Bauplanwandel der Organismen“ (2008, 130). [Foto oben: Ernst Haeckel (1808—1883), schöpferischer Theoretiker des Darwinismus der ersten Stunde, aber auch umkämpft wegen des Vorwurfs der Manipulation von Beweisdokumenten zu Übergangsformen und embryonalen Stadien]

Heute sind 250.000 fossile Arten bekannt mit Milliarden von Individuen (vgl. Kutschera 2008, 85). Obwohl 99 % der Fossilien Wasserlebewesen, also marinen Ursprungs, sind und Fossilien von Landtieren, namentlich Wirbeltieren, vergleichsweise selten sind, sind 85% der heutigen Säugetierfamilien, Vögel und Reptilien auch fossil bekannt (plus dreimal so viele ausgestorbene Formen): „Dieser hohe Anteil lässt darauf schließen, dass auch von den ausgestorbenen Familien der größte Teil gefunden worden sein dürfte, so dass für diese Gruppen die heutige Fundsituation als repräsentativ für die tatsächlich einmal vorhandene Vielfalt anzusehen ist.“ (Junker/Scherer 2006, 226)

Evolutionstheoretiker gehen in der Regel vom Uniformitarismus oder Aktualismus aus. Dieser Begriff meint, dass auch in der geologischen und ökologischen Vergangenheit nur die heute vorfindlichen Prozesse und Veränderungsgeschwindigkeiten existierten. In der 1. Hälfte des 19. Jh. und wieder seit Ende des 20. Jh. spielte bzw. spielt hingegen das Konzept des Katastrophismus (Kataklysmus) eine große Rolle. Es hat in der Erdgeschichte fünf Mal ein meist durch extremen Vulkanismus und auch Meteoriteneinschlag bedingtes Massenaussterben gegeben. Es sind mithin gewaltige Umwälzungen vorgekommen, welche nicht in das gewöhnliche oder heutige Bild passen. Solche großräumigen oder örtlichen katastrophischen Ereignisse finden u.a. Anhalt: (1) in der fossilen Erhaltung schnell verwitternder Strukturen und Spuren (vollständige Tier- und Pflanzenformen und deren Teile wie z.B. Blätter, sowie Abdrücke und Fußspuren: Fossilien unverwester Organismen müssen durch plötzliche Verschüttungen und Einbettungen unter Sauerstoffabschluss entstanden sein, nur so wird die völlige bakterielle Zersetzung der eingeschlossenen Organismen vermieden); (2) in individuellen Fossilien, welche senkrecht in normalerweise in Jahrmillionen abgelagerten Schichten stehen, wie z.B. Hunderte karbonische Baumstämme in allen großen Steinkohleflözen Europas; (3) in der Tatsache, dass Fossilienlagerstätten vollständige komplexe Lebensgemeinschaften (Ökosysteme) konservieren wie die Steinkohlenwälder oder marine Lebenswelten (z.B. das 'Fischgrab' von Santa Barbara, CAL mit 1 Mrd. Fischen, oder auch die Karroo-Formation (500.000 Quadratkilometer bedeckende Felsschichten in Südafrika) in welcher Skelette von geschätzten 800 Milliarden Tieren (v.a. Reptilien) eingebettet sind). Evolutionskritiker verbinden oft (a) diesen Katastrophismus mit (b) dem damit möglichen Zweifel an den aktualistischen Voraussetzungen der Radiometrie und (c) der sequentiellen Stratigraphie (s.o.) zugunsten der logischen und realen Option einer sehr viel kürzeren Geochronologie.

Auch der evolutionsbiologische Konstruktivismus verweist darauf, dass "die Mehrheit aller Arten, die irgendwann im Verlauf der Evolution untergingen, [...] im Rahmen von punktuellen Massenuntergangsszenarien, von denen jeweils viele Arten betroffen waren", unterging und dass "zwischen diesen Extinktionen ... kein nennenswerter Artverlust nachweisbar ist [...] Untergangsergebnisse waren ... ein schwerer Schlag für alles, was lebte. Es kam nicht zu einer raschen Inbesitznahme von geräumten ökologischen Nischen durch überlebende Arten [...] Aus diesen Ergebnissen folgt, dass die darwinistische Theorie vom Kopf auf die Füße gestellt werden muss: Arten entstehen nicht dadurch, dass sich zufällig und kontinuierlich entstandene Variationen unter dem Druck der Selektion nachträglich als besser angepasst erweisen als ihre Vorläufer. Was neuen Arten den Weg bahnt, scheinen stattdessen von den jeweiligen biologischen Systemen als Reaktion auf Umweltstressoren veranlasste genomische Selbstveränderungen zu sein." (Bauer: Das kooperative Gen 2008, 101—104).

Paläozoikum

Dem Paläozoikum geht das Archaikum (4, 6 bis 2, 5 Mrd. Jahre) voraus sowie das sog. Proterozoikum (2, 5 bis 0, 542 Mrd. Jahre). Zur Fossilüberlieferung dieser Epochen hier eine Verknüpfung:

Die erste Epoche des Paläozoikum ist das Kambrium (542—488 Mio. Jahre v. u. Z.). Sie ist bekannt durch explosionsartige Präsenz neuer und entwickelter Lebensformen (Schwämme, Würmer, Krebse, Schalentiere, Wirbeltiere), genannt die kambrische Explosion: "Fast alle [...] Stämme tauchen am Ende des Präkambriums und zu Beginn des Kambriums ... bereits in voll ausgeprägter Form auf. Man hat keine Fossilien gefunden, die zwischen ihnen stehen, und auch heute gibt es keine solchen Zwischenformen. Die Stämme scheinen also durch unüberbrückbare Lücken getrennt zu sein." So Ernst Mayr, der Altmeister der modernen synthetischen Evolutionstheorie in Das ist Evolution, 3. Aufl. München 2003, 74.

Der evolutionsbiologische Konstruktionismus macht hieraus dieses starke Argument: "Mit den Dogmen der darwinistischen Evolutionstheorie (die Synthetische Theorie eingeschlossen) kollidieren die Vorgänge vor, während und nach der kambrischen Explosion geradezu schmerzhaft, und dies in mehrfacher Hinsicht. Anstatt einer langsam, gleichmäßig und kontinuierlich verlaufenden Veränderung des biologischen Substrats entlang der Evolution zeigen alle vorliegenden Befunde für die Zeit vor der kambrischen Evolution eine lange, Hunderte von Millionen Jahren währende Phase biologischer Stabilität ..., der dann — innerhalb weniger Millionen Jahre — ein geradezu gigantischer Entwicklungsschub folgte. Auch die darwinistische Annahme eines nach dem Zufallsprinzip ... ablaufenden Variationsprozesses der biologischen Lebensformen entlang der Evolution ist bei rationaler Betrachtung völlig unhaltbar. Vielmehr verläuft die Selbstveränderung der Organismen nach erkennbaren, im biologischen System selbst angelegten Prinzipien." (Bauer: Das kooperative Gen, Hamburg 2008, 65—66). Mehr dazu finden Interessierte in folgender Verknüpfung:

In der erdgeschichtlichen Epoche des Ordovizium (488—444 Mio Jahre) findet ein 1. Massenaussterben durch weltweite Vulkanausbrüche statt. Im folgenden Silur (444—416 Mio Jahre) werden erste Landpflanzen (Moose) nachweisbar. Zu Genese der Landpflanzen in der gegenwärtigen Forschung siehe die folgende Verknüpfung:

Das Devon (416—359 Mio. Jahre) ist das Fischzeitalter: Neben Fischen dominieren die Lebensformen der Moose, Schachtelhalme, Farne, Spinnen, Milben, Tausendfüßler, flügellose Insekten, Amphibien (Ende Devon). Zur aktuellen Diskussion der Entstehung der Landwirbeltiere (Amphibien und Reptilien) ab dem Devon siehe diese Verknüpfung:

Das Devon endet mit einem 2. Massenaussterben wahrscheinlich durch Vulkanismus.
Das Karbon (359—299 Mio. Jahre) ist die Steinkohlenzeit des südlichen Megakontinents Gondwanaland und nördlicher Kontinente mit Überflutungen, warm-feuchtem Klima, und einem Sauerstoffgehalt in der Luft bei 31 % (O2-Puls), und der Blütezeit der Amphibien und erster Reptilien sowie geflügelter Insekten.
Im Perm (299—251 Mio. Jahre) bildet sich der Allkontinent (Pangäa) und das Allmeer (Panthalassa) mit trocken-heißem Klima, Ursamenpflanzen (Nadelbäume), Käfern, Reptilien. Am Ende das 3. und größte Massenaussterben durch Vulkanismus mit vulkanischem Winter, saurem Regen, Gewächshauseffekt und Sauerstoffrückgang (vgl. Kutschera 2008, 104—105): 90 % der Meerestier-Arten und 70 % der Landtier-Arten sterben aus.

Mesozoikum

T-Rex [WikiCommons]Das Mesozoikum umfasst den Zeitraum von 251 bis 65 Mio. Jahre v.u.Z. Die erste Epoche ist das Trias (251—200 Mio. Jahre) der Pangäa aus ödem wüstenartigem Festland mit küstennahen Feuchtgebieten. Die Lebensformen sind  Meeresreptilien, Frösche, Schnabelreptilien, Krokodile, Flugechsen, bipede Reptilien (Saurier). Es erfolgt ein 4. Massenaussterben aufgrund Vulkanismus.
Das Jura (200—145 Mio. Jahre) ist gekennzeichnet durch Kontinenttrennung, feuchtwarmes Klima, Nadelwälder und Farn/Bärlapp/Schachtelhalm-Flora, Schlangen, Schildkröten, Dinosaurier (400 Spezies, welche alle über 1 m großen Landwirbeltiere stellen). Dinosaurier sind entweder sog. Ornitischia (Pflanzenfresser mit Schnabel) oder Saurischia (Pflanzenfresser / Sauropodomorpha, und Fleischfresser / Theropoden). [Foto oben: Fossiles Skelett von Tyrannosaurus rex].

Die Kreide-Zeit (145—65 Mio. Jahre) ist die  Vogelära mit Überflutungen, warm-feuchtem Klima, tropischer Urwaldvegetation, Blütenpflanzen (Laubbäume), Ammoniten (5000 Arten), Ichthyosauriern, Dinosauriern und  Kleinsäugern. Zur Genesis der Vögel siehe folgende Verknüpfung:

Triceratops [WikiCommons]Am Ende der Kreidezeit tritt ein 5. Massenaussterben auf, welches 70 % der Tier- und Pflanzenarten, u.a. alle Saurier und Ammoniten, erfasst [Foto links: Saurier Triceratops aus dem Ende der Kreidezeit]. Ursache ist wahrscheinlich ein Meteoriteneinschlag von der Gewalt von 100 Mio H-Bomben (Alvarez-Hypothese) und Vulkanismus. Erhitzung der Atmosphäre, Druckwelle, Kosmischer Winter (Sonnenfinsternis), saurer Regen, Orkane und Tsunamis (vgl. Kutschera 2008, 116—118).

Känozoikum

Das Känozoikum ist die Zeit von 65 Mio. Jahre v. u. Z. bis heute. Bekannt ist die Binnenunterscheidung in Tertiär (65—1, 8 Mio. Jahre) und Quartär (1, 8 Mio. Jahre bis zur Gegenwart). Das Känozoikum ist die Ära der Säugetiere. Zu deren Genese die folgende Verknüpfung:

Neandertaler [WikiCommons]

Im Einzelnen wird unterschieden das Paläozän (65—56 Mio. Jahre) mit dem Beginn des dominanten Auftretens der Säuger, gefolgt vom Eozän (56—34 Mio. Jahre) mit Urwaldflora, Säugerexplosion und dem Auftreten von Walen, sowie dem Oligozän (34—23 Mio. Jahre). Es schließen sich an das kühlere Miozän (23—5, 3 Mio. Jahre) mit Steppenflora und Großsäugern und Affenähnlichen, und das Pliozän (5, 3—1, 8 Mio. Jahre) mit  Primaten. Im Quartär folgt das Pleistozän (1, 8—0, 01 Mio. Jahre) oder das  Eiszeitalter mit 5 Eiszeiten, den Kontinenten in heutiger Form mit  Ultragroßsäugern sowie Menschen [Foto oben: Neandertaler/Schädel]. Für das Holozän seit 10.000 Jahren mit dem modernen Menschen gilt nach Wallace (zitiert bei Kutschera 2008, 129), dass "alle großen, grausamen und kräftigen Formen verschwunden sind“. Evolutionstheoretiker wie Kutschera (vgl. 2008, 257—258) sehen darin den Beweis, dass die Steigerung von Tauglichkeit (fitness) im Lebenskampf nicht mit der Maximierung von Stärke und Aggressivität zusammenfällt, sondern mit der Optimierung von Sensibilität, Intelligenz und komplexer Kooperation (Sozialität).

Kutschera (2008, 126) spricht im Blick auf die Fossilüberlieferung zu Recht von einer  Anagenese, von einem „Vektor fortschreitender Differenzierung“. Aber: „Bedeutet der Begriff Evolution notwendigerweise auch „Fortschritt bzw. Höherentwicklung“? In den Schriften von Darwin, Haeckel und Weismann wird dies meist so dargestellt. Heute wissen wir allerdings, dass diese Interpretation unzutreffend ist [...] Die heutigen, wildlebenden Pferdeartigen (z.B. Zebras) sind genausogut an ihren Lebensraum (offene Grasflächen) angepasst wie ihre waldbewohnenden Urahnen [...] Ähnliches gilt für die ausgestorbenen Trilobiten des Paläozoikums [...] Aus diesen Betrachtungen folgt, dass Evolution im Wesentlichen in einer Adaptation, verbunden mit der Aufspaltung von Populationen in Tochterspezies, besteht: Eine 'Höherentwicklung' (d.h. Komplexitätszunahme) kann, muss aber nicht notwendigerweise mit den ... Abstammungsreihen verbunden sein“ (Kutschera 2008, 126—127).

Und: „Die Hypothese von einer stetigen (graduellen) Phylogenese der Organismen steht teilweise im Widerspruch zum heute bekannten Muster der Fossilienabfolgen ..., das punktuell eher eine zeitweilig 'rasche' Evolution, unterbrochen von relativen 'Stillstandsperioden', zum Ausdruck bringt [... Es] sind graduelle Spezies-Transformationen wie auch punktuelle 'Evolutionsschübe' belegt.“ (Kutschera 2008, 128)

Das Fazit der Evolutionskritiker Junker/Scherer ist dieses: „Alle als Bindeglieder betrachteten Formen haben sich als typische Mosaikformen erwiesen: Lebewesen mit Merkmalen aus zwei oder mehreren Gruppen. [...] Unter fossilen, aber auch unter heutigen Lebewesen existieren zahlreiche Mosaikformen [z.B. das Schnabeltier mit Säuger- und Reptilienmerkmalen]. Sie können in der Regel nicht als evolutionäre Übergangsformen gedeutet werden, da ihr Merkmalsspektrum nicht in eine Übergangsposition im vermuteten Evolutionsverlauf passt oder weil sie stratigraphisch an unpassenden Stellen gefunden wurden“ (2006, 261—262).

Biologische Anthropologie

Hominoiden - Hominiden - Homo Sapiens

Homo habilis [WikiCommons]Die biologische Anthropologie sieht die Entstehung der Menschheit zur Zeit wie folgt:

(I) Man geht aus von der Ordnung der Hominoiden: Im Miozän, vor 10 Mio. Jahren, kommt es zur miozänen Formenexplosion von Hominoiden oder Menschenaffen (30 Arten). Vgl. Kutschera (2008, 124).

(II) Der weitere Gang führt zur Familie der Hominiden: Im Pliozän, vor 5 Mio. Jahren, treten zahlreiche Hominiden auf, d.h. Menschenaffen mit einem menschenähnlichen Merkmalsmosaik. Man nennt sie heute in der Regel Australomorphe, worunter die sog. Australopithecine und die Habiline [Foto oben: Schädel homo habilis] zusammengefasst werden (15 Arten in sechs Gattungen). Sie zeigen einen zweibeinigen nichtmenschlichen Gang in Kombination mit Klettern sowie flaches Gesicht — keine Eckzähne — Greifhand — Gehirnvolumen von Menschenaffen (350—750 cm³) — einfacher Werkzeuggebrauch (Steinabschlagfaustkeile ab 2 Mio. Jahre v. u. Z.). Vgl. Kutschera 2008, 124.

Es gibt Dutzende unterschiedlicher Hypothesen zu Australomorphen als Bindegliedern, da eine Interpretation als Übergangsformen schwierig ist. V. a. wird von Kritikern der Merkmalskonflikt zwischen Schädel- und Langknochenmorphologie angesprochen: entweder höher entwickelter Kopf und Gehirn bei affenähnlichem Gang und Kletterarmen (z.B. Australopithecus africanus) oder menschenähnlicher Gang bei primitivem Gehirn (z.B. Australopithecus garhi). Vgl. Junker/Scherer 2006, Kap. 15.

(III) Am Ende steht die Gattung Homo: Im Pleistozän, vor ca. 2 Mio. Jahren erstmaliges Auftreten der Gattung Homo: echte MenscheAltägyptisches Fresko / Grabkammer des Mennan mit — je nach Ermessen — einer bis 12 Arten in drei großen morphologischen Gruppen. Unterscheidende Merkmale sind aufrechter Schreitgang — Menschliches Gehirnvolumen und -struktur (800—2000 cm³, u.U. auch schon 471 cm³: homo florensis) — Kulturfähigkeit (Sprache und Werkzeuge) — Ernährung (vgl. Kutschera 2008, 124—125). [Bild links: Altägyptisches Fresko / Grabkammer des Menna, 2. Jahrtausend v. C.] Die drei morphologischen Gruppen sind:

(A) Homo ergaster bzw. erectus. Morphologische Gruppe des Menschen in den heißen Breiten: 2 Mio. bis 30.000 Jahre. Das kulturelle und technische Niveau spricht dafür, in Homo erectus einen geistig voll entwickelten, uns ebenbürtigen Menschen zu sehen. Die Archäologie kann entsprechende Fähigkeiten und Verhaltensweisen zeigen wie in der Waffentechnik die altsteinzeitlichen Speere aus Schöningen, datiert auf 400.000 Jahre v. u. Z. Es handelt sich um universell einsetzbare Hochleistungsspeere mit denselben Charakteristiken wie moderne Speere hinsichtlich Produktion und optimierter Physik (Material, Dicken, Schwerpunktzentrum). Vgl. R. Dennell: The world´s oldest spears. In: Nature 385, 27.02.1997, 767—768, und allgemein Mania, D.: Die ersten Menschen in Europa, Stuttgart 1998, sowie ders.: Die Urmenschen von Thüringen. In. Spektrum der Wissenschaft, Oktober 2004, 38—47.

(B) Homo neandertalensis. Morphologische Gruppe des europäischen Menschen in kalten Breiten: 600.000—30.000 Jahre. Auch im Falle des Neandertaler zeigen technische und kulturelle Charakteristiken einen voll entwickelten Menschen im modernen Sinn. Vgl. Auffermann, B./Orschiedt, J.: Die Neandertaler, Stuttgart 2002.

Akhenaten (Amenophis) [WikiCommons](C) Homo sapiens: 100.000 Jahre [nach anderen: 800.000 Jahre, s.u.] bis dato. Ab 30.000 v.u.Z. einziger Vertreter der Gattung Homo: Abnahme der morphologischen Vielfalt und Zunahme der kulturellen Vielfalt: Kultureller Urknall vor 40.000 Jahren. Neolithische Revolution vor 10.000 Jahren: Sesshaftigkeit, Agrikultur, Technik, gefolgt von städtischen Zivilisationen und Schriftkulturen ab 6000 Jahren v.u.Z. Die ursprüngliche Merkmalsvielfalt der Gattung homo spiegelt sich nur noch in geographischen Variationen (Mongolide, Europide und Negride). [Skulptur rechts: Pharao Akhenaten (Amenhotep IV), 18. Dynastie, 2. Jahrtausend v. C.]

Paläogenetik von Homo sapiens

Zur Geschichte des homo sapiens gibt es die zwei bekannten Modelle. Einmal das polyzentrische Entstehungsmodell (Kandelabermodell): parallele und frühe Entwicklung der Population von homo sapiens aus homo erectus ab 800.000 Jahren. Dagegen steht das monozentrische Entstehungsmodell (Garten Eden Modell): einmalige und späte Entstehung ab 100.000 bis 10.000 Jahren v.u.Z, und zwar nach genetischen Daten aus einer sehr kleinen Population oder gar einzigen Stammmutter wegen der geringen genetischen Vielfalt von homo sapiens, festgestellt am Genom der nur von der Mutter vererbten Mitochondrien-DNA: Theorie der mitochondrialen Mutter Eva oder Mitochondrien-Eva vor geschätzten 140.000 Jahren (vgl. Junker/Scherer 2006, 284-285 und Kutschera 2008, 184). Entsprechende Untersuchungen des Y-Chromosoms, das nur vom Vater vererbt wird, bestätigen diesen Befund und führen zu einem Y-Adam vor ca. 60.000 Jahren, von dem nach einer verbreiteten Forschungshypothese alle heutigen Menschen abstammen. Vgl. Kutschera 2008, 184-185. Man spricht deswegen auch von der „Menschheit als Monophylum“ (Kutschera 2008, 185). Das monozentrische Entstehungsmodell verortet die Entstehung von homo sapiens bis heute mehrheitlich in Afrika. Die konkurrierende Hypothese des Ursprungs in Westasien, sprich: aus dem Nahen Osten, erfährt allerdings seit den später 1980er Jahren massive Unterstützung durch die Neudatierung — mittels neuester Methoden — der 21 Homo sapiens-Skelette aus der Qafzeh-Höhle (Karmelmassiv, Palästina) und der 10 Homo sapiens-Skelette aus der benachbarten Skhul-Höhle (ebenda). Diese Skeltte werden jetzt auf 100.000—120.000 Jahre datiert und stellen damit die bisher ältesten empirischen Belge der Urbevölkerung der Jetztmenschen dar, die sich später über die ganze Erde verbreitete.

Paläodemographie von Homo sapiens

Am Ende der Altsteinzeit vor 12000 bis 10.000 Jahren war die Erde in den meisten Teilen von Menschen besiedelt, welche alle Wildbeuter waren, sich also von Sammeln, Jagen und Fischen ernährten. Um 10.000 v. C. liegt die Bevölkerungszahl der Erde dann nach aktuellen Schätzungen in der Größenordnung von 5 bis 10 Millionen Menschen. Die Altsteinzeit, welche von 2, 6 Millionen Jahren bis 12.000 Jahre v. u. Z. dauerte, weist allerdings — so die gegenwärtige paläoanthropologische Forschung — abgesehen von einer vergleichsweise winzigen letzten Phase ein extrem niedriges Bevökerungswachstum auf: „Given what we know about our reproductive capacity and survival under worst conditions, it is puzzling that there were so few of us so much of our history.“ (Pennington, R. L.: Hunter-gatherer demography. In: C. Panter-Brick / R. H. Layton / P. Rowley-Conwy (eds.): Hunter gatherers, Cambridge 2001, 170—204).

Während 99 % der gesamten Menschheitsgeschichte war das jährliche Bevölkerungswachstum praktisch null. Konkret wird das durchschnittliche jährliche Bevölkerungswachstum in der Altsteinzeit in der Forschungsliteratur mit 0, 0004 % angegeben. Die 0,0004 % bedeuten, dass eine Gruppe von 30 Personen ca. 10.000 Jahre benötigt, um auf 31 Personen, also auf eine Person mehr, anzuwachsen. Maßgebliche Autoren hierzu sind Deevey, E. S.. The Human Population. In Scientific American 203 (1960), 195—204; Birdsell, J. B.: Human Evolution, Chikago 1972; Hassan, F. A.: Demographic Archaeology, New York 1981. Selbst wenn man den jährlichen Zuwachs mit nach wie vor absurd geringen 0, 003—0, 004 % ansetzt (so o.g. Autoren für die letzten 10.000 Jahre der Altsteinzeit), welche um einen ein- bis zweistelligen Faktor niedriger als in historischer Zeit (0, 1 % unter schlechten Lebensbedingungen) liegen, müsste die heute auf 1 Million Menschen geschätzte Ausgangsbevölkerung vor 300.000 Jahren am Ende der Altsteinzeit auf mindestens 162 Milliarden Menschen angewachsen sein.

Zum Vergleich: Die Geburtenraten heutiger Wildbeuter liegen bei durchschnittlich 6, die Überlebensraten bis zum Alter von 50 Jahren bei ca. 50 % und das jährliche Bevölkerungswachstum bei kolonisierenden, in einer reichen Umwelt lebenden Gruppen bei bis zu 2 %. Wenn man diese realistischen Werte für die Vorgeschichte zu Grunde legt, hätte es — um dennoch ein Bevölkerungswachstum nahe Null zu erhalten — zwei Mal pro Jahrhundert Populationszusammenbrüche mit der Auslöschung von jeweils ca. 50 % der Weltbevölkerung geben müssen, also insgesamt 40.000 globale Massenextinktionen während der Altsteinzeit. Vgl. die Hochrechnungen bei Hill, K. / Hurtado, A. M.: Ache life history, New York 1996. Ein zweiter Vergleich: Der einzige allgemein anerkannte globale Bevölkerungsrückgang in geschichtlicher Zeit erfolgte im 14. Jahrhundert durch die kombinierte Wirkung der Pest und Dschingis Khans mörderischen Heereszügen und wird von Historikern auf lediglich 2, 8 % bis 13, 4 % geschätzt.

Unter Zugrundelegung realistischer, empirisch abgesicherter Wachstumsraten wäre somit die Weltbevölkerungszahl von 5 bis 10 Millionen am Ende des Paläolithikums bei 1 % jährlichem Bevölkerungswachstum [entspricht den steinzeitlichen Yanomama in Brasilien und Venezuela] und 100 Personen Ausgangsbevölkerung in 1087 bis 1547 Jahren erreicht. Bei 0, 1 % jährlichem Bevölkerungswachstum [entspricht der frühen geschichtlichen Zeit der Antike] und 100 Personen Ausgangsbevölkerung wäre diese Bevölkerungzahl in 10.825 bis 11.519 Jahren erreicht. Diese Vergleichswerte werden im Falle der Besiedlung Nord- und Südamerikas durch die Paläodemographie selbst insofern bestätigt, als sich dort die Bevölkerung in nur wenigen Jahrzehntausenden [Beginn der durchgängigen Besiedlung vor ca. 40.000 Jahren!] bei ähnlicher  paläolithischer Lebensweise wie in der Alten Welt [Beginn der Besiedlung vor ca. 2.000.000 Jahren] so stark vermehrte, dass die  Einführung der Landwirtschaft erzwungen wurde, was stets aufgrund Bevölkerungsdruckes geschieht. Im Hauptstrom der paläoanthropologischen und archäologischen Fachliteratur wird dies als eingestandenermaßen großes Problem behandelt. Man sieht die Problemlösung dort in der Regel jedoch darin, die Daten durch spekulative und empirisch nicht belegbare (siehe in Folge) Zusatzannahmen dem Millionen Jahre dauernden Zeitrahmen des geltenden Paradigmas anzupassen.

Faustkeil [WikiCommons]Eine kompakte, aber sehr dichte und detaillierte Faktensammlung samt Interpretation im aktuellen Forschungshorizont bietet Michael Brandt: Wie alt ist die Menschheit?: Demographie und Steinwerkzeuge mit überraschenden Befunden, Holzgerlingen 2006. Der Autor ist Mediziner und legt eine Evaluation der gesamten Forschungsliteratur zur Nahrungssituation, Werkzeugproduktion, Siedlungsdichte, Lebensqualität, Epidemiologie, Geburtenraten und Bevölkerungsentwicklung der Steinzeit vor. Das Datenmaterial wird jeweils systematisch mit den Lebensbedingungen und der Demographie heute lebender Wildbeuter verglichen. [Foto rechts: Faustkeil aus der Steinzeitkultur des Mousterien, datiert auf 300.000 bis 30.000 v.u.Z., Universität Zürich]

Der Übersichtsband ist in dieser Form z.Zt. ohne Konkurrenz, aber noch in weiterer Hinsicht interessant und provokativ, auch wenn der Autor dieser Hinsicht expressis verbis nur kurze vier Seiten am Schluss widmet (2006, 145—149). Denn Michael Brandt ist skeptisch gegenüber etablierten Annahmen zur Geochronologie und zum Zeitrahmen der Evolutionsbiologie, wozu er sich auch und besonders durch die Ergebnisse der in Rede stehenden Untersuchung berechtigt sieht. Dazu kommt ein (evangelikaler) theologischer Hintergrund, der jedoch die auf hohem Niveau stattfindende Sachargumentation selbst nirgends beeinflusst, welche einem methodologischen Naturalismus verpflichtet ist. Es wäre in diesem Zusammenhang für Nichtfachleute wünschenswert, wenn ohne falsche Berührungsängste von Seiten der Synthetischen Evolutionstheorie eine detaillierte Auseinandersetzung mit dem Datenmaterial und den Argumenten Brandts unternommen würde. Hier eine Übersicht zu dem Buch:

Paläolinguistik von Homo sapiens

Echte Sprache zeichnet sich durch diese fünf Kriterien aus: (1) Spezialisierung auf Informationsmitteilung: "Sprache organisiert unsere sinnliche Erfahrung und drückt unsere Selbstidentität aus: unsere Gedanken, Gefühle und Erwartungen." (Kandel / Schwarz / Jessell: Neurowissenschaften, Heidelberg / Berlin /Oxford 1996, 649), (2) Freie Wahl (Willkür) der Zeichen (Laute); (3) Kontextunabhängigkeit der Zeichen (Verschiebbarkeit in andere Zusammenhänge und Gebiete); (4) Produktivität (Neuheit bzw. Kreativität der Zeichenhandlungen); (5) Iteration (Wiederholung und Addition der Zeichen zu Sätzen und Texten) und Rekursion (Einbetten einer Sprachstruktur in eine weitere derselben Art).

Sprache verlangt "ein umfangreiches Wissen über linguistische Strukturen, einschließlich Grammatik, Wortbedeutungen und Klangformen von Sprachlauten", wobei "zahlreiche Indizien dafür [sprechen], daß ein großer Teil dieses Vorgangs angeboren ist" (Kandel / Schwarz / Jessell: Neurowissenschaften, 1996, 648, 652). Ein Indiz ist, dass Tiere weder die neurobiologische Basis für die Sprachproduktion, das Brocasche Feld im linken Schläfenlappen des Gehirns besitzen, noch die neurobiologische Basis für das Sprachverständnis, das Wernickesche Feld im Frontal- oder Stirnlappen des Gehirns und auch nicht die neuronalen Verbindungen zwischen beiden Feldern (vgl. Damasio / Damasio: Sprache und Gehirn. In: Spektrum der Wissenschaft 11, 1992, 80—92).

N. Chomsky [WikiCommons]Deswegen haben sich "Tiermodelle für Sprache ... größtenteils als unbefriedigend erwiesen [...] Die von trainierten Schimpansen erworbene künstliche Sprache [ist] nichtgrammatisch, imitierend und mechanisch [...] Die Entwicklung der Sprachfähigkeit bei Schimpansen [verläuft] nur bis zu einem bestimmten Punkt und bricht dann jäh ab." (Kandel / Schwarz / Jessel a.a.O. 1996, 650—651) Diese Einsichten stehen bei dem vielleicht einflussreichsten Ansatz der modernen Linguistik (Noam Chomsky [Foto links], Steven Pinker) Pate, welcher annimmt, "daß Menschen ein angeborenes Spracherwerbungsprogramm besitzen [...] mit einem genetisch festgelegten Regelsystem, der Universalgrammatik" (Kandel / Schwarz / Jessel a.a.O. 1996, 653—654). Das kann erklären, weshalb jedes Kind jede der 6900 Sprachen der Welt mit einem Gesamtlautbestand von 600 Phonen oder Phonemen (wenn bedeutungstragend) innerhalb der ersten drei, vier Lebensjahre erlernen kann. Oder weshalb Kinder in Milieus, wo die Elterngeneration rudimentäre Behelfssprachen mit offener Grammatik verwendet (Pidginsprachen), spontan eine verbindliche Satzbaugrammatik entwickeln (sog. Kreolisierung). Dafür spricht auch die Tatsache einer genetisch eingebauten sensiblen Phase des Spracherwerbs in der Kindheit: Ohne Stimulation durch Sprecher in der sozialen Umwelt tritt nach der Pubertät der Verlust der Sprachfähigkeit ein mit der Unfähigkeit des späteren Erlernens einer Sprache, wie das Beispiel sog. Wolfskinder zeigte. Chomsky: „Die menschliche Sprache" stellt "ein einzigartiges Phänomen dar [...], das keine signifikante Analogie in der Tierwelt besitzt [...] Die menschliche Sprache ist offensichtlich auf völlig anderen Prinzipien aufgebaut.“ (Sprache und Geist, Frankfurt a.M. 1970, 112, 117 und überhaupt 109—162).

Zur Entstehung bzw. Herkunft der Sprache existieren viele Ansätze und Hypothesen, die sich zwei großen Klassen zuordnen lassen: Kontinuitätsthese (langsame Entwicklung seit 250.000 Jahren) vs. Diskontinuitätsthese (genetische Evolutionssprünge: Chomsky). Linguisten glauben in der Regel, "daß die Sprache selbst sich erst in der späten prähistorischen Periode der Menschheitsgeschichte (vor etwa 100.000 Jahren) entwickelt hat und daß dies nur ein einziges Mal geschah. Aus dieser Hypothese folgt, daß alle Sprachen der Menschheit aus einer einzigen Ursprache heraus entstanden sind." (Kandel / Schwarz / Jessel a.a.O. 1996, 652). Die Entstehung der großen Sprachstämme wird sogar erst erst zwischen 4000 und 23000 v. C. angesetzt, für das Indogermanische z.B. vor 7000 bis 8000 Jahren (vgl. Cavalli-Sforza, L. L.: Gene, Völker und Sprachen: Die biologischen Grundlagen unserer Zivilisation, München / Wien 1999, 162).

Herder, Humboldt, die Gebrüder Schlegel, Darwin, August Schleicher (der erste darwinistisch arbeitende Sprachgeschichtsforscher, "Chomsky seiner Zeit“ genannt) vertraten die Auffassung, dass die ältesten Sprachen der Welt im Vergleich zu den modernen Sprachen der hoch zivilisierten Staaten bedeutend primitiver waren: “Auf dieser urältesten Stufe sprachgeschichtlichen Lebens gibt es also, lautlich unterschieden, weder Verba noch Nomina, weder Conjugation noch Deklination usf.“ (Schleicher: Die Darwinsche Theorie und die Sprachwissenschaft, Weimar 1863, 22)

Aus dieser Sicht sollten auch Völker, die heute noch in einer Steinzeitkultur leben, eine primitivere Sprache besitzen. Der bekannte Sprachpsychologe Heymann Steinthal meint dazu in Die Mande-Neger-Sprachen — psychologisch und phonetisch betrachtet (Berlin 1867, VI—VII): „Mit der gegenwärtigen Schrift beabsichtigt der Verfasser zu zeigen, daß es in der That Sprachen gibt, ... welche mit unseren höher organisierten indoeuropäischen Sprachen rücksichtlich des inneren Baues zu vergleichen so wenig möglich ist, als es angeht, ein Insekt mit einem Säugetier zu vergleichen“. Oder Darwin über den ersten Eingeborenen, den er kennen lernte, einen wilden Feuerländer: Er „stieß Töne aus und machte Gestikulationen, gegen welche die Laute der domesticierten Tiere weit verständlicher sind.“ (Darwin: Leben und Briefe von Charles Darwin I, Stuttgart 1887, 235).

Dass dies ein argumentativer Kurzschluss ist, zeigte kurze Zeit später Darwins Landsmann Thomas Bridges, welcher 40 Jahre in das Studium der Sprache der Feuerländer investierte und ein Wörterbuch derselben von 32.000 Vokabeln erstellte (soviel wie Shakespeares Wortschatz, Hölderlins Texte haben dagegen 7500 Vokabeln und bei Luther finden sich 9000): „Die Sprache der Feuerländer entpuppte sich als eine Sprache mit umwerfend vielfältigen Ausdrucksmöglichkeiten. Die Feuerländer waren in der Lage, feinste sprachliche Nuancierungen zum Ausdruck zu bringen.“ (R. Liebi: Herkunft und Entwicklung der Sprachen, Holzgerlingen 3. Aufl. 2007, 188). Liebi ist Linguist und Orientalist und Kritiker evolutionistischer Sprachtheorien. Er verweist noch auf andere südamerikanische Indianersprachen im Einzugsgebiet des früheren Inkareiches, welche von jedem Verbstamm 50.000 (Ketschua) oder 100.000 (Aimara) Verbformen in Form von bis zu über 20 Suffixen bilden können: „Der Reichtum und die Ausdruckspräzision der Sprache der Aimara sind tief beeindruckend“ und übertreffen in bestimmten Hinsichten unsere modernen Sprachen tatsächlich bei weitem. Manche Indianersprachen verkörpern geradezu implizite Wissenschaftstheorien: „So besitzen die Wintu-Indianer in Kalifornien z.B. spezielle Formen, um folgende Aussagekategorien zu unterscheiden: 1. Die Aussage ist eine Übernahme vom Hörensagen. 2. Die Aussage ist das Resultat persönlicher Beobachtung. 3. Die Aussage ist das Resultat einer logischen Schlussfolgerung. Hier werden zudem noch drei Grade von Plausibilität unterschieden.“ (Liebi a. a. O. 2007, 197)

Liebi stellt daher für uns heute nur Selbstverständliches fest, wenn er sagt: „Die moderne Erforschung von Eingeborenen-Sprachen in aller Welt hat deutlich gemacht, dass es auf der ganzen Welt keine primitiven menschlichen Sprachen gibt. Ferner ist völlig klar geworden, dass zwischen dem Kulturniveau einer Gemeinschaft und der Struktur ihrer Sprache kein Zusammenhang besteht. Das heißt, dass eine Stammesgemeinschaft in noch so einfachen, ja gar steinzeitlichen Verhältnissen leben kann und dennoch eine sehr komplexe Sprache hat.“ (2007, 201) Auch zeigen bereits die Eingeborenensprachen das volle Spektrum der heutigen Sprachtypen: Isolierende Sprachen (unveränderliche ein bis zweisilbige Wortblöcke) - Agglutinierende Sprachen (iterierte Kombination von morphologischen Grundformen oder Morphemen) - Flektierende Sprachen (Abwandlung der morphologischen Grundformen durch Ablaute oder Prä-, In- und Affixe).

Liebis Argument ist weiter: „Nach der Evolutionslehre wäre zu erwarten, dass bei Sprachen, deren Geschichte über große Zeiträume hinweg dokumentiert ist, Entwicklungstendenzen von unten nach oben auf allen Ebenen der Langue [= Sprachkompetenz] festgestellt werden könnten. Ebenso sollte es möglich sein, in der real nachvollziehbaren Sprachgeschichte Mechanismen  zu entdecken, die evolutive Tendenzen auf allen Sprachebenen [Phonologie, Morphologie, Syntax, Semantik] überhaupt ermöglichen.“ (a.a.O. 2007, 158). Angesichts der Entstehung der großen Sprachstämme erst zwischen 4000 und 23000 v. C. seien 5000 Jahre schriftlich dokumentierter Sprachgeschichte eine so breite Datenbasis, dass Mechanismen und Tendenzen der Entwicklung notwendig deutlich werden müssen, zumal real beobachtbare sprachgeschichtliche Veränderungen oft sehr schnell ablaufen. So Liebis Annahmen, welche man kaum a priori als unvernünftig abtun kann.

Akkadische Keilschrift [WikiCommons]Die ältesten heute bekannten Sprachen sind nun das Sumerische (3200 Jahre in Gebrauch: 3100 v. C. bis 100 n. C.), das Ägyptische (ca. 5000 Jahre, ab 2900 v. C. bis heute, 2000 n. C.) und das Akkadische (2600 Jahre, 2500 v. C. bis 70 n. C.). Das Sumerische, insbesondere „das sumerische Verbalsystem besitzt eine überaus komplexe und extrem komplizierte Struktur. Es steht eine überwältigend große Zahl von Präfixen, Infixen und Suffixen zur Verfügung. Mit Hilfe dieser sprachlichen Elemente können Verbalinhalte auf äußerst präzise Art und Weise zum Ausdruck gebracht werden [...] Es können Tausende von verschiedenen [synthetischen] Verbalformen gebildet werden.“ (Liebi 2007, 167) Synthetische Formen meint aus einem Wort bestehende Formen, die nicht mittels Umschreibungen durch Hilfsverben (sein, haben, wollen, dürfen ...) und mittels bestimmter fixierter Wortstellungen im Satz gebildet werden. Letztere sind analytische Formen. Ähnlich im Akkadischen und abgeschwächt im Ägyptischen: „Der komplizierte und umfassende Aufbau der Formenlehre des Sumerischen, des Akkadischen und des Ägyptischen steht in eindrücklichem Gegensatz zu den z.T. vergleichsweise extrem simplen morphologischen Strukturen in der Formenlehre der modernen Sprachen“ (Liebi 2007, 182). Im Deutschen haben wir heute nur noch 24 synthetische Formen statt der Tausenden im Sumerischen / Akkadischen, und im Englischen bekanntlich noch weniger. [Foto oben: Akkadischer Keilschrifttext (Ausschnitt), British Museum]

Morphologisch reiche Sprachen sind extrem ökonomisch und hoch präzise, weswegen man Liebis Feststellung kaum widersprechen kann: „Die ältesten Sprachen haben nicht den geringsten Anstrich von Primitivität.“ (2007, 186). Die Komplexität der Morphologie ältester Sprachen ist um so auffallender als der Bereich der Formenlehre sich am stärksten, d.h. fast vollständig, unserer Sprachkreativität entzieht. Im Deutschen und Englischen wurde z.B. in der Moderne keine einzige zusätzliche synthetische Form gebildet, während Syntax und Semantik dagegen sehr plastisch sind und fortlaufend erweitert bzw. verändert werden.

Umgekehrt haben bereits die sog. Junggrammatiker des 19. Jh. die Tendenz oder das Entwicklungsgesetz der Sprachen entdeckt, das im geschichtlichen Ablauf ein „Abschleifen phonologischer Elemente und weiter bis hin zur Eliminierung morphologischer Strukturen“ zeigt, kompensiert durch lexikalische und syntaktische Ausgleichsmechanismen: „Die Sprachentwicklungen neigen stark dazu, synthetische (zusammengesetzte [innerhalb eines Wortes]) Formen durch analytische (umschreibende) Formen zu ersetzen. Es ist ziemlich selten, dass analytische Formen durch Grammatikalisierungsprozesse zu synthetischen Formen erstarren.“ (2007, 204, 206) Diese Vereinfachung und Reduktion findet sich überall, vom Hebräischen zum neuhebräischen Ivrith, vom Sanskrit (600 Flexionsformen) zum Hindi, vom Alt- zum Neupersischen, vom Alt- (500 synthetische Flexionsformen) zum Neugriechischen, vom Latein (170 synthetische Flexionsformen) zu den Romanischen Sprachen (40 synthetische Formen im Französischen). Jeder des Lateinischen Mächtige kennt das Phänomen, das z.B. schnell an einem für Cäsars Gallischer Krieg oder Tacitus' Annalen typischen Satz überprüft werden kann: 'Faciendum arce capta pons'. Übersetzt: Nachdem die Bergfestung erobert worden war, wurde angeordnet, dass eine Brücke gebaut werden solle. Für dieselbe präzise definierte Aussage benötigten Römer vier Wörter, wir heute 14 Wörter.

Liebis Dilemma scheint ein tatsächliches logisches Problem zu benennen: „Vom evolutionistischen Standpunkt aus müsste daher ... postuliert werden, ... dass die komplexen morphologischen Strukturen der Formenlehre in ‚prähistorischer‘ Zeit entwickelt worden seien [...] Dabei muss ... beachtet werden: Eingeborene z.B. sind sich, ohne linguistische Bildung, der komplizierten grammatischen Strukturen ihrer Sprache gar nicht bewusst! [...] Die Eingeborenen wissen Dinge, von denen sie gar nicht wissen, dass sie sie wissen.“ (2007, 228, 237)

Aktuelle Evolutionismus-Kreationismus-Debatte

Zum internationalen Hintergrund der Kontroverse Folgendes: In 20 der 50 Bundesstaaten der USA wird in den Schulen nach dem Motto "Schöpfer oder Zufall" sowohl die Evolutionstheorie als auch die Existenz eines intelligenten Designers (ID) gelehrt. Auch Präsident Bush forderte in seiner zweiten Amtsperiode die Gleichberechtigung beider Theorien in den Lehrplänen. Dies deckt sich mit Umfrageergebnissen, wonach 51 Prozent der US-Amerikaner die Evolutionstheorie ablehnen. 38 Prozent der Amerikaner sind dafür, Kreationismus statt der Evolutionstheorie an Schulen zu lehren.

Die evolutionskritische Einstellung erfährt dabei uneingeschränkte Unterstützung durch das orthodoxe Judentum. Jüdisch-orthodoxe Naturwissenschaftler sind zu 95 % Kreationisten und sind hierfür auch publizistisch tätig, z.B. Greenberger: Human Intelligence Gone Ape, New York 1990; Spetner: Not By Chance! Shattering The Modern Theory of Evolution, New York 1997; Aviezer: Fossils and Faith. Understanding Torah and Science, Hoboken, NJ 2001. Repräsentativ hierfür ist die Bilanz des MIT-Nuklearphysikers Gerald (Yaakov) Schroeder in The Hidden Face of God, New York 2000, 191, 120, 107: The so far only proof for evolution was “pink daisies evolving into blue daisies, little dogs evolving into big dogs … they could not come up with one single morphological change clearly recorded in the fossil record,” while “ the math in this totally secular text clearly states that evolution via random mutations has a very weak chance of producing significant changesin morphology [...] The difficulty of displacing Darwinian evolution, even though the theory fails to describe reality … [is due only to] a world so steeped in the physicality of materialism.” Oder jene Yirmiyahu Branovers, Direktor des Center for Magneto-hydrodynamic Studies der Ben-Gurion University: “People make a big deal about evolution without knowing that evolution is dead. Nobody who is serious speaks about evolution. It is only those who have ideological motives or who make their living from evolution that stick to it.” (Interview 4th Conference on Mosiach and Science auf http://ryal.org/d02.html)

Über 700 Naturwissenschaftler der USA und darüber hinaus haben folgende Erklärung unterzeichnet, welche von dem evolutionskritischen Discovery Institute formuliert worden war, darunter Forscher von der US National Academy of Sciences sowie von Yale, Princeton, Stanford, MIT, UC Berkeley, UCLA etc.: "We are skeptical of claims for the ability of random mutation and natural selection to account for the complexity of life. Careful examination of the evidence for Darwinian theory should be encouraged."

Auch in England, der Heimat von Charles Darwin, wächst der Prozentsatz der Vertreter des ID. Eine Umfrage im Auftrag der BBC ergab: Auf die Frage, wie sich die Entstehung und Entwicklung der Lebewesen auf der Erde erklären, nannten 48 Prozent die Evolutionstheorie, 22 Prozent gaben den Kreationismus an, und 17 Prozent sehen als Erklärung Intelligent Design. 41 der Befragten sind zudem dafür, dass der Biologieunterricht Kenntnisse über ID vermitteln solle. Für Informationen zum Kreationismus im Unterricht stimmten 44 Prozent. Neueste Umfragen (2015) zeigen eine weitere erhebliche Verschiebung hin zu Intelligent Design und Kreationismus.

Als intellektuelle Avantgarde im Blick auf ergebnisoffene Forschung und Hypothesenbildung profilieren sich zunehmend auch asiatische Elitehochschulen und Wissenschaftsverlage, deren Bestrebungen und Ergebnisse u.E. jedoch noch einmal eine ganzheitliche Einbettung erfahren sollten, wie sie dieses Portal zum Studium generale bezweckt. Asien gilt in dieser Hinsicht als hottest new frontier, während die akademische Welt in Europa in Gefahr ist, aufgrund in die Jahre gekommener Vorurteile sich zukünftigen Entwicklungen zu verschließen. Insbesondere deutet manches darauf hin, dass die Republik Korea den Ehrgeiz hat, wie in Halbleiterphysik und IT, so auch in Geo- und Lebenswissenschaften sich zu einer weltweiten Spitzenposition in Forschung, Entwicklung und Anwendung vorzuarbeiten. Es scheint weiterhin, dass man als eine Voraussetzung hierfür ansieht, geltende Paradigmen systematisch dem Selektionsdruck von Alternativen auszusetzen. Deren Erklärungskraft, Kohärenz und Vereinheitlichungspotenzial wird durch akademische Institutionalisierung und Präsenz in der Wissenschaftspublizistik stark gemacht, wie etwa durch einen spitzenwissenschaftlichen Forschungsverbund für Intelligent Design (Research Association for Intelligent Design), in dem hochkarätige Physiker, Chemiker und Biologen der koreanischen Forschungsuniversitäten mitarbeiten. Die Situation in China, Asiens größtem Ideenmarkt, ist zwar wegen ideologischer Vorgaben sehr viel komplexer, aber in der universitären Praxis doch nicht wesentlich anders und nach den Informationen um Dimensionen offener als in Europa. Für Prof. Paul Chien (San Francisco), einen der besten Kenner und Mitakteur der chinesischen Wissenschaftskultur, "this is the frontier of science".

Richard Dawkins [WikiCommons]Die jüngste evolutionskritische Debatte haben v.a. angestoßen P. E. Johnsons' Darwin on Trial, Washington 1993, M. J. Behe's Darwin's Black Box.The Biochemical Challenge to Evolution, New York 2. Aufl. 2006 [dt.: Darwins Black Box. Biochemische Einwände gegen die Evolutionstheorie, Gräfelfing 2007], und S. C. Meyers Signature in the Cell: DNA and the Evidence for Intelligent Design, New York 2009. Mit J. Fodors und M. Piattelli-Palmarinis What Darwin Got Wrong, New York 2010 sowie Th. Nagels Mind and Cosmos. Why the Materialist Neo-Darwinian Conception of Nature Is Almost Certainly False, Oxford 2012 [dt.: Geist und Kosmos: Warum die materialistische neodarwinistische Konzeption der Natur so gut wie sicher falsch ist, Berlin 2013] erreichte sie den sog. wissenschaftlichen mainstream. Die Gegenkritik wird angeführt von D. Dennett: Darwin‘s Dangerous Idea: Evolution and the Meanings of Life, New York 1995 [deutsch: Darwins gefährliches Erbe. Die Evolution und der Sinn des Lebens, Hamburg 1997], R. Dawkins: The Blind Watchmaker, Harlow 1986 und The God Delusion, London 2007 [2006] [Foto links: Richard Dawkins], und zurückhaltender von David S. Wilson: Darwin's Cathedral - Evolution, Religion, and the Nature of Society, 2002. Dawkins gibt einerseits Evolutionskritikern darin Recht, dass „a living creature or one of its more complex organs [but it could be anything from a molecule up to the universe itself] ... is correctly extolled as statistically improbable“ (2007, 138). Andererseits ist sein stets wiederholtes Mantra: „Darwinian natural selection is the only known solution to the otherwise unanswerable riddle of where the information comes from“ (2007, 138). So counter-intuitive es auch sein mag: „Natural selection ... explains the whole of life“ (2007, 141).

Nun kann Selektion nur mit dem Material arbeiten, das Mutationen und Rekombination zuvor bereit stellen. Und Evolutionskritiker bestreiten eben mit diskutablen Daten und Argumenten, dass ungerichtete Mutation und Rekombination das tatsächlich leisten oder leisten können. Theistische Evolutionisten bringen hier die aristotelische (und kantische) Hypothese immanenter dynamischer Formursachen oder Informationsprinzipien (Eide, Entelechien) ins Spiel. Oder modern ausgedrückt: Inherent Propensities for Increased Complexity. Vgl. das Untermenu: Philosophie der Biologie. Dawkins hält auch hier lediglich wieder das Mantra der natürlichen Selektion dagegen: „The evolutionary drive towards complexity comes ... not from an inherent propensity for increased complexity, and not from biased mutation. It comes from natural selection: the process which, as far as we know, is the only process ultimately capable of generating complexity out of simplicity“ (2007, 180). Eine weiterführende Diskussion auch und besonders von Dawkins Thesen finden Sie im Menu: Atheismus-Debatte.

In Deutschland ist Siegfried Scherer, Inhaber des Lehrstuhls für Mikrobielle Ökologie am Department für Grundlagen der Biowissenschaften der TU München, der vielleicht bekannteste Repräsentant evolutionskritischer Positionen. Er ist Theist und steht der evangelikalen Studiengemeinschaft Wort und Wissen nahe [ www.wort-und-wissen.de]. Scherer stellt seine Position wie folgt dar: „Die Auseinandersetzung um Schöpfungsglaube, ID, Kreationismus, wissenschaftliche Evolutionstheorie und naturalistische Weltbilder wird in den USA mit harten Bandagen geführt. Vielleicht können wir hierzulande ein wenig entspannter mit der Sache umgehen? Ich hoffe, dass sich fundamentalistischer Evolutionismus bei uns genauso wenig etabliert wie ideologischer Kreationismus." (Internetauftritt: www.siegfriedscherer.de). Scherer und Mitautoren ist als anerkannten Forschern mit enormen (peer-reviewed) Veröffentlichungslisten jedenfalls keine forschungsfeindliche Feigheit und Trägheit nachzuweisen, welche einem God of the Gaps (= "Lückenbüßer"-Gott für naturwissenschaftliche Erklärungslücken) huldigt (vgl. Dawkins 2007, 150—151, 155—159).

Auf der anderen Seite ist Ulrich Kutschera, Inhaber des Lehrstuhles für Pflanzenphysiologie und Evolutionsbiologie am Institut für Biologie der Universität Kassel, der wohl bekannteste Evolutionsbiologe im deutschen Sprachraum und Vorsitzender der AG Evolutionsbiologie im Verband Deutscher Biologen [ www.evolutionsbiologen.de]. Dies ist ein zahlenmäßig eher bescheidener, aber sehr kämpferischer Verband für Biologie auf der Basis eines weltanschaulichen Naturalismus und Atheismus.

Kutschera und Scherer sind beide Autoren bzw. Koautoren von Handbüchern zur Evolution, welche für die jeweiligen Lager Leitfunktion haben und Standards gesetzt haben. Es sind einmal Ulrich Kutscheras Evolutionsbiologie , 3. Auflage, Stuttgart 2008, andererseits Reinhard Junkers und Siegfried Scherers Evolution. Ein kritisches Lehrbuch, 6. Aufl., Gießen 2006 [www.evolutionslehrbuch.info/]. Auch in den Medien sind beide Autoren zu prominenten Vordenkern ihrer Lager geworden (z.B. in dem Geo-Spezial Schöpfung contra Evolution von 2007). Die folgende Verknüpfung bietet eine geraffte Skizze der aktuellen Debatte an Hand der Veröffentlichungen von U. Kutschera und S. Scherer (und R. Junker):

Neben der Biologie ist die Geologie das zweite große Feld der Debatte. Die folgende weitere Verknüpfung orientiert über die Diskussion der Geowissenschaften im sog. Scientific Creationism, wie hier die Kritik am etablierten Paradigma meist genannt wird. Im Einzelnen werden Geschichte und Hintergrund sowie die systematischen Thesen des Scientific Creationism vorgestellt. Dazu das Pro und Contra zur Diskussion radiometrischer Altersbestimmungen, zur Möglichkeit und Tatsächlichkeit schneller Entstehung geologischer Formationen inkl. Öl, Kohle und Versteinerungen, zu widersprüchlichen Befunden der Astrophysik, und zur Universalität der Flutberichte in der Ethnologie. Auch die beachtenswerte Selbstkritik des scientific creationism in Deutschland und Europa wird kurz skizziert:

Eine ausführliche monographische Behandlung der hier einschlägigen geowissenschaftlichen Themen finden Interessierte in dem Menu bzw. E-Buch Wissenschaftsphilosophie der Historischen Geologie.