Evelyn Hanzig-Bätzing

Die neuen Grenzen des Menschlichen

Zum Paradigmenwechsel in der Biologie
Wir stehen mitten in einer Revolution. Sie schien 2003 begonnen zu haben, als durch die globalen Medien die Botschaft ging, »das Buch des Lebens« sei entziffert. Tatsächlich war das der Schlusspunkt des cartesianischen Wissenschaftsverständnisses mit seinen kausal-mechanistischen Begründungen. Schnell sollte sich erweisen, dass sich »Leben« mit seiner ganzen Komplexität der vollständigen Berechenbarkeit und vor allem der Verfügbarkeit entzieht. Denn die dynamische Empfindlichkeit hochkomplexer Systeme wie das des Genoms verunmöglicht ihre Isolation aus den Kontexteinflüssen, etwa die Berechenbarkeit von Einzelteilen. Ein Gen lässt sich nicht extrapolieren und definieren. Es »ist« nur Gen in der komplizierten Wechselwirkung mit dem gesamten Netzwerk der genomischen Architektur. Denn Leben transportiert eine grundsätzliche Opposition zu jedem Festgelegten und Begrifflichen; in seinem impliziten Bezug auf das Unbestimmte, nicht Verfügbare bildet es einen Grenzbegriff des Denkens. Dieser Perspektivenwechsel stellt das Dogma unserer gesamten abendländischen Aufklärungsvernunft radikal infrage.

   
         »Wir müssen uns eingestehen, dass wir in Systeme eingebunden sind, deren Entwicklung wir weder prognostizieren noch wirksam steuern können.«
   
         Wolf Singer, in: Wolfgang Frühwald et al.: Das Design des Menschen, 2004

            »Wir können uns auf ein Zeltalter einstellen, in dem wir die Lebensmechanismen praktisch vollständig verstehen werden. Aus diesem totalen Verständnis können wir –             wenn wir es
             denn wollen – totale Kontrolle machen.«
   
         Ian Wilmut(1): Dolly. Der Aufbruch ins biotechnologische Zeitalter, 2002

Wissenschaftliche Durchbrüche sind heutzutage untrennbar verbunden mit wirtschaftlichen – das gilt vor allem für die Biowissenschaften, die sich längst zu einem bedeutsamen Wirtschaftszweig entwickelt haben. Es geht derzeit beispielsweise im weltweiten Wettlauf der Stammzellforschung um die Anwendung reprogrammierter, das heißt verjüngter Zellen (»induzierte pluripotente Stammzellen«) beim Menschen, um defektes oder abgestorbenes Gewebe (z. B. nach einem Herzinfarkt) durch die Implantierung dieser Zellen zu ersetzen. Es geht um einen spektakulären Durchbruch in der Gentherapie und somit um viel Ruhm. Vor allem aber geht es um einen riesigen Zukunftsmarkt: um die Patentierung der Erfolgsformel und somit um ökonomisch verwertbare Rechte, um Investoren anzulocken.
Die ungeheure Dynamik unserer sogenannten Wissensgesellschaft hat seit Descartes‘ Aufspaltung des Menschen in Körper und Geist, mit der der Mensch als Ich denke, also bin ich begründet wurde und vor allem unter dem Einfluss der Aufklärung eine ganz bestimmte Rahmung bekommen hat, deren Wirkung sich bis in unsere Tage hinein ungebrochen durchgehalten hat: Die Phänomene, die dem Leben des Menschen eigen sind, werden – nach einem Wort Foucaults – seitdem überführt in die »Ordnung des Wissens und der Macht« der Vernunft.
Die Frage, was das menschliche Leben spezifisch auszeichnet, wurde seither mehr und mehr abgelöst durch die Auffassung von der Verbesserungsbedürftigkeit des Menschen, von der Perfektionierung des Lebens überhaupt. Leben wurde als ein rein am Wissen orientiertes vorgestellt. Es wurde einer Lebenssteigerungslogik unterworfen und damit als etwas vollständig Beherrschbares, Berechenbares und Kontrollierbares ausgelegt. Und vor allem wurde es als Voraussagbares begriffen.
Diese Fortschrittslogik wurde aus biopolitischen Interessen auf den Begriff der »Lebenswissenschaft« gebracht. Unter Ausgrenzung der alten Humanwissenschaften wurden die Biologie beziehungsweise die Biotechnologien zur Lebenswissenschaft erklärt. Und damit wurden ihr Bedeutungsgehalt und ihre Reichweite derart ausgedehnt, dass ihr daraus die Definitionsmacht von Leben erwuchs. In deren Folge wurden der Organismus und seine Lebensprozesse als vollständig berechenbare und somit voraussagbare Größe definitorisch auf den Begriff gebracht. Das heißt Leben wurde wie ein technisch vollständig analysierbarer Gegenstand behandelt. Dass die biologische Definition von Leben als identifizierbares Ganzes auch der Realität des Lebens entspricht, dies galt es nun unter wissenschaftlichen Beweis zu stellen. Vor knapp sechs Jahren lag der Beweis, dass vollständige Erkenntnis der Lebensprozesse möglich ist, publiziert vor. Er erschien wie eine gentechnische Revolution und wurde seiner Bedeutung nach als »Buch des Lebens« vorgestellt. Gemeint ist die im Jahre 2003 zusammen mit den beiden Genforschern Francis Collins und Craig Venter von Bill Clinton der Weltöffentlichkeit verkündete Botschaft, dass das menschliche Erbgut in praktisch allen Details entziffert worden ist: »Heute lernen wir die Sprache, in der Gott Leben schuf« – so Clintons Worte zur wissenschaftlich bewiesenen vollständigen Erkenntnis des Lebens.
Die Sequenzierung des menschlichen Genoms stellte den Höhepunkt biotechnologischer Forschung dar. Damit war aber auch – wie sich noch zeigen sollte – der Schlusspunkt eines Wissenschaftsverständnisses erreicht, dessen Erfolgsgeschichte sich zwei zentralen Grundannahmen verdankt: Erstens, dass sich Lebensprozesse vollständig verstehen, kontrollieren, berechnen und somit voraussagen lassen. Und zwar sofern man alles als isolierbare Einzelteile behandelt und die Funktionsabläufe des Organismus dann kausal-mechanistisch begründet. Und zweitens, dass alles, was sich diesem Dogma und dem wissenschaftlichen Zugriff entzieht, unberücksichtigt, vernachlässigt werden kann.
Worin bestand das Forschungsergebnis des im Jahre 2003 verkündeten spektakulären Durchbruchs in den Biowissenschaften? Und wieso folgte daraus anschließend ein grundlegender Perspektivenwechsel der Biologie auf ihren Untersuchungsgegenstand? Und schließlich wird zu fragen sein: Was hat es mit der neuen Perspektive der Biologie aufs Leben, auf die jeweils spezifischen Funktionsmechanismen und Regulationssysteme der Organismen des Näheren auf sich – vor allem im Hinblick auf mögliche Konsequenzen für unser, vom traditionellen abendländischen Denken geprägtes Menschenbild?


I. »Vollständige Entschlüsselung des Humangenoms« – »cogito ergo sum«

1. Die vollständige Sequenzierung des Humangenoms stellte einen Meilenstein der biologischen Forschung als solcher dar. Und zudem bildete sie zugleich den Abschluss eines internationalen Forschungsprojektes, an dem mehr als dreißig Länder und auch deutsche Forschergruppen beteiligt waren, das im Jahr 1990 gestartet wurde, dessen Kosten sich auf drei Milliarden Dollar beliefen und das auf einen Zeitraum von 20 Jahren angelegt war: Das »Internationale Human-Genom-Projekt« hatte sich zur Aufgabe gemacht, das gesamte menschliche Genom zu entschlüsseln, also Aufbau und Funktionsweise der gesamten menschlichen Erbsubstanz, der DNA (Desoxyribonukleinsäure) zu analysieren. Mit dem erfolgreichen Abschluss dieses Großprojekts kam noch ein zweiter Erfolg hinzu: Nämlich die besonders kurze Zeitspanne von nur zehn Jahren statt der geplanten 20 Jahre. Wodurch war dieser beeindruckende biotechnische Fortschritt ermöglicht worden?
Um auf diese so wichtige Frage eine der Sache nach angemessene Antwort geben zu können, ist ein Blick zurück auf jene normativen Grundannahmen erforderlich, weil deren theoretische Voraussetzungen die Grundlage bildeten, die diesen Erfolg zuallererst ermöglichten.
Die unmittelbaren Voraussetzungen dieses Forschungserfolgs, wie überhaupt jeglicher molekularbiologischer und gentechnischer Methoden und Erklärungsgrundlagen für das Leben hängen untrennbar zusammen mit der bahnbrechenden Entdeckung der Erbsubstanz DNA durch James Watson und Francis Crick. Am Modell der »Doppelhelix« schufen sie 1953 erstmals ein Bild der chemischen Struktur der Erbsubstanz und legten damit den wichtigsten Grundstein für den Einblick in deren Struktur. »Eine Erklärung für das Leben musste in seinen molekularen Grundlagen liegen.« Es galt somit herauszufinden, wie der zelleigene Mechanismus zur Eiweiß-(Protein)-Herstellung funktioniert und wie und wodurch die DNA ihre Information zu eben dieser Herstellung weiterleitet. In der Erbsubstanz DNA – so die grundlegende Annahme – ist der Plan des Lebens, sind sämtliche Informationen gespeichert, die die Lebensprozesse steuern und die Abfolge der Bausteine in der DNA an die nächste Generation als jeweils spezifische Merkmale (wie ein Lebewesen aussieht, welchen Krankheiten sein Leben ausgesetzt sein wird oder welcher Gesundheit es sich erfreuen darf) weitergeben. Dem traditionellen abendländischen Einheitsdenken entsprechend, das alles, was ist, auf einen gemeinsamen, allgemeingültigen Grund zurückführt und alles Daseiende daraus ableitet – kurz gesagt: einem solch verallgemeinerbaren Prinzip entsprechend wurde die Erbsubstanz als der alles beherrschende Regulationsmechanismus verstanden und auf die einfache Gesetzmäßigkeit der Linearität hin ausgelegt. Und dies bedeutete: Die Funktionsmechanismen der Vererbung und die Genregulation wurden dem strengen Kausalitätsprinzip unterworfen. Francis Crick formulierte aus diesem Prinzip heraus das »zentrale Dogma«, nach welchem Gene Proteine herstellen, wobei der genetische Informationsfluss als eine Einbahnstraße vorgestellt wurde.

Diese Vorstellung der Molekularbiologie hat sich über ein halbes Jahrhundert hindurch ungebrochen gehalten und mit ihr die Überzeugung, dass Proteine sowohl für die Stoffwechselregulation verantwortlich sind als auch für die Herausbildung der spezifischen Art von Lebewesen, zu der ein Organismus sich entwickelt, und ob dessen genetische Ausstattung eher gut oder schlecht ist. Mit dem im Jahre 1909 von Wilhelm Johannson geprägten Begriff Gen verbindet sich bis in unsere Tage hinein die Auffassung, dass der Struktur der DNA eindeutig eine biologische Funktion entspricht. Die Allgemeingültigkeit des Übereinstimmungspostulats, das die Hypothese: Struktur und Funktion sind Prädikate ein und desselben Objekts (die Hypothese von der Identität des Objekts) stützt, ist heute in der alltagssprachlich vernutzten Formel wieder zu erkennen: Alles (alle biologischen Phänomene und sämtliche Verhaltensmuster) liegt in den Genen begründet. Das im April dieses Jahres vom deutschen Bundestag verabschiedete »Gendiagnostikgesetz« geht genau von dieser Vorstellung aus; dass nämlich eine Krankheitsdisposition sich eindeutig einem Gen zuordnen lässt.

Die Trennschärfe zwischen Gesundheit und Krankheit hat in dem Kausaldenken dieser genetischen Vorstellung ihre Wurzeln. Diese reichen aber noch viel weiter zurück. Nämlich in die Geburtsstunde der modernen Medizin, die jedoch ihrerseits ohne die Philosophie Descartes’ so nicht hätte stattfinden können. In Descartes’ dualistischer Theorie über das Wesen des Menschen, der übrigens auch Charles Darwins kausal-mechanistische Grundlagen seiner Evolutionstheorie des Zufallsprinzips und der Selektion entspringen, liegen denn auch die vermittelten Voraussetzungen jener gentechnischen Methoden und Erklärungsgrundlagen, die zu dem spektakulären Forschungserfolg des Human-Genom-Projekts geführt haben. Deshalb ein kurzer Blick in diesen für unsere gesamte abendländische Denktradition so zentralen philosophischen Ansatz.

Das die Neuzeit prägende »Ich denke, also bin ich«, das cartesianische »cogito ergo sum« beruht auf der Aufspaltung des Menschen in die »res cogitans« und die »res extensa«. Das heißt, es gründet in der Trennung zwischen Geist und Körper, wobei die Selbsterkenntnis des Menschen (cogito ergo sum) in der Herrschaft seines Geistes (res cogitans) über die Materie (res extensa) und damit in der Herrschaft des Menschen über seinen Körper besteht. Es war die Gleichsetzung von Subjektivität und Wissen (die Identität des Menschen mit sich selbst als einem denkenden Wesen), die den metaphysischen Glauben an die Unsterblichkeit des Geistes (der sich im Tode vom Körper trennte und somit etwas Immerseiendes darstellte) begründete und den Boden bereitete für die vollständige Entwertung des der Endlichkeit, der Todverfallenheit anheimfallenden Körpers. Der Körper gilt somit – wie überhaupt alles konkret Daseiende – als bloß Materielles und vom Geist Beherrschbares. Es war diese Auffassung, die es dann der Medizin ermöglichte, den Körper zu öffnen, ohne den unsterblichen Geist zu zerstören. Descartes verglich den Körper nicht bloß mit einer Maschine – das hätte ihn zur Beachtung einer gewissen Unschärferelation in Bezug auf das Lebendige gegenüber der toten Apparatur genötigt –, sondern er behandelte den Körper wie eine Maschine, die man wie nach einem Plan in ihre Einzelteile zerlegen und deren Wirkungsweise man messen, berechnen und kontrollieren, also vollständig beherrschen kann.

Auf diesem Hintergrund analysiert der Sozialwissenschaftler Bernhard Kathan die Geschichte der Medizin und gelangt zu der Frage, »was Handlungen zu technischen Handlungen macht«. Technik legt alles auf das Ja-Nein/Entweder-Oder fest und lässt Handlungen somit zu etwas Ingenieurmäßigem werden. »Nehmen wir als Beispiel die Reparatur eines defekten Fernsehapparates. Der Defekt kann in der Regel nur behoben werden, wenn es ein Modell für die möglichen Ursachen der Störung gibt. Geleitet von einer Theorie über die Wirkungsweise des Geräts unterzieht der Fernsehmechaniker den Apparat einer Prüfung, er sucht nach dem Fehler, repariert ihn, wechselt den betreffenden Bestandteil aus oder verweist den Kunden auf die richtige Bedienung des Apparates. Technischen Charakter haben die Handlungen des Fernsehmechanikers deshalb, weil sie nach einer Vorlage vorgehen und die einzelnen Arbeitsschritte in sich hierarchisch und in einer vorgegebenen Abfolge geordnet sind. Die einzelnen Arbeitsschritte sind überprüfbar und lassen sich in der Regel von einem anderen Fernsehmechaniker in derselben Weise durchführen. Wie ein Fernsehapparat kann auch der Mensch Gegenstand einer technischen Behandlung sein. … Aber im Gegensatz zum Fernsehapparat ist der lebende Mensch kein passiver Gegenstand, sondern er empfindet, er antwortet, reagiert auf die an ihm durchgeführten Eingriffe, auch wenn er sich in einem narkotisierten Zustand befindet.« … »Technik ermöglicht klare Antworten auf scheinbar klare Problemstellungen.«(2)

Auf diesem Grunde der rein am technokratischen Wissen orientierten Handlung wurde das Verständnis des lebendigen Körpers auf dieses Wissen hin ausgelegt, und auf diese Weise konnte er mit dem Begriff identifiziert werden, den sich der Mensch von ihm gemacht hatte. Mögliche Ursachen von Störungen im Organismus lassen sich mit einem solchen Modell eindeutig erklären, zuordnen und schließlich beheben. Descartes’ kausal-mechanistisches Denken bildet die Grundlage dafür, dass Normalität inzwischen zum Synonym geworden ist für das Störungsfreie, Fehlerlose, für das reibungslos Funktionierende schlechthin, zu dem es indes keine Alternativen gibt, will das individuelle Wohl nicht mit dem wissenschaftlich Begründeten kollidieren. Und was die Molekularbiologie unserer Tage betrifft, so hat auch und vor allem hier Descartes’ Dualismus zu der weit verbreiteten Auffassung von der »genetischen Individualität des Menschen«(3) geführt, der zufolge Subjektivität in der Summe der menschlichen Gene, das heißt der eindeutig bestimmbaren aktiven Gene besteht.

Dementsprechend ist der wissenschaftliche Erfolg des Human-Genom-Projekts zu sehen: Dieses Projekt konnte so frühzeitig erfolgreich abgeschlossen werden, weil man sich im traditionellen Grundlagenmodell des kausalen Erkenntniszugangs eingerichtet hatte und sich der Werkzeuge kausal-mechanistischer Erklärungsmuster bediente. Das heißt, dass man alles, was sich den Mitteln der Identifizierbarkeit, der Unschärfen des lebendigen Organismus entzieht, einfach beiseite, unberücksichtigt ließ. Und dies bedeutete: Die Sequenzierung des Humangenoms hatte zum Ergebnis die als Gene definierten, weil der Herstellung von Proteinen dienenden DNA-Abschnitte. Obwohl man das komplette Genom des Menschen analysierte, verharrte man bei der Interpretation der Ergebnisse und bei der Bestimmung dessen, was Gene sind, bei der Auffassung, dass DNA der Stoff ist, aus dem Gene bestehen, deren Aktivität der Herstellung von Proteinen dient. Die nicht informationstragenden Anteile der DNA wurden ausgespart, das heißt jene Bereiche unseres aus DNA bestehenden Erbguts, wo keine Proteingene auszumachen sind. Denn nicht überall, wo DNA ist, befinden sich auch Gene.

Dem Ergebnis des sequenzierten Humangenoms liegt der Grundsatz: wo Gene sind, muss DNA sein, und mit ihm die Überzeugung zugrunde, dass Proteine die gesamte genetische Information kontrollieren. Dass Proteine also die Hautrolle bei der Genregulation spielen. Und zwar ungeachtet dessen, ob es sich um das Genom eines Bakteriums handelt oder um das des Menschen. Eine Pionier der Molekularbiologie, der Franzose Jaques Monod, bringt dieses traditionelle abendländische Prinzip, nämlich das »Besondere« (das spezifisch Konkrete) aus dem »Allgemeinen« (dem Identitätsdenken) abzuleiten, auf den Punkt: »Was für Escherichia coli gilt, pflegt auch für Elefanten zu stimmen.« Und somit prinzipiell auch für den Menschen. Man ging davon aus, dass alles Leben auf den gleichen genetischen Mechanismen aufruht.

2. Unser Körper speichert das gesamte Genom; er besteht aus Milliarden Zellen, und in jeder Zelle ist eine komplette Kopie des gesamten Erbguts niedergelegt. Im Frühstadium der Evolution begannen die Zellen Sicherungskopien ihrer Ribonukleinsäure-Moleküle (RNA) herzustellen, die dann in der Zelle konserviert wurden. Diese Sicherungskopien sind die Erbsubstanz DNA – also jener Stoff, aus dem Gene bestehen. Das bedeutete, dass nicht mehr nur in der RNA-Welt Informationen gespeichert wurden. Sequenzen mit Informationsgehalt existierten jetzt auch und vor allem als DNA-Sicherungskopien. Diese Informationen tragenden Sequenzen – einst nur in RNA-Molekülen gespeichert – sind das, was man als Gene definiert hat. Somit ist eine rein positive Bestimmung dessen, was ein Gen ist, eigentlich unrichtig; sie schließt dessen Gewordensein aus. Denn: Die DNA hat einen sie vermittelnden Bezug zur RNA. Und deshalb ist eine korrekte Bestimmung des Begriffs Gen nur ex negativo möglich. Das heißt, das, was ein Gen ist, lässt sich nur im Durchgang durch die Prozesse der zelleigenen Selbstorganisationsmechanismen verstehen, und nur daraus lassen sich die Mechanismen, die durch Gene gesteuert und reguliert werden, lässt sich also das, was ein Gen ist, hinreichend beschreiben. Diese Sichtweise erfordert einen bestimmten Verstehenszugang, der sich nicht mehr kausal-mechanistischer Mittel bedienen kann. Eine solche Sichtweise auf kontextabhängige und somit komplexe Beziehungssysteme wirft Fragen auf, die nicht bloß die Definierbarkeit von Leben betreffen. Sie berühren vielmehr eine ganz zentrale Grundsatzfrage: Weiß die Biologie, womit sie es zu tun hat? Darauf wird im nächsten Abschnitt zurückzukommen sein. Zum besseren Verständnis aber zunächst eine kurze Darstellung der biologischen Grundannahmen von der Steuerung der Lebensvorgänge:

In der menschlichen Zelle liegen die Chromosomen, und in ihnen befindet sich das gesamte Erbgut eines Menschen, die DNA. Die DNA kann man mit einer spiralig um eine Säule herumgelegten Strickleiter vergleichen (Doppelhelix): DNA ist ein doppelsträngiges Kettenmolekül, bestehend aus den vier Elementen: Adenin, Thymin, Cytosin und Guanin (diese können als die Sprossen der Strickleiter, der Doppelhelix vorgestellt werden); sie bilden gleichsam die Basenpaare, von denen für den Aufbau der Sprossen nur in Frage kommen: Adenin (A) und Thymin (T) sowie Cytosin (C) und Guanin (G). Die Reihenfolge dieser vier Sprossen kann beliebig kombiniert werden, und die vier möglichen Kombinationen stellen die »Buchstaben des genetischen Codes« dar: A-T, T-A, C-G und G-C. Gene sind – in funktionaler Sicht – definierbare Streckenabschnitte auf dem DNA-Strang, in ihnen liegen die Baupläne für die Eiweißproduktion, und somit sind in ihnen – nach bisheriger Auffassung – Funktionsweise und Regulationsmechanismen jeder einzelnen Körperzelle enthalten. Um nun der Zelle diesen Bauplan zukommen zu lassen, muss das Gen erst einmal abgelesen werden. Und das bedeutet: Das Ablesen eines Gens – das wiederum ein spezielles Molekül übernimmt – besteht darin, dass die Zelle von einem DNA-Abschnitt eine Kopie aus RNA (Ribonukleinsäure) herstellt. Dies geschieht dadurch, dass dieses spezielle Molekül die Strickleiter (DNA) auftrennt und die eine Hälfte kopiert. Und diese Kopie ist die RNA (einzelsträngiges Kettenmolekül). Für jede Hälfte ist die Ergänzung der Sprossen bereits vorbestimmt: Es muss aus jeder Hälfte wieder ein dem ursprünglichen DNA-Abschnitt entsprechendes Molekül entstehen. Nachdem nun das Gen abgelesen ist, verlässt die RNA-Kopie den Zellkern, in dem die Kopie konserviert ist und trägt ihre Information in den Zellkörper (das Zytoplasma). Um die RNA bildet sich sozusagen eine Übersetzungsmaschine (das »Ribosom«), durch die der codierte Bauplan auf der RNA in ein Protein umgewandelt wird. Oder anders ausgedrückt: An den Ribosomen findet die Proteinsynthese statt. Dies ist ein für den Organismus insgesamt zentraler Vorgang, denn Proteine erfüllen unzählige wichtige Aufgaben nicht nur zur Steuerung, sondern vor allem für die Existenz der Zelle.

Auf dem Grunde des traditionellen abendländischen Beherrschungswissens und seines kausal-mechanistisch begründeten Deutungsmonopols wird das Genom definiert als die Gesamtheit aller aktiver, der Eiweißherstellung dienender Gene eines Organismus. Demzufolge ist zu vermuten, dass die Komplexität eines Organismus und seiner Regulationsmechanismen mit der Anzahl seiner Gene steigt, nach dem Motto: Wenn mehr Gene, dann mehr Komplexität. Die spannende Frage ist nun aber: Über wie viele solcher Gene verfügt der Mensch? Als das diesem klassischen Dogma folgende Human-Genom-Projekt startete, glaubte man, dass der Mensch etwa 100.000 aktive Gene besitzt. Das entschlüsselte Genom des einfachen Organismus des Fadenwurms Caenorhabditis elegans ergab eine Anzahl von circa 19.000 aktiver Gene bei einer Körpermasse von nur 1000 Zellen, und das kleine Unkraut, die Ackerschmalwand, bringt es sogar auf 27.000 Gene. Der klassischen Grundannahme folgend, dass zwischen der Anzahl aktiver Gene und der Komplexität eines Organismus eine starke Korrelation besteht, muss wissenschaftlich nachgewiesen werden können: Entsprechend der Komplexität des aus Milliarden Zellen bestehenden Organismus des Menschen besteht das Humangenom aus einer dementsprechend großen Anzahl aktiver Gene.

Indes zeigte sich aber mehr und mehr, dass die einst angenommene Größe von etwa 100.000 aktiver Gene immer weiter nach unten korrigiert werden musste, was zu einem ersten Bedeutungsverlust des klassischen Dogma (ein Gen = eine Information) führte. Inzwischen wird davon ausgegangen, dass der Mensch es auf nicht wesentlich mehr aktiver Gene bringt als der Fadenwurm mit seinen 19.000: nämlich auf circa 21.000 Gene. Diese geringe Anzahl macht weniger als zwei Prozent seiner DNA aus.

Zudem hat eine weitere überraschende Erkenntnis die kausal-mechanistischen Verfahrensweisen der Wissenschaft in Erklärungsnotstand gebracht. Und zwar als im Jahre 2005 die Ergebnisse des sequenzierten Genoms des Schimpansen vorgelegt wurden, die besagen: Der Mensch hat zu knapp 99 Prozent die gleiche Erbsubstanz. Und dennoch hat er sich sowohl geistig als auch körperlich ganz anders entwickelt. Nur seine körperliche Konstitution ermöglicht dem Menschen eine spezifische Anpassungsleistung an die unterschiedlichsten Klimazonen der Erde, und seine geistige Befähigung ermöglicht ihm, sich den vielfältigsten Lebensumständen anzupassen und diese Fähigkeiten und Erfahrungen auch zu vererben. Die Evolution des Menschen scheint demnach anders zu verlaufen als bei allen anderen Lebewesen. Was ist es also, wodurch der Mensch sich derart zu entwickeln vermochte?

Evident scheint zu sein, dass zwischen der Komplexität des Organismus und der Anzahl seiner Proteingene eine nur sehr schwache Korrelation besteht. Denn mit dieser geringen Anzahl aktiver Gene lässt sich nicht einmal annähernd die einzigartige komplexe Entwicklung des Menschen erklären. Auf Beantwortung drängt somit die Frage: Wenn der Anteil aktiver Gene bloß zwei Prozent der DNA ausmacht, was ist eigentlich mit dem Rest, also mit jenen Abschnitten, die nicht für Proteine codieren und deshalb von der Forschung unberücksichtigt blieben? Diese unproduktiven DNA-Abschnitte wurden als funktionslose Überbleibsel der Evolution angesehen, für die es keinen Erklärungsbedarf gab. Als »Schrott« der Evolution und deshalb als »Junk-DNA« bezeichnet wurden diese Abschnitte auf der DNA, da sie keine Bauanweisung für die Eiweißherstellung tragen, als einflusslose Größe hinsichtlich der Funktionsweise des Genoms und seiner Regulationsmechanismen betrachtet. Obwohl sie mindestens 95 Prozent des Genoms ausmachen, aber als inaktive Bestandteile des Erbguts angesehen wurden, hat man – dem darwinistischen Selektionsprinzip folgend – ihre Existenz damit erklärt, dass sie »keinen großen Selektionsnachteil bedeutet und daher toleriert werden kann. Offensichtlich gibt es bei Wirbeltieren große Genregionen, die keine wichtige Funktion haben und dennoch erhalten bleiben«(4) – so die Auffassung der Medizin-Nobelpreisträgerin Christiane Nüsslein-Volhard.

Im Jahre 2007 stand die Biologie an einem Wendepunkt – und mit ihr das gesamte traditionelle abendländische Wissenschaftsverständnis. Die Analyse des Humangenoms hatte gezeigt, dass sich seine Funktionsweise kausal-mechanistischem Denken von Grund auf entzieht. Das heißt, dass sich die Komplexität seiner Regulationsmechanismen eben nicht in additiver Aneinanderreihung isolierter und vollständig bestimmbarer und kontrollierbarer Einzelteile definitorisch erschließen und somit auf den Begriff bringen lässt.

Indem man nun den umgekehrten Weg beschritt, also nicht – wie bisher –, den Untersuchungsgegenstand isolierte und damit aus seinem Kontext herauslöste, sondern das Zusammenwirken der codierenden DNA-Abschnitte (Proteingene) mit den dazwischengeschalteten nicht-codierenden DNA-Abschnitten (Junk-DNA) zum Gegenstand molekular- und zellbiologischer Forschung machte, wurde die außenperspektivische Zugangsweise abgelöst durch den binnenperspektivischen Verstehenszugang. Was durch diesen Perspektivenwechsel herausgefunden wurde, kommt einer Revolution gleich: Der DNA-Schrott ist gar keiner – vielmehr verbirgt sich in ihm ein revolutionäres genetisches Steuerungssystem, mit dem die ungeheure Dynamik und Komplexität der nichtlinearen Prozesse des Organismus ins Blickfeld der Forschung rücken. Und das zieht zugleich die Feststellung nach sich, dass mit den Mitteln des alten Dogmas eine Beseitigung der Komplexität stattfindet.

Die neuen Zugangsweisen bedeuten einen grundlegenden Perspektivenwechsel, nämlich von der technokratischen Außenperspektive hin zur Binnenperspektive des Systems als solchem. Und darin ist schon ein Paradigmenwechsel mit beschlossen. Denn die neuen Zugangsweisen lassen sich nicht mehr umstandslos, das heißt ohne Substanzverlust, ins alte Kausaldenken integrieren, weil sie sich nicht mehr mit den traditionellen Mitteln begründen und ihre Erkenntnisse sich nicht mehr mit diesen verstehen und interpretieren lassen. So wurde denn auch offenkundig, dass mit dem binnenperspektivischen Zugang jene zentrale Frage, von der man geglaubt hatte, sie längst beantwortet zu haben, neu gestellt werden muss: Was ist eigentlich ein Gen?


II. Paradigmenwechsel: Die Entdeckung der Komplexität

Die Wissenschaftler des »Human-Genom-Projekts« und mit ihnen all jene, die den Prinzipien des genetischen Determinismus folgen, haben die DNA als das »Buch des Lebens« gedeutet und damit jene aktiven, proteincodierenden Abschnitte zum absoluten Grund für die gesamte Genregulation des Genoms erklärt. Diese Deutung geht mit einer zentralen Annahme einher, dass sich nämlich Abschnitte und Strukturen der DNA bestimmten biologischen Funktionen der Erbsubstanz eindeutig zuordnen lassen. Dies ermöglichte, die Struktur der DNA mit der Funktion (Genaktivität) gleichzusetzen und ihre Eigenschaften als die ein und desselben Objekts zu behandeln. Plausibilität bekommt eine solche Gleichsetzung nur unter der Voraussetzung, dass Gene unabhängig voneinander funktionieren, dass ihre Funktionsweise sich autonomen Steuerungs- und Regulationsmechanismen verdankt. Dieses hierarchische Modell der Genregulation darf inzwischen als gescheitert angesehen werden. Heute weiß man, dass die Identifizierbarkeit einzelner, also von anderen unabhängig funktionierender Gene nur sehr selten dem, was Gene wirklich sind, entspricht. Das liegt zunächst darin begründet, dass Gene nicht wie bei einer Perlenkette aufgereiht nebeneinander liegen, was ja die Behauptung von der Isolierbarkeit und der Bestimmbarkeit der Gene voraussetzen musste. Es verhält sich vielmehr so, dass sich Gene überlappen und dementsprechend – wechselwirkend aufeinander bezogen – ein sehr komplexes System darstellen. Auf diese Weise kann dann der Organismus Gene auf vielfältigste Weise nutzen. Daraus wird denn auch verstehbar, dass der menschliche Organismus viel komplizierter ist als der eines Wurms, nicht weil er mehr Gene besitzt, sondern aufgrund ihres komplexen Zusammenwirkens. Das Humangenom ist demnach kein bloßer Genverbund; sein System ist viel komplexer. Es gehorcht nicht dem kausal-mechanistischen Dualismus und den einfachen, linearen Gesetzmäßigkeiten des alten genetischen Modells, sondern den Gesetzen dynamischen, komplexen, nichtlinearen Prozessgeschehens samt seiner komplizierten Rückkoppelungsmechanismen.

Eine weitere neue, vor allem aber spektakuläre Entdeckung hat die Grundlagen der Molekularbiologie auf ein neues Fundament gestellt und die Forschung dadurch in einen fundamentalen Perspektivenwechsel hineingezwungen. Denn sie nötigt, die grundlegende Frage nach dem, was Gene eigentlich sind, neu zu stellen. Bisher ging man davon aus, dass die DNA von ihrem komplementären Botenstoff, der RNA, abgelesen und dann in Proteine umgewandelt wird. Man nahm also an, dass die RNA nichts anderes als diese Funktion ist; sie wurde nur als »Bote« angesehen. Genau diese Auffassung erweist sich nun als reduktionistisch, als das Versagen des Kausaldenkens bei komplexen biologischen Systemen.

1. Indem sich die Forscher (ENCODE-Projekt)(5) jenen Bereichen des Genoms zuwandten, die unter der Prämisse des reduktionistischen Modells als genetischer Müll bezeichnet wurden, entdeckte man, dass aus diesem sogenannten Genschrott viele aktive Signale und Informationen an die Zelle weitergeleitet werden, und dass der RNA hierbei eine ganz entscheidende Rolle zukommt. »Einige überraschende Ergebnisse des Projekts: Das menschliche Erbgut wird durchgehend abgelesen, aktiv sind nicht nur die Abschnitte, die Proteine produzieren. Auch die anderen Abschnitte sind zu großen Teilen biologisch aktiv, sie produzieren RNA, die auf verschiedenen Ebenen an der Zell- und Genregulation beteiligt sein können. Zudem sind die einzelnen Abschnitte im Erbgut nicht klar voneinander abgegrenzt, sondern werden jeweils überlappend abgelesen, das heißt, ein DNA-Abschnitt kann sich in seiner Funktion mit einem benachbarten DNA-Abschnitt überschneiden.«(6)

Mit der Erforschung dieses vermeintlich inaktiven Bereichs der DNA setzt gleichsam eine Zäsur im Verständnis der Genregulierung ein, und mit ihr entsteht ein neues Verständnis der Funktion der RNA. »Es sind gerade die Genstrukturen, die im menschlichen Erbgut über 90 Prozent ausmachen und bisher ... für inaktive Junk-DNA gehalten wurden, denen jetzt eine entscheidende Rolle zugeordnet wird. Diese Genabschnitte wurden lange Zeit als endlose Wiederholungen von Genstrukturen ohne eigentlichen Informationsgehalt angesehen. Sie sind tatsächlich nicht für die Herstellung von Proteinen zuständig, haben also nach dem ursprünglichen Genmodell gar kein Produkt. Sie stellen aber RNA-Sequenzen her, die das komplexe Geschehen der Zellregulation auf verschiedenen Ebenen steuern. Bei der Genmanipulation von Mäusen stellte man zum Beispiel fest, dass Veränderungen an der Junk-DNA sogar tödliche Folgen haben können. Diese Genstrukturen sind also alles andere als überflüssiger Müll, für den man sie jahrelang gehalten hatte.«(7)

Außer dem klassischen Übersetzungsmechanismus von DNA-Informationen in Proteine mittels des Botenstoffs RNA – was im Prinzip für Bakterien, die keinen Zellkern besitzen, gilt, nicht aber für höher entwickelte Lebewesen und vor allem nicht für den Menschen (nur ein bis zwei Prozent seiner DNA dient diesem Zweck) –, kontrolliert ein fein aufeinander abgestimmtes Regulationssystem das Zusammenspiel der Gene: Dieses hochdifferenzierte Steuerungssystem ist für die Entwicklung komplexer Lebensformen wesentlich und entsteht in jenen Genen, die nicht in Proteine umgesetzt werden, sondern die Träger einer Bauanleitung sind, welche direkt als kurze Ribonukleinsäuren (mikroRNAs = mRNAs) biologisch und regulatorisch wirksam sind. Und diese Gene liegen im Zwischenbereich zwischen den proteincodierenden auf der DNA als vermeintlicher »Junk«. Dass solche genetischen Informationen via RNA zudem vererbt werden, »RNA-vermittelte Vererbung setzt die Mendel’schen Regeln außer Kraft«(8), hat das Verständnis dessen, was Gene wirklich sind, vollends auf den Kopf gestellt und macht die Aufspaltung des Organismus in isolierbare, berechenbare und kontrollierbare Einzelteile endgültig obsolet.

Natürlich bedeutet der Perspektivenwechsel in der Molekular- und Zellbiologie nicht, dass der Fokus der Forschung nun allein auf jenem Zwischenbereich von DNA-Sequenzen liegt, der keine Proteininformation trägt, denn proteincodierende DNA-Sequenzen spielen eine zentrale Rolle bei der Genregulation. Aber diese Regulationsebene ist eben nicht die einzige und somit eigentliche, wie man bisher angenommen hatte. Parallel zu dieser existiert nämlich noch eine andere Ebene der Genregulation, die mit ihr auf komplexe Weise interagiert. Diese zweite Regulationsebene basiert auf RNAs, die direkt mit der DNA sowie anderen RNAs und mit Proteinen in Form eines Netzwerks von Signalen und Informationen miteinander wechselwirken. Inzwischen weiß man, dass Proteinen eher eine funktionelle Aufgabe zukommt; sie bestimmen, welche Bauteile für das Entwicklungsprogramm eines spezifischen Organismus verwendet werden müssen – aber wie die Architektur dieses Programms aussieht, wie man die Bauteile montiert, darüber informiert ein weitgespanntes regulatorisches, auf RNA basierendes Netzwerk. Das heißt: RNAs fungieren als Übermittler von Informationen oder dienen der Regulation von Aktivitäten, die das Genom selbst betreffen. Nach Auffassung des Molekularbiologen John S. Mattick steuern RNAs zum Beispiel das »Timing entwicklungsbiologischer Prozesse wie das Beibehalten des Stammzellstatus, die Zellvermehrung und die Apoptose (dieser programmierte Zellselbstmord spielt beim Umbau embryonaler Gewebe eine wesentliche Rolle).«(9)

Die Komplexität von Organismen (vor allem die des menschlichen Organismus, der mit nur 21.000 Proteingenen auskommen muss) zu generieren und unter Kontrolle zu halten und sie nötigenfalls zu steigern, ohne dass das System als Ganzes kollabiert, dies erfordert einen entsprechend großen Anteil an regulatorischen Informationen des Organismus, die in einem nichtlinearen Verhältnis zu seinen Funktionen stehen. Einer der Schlüsselmechanismen, mit dem aus einem kleinen Genbestand ein viel größeres Repertoire an Proteinvarianten (der menschliche Organismus produziert zum Beispiel mehr als 90.000 unterschiedliche Proteine) und damit ein hochdifferenziertes komplexes Steuerungssystem erzeugt wird, ist das sogenannte »alternative Spleißen«. Dank dieses raffinierten Mechanismus kann die geringe Anzahl von Genen ungeheuer vielfältig genutzt werden. Das heißt, Zellen können ein einzelnes Gen zur Produktion verschiedener Formen eines Proteins nutzen. Zudem wird das alternative Spleißen als einer der wesentlichen Gründe für die Entstehung der Diversität zwischen den unterschiedlichen Genomen der Arten, vor allem jener mit ähnlicher Genausstattung, angesehen. Überdies wird dieser Spleißmechanismus in der Medizin – als fehlerhaftes Spleißen – für eine der möglichen Ursachen bei der Entstehung von Erbkrankheiten und bestimmten Krebserkrankungen verstanden.

2. Der Grundmechanismus des »Spleißens« – wie er unter dem traditionellen Modell der Genregulation gefasst wurde – stellt sich wie folgt dar: Auf der DNA werden proteincodierende Sequenzen (»Exons« genannt) durch jenen Zwischenbereich von Sequenzen unterbrochen, die keine Proteininformation tragen (»Introns« genannt). Im Zellkern werden zunächst alle Sequenzen abgelesen, also auch diese inaktiven. Aus dieser primären RNA-Abschrift werden dann aber genau diese Regionen, die nicht in Proteine übersetzt werden, also alle Introns, herausgeschnitten, und die abgelesenen Exons werden zu einer durchgängigen Bauanweisung, der Boten-RNA, zusammengefügt (»gespleißt«); diese Boten-RNA besteht somit nur aus Kopien der Exons. Diese Abschrift verlässt dann den Zellkern, um im Zytoplasma der Proteinsynthese zu dienen, während die Intron-RNAs hier abgebaut werden.

Die Beschreibung dieses Grundprinzips entspricht nun aber der konventionellen Auffassung der Genregulation, nach welcher von einem linear ablaufenden (Produktions-) Prozess der Proteinherstellung ausgegangen wird, demzufolge alle Intron-RNAs von der Zelle zerlegt werden. Dass dieser Vorgang auch den realen regulatorischen Verhältnissen der Zelle entspricht, musste insofern angenommen werden, als man diesen Junk (Introns) keinem erkennbaren Zweck zuordnen konnte. Vom alternativen Spleißen spricht die Forschung seit mehr als zwei Jahrzehnten, betrachtet die eigentliche Komplexität dieses Mechanismus indes zumeist doch noch aus der Perspektive des kausal-mechanistischen, den Gesetzmäßigkeiten der Linearität (der Annahme eines einseitig gerichteten Informationsflusses) folgenden Grundprinzips: »Ein Gen – ein Protein«.

Mit einer relativ geringen Anzahl von Genen ausgestattet verdankt sich die Entstehung und die Entwicklung hochkomplexer Organismen, wie vor allem die des Menschen, einem dementsprechenden hochdifferenzierten genetischen Steuerungssystem, also einer regulatorischen Instanz, die über verschiedene Verknüpfungsoptionen der gespleißten DNA-Sequenzen verfügt. Was so viel bedeutet wie: Die Zelle hat offenkundig Alternativen hinsichtlich der Wahl ihrer Objekte, die gespleißt werden sollen. Man hat denn auch längst festgestellt, dass die primäre RNA-Abschrift auf mehrere Arten gespleißt werden kann. Das heißt: Die zelluläre Spleißmaschinerie kann entscheiden, welche Exons oder Introns sie verwirft oder beibehält, wodurch dann nämlich auch RNAs, die keine Proteininformation besitzen, zu spezifischen zellregulatorischen Aufgaben generiert werden. Dieses alternative Spleißen ermöglicht eine alternative Verarbeitung genetischer Informationen mittels eines einzigen Gens. Mittels eines einzigen Gens können verschiedene Boten-RNAs und somit auch verschiedene Sorten von Proteinen generiert werden. Da die gespleißten Fragmente in unterschiedlicher Reihenfolge zusammengesetzt werden können, entstehen hieraus natürlich auch verschiedene RNA-Sequenzen. Diese enthalten dann Informationen für verschiedene Proteine, die ihrerseits durch verschiedene Kombinationen der gespleißten Fragmente codiert worden sind. Auf diese Weise können Proteinvarianten mit einer großen Vielfalt generiert werden, die von ein und demselben Gen codiert worden sind. Dadurch kann eine enorme Vielfalt regulatorischer Informationen integrativ vernetzt werden.

Viele Molekularbiologen vertreten die Auffassung(10), dass das alternative Spleißen eine zentrale Rolle bei der Ausprägung der Diversität vor allem zwischen jenen Genomen spielt, die über eine relativ ähnliche Genausstattung verfügen. »Nicht nur die Evolution der Primaten an sich, sondern auch die Abspaltung der menschlichen Linie von den übrigen Primaten könnte zumindest zum Teil auf alternativem Spleißen beruhen. Denn die fast identischen Gene von Mensch und Schimpanse produzieren zwar in den meisten Geweben weitgehend die gleichen Proteine. In Teilen des menschlichen Gehirns sind jedoch einige Gene aktiver und andere liefern durch alternatives Spleißen erheblich abweichende Proteine.« Das alternative Spleißen ist offenkundig ein Mechanismus, durch den komplexe, nichtlineare Funktionssysteme bei der Genregulation generiert werden, die zur unterschiedlichen Evolution der Genome, deren genetische Ausstattungen sich sehr ähneln, beigetragen haben könnten. Insgesamt lässt sich sagen: Beim alternativen Spleißen handelt es sich um einen Mechanismus, der bei der Entstehung der hohen strukturellen und entwicklungsbiologisch relevanten Komplexität, vor allem des menschlichen Organismus, eine Schlüsselfunktion besitzt.

Komplexität zu generieren ist eines – ein anderes aber ist, sie zu erhalten und zu sichern. Dafür steht ein anderer zelleigener Funktionsmechanismus zur Verfügung. Ihm kommt eine Schlüsselrolle bei der Stabilisierung des Organismus zu, denn er hält dessen Komplexität unter Kontrolle, sorgt gleichsam für die Erhaltung der Stabilität der komplexen organischen Mechanismen. Er dient sozusagen der Stabilisierung der komplexen genomischen Architektur. Zugleich reguliert dieser auf RNA basierende Mechanismus die Genaktivität während der Embryonalentwicklung und steuert den Verlauf von Wachstum und Entwicklung mit. Es handelt sich hierbei nicht um ein hierarchisch gesteuertes Sicherungs- und Regulationssystem. Dies gilt es vor allem gegenüber der konventionellen Sichtweise zu betonen, denn ein hierarchisch organisiertes Sicherungssystem kann es wegen der komplexen Zusammenhänge und deren nichtlinearen Verläufen nicht geben. Dementsprechend besteht seine schlagkräftige Funktionsweise gerade in der Vielfalt seiner Anwendbarkeit bei der Erhaltung und Sicherung, bei der Kontrolle des komplexen Zusammenwirkens organischer Prozesse: Er besteht in nichts Geringerem als dem An- und Abschalten von Genen. Dieses An- und Abschalten von Genen ist ein Schlüsselmechanismus, der bei vielen biologischen Prozessen eine wichtige Rolle spielt, wie zum Beispiel bei der Embryonalentwicklung. »Jede Zelle eines Organismus besitzt die gleichen Gene. Was sie von Zellen in anderen Geweben unterscheidet, ist, welche davon sie exprimiert und welche nicht. Die meisten Pflanzen und Tiere entwickeln sich aus einer einzelnen embryonalen Zelle, die sich wiederholt teilt und dabei schließlich viele verschiedene Zelltypen hervorbringt. Damit dies geschieht, müssen zahlreiche Gene, die im Embryo aktiv sind, im reifen Organ abgeschaltet und dafür andere, anfangs stumme, aktiviert werden.« Dieser Mechanismus hilft, »bestimmten zelleigenen Genen einen Maulkorb zu verpassen, damit der Übergang in so unterschiedliche Zelltypen wie Nerven- und Muskelzellen oder in Organe wie Herz und Gehirn gelingt.(11) Er sorgt im Entwicklungsverlauf also dafür, dass Gene, deren Produkte der Entwicklung des Organismus dienen, zum richtigen Zeitpunkt abgeschaltet werden.

3. Seine Spezifität, als zelleigener Mechanismus nämlich Kontrollinstanz und Stabilisierungsfunktion in einem zu sein, macht ihn zu einem hochspezialisierten und zugleich allgegenwärtigen Sicherheitsmechanismus des Genoms. Sein Geheimnis liegt in der RNA. Genauer gesagt: Seine Funktionsweise verdankt sich einer kleinen RNA-Spezies, die dem vermeintlichen Gen-Schrott entstammt. Diese micro-RNAs (mRNAs) sind offenkundig imstande, in der Zelle selbstständig genetische Botschaften abzuschalten.

Diesen verblüffenden Abschalt-Effekt beobachteten Pflanzenforscher bereits vor zwei Jahrzehnten. Sie hatten versucht, die Farbe einer Petunie genetisch zu manipulieren, um eine lila Blüte zu erzeugen, indem sie Exemplare des entsprechenden Gens in die Pflanze einfügten. Die Blüte hatte sich aber entgegen allen Erwartungen nicht etwa intensiver gefärbt; sie war vielmehr überwiegend weiß gefärbt. Offenkundig hatte die Petunie die neuen Geninformationen als schädlich erkannt und sie zerstört. Das bedeutete zunächst einmal: Es gibt nicht nur die Boten-RNA, also jene Moleküle, die eine Abschrift der genetischen Information von der DNA an die Eiweißfabriken in der Zelle überbringen. Es gibt neben dieser Boten-RNA kleine RNA-Moleküle, die eben nicht bloß als Gen-Schrott, als überflüssiger Rest der Boten-RNA angesehen werden dürfen, sondern die offenkundig in der Lage sind, die Aktivität der Boten-RNA auszuschalten, um so zu verhindern, dass die Botschaft von der DNA in die Zelle gelangt.

Diese bedeutende Entdeckung, dass diese micro-RNAs in der Zelle selbstständig genetische Botschaften abschalten können, wurde im Jahre 2006 mit dem Medizin-Nobelpreis belohnt. Bis dahin war der Wissenschaft diese hochkomplexe Informationsebene, die in den scheinbar nutzlosen Teilen der Erbsubstanz entsteht, verborgen geblieben. Diese Ebene der Genregulation funktioniert wie ein Sicherheitssystem, weil es die Zelle vor unerwünschten Informationen schützt. Und dass die Zelle ein solches Sicherheitssystem (diese RNA-Spezies) selbst herstellt, um es zur Abschaltung von Genen – und zwar nicht nur von Fremdgenen, sondern auch von schädlichen körpereigenen Genbotschaften – zu benutzen, dies war für die Wissenschaft eine Überraschung. Es sind offenkundig diese kleinen RNA-Moleküle, die die Auswirkungen der Gene auf die Zelle, die Genexpression kontrollieren. Sie spielen somit eine ganz entscheidende Rolle im menschlichen Organismus, etwa bei der Unterbindung von Genexpressionen, die an der Entstehung von Krebs, von Virus-Erkrankungen und anderen schweren Krankheiten beteiligt sind. Diese kleinen RNAs kommen fast ausschließlich im Zytoplasma vor, wo sie ihre Arbeit verrichten. Sie haben also den Zellkern bereits verlassen, und deshalb hat man sie als funktionslosen, überflüssigen Rest der Boten-RNA, als Gen-Schrott angesehen. Inzwischen weiß man, dass auch außerhalb des Zellkerns, im Zytoplasma, dank dieser kleinen RNAs sogar noch signifikante Veränderungen am Erbgut vorgenommen werden können, die sogar vererbt werden können. Sie stellen ein vital bedeutsames Zensursystem dar, das dem Schutz des Körpers vor krank machenden Geninformationen dient.

Wie detaillierte Untersuchungsbefunde zeigen, sind es doppelsträngige RNA-Moleküle, durch die der Prozess des Abschaltens von Genen ausgelöst wird. Dieser zelleigene Zensurmechanismus läuft wie folgt ab: Die doppelsträngigen RNAs werden von einem zellulären Enzym erkannt und in kleine Teile, die sogenannten »small interfering RNAs« (»siRNAs«) zerschnitten. Diese kleinen interferierenden RNA-Schnipsel lagern sich dann an jene Boten-RNA an, die zu ihrer Sequenz komplementär ist, und bindet sie. Dadurch wird die genetische Information, die die Zelle benötigt, um Proteine herzustellen, unterbunden und damit die (die Zelle schädigende) Proteinproduktion verhindert. Dieser Mechanismus der gezielten Zerstörung der Boten-RNA wird als »RNA-Interferenz« bezeichnet.

Einer der Pioniere auf diesem Forschungsfeld ist der an der New Yorker Rockefeller University tätige Molekularbiologe Thomas Tuschl. Tuschl machte sich dieses besonders effiziente System der zelleigenen Genregulation zunutze. Als erster Forscher entdeckte er, wie sich Gene im menschlichen Genom künstlich abschalten lassen. Im Jahr 2001 publizierte er die Erfindung eines bahnbrechenden Verfahrens, das einer Revolution in der Genforschung gleichkam: die »RNA-Interferenz-Methode.« Mit dieser Methode lassen sich einerseits Gene gezielt abschalten, und andererseits lassen sich durch dieses Abschalten Rückschlüsse auf die Funktionsweise von Genen ziehen, das heißt die Funktion einzelner Gene kann besser erforscht werden. Mittels seiner RNA-Interferenz-Methode wies Tuschl nach, dass der zelleigene Zensurmechanismus des Abschaltens von Genen sich auch künstlich auslösen lässt: Man schleust in die Zelle synthetische kurze RNA-Doppelstränge ein, die aufgrund ihrer komplementären Gensequenz von der Zelle erkannt und zerschnitten werden. Bei diesem Vorgang entstehen dann diese kleinen interferierenden RNAs, die gezielt die Abschrift der Botenmoleküle des Gens zerstören und auf diese Weise verhindern, dass die unerwünschte Information an die Zelle weitergeleitet werden kann. Die Proteinsynthese ist blockiert, weil die Aktivität des Gens blockiert worden ist. Derzeit ist Tuschl dabei herauszufinden, welche Störungen bei den mRNAs oder welche Defekte im RNAi-System für Zellveränderungen, wie zum Beispiel bei Krebs, verantwortlich sein könnten. Erste Befunde zeigen bereits, dass sich in den Zellen bestimmter Tumore die Konzentration von mRNAs signifikant ändert, was bedeuten könnte, dass diese mRNAs an der Krebsentstehung irgendwie beteiligt sind.

Das von Tuschl entwickelte Verfahren der RNA-Interferenz zum gezielten Abschalten von Genen vollzieht gleichsam einen Prozess nach, der auch natürlicherweise stattfindet. Er kann sozusagen als eine Mimesis an diesen vital bedeutsamen zelleigenen Mechanismus, der der Stabilisierung des Organismus dient, verstanden werden. Tuschls sensationelle Entdeckung des künstlichen Abschaltens von Genen und seine bahnbrechende Erfindung der synthetischen RNA-Doppelstränge haben die Genforschung revolutioniert und damit ein Potenzial für Therapiemöglichkeiten schwerster Krankheiten freigelegt, das längst Biotechunternehmen und Pharmaindustrie zu Milliardeninvestitionen motiviert hat. Die Möglichkeit des künstlichen Abschaltens von Genen eröffnet ein riesiges Repertoire ganz neuer Behandlungsmethoden. So konnten Forscher zeigen, dass mit Tuschls Methode eine Hepatitis-Infektion bei Mäusen milder verlaufen ist. Dadurch überlebten viele Tiere, die sonst an der Leberentzündung gestorben wären. Aber auch an Primaten funktioniert das Abschalten von Genen bereits. Arbeitsgruppen in den USA »konnten durch RNA-Interferenz die Ausbreitung von Viren – unter anderem die Erreger von Aids, Kinderlähmung und Hepatitis C – in Kulturen menschlicher Zellen zumindest zeitweise unterbinden. Das gelang, indem die Forscher mit künstlichen siRNAs die Produktion viraler Proteine hemmten, die für die Vermehrung der Krankheitserreger unentbehrlich sind.«(12) Aber auch klinische Versuche am Menschen haben bereits begonnen.

Ist das Verfahren der RNA-Interferenz, wie es vom Prinzip her den Anschein hat, wirklich eine Mimesis an den natürlich ablaufenden zelleigenen Prozess zum Schutz vor krankheitserregenden Genen? Kann und darf das Gelingen künstlich evozierten Abschaltens von Genen als ein Analogon (wie zum Beispiel bei einer Virus-Infektion) zu einem natürlich vorkommenden RNAi auslösenden Prozess verstanden werden? Wenngleich sich eine solche Frage schon aus der Sache selbst ergeben mag, so ist doch eine Antwort außerordentlich schwierig. Eines lässt sich aber doch zumindest festhalten: Im System der RNA-Interferenz manifestiert sich die Schnittstelle zwischen Linearität und Nichtlinearität. Das heißt, der linear ablaufende Prozess DNA-RNA-Proteinsynthese steht in einem Verhältnis mit molekularen Rückkoppelungsmechanismen, durch die DNA, RNA und Proteine wechselwirkend miteinander verbunden werden, wodurch wiederum die Genexpression beeinflusst wird. Dieses Verhältnis ist demnach als ein nichtlineares zu bezeichnen. Und als ein solches veranlasst es gleichsam das Genom, ein derart bedeutsames komplexes Überwachungssystem wie das der RNA-Interferenz ständig verfügbar zu halten, um sich an verändernde innen- und außenweltliche Bedingungen anpassen zu können: Unser Körper kann sich vor Viren und Infektionen schützen, weil sich seine Gene allmählich verändern. Und diese Veränderungen im Genom – ausgelöst durch Umwelteinflüsse – können auch vererbt werden.

Die in die Zelle eingeschleusten synthetischen RNA-Doppelstränge evozieren ein solch nichtlineares Rückkoppelungsgeschehen, dessen kontextabhängige Wirkungen nur schwer vorhersagbar sind, weil es sehr unwahrscheinlich zu sein scheint, dass eine variierende Komponente dieses Rückkoppelungsmechanismus rein additive Folgen hat. Es ist vielmehr grundsätzlich anzunehmen, dass eine variierende Komponente mit einer anderen variierenden interagiert und sich dadurch auch schon verändert. Insofern stellt sich bei diesem Verfahren die Frage, ob die künstlich herbeigeführte Abschaltung eines Gens nicht zu unbeabsichtigten Wechselwirkungen auf anderen Ebenen der Zellregulation führt, deren Wirkung die Aktivität anderer Gene beeinflusst.


III. »Eine völlig neue Art, das Leben zu betrachten«

Das Genom – und vor allem das des Menschen – ist ein dynamisches, komplexes, selbstregulatorisches System, das auf nichtlinearen und deshalb auf nicht voraussagbaren Prozessabläufen beruht. Infolgedessen lässt sich auch bei vielen komplexen genetischen Krankheiten nicht bestimmen, welche Gene sie auslösen und welche Defekte dazu führen, dass sie ausgelöst werden. Mögen sich einzelne Funktionen durchaus kausal beschreiben lassen, das hochkomplexe Zusammenwirken aber, sowohl auf der Ebene der Gene als auch auf der Ebene der Zelle, folgt den Regeln der Nichtlinearität und entzieht sich von daher der Bestimmbarkeit. Deshalb lässt sich auch das komplette Netzwerk zum Beispiel jener Gene nicht enthüllen, geschweige denn in seinem Verlauf vorhersagen, die Zellen entarten lassen. Man müsste die Ausgangs- bzw. die Anfangsbedingungen vollständig kennen, wollte man ein komplexes nichtlineares System vollständig verstehen, um das Zusammenwirken des Ganzen bestimmen zu können. Oder anders gesagt: Die Gesamtheit der Wechselwirkungen zwischen Proteinen beispielsweise lässt sich nie vollständig erfassen – aber nicht etwa deshalb, weil das Speicherpotenzial großer Rechner unzureichend ist (Computerprogramme beruhen auf dem Ja-/Nein-Prinzip, auf strengen Kausalitäten), sondern weil der Augenblick der Beobachtung oder der Messung (fast) nie mit dem Anfangszustand des Untersuchungsgegenstandes zusammenfällt, oder anders gesagt, weil der Untersuchungsgegenstand zum Zeitpunkt der Beobachtung sich nie in seinem Grundzustand befindet. In der klassischen Mechanik mit ihrem strengen Kausalitätsprinzip hat dies zur Entwicklung von Störungstheorien als Kompensation sogenannter Messungenauigkeiten geführt, wodurch die jeweiligen Resultate einer Renormierung unterzogen wurden. Dabei ging man von der Annahme aus, dass kleine Messungenauigkeiten auch nur zu kleinen Fehlern im Resultat führen. Eine grundlegende Korrektur erfuhr dieses quantitative Vorgehen in den 1960er-Jahren durch die Chaostheorien der Physik und der Mathematik,(13) deren bekanntes Diktum lautet: Kleinste Änderungen in den Anfangsbedingungen können zu sehr großen Veränderungen der Entwicklung führen, die fundamentale Konsequenzen für den Gesamtverlauf des Systems haben können.

Man müsste also die Entstehungsbedingungen lebender Systeme vollständig kennen, wollte man ihren gegenwärtigen Zustand vollständig erfassen oder wollte man die Folgen der Eingriffe in komplexe, nichtlineare Dynamiken eindeutig bestimmen. Komplexe Systeme, vor allem lebende, begegnen sich aus ihrem Gewordensein heraus, dessen kontextabhängige Ausgangsbedingungen man nie vollständig rekonstruierend einholen kann. Eine Analyse des Jetzt-Zustandes muss demzufolge immer lückenhaft bleiben, denn: Sie kommt immer schon zu spät. Indes ist es gerade diese Lückenhaftigkeit, durch die sich ja die komplexe Beziehungsdynamik, die Verzweigungsprozesse ihrer nichtlinearen Bewegungsabläufe auszeichnen und die die Freiheitsgrade lebender Systeme ausmacht. Das kann zum Beispiel bedeuten, dass ein Regulationsmechanismus kausal determiniert und zugleich, aufgrund kontextabhängiger Einflüsse, unvorhersagbar ist.

Es sind denn auch und vor allem Umwelteinflüsse, die die Zelle zu einem Umbau der genomischen Architektur veranlassen, der, als Reaktion auf solche Einflüsse, wiederum mit der Umwelt (unvorhersagbar) interagiert. »Bakterien zum Beispiel verändern die Architektur ihres Genoms, wenn sie einer Vernichtungsgefahr, etwa durch Antibiotika, entkommen wollen (was ihnen erstaunlich gut gelingt). Bevor Bakterien ihre Gene umbauen, haben sie die Möglichkeit, durch Aktivierung zahlreicher bereits vorhandener (Abwehr-)Gene auf Umweltveränderungen zu reagieren.« »Werden die Umweltbedingungen für Bakterien ungemütlich genug, steigert sich die Wahrscheinlichkeit, dass genetische Veränderungen eintreten, um das bis zu Zehntausendfache. Dies ist der Grund …, warum sozusagen unter blanker Missachtung darwinistischer Vorschriften überall da, wo Kranke mit Antibiotika behandelt werden, immer aggressivere (weil resistentere) Keime entstehen.«(14) Die Genregulation geschieht also immer auch unter Einfluss von Umweltbedingungen. Das heißt, die Art und Weise, wie Gene reguliert werden, steht in direktem Zusammenhang mit Außenwelteinflüssen. Dieser Befund steht völlig quer zu der gen-deterministischen Vorstellung über die Evolution. Die Arbeiten der amerikanischen Genetikerin und Nobelpreisträgerin Barbara McClintock sind deshalb auch lange Zeit totgeschwiegen worden; eines ihrer Statements lautete: »Ein Genom kann sich selbst verändern, wenn es mit ungewohnten äußeren Bedingungen konfrontiert ist.«(15)

Ob auf der Stufe einer einzigen Zelle oder auf der Ebene des Genoms – die ungeheuere Komplexität des Lebens entzieht sich der vollständigen Berechenbarkeit und der Beherrschbarkeit und damit auch und vor allem der Verfügbarkeit. Im Genom verbinden sich lineare Funktionsabläufe mit nichtlinearen Regulationsmechanismen, mit einer »nützlichen Unordnung«(16) zu einem nichtlinearen Selbstorganisationssystem, dessen Eigenschaft in der Komplexität besteht. Das bedeutet nämlich: Das Genom hat nicht diese Eigenschaft (das Haben zeigt ja ein Besitzverhältnis an, das auch eingebüßt werden kann), sondern es ist sie, und das bezeichnet einen qualitativen Unterschied. Denn Komplexität als Eigenschaft zu verstehen erfordert die Einsicht, dass sie nicht partikularisiert werden kann, so als könne man wissenschaftlich beschriebene Teile in additiver Aneinanderreihung wieder zusammenfügen und hätte damit das System als Ganzes erfasst. Während die dynamische Empfindlichkeit hochkomplexer Systeme wie das des Genoms es unmöglich macht, sie von Kontexteinflüssen zu isolieren, setzt das klassische Ideal eine in Zukunft und Vergangenheit berechenbare Zustandsentwicklung der Systeme voraus, in die sich auch die Berechenbarkeit des in Einzelteile zerlegten Menschen einfügt. Dieser theoretische Reduktionismus verdankt seine Überzeugungskraft der voraussetzungsträchtigen Unterstellung, dass die rückkoppelnden Wechselwirkungen zwischen diesen Teilen unberücksichtigt bleiben können. Dies ermöglicht nämlich zuallererst klare Antworten auf scheinbar klare Problemstellungen.

Zudem ermöglicht die additive Verfahrensweise, Leben in klar abgegrenzte Bereiche zu zerteilen und diese zu definieren, entsprechend ihrem zuzuführenden Verwendungszweck; das hat unter anderem zur Patentierbarkeit menschlichen Lebens geführt: »Laut EU-Richtlinie 98/44 ist alles am Menschen patentierbar, von seinen Genen über die Zellen bis hin zu ganzen Organteilen, sobald diese isoliert sind und ein irgendwie gearteter neuer technischer Schritt beteiligt ist.« Diese EU-Richtlinie »Rechtlicher Schutz biotechnologischer Erfindungen« erkennt einen »besonderen Status für Teile des menschlichen Körpers grundsätzlich nicht an. Sie spricht nivellierend und generell von patentierbarer biologischer Materie. … Im November 2003 wurde das Patent EP 1121015 erteilt, das tiefgekühlte menschliche Embryonen, Sperma und Eizellen erfasst. Experimente wurden unter anderem mit Embryonen von Hamstern, Rindern, Mäusen und Menschen durchgeführt. Menschliche Embryonen werden in den Patentansprüchen ausdrücklich denen von Rindern und Nagetieren gleichgesetzt.«(17)

Die Entdeckung der Komplexität des Lebens ist eines – ein ganz anderes aber ist es, der Einsicht in deren empirische Befunde konkret Geltung zu verschaffen, indem man sie in die Praxis umsetzt. Aber eben nicht mehr so, dass Forschungsergebnisse bloß empirische Bestätigung dessen sind, was die Wissenschaft als allgemeingültiges Prinzip auf den »Begriff« gebracht wissen will. »Denn Leben transportiert eine grundsätzliche Opposition zu jedem Festgelegten und Begrifflichen; in seinem impliziten Bezug auf das Unbestimmte, nicht Verfügbare bildet es einen Grenzbegriff des Denkens.«(18) Und insofern ist der genetische Determinismus allein durch ein neues forschungsleitendes Paradigma zu überwinden, das an dem jeweiligen konkreten Forschungsgegenstand, sozusagen an den empirischen Verhältnissen vor Ort orientiert und auf sie hin ausgelegt sein muss. Eine präzise Definition des Grundbegriffs der Genetik, nämlich dessen, das ein Gen ist, erwiese sich dadurch als ein Abstraktionsprodukt, das durch das Absehen von dessen konkreten Verhältnissen gewonnen wird. Denn das, was ein Gen ist, kann nur beschrieben werden durch das, was es tut, durch seine Aktivitäten also, und wie und wodurch es aktiv ist beziehungsweise aktiviert wird, das wird durch das Zusammenspiel vieler Mitspieler bestimmt. Gene sind gekennzeichnet durch ein dialektisches Verhältnis »nützlicher Unordnung«, und damit verschwindet die Trennschärfe zwischen dem, was sie bewirken, und dem, was ihre Wirkung veranlasst. Diese Sichtweise führt überdies dazu, dass sich auch die Trennschärfe zwischen Gesundheit und Krankheit nicht mehr aufrechterhalten lässt. Aus der Perspektive ihres wechselwirkenden Aufeinanderbezogenseins in Bezug auf außenweltliche Einflüsse bekommt dann der Bestimmungsgrund von Krankheit eine bestimmte Färbung, kann Krankheit nun auch als gesunde Reaktion auf krank machende Einflüsse begriffen und als solche behandelt werden.

 

Mit der Entdeckung der Komplexität wird jener privilegierte Ort sichtbar, in dem Leben als Lebendigkeit sich sinnvoll verdichtet und an dem jene Grenze erfahrbar wird, an der das, was dem Leben spezifisch eignet, sich der Ordnung des Wissens und der Macht immer schon entzieht. Überdies erweist sich hier jegliche gentechnische Verbesserungsbedürftigkeit des Lebens als Ideologie. Das Entscheidende an der Entdeckung der Komplexität ist, dass sie die Bedingung der Möglichkeit schafft, »eine völlig neue Art, das Leben zu betrachten«,(19) wie Richard Strohman, einer der Pioniere der Epigenetik, zu Recht anmerkt. Sie stellt gleichsam eine fundamentale Erfahrung dar, indem sie das, was der Mensch erkennen kann, in eine marginale Position rückt und damit aber zugleich einen Zugang zu der Empfindung öffnet, dem, was Natur ist, näher gekommen zu sein. Ein solcher Perspektivenwechsel stellte zudem das Dogma unserer gesamten abendländischen Aufklärungsvernunft radikal in Frage, das in der Kant’schen Version lautet: Vernunft ist die Fähigkeit des Menschen, das Besondere aus dem Allgemeinen abzuleiten – also alle Empirie nur als Illustrationen von Prinzipien zu behandeln. Und deshalb hängt an einem solchen Perspektivenwechsel notwendig auch ein neues forschungsleitendes Paradigma, mit dem die Biowissenschaften sich dann mit Fug und Recht als Leitwissenschaft des 21. Jahrhunderts verstehen könnten.


Danksagung

Es ist ein ungeheuer spannender, aber auch schwieriger Versuch, sich als Philosoph dem komplexen und voraussetzungsreichen Gegenstand zu nähern, mit dem es die Molekular- und Zellbiologie derzeit zu tun hat. Zudem setzt man sich dem berechtigten Vorwurf der Inkompetenz aus, und so hoffe ich auf Nachsicht für so manche Defizite in der Darstellung und mögliche Schieflagen in der Interpretation. Ich halte es aber gerade in Anbetracht des heute in alle Lebensbereiche vordringenden, sich verdinglichenden berühmt-berüchtigten Dualismus cartesianischer Prägung für außerordentlich wichtig und fruchtbar, Philosophie und Empirie aus einer problemorientierten Perspektive heraus zu reflektieren, um so das eine auf das andere hin nutzbar zu machen.

Einen solchen Versuch zu unternehmen war mir nur möglich, weil mir kompetente und offene Gesprächspartner hilfreich zur Verfügung standen. Als erstem und wichtigstem Gesprächspartner möchte ich Dr. Christoph Then für viele persönliche Gespräche, spezielle Literaturhinweise und für Anmerkungen zu meinem Text danken, vor allem aber für seine innere Haltung gegenüber der Sache selbst.

Einen wichtigen Stellenwert besaßen die langen Telefongespräche mit Prof. Dr. Thomas Tuschl (Howard Hughes Medical Institute, Laboratory of RNA Molecular Biology, Rockefeller University, New York) sowie ein persönliches und sehr informatives Gespräch mit dem Evolutionsbiologen Dr. Wolfgang Enard vom Max-Planck-Institut für Evolutionäre Anthropologie in Leipzig. Mein Dank an Thomas Tuschl gilt vor allem seiner unermüdlichen Bereitschaft, Grundsatzfragen in kritischer Selbstreflexion zu besprechen – eine Erfahrung, die unter Kollegen meines eigenen Faches zunehmend verloren geht.


1

Dem schottischen Wissenschaftler Ian Wilmut gelang als Erstem ein Verfahren zur Produktion von Zellersatz aus technisch erzeugten Stammzellen, die das Potenzial der befruchteten Eizelle besitzen. Dieses Verfahren verdankt sich jener umstrittenen Methode der ungeschlechtlichen Herstellung von Embryonen, mit der Wilmut im Jahre 1996 das berühmte Klonschaf »Dolly« hergestellt hatte. Mit der Geburt von Dolly konnte Wilmut den Beweis erbringen, dass sich aus dem Transfer des Zellkerns einer beliebigen Körperzelle (hier aus dem Kern einer Euterzelle) in eine zuvor entkernte weibliche Eizelle ein Embryo herstellen ließ, der sich im Mutterleib zu einem lebensfähigen Tier entwickelte.

2

Kathan 2002, S. 127 f.

3

Rosenthal: »Wer soll das alles lesen?«, in: FAZ, 10.2.01.

4

Nüsslein-Volhard 2004, S. 168.

5

35 am ENCODE-Projekt beteiligte Forschergruppen haben in vier Jahren ca. 1 % des menschlichen Erbgutes untersucht, wobei auch jene vermeintlich inaktiven Sequenzen der DNA einbezogen wurden; publiziert wurde die Analyse im Jahr 2007: The Encode Project Consortium: »Identification and analysis of functional elements in 1 % of the human genome by the ENCODE pilot project«, in: Nature, 14.6.07.

6

Then 2008, S. 143.

7

Then 2008, S. 142.

8

Then 2008, S. 143 und Anmerkung 97.

9

Spektrum der Wissenschaft (SdW) 2006, S. 29.

10

Diese Auffassung vertritt z. B. der Humangenetiker Gil Ast (Medizinische Hochschule der Universität von Tel Aviv); siehe hierzu auch SdW 2006, S. 40.

11

SdW 2006, S. 48.

12

SdW 2006, S. 47.

13

Hanzig 1989.

14

Bauer 2008, S. 87 und Anmerkung 47 und S. 94 f.

15

McClintock 1983: »The significance of responses of the genome to challenge.« Nobel Lecture: www.nobel-prize.org

16

Greenpeace 2005, S. 15.

17

EWE 2005, S. 213 f.

18

Toepfer, in: Krohs/Toepfer 2005, S. 171.

19

Greenpeace 2005, S. 20.


Literatur

Bauer, J. (2008): Das kooperative Gen. Abschied vom Darwinismus, Hamburg

EWE (2005): »Die Entschlüsselung des Humangenoms – ambivalente Auswirkungen auf Gesellschaft und Wissenschaft«, Themenheft der Zeitschrift Erwägen – Wissen – Ethik – Streitforum für Erwägungskultur (Jg. 16), Heft 2

Frühwald, W. et al. (2004): Das Design des Menschen. Vom Wandel des Menschenbildes unter dem Einfluss der modernen Naturwissenschaft, Köln

Gehring, P. (2006): Was ist Biomacht? Vom zweifelhaften Mehrwert des Lebens, Frankfurt am Main

Greenpeace (2005): Das unterschätzte Risiko. Interviews mit neuen WissenschaftlerInnen zum Thema gentechnisch veränderter Pflanzen (Greenpeace-Reader), Hamburg

Habermas, J. (2001): Die Zukunft der menschlichen Natur. Auf dem Wege zu einer liberalen Eugenik?, Frankfurt am Main

Hanzig, E. (1989): »Die Katastrophe in den Naturwissenschaften – philosophische Grenzfragen im Naturbild der neuen mathematisch-physikalischen Chaostheorien (Theorien nichtlinearer Gleichungssysteme)«, in: Hegel-Jahrbuch 1989, S. 355–364

Hanzig, E. (1988): »Offenes Weltbild und Erkenntnisgrenze. Philosophische Überlegungen zu mathematisch-physikalischen Chaostheorien«, in: Kommune – Forum für Politik, Ökonomie, Kultur, Heft 9, S. 59–65

Hanzig-Bätzing, E. (2004): »Dreißig geklonte menschliche Embryonen. Der Stammzellforschung letzter Erfolg«, in: Kommune – Forum für Politik, Ökonomie, Kultur, Heft 2, S. 94–96

Hanzig-Bätzing, E./Bätzing, W. (2005): Entgrenzte Welten. Die Verdrängung des Menschen durch Globalisierung von Fortschritt und Freiheit, Zürich

Kathan, B. (2002): Das Elend der ärztlichen Kunst. Eine andere Geschichte der Medizin, Berlin

Krohs, U./Toepfer, G. (2005): Philosophie der Biologie. Eine Einführung, Frankfurt am Main

Nüsslein-Volhard, C. (2004): Das Werden des Lebens. Wie Gene die Entwicklung steuern, München

Peitgen, H.-O. et al. (2004): Chaos and Fractals – New Frontiers of Science, New York/Berlin/Heidelberg

Rajan, K. S. (2009): Biokapitalismus. Werte im postgenomischen Zeitalter, Frankfurt am Main (2006)

SdW (2006): Das neue Genom, Spektrum der Wissenschaft, Dossier 1/2006, Heidelberg

Then, C. (2008): Dolly ist tot. Biotechnologie am Wendepunkt, Zürich

In: Kommune, Forum für Politik, Ökonomie, Kultur 5/2009