Evelyn Hanzig-Bätzing
Die neuen Grenzen des Menschlichen
Zum Paradigmenwechsel in der Biologie
Wir stehen mitten in einer Revolution. Sie schien 2003
begonnen zu haben, als durch die globalen Medien die Botschaft ging, »das Buch
des Lebens« sei entziffert. Tatsächlich war das der Schlusspunkt des
cartesianischen Wissenschaftsverständnisses mit seinen kausal-mechanistischen
Begründungen. Schnell sollte sich erweisen, dass sich »Leben« mit seiner ganzen
Komplexität der vollständigen Berechenbarkeit und vor allem der Verfügbarkeit
entzieht. Denn die dynamische Empfindlichkeit hochkomplexer Systeme wie das des
Genoms verunmöglicht ihre Isolation aus den Kontexteinflüssen, etwa die
Berechenbarkeit von Einzelteilen. Ein Gen lässt sich nicht extrapolieren und definieren.
Es »ist« nur Gen in der komplizierten Wechselwirkung mit dem gesamten Netzwerk
der genomischen Architektur. Denn Leben transportiert eine grundsätzliche
Opposition zu jedem Festgelegten und Begrifflichen; in seinem impliziten Bezug
auf das Unbestimmte, nicht Verfügbare bildet es einen Grenzbegriff des Denkens.
Dieser Perspektivenwechsel stellt das Dogma unserer gesamten abendländischen
Aufklärungsvernunft radikal infrage.
»Wir müssen uns eingestehen, dass
wir in Systeme eingebunden sind, deren Entwicklung wir weder prognostizieren
noch wirksam steuern können.«
Wolf Singer, in: Wolfgang Frühwald
et al.: Das Design des Menschen, 2004
»Wir können uns auf ein Zeltalter
einstellen, in dem wir die Lebensmechanismen praktisch vollständig verstehen werden.
Aus diesem totalen Verständnis können wir – wenn wir es
denn wollen – totale
Kontrolle machen.«
Ian Wilmut(1): Dolly. Der Aufbruch ins biotechnologische
Zeitalter, 2002
Wissenschaftliche
Durchbrüche sind heutzutage untrennbar verbunden mit wirtschaftlichen – das
gilt vor allem für die Biowissenschaften, die sich längst zu einem bedeutsamen
Wirtschaftszweig entwickelt haben. Es geht derzeit beispielsweise im weltweiten
Wettlauf der Stammzellforschung um die Anwendung reprogrammierter, das heißt
verjüngter Zellen (»induzierte pluripotente Stammzellen«) beim Menschen, um defektes
oder abgestorbenes Gewebe (z. B. nach einem Herzinfarkt) durch die Implantierung
dieser Zellen zu ersetzen. Es geht um einen spektakulären Durchbruch in der Gentherapie
und somit um viel Ruhm. Vor allem aber geht es um einen riesigen Zukunftsmarkt:
um die Patentierung der Erfolgsformel und somit um ökonomisch verwertbare
Rechte, um Investoren anzulocken.
Die ungeheure Dynamik
unserer sogenannten Wissensgesellschaft hat seit Descartes‘ Aufspaltung des
Menschen in Körper und Geist, mit der der Mensch als Ich denke, also bin ich
begründet wurde und vor allem unter dem Einfluss der Aufklärung eine ganz
bestimmte Rahmung bekommen hat, deren Wirkung sich bis in unsere Tage hinein
ungebrochen durchgehalten hat: Die Phänomene, die dem Leben des Menschen eigen
sind, werden – nach einem Wort Foucaults – seitdem überführt in die »Ordnung
des Wissens und der Macht« der Vernunft.
Die Frage, was das
menschliche Leben spezifisch auszeichnet, wurde seither mehr und mehr abgelöst
durch die Auffassung von der Verbesserungsbedürftigkeit des Menschen, von der
Perfektionierung des Lebens überhaupt. Leben wurde als ein rein am Wissen orientiertes
vorgestellt. Es wurde einer Lebenssteigerungslogik unterworfen und damit als
etwas vollständig Beherrschbares, Berechenbares und Kontrollierbares ausgelegt.
Und vor allem wurde es als Voraussagbares begriffen.
Diese Fortschrittslogik
wurde aus biopolitischen Interessen auf den Begriff der »Lebenswissenschaft«
gebracht. Unter Ausgrenzung der alten Humanwissenschaften wurden die Biologie
beziehungsweise die Biotechnologien zur Lebenswissenschaft erklärt. Und damit
wurden ihr Bedeutungsgehalt und ihre Reichweite derart ausgedehnt, dass ihr
daraus die Definitionsmacht von Leben erwuchs. In deren Folge wurden der
Organismus und seine Lebensprozesse als vollständig berechenbare und somit
voraussagbare Größe definitorisch auf den Begriff gebracht. Das heißt Leben
wurde wie ein technisch vollständig analysierbarer Gegenstand behandelt. Dass
die biologische Definition von Leben als identifizierbares Ganzes auch der Realität
des Lebens entspricht, dies galt es nun unter wissenschaftlichen Beweis zu
stellen. Vor knapp sechs Jahren lag der Beweis, dass vollständige Erkenntnis der
Lebensprozesse möglich ist, publiziert vor. Er erschien wie eine gentechnische
Revolution und wurde seiner Bedeutung nach als »Buch des Lebens« vorgestellt.
Gemeint ist die im Jahre 2003 zusammen mit den beiden Genforschern Francis
Collins und Craig Venter von Bill Clinton der Weltöffentlichkeit verkündete
Botschaft, dass das menschliche Erbgut in praktisch allen Details entziffert
worden ist: »Heute lernen wir die Sprache, in der Gott Leben schuf« – so
Clintons Worte zur wissenschaftlich bewiesenen vollständigen Erkenntnis des
Lebens.
Die Sequenzierung des
menschlichen Genoms stellte den Höhepunkt biotechnologischer Forschung dar.
Damit war aber auch – wie sich noch zeigen sollte – der Schlusspunkt eines
Wissenschaftsverständnisses erreicht, dessen Erfolgsgeschichte sich zwei
zentralen Grundannahmen verdankt: Erstens, dass sich Lebensprozesse vollständig
verstehen, kontrollieren, berechnen und somit voraussagen lassen. Und zwar
sofern man alles als isolierbare Einzelteile behandelt und die Funktionsabläufe
des Organismus dann kausal-mechanistisch begründet. Und zweitens, dass alles,
was sich diesem Dogma und dem wissenschaftlichen Zugriff entzieht, unberücksichtigt,
vernachlässigt werden kann.
Worin bestand das
Forschungsergebnis des im Jahre 2003 verkündeten spektakulären Durchbruchs in
den Biowissenschaften? Und wieso folgte daraus anschließend ein grundlegender
Perspektivenwechsel der Biologie auf ihren Untersuchungsgegenstand? Und
schließlich wird zu fragen sein: Was hat es mit der neuen Perspektive
der Biologie aufs Leben, auf die jeweils spezifischen Funktionsmechanismen und
Regulationssysteme der Organismen des Näheren auf sich – vor allem im Hinblick
auf mögliche Konsequenzen für unser, vom traditionellen abendländischen Denken
geprägtes Menschenbild?
I. »Vollständige Entschlüsselung des Humangenoms« – »cogito ergo sum«
1. Die vollständige
Sequenzierung des Humangenoms stellte
einen Meilenstein der biologischen Forschung als solcher dar. Und zudem bildete
sie zugleich den Abschluss eines internationalen Forschungsprojektes, an dem
mehr als dreißig Länder und auch deutsche Forschergruppen beteiligt waren, das
im Jahr 1990 gestartet wurde, dessen Kosten sich auf drei Milliarden Dollar
beliefen und das auf einen Zeitraum von 20 Jahren angelegt war: Das »Internationale
Human-Genom-Projekt« hatte sich zur Aufgabe gemacht, das gesamte menschliche
Genom zu entschlüsseln, also Aufbau und Funktionsweise der gesamten
menschlichen Erbsubstanz, der DNA (Desoxyribonukleinsäure) zu analysieren. Mit
dem erfolgreichen Abschluss dieses Großprojekts kam noch ein zweiter Erfolg
hinzu: Nämlich die besonders kurze Zeitspanne von nur zehn Jahren statt der
geplanten 20 Jahre. Wodurch war dieser beeindruckende biotechnische Fortschritt
ermöglicht worden?
Um auf diese so wichtige
Frage eine der Sache nach angemessene Antwort geben zu können, ist ein Blick
zurück auf jene normativen Grundannahmen erforderlich, weil deren theoretische Voraussetzungen
die Grundlage bildeten, die diesen Erfolg zuallererst ermöglichten.
Die unmittelbaren
Voraussetzungen dieses Forschungserfolgs, wie überhaupt jeglicher
molekularbiologischer und gentechnischer Methoden und Erklärungsgrundlagen für
das Leben hängen untrennbar zusammen mit der bahnbrechenden Entdeckung der
Erbsubstanz DNA durch James Watson und Francis Crick. Am Modell der
»Doppelhelix« schufen sie 1953 erstmals ein Bild der chemischen Struktur der
Erbsubstanz und legten damit den wichtigsten Grundstein für den Einblick in
deren Struktur. »Eine Erklärung für das Leben musste in seinen molekularen
Grundlagen liegen.« Es galt somit herauszufinden, wie der zelleigene
Mechanismus zur Eiweiß-(Protein)-Herstellung funktioniert und wie und wodurch
die DNA ihre Information zu eben dieser Herstellung weiterleitet. In der
Erbsubstanz DNA – so die grundlegende Annahme – ist der Plan des Lebens, sind
sämtliche Informationen gespeichert, die die Lebensprozesse steuern und die
Abfolge der Bausteine in der DNA an die nächste Generation als jeweils
spezifische Merkmale (wie ein Lebewesen aussieht, welchen Krankheiten sein
Leben ausgesetzt sein wird oder welcher Gesundheit es sich erfreuen darf)
weitergeben. Dem traditionellen abendländischen Einheitsdenken
entsprechend, das alles, was ist, auf einen gemeinsamen,
allgemeingültigen Grund zurückführt und alles Daseiende daraus ableitet – kurz
gesagt: einem solch verallgemeinerbaren Prinzip entsprechend wurde die
Erbsubstanz als der alles beherrschende Regulationsmechanismus verstanden und
auf die einfache Gesetzmäßigkeit der Linearität hin ausgelegt. Und dies
bedeutete: Die Funktionsmechanismen der Vererbung und die Genregulation wurden
dem strengen Kausalitätsprinzip unterworfen. Francis Crick formulierte aus
diesem Prinzip heraus das »zentrale Dogma«, nach welchem Gene Proteine
herstellen, wobei der genetische Informationsfluss als eine Einbahnstraße
vorgestellt wurde.
Diese Vorstellung der
Molekularbiologie hat sich über ein halbes Jahrhundert hindurch ungebrochen
gehalten und mit ihr die Überzeugung, dass Proteine sowohl für die
Stoffwechselregulation verantwortlich sind als auch für die Herausbildung der
spezifischen Art von Lebewesen, zu der ein Organismus sich entwickelt, und ob
dessen genetische Ausstattung eher gut oder schlecht ist. Mit dem im Jahre 1909
von Wilhelm Johannson geprägten Begriff Gen verbindet sich bis in unsere
Tage hinein die Auffassung, dass der Struktur der DNA eindeutig eine
biologische Funktion entspricht. Die Allgemeingültigkeit des
Übereinstimmungspostulats, das die Hypothese: Struktur und Funktion sind
Prädikate ein und desselben Objekts (die Hypothese von der Identität des
Objekts) stützt, ist heute in der alltagssprachlich vernutzten Formel wieder zu
erkennen: Alles (alle biologischen Phänomene und sämtliche Verhaltensmuster)
liegt in den Genen begründet. Das im April dieses Jahres vom deutschen
Bundestag verabschiedete »Gendiagnostikgesetz« geht genau von dieser
Vorstellung aus; dass nämlich eine Krankheitsdisposition sich eindeutig einem
Gen zuordnen lässt.
Die Trennschärfe zwischen Gesundheit
und Krankheit hat in dem Kausaldenken dieser genetischen Vorstellung
ihre Wurzeln. Diese reichen aber noch viel weiter zurück. Nämlich in die
Geburtsstunde der modernen Medizin, die jedoch ihrerseits ohne die Philosophie
Descartes’ so nicht hätte stattfinden können. In Descartes’ dualistischer
Theorie über das Wesen des Menschen, der übrigens auch Charles Darwins
kausal-mechanistische Grundlagen seiner Evolutionstheorie des Zufallsprinzips
und der Selektion entspringen, liegen denn auch die vermittelten
Voraussetzungen jener gentechnischen Methoden und Erklärungsgrundlagen, die zu
dem spektakulären Forschungserfolg des Human-Genom-Projekts geführt haben.
Deshalb ein kurzer Blick in diesen für unsere gesamte abendländische
Denktradition so zentralen philosophischen Ansatz.
Das die Neuzeit prägende
»Ich denke, also bin ich«, das cartesianische »cogito ergo sum« beruht auf der
Aufspaltung des Menschen in die »res cogitans« und die »res extensa«. Das
heißt, es gründet in der Trennung zwischen Geist und Körper, wobei die Selbsterkenntnis
des Menschen (cogito ergo sum) in der Herrschaft seines Geistes (res cogitans)
über die Materie (res extensa) und damit in der Herrschaft des Menschen über
seinen Körper besteht. Es war die Gleichsetzung von Subjektivität und Wissen
(die Identität des Menschen mit sich selbst als einem denkenden Wesen),
die den metaphysischen Glauben an die Unsterblichkeit des Geistes (der sich im
Tode vom Körper trennte und somit etwas Immerseiendes darstellte) begründete
und den Boden bereitete für die vollständige Entwertung des der Endlichkeit,
der Todverfallenheit anheimfallenden Körpers. Der Körper gilt somit – wie
überhaupt alles konkret Daseiende – als bloß Materielles und vom Geist
Beherrschbares. Es war diese Auffassung, die es dann der Medizin ermöglichte,
den Körper zu öffnen, ohne den unsterblichen Geist zu zerstören. Descartes
verglich den Körper nicht bloß mit einer Maschine – das hätte ihn zur Beachtung
einer gewissen Unschärferelation in Bezug auf das Lebendige gegenüber
der toten Apparatur genötigt –, sondern er behandelte den Körper wie
eine Maschine, die man wie nach einem Plan in ihre Einzelteile zerlegen und
deren Wirkungsweise man messen, berechnen und kontrollieren, also vollständig
beherrschen kann.
Auf diesem Hintergrund
analysiert der Sozialwissenschaftler Bernhard Kathan die Geschichte der Medizin
und gelangt zu der Frage, »was Handlungen zu technischen Handlungen
macht«. Technik legt alles auf das Ja-Nein/Entweder-Oder fest und lässt
Handlungen somit zu etwas Ingenieurmäßigem werden. »Nehmen wir als Beispiel die
Reparatur eines defekten Fernsehapparates. Der Defekt kann in der Regel nur
behoben werden, wenn es ein Modell für die möglichen Ursachen der Störung gibt.
Geleitet von einer Theorie über die Wirkungsweise des Geräts unterzieht der
Fernsehmechaniker den Apparat einer Prüfung, er sucht nach dem Fehler,
repariert ihn, wechselt den betreffenden Bestandteil aus oder verweist den
Kunden auf die richtige Bedienung des Apparates. Technischen Charakter
haben die Handlungen des Fernsehmechanikers deshalb, weil sie nach einer
Vorlage vorgehen und die einzelnen Arbeitsschritte in sich hierarchisch und in
einer vorgegebenen Abfolge geordnet sind. Die einzelnen Arbeitsschritte sind
überprüfbar und lassen sich in der Regel von einem anderen Fernsehmechaniker in
derselben Weise durchführen. Wie ein Fernsehapparat kann auch der Mensch
Gegenstand einer technischen Behandlung sein. … Aber im Gegensatz zum
Fernsehapparat ist der lebende Mensch kein passiver Gegenstand, sondern er
empfindet, er antwortet, reagiert auf die an ihm durchgeführten Eingriffe, auch
wenn er sich in einem narkotisierten Zustand befindet.« … »Technik ermöglicht
klare Antworten auf scheinbar klare Problemstellungen.«(2)
Auf diesem Grunde der rein
am technokratischen Wissen orientierten Handlung wurde das Verständnis des
lebendigen Körpers auf dieses Wissen hin ausgelegt, und auf diese Weise konnte
er mit dem Begriff identifiziert werden, den sich der Mensch von ihm gemacht
hatte. Mögliche Ursachen von Störungen im Organismus lassen sich mit einem
solchen Modell eindeutig erklären, zuordnen und schließlich beheben.
Descartes’ kausal-mechanistisches Denken bildet die Grundlage dafür, dass Normalität
inzwischen zum Synonym geworden ist für das Störungsfreie, Fehlerlose, für das
reibungslos Funktionierende schlechthin, zu dem es indes keine Alternativen
gibt, will das individuelle Wohl nicht mit dem wissenschaftlich Begründeten
kollidieren. Und was die Molekularbiologie unserer Tage betrifft, so hat auch
und vor allem hier Descartes’ Dualismus zu der weit verbreiteten Auffassung von
der »genetischen Individualität des Menschen«(3) geführt, der zufolge
Subjektivität in der Summe der menschlichen Gene, das heißt der
eindeutig bestimmbaren aktiven Gene besteht.
Dementsprechend ist der
wissenschaftliche Erfolg des Human-Genom-Projekts zu sehen: Dieses Projekt
konnte so frühzeitig erfolgreich abgeschlossen werden, weil man sich im
traditionellen Grundlagenmodell des kausalen Erkenntniszugangs eingerichtet
hatte und sich der Werkzeuge kausal-mechanistischer Erklärungsmuster bediente.
Das heißt, dass man alles, was sich den Mitteln der Identifizierbarkeit, der Unschärfen
des lebendigen Organismus entzieht, einfach beiseite, unberücksichtigt ließ.
Und dies bedeutete: Die Sequenzierung des Humangenoms hatte zum Ergebnis die als
Gene definierten, weil der Herstellung von Proteinen dienenden DNA-Abschnitte.
Obwohl man das komplette Genom des Menschen analysierte, verharrte man bei der
Interpretation der Ergebnisse und bei der Bestimmung dessen, was Gene sind,
bei der Auffassung, dass DNA der Stoff ist, aus dem Gene bestehen, deren
Aktivität der Herstellung von Proteinen dient. Die nicht informationstragenden
Anteile der DNA wurden ausgespart, das heißt jene Bereiche unseres aus DNA
bestehenden Erbguts, wo keine Proteingene auszumachen sind. Denn nicht überall,
wo DNA ist, befinden sich auch Gene.
Dem Ergebnis des
sequenzierten Humangenoms liegt der Grundsatz: wo Gene sind, muss DNA sein, und
mit ihm die Überzeugung zugrunde, dass Proteine die gesamte genetische
Information kontrollieren. Dass Proteine also die Hautrolle bei der
Genregulation spielen. Und zwar ungeachtet dessen, ob es sich um das Genom
eines Bakteriums handelt oder um das des Menschen. Eine Pionier der
Molekularbiologie, der Franzose Jaques Monod, bringt dieses traditionelle
abendländische Prinzip, nämlich das »Besondere« (das spezifisch Konkrete) aus
dem »Allgemeinen« (dem Identitätsdenken) abzuleiten, auf den Punkt: »Was für Escherichia
coli gilt, pflegt auch für Elefanten zu stimmen.« Und somit prinzipiell auch
für den Menschen. Man ging davon aus, dass alles Leben auf den gleichen
genetischen Mechanismen aufruht.
2. Unser Körper speichert
das gesamte Genom; er besteht aus
Milliarden Zellen, und in jeder Zelle ist eine komplette Kopie des gesamten
Erbguts niedergelegt. Im Frühstadium der Evolution begannen die Zellen Sicherungskopien
ihrer Ribonukleinsäure-Moleküle (RNA) herzustellen, die dann in der Zelle
konserviert wurden. Diese Sicherungskopien sind die Erbsubstanz DNA –
also jener Stoff, aus dem Gene bestehen. Das bedeutete, dass nicht mehr nur in
der RNA-Welt Informationen gespeichert wurden. Sequenzen mit Informationsgehalt
existierten jetzt auch und vor allem als DNA-Sicherungskopien. Diese
Informationen tragenden Sequenzen – einst nur in RNA-Molekülen gespeichert –
sind das, was man als Gene definiert hat. Somit ist eine rein positive
Bestimmung dessen, was ein Gen ist, eigentlich unrichtig; sie schließt
dessen Gewordensein aus. Denn: Die DNA hat einen sie vermittelnden Bezug
zur RNA. Und deshalb ist eine korrekte Bestimmung des Begriffs Gen nur
ex negativo möglich. Das heißt, das, was ein Gen ist, lässt sich nur im
Durchgang durch die Prozesse der zelleigenen Selbstorganisationsmechanismen
verstehen, und nur daraus lassen sich die Mechanismen, die durch Gene gesteuert
und reguliert werden, lässt sich also das, was ein Gen ist,
hinreichend beschreiben. Diese Sichtweise erfordert einen bestimmten Verstehenszugang,
der sich nicht mehr kausal-mechanistischer Mittel bedienen kann. Eine solche
Sichtweise auf kontextabhängige und somit komplexe Beziehungssysteme wirft
Fragen auf, die nicht bloß die Definierbarkeit von Leben betreffen. Sie
berühren vielmehr eine ganz zentrale Grundsatzfrage: Weiß die Biologie,
womit sie es zu tun hat? Darauf wird im nächsten Abschnitt
zurückzukommen sein. Zum besseren Verständnis aber zunächst eine kurze
Darstellung der biologischen Grundannahmen von der Steuerung der
Lebensvorgänge:
In der menschlichen Zelle
liegen die Chromosomen, und in ihnen befindet sich das gesamte Erbgut eines
Menschen, die DNA. Die DNA kann man mit einer spiralig um eine Säule
herumgelegten Strickleiter vergleichen (Doppelhelix): DNA ist ein doppelsträngiges
Kettenmolekül, bestehend aus den vier Elementen: Adenin, Thymin, Cytosin
und Guanin (diese können als die Sprossen der Strickleiter, der
Doppelhelix vorgestellt werden); sie bilden gleichsam die Basenpaare,
von denen für den Aufbau der Sprossen nur in Frage kommen: Adenin (A) und
Thymin (T) sowie Cytosin (C) und Guanin (G). Die Reihenfolge dieser vier Sprossen
kann beliebig kombiniert werden, und die vier möglichen Kombinationen stellen
die »Buchstaben des genetischen Codes« dar: A-T, T-A, C-G und G-C. Gene sind –
in funktionaler Sicht – definierbare Streckenabschnitte auf dem DNA-Strang, in
ihnen liegen die Baupläne für die Eiweißproduktion, und somit sind in ihnen –
nach bisheriger Auffassung – Funktionsweise und Regulationsmechanismen jeder
einzelnen Körperzelle enthalten. Um nun der Zelle diesen Bauplan zukommen zu
lassen, muss das Gen erst einmal abgelesen werden. Und das bedeutet: Das
Ablesen eines Gens – das wiederum ein spezielles Molekül übernimmt – besteht
darin, dass die Zelle von einem DNA-Abschnitt eine Kopie aus RNA
(Ribonukleinsäure) herstellt. Dies geschieht dadurch, dass dieses spezielle Molekül
die Strickleiter (DNA) auftrennt und die eine Hälfte kopiert. Und diese Kopie
ist die RNA (einzelsträngiges Kettenmolekül). Für jede Hälfte ist die
Ergänzung der Sprossen bereits vorbestimmt: Es muss aus jeder Hälfte wieder ein
dem ursprünglichen DNA-Abschnitt entsprechendes Molekül entstehen. Nachdem nun
das Gen abgelesen ist, verlässt die RNA-Kopie den Zellkern, in dem die Kopie
konserviert ist und trägt ihre Information in den Zellkörper (das Zytoplasma).
Um die RNA bildet sich sozusagen eine Übersetzungsmaschine (das »Ribosom«),
durch die der codierte Bauplan auf der RNA in ein Protein umgewandelt wird.
Oder anders ausgedrückt: An den Ribosomen findet die Proteinsynthese statt.
Dies ist ein für den Organismus insgesamt zentraler Vorgang, denn Proteine
erfüllen unzählige wichtige Aufgaben nicht nur zur Steuerung, sondern vor allem
für die Existenz der Zelle.
Auf dem Grunde des
traditionellen abendländischen Beherrschungswissens und seines
kausal-mechanistisch begründeten Deutungsmonopols wird das Genom
definiert als die Gesamtheit aller aktiver, der Eiweißherstellung
dienender Gene eines Organismus. Demzufolge ist zu vermuten, dass die
Komplexität eines Organismus und seiner Regulationsmechanismen mit der Anzahl
seiner Gene steigt, nach dem Motto: Wenn mehr Gene, dann mehr
Komplexität. Die spannende Frage ist nun aber: Über wie viele solcher Gene
verfügt der Mensch? Als das diesem klassischen Dogma folgende
Human-Genom-Projekt startete, glaubte man, dass der Mensch etwa 100.000 aktive
Gene besitzt. Das entschlüsselte Genom des einfachen Organismus des Fadenwurms Caenorhabditis
elegans ergab eine Anzahl von circa 19.000 aktiver Gene bei einer
Körpermasse von nur 1000 Zellen, und das kleine Unkraut, die Ackerschmalwand,
bringt es sogar auf 27.000 Gene. Der klassischen Grundannahme folgend, dass zwischen
der Anzahl aktiver Gene und der Komplexität eines Organismus eine starke Korrelation
besteht, muss wissenschaftlich nachgewiesen werden können: Entsprechend der
Komplexität des aus Milliarden Zellen bestehenden Organismus des Menschen besteht
das Humangenom aus einer dementsprechend großen Anzahl aktiver Gene.
Indes zeigte sich aber mehr
und mehr, dass die einst angenommene Größe von etwa 100.000 aktiver Gene immer
weiter nach unten korrigiert werden musste, was zu einem ersten
Bedeutungsverlust des klassischen Dogma (ein Gen = eine Information) führte.
Inzwischen wird davon ausgegangen, dass der Mensch es auf nicht wesentlich mehr
aktiver Gene bringt als der Fadenwurm mit seinen 19.000: nämlich auf circa 21.000
Gene. Diese geringe Anzahl macht weniger als zwei Prozent seiner DNA aus.
Zudem hat eine weitere
überraschende Erkenntnis die kausal-mechanistischen Verfahrensweisen der
Wissenschaft in Erklärungsnotstand gebracht. Und zwar als im Jahre 2005 die
Ergebnisse des sequenzierten Genoms des Schimpansen vorgelegt wurden, die
besagen: Der Mensch hat zu knapp 99 Prozent die gleiche Erbsubstanz. Und
dennoch hat er sich sowohl geistig als auch körperlich ganz anders entwickelt.
Nur seine körperliche Konstitution ermöglicht dem Menschen eine spezifische
Anpassungsleistung an die unterschiedlichsten Klimazonen der Erde, und seine
geistige Befähigung ermöglicht ihm, sich den vielfältigsten Lebensumständen
anzupassen und diese Fähigkeiten und Erfahrungen auch zu vererben. Die
Evolution des Menschen scheint demnach anders zu verlaufen als bei allen
anderen Lebewesen. Was ist es also, wodurch der Mensch sich derart zu
entwickeln vermochte?
Evident scheint zu sein,
dass zwischen der Komplexität des Organismus und der Anzahl seiner Proteingene
eine nur sehr schwache Korrelation besteht. Denn mit dieser geringen Anzahl
aktiver Gene lässt sich nicht einmal annähernd die einzigartige komplexe
Entwicklung des Menschen erklären. Auf Beantwortung drängt somit die Frage:
Wenn der Anteil aktiver Gene bloß zwei Prozent der DNA ausmacht, was ist eigentlich
mit dem Rest, also mit jenen Abschnitten, die nicht für Proteine
codieren und deshalb von der Forschung unberücksichtigt blieben? Diese unproduktiven
DNA-Abschnitte wurden als funktionslose Überbleibsel der Evolution angesehen,
für die es keinen Erklärungsbedarf gab. Als »Schrott« der Evolution und deshalb
als »Junk-DNA« bezeichnet wurden diese Abschnitte auf der DNA, da sie keine
Bauanweisung für die Eiweißherstellung tragen, als einflusslose Größe
hinsichtlich der Funktionsweise des Genoms und seiner Regulationsmechanismen
betrachtet. Obwohl sie mindestens 95 Prozent des Genoms ausmachen, aber als
inaktive Bestandteile des Erbguts angesehen wurden, hat man – dem darwinistischen
Selektionsprinzip folgend – ihre Existenz damit erklärt, dass sie »keinen
großen Selektionsnachteil bedeutet und daher toleriert werden kann.
Offensichtlich gibt es bei Wirbeltieren große Genregionen, die keine wichtige
Funktion haben und dennoch erhalten bleiben«(4) – so die Auffassung der
Medizin-Nobelpreisträgerin Christiane Nüsslein-Volhard.
Im Jahre 2007 stand die
Biologie an einem Wendepunkt – und mit ihr das gesamte traditionelle
abendländische Wissenschaftsverständnis. Die Analyse des Humangenoms hatte gezeigt,
dass sich seine Funktionsweise kausal-mechanistischem Denken von Grund auf entzieht.
Das heißt, dass sich die Komplexität seiner Regulationsmechanismen eben nicht
in additiver Aneinanderreihung isolierter und vollständig bestimmbarer und
kontrollierbarer Einzelteile definitorisch erschließen und somit auf den Begriff
bringen lässt.
Indem man nun den
umgekehrten Weg beschritt, also nicht – wie bisher –, den
Untersuchungsgegenstand isolierte und damit aus seinem Kontext herauslöste,
sondern das Zusammenwirken der codierenden DNA-Abschnitte (Proteingene)
mit den dazwischengeschalteten nicht-codierenden DNA-Abschnitten
(Junk-DNA) zum Gegenstand molekular- und zellbiologischer Forschung machte,
wurde die außenperspektivische Zugangsweise abgelöst durch den binnenperspektivischen
Verstehenszugang. Was durch diesen Perspektivenwechsel herausgefunden wurde,
kommt einer Revolution gleich: Der DNA-Schrott ist gar keiner – vielmehr
verbirgt sich in ihm ein revolutionäres genetisches Steuerungssystem, mit dem
die ungeheure Dynamik und Komplexität der nichtlinearen Prozesse des Organismus
ins Blickfeld der Forschung rücken. Und das zieht zugleich die Feststellung
nach sich, dass mit den Mitteln des alten Dogmas eine Beseitigung der
Komplexität stattfindet.
Die neuen Zugangsweisen
bedeuten einen grundlegenden Perspektivenwechsel, nämlich von der
technokratischen Außenperspektive hin zur Binnenperspektive des Systems als
solchem. Und darin ist schon ein Paradigmenwechsel mit beschlossen. Denn die
neuen Zugangsweisen lassen sich nicht mehr umstandslos, das heißt ohne
Substanzverlust, ins alte Kausaldenken integrieren, weil sie sich nicht mehr
mit den traditionellen Mitteln begründen und ihre Erkenntnisse sich nicht mehr
mit diesen verstehen und interpretieren lassen. So wurde denn auch offenkundig,
dass mit dem binnenperspektivischen Zugang jene zentrale Frage, von der man geglaubt
hatte, sie längst beantwortet zu haben, neu gestellt werden muss: Was ist
eigentlich ein Gen?
II. Paradigmenwechsel: Die Entdeckung der Komplexität
Die Wissenschaftler des
»Human-Genom-Projekts« und mit ihnen all jene, die den Prinzipien des
genetischen Determinismus folgen, haben die DNA als das »Buch des Lebens«
gedeutet und damit jene aktiven, proteincodierenden Abschnitte zum absoluten Grund
für die gesamte Genregulation des Genoms erklärt. Diese Deutung geht mit einer
zentralen Annahme einher, dass sich nämlich Abschnitte und Strukturen der DNA
bestimmten biologischen Funktionen der Erbsubstanz eindeutig zuordnen
lassen. Dies ermöglichte, die Struktur der DNA mit der Funktion (Genaktivität)
gleichzusetzen und ihre Eigenschaften als die ein und desselben Objekts zu
behandeln. Plausibilität bekommt eine solche Gleichsetzung nur unter der
Voraussetzung, dass Gene unabhängig voneinander funktionieren, dass ihre
Funktionsweise sich autonomen Steuerungs- und Regulationsmechanismen
verdankt. Dieses hierarchische Modell der Genregulation darf inzwischen als
gescheitert angesehen werden. Heute weiß man, dass die Identifizierbarkeit
einzelner, also von anderen unabhängig funktionierender Gene nur sehr selten
dem, was Gene wirklich sind, entspricht. Das liegt zunächst darin
begründet, dass Gene nicht wie bei einer Perlenkette aufgereiht nebeneinander
liegen, was ja die Behauptung von der Isolierbarkeit und der Bestimmbarkeit der
Gene voraussetzen musste. Es verhält sich vielmehr so, dass sich Gene überlappen
und dementsprechend – wechselwirkend aufeinander bezogen – ein sehr komplexes
System darstellen. Auf diese Weise kann dann der Organismus Gene auf
vielfältigste Weise nutzen. Daraus wird denn auch verstehbar, dass der
menschliche Organismus viel komplizierter ist als der eines Wurms, nicht weil
er mehr Gene besitzt, sondern aufgrund ihres komplexen Zusammenwirkens. Das
Humangenom ist demnach kein bloßer Genverbund; sein System ist viel komplexer.
Es gehorcht nicht dem kausal-mechanistischen Dualismus und den einfachen,
linearen Gesetzmäßigkeiten des alten genetischen Modells, sondern den Gesetzen
dynamischen, komplexen, nichtlinearen Prozessgeschehens samt seiner
komplizierten Rückkoppelungsmechanismen.
Eine weitere neue, vor allem
aber spektakuläre Entdeckung hat die Grundlagen der Molekularbiologie auf ein
neues Fundament gestellt und die Forschung dadurch in einen fundamentalen
Perspektivenwechsel hineingezwungen. Denn sie nötigt, die grundlegende Frage
nach dem, was Gene eigentlich sind, neu zu stellen. Bisher ging man
davon aus, dass die DNA von ihrem komplementären Botenstoff, der RNA, abgelesen
und dann in Proteine umgewandelt wird. Man nahm also an, dass die RNA nichts
anderes als diese Funktion ist; sie wurde nur als »Bote« angesehen.
Genau diese Auffassung erweist sich nun als reduktionistisch, als das Versagen
des Kausaldenkens bei komplexen biologischen Systemen.
1. Indem sich die
Forscher (ENCODE-Projekt)(5) jenen
Bereichen des Genoms zuwandten, die unter der Prämisse des reduktionistischen
Modells als genetischer Müll bezeichnet wurden, entdeckte man, dass aus
diesem sogenannten Genschrott viele aktive Signale und Informationen an die
Zelle weitergeleitet werden, und dass der RNA hierbei eine ganz entscheidende
Rolle zukommt. »Einige überraschende Ergebnisse des Projekts: Das menschliche
Erbgut wird durchgehend abgelesen, aktiv sind nicht nur die Abschnitte, die
Proteine produzieren. Auch die anderen Abschnitte sind zu großen Teilen
biologisch aktiv, sie produzieren RNA, die auf verschiedenen Ebenen an der
Zell- und Genregulation beteiligt sein können. Zudem sind die einzelnen
Abschnitte im Erbgut nicht klar voneinander abgegrenzt, sondern werden jeweils
überlappend abgelesen, das heißt, ein DNA-Abschnitt kann sich in seiner
Funktion mit einem benachbarten DNA-Abschnitt überschneiden.«(6)
Mit der Erforschung dieses
vermeintlich inaktiven Bereichs der DNA setzt gleichsam eine Zäsur im Verständnis
der Genregulierung ein, und mit ihr entsteht ein neues Verständnis der Funktion
der RNA. »Es sind gerade die Genstrukturen, die im menschlichen Erbgut über
90 Prozent ausmachen und bisher ... für inaktive Junk-DNA gehalten wurden,
denen jetzt eine entscheidende Rolle zugeordnet wird. Diese Genabschnitte
wurden lange Zeit als endlose Wiederholungen von Genstrukturen ohne eigentlichen
Informationsgehalt angesehen. Sie sind tatsächlich nicht für die Herstellung
von Proteinen zuständig, haben also nach dem ursprünglichen Genmodell gar kein Produkt.
Sie stellen aber RNA-Sequenzen her, die das komplexe Geschehen der Zellregulation
auf verschiedenen Ebenen steuern. Bei der Genmanipulation von Mäusen stellte
man zum Beispiel fest, dass Veränderungen an der Junk-DNA sogar tödliche Folgen
haben können. Diese Genstrukturen sind also alles andere als überflüssiger
Müll, für den man sie jahrelang gehalten hatte.«(7)
Außer dem klassischen
Übersetzungsmechanismus von DNA-Informationen in Proteine mittels des Botenstoffs RNA –
was im Prinzip für Bakterien, die keinen Zellkern besitzen, gilt, nicht aber
für höher entwickelte Lebewesen und vor allem nicht für den Menschen (nur ein
bis zwei Prozent seiner DNA dient diesem Zweck) –, kontrolliert ein fein
aufeinander abgestimmtes Regulationssystem das Zusammenspiel der Gene: Dieses
hochdifferenzierte Steuerungssystem ist für die Entwicklung komplexer
Lebensformen wesentlich und entsteht in jenen Genen, die nicht in Proteine umgesetzt
werden, sondern die Träger einer Bauanleitung sind, welche direkt als kurze Ribonukleinsäuren
(mikroRNAs = mRNAs) biologisch und regulatorisch wirksam sind. Und diese Gene
liegen im Zwischenbereich zwischen den proteincodierenden auf der DNA
als vermeintlicher »Junk«. Dass solche genetischen Informationen via RNA zudem
vererbt werden, »RNA-vermittelte Vererbung setzt die Mendel’schen Regeln außer
Kraft«(8), hat das Verständnis dessen, was Gene wirklich sind, vollends auf den
Kopf gestellt und macht die Aufspaltung des Organismus in isolierbare, berechenbare
und kontrollierbare Einzelteile endgültig obsolet.
Natürlich bedeutet der
Perspektivenwechsel in der Molekular- und Zellbiologie nicht, dass der Fokus
der Forschung nun allein auf jenem Zwischenbereich von DNA-Sequenzen liegt, der
keine Proteininformation trägt, denn proteincodierende DNA-Sequenzen spielen
eine zentrale Rolle bei der Genregulation. Aber diese Regulationsebene ist eben
nicht die einzige und somit eigentliche, wie man bisher angenommen
hatte. Parallel zu dieser existiert nämlich noch eine andere Ebene der
Genregulation, die mit ihr auf komplexe Weise interagiert. Diese zweite
Regulationsebene basiert auf RNAs, die direkt mit der DNA sowie anderen RNAs
und mit Proteinen in Form eines Netzwerks von Signalen und Informationen
miteinander wechselwirken. Inzwischen weiß man, dass Proteinen eher eine
funktionelle Aufgabe zukommt; sie bestimmen, welche Bauteile für das
Entwicklungsprogramm eines spezifischen Organismus verwendet werden müssen –
aber wie die Architektur dieses Programms aussieht, wie man die Bauteile
montiert, darüber informiert ein weitgespanntes regulatorisches, auf RNA
basierendes Netzwerk. Das heißt: RNAs fungieren als Übermittler von
Informationen oder dienen der Regulation von Aktivitäten, die das Genom selbst
betreffen. Nach Auffassung des Molekularbiologen John S. Mattick steuern RNAs
zum Beispiel das »Timing entwicklungsbiologischer Prozesse wie das Beibehalten
des Stammzellstatus, die Zellvermehrung und die Apoptose (dieser programmierte
Zellselbstmord spielt beim Umbau embryonaler Gewebe eine wesentliche
Rolle).«(9)
Die Komplexität von
Organismen (vor allem die des menschlichen Organismus, der mit nur 21.000
Proteingenen auskommen muss) zu generieren und unter Kontrolle zu halten und
sie nötigenfalls zu steigern, ohne dass das System als Ganzes kollabiert, dies
erfordert einen entsprechend großen Anteil an regulatorischen Informationen
des Organismus, die in einem nichtlinearen Verhältnis zu seinen Funktionen
stehen. Einer der Schlüsselmechanismen, mit dem aus einem kleinen Genbestand
ein viel größeres Repertoire an Proteinvarianten (der menschliche Organismus
produziert zum Beispiel mehr als 90.000 unterschiedliche Proteine) und damit
ein hochdifferenziertes komplexes Steuerungssystem erzeugt wird, ist das
sogenannte »alternative Spleißen«. Dank dieses raffinierten Mechanismus kann
die geringe Anzahl von Genen ungeheuer vielfältig genutzt werden. Das heißt,
Zellen können ein einzelnes Gen zur Produktion verschiedener Formen eines
Proteins nutzen. Zudem wird das alternative Spleißen als einer der wesentlichen
Gründe für die Entstehung der Diversität zwischen den unterschiedlichen Genomen
der Arten, vor allem jener mit ähnlicher Genausstattung, angesehen. Überdies
wird dieser Spleißmechanismus in der Medizin – als fehlerhaftes Spleißen – für
eine der möglichen Ursachen bei der Entstehung von Erbkrankheiten und bestimmten
Krebserkrankungen verstanden.
2. Der Grundmechanismus
des »Spleißens« – wie er unter dem
traditionellen Modell der Genregulation gefasst wurde – stellt sich wie folgt
dar: Auf der DNA werden proteincodierende Sequenzen (»Exons« genannt) durch
jenen Zwischenbereich von Sequenzen unterbrochen, die keine Proteininformation
tragen (»Introns« genannt). Im Zellkern werden zunächst alle Sequenzen
abgelesen, also auch diese inaktiven. Aus dieser primären RNA-Abschrift
werden dann aber genau diese Regionen, die nicht in Proteine übersetzt werden,
also alle Introns, herausgeschnitten, und die abgelesenen Exons werden zu einer
durchgängigen Bauanweisung, der Boten-RNA, zusammengefügt (»gespleißt«); diese
Boten-RNA besteht somit nur aus Kopien der Exons. Diese Abschrift verlässt dann
den Zellkern, um im Zytoplasma der Proteinsynthese zu dienen, während die
Intron-RNAs hier abgebaut werden.
Die Beschreibung dieses
Grundprinzips entspricht nun aber der konventionellen Auffassung der
Genregulation, nach welcher von einem linear ablaufenden (Produktions-) Prozess
der Proteinherstellung ausgegangen wird, demzufolge alle Intron-RNAs von der
Zelle zerlegt werden. Dass dieser Vorgang auch den realen regulatorischen
Verhältnissen der Zelle entspricht, musste insofern angenommen werden, als man
diesen Junk (Introns) keinem erkennbaren Zweck zuordnen konnte. Vom alternativen
Spleißen spricht die Forschung seit mehr als zwei Jahrzehnten, betrachtet die eigentliche
Komplexität dieses Mechanismus indes zumeist doch noch aus der Perspektive des
kausal-mechanistischen, den Gesetzmäßigkeiten der Linearität (der Annahme eines
einseitig gerichteten Informationsflusses) folgenden Grundprinzips: »Ein Gen –
ein Protein«.
Mit einer relativ geringen
Anzahl von Genen ausgestattet verdankt sich die Entstehung und die Entwicklung
hochkomplexer Organismen, wie vor allem die des Menschen, einem
dementsprechenden hochdifferenzierten genetischen Steuerungssystem, also einer
regulatorischen Instanz, die über verschiedene Verknüpfungsoptionen der
gespleißten DNA-Sequenzen verfügt. Was so viel bedeutet wie: Die Zelle hat offenkundig
Alternativen hinsichtlich der Wahl ihrer Objekte, die gespleißt
werden sollen. Man hat denn auch längst festgestellt, dass die primäre
RNA-Abschrift auf mehrere Arten gespleißt werden kann. Das heißt: Die zelluläre
Spleißmaschinerie kann entscheiden, welche Exons oder Introns sie verwirft oder
beibehält, wodurch dann nämlich auch RNAs, die keine Proteininformation
besitzen, zu spezifischen zellregulatorischen Aufgaben generiert werden. Dieses
alternative Spleißen ermöglicht eine alternative Verarbeitung
genetischer Informationen mittels eines einzigen Gens. Mittels eines einzigen
Gens können verschiedene Boten-RNAs und somit auch verschiedene Sorten von
Proteinen generiert werden. Da die gespleißten Fragmente in unterschiedlicher
Reihenfolge zusammengesetzt werden können, entstehen hieraus natürlich auch
verschiedene RNA-Sequenzen. Diese enthalten dann Informationen für verschiedene
Proteine, die ihrerseits durch verschiedene Kombinationen der gespleißten
Fragmente codiert worden sind. Auf diese Weise können Proteinvarianten mit
einer großen Vielfalt generiert werden, die von ein und demselben Gen codiert
worden sind. Dadurch kann eine enorme Vielfalt regulatorischer Informationen
integrativ vernetzt werden.
Viele Molekularbiologen
vertreten die Auffassung(10), dass das alternative Spleißen eine zentrale Rolle
bei der Ausprägung der Diversität vor allem zwischen jenen Genomen spielt, die
über eine relativ ähnliche Genausstattung verfügen. »Nicht nur die Evolution
der Primaten an sich, sondern auch die Abspaltung der menschlichen Linie von
den übrigen Primaten könnte zumindest zum Teil auf alternativem Spleißen beruhen.
Denn die fast identischen Gene von Mensch und Schimpanse produzieren zwar in
den meisten Geweben weitgehend die gleichen Proteine. In Teilen des
menschlichen Gehirns sind jedoch einige Gene aktiver und andere liefern durch alternatives
Spleißen erheblich abweichende Proteine.« Das alternative Spleißen ist
offenkundig ein Mechanismus, durch den komplexe, nichtlineare Funktionssysteme
bei der Genregulation generiert werden, die zur unterschiedlichen Evolution der
Genome, deren genetische Ausstattungen sich sehr ähneln, beigetragen haben
könnten. Insgesamt lässt sich sagen: Beim alternativen Spleißen handelt es sich
um einen Mechanismus, der bei der Entstehung der hohen strukturellen und
entwicklungsbiologisch relevanten Komplexität, vor allem des menschlichen
Organismus, eine Schlüsselfunktion besitzt.
Komplexität zu generieren
ist eines – ein anderes aber ist, sie zu erhalten und zu sichern. Dafür steht
ein anderer zelleigener Funktionsmechanismus zur Verfügung. Ihm kommt eine Schlüsselrolle
bei der Stabilisierung des Organismus zu, denn er hält dessen Komplexität unter
Kontrolle, sorgt gleichsam für die Erhaltung der Stabilität der komplexen
organischen Mechanismen. Er dient sozusagen der Stabilisierung der komplexen
genomischen Architektur. Zugleich reguliert dieser auf RNA basierende Mechanismus
die Genaktivität während der Embryonalentwicklung und steuert den Verlauf von
Wachstum und Entwicklung mit. Es handelt sich hierbei nicht um ein hierarchisch
gesteuertes Sicherungs- und Regulationssystem. Dies gilt es vor allem gegenüber
der konventionellen Sichtweise zu betonen, denn ein hierarchisch organisiertes
Sicherungssystem kann es wegen der komplexen Zusammenhänge und deren
nichtlinearen Verläufen nicht geben. Dementsprechend besteht seine
schlagkräftige Funktionsweise gerade in der Vielfalt seiner Anwendbarkeit bei
der Erhaltung und Sicherung, bei der Kontrolle des komplexen Zusammenwirkens
organischer Prozesse: Er besteht in nichts Geringerem als dem An- und Abschalten
von Genen. Dieses An- und Abschalten von Genen ist ein Schlüsselmechanismus,
der bei vielen biologischen Prozessen eine wichtige Rolle spielt, wie zum
Beispiel bei der Embryonalentwicklung. »Jede Zelle eines Organismus besitzt die
gleichen Gene. Was sie von Zellen in anderen Geweben unterscheidet, ist, welche
davon sie exprimiert und welche nicht. Die meisten Pflanzen und Tiere
entwickeln sich aus einer einzelnen embryonalen Zelle, die sich wiederholt
teilt und dabei schließlich viele verschiedene Zelltypen hervorbringt. Damit
dies geschieht, müssen zahlreiche Gene, die im Embryo aktiv sind, im reifen
Organ abgeschaltet und dafür andere, anfangs stumme, aktiviert werden.« Dieser
Mechanismus hilft, »bestimmten zelleigenen Genen einen Maulkorb zu verpassen,
damit der Übergang in so unterschiedliche Zelltypen wie Nerven- und
Muskelzellen oder in Organe wie Herz und Gehirn gelingt.(11) Er sorgt im
Entwicklungsverlauf also dafür, dass Gene, deren Produkte der Entwicklung des
Organismus dienen, zum richtigen Zeitpunkt abgeschaltet werden.
3. Seine Spezifität, als
zelleigener Mechanismus nämlich
Kontrollinstanz und Stabilisierungsfunktion in einem zu sein, macht ihn zu
einem hochspezialisierten und zugleich allgegenwärtigen Sicherheitsmechanismus
des Genoms. Sein Geheimnis liegt in der RNA. Genauer gesagt: Seine
Funktionsweise verdankt sich einer kleinen RNA-Spezies, die dem vermeintlichen
Gen-Schrott entstammt. Diese micro-RNAs (mRNAs) sind offenkundig imstande, in
der Zelle selbstständig genetische Botschaften abzuschalten.
Diesen verblüffenden
Abschalt-Effekt beobachteten Pflanzenforscher bereits vor zwei Jahrzehnten. Sie
hatten versucht, die Farbe einer Petunie genetisch zu manipulieren, um eine
lila Blüte zu erzeugen, indem sie Exemplare des entsprechenden Gens in die Pflanze
einfügten. Die Blüte hatte sich aber entgegen allen Erwartungen nicht etwa
intensiver gefärbt; sie war vielmehr überwiegend weiß gefärbt. Offenkundig
hatte die Petunie die neuen Geninformationen als schädlich erkannt und sie
zerstört. Das bedeutete zunächst einmal: Es gibt nicht nur die Boten-RNA, also
jene Moleküle, die eine Abschrift der genetischen Information von der DNA an
die Eiweißfabriken in der Zelle überbringen. Es gibt neben dieser Boten-RNA
kleine RNA-Moleküle, die eben nicht bloß als Gen-Schrott, als
überflüssiger Rest der Boten-RNA angesehen werden dürfen, sondern die
offenkundig in der Lage sind, die Aktivität der Boten-RNA auszuschalten, um so
zu verhindern, dass die Botschaft von der DNA in die Zelle gelangt.
Diese bedeutende Entdeckung,
dass diese micro-RNAs in der Zelle selbstständig genetische Botschaften
abschalten können, wurde im Jahre 2006 mit dem Medizin-Nobelpreis belohnt. Bis
dahin war der Wissenschaft diese hochkomplexe Informationsebene, die in den
scheinbar nutzlosen Teilen der Erbsubstanz entsteht, verborgen geblieben. Diese
Ebene der Genregulation funktioniert wie ein Sicherheitssystem, weil es die
Zelle vor unerwünschten Informationen schützt. Und dass die Zelle ein solches
Sicherheitssystem (diese RNA-Spezies) selbst herstellt, um es zur Abschaltung
von Genen – und zwar nicht nur von Fremdgenen, sondern auch von schädlichen körpereigenen
Genbotschaften – zu benutzen, dies war für die Wissenschaft eine Überraschung.
Es sind offenkundig diese kleinen RNA-Moleküle, die die Auswirkungen der Gene
auf die Zelle, die Genexpression kontrollieren. Sie spielen somit eine ganz entscheidende
Rolle im menschlichen Organismus, etwa bei der Unterbindung von Genexpressionen,
die an der Entstehung von Krebs, von Virus-Erkrankungen und anderen schweren
Krankheiten beteiligt sind. Diese kleinen RNAs kommen fast ausschließlich im
Zytoplasma vor, wo sie ihre Arbeit verrichten. Sie haben also den Zellkern
bereits verlassen, und deshalb hat man sie als funktionslosen, überflüssigen
Rest der Boten-RNA, als Gen-Schrott angesehen. Inzwischen weiß man, dass auch
außerhalb des Zellkerns, im Zytoplasma, dank dieser kleinen RNAs sogar noch
signifikante Veränderungen am Erbgut vorgenommen werden können, die sogar
vererbt werden können. Sie stellen ein vital bedeutsames Zensursystem dar, das
dem Schutz des Körpers vor krank machenden Geninformationen dient.
Wie detaillierte
Untersuchungsbefunde zeigen, sind es doppelsträngige RNA-Moleküle, durch
die der Prozess des Abschaltens von Genen ausgelöst wird. Dieser zelleigene
Zensurmechanismus läuft wie folgt ab: Die doppelsträngigen RNAs werden von
einem zellulären Enzym erkannt und in kleine Teile, die sogenannten »small interfering
RNAs« (»siRNAs«) zerschnitten. Diese kleinen interferierenden RNA-Schnipsel
lagern sich dann an jene Boten-RNA an, die zu ihrer Sequenz komplementär ist,
und bindet sie. Dadurch wird die genetische Information, die die Zelle
benötigt, um Proteine herzustellen, unterbunden und damit die (die Zelle schädigende)
Proteinproduktion verhindert. Dieser Mechanismus der gezielten Zerstörung der
Boten-RNA wird als »RNA-Interferenz« bezeichnet.
Einer der Pioniere auf
diesem Forschungsfeld ist der an der New Yorker Rockefeller University tätige
Molekularbiologe Thomas Tuschl. Tuschl machte sich dieses besonders effiziente
System der zelleigenen Genregulation zunutze. Als erster Forscher entdeckte er,
wie sich Gene im menschlichen Genom künstlich abschalten lassen. Im Jahr
2001 publizierte er die Erfindung eines bahnbrechenden Verfahrens, das einer Revolution
in der Genforschung gleichkam: die »RNA-Interferenz-Methode.« Mit dieser
Methode lassen sich einerseits Gene gezielt abschalten, und andererseits lassen
sich durch dieses Abschalten Rückschlüsse auf die Funktionsweise von Genen
ziehen, das heißt die Funktion einzelner Gene kann besser erforscht werden.
Mittels seiner RNA-Interferenz-Methode wies Tuschl nach, dass der zelleigene
Zensurmechanismus des Abschaltens von Genen sich auch künstlich auslösen
lässt: Man schleust in die Zelle synthetische kurze RNA-Doppelstränge ein, die
aufgrund ihrer komplementären Gensequenz von der Zelle erkannt und
zerschnitten werden. Bei diesem Vorgang entstehen dann diese kleinen interferierenden
RNAs, die gezielt die Abschrift der Botenmoleküle des Gens zerstören und auf
diese Weise verhindern, dass die unerwünschte Information an die Zelle
weitergeleitet werden kann. Die Proteinsynthese ist blockiert, weil die Aktivität
des Gens blockiert worden ist. Derzeit ist Tuschl dabei herauszufinden, welche
Störungen bei den mRNAs oder welche Defekte im RNAi-System für
Zellveränderungen, wie zum Beispiel bei Krebs, verantwortlich sein könnten.
Erste Befunde zeigen bereits, dass sich in den Zellen bestimmter Tumore die
Konzentration von mRNAs signifikant ändert, was bedeuten könnte, dass diese
mRNAs an der Krebsentstehung irgendwie beteiligt sind.
Das von Tuschl entwickelte
Verfahren der RNA-Interferenz zum gezielten Abschalten von Genen vollzieht
gleichsam einen Prozess nach, der auch natürlicherweise stattfindet. Er
kann sozusagen als eine Mimesis an diesen vital bedeutsamen zelleigenen
Mechanismus, der der Stabilisierung des Organismus dient, verstanden werden.
Tuschls sensationelle Entdeckung des künstlichen Abschaltens von Genen und
seine bahnbrechende Erfindung der synthetischen RNA-Doppelstränge haben die Genforschung
revolutioniert und damit ein Potenzial für Therapiemöglichkeiten schwerster
Krankheiten freigelegt, das längst Biotechunternehmen und Pharmaindustrie zu
Milliardeninvestitionen motiviert hat. Die Möglichkeit des künstlichen
Abschaltens von Genen eröffnet ein riesiges Repertoire ganz neuer
Behandlungsmethoden. So konnten Forscher zeigen, dass mit Tuschls Methode eine
Hepatitis-Infektion bei Mäusen milder verlaufen ist. Dadurch überlebten viele
Tiere, die sonst an der Leberentzündung gestorben wären. Aber auch an Primaten
funktioniert das Abschalten von Genen bereits. Arbeitsgruppen in den USA
»konnten durch RNA-Interferenz die Ausbreitung von Viren – unter anderem die
Erreger von Aids, Kinderlähmung und Hepatitis C – in Kulturen menschlicher
Zellen zumindest zeitweise unterbinden. Das gelang, indem die Forscher mit künstlichen
siRNAs die Produktion viraler Proteine hemmten, die für die Vermehrung der
Krankheitserreger unentbehrlich sind.«(12) Aber auch klinische Versuche am
Menschen haben bereits begonnen.
Ist das Verfahren der
RNA-Interferenz, wie es vom Prinzip her den Anschein hat, wirklich eine Mimesis
an den natürlich ablaufenden zelleigenen Prozess zum Schutz vor krankheitserregenden
Genen? Kann und darf das Gelingen künstlich evozierten Abschaltens von Genen
als ein Analogon (wie zum Beispiel bei einer Virus-Infektion) zu einem
natürlich vorkommenden RNAi auslösenden Prozess verstanden werden? Wenngleich
sich eine solche Frage schon aus der Sache selbst ergeben mag, so ist doch eine
Antwort außerordentlich schwierig. Eines lässt sich aber doch zumindest
festhalten: Im System der RNA-Interferenz manifestiert sich die Schnittstelle
zwischen Linearität und Nichtlinearität. Das heißt, der linear ablaufende
Prozess DNA-RNA-Proteinsynthese steht in einem Verhältnis mit
molekularen Rückkoppelungsmechanismen, durch die DNA, RNA und Proteine
wechselwirkend miteinander verbunden werden, wodurch wiederum die Genexpression
beeinflusst wird. Dieses Verhältnis ist demnach als ein nichtlineares
zu bezeichnen. Und als ein solches veranlasst es gleichsam das Genom,
ein derart bedeutsames komplexes Überwachungssystem wie das der RNA-Interferenz
ständig verfügbar zu halten, um sich an verändernde innen- und außenweltliche
Bedingungen anpassen zu können: Unser Körper kann sich vor Viren und
Infektionen schützen, weil sich seine Gene allmählich verändern. Und diese
Veränderungen im Genom – ausgelöst durch Umwelteinflüsse – können auch vererbt
werden.
Die in die Zelle
eingeschleusten synthetischen RNA-Doppelstränge evozieren ein solch
nichtlineares Rückkoppelungsgeschehen, dessen kontextabhängige Wirkungen nur
schwer vorhersagbar sind, weil es sehr unwahrscheinlich zu sein scheint, dass
eine variierende Komponente dieses Rückkoppelungsmechanismus rein additive
Folgen hat. Es ist vielmehr grundsätzlich anzunehmen, dass eine variierende
Komponente mit einer anderen variierenden interagiert und sich dadurch auch
schon verändert. Insofern stellt sich bei diesem Verfahren die Frage, ob die künstlich
herbeigeführte Abschaltung eines Gens nicht zu unbeabsichtigten
Wechselwirkungen auf anderen Ebenen der Zellregulation führt, deren Wirkung die
Aktivität anderer Gene beeinflusst.
III. »Eine völlig neue Art, das Leben zu betrachten«
Das Genom – und vor allem
das des Menschen – ist ein dynamisches, komplexes, selbstregulatorisches
System, das auf nichtlinearen und deshalb auf nicht voraussagbaren Prozessabläufen
beruht. Infolgedessen lässt sich auch bei vielen komplexen genetischen
Krankheiten nicht bestimmen, welche Gene sie auslösen und welche Defekte dazu
führen, dass sie ausgelöst werden. Mögen sich einzelne Funktionen durchaus
kausal beschreiben lassen, das hochkomplexe Zusammenwirken aber, sowohl auf der
Ebene der Gene als auch auf der Ebene der Zelle, folgt den Regeln der Nichtlinearität
und entzieht sich von daher der Bestimmbarkeit. Deshalb lässt sich auch
das komplette Netzwerk zum Beispiel jener Gene nicht enthüllen, geschweige denn
in seinem Verlauf vorhersagen, die Zellen entarten lassen. Man müsste die
Ausgangs- bzw. die Anfangsbedingungen vollständig kennen, wollte man ein
komplexes nichtlineares System vollständig verstehen, um das Zusammenwirken des
Ganzen bestimmen zu können. Oder anders gesagt: Die Gesamtheit der
Wechselwirkungen zwischen Proteinen beispielsweise lässt sich nie vollständig
erfassen – aber nicht etwa deshalb, weil das Speicherpotenzial großer Rechner
unzureichend ist (Computerprogramme beruhen auf dem Ja-/Nein-Prinzip, auf
strengen Kausalitäten), sondern weil der Augenblick der Beobachtung oder der
Messung (fast) nie mit dem Anfangszustand des Untersuchungsgegenstandes
zusammenfällt, oder anders gesagt, weil der Untersuchungsgegenstand zum
Zeitpunkt der Beobachtung sich nie in seinem Grundzustand befindet. In der klassischen
Mechanik mit ihrem strengen Kausalitätsprinzip hat dies zur Entwicklung von Störungstheorien
als Kompensation sogenannter Messungenauigkeiten geführt, wodurch die
jeweiligen Resultate einer Renormierung unterzogen wurden. Dabei ging man von
der Annahme aus, dass kleine Messungenauigkeiten auch nur zu kleinen Fehlern im
Resultat führen. Eine grundlegende Korrektur erfuhr dieses quantitative
Vorgehen in den 1960er-Jahren durch die Chaostheorien der Physik und der
Mathematik,(13) deren bekanntes Diktum lautet: Kleinste Änderungen in den Anfangsbedingungen
können zu sehr großen Veränderungen der Entwicklung führen, die fundamentale
Konsequenzen für den Gesamtverlauf des Systems haben können.
Man müsste also die
Entstehungsbedingungen lebender Systeme vollständig kennen, wollte man ihren
gegenwärtigen Zustand vollständig erfassen oder wollte man die Folgen der
Eingriffe in komplexe, nichtlineare Dynamiken eindeutig bestimmen. Komplexe
Systeme, vor allem lebende, begegnen sich aus ihrem Gewordensein heraus, dessen
kontextabhängige Ausgangsbedingungen man nie vollständig rekonstruierend
einholen kann. Eine Analyse des Jetzt-Zustandes muss demzufolge immer
lückenhaft bleiben, denn: Sie kommt immer schon zu spät. Indes ist es gerade
diese Lückenhaftigkeit, durch die sich ja die komplexe Beziehungsdynamik, die
Verzweigungsprozesse ihrer nichtlinearen Bewegungsabläufe auszeichnen und die
die Freiheitsgrade lebender Systeme ausmacht. Das kann zum Beispiel bedeuten,
dass ein Regulationsmechanismus kausal determiniert und zugleich, aufgrund
kontextabhängiger Einflüsse, unvorhersagbar ist.
Es sind denn auch und vor
allem Umwelteinflüsse, die die Zelle zu einem Umbau der genomischen Architektur
veranlassen, der, als Reaktion auf solche Einflüsse, wiederum mit der Umwelt
(unvorhersagbar) interagiert. »Bakterien zum Beispiel verändern die Architektur
ihres Genoms, wenn sie einer Vernichtungsgefahr, etwa durch Antibiotika,
entkommen wollen (was ihnen erstaunlich gut gelingt). Bevor Bakterien ihre Gene
umbauen, haben sie die Möglichkeit, durch Aktivierung zahlreicher
bereits vorhandener (Abwehr-)Gene auf Umweltveränderungen zu reagieren.«
»Werden die Umweltbedingungen für Bakterien ungemütlich genug, steigert sich
die Wahrscheinlichkeit, dass genetische Veränderungen eintreten, um das bis zu
Zehntausendfache. Dies ist der Grund …, warum sozusagen unter blanker
Missachtung darwinistischer Vorschriften überall da, wo Kranke mit Antibiotika
behandelt werden, immer aggressivere (weil resistentere) Keime entstehen.«(14)
Die Genregulation geschieht also immer auch unter Einfluss von
Umweltbedingungen. Das heißt, die Art und Weise, wie Gene reguliert werden,
steht in direktem Zusammenhang mit Außenwelteinflüssen. Dieser Befund steht
völlig quer zu der gen-deterministischen Vorstellung über die Evolution. Die
Arbeiten der amerikanischen Genetikerin und Nobelpreisträgerin Barbara
McClintock sind deshalb auch lange Zeit totgeschwiegen worden; eines ihrer
Statements lautete: »Ein Genom kann sich selbst verändern, wenn es mit ungewohnten
äußeren Bedingungen konfrontiert ist.«(15)
Ob auf der Stufe einer
einzigen Zelle oder auf der Ebene des Genoms – die ungeheuere Komplexität des
Lebens entzieht sich der vollständigen Berechenbarkeit und der Beherrschbarkeit
und damit auch und vor allem der Verfügbarkeit. Im Genom verbinden sich lineare
Funktionsabläufe mit nichtlinearen Regulationsmechanismen, mit einer
»nützlichen Unordnung«(16) zu einem nichtlinearen Selbstorganisationssystem,
dessen Eigenschaft in der Komplexität besteht. Das bedeutet nämlich: Das
Genom hat nicht diese Eigenschaft (das Haben zeigt ja ein
Besitzverhältnis an, das auch eingebüßt werden kann), sondern es ist
sie, und das bezeichnet einen qualitativen Unterschied. Denn Komplexität als
Eigenschaft zu verstehen erfordert die Einsicht, dass sie nicht partikularisiert
werden kann, so als könne man wissenschaftlich beschriebene Teile in additiver
Aneinanderreihung wieder zusammenfügen und hätte damit das System als Ganzes
erfasst. Während die dynamische Empfindlichkeit hochkomplexer Systeme wie das
des Genoms es unmöglich macht, sie von Kontexteinflüssen zu isolieren, setzt
das klassische Ideal eine in Zukunft und Vergangenheit berechenbare
Zustandsentwicklung der Systeme voraus, in die sich auch die Berechenbarkeit
des in Einzelteile zerlegten Menschen einfügt. Dieser theoretische
Reduktionismus verdankt seine Überzeugungskraft der voraussetzungsträchtigen
Unterstellung, dass die rückkoppelnden Wechselwirkungen zwischen diesen Teilen
unberücksichtigt bleiben können. Dies ermöglicht nämlich zuallererst klare
Antworten auf scheinbar klare Problemstellungen.
Zudem ermöglicht die
additive Verfahrensweise, Leben in klar abgegrenzte Bereiche zu zerteilen und
diese zu definieren, entsprechend ihrem zuzuführenden Verwendungszweck; das hat
unter anderem zur Patentierbarkeit menschlichen Lebens geführt: »Laut
EU-Richtlinie 98/44 ist alles am Menschen patentierbar, von seinen Genen über
die Zellen bis hin zu ganzen Organteilen, sobald diese isoliert sind und ein
irgendwie gearteter neuer technischer Schritt beteiligt ist.« Diese
EU-Richtlinie »Rechtlicher Schutz biotechnologischer Erfindungen« erkennt einen
»besonderen Status für Teile des menschlichen Körpers grundsätzlich nicht an.
Sie spricht nivellierend und generell von patentierbarer biologischer Materie.
… Im November 2003 wurde das Patent EP 1121015 erteilt, das tiefgekühlte
menschliche Embryonen, Sperma und Eizellen erfasst. Experimente wurden unter
anderem mit Embryonen von Hamstern, Rindern, Mäusen und Menschen durchgeführt.
Menschliche Embryonen werden in den Patentansprüchen ausdrücklich denen von
Rindern und Nagetieren gleichgesetzt.«(17)
Die Entdeckung der
Komplexität des Lebens ist eines – ein ganz anderes aber ist es, der Einsicht
in deren empirische Befunde konkret Geltung zu verschaffen, indem man sie in
die Praxis umsetzt. Aber eben nicht mehr so, dass Forschungsergebnisse
bloß empirische Bestätigung dessen sind, was die Wissenschaft als allgemeingültiges
Prinzip auf den »Begriff« gebracht wissen will. »Denn Leben
transportiert eine grundsätzliche Opposition zu jedem Festgelegten und
Begrifflichen; in seinem impliziten Bezug auf das Unbestimmte, nicht Verfügbare
bildet es einen Grenzbegriff des Denkens.«(18) Und insofern ist der genetische
Determinismus allein durch ein neues forschungsleitendes Paradigma zu
überwinden, das an dem jeweiligen konkreten Forschungsgegenstand, sozusagen an
den empirischen Verhältnissen vor Ort orientiert und auf sie hin
ausgelegt sein muss. Eine präzise Definition des Grundbegriffs der Genetik,
nämlich dessen, das ein Gen ist, erwiese sich dadurch als ein
Abstraktionsprodukt, das durch das Absehen von dessen konkreten Verhältnissen
gewonnen wird. Denn das, was ein Gen ist, kann nur beschrieben werden
durch das, was es tut, durch seine Aktivitäten also, und wie und
wodurch es aktiv ist beziehungsweise aktiviert wird, das wird durch das
Zusammenspiel vieler Mitspieler bestimmt. Gene sind gekennzeichnet durch ein dialektisches
Verhältnis »nützlicher Unordnung«, und damit verschwindet die Trennschärfe
zwischen dem, was sie bewirken, und dem, was ihre Wirkung veranlasst. Diese
Sichtweise führt überdies dazu, dass sich auch die Trennschärfe zwischen
Gesundheit und Krankheit nicht mehr aufrechterhalten lässt. Aus der Perspektive
ihres wechselwirkenden Aufeinanderbezogenseins in Bezug auf außenweltliche
Einflüsse bekommt dann der Bestimmungsgrund von Krankheit eine bestimmte
Färbung, kann Krankheit nun auch als gesunde Reaktion auf krank machende
Einflüsse begriffen und als solche behandelt werden.
Mit der Entdeckung der
Komplexität wird jener privilegierte Ort sichtbar, in dem Leben als
Lebendigkeit sich sinnvoll verdichtet und an dem jene Grenze erfahrbar wird, an
der das, was dem Leben spezifisch eignet, sich der Ordnung des Wissens und der
Macht immer schon entzieht. Überdies erweist sich hier jegliche gentechnische
Verbesserungsbedürftigkeit des Lebens als Ideologie. Das Entscheidende an der
Entdeckung der Komplexität ist, dass sie die Bedingung der Möglichkeit schafft,
»eine völlig neue Art, das Leben zu betrachten«,(19) wie Richard Strohman,
einer der Pioniere der Epigenetik, zu Recht anmerkt. Sie stellt gleichsam eine fundamentale
Erfahrung dar, indem sie das, was der Mensch erkennen kann, in eine
marginale Position rückt und damit aber zugleich einen Zugang zu der Empfindung
öffnet, dem, was Natur ist, näher gekommen zu sein. Ein solcher
Perspektivenwechsel stellte zudem das Dogma unserer gesamten abendländischen Aufklärungsvernunft
radikal in Frage, das in der Kant’schen Version lautet: Vernunft ist die Fähigkeit
des Menschen, das Besondere aus dem Allgemeinen abzuleiten – also alle Empirie
nur als Illustrationen von Prinzipien zu behandeln. Und deshalb hängt an einem
solchen Perspektivenwechsel notwendig auch ein neues forschungsleitendes
Paradigma, mit dem die Biowissenschaften sich dann mit Fug und Recht als
Leitwissenschaft des 21. Jahrhunderts verstehen könnten.
Danksagung
Es ist ein ungeheuer spannender, aber auch schwieriger Versuch,
sich als Philosoph dem komplexen und voraussetzungsreichen Gegenstand zu
nähern, mit dem es die Molekular- und Zellbiologie derzeit zu tun hat. Zudem
setzt man sich dem berechtigten Vorwurf der Inkompetenz aus, und so hoffe ich
auf Nachsicht für so manche Defizite in der Darstellung und mögliche
Schieflagen in der Interpretation. Ich halte es aber gerade in Anbetracht des
heute in alle Lebensbereiche vordringenden, sich verdinglichenden
berühmt-berüchtigten Dualismus cartesianischer Prägung für außerordentlich
wichtig und fruchtbar, Philosophie und Empirie aus einer problemorientierten
Perspektive heraus zu reflektieren, um so das eine auf das andere hin nutzbar
zu machen.
Einen solchen Versuch zu unternehmen war mir nur möglich,
weil mir kompetente und offene Gesprächspartner hilfreich zur Verfügung
standen. Als erstem und wichtigstem Gesprächspartner möchte ich Dr. Christoph
Then für viele persönliche Gespräche, spezielle Literaturhinweise und für
Anmerkungen zu meinem Text danken, vor allem aber für seine innere Haltung
gegenüber der Sache selbst.
Einen wichtigen Stellenwert besaßen die langen
Telefongespräche mit Prof. Dr. Thomas Tuschl (Howard Hughes Medical Institute,
Laboratory of RNA Molecular Biology, Rockefeller University, New York) sowie
ein persönliches und sehr informatives Gespräch mit dem Evolutionsbiologen Dr.
Wolfgang Enard vom Max-Planck-Institut für Evolutionäre Anthropologie in
Leipzig. Mein Dank an Thomas Tuschl gilt vor allem seiner unermüdlichen Bereitschaft,
Grundsatzfragen in kritischer Selbstreflexion zu besprechen – eine Erfahrung,
die unter Kollegen meines eigenen Faches zunehmend verloren geht.
1
Dem schottischen Wissenschaftler Ian Wilmut gelang als
Erstem ein Verfahren zur Produktion von Zellersatz aus technisch erzeugten
Stammzellen, die das Potenzial der befruchteten Eizelle besitzen. Dieses Verfahren
verdankt sich jener umstrittenen Methode der ungeschlechtlichen Herstellung von
Embryonen, mit der Wilmut im Jahre 1996 das berühmte Klonschaf »Dolly«
hergestellt hatte. Mit der Geburt von Dolly konnte Wilmut den Beweis erbringen,
dass sich aus dem Transfer des Zellkerns einer beliebigen Körperzelle (hier aus
dem Kern einer Euterzelle) in eine zuvor entkernte weibliche Eizelle ein Embryo
herstellen ließ, der sich im Mutterleib zu einem lebensfähigen Tier
entwickelte.
2
Kathan 2002, S. 127 f.
3
Rosenthal: »Wer soll das alles lesen?«, in: FAZ,
10.2.01.
4
Nüsslein-Volhard 2004, S. 168.
5
35 am ENCODE-Projekt beteiligte Forschergruppen haben in
vier Jahren ca. 1 % des menschlichen Erbgutes untersucht, wobei auch jene
vermeintlich inaktiven Sequenzen der DNA einbezogen wurden; publiziert
wurde die Analyse im Jahr 2007: The Encode Project Consortium: »Identification
and analysis of functional elements in 1 % of the human genome by the ENCODE
pilot project«, in: Nature, 14.6.07.
6
Then 2008, S. 143.
7
Then 2008, S. 142.
8
Then 2008, S. 143 und Anmerkung 97.
9
Spektrum der Wissenschaft (SdW) 2006, S. 29.
10
Diese Auffassung vertritt z. B. der Humangenetiker Gil Ast
(Medizinische Hochschule der Universität von Tel Aviv); siehe hierzu auch SdW
2006, S. 40.
11
SdW 2006, S. 48.
12
SdW 2006, S. 47.
13
Hanzig 1989.
14
Bauer 2008, S. 87 und Anmerkung 47 und S. 94 f.
15
McClintock 1983: »The
significance of responses of the genome to challenge.« Nobel Lecture:
www.nobel-prize.org
16
Greenpeace 2005, S. 15.
17
EWE 2005, S. 213 f.
18
Toepfer, in: Krohs/Toepfer 2005, S. 171.
19
Greenpeace 2005, S. 20.
Literatur
Bauer, J. (2008): Das kooperative Gen. Abschied vom
Darwinismus, Hamburg
EWE (2005): »Die Entschlüsselung des Humangenoms –
ambivalente Auswirkungen auf Gesellschaft und Wissenschaft«, Themenheft der
Zeitschrift Erwägen – Wissen – Ethik – Streitforum für Erwägungskultur
(Jg. 16), Heft 2
Frühwald, W. et al. (2004): Das Design des Menschen. Vom
Wandel des Menschenbildes unter dem Einfluss der modernen Naturwissenschaft,
Köln
Gehring, P. (2006): Was ist Biomacht? Vom zweifelhaften
Mehrwert des Lebens, Frankfurt am Main
Greenpeace (2005): Das unterschätzte Risiko. Interviews
mit neuen WissenschaftlerInnen zum Thema gentechnisch veränderter Pflanzen
(Greenpeace-Reader), Hamburg
Habermas, J. (2001): Die Zukunft der menschlichen Natur.
Auf dem Wege zu einer liberalen Eugenik?, Frankfurt am Main
Hanzig, E. (1989): »Die Katastrophe in den
Naturwissenschaften – philosophische Grenzfragen im Naturbild der neuen
mathematisch-physikalischen Chaostheorien (Theorien nichtlinearer
Gleichungssysteme)«, in: Hegel-Jahrbuch 1989, S. 355–364
Hanzig, E. (1988): »Offenes Weltbild und Erkenntnisgrenze.
Philosophische Überlegungen zu mathematisch-physikalischen Chaostheorien«, in: Kommune
– Forum für Politik, Ökonomie, Kultur, Heft 9, S. 59–65
Hanzig-Bätzing, E. (2004): »Dreißig geklonte menschliche
Embryonen. Der Stammzellforschung letzter Erfolg«, in: Kommune – Forum für
Politik, Ökonomie, Kultur, Heft 2, S. 94–96
Hanzig-Bätzing, E./Bätzing, W. (2005): Entgrenzte Welten.
Die Verdrängung des Menschen durch Globalisierung von Fortschritt und Freiheit,
Zürich
Kathan, B. (2002): Das Elend der ärztlichen Kunst. Eine
andere Geschichte der Medizin, Berlin
Krohs, U./Toepfer, G. (2005): Philosophie der Biologie.
Eine Einführung, Frankfurt am Main
Nüsslein-Volhard, C. (2004): Das Werden des Lebens. Wie
Gene die Entwicklung steuern, München
Peitgen, H.-O. et al. (2004):
Chaos and Fractals – New Frontiers of Science, New
York/Berlin/Heidelberg
Rajan, K. S. (2009): Biokapitalismus. Werte im
postgenomischen Zeitalter, Frankfurt am Main (2006)
SdW (2006): Das neue Genom, Spektrum der Wissenschaft,
Dossier 1/2006, Heidelberg
Then, C. (2008):
Dolly ist tot. Biotechnologie am Wendepunkt, Zürich
In: Kommune,
Forum für Politik, Ökonomie, Kultur 5/2009