Was wissen Biologen schon vom Leben?
Wie verändert sich die Biologie? - Der Einzug der Molekularbiologie
Peter v. Sengbusch
b-online@botanik.uni-hamburg.de
Aus: A. DALLY (Herausg.): Was wissen Biologen schon vom Leben ? S. 37-58
Evangelische Akademie Loccum, Loccum 1998
Biologie ist die Wissenschaft vom Leben. Also sollten sich Biologen mit dem Problem Leben befassen und Wissen darüber akkumulieren. Das geschieht auch in stetig zunehmendem Maße, doch allein schon deshalb lassen sich die Ergebnisse biologischer Forschung nicht mehr in wenigen Worten zusammenfassen. Biologen erforschen die unterschiedlichsten Aspekte der Lebensvorgänge und -erscheinungen. Ich selbst habe mich mit einigen dieser Probleme auseinandergesetzt und kenne die Arbeiten einer Reihe von Fachkollegen, einige von ihnen habe ich auch persönlich kennengelernt und mit ihnen diskutiert. Doch sind es insgesamt nur sehr, sehr wenige aus der Gruppe der heute arbeitenden Wissenschaftler. Deren Zahl steigt nach wie vor an, mein Bekanntenkreis schrumpft folglich drastisch zusammen und das heißt, daß ich gar nicht befugt bin, im Namen der Biologen zu sprechen. Ich kann daher nur meine Erfahrungen - in subjektiver Sicht - skizzieren.
Eine Wissenschaft, an der zahlreiche Menschen beteiligt sind, führt zwangsläufig zu kontroversen Vorstellungen. Da das Arbeiten mit lebenden Organismen auch Konsequenzen für diese hat, ist Wissenschaft zugleich ein politisches Thema und die sogenannte "wertfreie Wissenschaft" wäre damit in den Bereich der Mythen zu verbannen.
Das Erforschen des Lebens hängt nicht nur von der Wahl der Arbeitsbedingungen einzelner Forscher oder Forschergruppen ab, sondern auch von der Finanzierbarkeit der Projekte und der Akzeptanz der Ergebissse und Aussagen in der Scientific Community und der nichtbeteiligten "Öffentlichkeit". Zu diesem Themenkreis werde ich mich mich morgen äußern.
Zur Beantwortung der Frage nach dem Wissen über Leben muß ich eine knappe Bestandsaufnahme machen. Dabei muß ich - wegen der Kürze der Vortragszeit - vieles ausklammern, was bereits öfter - auch von mir - an anderer Stelle dargelegt worden ist.
Informations- und Systemtheorie
Es zeigt sich zunehmend, daß das Verständnis von Lebensvorgängen Phänomene umfaßt, die durch die Informations- und die Systemtheorie klassifiziert werden können. Information ist nach der Informationstheorie a priori wertfrei, was der Annahme einer "wertfreien Wissenschaft" entgegenkommen würde. Eine Information gewinnt jedoch einen Wert (= einen Selektionswert), sobald sie eine Nachricht enthält, durch die etwas bewirkt wird. Diese Wirkung wiederum kann als Instruktion aufgefaßt werden. Eine Information kann aber auch nur dann zu einer Nachricht werden, wenn sie versandt wird und es einen Empfänger gibt, der sie versteht, bzw. wahrnehmen kann. Eine Nachricht dient der Kommunikation, also der gegenseitigen Verständigung.
In der Nachrichtentechnik verwendet man Begriffe wie Sender und Empfänger, Übertragungskanal und Störungen (Rauschen). Die Störungsrate kann durch Wiederholung (Redundanz) einer Nachricht reduziert werden. Redundanz ist daher der wirkungsvollste Schutz vor einem Rauschen, d.h. vor der Überlagerung einer Nachricht mit wertloser Information während der Informationsübertragung..
Die Systemtheorie nutzt dem Verständnis von Lebensprozessen vornehmlich durch die operationale Möglichkeit der Klassifizierung von Stukturen und Funktionen sowie zur Beschreibung von Hierarchieebenen. In einem System ist Platz für strukturelle und funktionelle Größen, die auf bestimmte Weise (determiniert oder auch stochastisch) untereinander in Wechselwirkungen treten und damit ein vieldimensionales Netzwerk ausbilden. Mathematisch läßt sich das durch Gleichungen beschreiben, wobei der EINSTEINschen Gleichung
E = mc2
nicht nur für die Physik, sondern auch für das Verständnis von Leben fundamentale Bedeutung zukommt, denn sie beschreibt die Wechselbeziehung zwischen Energie und Materie. Alle lebenden Systeme sind als offen zu klassifizieren, da zum Erhalt molekularer und zellulärer Strukturen und der sich ergebenden Funktionseinheiten (übergeordneten Systemen) ein kontinuierlicher Energiestrom erforderlich ist, von dem ein Teil in Form von Molekülen auf "erniedrigtem Energieniveau" festgelegt wird und als Zunahme der "Biomasse" quantitativ erfaßt werden kann. Unbekannte oder undurchschaubare Systemelemente können (vorübergehend oder ständig) in einer "Black Box" untergebracht werden. Es genügt vielfach zu erkennen, wie sich eine solche Einheit verhält, ohne verstehen zu müssen, welches die Ursachen für ihr Funktionsgefüge sind und wie die Reaktionen im Einzelnen ablaufen. (Wer kann schon den Prozessor eines täglich genutzten Computers analysieren, reparieren oder nachbauen?)
Die Art der Wechselwirkungen charakterisiert jede Ebene innerhalb eines hierarchisch geordneten Systems. In dem Zusammenhang ist es wichtig zu erkennen, daß Auswahl (Selektion) primär eine Materieeigenschaft, sekundär eine Systemeigenschaft ist. Die in der biologischen Forschung vielfach geäußerte Meinung, eine Funktion sei die Folge einer Form, gilt bereits für die Ebene der Elementarteilchen und erst recht für alle übergeordneten Struktureinheiten. Komplementarität als ein Erkennungsmerkmal gewinnt mit zunehmender struktureller Komplexität zunehmend an Bedeutung. Somit lassen sich auch die nachfolgend aufgeführten Sachverhalte als Teilantworten zur Analyse des Gesamtsystems verstehen und an entsprechender Stelle einordnen.
Was ist Wissenschaft?
Wissen beruht auf einer Akkumulation von Informationseinheiten durch Leistungen menschlicher Intelligenz, eine Wissenschaft ist eine Sammlung von Wissen zu bestimmten, vorher gestellten Fragen. Die Art der Fragen bestimmt die Art der Antworten. Diese wiederum können sich zu einer Überlebenshilfe für alle entwickeln, die an der Nutzung des Wissens teilhaben können. Weil ein solcher Nutzen evident ist (und schon seit Beginn der menschlichen Kulturgeschichte erkennbar war), entwickelten sich kulturelle Traditionen, von denen Wissenschaftsgeschichte nur einen kleinen Teil ausmacht.
Zu den Erkennntnissen der Wissenschaft gehört die Aussage, daß die Biologie (die Wissenschaft vom Leben) sich mit einem historischen Prozeß (der organismischen Evolution) auseinanderzusetzen hat. Alle Lebenserscheinungen sind daher nur als Glieder eines solchen Algorithmus zu verstehen. Es gibt in der Biologie keine absoluten Probleme, stattdessen gibt es eine unmeßbar große Zahl an raum- und zeitgebundenen Ereignissen, die in der Summe als Leben beschrieben werden können. Über die Bedeutung eines einzelnen Ereignisses für die zukünftige Entwicklungen können daher keine allgemeingültigen Regeln aufgestellt werden.
Naturwissenschaftliche Aussagen beruhen auf der Auswertung statistischer Wahrscheinlichkeiten. Sie können sehr exakt sein, wenn man es mit so großen Zahlenwerten wie der Loschmidtschen Zahl zu tun hat, durch die die Anzahl der Partikel genannt wird, die in einem Mol einer Substanz enthalten sind: 6,025 x 1023. Chemie und Physik werden daher landläufig als sogenannte "exakte Wissenschaften" klassifiziert. Diese Zuordnung hat durchaus seine Berechtigung, denn die Nutzung der gewonnenen Erkenntnisse wurde zur Grundlage all dessen, was wir unter dem Begriff Technik zusammenfassen. Es ist unzweifelhaft, daß die Nutzung der Technik den Lebensstandard und die Lebensdauer von Menschen drastisch erhöht hat und ihn vor den Unbillen der Naturgewalten weitgehend schützt. Im Verlauf der Evolutionslinie, die zur Entstehung des Menschen geführt hat, entwickelten sich zunehmend intellektuelle Fähigkeiten. Der Mensch lernte, sich selbst zu verstehen, ein Bewußtsein zu entwickeln und seine Stellung in Beziehung zu anderen Menschen ständig neu zu definieren. Aus diesem Problemkreis heraus entstanden die für menschliche Gesellschaften verbindlichen Verhaltensnormen (Gebote, Verbote, Richtlinien, Moral, Ethik....). Da alle diese Regeln nur auf Konsens- und Erfahrungsentscheidungen beruhen, stellen sie in sich keine absoluten Maßstäbe dar. Stattdessen sind sie vielfach die Ursache der stetigen, oft kontrovers geführten Konflikte zwischen einzelnen Menschen (oder Gruppen von Menschen) und der Gesellschaft (Stichworte: Macht, Diktatur, Krieg).
Wissenschaftsgeschichte
P. SITTE hat 1991 in einem Aufsatz, in dem er die Bedeutung der Zelle hervorhebt, dargelegt, daß die Wege der Biologie bisher überwiegend vom Komplexen zum Elementaren gingen. Das ist leicht nachvollziehbar, denn es sind komplexe Dinge, die der Mensch mit seinen Sinnen wahrnimmt. Er versucht zunächst, sich in seiner Umwelt zurechtzufinden, und erst nachdem er über genügend Information verfügt, bemüht er sich um Klärung von Ursachen. Im Gegensatz dazu verlief die biologische Evolution vom Einfachen zum Komplexen. SITTE hebt hervor, daß es der Mehrzahl der Menschen gar nicht bewußt sei, wie umfangreich unser Wissen über biologische Vorgänge bereits ist.
E. MAYR wies in vielen seiner Aufsätze darauf hin, daß die größte Leistung biologischer Forschung in diesem Jahrhundert die Erkenntnis der "Einheit der Biologie" sei. Anders gesagt, wir können alle Erkenntnisse in einem System unterbringen, in dem es Platz für alle Erscheinungen des Lebens gibt.
Der Erkenntnisgewinn in der Biologie begann mit alltäglichen Beobachtungen, es folgte deren Kategorisierung sowie die Nutzung der Erfahrung. Regelmäßig wiederkehrende Strukturen und Ereignisse wurden katalogisiert, womit die Basis für die Grundlagenwissenschaft Philosophie gelegt war. Die Philosophie ist eine Geisteswissenschaft, weil die Erkenntnisse auf intellektuellen Leistungen beruhen. Sie erhebt den Anspruch, Allgemeingültiges zu erfassen und das Erkannte in einem vernünftigen, nachvollziehbaren Rahmen zu ordnen.
Eine Anzahl von Phänomenen, mit denen der Mensch anfangs konfrontiert war, ließ sich zunächst jedoch nicht ohne weiteres einordnen oder vorherbestimmen. Man glaubte an Naturgötter, denen man ausgesetzt war und von deren Wohlwollen das eigene Leben und das der Mitmenschen abhängig war. Es entwickelte sich ein Glaube an göttliche (undurchschaubare) Entscheidungen, doch mit zunehmendem Wissen über Naturereignisse und dem Wissen mit diesen fertigzuwerden, konzentrierte sich das Unwissen auf die Frage, was der Mensch sei, was Leben sei, die Seele, das Bewußtsein, Individualität, Leben nach dem Tode u.a. Antworten hierauf konnte nur noch ein Gott geben, der als ein Abbild des Menschen verstanden wurde. Der Glaube an einen Gott rechtfertigte die Formulierung eines Verhaltenskodex (Moral, Ethik, Gebote, Gesetze…..) als Voraussetzung eines Zusammenlebens von Menschen nicht-gleicher Abstammung (d.h. von Menschen, die nicht einem Familienclan angehörten).
In der Entwicklung der Geisteswisenschaft kam es zu einer Kategorisierung von Entscheidungen (Grundlagen hierzu legten schon die Vorsokratiker) und letzlich damit auch zur Entstehung logischen Denkens (wenn - dann, und - oder, wahr - nicht wahr). Mit diesem Rüstzeug war es nunmehr möglich, die eigene Umgebung "naturwissenschaftlich" zu erforschen, d. h. vorher ausgedachte Experimente durchzuführen, um zu überprüfen, ob sich die Natur tatsächlich so verhält, wie man es sich gedacht hat. Die Erfolge blieben nicht aus. Erst wurden die Regeln der nicht-lebenden Umwelt - weitgehend - entschlüsselt. Die Erkenntnisse ließen sich in die Praxis umsetzen und zusammenfassend in die Wissenschaftskategorien Mathematik - Physik - Technik einordnen. Versuche, das Wesen lebender Organismen zu entschlüsseln, führte - zunächst und auf Erfahrungen aufbauend -, unmittelbar zu angewandten Wissenschaften (Medizin, Landwirtschaft....). Grundlagenwissen folgte erst anschließend unter Ausnutzung des Basiswissens der Physik (sowie der Chemie, der Physik der äußeren Elektronenhülle).
Die biologische Wissenschaft gliederte sich aus der Medizin aus. Die Vielzahl der Arten wurde in ein System gebracht, den Höhepunkt erreichte diese Betrachtung im 18. Jahrhundert unter C. v. LINNÉ. Die von ihm aufgestellten Postulate gelten auch heute noch. Es wurden darüberhinaus die Strukturen und die Gestalt von Lebewesen beschrieben und klassifiziert (Anatomie und Morphologie). Das geschah im 18., besonders gründlich aber erst im 19. Jahrhundert. Man bediente sich spezieller Werkzeuge - die allerdings auch schon die Mediziner des Altertums kannten: Skalpell, Schere, Pinzette etc. Einen großen Fortschritt brachte die Entdeckung und Entwicklung des Mikroskops. Zwar schon im 17. Jahrhundert entdeckt und angewandt, erreichte sein Nutzen im 19. und 20. Jahrhundert seine Höhepunkte. Der Einsatz neu konstruierter Geräte erlaubte es, Lebenserscheinungen zu messen und zu analysieren. Das sich entwickelnde Wissensgebiet war und ist die Physiologie.
Das Wissen über Vererbung ist nahezu so alt wie die Menschheitsgeschichte. Systematisch betriebene Landwirtschaft beruhte auf der Auswahl und der regelmäßigen Wiederaussaat selektierter Kulturpflanzen. Das Inzestverbot - ein frühes Beispiel angewandter Genetik - beruhte auf der Beobachtung, daß nicht nur positive Eigenschaften weitervererbt werden, sondern daß sich bei Inzucht [bei Säugetieren weit verbreitet und Ursache der schnellen Evolution dieser Organismengruppe - einschließlich der dadurch bedingten hohen Artaussterbequote] zunehmend negative Eigenschaften akkumulieren. Der Zölibat von Priestern ging - nach DARLINGTON (in "Die Entwicklung des Menschen und der Gesellschaft": Econ, 1971) - von der Erkenntnis aus, daß es für die Tradierung des Glaubens besser sei, auf die Etablierung weltlicher Herrschaftsdynastien zu verzichten.
Der Einzug der Molekularbiologie
Das 20. Jahrhundert gilt unter Biologen als das Jahrhundert der Vererbungslehre oder Genetik, wobei - ziemlich genau - die erste Hälfte als die Epoche der klassischen Genetik, die zweite Hälfte als die der molekularen Genetik anzusehen ist.
Jetzt erst kann man retrospektiv versuchen, die Bedeutung der Molekulargenetik für das Verständnis von Leben zu erkennen und zu würdigen. Einen ersten - vorschnellen - Nachruf auf die Molekulargenetik verfaßte einer seiner Pioniere: G. S. STENT im Jahre 1968 (erschienen in der Science: 160, 390): "That was the molecular biology, that was". STENT hebt die Bedeutung der "Informational School" für die Begründung dieser Wissenschaftsdisziplin hervor. Dieser School gehörten anfangs nur sehr wenige Wissenschaftler an, von denen meiner Meinung nach M. DELBRÜCK wohl als der Herausragendste anzusehen ist. Den besten Überblick über die Geschehnisse in dieser Epoche bietet "Phage and the Origins of Molecular Biology " (J. CAIRNS, G. S. STENT, J. D. WATSON eds.: Cold Spring Harbor, 1966).
STENT unterscheidet zwischen einer romantischen, einer dogmatischen und schließlich einer akademischen Phase der Molekularen Genetik. Als "Last Frontier" biologischer Forschung erkennt er nur die Aufklärung des höheren Nervensystems an. Hierbei geht es um die Beziehung zwischen "mind and matter" und damit auch um Probleme, die so alt wie die Menschheit sind: "...most ancient, and best known paradoxes in the history of human thought".
DNS > RNS > Protein und Proteine wiederum katalysieren Stoffwechselwege.
Das wärs dann. und damit könnte man die Molekulare Genetik / Molekularbiologie als ein Paradigma im KUHNschen Sinne abtun.
Anfang der siebziger Jahre entwickelte der Göttinger Biophysiker M. EIGEN die Hyperzyklustheorie. Sie stellt meines Erachtens den wichtigsten Meilenstein zum Verständnis des Phänomens Leben durch Einsatz von molekularbiologischen Erkenntnissen dar. Die Voraussetzung der Theorie ist die Feststellung, daß alle Zellen Proteine und Nukleinsäuren enthalten und daß es eine "Selbstorganisation der Materie" gibt. Nukleinsäuren sind Träger genetischer Information. Diese wird genutzt, um die Synthese bestimmter Proteine zu instruieren, und die wiederum dienen primär dazu, sicherzustellen, daß die benötigte (selektierte) genetische Information möglichst fehlerfrei auf nachfolgende Generationen übertragen wird. Die Reaktionsfolge ist durch einen Hyperzyklus zu beschreiben, mit dem gleichzeitig eine Wachstums- und Vermehrungsfunktion verknüpft ist. Das Durchlaufen eines Zyklus muß schneller als die Zerfallsrate der einzelnen molekularen Komponenten sein. Das wiederum ist an Material- und Energieverbrauch gekoppelt. Zusammenfassend erhält man ein (offenes) System mit den alles entscheidenden Eigenschaften lebender Systeme. Die Stabilität des Systems hängt vom Vorhandensein geeigneter (sehr kleiner) Reaktionsräume (Kompartimente) ab, um dem Verlust notwendiger Komponenten durch Diffusion oder der Konkurrenz durch benachbarte Hyperzyklussysteme zu entgehen. Es entstand damit zwangsläufig die in der Biologie übliche Dichotomie zwischen Innen (Leben) und Außen (Umwelt). Weitere Einzelheiten zur Entwicklung komplexerer lebender Systeme siehe
Unabhängig davon faßte der britische Biologe R. DAWKINS 1976 in seinem Buch "The Selfish Gene" (Oxford Univ. Press) seine Vorstellungen über Erkenntnisse der Molekularen Genetik zusammen und legte dar, daß Gene (im weitesten Sinne verstanden) die inherente Tendenz besitzen sich zu vermehren und daß alles was im Verlauf der Evolution um sie herum aufgebaut worden ist (Stoffwechsel, Zellen, vielzellige Lebewesen, Verhaltensweisen, menschliche Kultur und Ethik) ausschließlich darauf ausgerichtet ist, dafür zu sorgen, daß die eigenen Gene an nachfolgende Generationen weitergegeben werden. Jeder denkbaren Gefahr und unüberschaubaren Risiken gegenüber sind Menschen daher a priori skeptisch eingestellt.
Was zeichnet die Molekulare Genetik heute aus?
Zunächst: Man spricht nicht mehr von Molekularer Genetik, sondern von Molekularbiologie. Man befaßt sich nicht nur mit Viren und Bakterien, sondern mit allen Zelltypen, so auch mit Zellen des Menschen. Die Medizinische Forschung hatte und hat spektakuläre Erfolge aufzuweisen, obwohl es immer noch kein Allheilmittel gegen Krebs oder AIDS gibt und die scheinbar überwundenen Gefahren der Infektionskrankheiten erneut akut werden. Man kennt aber die Gründe, weshalb es Universalheilmittel nicht geben kann. Man hat gelernt, mit Variabilität fertigzuwerden. Genetische Information ist nicht eine Information von absolutem Wert, sondern jede Informationseinheit (Gen) unterscheidet sich von jeder anderen. Man hatte bis 1996 über 40 Millionen Nukleotidpositionen bestimmt [in großen Datenbanken wie der EMBL-Datenbank in Cambridge gespeichert. Das Update und der Abgleich mit den vergleichbaren Datenbanken in den USA und Japan erfolgt täglich] und man weiß, daß die Gene spezifisch sind und daß sie im Verlauf der Evolution auseinander hervorgegangen sind. Es gibt deshalb nicht nur unter Organismen, sondern auch unter Genen Verwandtschafts- und Abstammungsbeziehungen. Man kann nicht nur organismische Individuen voneinander unterscheiden und deren Nachkommenschaft testen. Man kann auch einzelne Gene (=DNS-Molekülabschnitte) gezielt isolieren, vermehren und ihre Wirkung in lebenden Zellen testen. MULLIS erhielt den Nobelpreis für die Entwicklung eines derartigen Klonierungsverfahrens (PCR-Methode).
Es interessiert nicht mehr allein die Aussage: DNS macht RNS macht Protein, sondern man ist bemüht zu erkennen, welche Gene zu einem gegebenen Zeitpunkt (der Entwicklung) in das Zellgeschehen eingreifen und welchen Stellenwert ihre Aktivität im Stoffwechsel der Zelle und für das Zusammenwirken der Zellen in einem vielzelligen Organismus hat.
Regelung und Repression
Ein wichtiges Kriterium lebender Systeme ist die Regulation ihrer Aktivitäten. Der Wirkungsmechanismus eines jeden geregelten Systems ist der Regelkreis und eine seiner wichtigsten Elemente ist die negative Rückkopplung. Das ist die Unterdrückung oder Repression des Vorgangs, sobald er "seine Pflicht" getan hat. Es muß daher alles geschehen, um Energie und Ausgangsmaterial nicht nutzlos zu verschwenden oder unnütze Produkte entstehen zu lassen. Es muß deshalb auch verhindert werden, daß vorhandene genetische Information unentwegt genutzt wird. In einem Vielzeller sind in den einzelnen spezialisierten Zellen nur wenige der vielen vorhandenen Gene aktiv. Regulation und Repression wirken damit uneingeschränktem Wachstum entgegen. Wachstum (Vermehrung) allein ist nämlich mit keinem Selektonsvorteil verbunden, da es beim Ausbleiben notwendiger Ressourcen unvermittelt zum Abbruch kommt. Im Verlauf der Evolution haben sich daher auch zwei Vermehrungsstrategien herausgebildet: die r-Strategie und die weiter entwickelte K-Strategie (E. O. WILSON: "Sociobiology - The new synthesis" Cambridge, Mass.: Harvard Univ. Press, 1975): r-Strategie beschreibt ungehemmte Vermehrung, K-Strategie eine Vermehrungsrate, die sich an der Kapazität des Lebensraums orientiert.
Zum Verständnis der skizzierten Prozesse eignen sich Analogievergleiche mit anderen informationsspeichernden Systemen, sofern bei den jeweils notwendigen Transaktionen logisch nachvollziehbare Entscheidungen zum Zuge kommen. Das Genom einer Zelle z.B. ist mit einer Bibliothek vergleichbar. Nicht alle vorhandenen Bücher werden regelmäßig genutzt, manche öfter als andere. Wertvolle Bücher dürfen nur in den Räumen der Bibliothek genutzt werden, auch DNS darf den Zellkern nicht verlassen. Wenn die Information außerhalb des erlaubten Raums (Kompartiments) benötigt wird, werden Kopien angefertigt: In der Bibliothek früher durch Abschreiben, heute durch Photokopieren. In der Zelle: immer durch Bildung von messenger RNS - die darf / muß den Zellkern verlassen, damit im Cytosol Protein gebildet werden kann. Viele der Bücher in einer Bibliothek werden jahre- oder jahrzehntelang nicht genutzt, vielleicht sogar nie. Jede Bibliothek verfügt daher über weit mehr Bücher als der einzelne Benutzer benötigt. Mit den Genen, bzw. DNS-Abschnitten in der Zelle verhält es sich nicht anders. Jede Zelle besitzt in ihrem Genom ein Vielfaches der effektiv benötigten genetischen Information. Organismen verfügen über wirkungsvolle Mechanismen zum Schutz vor überschüssiger genetischer Information. Mehr dazu siehe unter:
Über Generationen (das kann in die Millionen von Jahren gehen) werden diese ggf. nicht benötigt. Doch oft ändern sich die äußeren Bedingungen derart, daß sie nunmehr in gleicher oder abgewandelter Funktion benötigt werden. Die Evolution (vielzelliger) Organismen beruht letztlich auf effizienter Nutzung vorhandener Information und nicht auf Neuentstehung von Genen aufgrund von Mutationen. Gene wechseln im Genom (im Verlauf von Generationen) vielfach ihre Position, womit sich auch der Wert ihrer Information ändern kann. Auch in Bibliotheken werden die Bestände von Zeit zu Zeit umgeordnet und Bibliotheksordnungen werden gelockert, um neue Nutzungsmöglichkeiten zu erschließen.
Änderung der Genomstruktur heißt Gentechnik und die Natur macht ausgiebig Gebrauch davon. Ohne Gentechnik würde es z. B. das Immunsystem als wirkungsvollstes Abwehrsysten gegenüber Fremdzellen (Tumorzellen, eindringenden Bakterien, Pilzen, Amöben, aber auch Viren) nicht geben. M. COHN (The Salk Institute for Biological Studies, La Jolla/Cal.) formulierte 1968 das Aufgabengebiet der sich gerade entwickelnden Wissenschaftsdisziplin Immunologie als "Molecular Biology of Expectation" (in "Nucleic Acids in Immunology, O. J. PLESCIA, W. BRAUN eds. Berlin-Heidelberg: Springer-Verlag).
Die Genomveränderungen durch heute tätige Wissenschaftler (Gentechniker) spielen im Vergleich zur natürlich vorkommenden Gentechnik eine nur marginale Rolle. Zumindest jetzt noch. - In der Öffentlichkeit hingegen spielt die Diskussion um diese Experimente eine sehr große Rolle, weil man unerwartete und unkontrollierbare Reaktionen aufgrund von Eingriffen in das Erbgut befürchtet (siehe hierzu auch: "The selfish gene") und
Die Gentechnik ist heutzutage die wohl wirkungsvollste Methode zur Gewinnung von Grundlagenwissen. Interessanterweise hat sich das expermentelle Arbeiten weitgehend auf eine Standardmethode in den Laboratorien konzentriert. die Gelelektrophorese. Sie anzuwenden ist langweilige Routinearbeit. Das Verfahren erlaubt jedoch die Klärung eines weiten Spektrums intelligent formulierter Fragen. So können Moleküle aufgrund ihrer Größe, Form oder ihrem Ladungsmuster voneinander unterschieden werden, aktive können von inaktiven getrennt werden. Man kann definitiv feststellen, aus wie vielen Untereinheiten ein aktives Makromolekül zusammengesetzt ist, man kann sehen, ob eine Präpation nur einen oder mehrere Molekültypen enthält, ob sie sauber ist oder Verunreinigungen enthält. Je nachdem, woher man die Probe nimmt, kann zwischen individueller Variation und Variation innerhalb eines Entwicklungszyklus unterschieden werden, Mutanten sind leicht auffindbar, die Anzahl unterschiedlicher Proteine / Zelle kann ausgezählt werden und selbst die Sequenzierung von Nukleinsäurebasensequenzen beruht ausschließlich auf der gelelektrophoretischen Trennung ungleich langer Moleküle.
Gentechnisches Arbeiten ist sehr arbeitsintensiv und verschluckt zunehmend größere Finanzmittel. Da Methodik und Fragestellungen inzwischen weitgehend standardisiert sind, ist mit einem kontinuierlichen Strom neuer Daten zu rechnen.- Aber führt das zu echtem Fortschritt, zu einem Paradigmenwechsel im KUHNschen Sinne? - Ich möchte das verneinen. Man bewegt sich auf der gleichen Komplexitätsebene. Molekularbiologische Forschung ist somit vergleichbar mit dem Forschungsaufwand in einem Automobilwerk. Es werden immer wieder neue Typen präsentiert und die Vorteile gegenüber den Vorgängermodellen und denen der Konkurrenz hervorgehoben. Richtig ist, daß Bequemlichkeit, Sicherheit und Energieverbrauch stetig optimiert werden. Dennoch bleibt die ursprüngliche Aufgabe eines Fahrzeugs unangetastet, nämlich Personen und Ware von A nach B zu transportieren.
Diese Aussage darf jedoch nicht den Wert und die Bedeutung von Detailarbeiten an und von Systemelementen innerhalb eines Systems herabsetzen. Die Aussage, jede Kette sei nur so stark wie ihr schwächstes Glied, trifft für lebende und für technische Systeme gleichermaßen zu. Ein toxisch wirkendes Molekül, wie das Kohlenmonoxyd reduziert "nur" die Kapazität von Hämoglobin, Sauerstoff zu binden. Doch der in den Körperzellen dadurch entstehende Sauerstoffmangel führt zu einem schnellen Tod des Organismus. Wäre das an einer bestimmten Stelle verwendete Dichtungsmaterial bei Challenger-Mission im Jahre 1984 auch bei niederen Temperaturen dehnbar, wäre es nicht zu der Katastrophe gekommen. Wäre die Software zur Steuerung der Ariane 5 -Rakete im vergangenen Jahr sorgfältiger programmiert worden, hätte es nicht zur Sprengung der gestarteten Rakete kommen müssen.
Die Wahrscheinlichkeitsrechnung erlaubt es, Fehlerquoten quantitativ zu erfassen. Wie fragwürdig das Verfahren jedoch sein kann, belegte der amerikanische Physiker R. P. FEYNMAN als Mitglied der Kommission, die vom Präsidenten der USA zur Aufkärung der Challenger-Katastrophe eingesetzt wurde: Er fand, daß die am NASA-Projekt beteiligten Techniker zwar Wahrscheinlichkeiten wie 10-5 benennen, jedoch keine Vorstellungen darüber entwickeln konnten, wie dieser Wert zustande gekommen ist, unter welchen Randbedingungen er gültig ist, und was er in Wirklichkeit bedeutet (R. P. FEYNMAN: "Kümmert Sie, was andere Leute denken?" München: Piper, 1991).
Das Gehirn - Ein Informationsspeicher
Das Gehirn entstand im Verlauf der Evolution der Tiere durch Akkumulation von Nervenzellen (Neuronen). Das sind spezialisierte Zellen, welche die Aktivitäten der übrigen Zellen des Organismus koordinieren. Die Koordination und damit der Einfluß der Neuronen nimmt mit steigender Evolutionshöhe zu. Ansammlungen von Neuronen sind die Ganglien, aus denen sich in der Entwicklungslinie der Wirbeltiere das Gehirn entwickelt hat. Durch Neuronen werden nicht nur die stereotypen Bewegungen und Bewegungsabläufe koordiniert, sondern es werden auch Sinneseindrücke verrechnet und mit einer Reaktion beantwortet. Das Gehirn sammelt und speichert Informationen und koordiniert somit spezifische Verhaltensmuster (Konditionierung, Prägung, Lernen, Intelligenz).
Diese Leistungen sind u.a. von der Zahl der Zellen in Relation zu den übrigen Körperzellen abhängig. Man kann das Verhältnis von Gehirngewicht zu Körpergewicht angeben und erhält für Mammalia (Säugetiere) einen Durchschnittswert von 10 g Gehirnmasse zu 1 kg Körpergewicht, das Affengehirn ist gegenüber den übrigen Mammalia etwa 2-3 mal schwerer, bei den Menschenaffen steigt der Anteil der Gehirnmasse noch weiter und beim Menschen beträgt der Wert im Vergleich zu den Menschenaffen etwa das Doppelte des Gehirnmassengewichts in Relation zum Körpergewicht.
Der dadurch bedingte "Überfluß" an Neuronen und damit verbunden auch neuronaler Verknüpfungen wird für qualitativ und quantitativ neuartige Leistungen benötigt und drückt sich direkt oder indirekt in intellektuellen Leistungen aus. Wie diese zu bewerten sind, stellt nicht nur ein wissenschaftliches, sondern auch ein brisantes gesellschaftliches Problem dar. Genetische Konstitution ebenso wie Umwelteinflüsse (Ernährung, Anforderung der Umwelt, Lernen, Erziehung....) beeinflussen das Leistungsspektrum.
Wir wissen inzwischen, daß logische Entscheidungen anders als Gesamteindrücke verarbeitet werden. Bilder, die im linken Gesichtsfeld erscheinen, werden mit der rechten Hirnhemisphäre wahrgenommen und umgekehrt. Die Sprache - das primäre Kommunikationsmittel des Menschen - wird vornehmlich durch die "dominante" linke Hirnhemisphäre gesteuert, auch logische Entscheidungen werden vorwiegend dort getroffen. Die rechte Hemisphäre hingegen dient primär der Raumwahrnehmung und Mustererkennung; emotionale Handlungen, Gefühle, Mimik, Vergnügen u.a. werden dort verarbeitet.
Im menschlichen Gehirn gespeicherte Informationen können verschiedenartig verknüpft werden. Sachverhalte lassen sich vergessen. Prüfungswissen landet im Kurzzeitgedächtnis und wird nach bestandener Prüfung meist gelöscht. Ungenutztes Wissen verkümmert, es bleibt jedoch ggf. im sogenannten Unterbewußtsein und ist daher schwer zugänglich (Gedächtnislücken, man erinnert sich nur langsam und / oder stückweise an lang zurückliegende Ereignisse).
Der Computer - ein Modell des Gehirns?
Wer gewinnt die derzeitige Schachrunde, KASPAROW oder "Deep Blue"? [Antwort nachgetragen am 12-05-1997: "Deep blue"]
Bekannt ist: Computer sind Informationsspeicher, Geräte zur Verarbeitung von Informationen, sie sind schnell und dumm (nicht-intelligent). Durch Software können sie zu spezifischen Leistungen programmiert werden. Computer sind keine Lebewesen, sie können sich nicht vermehren und zeigen keine Gefühle, sie reagieren nicht auf Flüche ihrer Benutzer, sie vergessen nie, sie können nicht einmal träumen. Man kann Computer jedoch abschalten. Die im Speicher (Festplatte..u.a.) gesammelte Information bleibt dennoch erhalten und steht beim Einschalten wieder voll zur Verfügung des Menschen. Während der Abschaltphase wird keine Energie (Strom) verbraucht. Die Lebensdauer der Festplatte (Sicherheit der Information) erreicht zumindest Jahrzehnte (?).
Computertechnologie beruht auf Siliziumbasis. Silizium bildet kristalline molekulare Strukturen hoher Regelmäßigkeit aus. Die strukturelle Fehlerrate liegt unterhalb der Nachweisbarkeitsgrenze. Organismische Strukturen hingegen sind auf Kohlenstoffbasis konstruiert. Kohlenstoffverbindungen gehen schwache Wechselwirkungen ein. Jede dieser Bindungen ist extrem schwach mit kurzer Halbwertszeit (Bruchteile von Sekunden). Biologie ist daher die "Chemie" der schwachen Wechselwirkungen. Auf ihre hohe Zahl kommt es an. Sie bilden sich ebenso schnell wie sie sich lösen. Trotzdem entstanden in Organismen stabile Strukturen: Makromoleküle (Katalysatoren und Informationsspeicher), supramolekulare Strukturen (Membranen, Ribosomen....), Zell-Zell-Interaktionen und somit große vielzellige Organismen (Wal, Elephant, Dinos....). Biologische Strukturen sind im Gegensatz etwa zu Computerchips niemals untereinander identisch, auch wenn gleichartige Einheiten einen hohen Ähnlichkeitsgrad untereinander aufweisen können. Je höher der Komplexitätsgrad einer Struktur ist, desto deutlicher treten die Unterschiede zwischen den Einheiten einer Gruppe zutage.
Die Lebensdauer von Molekülen und auch Makromolekülen wird durch die thermische Bewegung begrenzt. Sie müsssen daher ständig neu synthetisiert werden. Leben und Stillstand sind daher nicht miteinander vereinbar. Zellen und Vielzeller haben daher nur eine begrenzte Lebensdauer. Sie sind zeitlebens auf Energiezufuhr angewiesen. Ein Abschalten des Gehirns (für wenige Sekunden) führt zu irreversiblen Schäden bzw. zum Tod des Organismus. Im Gehirn gespeicherte Informationen (Erfahrungen....) sind damit irreversibel verloren. Es sei denn, sie werden auf andere, im Verlauf der Menschheitsgeschichte entwickelte Medien (Steingravur, Papyrus, Abschriften, Buchdruck, elektronische Medien) ausgelagert, damit der Menschheit erhalten und an nachfolgende Generationen weitervererbt. Die Kontinuität sichert Tradition und kulturellen Status und bildet die Basis für das, was wir Lebensqualität und / oder Fortschritt nennen.
Wer gewinnt nun das Schachspiel? Die Statistik sagt, wieviele Möglichkeiten "Deep Blue" in den 3 min Bedenkzeit ausprobiert. Er braucht nicht einmal alle theoretisch denkbaren Züge durchzurechnen, denn die bisher von Menschen gespielten Partien sind ihm vorher einprogrammiert worden. Das hilft. Menschliche Erfahrung überspielt formale Logik.
Doch wie arbeitet das menschliche Gehirn: In einem Aufsatz von J. GROLLE und J. SCRIBA (Der Spiegel 18, 1997) ist der Sachverhalt im Zusammenhang mit dem hier angesprochenen Beispiel ganz gut beschrieben:
…Genau zehn Jahre dauert es, so haben die Psychologen errechnet, bis im Hirn jene 100.000 "Wissens-Chunks" (geistige Operationen, Makrooperationen) verschaltet sind, die nötig sind für Spitzenleistungen auf einem Spezialgebiet.
Dann ist der Experte fähig, ein komplexes Problem in wenigen Makroschritten schnell und intelligent zu lösen. Die Gedanken des Laien hingegen verheddern sich in unzähligen Einzelschritten.
Selbst menschliche Blitzrechner, die innerhalb weniger Sekunden die Wurzeln hundertstelliger Zahlen ziehen können, vollführen nicht mehr Rechnungen pro Sekunde als ein durchschnittlicher Abiturient. Vielmehr jonglieren sie mit vorgefertigten Zahlenpaketen, die sie in jahrelangem Programmtraining gebündelt haben und nun als Ganzes abrufen.
Nicht anders ist es bei Schachspielern. Eindrucksvoll belegt dies ein einfaches Experiment: Die Forscher zeigten Großmeistern fünf Sekunden lang eine komplizierte Stellung aus einer Turnierpartie. In fast allen Fällen erinnerten sich die Schach-Cracks anschließend an die Position sämtlicher Figuren. Laien hingegen konnten selten mehr als sechs oder sieben richtig auf dem Brett plazieren.
Doch der Vorsprung der Profis schmolz dahin, als sie mit einer willkürlichen Verteilung von Figuren auf dem Brett konfrontiert wurden. Der Möglichkeit beraubt, die Bauernstellung, den Königsflügel oder die offenen Linien als Ganzes zu erfassen und so das Spiel in wenige "Chunks" zu zergliedern, schnitten sie bei Gedächtnistests kaum besser ab als ein Schach-Anfänger.
Aus einem Zeitungskommentar (geschrieben von Großmeister M. WAHLS, Hamburger Abendblatt, vom 5.5.97) nach der ersten Niederlage von "Deep Blue" über dessen Züge:
"Auf diesen Zug würde kein Mensch kommen, fast jeder andere wäre besser". [zu einer anderen Situation schrieb KASPAROW: "Die Maschine wußte es besser. Sie war auf eine Variante gestoßen, die der Mensch nie gefunden hätte" (Spiegel 18, 1997)]
"..Eine Entscheidung, die sich im nachhinein als falsch erwies, jedoch vielversprechend aussah. Die letzte Konsequenz aus diesem Vorstoß konnte der Computer aber nicht berechnen. Dafür reichten 36 Milliarden Stellungsbewertungen in drei Minuten einfach nicht aus".
Um Unterschiede zwischen menschlicher und künstlicher Intelligenz aufzudecken oder um künstlicher Intelligen beizubringen, wie Menschen denken, muß man sich auf die Art der Fehler konzentrieren, die beide Systeme machen. Nur wenn ein "Gegner" Fehler begeht, ist es möglich seiner Arbeitsweise auf die Spur zu kommen. Der große Erfolg der Genetiker bestand und besteht in der Nutzung und Analyse von Mutanten, also Organismen mit fehlerhafter genetischer Information. Der Erfolg der Computertechnologie beruht auf der Erkenntnis, daß sowohl Computer als auch Menschen logische Denkansätze verwenden.
Das Spiel KASPAROWs gegen "Deep blue" ging für ihn verloren. Doch ist künstliche Intelligenz dadurch zum Sieger über menschliche geworden?. Die Antwort ist ein klares Nein! Beide Seiten bedienten sich gleicher Techniken. Nicht allein logische Entscheidungen waren der Maßstab, auch Erfahrungen zählten. KASPAROW mit seinen Beratern und seinen Computern standen die gleichen Informationsquellen zur Verfügung wie den Programmierern von "Deep blue", nämlich das Wissen über die Konstellationen aller bekannten Turnierspiele. Der Mensch bedient sich dieses Wissens in bewertender Weise, der Computer rechnet. Der Mensch kann und muß ad hoc Entscheidungen treffen, das menschliche Gehirn hat sich im Verlauf der Evolution so entwickelt, daß es unter Einbeziehung aller physiologischen Funktionen des Körpers optimal auf alle extern vorhandenen Herausforderungen reagieren kann. Um gesellschaftlichen Maßstäben zu genügen, muß man sich bestimmten Kriterien (Normen) unterwerfen, denen man gewachsen ist oder die man besiegen kann. (Bestehen von Prüfungen, Gewinn in Spielen aller Art, Erfolge aller Art).
In den Kommentaren zum verlorenen Turnier von KASPAROW wurden alle von Menschen denkbaren Alternativen vorgetragen. Es wurde deutlich, wie wichtig Emotionen waren. KASPAROW wurde durch "Deep Blue" der Möglichkeit beraubt, seinem Gegenüber in die Augen zu schauen (um so dessen Reaktionsvermögen in Bruchteilen von Sekunden zu testen und in die eigene Entscheidung einbeziehen zu können). Der "Sieger" dieses Turniers ist in Wirklichkeit das Wissen um die Konstellationen bisher gespielter Spiele, das dem Rechner in einer emotionslosen Weise eingegeben wurde und das er mit gleicher Präzision verarbeitete zum erforderlichen Zeitpunkt preisgab. Letztlich ging es dabei nur darum, wer seine Datenbank am effizientesten geordnet und genutzt hat. Das know how einer Person kam bei diesem Turnier ins Hintertreffen, weil Emotionen (und Vorurteile) ihn von der maximalen Ausnutzung seiner Fähigkeiten ablenkten. Aber: Intelligenz bedeutet nicht nur, mit einer Spezialsituation fertigzuwerden, sondern sich mit der Gesamtheit aller von außen auf ein Individuum einwirkenden Aktionen fertigzuwerden. "Deep blue" kann nach seinem Sieg nicht feiern, denn das Preisgeld teilen sich die Programmierer untereinander auf oder anschließend zum Fußballspielen gehen und kennt daher auch nicht die "Ängste des Torwarts vom Elfmeter".
Facit: Im Verlauf der Evolution wurde nicht auf Maximalleistung getrimmt, sondern auf optimale Überlebensstrategien ("The selfish gene"). Dem "Menschen" wird von "Laien" immer vorgeworfen, er sei eine Fehlkonstruktion der Evolution, viele Tiere könnten besser laufen, sehen, springen, schwimmen, viele Naturvölker kämen mit ihrer Umwelt besser zurecht als ein vollelektronisch und mit allen übrigen Hilfsmitteln der Technik ausgerüster Experte, viele Menschen - vor allem jüngere - kämen mit ihrer Umwelt nicht zurecht und flüchten sich ins Drogenmilieu. - Alles scheinbar richtig, aber alles sind nur Teilantworten, die nur in bestimmten Umgebungen einen Sinn ergeben können.
Das menschliche Gehirn hat sich nicht entwickelt, damit bestimmte, von Menschen erdachte Vorgaben gelöst werden. Schließlich sind auch die Regeln eines Schachspiels (und aller anderen Spiele) jedermann geläufig, vor allem aber von Menschen erdacht, um andere zum Mitspielen zu veranlassen. Siege gibt es allein deshalb, weil es zu gesellschaftlichem Ansehen und zu gesellschaftlich honorierter Stellung führt (= man ist besser als der Andere oder die Anderen)
Wenn schon über Zahlen bei Rechnern gesprochen wird, wäre es auch "interessant" zu wisssen, welche Werte bei menschlichen Denkprozessen erforderlich sind. So könnte man z. B. die Frage formulieren wie viele Kalium-, Natrium- und Chloridionen die Membranseiten der direkt und indirekt beteiligten Neuronen mit ihren Fortsätzen pro Denkeinheit (wie zu messen?) wechseln. - Die Beantwortung dieses sicherlich skurril klingenden wissenschaftlichen Problems übersteigt unsere experimenten Möglichkeiten und ist eigentlich sogar uninteressant, denn der gemessene Wert würde sich nur auf ein bestimmtes Einzelereignis beziehen und keine Allgemeingültigkeit besitzen.
Zu den aufwendigen Gegenwartsprojekten gehört die Aufklärung (Sequenzierung) des menschlichen Genoms. Die Aufgabe wird wahrscheinlich früher gelöst werden als es zu Projektbeginn vorausgesagt wurde. Trotzdem bleibt die Frage: Von welchem Menschen wurde das Genom sequenziert? Was zeichnete sein Genom aus um repräsentativ als Durchschnittsgenom aller Menschen zu stehen?
Wie ist das molekular-genetische Paradigma historisch einzuordnen, wie ist es in die gesamte aktuelle Wissenschaft und Philosophie einzuordnen?
Ist Molekulare Genetik überhaupt ein Paradigma? Nach T. KUHN sind bestimmte zu einem gegebenen Zeitpunkt gültige Sachverhalte (und Theorien) als Paradigmen zu klassifizieren. Fortschritt wäre demnach der Austausch eines Paradigmass durch ein anderes. Und echter Fortschritt wäre deshalb eine Aufeinanderfolge von Revolutionen.
E. MAYRs Aussage "Einheit der Biologie" beschreibt die aufgrund der Evolutionsforschung der letzten 150 Jahre gewonnene Erkenntnis, daß Leben ein Kontinuum sei, daß genetische Information von einer Generation zur nächsten weitergegeben wird und daß einmal ausgestorbene Arten nie wieder entstehen können. Revolutionen sind da nicht zu erkennen.
Unzweifelhaft ist aber auch, daß sich im Verlauf der Evolution neue Hierarchieebenen oder Komplexitäts-, bzw. Organisationsstufen entwickelt haben, die man wie folgt reihen kann:
Molekül > Makromolekül > Supramolekulare Komplexe > Zellen > Vielzeller.
Man kann also von Stufen und damit verknüpfter Höherentwicklung sprechen. Zur Erforschung einer jeden dieser Stufe haben sich im Verlauf der Wissenschaftsgeschichte spezielle Wissenschaftsdisziplinen entwickelt. Für die Molekulare Genetik / Molekularbiologie ist primär die Stufe "Makromoleküle" von Interesse, doch das Revolutionäre an der Molekularen Genetik ist ihre Beschäftigung mit Information (speziell genetischer Information). Weil Information eine existenzielle Bedeutung für alles, was mit Leben zu tun hat, sind experimentell belegte und durch Analysen bestätigte Aussagen über die Informationsspeicherung, Informationsweitergabe, Informationsnutzung u.a. der Nukleinsäuren von allgemeingültiger Natur. Bemerkenswert ist die Feststellung, daß die Molekulare Genetik nicht von dem Personenkreis begründet wurde, die "von Fach wegen" dazu prädestiniert gewesen wären. Zum engeren Kreis der Pioniere gehörten weder Chemiker noch Biologen (auch keine "klassischen Genetiker"), vielmehr sind die Wurzeln in der Physik zu suchen: M. DELBRÜCK war Kernphysiker (einst Mitarbeiter von L. MEITNER), S. LURIA war Mediziner, wichtige Ideen entstammen dem richtungsweisenden Werk"What is life?" des aus Österreich emigrierten Physikers E. SCHRÖDINGER (Cambridge Univ. Press 1944, Nachdruck 1969)
Die Summe aller Ergebnisse der Molekularbiologie muß als ein Paradigma ("Paradigma des Gens", siehe folgenden Abschnitt) angesehen werden. Die Erkenntnisse können zu einer Theorie zusammengefaßt werden, die durch alle bislang erfolgten Untersuchungen gestützt wird. Wie jede naturwissenschaftliche Theorie zeichnet sie sich durch ihre potentielle Falsifizierbarkeit aus. - Nur, das ist experimentell bisher nicht gelungen und es sieht nicht so aus, als käme es dazu. Denn je mehr Ergebnisse eine Theorie stützen, je enger die Maschen in dem Netzwerk der Knotenpunkte und Interaktionen wird, desto unangreifbarer wird sie. Auch diese Aussage bezieht sich auf eine Erfahrung aus der Systemtheorie, die besagt, daß die Stabilität eines Systems mit der Zahl seiner Komponenten und ihrem Verknüpfungsgrad untereinander zunimmt und damit auch gegenüber Störungen unanfälliger wird. Beispiele hierfür gibt es in lebenden Systemen mehr als genug.
Im März 1997 erschien in der Nature Biotechnology (10, 194) ein ausführlicher Kommentar von R. C. STROHMANN (University of California, Berkeley) mit dem Titel "The coming Kuhnian revolution in biology" . Er zitiert Aussagen von A. WILKINS, daß es in der Biologie eigentlich nie eine Revolution im KUHNschen Sinne gegeben habe. STROHMANN hingegen meint, daß man die Arbeiten von MENDEL, DARWIN und WATSON-CRICK als solche bewerten müsse. Er hebt hervor, daß es für Biologen schwierig sei, sich den Kriterien der Paradigmenannahen von T. KUHN (entwickelt für die Physik) zu unterwerfen, weil biologische Forschung auch ohne sie funktioniert hat und daß überhaupt kein Bedarf für einen Paradigmenwechsel (eine neue Theorie des Lebens) gesehen wird. Ihm erscheint allerdings illegitim, das Paradigma des Gens unmittelbar auf ein Paradigma des Lebens zu übertragen, weil lebende Systeme nicht ausschließlich durch genetische Information determiniert werden, sondern sich in einem Wechselspiel zwischen zahlreichen internen und externen Faktoren (epigenetischen Einflüssen) entwickeln. Als Beispiel nennt er Unterschiede in der Organisation des menschlichen und des Mausgenoms, die sich nicht in der Form und Funktion bei beiden Arten wiederfinden. Letztlich kommt er aber auch zu dem Schluß, daß Lebenserscheinungen im Sinne der Systemtheorie unter dem Gesichtspunkt eines Netzwerks gesehen werden müssen, in dem den Genen nur eine bestimmte Ebene zukommt. Sie haben nicht nur die Aufgabe einer Prozeßsteuerung, sondern sind Glieder eines Regelkreises, dessen Stellglieder externe Faktoren (epigenesche Einflüsse) sind. Folglich entsteht ein offenes System. - Doch das ist nichts Neues.
"Even small cells are complex" schrieb J. D. WATSON in seinem Lehrbuch "Molecuar Biology of the Gene" 1975. Man kann sich so oder auch mit anderen Worten ausdrücken. Richtig ist, daß wir es in der Biologie mit einem hohen Grad an Komplexität zu tun haben und alle Mittel einsetzen müssen, die Phänomene des Lebens zu analysieren und zu einem Gesamtbild zusammenzusetzen.
"….the biologist does not use distinctively biological tools: He is an opportunist who employs a nuclear magnetic resonance spectrometer, a telemetry assembbly, or an airplane equipped for infrared photography, depening on the biological problem he is attacking…."
Diese Sätze aus dem Werk "Biology and the Future of Man", herausgegeben von P. HANDLER, erarbeitet im Auftrag der National Academy of Sciences der USA setze ich heute ans Ende meines Essays. Früher hatte ich diesen Satz an den Anfang meiner Versuchsanleitung zum Anfängerpraktikum: Arbeitsmethoden und Fragestellungen in der Biologie gestellt. Mehr dazu
Hamburg, den 10-05-1997, mit Nachtrag vom 13-05-1997,