PhilosophiePhilosophie

01 2013

Klaus Mainzer :
Leben als Maschine?

aus Heft 1/2013

Der Schlüssel zum menschlichen Ich, so meldet die Presse, ist bald vollständig auf einem kleinen USB-Stick untergebracht, der nach Belieben in einen menschenähnlichen (humanoiden) Roboter einsetzbar oder im Internet manipulierbar ist. Die übrigen Lebewesen dieses Planeten finden sich ebenfalls auf winzigen Datenträgern wieder, die patentierbar und auf dem freien Markt käuflich sind. Firmen spekulieren auf Gewinne mit entsprechenden Aktien, denn davon hängen die menschliche Ernährung und medizinische Versorgung, kurzum die Grundlagen unseres Lebens ab. Der gläserne Mensch und die gläserne Natur – Science-Fiction und bloß Horrorszenario? Keineswegs. Es ist eine mögliche Welt von morgen, die sich heute bereits wissenschaftlich und technisch abzeichnet. Daher müssen wir heute bereits darüber nachdenken, was wir wissenschaftlich wissen, technisch können und ethisch verantworten wollen.

Leben als Maschine ist spätestens seit der Renaissance eine wirkungsmächtige Metapher, die Menschen fasziniert und erschreckt hat. Ob Zellen, Organe und Organismen tatsächlich als Maschinen verstanden werden können, hängt vom angenommenen Maschinenbegriff ab. Die eigentliche Frage, die sich hinter der Maschinenmetapher verbirgt, zielt aber auf die Berechenbarkeit des Lebens ab. Gibt es Gesetze und Gleichungen wie in der Physik, mit denen Lebensvorgänge berechnet, erklärt und prognostiziert werden können? Seit den Anfängen der Biologie schienen Lebensvorgänge nur qualitativen Beschreibungen und Klassifizierungen zugänglich zu sein. Das hat sich mit den neuen Methoden der Biomathematik, Biophysik und Bioinformatik gründlich geändert. In der Systembiologie entwickelt sich Forschung in der Wechselwirkung von in vitro-, in vivo- und in silico-Experimenten. Gemeint sind Computersimulationen (mit in Silikon gefassten Programmen) von hochkomplexen Wechselwirkungen in Molekülen, Zellen, Organen und Organismen, die ohne Computertechnik nicht erfasst werden könnten.

Wenn bereits das Leben einfachster Organismen über Jahrhunderte von der Berechnung ausgeschlossen zu sein schien, so traf das umso mehr für die komplexen Vorgänge des menschlichen Körpers, des Wahrnehmens, Denkens, Fühlens und Handelns zu. Auch hier hat sich die Situation verändert. Robotik und KI-Forschung schicken sich an, mit Gehirnforschung und Neuropsychologie technische Systeme mit kognitiven Leistungen zu entwickeln. Einerseits dienen sie der Simulation biologischer und psychologischer Prozesse, andererseits werden aber für technische und kommerzielle Zwecke andere Wege als in der biologischen Evolution beschritten. Ob es sich um kognitive Maschinen oder Organismen handelt, ist letztendlich wieder nur eine Frage der Definition. Gelegentlich heißt es bereits, dass Technik der nächste Schritt der Evolution sei.

Was ist die treibende Kraft, die hinter der Maschinenmetapher steht und getrennte Wissenschaftsdisziplinen wie Physik, Chemie, Biologie, Neuro- und Kognitionswissenschaften zusammenwachsen lässt? Keine Technologie hat wohl in den letzten 50 Jahren derart eindringlich Wissenschaft und Gesellschaft verändert wie die Computer- und Informationstechnologie. Angetrieben wurde diese Dynamik von einem rasanten Wachstum der Rechenkapazitäten, einer rasanten Miniaturisierung der Rechnerbauteile (von Röhren und Transistoren zu Nanoelektronik und Quantencomputing), einer rasanten Globalisierung der Informationssysteme und einer rasanten Automatisierung der Gesellschaft bei gleichzeitiger Verbilligung immer kleinerer und leistungsfähigerer IT-Systeme. Nach dem Mooreschen Gesetz verdoppelte sich die Leistung von Rechenmaschinen alle 18 Monate.


Seit der Entschlüsselung des menschlichen Genoms 2001 zeichnet sich eine noch größere Beschleunigung von Sequenziermaschinen ab, die in immer schnellerer Zeit immer mehr Gene für immer weniger Geld identifizieren und berechnen. Die Gentechnik, so frohlockt bereits die Branche, wird die Informatik hinter sich lassen und sich mit einem Faktor zehn pro Jahr entwickeln. Automatische DNA-Sequenzierungsgeräte wurden zum ersten Mal vor 15 Jahren vorgestellt und konnten inzwischen zu Höchstleistungsmaschinen mit einer Sequenzierungsleistung von rund 500 000 Basenpaaren pro Tag weiterentwickelt werden. Die mit diesen Sequenzierungsapparaten ausgestatteten internationalen Genomforschungszentren des Genomsequenzierungskonsortiums schaffen in Computernetzen eine Sequenzierungsleistung von 172 Millionen Basen pro Tag oder 2000 Basen pro Sekunde. Der damit verbundene Preisverfall ist bereits absehbar: Kostete die Sequenzierung eines Genoms im Jahr 2000 noch drei Milliarden Dollar, so liegt der Preis 2009 bei 50 000 Dollar und wird nach Schätzung von Experten in den nächsten zehn Jahren auf unter 1000 Dollar sinken. Genome mit der vollständigen genetischen Information eines Menschen werden auf USB-Sticks für wenig Geld zur Verfügung stehen.

Das Genomprogramm, das mit der Zusammenstellung der menschlichen Gene 2001 einen vorläufigen Höhepunkt erreichte, war ein reduktionistischer Forschungsansatz, der durch immer größere Rechenleistungen immer kleinere Bausteine des Lebens entschlüsselte. Nun stehen wir in der Systembiologie vor einer unvergleichlich schwierigeren Aufgabe: Wie lässt sich aus der enormen Datenflut über einzelne Komponenten das biologische Gesamtsystem der Zellen, Organe und Organismen erschließen? Riesige Genkarten über alle genetischen Wechselwirkungen und komplexe Stoffwechselnetzwerke sind in Computermodellen zu entschlüsseln, um komplexe Systemfunktionen wie Regulation, Kontrolle, Steuerung und Adaption in Wachstumsprozessen und der Evolution zu verstehen. Die „gläserne“ Zelle mit ihren Schaltplänen wird neue Möglichkeiten der genetischen Beeinflussung von Krankheiten (wie z. B. Krebs und Herzkreislauferkrankungen), aber auch Rückschlüsse auf den Alterungsprozess erlauben. Ohne Computermodelle von Zellen, Organen und Organismen mit enormen Rechenleistungen wird diese Hürde nicht zu nehmen sein.

In einem nächsten Schritt liefert die Systembiologie die Blaupausen für die Synthetische Biologie: Hier geht es dann um die Erschaffung neuer Lebensformen. Wenn nämlich die Funktion biologischer Systeme wie z. B. Zellen und Bakterien durchschaut ist, dann sollte es auch möglich sein, aus verschiedenen Biomolekülen neue Module und Netzwerke mit speziellen Eigenschaften zu konstruieren. Künstliches Leben war bisher nur als Software in der Informatik bekannt. Bereits Ende der 1950er Jahre hatte der amerikanische Computerpionier John von Neumann mathematisch bewiesen, dass zelluläre Automaten sich als schachbrettartige Muster selbst reproduzieren können. John Conway baute diesen Ansatz zum Game of Life (Spiel des Lebens) aus, wonach sich Darwins Evolutionsregeln in einem Computerprogramm simulieren lassen. In der Synthetischen Biologie wird aber aus der Software „Wetware“, d. h. neues organisches Leben. Craig Venter, der Pionier des Genomprogramms von 2001, glaubt bereits an die Konstruktion von Bakterien, die Wasserstoff produzieren und damit helfen, das Energieproblem der Menschheit zu lösen. Immerhin spricht auch die Nationale Akademie der Wissenschaften (Leopoldina) in einer gemeinsam mit der DFG und der deutschen Akademie für Technikwissenschaften (acatech) veröffentlichten Stellungnahme davon, dass die Synthetische Biologie „ein großes Potenzial eröffnet, neue Impfstoffe und Medikamente, aber auch Kraftstoffe und neue Materialien zu entwickeln“. (Presseerklärung vom 27. Juli 2009)

Biomoleküle, Zellen, Organe, Organismen und Populationen sind hochkomplexe dynamische Systeme, in denen viele Elemente wechselwirken. Komplexitätsforschung beschäftigt sich fachübergreifend in Physik, Chemie, Biologie und Ökologie mit der Frage, wie durch die Wechselwirkungen vieler Elemente eines komplexen dynamischen Systems (z. B. Atome in Materialien, Biomoleküle in Zellen, Zellen in Organismen, Organismen in Populationen) Ordnungen und Strukturen entstehen können, aber auch Chaos und Zerfall. Allgemein wird in dynamischen Systemen die zeitliche Veränderung ihrer Zustände durch Gleichungen beschrieben. Der Bewegungszustand eines einzelnen Himmelskörpers lässt sich noch nach den Gesetzen der klassischen Physik genau berechnen und voraussagen. Bei Millionen und Milliarden von Molekülen, von denen der Zustand einer Zelle abhängt, muss auf Hochleistungscomputer zurückgegriffen werden, die Annäherungen in Simulationsmodellen liefern. Komplexe dynamische Systeme gehorchen aber fachübergreifend in Physik, Chemie, Biologie und Ökologie denselben oder ähnlichen mathematischen Gesetzen. Daher liefern sie einen Schlüssel zur Komplexität der Welt.

Die universellen Gesetze komplexer dynamischer Systeme sind der Rahmen für weitere Forschung. Die Grundidee ist immer dieselbe: Erst die komplexen Wechselwirkungen von vielen Elementen erzeugen neue Eigenschaften des Gesamtsystems, die nicht auf einzelne Elemente zurückführbar sind. So ist ein einzelnes Wassermolekül nicht „feucht“, aber eine Flüssigkeit durch die Wechselwirkungen vieler solcher Elemente. Einzelne Moleküle „leben“ nicht, aber eine Zelle aufgrund ihrer Wechselwirkungen. In der Systembiologie ermöglichen die komplexen chemischen Reaktionen von vielen einzelnen Molekülen die Stoffwechselfunktionen und Regulationsaufgaben von ganzen Proteinsystemen und Zellen im menschlichen Körper. Wir unterscheiden daher bei komplexen dynamischen Systemen die Mikroebene der einzelnen Elemente von der Makroebene ihrer Systemeigenschaften. Diese Emergenz oder Selbstorganisation von neuen Systemeigenschaften wird in der Systembiologie berechenbar und in Computermodellen simulierbar. In diesem Sinn ist die Systembiologie ein Schlüssel zur Komplexität des Lebens.

Von mechanischen Systemen wie einer Uhr sind wir gewohnt, dass ein Zahnrad ins andere greift und so alle Abläufe durch genaue Festlegung der Reihenfolge (Sequenz) der Einzelschritte geregelt werden. Im Zeitalter der Mechanik des 17. und 18. Jahrhunderts stellte man sich in dieser Weise auch Organismen als perfekte „lebende“ Automaten vor. Konsequenterweise musste ein genialer Ingenieurgott angenommen werden, der alle diese komplizierten Automaten nach einem Masterplan („intelligent design“) gebaut hatte. Tatsächlich genügt es nach den Gesetzen komplexer dynamischer Systeme, dass einzelne Elemente mehr oder weniger zufällig zusammentreffen, wechselwirken und dadurch neue Systemeigenschaften erzeugen, die auf der Mikroebene der einzelnen Systemelemente noch nicht absehbar sind. Es bedarf also keines zielorientierten „intelligent design“. Manche Systemeigenschaften sind der jeweiligen Systemumgebung angepasst und setzen sich durch, andere zerfallen wieder und werden ausgesondert. Dieses Zusammenspiel von Zufall und Selektion bei der Entstehung von Neuem wurde erstmals von Charles Darwin am Beispiel der biologischen Evolution der Arten entdeckt. Es handelt sich um universelle Eigenschaften komplexer dynamischer Systeme, die daher auch in technischen Systemen Anwendung finden können. Wir sprechen dort von genetischen und evolutionären Algorithmen.
In der Tradition mechanischer Automaten wurden zunächst Roboter gebaut, deren Bewegungsabläufe genau festgelegt waren. In einer komplexen und sich ständig verändernden Umwelt können aber nicht alle Eventualitäten in einem Programm berücksichtigt werden. So ist Gehen eine komplexe körperliche Selbstorganisation, weitgehend ohne bewusste Zentralsteuerung. Ähnlich bewegen sich Laufroboter einen leichten Abhang hinunter, nur angetrieben durch Schwerkraft, Trägheit und Stöße, also körperliche Wechselwirkung ohne Programmsteuerung. Komplexe Bewegungsmuster werden in der Natur nicht zentral gesteuert und berechnet, sondern organisieren sich dezentral mit rückgekoppelten neuronalen Netzen. Bewegungswissen wird in unbekanntem Gelände gelernt und – learning by doing – in neuronalen Netzen gespeichert. Neuronale Netze sind Beispiele für komplexe dynamische Systeme aus einzelnen Nervenzellen, die neurochemisch durch Botenstoffe (Neurotransmitter) wechselwirken und Verhaltensmuster als Systemeigenschaften erzeugen.

Roboter müssen sich also mehr oder weniger selbstständig anpassen lernen und neue Situationen einschätzen können. Die steigende Komplexität unserer Welt erfordert immer größere Grade der Autonomie und Selbstorganisation. Beim Einsatz von Robotern in der Raumfahrt wird unmittelbar klar, dass wir ihre Reaktionen z. B. auf dem Mars wegen der langen Signalgeschwindigkeit nicht direkt von der Erde aus steuern können. Aber auch ein Industrie- und Alltagsroboter (z. B. in einer Küche) wird selbstständig und schnell auf neue Situationen reagieren müssen. Das Ein- und Ausräumen einer Spülmaschine beispielsweise ist von einer enormen Komplexität, die nicht durch deterministische Sequenzen von Einzelbefehlen in einem Roboter vorprogrammiert werden kann. Pflegeroboter in einer immer älter werdenden Gesellschaft müssen zudem sensibel mit Menschen umgehen lernen.

Dazu werden Roboter mit sensorischen, motorischen und neuronalen Fähigkeiten ausgestattet, die im Laufe von Experimenten Erfahrungen sammeln, Verhaltensmuster und kognitive Fähigkeiten ausbilden. Die japanische Industrie will bis 2015 humanoide Roboter entwickelt haben, die wie Menschen laufen und greifen. Bis 2020 sollen sie mit Menschen im Team selbstständig arbeiten und umgehen können. Das setzt ein sensibles und autonomes System voraus, das eine Vorstellung entwickeln kann, wie mit Menschen umzugehen ist. Roboter werden immer komplexere Aufgaben bewältigen müssen, die wir Menschen in jedem einzelnen Schritt nicht mehr kontrollieren, aber am Ende (hoffentlich) wenigstens verantworten können. In diesem Sinn werden Roboter ein Schlüssel zur Komplexität der Technik sein.

Auch in der klassischen KI-(Künstlichen Intelligenz)Forschung glaubte man lange Zeit, den menschlichen Geist quasi mechanisch in Programmbefehlen vollständig abbilden zu können. Viele umfangreiche und komplizierte Programmabläufe z. B. in der Industrie bei der Steuerung einer Produktionsstraße wurden so erfolgreich realisiert. Wegen der dabei verwendeten Programmzeilen aus formalen Symbolen sprechen wir auch von der symbolischen KI. Es wäre aber eine Illusion, in dieser Weise alle geistigen Fähigkeiten des Menschen erfassen zu wollen. Dahinter steht der alte Glaube, wonach Geist und Maschine wie Körper und Geist in Software und Hardware geschieden sind und es nur noch darauf ankommt, alle geistigen Fähigkeiten in einem Programm aufzuschreiben.

Bereits die Anatomie des Gehirns zeigt den grundlegenden Unterschied zum Aufbau eines Computers. Das menschliche Gehirn ist wieder ein Beispiel für ein komplexes dynamisches System, in dem Milliarden von Neuronen neurochemisch wechselwirken. Durch vielfach versendete elektrische Impulse entstehen komplexe Schaltmuster, die mit kognitiven Zuständen wie Denken, Fühlen, Wahrnehmen oder Handeln verbunden sind. Die Entstehung (Emergenz) dieser geistigen Zustände ist wieder ein typisches Beispiel für die Selbstorganisation eines komplexen Systems: Das einzelne Neuron ist quasi „dumm“ und kann weder denken oder fühlen noch wahrnehmen. Erst ihre kollektiven Wechselwirkungen und Verschaltungen unter geeigneten Bedingungen erzeugen kognitive Zustände.

Das Gehirn alleine reicht aber nicht. Die Entwicklungspsychologie zeigt uns nämlich, dass unsere mentalen und kognitiven Fähigkeiten wesentlich durch unseren Körper geprägt sind, der in der Evolution entstanden ist. So können Säuglinge und Kleinkinder bereits durch Greifen mit den Händen, Hören mit den Ohren, Sehen mit den Augen, Lecken und Schmecken mit Zunge, Mund und Lippen Objekte (z. B. Spielsachen, Essen und Trinken) unterscheiden, bevor sie gelernt haben, sie sprachlich zu benennen. Wir haben anschauliche Vorstellungen und emotionale Vorlieben (Präferenzen), Sympathien und Antipathien, die unser Handeln unbewusst leiten und selten sprachlich ausgedrückt, geschweige denn in einem Computerprogramm repräsentiert werden können. Es braucht einen Körper, damit sich Intelligenz entwickeln kann. Wir sprechen von „körperlicher“ Intelligenz (embodied intelligence). Erst durch Anfassen und Wahrnehmung der Umgebung und durch Handeln in dieser sich verändernden Umgebung entsteht Intelligenz.

Durch Interaktion über Körper wird es auch erst möglich, andere und ihre Absichten zu verstehen und daran das eigene Verhalten entsprechend auszurichten. Traditionell wurde diese Fähigkeit in der Philosophie als Intentionalität erörtert. In der medizinischen Forschung untersucht die Theory of Mind (ToM), was geschieht, wenn die dabei zugrunde liegenden neuronalen Areale außer Kraft gesetzt werden. Ursachen können Gehirnverletzungen durch Unfälle, aber auch Demenzen sein, die fast allen Menschen in immer älter werdenden Gesellschaften drohen. Folgen sind der Verlust von Menschlichkeit und Empathie, letztlich jeder Fähigkeit zu sozial einfühlsamen Verhalten und Verantwortung. Weitere Beispiele der Psychiatrie und Psychosomatik liefern Schizophrenien, depressive Erkrankungen und Borderline-Persönlichkeitsstörungen.

Auch Roboter haben ihren je eigenen Körper, mit dem sie ihre Erfahrungen und damit ihre Art von Intelligenz entwickeln, die nicht die unsrige sein muss. Wir sprechen von „körperlicher“ KI (embodied AI). Auch andere Lebewesen haben im Lauf der Evolution ihre eigenen Intelligenzformen entwickelt. Intelligenz entsteht also durch Bewältigung von Komplexität in der jeweiligen Systemumwelt. Nach der hier vertretenen Arbeitshypothese ist also Intelligenz nicht notwendig mit z. B. Bewusstsein wie bei uns Menschen verbunden, sondern mit der Fähigkeit zur Problemlösung. Grade der Intelligenz hängen ab von den Graden der Komplexität der jeweils zu lösenden Probleme. Wir Menschen sind offenbar hybride Systeme mit vielen Fähigkeiten, die sich im Lauf der Evolution keineswegs notwendig so entwickeln mussten. In diesem Sinn ist Künstliche Intelligenz ein Schlüssel zur Komplexität von Denken, Fühlen und Handeln. Durch Experimente im Labor mit Robotern lernen wir also die Besonderheiten und Unterschiede unserer eigenen Intelligenz kennen: „Erkenne Dich selbst!“ Diese Forderung des Sokrates wird heute in den Labors der KI und Robotik experimentell umgesetzt. In diesem Sinn wird KI ein Schlüssel zum menschlichen Ich.

Im Kern der Debatte um Körperlichkeit (embodiment) des menschlichen Geistes und der Robotik steht also die Einsicht, dass sich in einem kognitiven System ablaufende Prozesse anders als in der klassischen KI nicht losgelöst von den körperlichen Gegebenheiten des Systems, seiner situativen Einbettung in seiner Umgebung und seiner dynamischen Interaktion mit der Umgebung verstehen lassen. Diese These lässt sich von einzelnen Robotiksystemen auf die globalisierte Internet-Welt übertragen. Auch hier wurde traditionell zwischen der physischen („realen“) und der virtuellen Welt strikt unterschieden. Stattdessen handeln z. B. Ärzte und Ingenieure unterstützt durch virtuelle Geräte in einer physisch realen Welt. Bei einer Operation dient eine virtuelle Darstellung des Organs mit genauen Informationen und Messdaten dem präzisen Eingriff. Statt „Virtual Reality“ spricht man daher von „Augmented Reality“, also einer Erweiterung der physischen Welt durch den Einsatz von Geräten mit virtueller Realität. Eine technische Schlüsselrolle spielen dabei mechatronische Systeme, in denen mechanische und elektronische Systeme mit zugehöriger Sensortechnik integriert werden. Damit kann das Internet in einem Netzwerk interagierender Geräte, Dinge und Menschen „verkörperlicht“ werden: Die Dinge nehmen sich selber sensortechnisch wahr und werden von uns Menschen wahrgenommen und manipuliert. Man spricht bereits vom Internet der Dinge.

Steuerungssysteme, die z. B. in modernen Automobilen und Flugzeugen implementiert sind und aus einer Vielzahl von Sensoren und Aktoren bestehen, entsprechen keineswegs einer strikten Trennung von Dingen der physischen Welt und der Computerwelt. Die Informatik spricht von „Cyberphysical Systems“, die ihre physische Umgebung erkennen, diese Informationen verarbeiten und die physische Umgebung auch koordiniert beeinflussen. Hierzu ist eine starke Kopplung von physischem Anwendungsmodell und Computer-Steuerungsmodell nötig. Dabei handelt es sich um integrierte Gesamtzustände von interagierenden menschlichen Gehirnen, weitgehend autonomen Informations- und Kommunikationssystemen und physischen Dingen und Geräten.

Die Körperlichkeit der menschlichen Intelligenz zeigt aber auch, dass die Natur nicht wie ein Computer rechnet. Weder „rechnen“ Moleküle noch Zellen, Muskeln, Organe oder Organismen. Das ist nur eine – wenn auch wirkungsmächtige – Metapher. In diesem Sinn „ist“ der Mensch keine (Rechen-)Maschine, wie ein berühmter Buchtitel des französischen Arztes und Philosophen La Mettrie im 18. Jahrhundert verkündete: L’homme machine („Die Mensch Maschine“)! Tatsache ist aber auch, dass noch so komplexe molekulare, zelluläre und neuronale Wechselwirkungen auf Computern mit wachsender Rechenkapazität simuliert werden können. Die Systembiologie macht es uns auf der molekularen und zellulären Ebene vor. Auch ein neuronales Netz nach dem Vorbild des Gehirns wird heute auf einem Computer simuliert.

Dahinter steht die starke These der Logiker und Mathematiker Alan Turing und Alonzo Church, wonach jeder Algorithmus durch eine universelle Turingmaschine, das logisch-mathematische Konzept jeder Rechenmaschine, simuliert werden kann. Erkenntnistheoretisch steht uns mit dem Konzept der universellen Turingmaschine ein Instrument zur Verfügung, mit dem sich unabhängig von dem jeweiligen technischen Entwicklungsstandard von Computern prinzipiell die Komplexität dynamischer Prozesse (d. h. ihre „logische Tiefe“) bestimmen lässt. Bereits Kurt Gödel (als Logiker) und Richard Feynman (als Physiker) dachten daran, Prozesse der Natur als Rechenverfahren zu verstehen. An die Stelle von elementaren Rechenschritten mit Symbolen, aus denen sich effektive Verfahren in der Mathematik zusammensetzen, treten allerdings z. B. Quantensprünge von Elementarteilchen, elementare chemische Reaktionen mit Molekülen, das Ein- und Abschalten von Genen, zelluläre Zustandsänderungen oder Spannungsänderungen in technischen Schalteinheiten. Auch Zufallsänderungen (z. B. Mutationen) lassen sich in nichtdeterministischen Turingmaschinen berücksichtigen. So werden selbst stochastische Prozesse durch probabilistische Maschinen (z. B. Boltzmann-Maschine als probabilistisches Netzwerk) erfasst. Allgemein entsprechen Berechenbarkeitsgrade auf Computern unterschiedlichen Komplexitätsgraden der Natur.

Was die technischen Entwicklungsstandards von Computern betrifft, so erleben wir nach dem Mooreschen Gesetz eine rasante Steigerung von Rechenkapazitäten, die immer neue komplexe dynamische Systeme der Natur erschließen. Nach Kurt Gödels Unvollständigkeitssatz kann es zwar prinzipiell keinen Supercomputer geben, der alle Aufgaben lösen und entscheiden kann. Die Rechenkapazitäten zur Simulation des menschlichen Gehirns oder anderer zellulärer und organischer Systeme sind aber abschätzbar und dann auf dem Computer simulierbar. Das heisst nicht zwangsläufig, dass wir bereits in den nächsten Jahren z. B. die Dynamik menschlichen Fühlens und Denkens simulieren können. Prinzipiell ausschließbar ist es aber nicht und Teilaspekte sind bereits erfasst. Rechenkapazität allein reicht allerdings nicht. Wir müssen die Prozesse auch verstehen, um Computermodelle entwickeln zu können.

Gelegentlich wird bereits von einer technischen Ko-Evolution gesprochen. Ob man diese Bezeichnung als Metapher abtun mag oder nicht: Jedenfalls sind wir Menschen längst dabei, uns und unsere Umwelt zu verändern und umzubauen. Das begann vor vielen Jahrtausenden mit Tier- und Pflanzenzucht und setzt sich über Bio- und Gentechnologie bis zur Stammzellenforschung, Synthetischen Biologie oder medizinischen Implantations- und Prothesentechnik fort. Vieles davon beunruhigt uns und fordert zu ethischen Regulationen auf. Wir sollten uns aber auch nicht der Eigendynamik und dem Zufallsspiel der Evolution ausliefern. Die Evolution ist nach Darwin keine Harmonieveranstaltung, in der am Ende alles gut wird. Die Dynamik von Viren, Krebs und anderen Krankheiten, der Ablauf des Alterungsprozesses und damit verbundene soziale Herausforderungen sprechen eine deutliche Sprache. Zur Würde des Menschen gehört die Möglichkeit, selbstbestimmt in seine Zukunft eingreifen zu können. Es sollte daher in unserer Hand liegen zu entscheiden, wer wir sind, was wir bleiben und was wir an Künstlicher Intelligenz und Künstlichem Leben neben uns brauchen und dulden wollen.

UNSER AUTOR:

Klaus Mainzer ist Inhaber des Lehrstuhls für Philosophie und Wissenschaftstheorie und Direktor des Munich Center for Technology in Society an der Technischen Universität München. Von ihm erschien u. a. „Leben als Maschine? Von der Systembiologie zur Robotik und Künstlichen Intelligenz“ (Mentis 2010).

_____

EUROPÄISCHE UNION

Die EU will auf die Ethikkommission bei Tests am Menschen verzichten

Laut Richtlinie 2001/20 EG sind Mediziner verpflichtet, vor Beginn eines klinischen Tests an Menschen eine Ethik-Kommission zu konsultieren. Diese hat zu prüfen, ob der Schutz des Menschen insbesondere beim Test von Medikamenten gewährleistet ist. In der geplanten Überarbeitung der Richtlinie soll nun auf diese Ethik-Kommission verzichtet werden. Zudem wird vermehrt auf den Allgemeinnutzen und weniger auf den Schutz des Einzelnen geachtet. Mit der neuen Richtlinie will die EU-Kommission die Rechtslage innerhalb der EU vereinheitlichen, um den Standort für die Forschung wieder attraktiver zu machen.

Der Entwurf ist auf Widerstand gestoßen. „Neue EU-Regeln für Pillentests gefährden Patienten“ titelt Spiegel Online. „Die Kommission macht sich zum Handlanger der wirtschaftlichen Interessen der Pharmaindustrie“ kritisierte selbst die wirtschaftsfreundliche Frankfurter Allgemeine.
Die Bundesärztekammer, die Vereinigung der Klinikärzte (Marburger Bund), die Arzneimittelkommission der deutschen Ärzteschaft (AkdÄ) sowie der Zusammenschluss der an Ländern und Klinik verankerten Ethikkommissionen kritisieren das Vorhaben.
Dabei, so hebt die Zeit hervor „sollte der Entwurf eigentlich im Interessen der Ärzte sein. Ist doch sein vorrangiges Ziel, klinische Studien, in denen Medikamente oder Geräte und andere medizinische Hilfsmittel am Menschen getestet werden, überall in der Europäischen Union den gleichen Regeln zu unterwerfen. Ein hoffnungslos bürokratischer Prozess soll sich vereinfachen und dem Fortschritt einer um 50 Jahre weiterentwickelten Medizin anpassen.“ Deshalb halte man selbst in Kreisen der Ethikkommissionen die nach außen verkündete Haltung des eigenen Verbands für „maßlos übertrieben“.