ZU|Daily wurde in die Hauptseite in den Newsroom unter https://www.zu.de/newsroom/daily/ integriert. Die neuesten Artikel seit August 2024 werden dort veröffentlicht. Hier finden Sie das vollständige Archiv aller älteren Artikel.
Der gebürtige Würzburger Professor Dr. Hans Ulrich Gumbrecht ist ständiger Gastprofessor für Literaturwissenschaften an die Zeppelin Universität. Er studierte Romanistik, Germanistik, Philosophie und Soziologie in München, Regensburg, Salamanca, Pavia und Konstanz. Seit 1989 bekleidete er verschiedene Professuren für Allgemeine und Vergleichende Literaturwissenschaften der Stanford University. Einem breiteren Publikum ist er bereits seit Ende der 1980er-Jahre durch zahlreiche Beiträge im Feuilleton vor allem der Frankfurter Allgemeinen Zeitung und der Neuen Zürcher Zeitung sowie durch seine Essays bekannt. Darin befasst er sich immer wieder auch mit der Rolle des Sports. Gumbrecht ist bekennender Fußballfan und Anhänger von Borussia Dortmund.
Wenige Protagonisten der globalen Gegenwart stoßen in den moralisch so anspruchsvollen europäischen Medien auf ähnlich geschlossene Ablehnung wie der Facebook-Gründer Mark Zuckerberg und der vor allem als Tesla-Produzent bekannte Elon Musk. Vor einigen Wochen allerdings punktete Musk gewaltig, als er in einer scharf geführten Debatte mit Zuckerberg eine Position vertrat, die innerhalb der sonst so gerne als draufgängerisch-dämonisierten Szene des Silicon Valley außergewöhnlich vorsichtig wirkte. Es ging um die Hochrechnung bestimmter Folgen künstlicher Intelligenz, die uns offenbar näher gerückt sind, seit die Entwicklung aus drei Gründen eine entscheidende Schwelle überschritten hat.
Das ist erstens die Revision eines an die Nachahmung der Struktur menschlicher Intelligenz (und auch des menschlichen Gehirns) gebundenen Selbstverständnisses von künstlicher Intelligenz durch ein neues Konzept, das ausschließlich an der Übernahme und Optimierung von Funktionen menschlicher Intelligenz ausgerichtet ist. Computerprogramme sollen etwa sprachliche Äußerungen verstehen und auf sie reagieren können, auch wenn ihnen dies entlang von Strukturen gelingt, für die es keine Parallelen in unseren Gehirnen gibt. Zweitens die Entwicklung von Programmen, die sich in ihrer eigenen Anwendung weiterentwickeln, also „lernfähig“ sind; und schließlich drittens die weiter steil ansteigende Rechenkapazität der elektronischen Maschinen.
Unter dieser neuen Konstellation ist aus der Utopie oder dem Albtraum einer künstlichen Intelligenz, welche die Leistungen des menschlichen Bewusstseins überbietet, eine Realitätsvorstellung geworden, deren Verwirklichung wir uns täglich weiter nähern – ohne noch zu wissen, wann genau sie sich erfüllen wird. Eben hier liegt die dramatische Schwelle technologischer Entwicklung, wie sie schon der seit Jahrzehnten im Silicon Valley populäre Begriff der „singularity“ anvisiert hatte. Der Gedanke an eine der natürlichen Intelligenz überlegene künstliche Intelligenz kann freilich die Horrorvision von einer Unterwerfung der Menschheit nie ausklammern oder mit überzeugenden Gründen beseitigen.
Soweit der Hintergrund der Debatte zwischen Zuckerberg und Musk. Zuckerberg hatte sich für die Fortsetzung der Arbeit an künstlicher Intelligenz engagiert, weil er an ihr Potenzial zur deutlichen Verbesserung unserer Lebensverhältnisse glaubt. Er glaubt auch an die Bewahrung unserer Kontrollmöglichkeiten. Diese Position wurde – nicht nur in Europa – als „ethisch verantwortungslos“ kritisiert. Musk hingegen nahm die einschlägigen Risiken derart ernst, dass er einen Abbruch der Weiterentwicklung künstlicher Intelligenz forderte – und sein schon vorher propagiertes Projekt einer Menschheitsemigration auf den Mars nun als potenziellen Fluchtweg vor der künstlichen Intelligenz vorstellte. Dafür erntete er weltweit Applaus.
Statt nun entweder die Panik von Musk oder Zuckerbergs Zuversicht mit weiteren Gründen zu stärken, will ich versuchen, zu zeigen, dass sie beide von derselben grundlegenden Möglichkeit moralischer Argumentation ausgehen. Anders formuliert: Realistisch – und nicht bloß optimistisch oder pessimistisch – werden unsere Diskussionen über die Zukunft der künstlichen Intelligenz aber erst dann, wenn wir verstehen, dass wir mit ihnen auf eine grundsätzliche Grenze moralischen Argumentierens stoßen.
Wir kommen dieser Einsicht näher, wenn wir drei Ebenen in den Wirkungen elektronischer Technologie unterscheiden. Erstens die – oft explosive – Ausweitung von menschlichen Verhaltens- und Handlungsmöglichkeiten, wie wir sie in den vergangenen Jahrzehnten schon beständig erlebt haben – und wie sie sich gewiss fortsetzen wird. Die heute selbstverständliche Form globaler Kommunikation war noch um 1990 unvorstellbar. Ebenso eindrucksvoll sind die Fortschritte der Medizin. Das traditionell Gott vorbehaltene Prädikat der Ewigkeit könnte zu einem Teil des menschlichen Horizonts werden.
Von diesem Typ der Technologiefolgen unterscheidet sich der seit der Entzifferung des Genoms nie mehr ganz unterdrückte Gedanke an die Entwicklung intelligenterer und vor allem ethisch höherstehender Menschen, den Peter Sloterdijk unter dem Begriff des „Menschenparks“ zur Sprache gebracht hat. Verbunden mit der Warnung, dass es unverantwortlich wäre, eine solche Chance auf besseres Leben ohne weiteres unter ein Tabu oder gar ein Denk und Forschungsverbot zu stellen. Anders als jene lebensverlängernden Technologien allerdings wären Genmanipulationen wohl unausweichlich mit dem Risiko unumkehrbarer Folgen verbunden. Und dies gilt – drittens und wie schon gesagt – auch für die Entwicklung uns überlegener künstlicher Intelligenzen, auf deren Sympathie für die Menschheit wir besser nicht bauen sollten.
Liegt in dieser Unumkehrbarkeit möglicher Folgen aber nicht der – unschlagbar – stärkste Grund für alle Vorbehalte gegenüber der Arbeit an bestimmten Technologien? Sind wir doch wieder auf die vorsichtigen und global als „ethisch verantwortungsvoll“ gelobte Position von Elon Musk zurückgekommen? Statt diesen Typ des moralischen Vorbehalts zu bestätigen, möchte ich auf eine genau hier verlaufende Grenze des moralischen Argumentierens verweisen. Sie wird sichtbar dank einer These über den Rhythmus menschlicher Evolution, die der französische Naturwissenschaftler und Philosoph André Leroi-Gourhan vor gut einem halben Jahrhundert formuliert hat. Wo immer man chronologisch exakt die Evolutionsschwelle zum Homo sapiens sapiens ansetzen will (vor etwa 200 000 Jahren) und auf der anderen Seite den Beginn der menschlichen Kultur (vor 40 000 bis 20 000 Jahren), Leroi-Gourhans Vorschlag bleibt plausibel, die Kultur als eine beschleunigte Fortsetzung der biologischen und der psychischen Evolution des Menschen und dann die Technologie als eine beschleunigte Fortsetzung der Kultur, anders gesagt: als beschleunigte Fortsetzung der durch Kultur beschleunigten Evolution, anzusehen.
Diese Perspektive weckt erstens Skepsis gegenüber der seit dem 19. Jahrhundert – vor allem seit Hegel und Marx – so tiefen Überzeugung, dass wir Menschen imstande sind, unsere „eigene Geschichte in die Hand zu nehmen“ – und also zu lenken. Sobald wir die (Menschheits-)„Geschichte“ als Fortsetzung der Menschheitsevolution ansehen, legt sich ein ganz anderer Blick über unsere Vergangenheit, da wir die Phasen der Evolution ja gerade nicht als vom Willen und von den Intentionen der Menschen abhängig sehen. Und sollte man nicht tatsächlich jene Prämisse von „Geschichte“ aufgeben, nach der die Menschen immer zu jenen Innovationen gelangen, welche für ihr Leben wichtig und unmittelbar relevant sind? Wäre es nicht besser für das menschliche Leben gewesen, wenn man etwa den Buchdruck viel früher erfunden und die Nuklearenergie nie entdeckt hätte?
Schon im 15. und dann im 20. Jahrhundert hätte sich immerhin aufgrund der jeweils zur Verfügung stehenden Ethik die Frage diskutieren lassen, ob der Buchdruck oder die Nuklearenergie wünschenswert seien. Die Antwort hätte mit einer Vielzahl von Bedingungen zu tun gehabt, die unseren Prognosen zugänglich sind. Sie alle in Rechnung zu stellen und gegeneinander abzuwägen, ist eine komplizierte, aber nicht prinzipiell unlösbare – ethische – Aufgabe.
Demgegenüber haben die Ablösung der Evolution durch Kultur und die Beschleunigung der Kultur durch Technologie zu einem Rhythmus laufender Veränderungen geführt, der das gewachsene Menschenbild unserer Ethik ganz einfach überfordert. Das Problem liegt also nicht allein oder vor allem in möglicherweise irreversiblen Folgen technologischer Weiterentwicklung, sondern in der Erwartung, dass sich wahrscheinlich noch innerhalb der Lebenszeit der nächsten Generation, grundlegende Veränderungen in der menschlichen Existenz vollzogen haben werden, auf die das Menschenbild unserer Ethik einfach nicht vorbereitet ist. Wie sich aus Genmanipulation hervorgehende Menschen oder eine unserer eigenen Intelligenz überlegene künstliche Intelligenz verhalten würden, wissen wir nicht – und weil wir es nicht wissen, entziehen sich solche Bilder der Zukunft unseren Möglichkeiten zu einem ethischen, also zu einem wertenden Urteil. Verbote einer Weiterentwicklung bestimmter Technologien (Musk) oder das Vertrauen in die anhaltende menschliche Kontrollmöglichkeit (Zuckerberg) helfen jedenfalls nicht weiter.
Die anscheinend unwiderstehliche Energie jener Spezialisten, welche die Avantgarden der verschiedenen Technologien ausmachen, legt eine von ethischen Debatten ganz verschiedene Reaktion nahe. Denn wäre es nicht denkbar, dass der Vorschlag von Leroi-Gourhan, menschliche Kultur als Fortsetzung der Evolution des Menschen zu sehen, mehr ist als nur ein anregender Perspektivenwechsel, sondern tatsächlich eine Realität trifft – die uns eine Enttäuschung, wenn nicht sogar eine Beleidigung des immer noch allzu hochgestimmten Selbstbildes der Menschheit auferlegt? Könnte es nicht sein, dass wir in jener langfristigen Bewegung der Veränderung, die wir so gerne für „unsere“ menschliche Geschichte halten, am Ende nur als Instrumente einer evolutionären Dynamik agieren, welche auch die Illusion von unserer Selbststeuerung und Selbstbestimmung hervorgebracht hat?
Möglicherweise lägen wir also richtig mit dem Entschluss, im Hinblick auf bestimmte Technologiefolgen loszulassen, statt wie Zuckerberg und Musk auf menschliche Kontrolle zu setzen – weil wir die Technologie als Phase beschleunigter Evolution ohnehin nicht aufhalten werden. Eine solche grundlegende Reaktion muss ja noch lange nicht bedeuten, dass wir zukünftigen Ergebnissen der Technologie als Evolution ganz und gar ausgeliefert sind. Von Fall zu Fall scheinen sich Horizonte der Wahl zwischen spezifischen Reaktionen abzuzeichnen. So schließt der Unfall unserer Entdeckung von Nuklearenergie nicht die beständige Bemühung aus, ihre potenziellen – kollektiv selbstzerstörenden – Auswirkungen zu minimieren (was sonst ist „Weltpolitik“ heute?). Andererseits könnten weitere, nicht aufzuhaltende Schritte in der Entwicklung künstlicher Intelligenz ein schnelles Ende des menschlichen Lebens auf „unserem“ Planeten heraufbeschwören. Dass wir zum Aufschieben dieses Endes oder gar zu seiner Aussetzung berufen sind, mag die schlimmste aller menschlichen Selbstüberschätzungen unserer Gegenwart sein.
Der Artikel ist am 17.05.2018 unter dem Titel „Künstliche Intelligenz und eine Grenze der Ethik“ in der Wochenzeitung „Die Weltwoche“ erschienen.
Titelbild:
| Franck V. / Unsplash.com (CC0 Public Domain) | Link
Bilder im Text:
| Franck V. / Unsplash.com (CC0 Public Domain) | Link
| Piotr Cichosz / Unsplash.com (CC0 Public Domain) | Link
Beitrag (redaktionell unverändert): Prof. Dr. Hans Ulrich Gumbrecht
Redaktionelle Umsetzung: Florian Gehm