Wir müssen die KI-Entwicklung nicht stoppen
Ein „Offener Brief“ des Future of Life Institute fordert ein sofortiges Moratorium für die Entwicklung von AI-Systemen, wie sie hinter ChatGTP oder Midjourney stehen. Forderung: mindestens 6 Monate Komplettstopp für ein weiteres Training der Modelle. In der Zeit sollen sich Forschung und Regulierung zusammenraufen und überlegen, wie sie die schlimmsten Auswirkungen der aktuellen KI-Werkzeuge verhindern.
Der Brief hat zwei Arten von Reaktionen hervorgerufen. Die einen findet ihn lächerlich. Es sind „hoffnungsvolle Sorgen von Menschen, die zu viel Science-Fiction lesen“ ätzte der Tech-Philosoph Jürgen Geuter, der den Brief in Wahrheit für einen versteckten PR-Coup der Branche hält. Johanna Börklund von der schwedischen Universität von Umeå glaubt, der Aufruf diene nur dazu, Ängste zu schüren.
Die zweite Gruppe glaubt, wir hätten noch längst nicht genug Angst. „Stoppt alle großen Trainingsläufe“, fordert Eliezer Yudkowsky – und zwar für immer.“
Wenn man daran glaubt, dass Künstliche Intelligenz naher Zukunt vernichten wird, egal wie gut wir uns vorbereiten, dann ist die Forderung nach 6 Monaten Betriebsferien natürlich witzlos.
Beide Gruppen missverstehen, was der Brief eigentlich erreichen möchte. Die KI-Entwicklung muss nicht gestoppt, sondern beschleunigt werden. Allerdings in völlig neuen Bahnen.
Ist die Menschheit bedroht?
Wird uns eines Künstliche Intelligenz auslöschen? Das wissen wir nicht. Aber wie hoch auch immer die Wahrscheinlichkeit dafür ist – die aktuelle Welle an KI-Werkzeugen hat sie nicht erhöht. Allgemeine Künstliche Intelligenz (AGI) ist auf Basis der heutigen Technologie nicht möglich und es gibt keinen bekannten, technischen Pfad dorthin. ChatGTP hat daran nichts geändert.
Der Durchbruch, auf dem heutige Large Language Models beruhen, sind sogenannte „Transformers“ und die gibt es schon seit sechs Jahren. Sie beruhen auf einer speziellen Methode zur Informationsverarbeitung, „Deep Learning“, die noch älter ist. Firmen wie OpenAI haben diese Technologien auf erstaunliche Weise optimiert und zugänglich gemacht (dazu gleich mehr). Beides ist eine beachtliche Leistung. Aber ob wir damit einer Superintelligenz auch nur einen Schritt nähergekommen, ist unter Experten höchst umstritten. Und selbst wenn wir auf direkten Weg dorthin wären, welche Gefahren birgt dieser Weg? Auch das ist unklar.
Ein digitaler Geist, der uns Menschen als Störfaktor sieht und vom Angesicht der Erde wischt, wäre eine Premiere – es wäre nämlich das erste Mal, dass eine menschliche Zivilisation durch ihre eigene Erfindung zerstört wird1. Atomwaffe und Biotechnologie haben das nicht geschafft. Nun aber ein Algorithmus, der Wörter zusammensetzt? Das klingt, Stand heute, nach dem Plot-Twist eines Roland-Emmerich-Films.
Ich bin schon dafür, dass wir uns mit dieser Gefahr auseinandersetzen – aber erst einmal haben wir wirklich ein größeres Problem.
Ein kopfloses Rennen
Automatisierung und Künstliche Intelligenz werden die Welt verändern, das ist ein Punkt, an dem sich wirklich alle einig sind. Und der Moment ist: jetzt.
Wir sprechen hier nicht von der „typischen Tech-Revolution“, wie wir sie nach dreihundert Jahren Tech-Revolutionen gewöhnt sind. Die sozialen Auswirkungen sind diesmal noch unabsehbarer. Die Probleme reichen von Jobverlusten über Diskriminierung (durch Algorithmen) bis hin zu Überwachung und Desinformation.
Das ist nichts, was wir nebenbei lösen. Wir müssen uns die Zeit nehmen, die Dinge zu durchdenken. Und wir haben diese Zeit.
Niemand verlangt, dass sich Large Language Models oder Künstliche Intelligenz im Rekordtempo weiterentwickeln. Ganz im Gegensatz zu Elektromobilität, erneuerbaren Energien oder nachhaltiger Verpackungsmaterialien. Das müssen wir eher gestern als heute an den Start bekommen, notfalls mit Lösungen, die noch etwas wackelig sind. Aber künstliche Intelligenz wird uns nicht (schnell genug) helfen, existenzielle Probleme wie den Klimawandel in den Griff zu bekommen. Heißt: wir können uns Zeit nehmen.
Und trotzdem befinden sich die großen KI-Player in einem Wettkampf, wie es die Tech-Szene nur selten erlebt hat. Mit jedem Tag werfen die Unternehmen etwas von dem ethischen Bewusstsein2, das sie sich über die Jahre aufgebaut haben, über Bord . Noch Ende des Jahres warnten Google-Führungskräfte davon, ein zu schnelles Voranpreschen wäre fahrlässig, weil die hauseigenen KI-Produkte zu fehleranfällig waren. Der Microsoft-CEO konnter selbstbewusst, dass er Google schon „zum Tanzen bringen werde“. Ja, das war seine Worte. Genau einen Tag später veröffentlichte Google den eigenen Chat-Bot, obwohl der, wie bereits in der ersten Demo zu begutachten, tatsächlich Fehler produzierte.
Ich fühle mich an Leute auf einer Party erinnert, die sich mit wachsendem Alkoholkonsum an immer gefährlichere Mutproben heranwagen.
Die Macher von ChatGTP & Co. mögen noch so häufig betonen, dass es sich um eine „Betatest“ handelt und man ihre Werkzeuge für nichts Ernsthaftes benutzen solle3 – das hilft nichts. Schüler benutzen sie für ihre Hausaufgaben, Künstler werden durch sie ersetzt, Unternehmen verwenden sie, um Kundenservice und Marketing zu optimieren, und Regierungen könnten sie …. nein, nutzen sie höchstwahrscheinlich bereits für Desinformationskampagnen und Überwachung.
Verantwortung statt Vermarktung
Wer nun sagt, dass LLMs doch “keine echte KI, sondern nur eine Sprachstatistik”, mag aus einer technischen Sicht heraus recht haben, aber er verstärkt das Problem nur. Denn damit degradiert er die Macher zu einer Rolle, in der sie sich gut gefallen: den Tüftlern, die einfach nur eine bestehende Technologie anwenden.
Ian Malcolm, der Mathematiker aus „Jurassic Park“, bringt dies sehr gut auf den Punkt:
“Ich erkläre Ihnen, was das Problem bei dieser wissenschaftlichen Macht ist, die Sie hier anwenden: All das ist Ihnen gewissermaßen in den Schoß gefallen. Sie haben gelesen, was andere erforscht haben und dann haben Sie den nächsten Schritt gemacht. Das Wissen ist nicht auf Ihrem eigene Mist gewachsen und deshalb übernehmen Sie auch keine Verantwortung. Sie stützen sich auf die genialen Forschungsergebnisse anderer, um möglichst schnell Ihr Ziel zu erreichen und bevor Sie überhaupt wussten, was Sie da hatten, ließen Sie es patentieren und vermarkten es und kleben ein Etikett auf eine Plastikdose und verhökern sie.”
Wir müssen die Technologie weiterentwickeln, bevor wir sie weiter verhökern. Und damit meine ich nicht, dass wir sie mächtiger, schneller und zugänglicher machen. Stattdessen muss sich die Forschung in nächster Zeit auf ein einziges Ziel konzentrieren: Wie können wir negative Auswirkungen eindämmen? Eine naheliegende Herausforderung ist die „Halluzination“ in Large Language Models – ChatGTP & Co. denken sich immer noch einfach Fakten aus. Offensichtlich ist das ein schwierigeres Problem als gedacht. Vielleicht müssen die KI-Unternehmen erst einmal mit hemdsärmeligen Lösungen arbeiten – zum Beispiel, indem sie jede Erwähnung von Orten, Firmen und Personen über (eingekaufte) Datenbanken doppelchecken. Oder ständig Warnhinweise einblenden („Achtung, höchstwahrscheinlich belüge ich dich gerade“). Und parallel können sie weiterforschen, wie sie das Problem nachhaltiger in den Griff bekommen.
Regulierung ist genau das richtige Mittel dafür und der offene Brief fordert sie deswegen auch „neue und fähige Regulierungsbehörden“[^1]. Ich halte die Forderungen des Briefes für absolut gerechtfertigt und sinnvoll.
Diejenigen, die behaupten, der Brief wäre von Technokraten geschrieben, die zu viel Science-Fiction lesen, haben den Brief missverstanden. Diejenigen, die sagen, dass wir die Zukunft des Planeten gefährden, müssen einen anderen Brief schreiben – das ist nämlich nicht das Thema des Briefes.
“Die Antwort ist sicherlich nicht, zu versuchen, den technischen Wandel zu stoppen”, sagte Larry Summers, ehemaliger Chefökonom der Weltbank bereits vor zehn Jahren im Angesicht der Automatisierung. „Aber die Antwort ist auch nicht, einfach anzunehmen, dass schon in Ordnung sein wird, weil die Magie des Marktes dafür sorgen wird."
-
In seiner Hypothese zur verwundbaren Welt untersucht Nick Bostrom die Möglichkeit, dass unsere Welt durch Technologieentwicklung und Wissenschaftsfortschritt anfälliger für globale Katastrophen wird. Die befürchte „Übernahme“ durch eine Superintelligenz fällt in die erste von vier Kategorien: eine Technologie, die leicht zugänglich und verfügbar ist und globale Katastrophen verursachen kann. Mit Blick auf die Vergangenheit hält Bostorm jedoch fest: „Es scheint, dass keine menschliche Zivilisation durch ihre eigenen Erfindungen zerstört, wohl aber verändert wurde.“ ↩︎
-
Genauer gesagt: eine gesunde Furcht davor, fehlerhafte Software auf die Welt loszulassen. Neben dem moralischen Problem stellt hier natürlich auch die Angst vor Reputationsverlust eine Rolle. ↩︎
-
OpenAI-CEO Sam Altman schrieb im Dezember auf Twitter: „ChatGPT is incredibly limited, but good enough at some things to create a misleading impression of greatness. It’s a mistake to be relying on it for anything important right now.“ ↩︎