Bereits im letzten Sommer hatte eine Umfrage unter Forschern in dem Bereich ergeben, dass die Hälfte von ihnen ein Risiko von 10 Prozent sahen, dass Künstliche Intelligenz (KI) die Menschheit auslöschen wird. Dennoch hat es bisher kaum Anstrengungen gegeben, die Risiken unter Kontrolle zu bringen. Vielmehr hat sich die Entwicklung seitdem nur weiter beschleunigt.
Im März veröffentlichte eine Gruppe der größten Namen im Technologiesektor, darunter Apple-Gründer Steve Wozniak und Tesla-Chef Elon Musk, einen offenen Brief, nachdem das bisher leistungsstärkste KI-Programm GPT-4 veröffentlicht worden war. In dem Brief werden alle Labore dazu aufgefordert, „das Training von KI-Systemen, die leistungsfähiger sind als GPT-4, sofort und für mindestens sechs Monate auszusetzen“.
„KI-Systeme mit einer dem Menschen ebenbürtigen Intelligenz können tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen, wie umfangreiche Forschungsarbeiten zeigen und wie von führenden KI-Labors anerkannt wird“, heißt es in dem offenen Brief. Fortgeschrittene Künstliche Intelligenz sollte daher „mit entsprechender Sorgfalt und entsprechenden Ressourcen geplant und verwaltet werden“.
Doch eine solche Planung oder ein Management der Künstlichen Intelligenz finde „leider nicht statt“, so der Brief. Dies geschehe vor dem Hintergrund, dass KI-Labore in den letzten Monaten einen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Personen gestartet hätten, der außer Kontrolle geraten sei. Niemand – nicht einmal ihre Schöpfer – könne sie verstehen, vorhersagen oder zuverlässig kontrollieren.
Künstliche Intelligenz wird uns alle töten
Der offene Brief wirft einige Fragen auf: „Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten fluten? Sollen wir alle Arbeitsplätze automatisieren, auch die erfüllenden? Sollen wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen sind, uns überlisten, überflüssig machen und ersetzen könnten? Sollen wir den Kontrollverlust über unsere Zivilisation riskieren?“
Eliezer Yudkowsky vom Machine Intelligence Research Institute, der bereits seit 2001 an der Ausrichtung „Künstlicher Allgemeiner Intelligenz“ arbeitet und weithin als Begründer dieses Bereichs gilt, hat den offenen Brief bewusst nicht unterschrieben. Denn er ist der Ansicht, dass der Brief „den Ernst der Lage unterschätzt und dass er zu wenige Konsequenzen fordert, um das Problem zu lösen“, schreibt er im Magazin Time.
Das Hauptproblem sei eben nicht eine zum Menschen „konkurrenzfähige“ Intelligenz, sondern dass KI intelligenter wird als der Mensch, so Yudkowsky. „Viele Forscher, die sich mit diesen Fragen befassen, darunter auch ich, gehen davon aus, dass das wahrscheinlichste Ergebnis der Entwicklung einer übermenschlich intelligenten KI unter den derzeitigen Umständen darin besteht, dass wirklich jeder auf der Erde sterben wird.“