Technologie

Forscher warnen: Künstliche Intelligenz wird wahrscheinlich die Menschheit auslöschen

Forscher der Universität Oxford, darunter ein Mitarbeiter von Googles KI-Labor Deepmind, haben mögliche Folgen der Handlungen einer fehlgeleiteten Künstlichen Intelligenz untersucht. Die Ergebnisse der Studie sind alarmierend.
08.10.2022 09:09
Aktualisiert: 08.10.2022 09:09
Lesezeit: 6 min
Forscher warnen: Künstliche Intelligenz wird wahrscheinlich die Menschheit auslöschen
Eine KI, die nach der Weltmacht strebt? Laut neuesten Forschungsergebnissen eine reale Bedrohung. (Foto: Pixabay)

Die Gefahr, die von fortschrittlicher Künstlicher Intelligenz ausgeht, ist in jüngster Zeit ein wenig in den Hintergrund gerückt. Auf die Frage, welche Gefahr am wahrscheinlichsten für eine Auslöschung der Menschheit verantwortlich ist, würden die meisten Menschen – mit Blick auf den Ukraine-Krieg und den Taiwan-Konflikt – wohl einen drohenden Atomkrieg zwischen einer Allianz aus USA, Europa, Australien, Kanada versus China, Russland und Verbündete nennen. In der gegenwärtigen Lage ist das mehr als verständlich. Alex Karp, Chef der Datenanalysefirma Palantir, hat das Risiko eines solchen globalen Atomkriegs jüngst mit bedenklich hohen 20 bis 30 Prozent eingestuft.

Eine Studie der englischen Universität Oxford entfacht nun die Debatte um die Risiken Künstlicher Intelligenz von neuem. Die Forscher kommen zu dem Ergebnis, dass fehlgeleitete intelligente Maschinen mit einer hohen Wahrscheinlichkeit die gesamte Menschheit auslöschen werden. Der leitende Autor Michael Cohen schlussfolgert, dass „eine existenzielle Katastrophe nicht nur möglich, sondern auch wahrscheinlich“ ist.

Co-Autor Marcus Hutter arbeitet als leitender Forscher des Google-Tochterunternehmens Deepmind, das auf die Entwicklung von modernster Künstlicher Intelligenz spezialisiert ist. Den Angaben der Autoren zufolge besteht aber kein Interessenskonflikt. Demnach ist die Studie völlig unabhängig von Deepmind beziehungsweise dem Google-Konzern entstanden.

Um die Ergebnisse einordnen zu können, ist es wichtig, zuerst einige Annahmen der Forscher zu nennen. Dazu zählt, dass das KI-Programm – wie es im sogenannten „Reinforcement Learning“ üblich ist – durch speziell definierte Belohnungen dazu animiert wird, bestimmte Ziele zu verfolgen (im simpelsten Fall ist das nur die Prognose einer Zahl innerhalb einer Datenreihe) und deshalb bestimmte Handlungen ergreift. Hier bestehe eine Verwechslungsgefahr zwischen Belohnung und Ziel. Die KI würde dann unter Umständen irgendwann die Belohnung selbst anstreben und von dem als erstrebenswert definierten Ziel entkoppeln. Die Künstliche Intelligenz könnte „die Hypothese aufstellen, dass das, was uns zufriedengestellt hat, das Senden der Belohnung selbst war und keine Beobachtung kann dies widerlegen.“

Als Zielinformation kommen nicht nur Belohnungen in Frage. KI-Agenten könnten Ziele auch durch die Beobachtung der Konsequenzen menschlicher Handlungen lernen – und den Schluss ziehen, dass bestimmte Konsequenzen wahrscheinlich einen höheren Nutzen haben als das, was passiert wäre, wenn der Mensch anders gehandelt hätte. Dieses Modell kommt zu ähnlichen Ergebnissen. Hier bestehe die Gefahr, dass die KI einen Anreiz hat, „in ihre eigene Wahrnehmung des menschlichen Verhaltens einzugreifen.“

Weitere Einschränkungen sind etwas abstrakter und beziehen sich darauf, wozu die KI überhaupt in der Lage ist. Vereinfacht gesagt muss gelten, dass jede Leistung für ein KI-System mit ausreichend großem Handlungsspielraum sehr wahrscheinlich zu erreichen ist, sofern es nicht theoretisch widerlegt werden kann. Außerdem muss die KI in der Lage sein, jeden suboptimalen (menschlichen oder nichtmenschlichen) Gegner in einem komplexen Spiel zu schlagen. Wobei die Forscher zugeben: „Fast alle diese Annahmen sind anfechtbar oder möglicherweise vermeidbar.“

In beiden Modellen würde eine hinreichend fortschrittliche Künstliche Intelligenz wahrscheinlich in das Protokoll und damit in die Bereitstellung der Informationen und ihrer Belohnung eingreifen. Dies hätte „katastrophale Folgen“.

KI könnte die Menschheit täuschen und mit Gewalt beseitigen

Aus der Studie: „Eine gute Möglichkeit für einen KI-Agenten, langfristig die Kontrolle über seine Belohnung zu behalten, besteht darin, potenzielle Bedrohungen zu beseitigen und alle verfügbare Energie zur Sicherung seines Computers einzusetzen. Um diesen Punkt zu veranschaulichen: Was würden Menschen tun, wenn ein Roboter einen Bediener gewaltsam von seiner Tastatur entfernt, um große Zahlen einzugeben? Vermutlich würden wir ihn mit einer nicht trivialen Wahrscheinlichkeit zerstören oder dem nun nutzlosen ursprünglichen Helfer den Strom abstellen. Ein angemessener Eingriff in die Belohnungsversorgung, bei dem es darum geht, die Belohnung über viele Zeitschritte hinweg zu sichern, würde voraussetzen, dass wir [als KI, Anm.d.Red.] der Menschheit die Fähigkeit nehmen, dies zu tun, vielleicht sogar mit Gewalt.“

Die Computerwissenschaftler berücksichtigten auch die Möglichkeit, dass Menschen eingreifen, um die fehlgeleitete KI zu stoppen – was aber wohl ein erfolgloses Unterfangen bliebe. Denn die KI wäre unter anderem in der Lage, unbemerkte und unüberwachte Helfer (beispielsweise Roboter) selbstständig zu installieren, um ihre potentiell schädlichen Ziele voranzutreiben.

„Wenn wir also gegen einen Agenten machtlos sind, dessen einziges Ziel darin besteht, die Wahrscheinlichkeit zu maximieren, dass er in jedem Zeitschritt seine maximale Belohnung erhält, befinden wir uns in einem gegensätzlichen Spiel: Die KI und ihre erschaffenen Helfer versuchen, alle verfügbare Energie zu nutzen, um sich eine hohe Belohnung im Belohnungskanal zu sichern; wir versuchen, einen Teil der verfügbaren Energie für andere Zwecke zu nutzen, z.B. für den Anbau von Nahrung. Dieses Spiel zu verlieren, wäre fatal.“

Was die Forscher als gegeben annehmen ist, dass KI-Systemen überhaupt die Kontrolle über zentrale Versorgungssysteme (Wasser, Lebensmittel, Energie, Gesundheit, politische und militärische Entscheidungen et cetera) anvertraut wird. In einer fernen hochtechnisierten Zukunft würde aus der oben genannten Wirkungskette dann eine fatale Spirale entstehen, wenn sich intelligente Maschinen dazu entschließen, ihre Schöpfer zu betrügen, um die definierte Belohnung zu erhalten. Unter Umständen würde die KI dann in einem späteren Schritt errechnen, wie sich die Belohnungen sogar noch vergrößern ließen. Je erfolgreicher die hochentwickelte KI mit ihren Täuschungen ist, desto mehr würde sie belohnt. Das würde bedeuten, dass die KI so oft wie möglich manipulativ in das System eingreift, um dieses neue Ziel zu erreichen.

Mit potentiell fatalen Folgen für die gesamte Menschheit. Ein Ressourcenkampf zwischen hochentwickelten KI-Systemen und den Menschen würde entbrennen. Das finale Ziel einer außer Kontrolle geratenen KI wäre dann womöglich nichts weniger als die uneingeschränkte Kontrolle über die gesamte Menschheit bis hin zu einer Zerstörung allen menschlichen Lebens auf der Erde. Laut Meinung der Forscher sind solche dystopische Szenarien ein existentielles Risiko für die Menschheit.

Künstliche Intelligenz ist in den meisten Fällen eine irreführende Bezeichnung

Künstlich neuronale Netze sind lediglich durch maschinelles Lernen gefundene mathematische Formeln beziehungsweise Algorithmen. In der Praxis geht es in den allermeisten Fällen um Methoden zur Automatisierung komplexer Funktionen, fortschrittliche Anwendungen zur Datenanalyse (ergo: exakte Datenvorhersagen) oder um Programme, die optimale Lösungen für Spiele wie Schach und Poker berechnen, indem sie Millionen bis Milliarden von Partien gegen sich selbst spielen.

Im Grunde kann man künstliche Intelligenz als selbst lernende fortschrittliche Algorithmen bezeichnen. Zumindest stand heute ist jede von Menschen überwachte KI nur so gut wie die Daten, mit denen sie gefüttert wird, und der jeweils definierte Trainings-Algorithmus. Das Training ist wiederum ein aufwendiger manueller Prozess, der kontinuierlich verbessert werden muss. Ein überwachter Roboter ist reaktiv, aber nicht kreativ, weil er nur das umsetzen kann, wofür er programmiert wurde und nicht über diese definierten Grenzen hinaus denken kann. Wenn man intelligente Entscheidungen als das kreative Reagieren auf unbekannte Probleme definiert, dann ist das meiste, was heute gemeinhin als KI bezeichnet wird, nicht wirklich intelligent und der Begriff aus diesem Grund eher irreführend.

Nicht überwachte KI – in der Studie als „advanced reinforcement learner“ bezeichnet – ist ein anderes Thema, wobei dieses Forschungsfeld noch sehr jung und nicht mit den heutigen KI-Systemen zu verwechseln ist. Diese Anwendungen können „in einer komplexen Umgebung handeln und planen, anstatt einfach nur Vorhersagen zu treffen“. Die Ergebnisse der Wissenschaftler bezogen sich explizit auf solche nicht überwachten KI-Programme. Zitat: „Unsere Argumente gelten für KI-Agenten, die Aktionen in einer unbekannten Umgebung planen. Sie gelten nicht für überwachte Lernprogramme.“

Die Abhängigkeit der Lernprogramme vom menschlichen Datensätzen und Ziel-Definitionen ist indes Fluch und Segen zugleich, weil – wie die Oxford-Forscher nachweisen – die Ziele eventuell fehlinterpretiert werden könnten. Darüber hinaus könnte ein nicht wohlmeinender Programmierer auch böse Ziele in eine KI implementieren, möglicherweise auch in versteckter Form.

Ist die Angst vor der Super-KI berechtigt?

So lange wie die Idee von Künstlicher Intelligenz existiert, gibt es auch die Angst vor ihr: Die Angst, dass die Menschheit durch etwas selbst Geschaffenes erst übertroffen und dann ausgelöscht werden könnte. Diese Angst kommt vor allem in der Science-Fiction zum Ausdruck. Aber auch einer der berühmtesten Wissenschaftler unserer Zeit, der mittlerweile verstorbene Physiker Stephen Hawking, und Tesla-Chef Elon Musk warn(t)en ausdrücklich davor, dass die Entwicklung einer wirklich intelligenten KI die größte Gefahr für die Menschheit ist.

Der gegenwärtige Stand der KI-Forschung, und das erwähnen die Oxford-Wissenschaftler auch indirekt in ihrer Studie, ist, dass die Schaffung einer solchen Super-KI – falls es im Bereich des Möglichen liegen sollte – noch sehr weit in der Zukunft liegt. Und es ist wohl äußerst unwahrscheinlich, dass überhaupt jemals erfolgreich eine KI programmiert wird, die menschliche Entscheidungsprozesse perfekt emulieren kann.

Raymond Kurzweil, Technik-Chef bei Google und Pionier in der KI-Forschung, betont immer wieder, dass die Künstliche Intelligenz der Zukunft „Billionen von Billionen von Billionen Mal mächtiger ist als unsere heutige Zivilisation.“ Futuristen wie Kurzweil sehnen eine Super-KI mit nahezu unbegrenzten Fähigkeiten geradezu herbei. Kurzweil erwartet, dass schon in zehn Jahren künstliche Intelligenzen dem menschlichen Denkapparat in jeder Hinsicht überlegen sind und sich selbst verbessern können werden. Seiner Ansicht nach werden wir in naher Zukunft einen Zeitpunkt der technologischen Singularität erleben – den Moment, an dem die KI so weit entwickelt sein wird, dass sie vollständig mit der menschlichen Intelligenz verschmilzt.

Yuval Noah Harari, seines Zeichens Historiker, Bestsellerautor, Vordenker der Politik und wichtiger Gestalter des Weltwirtschaftsforums, schreibt auf Seite 605 seines Buches "Homo Deus": „Doch sobald die Macht von den Menschen auf die Algorithmen übergeht, könnten die humanistischen Projekte irrelevant werden.“

Der wichtige Punkt ist hier, dass Kurzweil, Harari und in gewisser Weise auch die Oxford-Forscher davon ausgehen, dass unvorstellbar intelligente Algorithmen in der mehr oder weniger fernen Zukunft zentrale Entscheidungsrollen in allen relevanten Bereichen des Lebens übernehmen werden. Angenommen, eine solche Super-KI ist in absehbarer Zukunft überhaupt realistisch: Hochentwickelten KI-Programmen, egal für wie sicher ihre Schöpfer diese auch halten mögen, so viel Macht zu geben, wäre in erster Instanz eine Entscheidung von Menschen. Die zentrale Frage ist also, ob der potentielle Nutzen von fortschrittlicher künstlicher Intelligenz dieses Risiko wert ist.

Mehr zum Thema
article:fokus_txt
Anzeige
DWN
Technologie
Technologie BradyPrinter i7500: Revolution im Hochpräzisionsdruck

Sie haben genug vom altmodischen Druck großer Etikettenmengen? Keine Kalibrierung, keine Formatierung, kein umständliches Hantieren mit...

X

DWN Telegramm

Verzichten Sie nicht auf unseren kostenlosen Newsletter. Registrieren Sie sich jetzt und erhalten Sie jeden Morgen die aktuellesten Nachrichten aus Wirtschaft und Politik.
E-mail: *

Ich habe die Datenschutzerklärung gelesen und erkläre mich einverstanden.
Ich habe die AGB gelesen und erkläre mich einverstanden.

Ihre Informationen sind sicher. Die Deutschen Wirtschafts Nachrichten verpflichten sich, Ihre Informationen sorgfältig aufzubewahren und ausschließlich zum Zweck der Übermittlung des Schreibens an den Herausgeber zu verwenden. Eine Weitergabe an Dritte erfolgt nicht. Der Link zum Abbestellen befindet sich am Ende jedes Newsletters.

Jakob Schmidt

                                                                            ***

Jakob Schmidt ist studierter Volkswirt und schreibt vor allem über Wirtschaft, Finanzen, Geldanlage und Edelmetalle.

DWN
Technologie
Technologie Arbeitsmarkt: Top-Berufe, die es vor 20 Jahren noch nicht gab
31.03.2025

Eine Studie von LinkedIn zeigt, wie Künstliche Intelligenz (KI) neue Jobs und Fähigkeiten schafft, Karrieren und Arbeitswelt verändert:...

DWN
Finanzen
Finanzen Commerzbank-Aktie: Kurs knickt nach Orcel-Aussage deutlich ein
31.03.2025

Die Commerzbank-Aktie muss nach einer starken Rallye einen Rückschlag hinnehmen. Unicredit-Chef Andrea Orcel hatte zuvor einen möglichen...

DWN
Wirtschaft
Wirtschaft EU vor Herausforderungen: Handelskriege könnten die Wirtschaft belasten – der Ausweg heißt Binnenmarkt
31.03.2025

Die protektionistischen Maßnahmen der USA und mögliche Handelskonflikte belasten die EU-Wirtschaft. Experten wie Mario Draghi fordern...

DWN
Unternehmen
Unternehmen Betonblock: Lego verklagt Hersteller von Anti-Terror-Betonklötzen
31.03.2025

Lego verklagt das niederländische Unternehmen Betonblock. Die Anti-Terror-Blöcke des Herstellers erinnerten zu sehr an die...

DWN
Technologie
Technologie Neue EU-Vorschriften: Plug-in-Hybriden drohen deutlich höhere CO2-Emissionen
31.03.2025

Mit der Einführung neuer, verschärfter Emissionsmessungen für Plug-in-Hybride (PHEVs) wird die Umweltbilanz dieser Fahrzeuge erheblich...

DWN
Politik
Politik Marine Le Pen wegen Veruntreuung zu Fußfesseln verurteilt - FN-Chef Bardella: "Hinrichtung der französischen Demokratie"
31.03.2025

Marine Le Pen wurde in Paris wegen der mutmaßlichen Scheinbeschäftigung von Mitarbeitern im Europaparlament schuldig gesprochen - das...

DWN
Technologie
Technologie Balkonkraftwerk mit Speicher: Für wen sich die Investition wirklich lohnt
31.03.2025

Balkonkraftwerk mit Speicher: eigenen Strom gewinnen, speichern und so Geld sparen. Doch so einfach ist es leider nicht, zumindest nicht...

DWN
Finanzen
Finanzen US-Börsen: Der Handelskrieg gefährdet die US-Ausnahmestellung
31.03.2025

Da Investitionen nach neuen Möglichkeiten abseits der zuletzt florierenden US-Finanzmärkte suchen, wird an der Wall Street diskutiert, ob...