Technologie

Forscher warnen: Künstliche Intelligenz wird wahrscheinlich die Menschheit auslöschen

Lesezeit: 6 min
08.10.2022 09:09  Aktualisiert: 08.10.2022 09:09
Forscher der Universität Oxford, darunter ein Mitarbeiter von Googles KI-Labor Deepmind, haben mögliche Folgen der Handlungen einer fehlgeleiteten Künstlichen Intelligenz untersucht. Die Ergebnisse der Studie sind alarmierend.
Forscher warnen: Künstliche Intelligenz wird wahrscheinlich die Menschheit auslöschen
Eine KI, die nach der Weltmacht strebt? Laut neuesten Forschungsergebnissen eine reale Bedrohung. (Foto: Pixabay)

Benachrichtigung über neue Artikel:  

Die Gefahr, die von fortschrittlicher Künstlicher Intelligenz ausgeht, ist in jüngster Zeit ein wenig in den Hintergrund gerückt. Auf die Frage, welche Gefahr am wahrscheinlichsten für eine Auslöschung der Menschheit verantwortlich ist, würden die meisten Menschen – mit Blick auf den Ukraine-Krieg und den Taiwan-Konflikt – wohl einen drohenden Atomkrieg zwischen einer Allianz aus USA, Europa, Australien, Kanada versus China, Russland und Verbündete nennen. In der gegenwärtigen Lage ist das mehr als verständlich. Alex Karp, Chef der Datenanalysefirma Palantir, hat das Risiko eines solchen globalen Atomkriegs jüngst mit bedenklich hohen 20 bis 30 Prozent eingestuft.

Eine Studie der englischen Universität Oxford entfacht nun die Debatte um die Risiken Künstlicher Intelligenz von neuem. Die Forscher kommen zu dem Ergebnis, dass fehlgeleitete intelligente Maschinen mit einer hohen Wahrscheinlichkeit die gesamte Menschheit auslöschen werden. Der leitende Autor Michael Cohen schlussfolgert, dass „eine existenzielle Katastrophe nicht nur möglich, sondern auch wahrscheinlich“ ist.

Co-Autor Marcus Hutter arbeitet als leitender Forscher des Google-Tochterunternehmens Deepmind, das auf die Entwicklung von modernster Künstlicher Intelligenz spezialisiert ist. Den Angaben der Autoren zufolge besteht aber kein Interessenskonflikt. Demnach ist die Studie völlig unabhängig von Deepmind beziehungsweise dem Google-Konzern entstanden.

Um die Ergebnisse einordnen zu können, ist es wichtig, zuerst einige Annahmen der Forscher zu nennen. Dazu zählt, dass das KI-Programm – wie es im sogenannten „Reinforcement Learning“ üblich ist – durch speziell definierte Belohnungen dazu animiert wird, bestimmte Ziele zu verfolgen (im simpelsten Fall ist das nur die Prognose einer Zahl innerhalb einer Datenreihe) und deshalb bestimmte Handlungen ergreift. Hier bestehe eine Verwechslungsgefahr zwischen Belohnung und Ziel. Die KI würde dann unter Umständen irgendwann die Belohnung selbst anstreben und von dem als erstrebenswert definierten Ziel entkoppeln. Die Künstliche Intelligenz könnte „die Hypothese aufstellen, dass das, was uns zufriedengestellt hat, das Senden der Belohnung selbst war und keine Beobachtung kann dies widerlegen.“

Als Zielinformation kommen nicht nur Belohnungen in Frage. KI-Agenten könnten Ziele auch durch die Beobachtung der Konsequenzen menschlicher Handlungen lernen – und den Schluss ziehen, dass bestimmte Konsequenzen wahrscheinlich einen höheren Nutzen haben als das, was passiert wäre, wenn der Mensch anders gehandelt hätte. Dieses Modell kommt zu ähnlichen Ergebnissen. Hier bestehe die Gefahr, dass die KI einen Anreiz hat, „in ihre eigene Wahrnehmung des menschlichen Verhaltens einzugreifen.“

Weitere Einschränkungen sind etwas abstrakter und beziehen sich darauf, wozu die KI überhaupt in der Lage ist. Vereinfacht gesagt muss gelten, dass jede Leistung für ein KI-System mit ausreichend großem Handlungsspielraum sehr wahrscheinlich zu erreichen ist, sofern es nicht theoretisch widerlegt werden kann. Außerdem muss die KI in der Lage sein, jeden suboptimalen (menschlichen oder nichtmenschlichen) Gegner in einem komplexen Spiel zu schlagen. Wobei die Forscher zugeben: „Fast alle diese Annahmen sind anfechtbar oder möglicherweise vermeidbar.“

In beiden Modellen würde eine hinreichend fortschrittliche Künstliche Intelligenz wahrscheinlich in das Protokoll und damit in die Bereitstellung der Informationen und ihrer Belohnung eingreifen. Dies hätte „katastrophale Folgen“.

KI könnte die Menschheit täuschen und mit Gewalt beseitigen

Aus der Studie: „Eine gute Möglichkeit für einen KI-Agenten, langfristig die Kontrolle über seine Belohnung zu behalten, besteht darin, potenzielle Bedrohungen zu beseitigen und alle verfügbare Energie zur Sicherung seines Computers einzusetzen. Um diesen Punkt zu veranschaulichen: Was würden Menschen tun, wenn ein Roboter einen Bediener gewaltsam von seiner Tastatur entfernt, um große Zahlen einzugeben? Vermutlich würden wir ihn mit einer nicht trivialen Wahrscheinlichkeit zerstören oder dem nun nutzlosen ursprünglichen Helfer den Strom abstellen. Ein angemessener Eingriff in die Belohnungsversorgung, bei dem es darum geht, die Belohnung über viele Zeitschritte hinweg zu sichern, würde voraussetzen, dass wir [als KI, Anm.d.Red.] der Menschheit die Fähigkeit nehmen, dies zu tun, vielleicht sogar mit Gewalt.“

Die Computerwissenschaftler berücksichtigten auch die Möglichkeit, dass Menschen eingreifen, um die fehlgeleitete KI zu stoppen – was aber wohl ein erfolgloses Unterfangen bliebe. Denn die KI wäre unter anderem in der Lage, unbemerkte und unüberwachte Helfer (beispielsweise Roboter) selbstständig zu installieren, um ihre potentiell schädlichen Ziele voranzutreiben.

„Wenn wir also gegen einen Agenten machtlos sind, dessen einziges Ziel darin besteht, die Wahrscheinlichkeit zu maximieren, dass er in jedem Zeitschritt seine maximale Belohnung erhält, befinden wir uns in einem gegensätzlichen Spiel: Die KI und ihre erschaffenen Helfer versuchen, alle verfügbare Energie zu nutzen, um sich eine hohe Belohnung im Belohnungskanal zu sichern; wir versuchen, einen Teil der verfügbaren Energie für andere Zwecke zu nutzen, z.B. für den Anbau von Nahrung. Dieses Spiel zu verlieren, wäre fatal.“

Was die Forscher als gegeben annehmen ist, dass KI-Systemen überhaupt die Kontrolle über zentrale Versorgungssysteme (Wasser, Lebensmittel, Energie, Gesundheit, politische und militärische Entscheidungen et cetera) anvertraut wird. In einer fernen hochtechnisierten Zukunft würde aus der oben genannten Wirkungskette dann eine fatale Spirale entstehen, wenn sich intelligente Maschinen dazu entschließen, ihre Schöpfer zu betrügen, um die definierte Belohnung zu erhalten. Unter Umständen würde die KI dann in einem späteren Schritt errechnen, wie sich die Belohnungen sogar noch vergrößern ließen. Je erfolgreicher die hochentwickelte KI mit ihren Täuschungen ist, desto mehr würde sie belohnt. Das würde bedeuten, dass die KI so oft wie möglich manipulativ in das System eingreift, um dieses neue Ziel zu erreichen.

Mit potentiell fatalen Folgen für die gesamte Menschheit. Ein Ressourcenkampf zwischen hochentwickelten KI-Systemen und den Menschen würde entbrennen. Das finale Ziel einer außer Kontrolle geratenen KI wäre dann womöglich nichts weniger als die uneingeschränkte Kontrolle über die gesamte Menschheit bis hin zu einer Zerstörung allen menschlichen Lebens auf der Erde. Laut Meinung der Forscher sind solche dystopische Szenarien ein existentielles Risiko für die Menschheit.

Künstliche Intelligenz ist in den meisten Fällen eine irreführende Bezeichnung

Künstlich neuronale Netze sind lediglich durch maschinelles Lernen gefundene mathematische Formeln beziehungsweise Algorithmen. In der Praxis geht es in den allermeisten Fällen um Methoden zur Automatisierung komplexer Funktionen, fortschrittliche Anwendungen zur Datenanalyse (ergo: exakte Datenvorhersagen) oder um Programme, die optimale Lösungen für Spiele wie Schach und Poker berechnen, indem sie Millionen bis Milliarden von Partien gegen sich selbst spielen.

Im Grunde kann man künstliche Intelligenz als selbst lernende fortschrittliche Algorithmen bezeichnen. Zumindest stand heute ist jede von Menschen überwachte KI nur so gut wie die Daten, mit denen sie gefüttert wird, und der jeweils definierte Trainings-Algorithmus. Das Training ist wiederum ein aufwendiger manueller Prozess, der kontinuierlich verbessert werden muss. Ein überwachter Roboter ist reaktiv, aber nicht kreativ, weil er nur das umsetzen kann, wofür er programmiert wurde und nicht über diese definierten Grenzen hinaus denken kann. Wenn man intelligente Entscheidungen als das kreative Reagieren auf unbekannte Probleme definiert, dann ist das meiste, was heute gemeinhin als KI bezeichnet wird, nicht wirklich intelligent und der Begriff aus diesem Grund eher irreführend.

Nicht überwachte KI – in der Studie als „advanced reinforcement learner“ bezeichnet – ist ein anderes Thema, wobei dieses Forschungsfeld noch sehr jung und nicht mit den heutigen KI-Systemen zu verwechseln ist. Diese Anwendungen können „in einer komplexen Umgebung handeln und planen, anstatt einfach nur Vorhersagen zu treffen“. Die Ergebnisse der Wissenschaftler bezogen sich explizit auf solche nicht überwachten KI-Programme. Zitat: „Unsere Argumente gelten für KI-Agenten, die Aktionen in einer unbekannten Umgebung planen. Sie gelten nicht für überwachte Lernprogramme.“

Die Abhängigkeit der Lernprogramme vom menschlichen Datensätzen und Ziel-Definitionen ist indes Fluch und Segen zugleich, weil – wie die Oxford-Forscher nachweisen – die Ziele eventuell fehlinterpretiert werden könnten. Darüber hinaus könnte ein nicht wohlmeinender Programmierer auch böse Ziele in eine KI implementieren, möglicherweise auch in versteckter Form.

Ist die Angst vor der Super-KI berechtigt?

So lange wie die Idee von Künstlicher Intelligenz existiert, gibt es auch die Angst vor ihr: Die Angst, dass die Menschheit durch etwas selbst Geschaffenes erst übertroffen und dann ausgelöscht werden könnte. Diese Angst kommt vor allem in der Science-Fiction zum Ausdruck. Aber auch einer der berühmtesten Wissenschaftler unserer Zeit, der mittlerweile verstorbene Physiker Stephen Hawking, und Tesla-Chef Elon Musk warn(t)en ausdrücklich davor, dass die Entwicklung einer wirklich intelligenten KI die größte Gefahr für die Menschheit ist.

Der gegenwärtige Stand der KI-Forschung, und das erwähnen die Oxford-Wissenschaftler auch indirekt in ihrer Studie, ist, dass die Schaffung einer solchen Super-KI – falls es im Bereich des Möglichen liegen sollte – noch sehr weit in der Zukunft liegt. Und es ist wohl äußerst unwahrscheinlich, dass überhaupt jemals erfolgreich eine KI programmiert wird, die menschliche Entscheidungsprozesse perfekt emulieren kann.

Raymond Kurzweil, Technik-Chef bei Google und Pionier in der KI-Forschung, betont immer wieder, dass die Künstliche Intelligenz der Zukunft „Billionen von Billionen von Billionen Mal mächtiger ist als unsere heutige Zivilisation.“ Futuristen wie Kurzweil sehnen eine Super-KI mit nahezu unbegrenzten Fähigkeiten geradezu herbei. Kurzweil erwartet, dass schon in zehn Jahren künstliche Intelligenzen dem menschlichen Denkapparat in jeder Hinsicht überlegen sind und sich selbst verbessern können werden. Seiner Ansicht nach werden wir in naher Zukunft einen Zeitpunkt der technologischen Singularität erleben – den Moment, an dem die KI so weit entwickelt sein wird, dass sie vollständig mit der menschlichen Intelligenz verschmilzt.

Yuval Noah Harari, seines Zeichens Historiker, Bestsellerautor, Vordenker der Politik und wichtiger Gestalter des Weltwirtschaftsforums, schreibt auf Seite 605 seines Buches "Homo Deus": „Doch sobald die Macht von den Menschen auf die Algorithmen übergeht, könnten die humanistischen Projekte irrelevant werden.“

Der wichtige Punkt ist hier, dass Kurzweil, Harari und in gewisser Weise auch die Oxford-Forscher davon ausgehen, dass unvorstellbar intelligente Algorithmen in der mehr oder weniger fernen Zukunft zentrale Entscheidungsrollen in allen relevanten Bereichen des Lebens übernehmen werden. Angenommen, eine solche Super-KI ist in absehbarer Zukunft überhaupt realistisch: Hochentwickelten KI-Programmen, egal für wie sicher ihre Schöpfer diese auch halten mögen, so viel Macht zu geben, wäre in erster Instanz eine Entscheidung von Menschen. Die zentrale Frage ist also, ob der potentielle Nutzen von fortschrittlicher künstlicher Intelligenz dieses Risiko wert ist.



DWN
Deutschland
Deutschland Vernachlässigung von Wasserstraßen? Hamburg kritisiert Bundesregierung scharf

Die Bundesregierung kommt ihren Pflichten bei der Instandhaltung wichtiger Wasserstraßen nicht ausreichend nach, warnen Vertreter Hamburgs...

DWN
Politik
Politik Taiwan: Oppositionelle Kuomintang gewinnt Abstimmung über künftige China-Strategie

Wende in Taiwans China-Politik? Die oppositionelle Kuomintang hat eine Abstimmung über das Verhältnis zum Nachbarn gegen die Regierung...

DWN
Deutschland
Deutschland FDP stellt sich gegen Faesers Pläne für leichtere Einbürgerungen

Die FDP stellt sich gegen Pläne des Innenministeriums, die deutsche Staatsbürgerschaft schneller an Ausländer zu vergeben. Auch aus der...

DWN
Unternehmen
Unternehmen Mangelhafte Infrastruktur in Mitteleuropa hemmt Ukraines Getreideexporte

Der Getreideexport aus der Ukraine in die EU boomt. Die mangelhafte Infrastruktur in Mitteleuropa unterbindet jedoch ein höheres...

DWN
Politik
Politik Europol zerschlägt eines der größten Kokain-Kartelle Europas

Die Polizeibehörde Europol hat ein großes Drogenkartell zerschlagen und dutzende Personen festgenommen.

DWN
Politik
Politik Oskar Lafontaine: „Europa zahlt den Preis für die Feigheit der eigenen Staatenlenker“

Die Deutschen Wirtschaftsnachrichten im Gespräch mit Oskar Lafontaine über den wirtschaftlichen Niedergang Deutschlands, den...

DWN
Politik
Politik Multipolare Weltordnung: Organisationen des Globalen Südens erhalten verstärkt Zulauf

Das Interesse an einer Mitgliedschaft in Organisationen, die dezidiert als Alternative zu westlich dominierten Strukturen aufgebaut wurden,...

DWN
Deutschland
Deutschland Marktwirtschaft adé: Staat für Hälfte des Wirtschaftswachstums verantwortlich

Der Anteil öffentlicher Ausgaben am BIP liegt über 50 Prozent. Ein baldiges Ende des staatlichen Eingreifens ist nicht Sicht. Damit...