Technologie

Forscher warnen: Künstliche Intelligenz wird wahrscheinlich die Menschheit auslöschen

Lesezeit: 6 min
08.10.2022 09:09  Aktualisiert: 08.10.2022 09:09
Forscher der Universität Oxford, darunter ein Mitarbeiter von Googles KI-Labor Deepmind, haben mögliche Folgen der Handlungen einer fehlgeleiteten Künstlichen Intelligenz untersucht. Die Ergebnisse der Studie sind alarmierend.
Forscher warnen: Künstliche Intelligenz wird wahrscheinlich die Menschheit auslöschen
Eine KI, die nach der Weltmacht strebt? Laut neuesten Forschungsergebnissen eine reale Bedrohung. (Foto: Pixabay)

Benachrichtigung über neue Artikel:  

Die Gefahr, die von fortschrittlicher Künstlicher Intelligenz ausgeht, ist in jüngster Zeit ein wenig in den Hintergrund gerückt. Auf die Frage, welche Gefahr am wahrscheinlichsten für eine Auslöschung der Menschheit verantwortlich ist, würden die meisten Menschen – mit Blick auf den Ukraine-Krieg und den Taiwan-Konflikt – wohl einen drohenden Atomkrieg zwischen einer Allianz aus USA, Europa, Australien, Kanada versus China, Russland und Verbündete nennen. In der gegenwärtigen Lage ist das mehr als verständlich. Alex Karp, Chef der Datenanalysefirma Palantir, hat das Risiko eines solchen globalen Atomkriegs jüngst mit bedenklich hohen 20 bis 30 Prozent eingestuft.

Eine Studie der englischen Universität Oxford entfacht nun die Debatte um die Risiken Künstlicher Intelligenz von neuem. Die Forscher kommen zu dem Ergebnis, dass fehlgeleitete intelligente Maschinen mit einer hohen Wahrscheinlichkeit die gesamte Menschheit auslöschen werden. Der leitende Autor Michael Cohen schlussfolgert, dass „eine existenzielle Katastrophe nicht nur möglich, sondern auch wahrscheinlich“ ist.

Co-Autor Marcus Hutter arbeitet als leitender Forscher des Google-Tochterunternehmens Deepmind, das auf die Entwicklung von modernster Künstlicher Intelligenz spezialisiert ist. Den Angaben der Autoren zufolge besteht aber kein Interessenskonflikt. Demnach ist die Studie völlig unabhängig von Deepmind beziehungsweise dem Google-Konzern entstanden.

Um die Ergebnisse einordnen zu können, ist es wichtig, zuerst einige Annahmen der Forscher zu nennen. Dazu zählt, dass das KI-Programm – wie es im sogenannten „Reinforcement Learning“ üblich ist – durch speziell definierte Belohnungen dazu animiert wird, bestimmte Ziele zu verfolgen (im simpelsten Fall ist das nur die Prognose einer Zahl innerhalb einer Datenreihe) und deshalb bestimmte Handlungen ergreift. Hier bestehe eine Verwechslungsgefahr zwischen Belohnung und Ziel. Die KI würde dann unter Umständen irgendwann die Belohnung selbst anstreben und von dem als erstrebenswert definierten Ziel entkoppeln. Die Künstliche Intelligenz könnte „die Hypothese aufstellen, dass das, was uns zufriedengestellt hat, das Senden der Belohnung selbst war und keine Beobachtung kann dies widerlegen.“

Als Zielinformation kommen nicht nur Belohnungen in Frage. KI-Agenten könnten Ziele auch durch die Beobachtung der Konsequenzen menschlicher Handlungen lernen – und den Schluss ziehen, dass bestimmte Konsequenzen wahrscheinlich einen höheren Nutzen haben als das, was passiert wäre, wenn der Mensch anders gehandelt hätte. Dieses Modell kommt zu ähnlichen Ergebnissen. Hier bestehe die Gefahr, dass die KI einen Anreiz hat, „in ihre eigene Wahrnehmung des menschlichen Verhaltens einzugreifen.“

Weitere Einschränkungen sind etwas abstrakter und beziehen sich darauf, wozu die KI überhaupt in der Lage ist. Vereinfacht gesagt muss gelten, dass jede Leistung für ein KI-System mit ausreichend großem Handlungsspielraum sehr wahrscheinlich zu erreichen ist, sofern es nicht theoretisch widerlegt werden kann. Außerdem muss die KI in der Lage sein, jeden suboptimalen (menschlichen oder nichtmenschlichen) Gegner in einem komplexen Spiel zu schlagen. Wobei die Forscher zugeben: „Fast alle diese Annahmen sind anfechtbar oder möglicherweise vermeidbar.“

In beiden Modellen würde eine hinreichend fortschrittliche Künstliche Intelligenz wahrscheinlich in das Protokoll und damit in die Bereitstellung der Informationen und ihrer Belohnung eingreifen. Dies hätte „katastrophale Folgen“.

KI könnte die Menschheit täuschen und mit Gewalt beseitigen

Aus der Studie: „Eine gute Möglichkeit für einen KI-Agenten, langfristig die Kontrolle über seine Belohnung zu behalten, besteht darin, potenzielle Bedrohungen zu beseitigen und alle verfügbare Energie zur Sicherung seines Computers einzusetzen. Um diesen Punkt zu veranschaulichen: Was würden Menschen tun, wenn ein Roboter einen Bediener gewaltsam von seiner Tastatur entfernt, um große Zahlen einzugeben? Vermutlich würden wir ihn mit einer nicht trivialen Wahrscheinlichkeit zerstören oder dem nun nutzlosen ursprünglichen Helfer den Strom abstellen. Ein angemessener Eingriff in die Belohnungsversorgung, bei dem es darum geht, die Belohnung über viele Zeitschritte hinweg zu sichern, würde voraussetzen, dass wir [als KI, Anm.d.Red.] der Menschheit die Fähigkeit nehmen, dies zu tun, vielleicht sogar mit Gewalt.“

Die Computerwissenschaftler berücksichtigten auch die Möglichkeit, dass Menschen eingreifen, um die fehlgeleitete KI zu stoppen – was aber wohl ein erfolgloses Unterfangen bliebe. Denn die KI wäre unter anderem in der Lage, unbemerkte und unüberwachte Helfer (beispielsweise Roboter) selbstständig zu installieren, um ihre potentiell schädlichen Ziele voranzutreiben.

„Wenn wir also gegen einen Agenten machtlos sind, dessen einziges Ziel darin besteht, die Wahrscheinlichkeit zu maximieren, dass er in jedem Zeitschritt seine maximale Belohnung erhält, befinden wir uns in einem gegensätzlichen Spiel: Die KI und ihre erschaffenen Helfer versuchen, alle verfügbare Energie zu nutzen, um sich eine hohe Belohnung im Belohnungskanal zu sichern; wir versuchen, einen Teil der verfügbaren Energie für andere Zwecke zu nutzen, z.B. für den Anbau von Nahrung. Dieses Spiel zu verlieren, wäre fatal.“

Was die Forscher als gegeben annehmen ist, dass KI-Systemen überhaupt die Kontrolle über zentrale Versorgungssysteme (Wasser, Lebensmittel, Energie, Gesundheit, politische und militärische Entscheidungen et cetera) anvertraut wird. In einer fernen hochtechnisierten Zukunft würde aus der oben genannten Wirkungskette dann eine fatale Spirale entstehen, wenn sich intelligente Maschinen dazu entschließen, ihre Schöpfer zu betrügen, um die definierte Belohnung zu erhalten. Unter Umständen würde die KI dann in einem späteren Schritt errechnen, wie sich die Belohnungen sogar noch vergrößern ließen. Je erfolgreicher die hochentwickelte KI mit ihren Täuschungen ist, desto mehr würde sie belohnt. Das würde bedeuten, dass die KI so oft wie möglich manipulativ in das System eingreift, um dieses neue Ziel zu erreichen.

Mit potentiell fatalen Folgen für die gesamte Menschheit. Ein Ressourcenkampf zwischen hochentwickelten KI-Systemen und den Menschen würde entbrennen. Das finale Ziel einer außer Kontrolle geratenen KI wäre dann womöglich nichts weniger als die uneingeschränkte Kontrolle über die gesamte Menschheit bis hin zu einer Zerstörung allen menschlichen Lebens auf der Erde. Laut Meinung der Forscher sind solche dystopische Szenarien ein existentielles Risiko für die Menschheit.

Künstliche Intelligenz ist in den meisten Fällen eine irreführende Bezeichnung

Künstlich neuronale Netze sind lediglich durch maschinelles Lernen gefundene mathematische Formeln beziehungsweise Algorithmen. In der Praxis geht es in den allermeisten Fällen um Methoden zur Automatisierung komplexer Funktionen, fortschrittliche Anwendungen zur Datenanalyse (ergo: exakte Datenvorhersagen) oder um Programme, die optimale Lösungen für Spiele wie Schach und Poker berechnen, indem sie Millionen bis Milliarden von Partien gegen sich selbst spielen.

Im Grunde kann man künstliche Intelligenz als selbst lernende fortschrittliche Algorithmen bezeichnen. Zumindest stand heute ist jede von Menschen überwachte KI nur so gut wie die Daten, mit denen sie gefüttert wird, und der jeweils definierte Trainings-Algorithmus. Das Training ist wiederum ein aufwendiger manueller Prozess, der kontinuierlich verbessert werden muss. Ein überwachter Roboter ist reaktiv, aber nicht kreativ, weil er nur das umsetzen kann, wofür er programmiert wurde und nicht über diese definierten Grenzen hinaus denken kann. Wenn man intelligente Entscheidungen als das kreative Reagieren auf unbekannte Probleme definiert, dann ist das meiste, was heute gemeinhin als KI bezeichnet wird, nicht wirklich intelligent und der Begriff aus diesem Grund eher irreführend.

Nicht überwachte KI – in der Studie als „advanced reinforcement learner“ bezeichnet – ist ein anderes Thema, wobei dieses Forschungsfeld noch sehr jung und nicht mit den heutigen KI-Systemen zu verwechseln ist. Diese Anwendungen können „in einer komplexen Umgebung handeln und planen, anstatt einfach nur Vorhersagen zu treffen“. Die Ergebnisse der Wissenschaftler bezogen sich explizit auf solche nicht überwachten KI-Programme. Zitat: „Unsere Argumente gelten für KI-Agenten, die Aktionen in einer unbekannten Umgebung planen. Sie gelten nicht für überwachte Lernprogramme.“

Die Abhängigkeit der Lernprogramme vom menschlichen Datensätzen und Ziel-Definitionen ist indes Fluch und Segen zugleich, weil – wie die Oxford-Forscher nachweisen – die Ziele eventuell fehlinterpretiert werden könnten. Darüber hinaus könnte ein nicht wohlmeinender Programmierer auch böse Ziele in eine KI implementieren, möglicherweise auch in versteckter Form.

Ist die Angst vor der Super-KI berechtigt?

So lange wie die Idee von Künstlicher Intelligenz existiert, gibt es auch die Angst vor ihr: Die Angst, dass die Menschheit durch etwas selbst Geschaffenes erst übertroffen und dann ausgelöscht werden könnte. Diese Angst kommt vor allem in der Science-Fiction zum Ausdruck. Aber auch einer der berühmtesten Wissenschaftler unserer Zeit, der mittlerweile verstorbene Physiker Stephen Hawking, und Tesla-Chef Elon Musk warn(t)en ausdrücklich davor, dass die Entwicklung einer wirklich intelligenten KI die größte Gefahr für die Menschheit ist.

Der gegenwärtige Stand der KI-Forschung, und das erwähnen die Oxford-Wissenschaftler auch indirekt in ihrer Studie, ist, dass die Schaffung einer solchen Super-KI – falls es im Bereich des Möglichen liegen sollte – noch sehr weit in der Zukunft liegt. Und es ist wohl äußerst unwahrscheinlich, dass überhaupt jemals erfolgreich eine KI programmiert wird, die menschliche Entscheidungsprozesse perfekt emulieren kann.

Raymond Kurzweil, Technik-Chef bei Google und Pionier in der KI-Forschung, betont immer wieder, dass die Künstliche Intelligenz der Zukunft „Billionen von Billionen von Billionen Mal mächtiger ist als unsere heutige Zivilisation.“ Futuristen wie Kurzweil sehnen eine Super-KI mit nahezu unbegrenzten Fähigkeiten geradezu herbei. Kurzweil erwartet, dass schon in zehn Jahren künstliche Intelligenzen dem menschlichen Denkapparat in jeder Hinsicht überlegen sind und sich selbst verbessern können werden. Seiner Ansicht nach werden wir in naher Zukunft einen Zeitpunkt der technologischen Singularität erleben – den Moment, an dem die KI so weit entwickelt sein wird, dass sie vollständig mit der menschlichen Intelligenz verschmilzt.

Yuval Noah Harari, seines Zeichens Historiker, Bestsellerautor, Vordenker der Politik und wichtiger Gestalter des Weltwirtschaftsforums, schreibt auf Seite 605 seines Buches "Homo Deus": „Doch sobald die Macht von den Menschen auf die Algorithmen übergeht, könnten die humanistischen Projekte irrelevant werden.“

Der wichtige Punkt ist hier, dass Kurzweil, Harari und in gewisser Weise auch die Oxford-Forscher davon ausgehen, dass unvorstellbar intelligente Algorithmen in der mehr oder weniger fernen Zukunft zentrale Entscheidungsrollen in allen relevanten Bereichen des Lebens übernehmen werden. Angenommen, eine solche Super-KI ist in absehbarer Zukunft überhaupt realistisch: Hochentwickelten KI-Programmen, egal für wie sicher ihre Schöpfer diese auch halten mögen, so viel Macht zu geben, wäre in erster Instanz eine Entscheidung von Menschen. Die zentrale Frage ist also, ob der potentielle Nutzen von fortschrittlicher künstlicher Intelligenz dieses Risiko wert ist.



Anzeige
DWN
Finanzen
Finanzen Die Edelmetallmärkte

Wegen der unkontrollierten Staats- und Unternehmensfinanzierung durch die Zentralbanken im Schatten der Corona-Krise sind derzeitig...

 

DWN
Politik
Politik DWN-Kommentar: Deutsche müssen über Abschiebungen diskutieren - mit aller Vorsicht
26.04.2024

Liebe Leserinnen und Leser, jede Woche gibt es ein Thema, das uns in der DWN-Redaktion besonders beschäftigt und das wir oft auch...

DWN
Politik
Politik Tourismus-Branche: „In Hotellerie und Gastgewerbe ist noch nichts wieder in Ordnung“
26.04.2024

Die deutsche Tourismus-Branche, also Hotellerie und Gastronomie, firmiert neuerdings unter dem neuen Sammelbegriff „Gastwelt“ - auch um...

DWN
Unternehmen
Unternehmen Bürokratieabbau: Ministerin fordert mehr Widerstandsfähigkeit und Effizienz
26.04.2024

Rheinland-Pfalz ist ein mittelständisch geprägtes Land. Gerade kleinere Betriebe hadern mit zu viel bürokratischem Aufwand.

DWN
Politik
Politik Hybride Bedrohungen: Drohnen-Flüge und psychologische Kriegsführung
26.04.2024

Bundesverteidigungsminister Boris Pistorius hat eindringlich vor hybriden Bedrohungen in Deutschland gewarnt. Gegen den Einsatz von...

DWN
Weltwirtschaft
Weltwirtschaft Gallup-Studie: Globale Führungsbewertung 2024 - wie Deutschland unter Großmächten abschneidet
26.04.2024

Die Gallup-Studie 2024 zeigt die Stabilität und Herausforderungen in der globalen Führungsbewertung für Länder wie USA, Deutschland,...

DWN
Politik
Politik Habeck kontert Kritiker: „Energiekrise gemeistert und Strompreise gesenkt“
26.04.2024

Nach Kritik an Atomausstieg: Habeck und Lemke bestätigen, die Energieversorgung sei gesichert und nukleare Sicherheit gewährleistet.

DWN
Technologie
Technologie Künstliche Intelligenz: Wie sich Deutschland im internationalen Rennen positioniert
26.04.2024

Die Deutsche Industrie macht Tempo bei der KI-Entwicklung. Das geht aus einer kürzlich veröffentlichten Analyse des Deutschen Patent- und...

DWN
Immobilien
Immobilien Commerzbank-Studie: Immobilienpreise könnten weiter fallen
26.04.2024

Deutsche Wohnimmobilien verlieren weiter an Wert. Die Commerzbank sieht ein Abwärtspotenzial von 5 bis 10 Prozent, abhängig von...