Prominente Vertreter aus der Tech-Branche wie Elon Musk, Steve Wozniak (Apple) oder Evan Sharp (Pinterest) fordern aktuell eine Zwangspause der KI-Entwicklung. Der Inhalt des offenen Briefes hat es in sich: „KI-Systeme mit einer dem Menschen ebenbürtigen Intelligenz können tiefgreifende Risiken für die Gesellschaft und Menschheit darstellen, wie umfangreiche Forschungsarbeiten zeigen und von führenden KI-Laboren anerkannt werden. Wie in den weithin befürworteten Asilomar-KI-Grundsätzen dargelegt, könnte fortgeschrittene KI einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde darstellen und sollte mit entsprechender Sorgfalt und entsprechenden Ressourcen geplant und verwaltet werden. Leider finden eine solche Planung und Verwaltung nicht statt, obwohl die KI-Labore in den letzten Monaten in einen außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähiger digitaler Köpfe verwickelt waren, die niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder zuverlässig kontrollieren lassen…“
Ein Katz-und-Maus-Spiel
Bereits 2017, als die KI-Entwicklung gefühlt noch in den Kinderschuhen steckte, wurden auf der Asilomar Konferenz die Grundsätze für die Forschungsziele festgehalten. Oberstes Ziel dabei: „Die KI-Forschung solle dazu dienen keine ungerichtete, sondern nützliche und wohltätige Intelligenz zu erschaffen.“ Doch so wie es aussieht, scheinen die Bedenken der Entwickler, mit jeder weiteren Stufe der rasanten Entwicklung, zuzunehmen. Die sich selbst verbessernden Superintelligenzen bergen hohe Risiken in sich. Geforderte Sicherheits- und Kontrollmaßnahmen scheinen aktuell noch nicht von ihren Schöpfern erfüllt werden zu können. Ob sie die Programme jemals voll unter ihrer Kontrolle stellen können, ist die Frage. Wohin die geöffnete Pandora-Kiste die Menschheit noch führen wird, dass lässt sich bisher nur erahnen.
Die Entwickler von ChatGTP haben dem Chatbot trotz vieler Freiräume Grenzen gesetzt. So sollen negative Inhalte vermieden oder Tabuthemen erst gar nicht angezeigt werden. Clevere Anwender haben es bereits geschafft, diese Restriktionen zu umgehen. Mit einem sogenannten „Prompt“ erlauben sie der KI Antworten zu geben, die normalerweise das Programm nicht ausspucken würde. Die englische Abkürzung dafür lautet DAN (Do Anything Now). In einem Reddit-Post hatte ein Nutzer gezeigt, wie er die KI damit ausgetrickst hat. Bei github konnte jeder sich den nötigen Befehl dazu kopieren. Zwar sind die Entwickler schnell hinterher, diese Lücken zu schließen, doch es ähnelt einem Katz- und Maus-Spiel, so dass es nur eine Frage der Zeit ist, bis die Anwender ein neues Schlupfloch gefunden haben. Das Beispiel zeigt, wie verletzlich der Chatbot trotz aller Vorsichtsmaßnahmen ist.
Man mag sich gar nicht ausdenken, was passieren könnte, wenn fortgeschrittene KI-Software in falsche Hände gerät. In unruhigen Zeiten, in denen die Welt sich gerade befindet, könnten Gruppierungen großes Interesse daran haben, Falschnachrichten, manipulierte Videos und Bilder für ihre Zwecke zu nutzen. Proteste und Bürgerkriege innitiert von Fakenews wären eine mögliche Folge.
Auch aus diesen Gründen soll die von den Experten geforderte Pause dazu genutzt werden, um bisher fehlende Sicherheitsprotokolle zu entwickeln und umzusetzen, Die Überprüfung und Überwachung soll von unabhängigen externen Experten stattfinden.
Erste Staaten verbieten ChatGTP
Wie groß die Bedenken gegenüber der neuen künstlichen Intelligenz sind, zeigen Maßnahmen verschiedener Länder. Italien hat nach Nordkorea, Iran, Russland und China das leistungsstarke generative ChatGPT KI-Tool ebenfalls unzugänglich gemacht. Grund dafür sind vor allem Datenschutzbedenken. Die italienische Aufsichtsbehörde habe eine sofortige vorläufige Beschränkung der Verarbeitung der Daten italienischer Nutzer verhängt und äußerte Bedenken hinsichtlich der Rechtsgrundlage, die OpenAI zur Rechtfertigung der massenhaften Erfassung und Speicherung personenbezogener zum Zwecke des Trainings der Algorithmen anführt.
Erst am 20. März hatte das KI-Tool eine Datenpanne erlitten. OpenAI räumte bei seiner Stellungnahme dabei ein, dass Chats aller User und Zahlungsinformationen der ChatGTP Plus Nutzer für ein Zeitfenster von neun Stunden für andere sichtbar waren. Die italienische Aufsichtsbehörde gab OpenAI eine Frist von 20 Tagen, um die verschiedenen Bedenken auszuräumen, unter Androhung einer Geldstrafe von bis zu 21,7 Millionen Dollar oder 4 Prozent des Jahresumsatzes. Doch das sind nicht die einzigen Bedenken, die die Kritiker gegen das US-Unternehmen äußern. Die italienische Behörde kritisiert zudem, dass es kein System zur Altersverifizierung gäbe. Das Programm setze Minderjährige „völlig ungeeignete Antworten im Vergleich zu ihrem Entwicklungs- und Bewusstseinsgrad aus“. Eine Konsequenz, die aus dieser Panne resultiert: Die Europäische Verbraucherorganisation BEUC fordert alle Behörden auf, die Chatbots zu untersuchen. Doch was macht diese neuen Programme so gefährlich?
Maschine schlägt Mensch
ChatGTP ist nur eines der Programme, vollgepackt mit neuester Technik, die gerade in aller Munde sind. Für die meisten Nutzer ist es bekannt für die leichte Zusammensetzung und Generierung von Inhalten. Die KI ist dabei in der Lage auf den Chatverlauf zu reagieren und Inhalte nach Wünschen anzupassen. Informationen können leicht zusammengefasst werden, Inhalte, wie eine Präsentation oder Gedichte, können auf Wunsch in Sekunden erstellt werden. Komplexer wird es beim Umgang mit Excel. Das Programm spuckt funktionierende Formeln aus, selbst Excel-Makros sind kein Problem und werden als Visual Basic for Applications (VBA) herausgegeben. Doch Open-AI hat auch die KI-Tools Dall-E und Vall-E im Angebot. Mit Dall-E lassen sich irrwitzige, computergenerierte Bilder durch Worteingabe generieren. Vall-E kann noch mehr. Die Software analysiert eine bereits existierende Sprachaufnahme einer Person und kann damit einen vorgegebenen Text im Stile des Sprechers der Originalaufnahme nachsprechen. Klang der Stimme und Sprachstil sind vom Original nicht mehr zu unterscheiden. Das birgt Gefahren und Missbrauchspotential in sich. Darum ist der Vall-E Programmcode aktuell auch nicht für Dritte zugänglich.
Schule muss neu gedacht werden
Auch ohne den Teufel gleich an die Wand zu malen, steht eines heute schon fest: Die Künstliche Intelligenz (KI) ist dabei, unser Arbeitsleben und das Bildungssystem zu revolutionieren. In einer umfassenden Studie mahnt daher die Organisation for Economic Co-operation and Development (OECD) eine neue Bildungsstrategie in Kitas, Schulen und in der Ausbildung an. Als die Weiterbildungsplattform „Fobizz“ Mitte Januar ein Webinar zu ChatGTP anbot, meldet sich tausende Lehrer dazu an. Kritische Fragen der Lehrer im Kontext Schule lauteten dabei zum Beispiel: „Was bedeutet es, wenn Schüler und Schülerinnen ihre Hausaufgaben damit machen?“, „ist es sinnvoll die Nutzung den Lernenden zu verbieten?“, „wie kann ein einheitlicher Umgang mit der neuen Technik an Schulen erfolgen?“. Letzteres wird aufgrund des Föderalismus schwierig zu bewerkstelligen sein im deutschen Bildungssystem. Eine aktuelle Umfrage von PricewaterhouseCoopers (PwC) Österreich vom Februar 2023 hat ergeben, dass fast zwei Drittel (64 Prozent) dafür sind, den Einsatz von ChatGPT und weiteren KI-Anwendungen an Schulen, Universitäten und anderen Bildungseinrichtungen ganz zu verbieten. Insgesamt wurden hierzu 1.001 Personen österreichweit im Alter zwischen 14 und 75 Jahren zu ihrem Nutzungs- und Einstellungsverhalten gegenüber ChatGPT und KI befragt.
Mittelfristig wir die KI sich als Werkzeug in der Arbeits- und Lebenswelt etablieren. Kritisches Denken und Mediennutzung werden noch mehr in Zukunft zu Schlüsselkompetenzen. So denkt man bereits darüber nach, in den Schulen den mündlichen Beiträgen wieder ein höheres Gewicht zu geben. Vertrauen aufs Geschriebene ist gut, doch Kontrolle auf Gesprochenes ist immer noch besser.