Künstliche Intelligenz – Turing-Test bestanden, AGI soll der nächste Big Bang werden
Wenn wir über Künstliche Intelligenz (KI) sprechen, kommen wir um den Turing-Test nicht herum. Der Test ist ein bekanntes Konzept in der KI, das die Fähigkeit einer Maschine bewertet, menschenähnliche Intelligenz zu zeigen. Er wurde 1950 von Alan Turing, einem britischen Mathematiker und Computerwissenschaftler, vorgeschlagen und konzentriert sich auf die Fähigkeit einer Maschine, eine menschliche Konversation nachzuahmen. Mit dem Test sollte eine tiefgreifende Frage beantwortet werden: Können Maschinen ein intelligentes Verhalten zeigen, das von dem eines Menschen nicht zu unterscheiden ist?
Der Turing-Test hat den Bereich der Künstlichen Intelligenz entscheidend geprägt. Er dient als Maßstab für die Bewertung des Fortschritts in der KI-Entwicklung, indem er als Standard für die Messung der Sprachfähigkeiten von Maschinen verwendet wird. Der Test hat Innovationen vorangetrieben und die Grenzen der KI-Forschung und -Entwicklung verschoben. Beim Turing-Test führt ein menschlicher Richter ein textbasiertes Gespräch mit einem Menschen und einer Maschine. Die Aufgabe des Richters besteht darin, festzustellen, welcher Teilnehmer die Maschine ist. Wenn der Richter die Maschine nicht zuverlässig von einem Menschen unterscheiden kann, hat die Maschine den Turing-Test bestanden, was bedeutet, dass sie wie ein Mensch intelligent denken kann. Der Turing-Test ist ein grundlegendes Konzept der KI, das als Maßstab für maschinelle Intelligenz dient. Trotz seiner Bedeutung ist er nicht frei von Kritikpunkten und Einschränkungen. Ein Hauptkritikpunkt ist, dass er Maschinen auf der Grundlage ihrer Fähigkeit bewertet, menschliche Gespräche nachzuahmen, und nicht auf der Grundlage ihres Verständnisses des Inhalts. Kritiker argumentieren, dass eine Maschine sprachliche Fähigkeiten demonstrieren kann, ohne über echte Intelligenz oder Verständnis zu verfügen. Außerdem lässt der Turing-Test andere Facetten der menschlichen Intelligenz außer Acht, wie etwa Kreativität, emotionale Intelligenz oder körperliche Fähigkeiten.
Im Laufe der Jahre hat es Fälle gegeben, in denen Maschinen den Turing-Test scheinbar bestanden haben. Bemerkenswerte Beispiele sind das ELIZA-Programm aus den 1960er Jahren und neuere Chatbots. ELIZA wurde Mitte der 1960er Jahre vom MIT-Wissenschaftler Joseph Weizenbaum entwickelt. Trotz seines Alters übertraf ELIZA in einem Vergleich die Künstliche Intelligenz GPT-3.5 von OpenAI. Die Erfolgsquote von GPT-3.5 erreichte nur 14 Prozent, während ELIZA auf 27 Prozent kam. Besser schnitt das leistungsstärkere GPT-4 ab, das eine Quote von 41 Prozent beim Täuschen der Teilnehmer als menschliches Gegenüber erreichte.
Diese Fälle haben jedoch eine Kontroverse ausgelöst, da Kritiker die Gültigkeit der Tests in Frage stellen und argumentieren, dass das Bestehen des Turing-Tests nicht unbedingt auf echte Intelligenz schließen lässt. Dennoch hat ChatGPT-4 den Turing-Test bereits bestanden. Es gilt nun, sich neuen Herausforderungen zu stellen, denn einigen Wissenschaftlern wie François Chollet reicht der Test nicht aus. „Es zeugt von der Unreife unseres Fachgebiets, dass es auf die Frage, was wir meinen, wenn wir von Intelligenz sprechen, noch immer keine befriedigende Antwort gibt. Noch schlimmer ist, dass der strengen Definition oder dem Benchmarking unserer Fortschritte auf dem Weg dorthin sehr wenig Aufmerksamkeit gewidmet wurde“, schrieb er in seinem Beitrag On the Measure of Intelligence im Jahr 2019.
Was ist AGI?
In derselben Veröffentlichung stellte Chollet auch ARC-AGI vor, einen Datensatz zur Bewertung der KI-Generalisierungsfähigkeit. Um die Bemühungen neu auszurichten und Anreize für Fortschritte zu schaffen, rief Chollet den ARC-AGI-Preis (Artificial General Intelligence) 2024 ins Leben, einen Wettbewerb mit einem Preisgeld von 1.100.000 Dollar. Das Ziel? Die Entwicklung von KI-Systemen zu fördern, die neuartige logische Aufgaben ohne umfangreiche Trainingsdaten lösen können – ein entscheidender Schritt auf dem Weg zur AGI. Ein nächster Meilenstein wäre erreicht, wenn eine KI in der Lage wäre, jede intellektuelle Aufgabe zu bewältigen, die ein Mensch ausführen kann. Im Gegensatz zur spezialisierten oder schwachen KI, die auf spezifische Aufgaben beschränkt ist, hätte AGI eine allgemeine Problemlösungsfähigkeit und könnte menschliche Intelligenz in ihrer gesamten Bandbreite replizieren. Einige Theorien gehen sogar so weit, zu sagen, dass AGI ein Bewusstsein und ein Verständnis ihrer eigenen Existenz entwickeln könnte. James Betker, ein KI-Experte bei OpenAI, definiert Artificial General Intelligence als eine Synthese aus drei wesentlichen Komponenten: die Fähigkeit, Ziele zu verfolgen und Pläne zu erstellen, ein umfassendes Weltmodell und die Kapazität, Wissen auf neue Situationen zu übertragen.
Sind alle drei Gegebenheiten vorhanden, dann erst sei die Entwicklung von AGI möglich. Der Ansatz zur Entwicklung allgemein intelligenter Agenten unterscheidet sich deutlich von der Art und Weise, wie aktuell Large Language Models (LLMs) trainiert werden. Während LLMs mit enormen Datenmengen trainiert werden, um Muster zu erkennen und zu wiederholen, erfordert die Entwicklung von AGI die Fähigkeit, abstraktes Wissen auf neue Situationen anzuwenden.
AGI in naher Zukunft erreichbar?
Betker ist zuversichtlich, dass in drei bis fünf Jahren Artificial General Intelligence erreicht sein wird. Bei ChatGPT-5 könnte es bereits so weit sein. Die Schaffung dieser allgemeinen Intelligenz steht zumindest ganz oben auf der Liste der großen KI-Unternehmen. Auch Mark Zuckerberg, Gründer von Meta (ehemals Facebook), ist bereits auf diesen Zug aufgesprungen. Wie immer geht es auch um den Wettlauf mit der Zeit und gegen die Konkurrenz. Die besten KI-Spezialisten, die sich auf diesem Feld bewegen, werden derzeit massiv umworben. Zuckerberg hat einige dieser Leute unter Vertrag genommen und möchte die Basis für eine Meta-AGI schaffen. Dafür investiert der US-Konzern in Rechenleistung, denn davon braucht es reichlich. Bis Ende 2024 sollen mehr als 340.000 GPUs vom Typ Nvidia H100 dafür eingesetzt werden. Zum Vergleich: Ein moderner, durchschnittlicher Gaming-Computer enthält in der Regel eine GPU. Anders als seine Mitstreiter spricht sich Zuckerberg für eine „Open-Source-Vision“ aus. Sam Altman, Gründer von OpenAI, bevorzugt hingegen einen geschlossenen Ansatz für diese KI-Entwicklung.
Es gibt viele Hürden, die auf dem Weg zur nächsten KI-Generation noch zu überwinden sind. Diese intelligenten Systeme stellen uns vor neue Herausforderungen. Werden sie eigenständig nach unseren menschlichen Werten und Ethikvorstellungen handeln? Wie können wir in Zukunft hundertprozentige Sicherheit und Kontrolle über diese intelligenten Systeme gewährleisten? Wo und in welche Systeme werden wir sie integrieren? Es reicht nicht, ein Ziel zu verfolgen, bis man es erreicht hat. Parallel dazu müssen auch die notwendigen Antworten auf die kritischen Fragen mitentwickelt werden. Solange es diese nicht gibt, sollte das Endprodukt nicht zum Einsatz kommen.