ChatGPT ist in aller Munde. Die beeindruckende Sprach-KI von Open AI hat die Tech-Industrie umgekrempelt und die Entwicklung von Künstlicher Intelligenz auf die nächste Stufe gehoben. Die großen Techkonzerne werfen neuerdings mit dem Begriff „KI“ nur so um sich. Nun will zum Beispiel Amazon seinen Sprachassistenten Alexa mit einem neuen fortschrittlichem KI-Modell ausstatten. Auch Google ist sehr aktiv (mehr dazu später).
Im Internet lassen sich bereits heute laut der Plattform „Newsguard“, die sich der Bekämpfung von Fehlinformation verschrieben hat, unzählige Fake-Nachrichtenseiten finden, die mehr oder weniger offensichtlich mit Inhalten von ChatGPT und ähnlichen Textbots gespeist werden. Spotifiy hat jüngst zehntausende KI-generierte Lieder des Startups „Boomy“ von seiner Plattform gelöscht, weil die Hörerzahlen durch „künstliches Streaming“ (Online-Bots) nach oben manipuliert wurden. Ein weiteres Beispiel: Wie die Financial Times unter Berufung auf das Finanzvergleichsportal „Finder.com“ berichtet, hat ein von ChatGPT zusammengestelltes Aktien-Portfolio in den letzten zwei Monaten beeindruckende Resultate erzielt.
Fünf Milliarden Dollar, um ChatGPT zu übertreffen
Das ruft Nachahmer auf den Plan. An vorderster Stelle steht das 2021 von ehemaligen OpenAI-Mitarbeitern gegründete KI-Forschungsunternehmen „Anthropic“. Die Abspaltung kam zustande, weil die Anthropic-Gründer Sicherheitsbedenken gegenüber der typischen KI-Entwicklung durch große Techkonzerne hatten, berichtet das IT-Nachrichtenportal Heise. In Bezug auf OpenAI ist hervorzuheben, dass das Projekt als gemeinnützige Stiftung startete, mittlerweile jedoch gewinnorientiert operiert und aktuell größtenteils durch Microsoft finanziert wird.
Bis zu fünf Milliarden Dollar will das Startup jetzt in den nächsten zwei Jahren bei Investoren einsammeln, um einen Konkurrenten zu ChatGPT aufzubauen. Seit Gründung konnte bisher grob eine Milliarde Dollar an Wagniskapital aufgetrieben werden.
Der fortschrittliche Sprachbot soll laut Anthropic harmlosere Ergebnisse als GPT liefern und in der Gesprächsführung einfacher zu steuern sein. Das neue KI-System soll zehnmal leistungsfähiger werden als die zum jetzigen Zeitpunkt mächtigsten Exemplare. Diese Information stammt aus Unterlagen, die an potentielle Geldgeber verteilt wurden, um sie von einem Einstieg im Rahmen der nächsten Finanzierungsrunde zu überzeugen. Ob ein Investor oder Interessent die Interna anonym an die Medien weitergegeben hat, oder ob es Anthropic selbst geleakt hat, um für Aufmerksamkeit zu sorgen, ist nicht bekannt.
Die Entwicklung des KI-Modells mit dem vorläufigen Arbeitstitel „Claude-Next“ (nach seinem Vorgänger „Claude“, der laut Angaben der Firma in erster Linie für die interne Sicherheitsforschung verwendet wird) soll in der Größenordnung von etwa 1025 Floating Point Operations (FLOPs) erfolgen – um einige Größenordnungen mehr als andere heute bekannte Systeme, wobei zu GPT-4 solche Angaben nicht vorliegen. Das Training soll auf einem Rechencluster von „mehreren zehntausend GPUs“ geschehen. Damit möchte sich Anthropic einen technologischen Vorsprung gegenüber der aktuellen und zukünftigen Konkurrenz erarbeiten, der quasi nicht mehr aufzuholen wäre.
Das Startup beschreibt Frontier als einen „Algorithmus der nächsten Generation für selbstlernende KI“. Beim Training setze man die von Anthropic entwickelte Methode namens „Constitutional AI“. Dadurch sollen KI-Systeme mit guten menschlichen Absichten verknüpft werden, sodass die Künstliche Intelligenz auf Fragen und Aufgaben in einer vorhersehbaren Weise anhand einer Reihe von vorher definierten Richtlinien und Prinzipien reagieren.
Sicherheitsbedenken bleiben
Anthropic hat sich der KI-Sicherheit verschrieben und einige der Finanziers, darunter der Facebook-Mitgründer Dustin Moskovitz und mehrere hochrangige Google-Mitarbeiter, zählen zu den Mitunterzeichnern des vom Future of Life Institut veröffentlichten offenen Briefs, in dem hochrangige Tech-Vertreter einen Entwicklungsstopp fortschrittlicher KI-Systeme wie ChatGPT fordern. Die Anthropic-Gründer gehen davon aus, dass der disruptive technische Fortschritt in den nächsten zehn Jahren eine große KI-Revolution auslösen wird, die Konzerne und Länder - in dem Versuch nicht den Anschluss zu verlieren - dazu verleiten wird, unter Zeitdruck unsichere KI-Systeme in Betrieb zu nehmen.
Es bleibt aber fraglich, warum Anthropic als ebenso gewinnorientierte Unternehmung in der Erschaffung harmloser KI-Systeme hier einen besseren Job als OpenAI machen sollte. Das Startup präsentiert sich in gewisser Hinsicht als Gegenentwurf zu OpenAI und ChatGPT, will aber zugleich in Rekordzeit deutlich performantere Systeme entwickeln. Auf der Firmenwebsite heißt es dann sogar wörtlich: „Wir wissen nicht, wie wir Systeme so trainieren können, dass sie sich robust und gut verhalten.“
Darüber hinaus hat Google jüngst für eine zehnprozentige Beteiligung 300 Millionen Dollar investiert und plant, Anthropics KI-Systeme in die eigenen Produkte zu integrieren. Das Startup soll sich dazu bereit erklärt haben, Google Cloud zu seinem bevorzugten Cloudanbieter zu machen (aus der Google Cloud dürften also in Zukunft ein erheblicher Teil der Trainings-Daten herkommen). Insgesamt wirkt das vor allem in Bezug auf Datenschutz nicht sehr vertrauenserregend.
Apropos Google. Der Suchmaschinen-Gigant hat anscheinend große Probleme mit seiner hauseigenen Sprach-KI „Bard“, was auch zum Teil das Investment in Anthropic erklären würde. Google möchte die Suchfunktion personalisieren und dazu unter anderem einen KI-Chat einführen. Ob man dafür wirklich das von vielerlei Quellen als desolat beschriebene Bard-System einsetzen möchte?
Laut Bloomberg bezeichnen interne Mitarbeiter-Chats den Sprachbot als „schlimmer als nutzlos“. Bard würde selbst bei einfachen Sachfragen widersprüchliche und teils sogar völlig falsche Antworten liefern. Ebenso wird berichtet, dass Bard unechte Bücher zitierte (ein Problem, das in ähnlicher Form auch bei ChatGPT festgestellt wurde). Derweil hat Google-Chef Sundar Pichai in einem Interview mit CBS zugegeben, dass auch die Entwickler die hauseigene KI nicht wirklich verstehen.