Der Chipgigant Nvidia strebt danach, seine Vorherrschaft im Bereich Künstliche Intelligenz (KI) in Rechenzentren auf die physische Welt auszuweiten – und setzt dabei auf Roboter. Auf der unternehmenseigenen Entwicklerkonferenz GTC präsentierte Nvidia-CEO Jensen Huang eine Plattform, die die Entwicklung humanoider Roboter beschleunigen soll. Die Initiative, die den Namen Isaac Groot trägt, entsteht in Zusammenarbeit mit Disney und Googles KI-Tochter DeepMind. Den Anlegern schien das allerdings nicht zu genügen: Die Nvidia-Aktie schloss mit einem Minus von 3,43 Prozent und verlor im nachbörslichen Handel weitere 0,55 Prozent.
Nvidia entdeckt riesigen Markt für Roboter
„Roboter werden eine sehr, sehr große Industrie sein“, prognostizierte Huang. Er verwies darauf, dass allein zum Ende dieses Jahrzehnts auf dem Arbeitsmarkt mindestens 15 Millionen Fachkräfte für bestimmte Tätigkeiten fehlen würden. Doch auch darüber hinaus sieht er großes Potenzial: „Alles, was sich bewegt, wird autonom sein.“ Um zu funktionieren, benötigten Roboter immense Datenmengen für das Training und ein tiefgehendes Verständnis ihrer Umgebung. Nvidia wolle dabei alle notwendigen Bausteine liefern – von der Entwicklung und Erprobung der KI-Software bis hin zur Anwendung in der realen Welt.
OpenAI, Google: Ohne Nvidia keine KI-Hardware
Nvidias Chips sind mittlerweile essenziell für KI-Anwendungen. Ursprünglich wurden sie hauptsächlich für das Training Künstlicher Intelligenz genutzt, doch heute setzen Technologiekonzerne wie Google und Meta ganze Rechenzentren mit Nvidia-Hardware ein. Auch Start-ups wie OpenAI, die hinter ChatGPT stehen, vertrauen auf deren Leistung. Dieser Trend hat das Geschäft von Nvidia in den vergangenen Jahren rasant wachsen lassen.
Die GTC ist das jährliche Highlight von Nvidia, bei dem das Unternehmen seine Zukunftsvisionen präsentiert. Huang wurde – wie gewohnt – euphorisch gefeiert. In seiner typischen Lederjacke heizte er das Publikum auf und schoss T-Shirts in die Menge, bevor er seinen mehr als zweistündigen Vortrag hielt. Auf einen Teleprompter verzichtete er dabei bewusst.
„KI-Fabriken“ als Zukunftsmodell
Huang bezeichnet Rechenzentren als „KI-Fabriken“, in denen die Rechenleistung für Künstliche Intelligenz bereitgestellt wird. „Jede Branche, die etwas herstellt, wird künftig zwei Fabriken haben“, erklärte er. Neben der traditionellen Fertigung werde es eine zweite geben, die die dafür notwendige Software produziere. Neben Robotern kündigte Nvidia eine Reihe weiterer Neuerungen an:
- Neue Chipsysteme: Um den wachsenden Bedarf an KI-Rechenleistung zu decken, bringt Nvidia eine neue Generation von KI-Computern auf den Markt. Das System mit dem Namen „Vera Rubin“ soll im Herbst 2026 erscheinen. Es wurde nach der US-Astronomin Vera Rubin benannt, die bedeutende Entdeckungen zur Dunklen Materie machte. Zusammen mit der für dieses Jahr geplanten Weiterentwicklung der aktuellen Plattform Blackwell soll Rubin die Betriebskosten für KI-Software erheblich senken.
- KI-Computer für den Desktop: Mit DGX Spark und DGX Station will Nvidia Entwicklern und Forschern leistungsfähige KI-Systeme für den lokalen Einsatz bieten. Beide basieren auf der aktuellen Chip-Architektur „Blackwell“.
- Technologie für autonomes Fahren: Nvidia konnte General Motors als Kunden für seine Systeme zur autonomen Fahrzeugsteuerung gewinnen. GM hatte erst kürzlich seine Robotaxi-Sparte Cruise eingestellt.
- Digitale Zwillinge: Nvidia setzt auf Simulationen, um Roboter, autonome Fahrzeuge und andere KI-Systeme zu trainieren. Mit der Software „Cosmos“ lassen sich reale Umgebungen fotorealistisch nachbilden, was die Entwicklung erheblich beschleunigt.
Huang: Rechenleistung der entscheidende Faktor
Huang versuchte, Bedenken von Investoren zu zerstreuen, dass der Bedarf an KI-Rechenleistung womöglich überschätzt werde. Er argumentierte, dass die Zukunft der KI nicht in gespeicherten Antworten liege, sondern in der Fähigkeit, neue Lösungen in Echtzeit zu generieren. Besonders leistungsstarke Modelle, die in der Lage sind, komplexe Argumentationsketten aufzubauen, seien extrem rechenintensiv. Als Beispiel führte er das chinesische KI-Modell Deepseek R1 an, das für eine Hochzeits-Sitzordnung unter Berücksichtigung traditioneller Regeln 150-mal mehr Rechenleistung benötigte als eine herkömmliche KI-Software – die an der Aufgabe scheiterte.
Laut Huang müsse man insgesamt mit einem rund 100-mal höheren Bedarf an Rechenkapazität rechnen als noch vor einem Jahr angenommen. Dass er ausgerechnet Deepseek R1 als Beispiel wählte, dürfte kein Zufall gewesen sein: Das Modell wurde mit vergleichsweise wenig Rechenleistung trainiert, was kürzlich zu einem Kursrückgang der Nvidia-Aktie führte. Huang betonte jedoch, dass der Hauptbedarf an Rechenleistung nicht im Training, sondern in der Generierung von Antworten liege.