ChatGPT ist in aller Munde. Der vom KI-Startup „OpenAI“ (Tochtergesellschaft der gleichnamigen Non-Profit-Unternehmung) entwickelte Textbot hat Hunderte Millionen aktive Nutzer pro Monat und ist aktuell mit das am heißesten diskutierte Thema überhaupt. Die Entwicklung von Künstlicher Intelligenz hat damit einen entscheidenden Schritt nach vorne gemacht – so jedenfalls der Medientenor.
Ein Textprogramm für Jedermann?
Die Möglichkeiten der Technologie gehen so weit – und in den wenigen Monaten seit Veröffentlichung dürfte noch nicht ansatzweise alles ausprobiert worden sein – dass sich Schulen zwangsläufig die Frage stellen müssen, wie man ChatGPT und ähnlich leistungsfähige Sprachprogramme implementiert, statt sie pauschal zu verbieten.
ChatGPT kann bis zu einem gewissen Grad Humor und Sarkasmus erkennen, erklären und replizieren. Es ist mittlerweile auch weithin bekannt, dass der Sprachbot Probleme mit Mathematik-Aufgaben hat und Trickfragen in aller Regel nicht durch eigenständiges logisches Denken erkennt, sondern nur insofern es von den Programmieren spezifisch trainiert wurde, nicht darauf hereinzufallen.
Was aber viel bedenklicher ist: Die Künstliche Intelligenz scheint in der Lage zu sein zu lügen. Und wenn man noch daraufhin noch einen Schritt weiter ginge, dann könnte sogar kriminelle Energie möglich sein. Der verwendete Konjunktiv ist an dieser Stelle irreführend, denn der Test wurde bereits gemacht. Lesen Sie hier, wozu solche Bots fähig sind.