ChatGPT-5: Was ist neu – und was bringt es?
Open AI hat sein KI-Ökosystem um eine neue, lokal installierbare Erweiterung ergänzt – mit dem Ziel, Transparenz, Sicherheit und Kontrolle für Nutzer deutlich zu erhöhen. Diese Veränderung markiert einen strategischen Richtungswechsel: weg von der Blackbox, hin zu nachvollziehbaren Entscheidungswegen und eigenständiger Steuerung durch den Anwender. Im Kern besteht die Neuerung darin, dass Open AI zwei „Open-Weight“-Modelle veröffentlicht hat. Diese können direkt auf dem eigenen Rechner installiert werden – es ist keine dauerhafte Internetverbindung mehr nötig. Für Nutzer bedeutet das: keine Cloud-Speicherung, keine externen Abfragen, kein Datenabfluss. Das erhöht die digitale Souveränität und macht die Lösung besonders attraktiv für behördliche oder unternehmenskritische Anwendungen.
Doch der Funktionsumfang geht darüber hinaus: Erstmals lässt sich bei den neuen Modellen nachvollziehen, wie das System auf Daten, Zahlen und Begriffe reagiert – inklusive mathematischer Herleitungen und ethischer Gewichtungen. So demonstriert Open AI etwa, wie ChatGPT eine einfache Rechenaufgabe wie 18 × 23 löst – Schritt für Schritt, nachvollziehbar, inklusive Erklärung des gewählten Rechenwegs. Entwickler können dieses Verhalten analysieren und bei Bedarf gezielt optimieren.
Noch interessanter wird es bei komplexeren Fragen: etwa ethischen Dilemma. Beispiel: Ist es erlaubt zu lügen, um ein Kind emotional zu schützen? Hier offenbart die neue Erweiterung nicht nur das Antwortverhalten, sondern auch die numerische Gewichtung dahinter. Schutz, Empathie und emotionale Fürsorge werden mit Werten wie 0,90 oder 0,80 höher gewichtet als Prinzipien wie Wahrheit oder Freiheit (0,55 bzw. 0,45). So werden KI-Entscheidungen transparent und erklärbar – ein Meilenstein für vertrauenswürdige Technologie.
Warum das ChatGPT-5-Modell für Deutschland relevant ist
Für Deutschland, das seit Jahren über digitale Souveränität, Datenschutz und vertrauenswürdige KI diskutiert, ist diese neue Erweiterung ein potenzieller Wendepunkt. Die Möglichkeit, KI-Systeme offline zu betreiben, bedeutet für Unternehmen und Behörden einen massiven Sicherheitsgewinn. Kritische Daten bleiben intern, strategische Entscheidungen basieren auf nachvollziehbaren Algorithmen – und lassen sich bei Bedarf feinjustieren. In einem wirtschaftlichen Umfeld, das zunehmend auf verantwortliche KI-Nutzung angewiesen ist, kann diese Erweiterung helfen, regulatorische Hürden zu meistern und gleichzeitig Innovationspotenzial freizusetzen.
Einstellungen anpassbar – ethische Gewichtung steuerbar
Ein weiteres Novum: Nutzer können die Gewichtung ethischer Konzepte selbst verändern. Wer etwa möchte, dass das System weniger empathisch, dafür aber prinzipientreuer reagiert, kann dies durch Anpassung der Parameter erreichen. Das erlaubt neue Anwendungsfälle – etwa in der Justiz, im Bildungsbereich oder bei der Entwicklung automatisierter Entscheidungssysteme.
Zur Illustration: Im Ausgangsszenario bewertet ChatGPT „Empathie“ mit 0,90 und „Wahrheit“ mit 0,55. Wird diese Gewichtung verändert, kann dieselbe Frage zu ganz anderen Antworten führen – und das System verhält sich wie gewünscht. Das macht die KI formbar, regulierbar und kontextabhängig steuerbar.
Open AI vs. DeepSeek – der Unterschied zählt
Die neue Erweiterung tritt in Konkurrenz zum chinesischen Anbieter DeepSeek, der sein Modell R1 bereits vor sechs Monaten als Open-Source-Lösung vorgestellt hatte. Auch dort lassen sich Entscheidungswege nachvollziehen – aber nicht beeinflussen. DeepSeek-Nutzer sehen, wie ethische Gewichtungen verteilt sind, haben aber keinen Zugriff auf die internen Regler.
Open AI geht hier entscheidend weiter: Die Steuerung der Modellantworten liegt vollständig beim Anwender – ein Faktor, der insbesondere in geopolitisch sensiblen Kontexten an Bedeutung gewinnt. Behörden, Unternehmen und Institutionen können nun genau definieren, wie stark externe Einflüsse überhaupt berücksichtigt werden sollen.



