Sichere KI statt Datenleck: Darum ist Sicherheit so wichtig
Im Januar 2024 sorgte ein Daten-Leck bei einem Chatbot der britischen Niederlassung des deutschen Paketdienstleisters DPD für Aufsehen: Ein Kunde hatte den KI-gestützten Chatbot des Unternehmens so manipuliert, dass dieser ein Spottgedicht über den eigenen Anbieter verfasste – inklusive der Aussage, DPD sei das „schlechteste Lieferunternehmen der Welt“. Auf Nachfrage ließ sich der Bot sogar zu Kraftausdrücken verleiten.
Ursache für das Datenleck war ein fehlerhaft ausgerolltes System-Update, bei dem essenzielle Validierungs- und Inhaltsfilter nicht aktiv waren. Dadurch reagierte der Chatbot unkontrolliert auf manipulierte Nutzereingaben.
Der Fall zeigt, wie schnell Anwendungen, die auf Künstliche Intelligenz (KI) setzen – selbst bei etablierten Unternehmen – zum Reputationsrisiko werden können. Für kleine und mittelständische Betriebe mögen die Dimensionen andere sein, doch die technischen Schwachstellen ähneln sich: fehlende Eingabevalidierung, unzureichende Zugriffskontrollen und mangelnde Systemtests vor dem Live-Betrieb.
Keine sensiblen Daten per Chatbot teilen
Eckhart Hilgenstock kennt solche Fälle. Der Hamburger Digitalisierungsexperte berät Unternehmen im sicheren Einsatz von KI-Systemen. Er weiß aus eigener Erfahrung, dass einer der häufigsten Fehler unzureichende Datenschutzprüfungen der Anbieter sind. „Hinzu kommen fehlende Verschlüsselung, unklare Zuständigkeiten und mangelnde Schulung der Mitarbeiter im Umgang mit sensiblen Daten“, sagt er.
Viele Unternehmen würden sich nicht bewusst sein, dass KI-Anbieter Nutzereingaben häufig für das Training ihrer Modelle nutzen. Hilgenstock warnt daher: „Selbst wenn Sie in der Konfiguration auswählen, dass Ihre Daten nicht zum Training benutzt werden: Es gibt immer wieder ungewollte Datenlecks.”
Sein Rat: Keine geschützten oder sensiblen Informationen über generative KI preisgeben. Auch nicht intern. Wer Produktstrategien oder Kundenverhandlungen über offene KI-Chatbots laufen lässt, setzt das eigene Unternehmen einem unkalkulierbaren Risiko aus.
„Nicht jeder Chatbot läuft automatisch sicher“
Wer dennoch mit Chatbots arbeitet, sollte genau darauf achten, wo und wie die Daten verarbeitet werden. Denn: Nicht jeder Bot laufe automatisch sicher, so der KI-Profi. „Ob ein Chatbot in Ihrer eigenen IT-Umgebung oder in einer externen Cloud läuft, macht einen riesigen Unterschied.“ Cloudlösungen bedeuteten oft weniger Kontrolle über Datenströme, Schnittstellen und Speicherorte – besonders dann, wenn US-Anbieter im Spiel seien, so Hilgenstock. Wer dagegen auf interne oder EU-basierte Lösungen setze, könne nicht nur den Zugriff besser regeln, sondern auch die Verarbeitung selbst bestimmen.
Eigene Modelle ermöglichen so eine deutlich bessere Kontrolle über Daten und Prozesse. So lasse sich das Risiko reduzieren, auch wenn es nie ganz verschwinde. Unternehmen wie Rossmann oder die Telekom zeigen laut Hilgenstock, wie sichere interne Chatbots heute schon funktionieren.
Technisch sicher – das gehört dazu
Wichtig sei dabei auch die Technik dahinter: „Verschlüsselung, starke Authentifizierung, Sicherheitszertifikate und regelmäßige Penetrationstests sind Pflicht.” Zur technischen Absicherung von KI gehört mehr als nur eine gute Firewall, so der Experte. „Es ist keine Frage, ob ein Unternehmen angegriffen wird, sondern wann.“ Entscheidend seien daher:
- Sichere On-Premise- oder EU-basierte Cloud-Lösungen – also Serverstandorte, die strengen europäischen Datenschutzregeln unterliegen.
- Zugriff nur über VPN oder Secure Service Edge (SSE) – das heißt, der Zugang erfolgt ausschließlich über verschlüsselte, geschützte Verbindungen.
- IDS/IPS, DDoS-Schutz und HTTPS-Verschlüsselung – Systeme zur Angriffserkennung, Überlastabwehr und sicheren Datenübertragung.
- Zwei-Faktor-Authentifizierung – ein zusätzlicher Sicherheitscode neben dem Passwort schützt vor unbefugtem Zugriff.
- Sicherheitszertifikate wie ISO/IEC 27001 oder 42001 (AI Management) – sie dokumentieren die Einhaltung internationaler Standards für Informationssicherheit und KI-Governance.
- Ein SOC (Security Operations Center) und IRT (Incident Response Team) – also Teams oder Dienstleister, die Angriffe früh erkennen und schnell reagieren.
Interner oder externer Einsatz macht Unterschied
Unternehmen müssen laut Hilgenstock genau unterscheiden, wofür ein Chatbot eingesetzt werden soll – intern für Mitarbeitende oder extern im Kontakt mit Kunden. „Die Funktionalität entscheidet über Aufwand und Risiko. Datenschutzpflichten bleiben gleich, aber der Schutzbedarf ist extern oft höher.”
Bei öffentlich zugänglichen Chatbots steigen auch die Anforderungen an Absicherung, Missbrauchserkennung und Monitoring. Wer hingegen intern startet, kann mit klar abgegrenzten Anwendungsfällen niedrigschwelliger einsteigen – sollte aber trotzdem die gleichen Sicherheitsstandards anwenden.
Warum KMU einen Chief AI Officer brauchen
Vor diesem Hintergrund plädiert der KI-Berater, Künstliche Intelligenz in Unternehmen zur Chefsache zu machen: „Nicht die KI macht Unternehmen überflüssig, sondern jene, die KI intelligent einsetzen.“ Deshalb brauche es eine zentrale Rolle: den Chief Artificial Intelligence Officer (CAIO). Dessen Aufgabe sei es, Chancen zu erkennen, Risiken zu managen und für datenschutzkonforme Umsetzung zu sorgen.
Der CAIO solle laut Hilgenstock strategisch denken, aber auch mit IT, Fachbereichen und Datenschutzbeauftragten operativ zusammenarbeiten. Er oder sie brauche ein Verständnis für Technologie, Recht, Organisation und Change Management. „Es reicht nicht, irgendeinen Projektleiter zu benennen. Der CAIO muss das Unternehmen befähigen, KI sicher und produktiv einzusetzen.”
Viele Mittelständler hätten diese Rolle bislang nicht besetzt. „Dabei braucht es gerade in dieser Phase jemanden, der Strukturen schafft, Standards definiert und zwischen Fachabteilungen, IT und Geschäftsführung vermittelt“, sagt er. „Wer 2025 keine KI-Priorität hat, wird dem Wettbewerb nicht mehr standhalten.
Das kostet ein sicherer Chatbot
Wie viel Aufwand wirklich dahintersteckt, hängt vom Projekt ab. Hilgenstock berichtet von einer erfolgreichen Umsetzung in einem kleinen Unternehmen für 38.000 Euro. „Nach sechs bis neun Monaten lief das System stabil.”
Die monatlichen Kosten variieren: einfache Cloudlösungen können 30 bis 100 Euro kosten, Hochleistungs-Setups mit GPU-Servern 200 bis 800 Euro. Wartung und Weiterentwicklung liegen je nach Komplexität bei 300 bis 1.000 Euro im Monat.
„Viele unterschätzen, dass nach dem Go-live oft die eigentliche Arbeit beginnt“, so Hilgenstock. Lizenzen, Support, Monitoring, Nachschulungen und Anpassungen an neue Geschäftsprozesse würden schnell zu einem dauerhaften Budgetposten. Unternehmen sollten von Anfang an mit einem internen Verantwortlichen und einem externen Partner rechnen – „denn ohne Betriebskonzept wird der sicherste Chatbot zur tickenden Zeitbombe.“
So sichern Sie bestehende Systeme ab
Viele Unternehmen haben bereits KI-Chatbots im Einsatz, ohne deren Sicherheit zu kennen. Hilgenstocks Rat: „Lassen Sie die Systeme extern prüfen, führen Sie Penetrationstests durch, und binden Sie den Datenschutzbeauftragten ein.“
Wichtig sei auch, wie Mitarbeitende die Systeme nutzen. „Selbst geschulte Teams machen Fehler. Daher sollten auch Nutzungsroutinen auf DSGVO-Konformität geprüft werden.“
Diese Pflichten gelten für KMU
Unternehmen benötigen laut Hilgenstock eine saubere Dokumentation, also konkrete, nachvollziehbare Nachweise darüber, wie personenbezogene Daten verarbeitet, geschützt und gelöscht werden. Folgende pflichten gelten dafür:
- Verzeichnis der Verarbeitungstätigkeiten
- Prozesse für Auskunft, Löschung, Berichtigung, Widerspruch
- Offenlegung des KI-Einsatzes gegenüber Kunden
- transparente Logik für Entscheidungen durch KI
- Monitoring, Logging und Audit-Trails
“Nach Zweck erfüllt, muss gelöscht werden”, so der Fachmann. Das heißt konkret: Sobald das Anliegen eines Kunden bearbeitet ist, dürfen diese Daten nicht weiter gespeichert oder analysiert werden – weder im System-Log noch zur Verbesserung des Modells.“
Hilgenstocks 5 KI-Empfehlungen für KMU
- Keine sensiblen Daten über offene Chatbots teilen – auch intern nicht. Denn alles, was eingegeben wird, kann potenziell in falsche Hände geraten oder für Trainingszwecke missbraucht werden.
- Eigenen Chatbot im Intranet oder EU-Cloud betreiben statt auf US-Dienste zu vertrauen. Nur so behalten Sie die Hoheit über Ihre Daten und können DSGVO-konforme Verarbeitung sicherstellen.
- CAIO einsetzen, der Chancen erkennt und für sicheren KI-Einsatz sorgt. Diese Person muss sowohl das Geschäft als auch die Technik verstehen und als Schnittstelle zwischen IT, Management und Datenschutz agieren.
- Externe Sicherheitsprüfungen und Penetrationstests regelmäßig durchführen. Nur so erkennen Sie Schwachstellen frühzeitig, bevor sie von Angreifern ausgenutzt werden.
- Mit kleinen, professionell begleiteten Projekten starten – und Erfahrung im Team aufbauen. So entwickeln Sie intern Know-how, ohne sich zu übernehmen, und können sichere Systeme iterativ weiterentwickeln.
Besser sicher als überstürzt
„KI kann riesige Potenziale heben, aber nur mit dem richtigen Setup“, empfiehlt der Hamburger Experte. Unternehmen sollten daher klein anfangen, aber professionell. Eine Kombination aus externer Expertise, interner Schulung und klarer Verantwortlichkeit sei der beste Weg. Sein Appell: „Wenn Sie KI nicht nutzen, haben Sie keine Zukunft. Aber wenn Sie sie falsch nutzen, verlieren Sie Vertrauen, Kunden und Sicherheit.“