Unternehmen

Sichere KI statt Datenleck: Das müssen Firmen beim Chatbot-Einsatz beachten

KI-Chatbots sind im Mittelstand längst Alltag – doch oft fehlt es an Sicherheitsstandards. Der Hamburger KI- und Digitalisierungsexperte Eckhart Hilgenstock erklärt, wie Mittelständler Chatbots datensicher, DSGVO-konform und zukunftsfähig integrieren – und welche Fehler sie vermeiden sollten.
03.04.2025 13:32
Lesezeit: 5 min
Sichere KI statt Datenleck: Das müssen Firmen beim Chatbot-Einsatz beachten
Viele Firmen riskieren mit unsicheren Chatbots Bußgelder und Datenverluste (Foto: pixabay/ Alexandra_Koch).

Sichere KI statt Datenleck: Darum ist Sicherheit so wichtig

Im Januar 2024 sorgte ein Daten-Leck bei einem Chatbot der britischen Niederlassung des deutschen Paketdienstleisters DPD für Aufsehen: Ein Kunde hatte den KI-gestützten Chatbot des Unternehmens so manipuliert, dass dieser ein Spottgedicht über den eigenen Anbieter verfasste – inklusive der Aussage, DPD sei das „schlechteste Lieferunternehmen der Welt“. Auf Nachfrage ließ sich der Bot sogar zu Kraftausdrücken verleiten.

Ursache für das Datenleck war ein fehlerhaft ausgerolltes System-Update, bei dem essenzielle Validierungs- und Inhaltsfilter nicht aktiv waren. Dadurch reagierte der Chatbot unkontrolliert auf manipulierte Nutzereingaben.

Der Fall zeigt, wie schnell Anwendungen, die auf Künstliche Intelligenz (KI) setzen – selbst bei etablierten Unternehmen – zum Reputationsrisiko werden können. Für kleine und mittelständische Betriebe mögen die Dimensionen andere sein, doch die technischen Schwachstellen ähneln sich: fehlende Eingabevalidierung, unzureichende Zugriffskontrollen und mangelnde Systemtests vor dem Live-Betrieb.

Keine sensiblen Daten per Chatbot teilen

Eckhart Hilgenstock kennt solche Fälle. Der Hamburger Digitalisierungsexperte berät Unternehmen im sicheren Einsatz von KI-Systemen. Er weiß aus eigener Erfahrung, dass einer der häufigsten Fehler unzureichende Datenschutzprüfungen der Anbieter sind. „Hinzu kommen fehlende Verschlüsselung, unklare Zuständigkeiten und mangelnde Schulung der Mitarbeiter im Umgang mit sensiblen Daten“, sagt er.

Viele Unternehmen würden sich nicht bewusst sein, dass KI-Anbieter Nutzereingaben häufig für das Training ihrer Modelle nutzen. Hilgenstock warnt daher: „Selbst wenn Sie in der Konfiguration auswählen, dass Ihre Daten nicht zum Training benutzt werden: Es gibt immer wieder ungewollte Datenlecks.”

Sein Rat: Keine geschützten oder sensiblen Informationen über generative KI preisgeben. Auch nicht intern. Wer Produktstrategien oder Kundenverhandlungen über offene KI-Chatbots laufen lässt, setzt das eigene Unternehmen einem unkalkulierbaren Risiko aus.

„Nicht jeder Chatbot läuft automatisch sicher“

Wer dennoch mit Chatbots arbeitet, sollte genau darauf achten, wo und wie die Daten verarbeitet werden. Denn: Nicht jeder Bot laufe automatisch sicher, so der KI-Profi. „Ob ein Chatbot in Ihrer eigenen IT-Umgebung oder in einer externen Cloud läuft, macht einen riesigen Unterschied.“ Cloudlösungen bedeuteten oft weniger Kontrolle über Datenströme, Schnittstellen und Speicherorte – besonders dann, wenn US-Anbieter im Spiel seien, so Hilgenstock. Wer dagegen auf interne oder EU-basierte Lösungen setze, könne nicht nur den Zugriff besser regeln, sondern auch die Verarbeitung selbst bestimmen.

Eigene Modelle ermöglichen so eine deutlich bessere Kontrolle über Daten und Prozesse. So lasse sich das Risiko reduzieren, auch wenn es nie ganz verschwinde. Unternehmen wie Rossmann oder die Telekom zeigen laut Hilgenstock, wie sichere interne Chatbots heute schon funktionieren.

Technisch sicher – das gehört dazu

Wichtig sei dabei auch die Technik dahinter: „Verschlüsselung, starke Authentifizierung, Sicherheitszertifikate und regelmäßige Penetrationstests sind Pflicht.” Zur technischen Absicherung von KI gehört mehr als nur eine gute Firewall, so der Experte. „Es ist keine Frage, ob ein Unternehmen angegriffen wird, sondern wann.“ Entscheidend seien daher:

  • Sichere On-Premise- oder EU-basierte Cloud-Lösungen – also Serverstandorte, die strengen europäischen Datenschutzregeln unterliegen.
  • Zugriff nur über VPN oder Secure Service Edge (SSE) – das heißt, der Zugang erfolgt ausschließlich über verschlüsselte, geschützte Verbindungen.
  • IDS/IPS, DDoS-Schutz und HTTPS-Verschlüsselung – Systeme zur Angriffserkennung, Überlastabwehr und sicheren Datenübertragung.
  • Zwei-Faktor-Authentifizierung – ein zusätzlicher Sicherheitscode neben dem Passwort schützt vor unbefugtem Zugriff.
  • Sicherheitszertifikate wie ISO/IEC 27001 oder 42001 (AI Management) – sie dokumentieren die Einhaltung internationaler Standards für Informationssicherheit und KI-Governance.
  • Ein SOC (Security Operations Center) und IRT (Incident Response Team) – also Teams oder Dienstleister, die Angriffe früh erkennen und schnell reagieren.

Interner oder externer Einsatz macht Unterschied

Unternehmen müssen laut Hilgenstock genau unterscheiden, wofür ein Chatbot eingesetzt werden soll – intern für Mitarbeitende oder extern im Kontakt mit Kunden. „Die Funktionalität entscheidet über Aufwand und Risiko. Datenschutzpflichten bleiben gleich, aber der Schutzbedarf ist extern oft höher.”

Bei öffentlich zugänglichen Chatbots steigen auch die Anforderungen an Absicherung, Missbrauchserkennung und Monitoring. Wer hingegen intern startet, kann mit klar abgegrenzten Anwendungsfällen niedrigschwelliger einsteigen – sollte aber trotzdem die gleichen Sicherheitsstandards anwenden.

Warum KMU einen Chief AI Officer brauchen

Vor diesem Hintergrund plädiert der KI-Berater, Künstliche Intelligenz in Unternehmen zur Chefsache zu machen: „Nicht die KI macht Unternehmen überflüssig, sondern jene, die KI intelligent einsetzen.“ Deshalb brauche es eine zentrale Rolle: den Chief Artificial Intelligence Officer (CAIO). Dessen Aufgabe sei es, Chancen zu erkennen, Risiken zu managen und für datenschutzkonforme Umsetzung zu sorgen.

Der CAIO solle laut Hilgenstock strategisch denken, aber auch mit IT, Fachbereichen und Datenschutzbeauftragten operativ zusammenarbeiten. Er oder sie brauche ein Verständnis für Technologie, Recht, Organisation und Change Management. „Es reicht nicht, irgendeinen Projektleiter zu benennen. Der CAIO muss das Unternehmen befähigen, KI sicher und produktiv einzusetzen.”

Viele Mittelständler hätten diese Rolle bislang nicht besetzt. „Dabei braucht es gerade in dieser Phase jemanden, der Strukturen schafft, Standards definiert und zwischen Fachabteilungen, IT und Geschäftsführung vermittelt“, sagt er. „Wer 2025 keine KI-Priorität hat, wird dem Wettbewerb nicht mehr standhalten.

Das kostet ein sicherer Chatbot

Wie viel Aufwand wirklich dahintersteckt, hängt vom Projekt ab. Hilgenstock berichtet von einer erfolgreichen Umsetzung in einem kleinen Unternehmen für 38.000 Euro. „Nach sechs bis neun Monaten lief das System stabil.”

Die monatlichen Kosten variieren: einfache Cloudlösungen können 30 bis 100 Euro kosten, Hochleistungs-Setups mit GPU-Servern 200 bis 800 Euro. Wartung und Weiterentwicklung liegen je nach Komplexität bei 300 bis 1.000 Euro im Monat.

„Viele unterschätzen, dass nach dem Go-live oft die eigentliche Arbeit beginnt“, so Hilgenstock. Lizenzen, Support, Monitoring, Nachschulungen und Anpassungen an neue Geschäftsprozesse würden schnell zu einem dauerhaften Budgetposten. Unternehmen sollten von Anfang an mit einem internen Verantwortlichen und einem externen Partner rechnen – „denn ohne Betriebskonzept wird der sicherste Chatbot zur tickenden Zeitbombe.“

So sichern Sie bestehende Systeme ab

Viele Unternehmen haben bereits KI-Chatbots im Einsatz, ohne deren Sicherheit zu kennen. Hilgenstocks Rat: „Lassen Sie die Systeme extern prüfen, führen Sie Penetrationstests durch, und binden Sie den Datenschutzbeauftragten ein.“

Wichtig sei auch, wie Mitarbeitende die Systeme nutzen. „Selbst geschulte Teams machen Fehler. Daher sollten auch Nutzungsroutinen auf DSGVO-Konformität geprüft werden.“

Diese Pflichten gelten für KMU

Unternehmen benötigen laut Hilgenstock eine saubere Dokumentation, also konkrete, nachvollziehbare Nachweise darüber, wie personenbezogene Daten verarbeitet, geschützt und gelöscht werden. Folgende pflichten gelten dafür:

  • Verzeichnis der Verarbeitungstätigkeiten
  • Prozesse für Auskunft, Löschung, Berichtigung, Widerspruch
  • Offenlegung des KI-Einsatzes gegenüber Kunden
  • transparente Logik für Entscheidungen durch KI
  • Monitoring, Logging und Audit-Trails

“Nach Zweck erfüllt, muss gelöscht werden”, so der Fachmann. Das heißt konkret: Sobald das Anliegen eines Kunden bearbeitet ist, dürfen diese Daten nicht weiter gespeichert oder analysiert werden – weder im System-Log noch zur Verbesserung des Modells.“

Hilgenstocks 5 KI-Empfehlungen für KMU

  1. Keine sensiblen Daten über offene Chatbots teilen – auch intern nicht. Denn alles, was eingegeben wird, kann potenziell in falsche Hände geraten oder für Trainingszwecke missbraucht werden.
  2. Eigenen Chatbot im Intranet oder EU-Cloud betreiben statt auf US-Dienste zu vertrauen. Nur so behalten Sie die Hoheit über Ihre Daten und können DSGVO-konforme Verarbeitung sicherstellen.
  3. CAIO einsetzen, der Chancen erkennt und für sicheren KI-Einsatz sorgt. Diese Person muss sowohl das Geschäft als auch die Technik verstehen und als Schnittstelle zwischen IT, Management und Datenschutz agieren.
  4. Externe Sicherheitsprüfungen und Penetrationstests regelmäßig durchführen. Nur so erkennen Sie Schwachstellen frühzeitig, bevor sie von Angreifern ausgenutzt werden.
  5. Mit kleinen, professionell begleiteten Projekten starten – und Erfahrung im Team aufbauen. So entwickeln Sie intern Know-how, ohne sich zu übernehmen, und können sichere Systeme iterativ weiterentwickeln.

Besser sicher als überstürzt

„KI kann riesige Potenziale heben, aber nur mit dem richtigen Setup“, empfiehlt der Hamburger Experte. Unternehmen sollten daher klein anfangen, aber professionell. Eine Kombination aus externer Expertise, interner Schulung und klarer Verantwortlichkeit sei der beste Weg. Sein Appell: „Wenn Sie KI nicht nutzen, haben Sie keine Zukunft. Aber wenn Sie sie falsch nutzen, verlieren Sie Vertrauen, Kunden und Sicherheit.“

 

 

DWN
Unternehmen
Unternehmen Microsoft-Aktie: Wie der KI-Boom den Gewinn über 100 Milliarden treibt
31.07.2025

Microsoft verdient erstmals mehr als 100 Milliarden Dollar – ein Meilenstein, der zeigt, wie tiefgreifend sich das Unternehmen unter...

DWN
Finanzen
Finanzen Investoren warnen: Ist die Erfolgsgeschichte der Novo Nordisk-Aktie vorbei?
31.07.2025

Die Novo Nordisk-Aktie galt als Fels in der Brandung – doch nach einer drastischen Gewinnwarnung gerät das Erfolgsmodell ins Wanken....

DWN
Wirtschaft
Wirtschaft 2 Prozent Inflation: Kerninflation zieht Verbrauchern das Geld aus den Taschen
31.07.2025

Die Inflation liegt genau im Zielkorridor der EZB – ein scheinbar gutes Zeichen. Doch die Kerninflation bleibt hoch, vor allem...

DWN
Finanzen
Finanzen Renminbi im Welthandel: Warum Dollar und Euro dominant bleiben
31.07.2025

Chinas Regierung will den Renminbi zur globalen Handelswährung machen – und nutzt gezielt geopolitische Spannungen, um Druck auf...

DWN
Unternehmen
Unternehmen ZF Stellenabbau: 14.000 Arbeitsplätze in Deutschland bedroht
31.07.2025

Der Autozulieferer ZF rutscht immer tiefer in die Krise. Die "Zahnradfabrik" verzeichnet erneut einen hohen Verlust, steckt tief im...

DWN
Politik
Politik Trump tobt, doch Powell bleibt hart: Keine Zinsgeschenke für den Präsidenten
31.07.2025

Donald Trump fordert eine drastische Zinssenkung – doch Fed-Chef Jerome Powell verweigert den Gefolgschaftseid. Die US-Notenbank bleibt...

DWN
Finanzen
Finanzen Bitcoin-Reserve kommt: Was Anleger jetzt wissen müssen
31.07.2025

Die USA lagern still und heimlich Bitcoin – als nationale Reserve. Was bedeutet das für Anleger? Was steckt hinter dieser strategischen...

DWN
Unternehmen
Unternehmen MediaMarkt Saturn: Chinas JD.com übernimmt die Kontrolle beim Elektronikhändler – Ceconomy-Aktie im Fokus
31.07.2025

Der Einstieg eines Handelsgiganten verändert das Kräfteverhältnis bei MediaMarkt Saturn: Chinas JD.com will Europas Elektronikmarkt...