Ihr Team möchte KI einsetzen. Vielleicht, um Risiken zu erkennen. Vielleicht, um Inhalte zu personalisieren. Oder einfach, weil jemand gefragt hat: „Warum nutzen wir eigentlich noch keine KI?“
Wie auch immer – Sie haben ein Feature im Kopf, und jemand stellt die Frage: „Welche Daten haben wir?“
Ab hier wird’s chaotisch. Denn Daten zu besitzen heißt noch lange nicht, dass man startklar ist. Und sie ungeprüft ins Modell zu kippen? So entstehen fehlerhafte KI-Funktionen.
Dieser Leitfaden richtet sich nicht an Datenwissenschaftler. Sondern an Produktverantwortliche, Gründer:innen, Manager:innen – alle, die herausfinden wollen, ob ihre Daten wirklich „gut genug“ sind, um KI-gestützte Funktionen zu bauen.
Schauen wir’s uns als einfache Checkliste an. Verständlich, pragmatisch – ohne Statistikstudium.
Sind die Daten für das Problem relevant?
Nicht alle Daten sind nützlich. Selbst wenn sie gut strukturiert sind. Selbst wenn es viele sind.
Angenommen, Sie wollen vorhersagen, welche Nutzer:innen wahrscheinlich abspringen. Seitenaufrufe könnten helfen. Aber wenn der Datensatz hauptsächlich E-Mail-Öffnungsraten enthält? Das ist nur Rauschen.
Fragen Sie sich:
-
Spiegelt der Datensatz das wider, was Sie vorhersagen wollen?
-
Zeigt er Verhalten – nicht nur Metadaten?
-
Sind die relevanten Zeiträume enthalten?
Oft fangen Teams mit dem an, was gerade im Data Warehouse liegt – und wundern sich später über schlechte Modelle. Erfolgreiche Unternehmen investieren hier zuerst Zeit. Denn der falsche Ausgangspunkt kann ein KI-Projekt schon vor dem Start scheitern lassen.
Sind die Daten sauber genug, um damit zu arbeiten?
Niemand erwartet Perfektion. Aber wenn die Hälfte der Felder leer oder mit „N/A“ gefüllt ist, hat das Modell ein Problem.
Worauf Sie achten sollten:
-
Einheitliche Formate (z. B. für Datum, Zahlen, Labels)
-
Kaum Duplikate
-
Eine akzeptable Menge an fehlenden Werten
Unsaubere Daten verzögern nicht nur alles – sie führen oft zu seltsamem Modellverhalten. Deshalb dauert Datenaufbereitung oft länger als die eigentliche Modellentwicklung.
Klar, Top-Webentwicklungsagenturen können hier viel richten. Aber es ist besser, früh zu wissen, womit man es zu tun hat.
Gibt es genug Beispiele?
Man braucht nicht immer „Big Data“. Aber genug Beispiele für das, was vorhergesagt werden soll.
Wollen Sie Betrugsfälle erkennen? Dann brauchen Sie eine solide Anzahl bekannter Betrugsbeispiele. Wollen Sie Produkte empfehlen? Dann brauchen Sie Kaufmuster – nicht nur Klicks.
Grobe Richtwerte:
-
Binäre Vorhersagen (Abwanderung, Betrug, Genehmigung): ein paar Hundert positive Beispiele reichen oft.
-
Klassifikation (z. B. Intention, Stimmung, Risiko): je komplexer, desto mehr Beispiele sind nötig.
-
Empfehlungssysteme: profitieren von Tausenden Nutzer-Produkt-Interaktionen.
Lassen Sie sich nicht von der Datenmenge einschüchtern. Ehrlichkeit hilft. Wenn Sie nicht wissen, was „genug“ ist – sprechen Sie mit KI-Teams, die mit echten Einschränkungen gearbeitet haben.
Gibt es ein klares Ziel oder Label?
KI braucht ein Ziel. Wenn Sie ein Prognosetool entwickeln, müssen Sie wissen, was „Erfolg“ heißt.
Das heißt:
-
Wird das Ergebnis irgendwo erfasst?
-
Wird es konsequent dokumentiert?
-
Ist es verlässlich?
Wenn die Antwort „so halbwegs“ lautet, muss das Team vielleicht Beispiele neu labeln – oder einen Tagging-Prozess einführen, um ein sauberes Trainingsset aufzubauen.
Ohne klares Ziel wird selbst das beste Modell nur raten. Das ist keine Intelligenz. Das ist Zufall.
Spiegelt der Datensatz die Realität wider?
Der Datensatz kann sauber und gelabelt sein – aber wenn er nur 10 % Ihrer Zielgruppe abdeckt, ist er riskant.
Worauf Sie achten sollten:
-
Verzerrte Stichproben (z. B. nur aktive Nutzer, nur Premiumkunden)
-
Zeitverschiebung (z. B. nur Daten von 2018 – nicht mehr aktuell)
-
Lücken in Schlüsselsegmenten (z. B. bestimmte Regionen, Geräte oder Sprachen fehlen)
Hier versagen KI-Modelle oft stillschweigend. Es „funktioniert“ – aber nur für bekannte Gruppen. In Produktion scheitert es dann.
Deshalb ist Validierung so wichtig. Und deshalb schauen gute Data-Science-Teams nicht nur auf Genauigkeit – sondern auch auf Gruppen, die übersehen werden.
Kann der Datensatz ethisch verwendet werden?
Nicht jeder Datensatz ist geeignet.
Gerade in Bereichen wie Finanzen, HR oder Gesundheit: Nur weil Daten existieren, heißt das nicht, dass man sie nutzen darf.
Wichtige Fragen:
-
Wurden die Daten transparent erhoben?
-
Würden die Nutzer:innen überrascht sein, wenn sie wüssten, wie die Daten genutzt werden?
-
Gibt es rechtliche oder Compliance-Vorgaben?
Das ist kein reines Legal-Thema – es ist Produktstrategie. Features, die Menschen abschrecken, verschwinden schnell wieder.
Wissen Sie, wie das Feature genutzt wird?
Daten helfen nur, wenn klar ist, was daraus werden soll.
Fragen Sie sich:
-
Was soll am Ende rauskommen? Punktzahl? Kategorie? Textvorschlag?
-
Wie verändert das das Nutzererlebnis?
-
Was passiert, wenn das Modell falsch liegt?
Selbst ein gutes Modell bringt nichts, wenn das Produkt nichts damit anfangen kann.Wer hier früh plant – parallel zur Datenprüfung – spart später Wochen an Backend-Entwicklung. Genau an diesem Punkt helfen Teams wie S-PRO: Workflows definieren, bevor gebaut wird. Weniger Rätselraten. Mehr Klarheit.