Politik

AI Act: Wo stehen wir über ein Jahr nach dem Beschluss des KI-Gesetzes?

Mit dem AI Act schreibt Europa Geschichte: Die erste globale KI-Gesetzgebung verspricht Sicherheit, birgt aber auch Risiken. Wo Deutschland jetzt handeln muss.
16.07.2025 13:08
Aktualisiert: 16.07.2025 13:11
Lesezeit: 6 min
Inhalt wird nicht angezeigt, da Sie keine externen Cookies akzeptiert haben. Ändern..
AI Act: Wo stehen wir über ein Jahr nach dem Beschluss des KI-Gesetzes?
In Europa ist der wichtigste Aktionsplan derzeit derjenige für KI, doch an dem sogenannten AI Act muss noch gearbeitet werden. (Foto: dpa) Foto: Sebastian Gollnow

Europas AI Act wirkt – doch zentrale Mechanismen fehlen noch

Im August letzten Jahres hat die Europäische Union den AI Act verabschiedet – das weltweit erste umfassende Gesetz zur Künstlichen Intelligenz. Es handelt sich um einen einzigartigen Ansatz, bei dem die EU einer politischen Vision folgt: der sichere, transparente und auf den Menschenrechten basierende Einsatz von Künstlicher Intelligenz (KI). Die Europäische Kommission will damit ein Umfeld für verantwortungsvolle Steuerung von KI schaffen. Mehrere europäische und nationale Behörden haben bereits Richtlinien und Empfehlungen vorbereitet und veröffentlicht.

Der zentrale Baustein des Gesetzes ist wohl das Gebot, welche Form von KI Europa nicht will. Die Leitlinien zu verbotenen KI-Praktiken, wie sie der AI Act definiert, gelten bereits seit Februar dieses Jahres. Die positiven Seiten der Verordnung liegen aus Sicht von Individuen und Innovatoren eindeutig im Risikomanagement und im Schutz von Grundrechten. „Ich denke, der größte Vorteil des AI Act ist sein grundlegendes Ziel – das Erkennen und Beherrschen der Risiken, die mit dem Einsatz von KI-Systemen verbunden sind. Die Technologie bietet enorme Vorteile und unermessliche Nutzungsmöglichkeiten, daher sind gezielte Entwicklung, Implementierung und verantwortungsvoller Einsatz entscheidend“, erklärt Bojana Pleterski, Datenschutzexpertin beim Unternehmen Info hiša. Zu den positiven Effekten zählt sie auch Initiativen und konkrete Formen der Zusammenarbeit zwischen Wissenschaftlern, Ingenieuren und Menschenrechtsaktivisten, die das bessere Verständnis aller Aspekte der Entwicklung und Anwendung dieser Technologie fördern und gleichzeitig Innovationen im Bereich der KI vorantreiben sollen.

AI Act: Wir wissen, was wir nicht wollen

Der AI Act lenkt Entwickler und Anwender auf einen verantwortungsvollen Umgang mit KI – die Technologie soll dem Guten dienen und darf nicht diskriminierend oder gefährlich für Mensch und Umwelt eingesetzt werden. Verboten sind Praktiken, die grundlegende Rechte von Individuen verletzen. Dafür sollten wir dankbar sein – etwa, dass es in Europa kein soziales Bewertungssystem geben wird, wie es in China praktiziert wird. Zunehmend gibt es Initiativen, auch von Entwicklern selbst, bestimmte KI-Anwendungen grundsätzlich zu verbieten. Dies gilt insbesondere für sogenannte KI-Agenten, bei denen die Risiken noch größer sind, da ihre Autonomie bedeutet, dass ein erheblicher Teil der Entscheidungen an die Technologie delegiert wird.

Der Europäische Datenschutzausschuss hat einen Bericht zum Risikomanagement bei großen Sprachmodellen (LLM) veröffentlicht. Dieser enthält eine umfassende Methodik mit praktischen Maßnahmen zur Minderung häufiger Datenschutzrisiken solcher Systeme. Nationale Datenschutzbehörden haben zusätzliche Richtlinien zum Umgang mit Datenschutzrisiken bei KI-Tools herausgegeben.

Das europäische Amt für Künstliche Intelligenz arbeitet an einem Verhaltenskodex für generative KI. Gleichzeitig erlassen die Mitgliedstaaten eigene Gesetze zur Umsetzung des AI Act und treiben die Standardisierung sowie die Entwicklung konformer Lösungen aktiv voran. Ein besonders interessantes Instrument ist der sogenannte KI-Sandbox, den wir später noch detailliert vorstellen.

Wenn Künstliche Intelligenz das Labor verlässt

Wie in der Technologiebranche oft gesehen, schreitet die Entwicklung von KI schneller voran als die Regulierung. Intelligente Agenten als nächste Evolutionsstufe der KI sind leistungsfähiger als Chatbots und dringen bereits aus den Laboren in reale Anwendungen vor. Anders als traditionelle KI-Modelle agieren diese Agenten autonom: Sie planen, treffen Entscheidungen, führen mehrstufige Maßnahmen aus, rufen Tools auf und interagieren teils mit anderen Agenten oder externen Systemen. Beispiele sind Agentforce 2.0 von Salesforce oder SAP Joule.

Die erhöhte Autonomie dieser KI-Agenten bringt neue Risiken mit sich, die durch bestehende Risikorahmen nicht abgedeckt werden. Experten warnen vor einer überstürzten Einführung solcher Technologien ohne spezialisierte Sicherheitstests. Die größten Gefahren sind missbräuchliche Nutzung, die zu katastrophalen Folgen führen kann, schleichender Machtverlust sowie Bedrohung von Arbeitsplätzen.

Ein wichtiger politischer Hebel ist der AI Continent Action Plan der EU-Kommission vom April. Ergänzend zum AI Act soll Europa damit zur globalen Vorreiterregion für verantwortungsvolle KI-Nutzung werden. Die Initiative betont die Bedeutung von KI zur Lösung gesellschaftlicher Herausforderungen und zur Stärkung der europäischen Wirtschaft im Einklang mit demokratischen Werten und Grundrechten.

Der Plan umfasst fünf Kernbereiche für gezielte Innovationsförderung:

  • Recheninfrastruktur
  • Zugang zu hochwertigen Daten
  • Förderung von Innovation und KI-Nutzung in strategischen Sektoren
  • Ausbau von Kompetenzen und Talenten im KI-Bereich
  • Unterstützung der Regulierungs-Compliance und Vereinfachung der Regeln

Letzteres wird besonders intensiv diskutiert – etwa Vorschläge zur Vereinfachung bestimmter Pflichten aus der Datenschutz-Grundverordnung (DSGVO).

KI-Gesetz: Wem vertrauen wir wirklich?

Für intensive Diskussionen sorgte im vergangenen Jahr der Bericht über die Wettbewerbsfähigkeit der EU von Mario Draghi, dem ehemaligen Präsidenten der Europäischen Zentralbank. Darin wurden die zentralen Rückstände Europas und ihre Ursachen aufgezeigt. Diese liegen unter anderem im zersplitterten digitalen Binnenmarkt, der Innovationen ausbremst, unterentwickelten Kapitalmärkten, die das Wachstum von Tech-Unternehmen begrenzen, restriktiven Insolvenzgesetzen, die von Risikobereitschaft abhalten, fehlender Einwanderungspolitik zur Gewinnung ausländischer Talente sowie unflexiblen Arbeitsmärkten, die die Mobilität von Fachkräften innerhalb der EU einschränken.

Die zentrale Frage beim KI-Einsatz lautet: Wie viel Vertrauen bringen wir ihr tatsächlich entgegen? Gar keines, zu viel oder zu wenig? „Viele Wissenschaftler und Ingenieure im KI-Bereich betonen die Notwendigkeit eines effektiven Risikomanagements und warnen vor der vorschnellen Einführung entwickelter Modelle. Uns muss klar sein, dass entscheidend ist, wie diese Systeme implementiert und genutzt werden – das kann dem Menschen und der Umwelt nützen, wofür wir uns alle einsetzen sollten. Leider sieht die Realität anders aus: Die Anwendung von KI kann auch unangemessene Risiken bergen, die wir mit den Prinzipien des verantwortungsvollen KI-Einsatzes adressieren wollen“, sagt Bojana Pleterski. Eine große Herausforderung sei auch das Verständnis der KI-Modelle selbst. Wissenschaftler versuchen etwa, neuronale Netzwerke so anzupassen, dass die Ergebnisse nachvollziehbar werden – und idealerweise auch der Weg, wie das Modell zu diesem Ergebnis gelangt ist.

KI-Sandbox – ein Modell für Europa?

In vielen europäischen Ländern existieren noch keine funktionierenden KI-Sandboxes. Erste Schritte zu ihrer Einführung wurden aber gemacht. Die juristische Fakultät der Universität Ljubljana z.B. entwickelt zusammen mit Partnern im Rahmen des ARIS-Forschungsprojekts einen rechtlichen und inhaltlichen Rahmen für einen nationalen KI-Sandbox. Dieser soll das Testen neuer Technologien und Geschäftsmodelle im Bereich KI ermöglichen.

Grundsätzlich wird ein solcher Sandbox ein strukturiertes Umfeld bieten, in dem innovative KI-Technologien, Produkte oder Dienstleistungen auf ihre Übereinstimmung mit den geltenden Gesetzen – insbesondere dem AI Act – geprüft werden, bevor sie auf den Markt kommen oder in den Einsatz gelangen. Verschiedene Akteure sollen in einer kontrollierten Umgebung zusammenarbeiten können. Unternehmen erhalten wertvolle Informationen zur rechtlichen Konformität ihrer Produkte, Regulierer gewinnen ein besseres Verständnis neuer Technologien. Das Konzept solcher Sandboxes ist nicht neu. Seit über einem Jahrzehnt existieren sie – vor allem im Finanzsektor – als Reaktion auf rasante technologische Entwicklungen und den Bedarf, neue Technologien vor dem Markteintritt zu testen. Im Bereich KI sind sie besonders wichtig als Instrument zur Innovationsförderung sowie zur Erkennung und Steuerung regulatorischer Risiken.

Warum funktioniert die KI-Sandbox noch nicht? „Das Hauptproblem liegt derzeit im Informationsmangel seitens der EU-Kommission, die noch keine Implementierungsrichtlinien veröffentlicht hat, anhand derer die Mitgliedstaaten Details zum Betrieb und zu den angebotenen Dienstleistungen der KI-Sandboxes erhalten würden“, erklärt Maruša T. Veber von der juristischen Fakultät Ljubljana. Geplant sei, die Sandbox bis 2026 einzuführen. Die Zugangskriterien für die Teilnahme sind derzeit noch unklar. „Die beteiligten Forscher fordern ein durchdachtes Konzept, das sich sowohl an Entwickler und Anwender als auch an Regulierer richtet. Sinnvoll wäre es, die Teilnahme möglichst breiten Unternehmenskreisen – inklusive Start-ups – schon in frühen Entwicklungsphasen zu ermöglichen“, so Veber.

Zusätzlich schlägt die juristische Fakultät Ljubljana Maßnahmen vor, die insbesondere die Beteiligung kleiner Unternehmen und Start-ups fördern sollen – etwa durch finanzielle und fachliche Unterstützung bei der Vorbereitung der erforderlichen Unterlagen. Ein ganzheitlicher und inklusiver Ansatz würde die Innovation stärken und gleichzeitig die sichere Nutzung neuer Technologien gewährleisten.

Große Chance für Unternehmen

Sind KI-Sandboxes in der Praxis wirksam – und was lässt sich daraus lernen? Erfahrungen aus dem Ausland zeigen: Unternehmen, die ihre Produkte erfolgreich in einer Sandbox getestet haben, waren auf dem Markt erfolgreicher. Die Zusammenarbeit ermöglichte einen direkten Draht zu den Regulierern, wodurch sich Zulassungsverfahren und Markteinführungen beschleunigten. Für Investoren waren diese Unternehmen attraktiver als die Konkurrenz. Auch Verbraucher vertrauten geprüften Produkten mehr.

Der AI Act sieht zudem vor, dass Unternehmen – insbesondere kleinere und mittlere sowie Start-ups – im Rahmen der Sandboxes zusätzliche Unterstützungsleistungen erhalten sollen. Dazu gehören Hilfe bei der Dokumentation für Standardisierung und Zertifizierung, der Zugang zu europäischen Digital-Innovationszentren, Exzellenzzentren und Testeinrichtungen für KI, die von der EU im Rahmen des Programms „Digitales Europa“ gefördert werden. Geplant ist, dass in den kommenden ein bis zwei Jahren mindestens 15 KI-Fabriken in Europa entstehen – eine davon in Slowenien.

Was ist der Kodex für generative KI, wie entsteht er und wann wird er erwartet?

Wie bei Verhaltenskodizes üblich, übersetzt auch dieser Kodex die rechtlichen Anforderungen in umsetzbare Praxis und bietet Unternehmen praktische Leitlinien zur Einhaltung des AI Act. Der Kodex selbst ist nicht rechtsverbindlich, aber seine Missachtung könnte rechtliche Probleme nach sich ziehen.

Das EU-Amt für KI hat zahlreiche Akteure zur Mitarbeit eingeladen. Es gab großes Interesse: Große Tech-Konzerne, Wissenschaftler wie Yoshua Bengio – ein Pionier der neuronalen Netze – sowie viele Non-Profit-Organisationen beteiligen sich. Insgesamt wirken über 1.000 Akteure mit.

Die Entwicklung des Kodex erfolgt in vier Arbeitsgruppen mit Fokus auf:

  • Transparenz und Urheberrechte
  • Risikoerkennung und -bewertung
  • Maßnahmen zur Risikominderung
  • Internes Risikomanagement für Anbieter generativer KI

Der Kodex befasst sich mit denselben Hochrisikobereichen, die Experten besorgen – etwa Kontrollverlust, biologische Waffen oder Cyberangriffe. Zudem formalisiert er freiwillige Selbstverpflichtungen, die viele Unternehmen bereits eingegangen sind – beispielsweise auf dem Seoul-Gipfel.

Er richtet sich explizit an große, meist US-amerikanische KI-Unternehmen – nicht an Start-ups oder Endanwender. Die Tech-Konzerne lobbyieren einerseits für weniger strenge Vorschriften, helfen aber gleichzeitig, die Regeln, die der Kodex konkretisiert, mitzugestalten. Industrievertreter betonen, der Kodex müsse so gestaltet werden, dass Innovationen nicht ausgebremst werden. Kritiker warnen, Unternehmen versuchten alles, um Transparenz zu umgehen. Der Kodex soll voraussichtlich noch vor August verabschiedet werden.

Der AI Act ist mehr als ein juristisches Regelwerk – er ist der Versuch, Europas Rolle im globalen KI-Wettrennen verantwortungsvoll zu definieren. Noch fehlt es an vielen operativen Details. Doch das kommende Jahr mit Sandboxes, nationalen Umsetzungen und dem Kodex für generative KI wird entscheidend dafür sein, ob Europa seine ambitionierte Vision durchsetzen kann.

X

DWN Telegramm

Verzichten Sie nicht auf unseren kostenlosen Newsletter. Registrieren Sie sich jetzt und erhalten Sie jeden Morgen die aktuellesten Nachrichten aus Wirtschaft und Politik.
E-mail: *

Ich habe die Datenschutzerklärung gelesen und erkläre mich einverstanden.
Ich habe die AGB gelesen und erkläre mich einverstanden.

Ihre Informationen sind sicher. Die Deutschen Wirtschafts Nachrichten verpflichten sich, Ihre Informationen sorgfältig aufzubewahren und ausschließlich zum Zweck der Übermittlung des Schreibens an den Herausgeber zu verwenden. Eine Weitergabe an Dritte erfolgt nicht. Der Link zum Abbestellen befindet sich am Ende jedes Newsletters.

DWN
Panorama
Panorama Nato-Luftraum: Moskaus Drohnen provozieren gefährliche Eskalation
11.09.2025

Russische Drohnen dringen tief in den Nato-Luftraum ein, erstmals greifen westliche Jets ein. Polen ruft nach Hilfe, Kanzler Merz warnt vor...

DWN
Technologie
Technologie Dunkelflaute und Blackout: Deutschlands Stromnetz vor wachsenden Herausforderungen
11.09.2025

Deutschland rühmt sich eines der sichersten Stromnetze der Welt. Doch die Lage kippt: Tennet-Chef Tim Meyerjürgens warnt vor wachsender...

DWN
Unternehmen
Unternehmen Klarna-Aktie: Schwedischer Zahlungsdienst sammelt 1,4 Milliarden Dollar ein
11.09.2025

Ein schwedisches Fintech schreibt in New York Börsengeschichte: Klarna startet mit sattem Kursplus und nimmt fast 1,4 Milliarden Dollar...

DWN
Politik
Politik Zu viele Beamte: Deutscher Staat beschäftigt zehntausende Beamte mehr als nötig
11.09.2025

Während die Industrie Personal abbaut, wächst die Zahl der Beschäftigten im öffentlichen Dienst – vor allem in den Verwaltungen. Das...

DWN
Wirtschaft
Wirtschaft Trump-Zölle: Schlafen die Investoren oder irren die Ökonomen?
11.09.2025

Trotz massiver Trump-Zölle und Angriffen auf ökonomische Institutionen steigen die US-Aktien auf Rekordstände. Ökonomen warnen vor...

DWN
Technologie
Technologie Lieferroboter im Test: Helsinki zeigt, wie die Zukunft der Essenszustellung aussieht
10.09.2025

In Helsinki liefern Roboter bereits Bestellungen für Wolt, in Slowenien testet McDonald’s Service-Roboter. Tempo-Limits und rechtliche...

DWN
Politik
Politik AfD-Verbot: CSU im Bundestag will nicht über AfD-Verbotsantrag sprechen
10.09.2025

AfD-Chef Tino Chrupalla sieht seine Partei unaufhaltsam auf dem Weg zur Regierungsübernahme. Grüne, SPD und Linke wollen jetzt...

DWN
Politik
Politik Corona Kommission soll „verstehen, nicht verurteilen“ - Aufarbeitung der Pandemie beginnt
10.09.2025

Masken, Tests und Schließungen: Die Einschnitte während der Corona-Pandemie waren hart und übergriffig. Nun soll eine Enquetekommission...