Künstliche Intelligenz (KI) revolutioniert unser Leben von Gesundheitsdiagnosen bis zur Fertigung. Siemens nutzt KI beispielsweise zur Effizienzsteigerung in der Produktion und im Energiemanagement. Gleichzeitig erhöhen solche Systeme das Risiko für die Privatsphäre und Grundrechte, wie etwa in den USA, wo fehlerhafte KI-Identifizierungen zu unrechtmäßigen Festnahmen führten, oder in China, wo KI zur Überwachung im öffentlichen Raum genutzt wird. Militärische Anwendungen, Deep-Fake-Systeme, Informationsfilterblasen und ungerechte Algorithmen bei Entscheidungsprozessen wie der Job-, Kredit- oder Wohnungsvergabe unterstreichen die Notwendigkeit von Regulierungen.
Die EU stellt sich mit dem „Artificial Intelligence Act“ (AI-Act) den aktuellen Herausforderungen. Das neue KI-Gesetz zielt darauf ab, die digitale Sicherheit und persönliche Freiheiten zu schützen und markiert einen Meilenstein in der Entwicklung digitaler Rechtsvorschriften. EU-Kommissionspräsidentin Ursula von der Leyen und der EU-Digitalkommissar Thierry Breton betrachten es als einen bedeutenden Fortschritt.
Der AI-Act steckt klare Grenzen für die Anwendung von Künstlicher Intelligenz
Der AI-Act verbietet künftig jene KI-Anwendungen, die tief in die Privatsphäre eindringen oder auf Vorurteilen basieren; diese sind nicht mehr gestattet. Das betrifft KI-Systeme, die Urteile auf Basis politischer Ansichten, religiöser Überzeugungen, sexueller Orientierung oder ethnischer Zugehörigkeit fällen. Auch der Einsatz von Technologien zur Emotions- und Gesichtserkennung in Arbeitsumfeldern und öffentlichen Räumen ist zum Schutz der Grundrechte und zur Verhinderung von Social Scoring nicht länger erlaubt.
Die Auswirkungen zeigen sich deutlich im Bereich der Personalbeschaffung: Diskriminierende, KI-basierte Auswahlverfahren, die sich auf verzerrte Daten stützen, sind in Zukunft untersagt.
Für andere KI-Systeme gelten strenge Standards, um den Schutz der Bürger zu gewährleisten und Missbrauch zu verhindern. Wenn KI-Systeme signifikante Risiken für individuelle Rechte bergen, wie etwa bei automatisierten Entscheidungsfindungen in Bereichen der Kreditvergabe oder Strafzumessung, müssen sie strengen Richtlinien entsprechen. Für Anwendungen mit geringerem Risikopotenzial gelten flexiblere Regulierungen.
Welche Unternehmen sind vom AI-Act betroffen?
Tatsächlich müssen alle Betriebe, die KI-Systeme nutzen oder entwickeln, den Bestimmungen des AI-Acts folgen. Das AI-Gesetz entwickelt sich so zu einem Schlüsselelement für Firmen aller Größenordnungen und Branchen, in denen KI zum Einsatz kommt. Davon betroffen sind nicht nur große Technologieunternehmen wie der Branchenprimus SAP, der schon damit begonnen hat, seine KI-Systeme den Gesetzesvorgaben anzupassen, sondern ebenso kleinere und mittelständische Betriebe (KMU) sowie Start-ups.
Dies umfasst zum Beispiel produzierende Unternehmen, die KI zur Optimierung von Prozessen und Qualität verwenden, Dienstleister wie Immobilienverwaltungen, die KI für das Erstellen von personenbezogenen Excel-Listen heranziehen, oder medizinische Einrichtungen, die auf KI-basierte Gesundheitsberatungen setzen.
Anforderungen aus dem AI-Act an Unternehmen: KI-Strategie und Transparenz
Viele Firmen sind sich der Tragweite des AI-Acts noch nicht bewusst. Greifen nämlich die Vorschriften, bedarf es einer individuellen KI-Strategie, um die Risiken von KI-Anwendungen einzuschätzen. Parallel dazu sind die jeweiligen Datenschutzstandards transparent gegenüber Kunden zu kommunizieren. Dies kann durch Informationsblätter, Allgemeine Geschäftsbedingungen (AGB), die eigene Website oder in persönlichen Gesprächen geschehen. Regelmäßige technische und organisatorische Anpassungen, von der Aktualisierung von Software und Hardware bis hin zu Prozessanpassungen, sind außerdem essenziell. Ein robustes Compliance-System ist ebenfalls notwendig, um eine dauerhafte Übereinstimmung mit dem AI-Act zu gewährleisten.
EU-KI-Gesetzgebung: Zwischen Innovationsrisiko und Wettbewerbsvorteil
Was heißt das für Unternehmen? Vor allem umfassende Planungen und Investitionen, was insbesondere für KMU und Start-Ups eine Herausforderung darstellen kann. Die Meinungen zur Regulierung der Künstlichen Intelligenz sind daher geteilt. Kritiker, darunter Dr. Bernhard Rohleder, Hauptgeschäftsführer von Bitkom, warnen vor potenzieller Überregulierung, welche die Innovation und Wettbewerbsfähigkeit im Bereich der generativen KI drosseln und europäische Firmen technologisch ins Abseits drängen könnte. Er sieht den AI-Act als „politischen Schaufenstererfolg zulasten der Wirtschaft und Gesellschaft“.
Iris Plöger vom Bund deutscher Industrie (BDI) äußert ähnliche Bedenken, dass strenge Regulierungen Europas Vorsprung in Schlüsseltechnologien gefährden und wichtige wirtschaftliche und gesellschaftliche Probleme wie „den Fachkräftemangel und die Energiewende“ hemmen könnten.
Dagegen sehen andere im neuen EU-Gesetz nicht nur Herausforderungen, sondern auch Vorteile: Rosmarie Steininger, CEO bei Chemistree, betrachtet die Regulierung als Treiber für Innovation, die ethisch und regulierungskonform ist. „Innovation kann Hand in Hand mit Regulierung gehen", unterstreicht Steininger. Es zwingt nicht nur zur Compliance, sondern ermöglicht auch, als vertrauenswürdige Marktteilnehmer zu glänzen und sich einen Vorsprung gegenüber weniger anpassungsfähigen Konkurrenten zu sichern.
Fakt ist: Die Diskussion um den AI-Act verlangt eine nuancierte Betrachtung. In Anbetracht der Komplexität der Materie und des erheblichen Risikos, das von missbräuchlich genutzter Künstlicher Intelligenz ausgeht, steht Europa unzweifelhaft vor der Aufgabe, ein Gleichgewicht zwischen strengen Richtlinien und der Förderung von Innovation zu finden. Übermäßig restriktive Regulierungen könnten sich als Hemmnis für Unternehmen erweisen und Europas Stellung im globalen Technologiewettbewerb schwächen. Es muss ein Mittelweg gefunden werden, der datenschutzkonforme Innovationen nicht behindert, sondern aktiv unterstützt. Gelingt dies, könnte sich Europa als Vorreiter einer ethischen und verantwortungsvollen Technologiepolitik positionieren.
Inkrafttreten des AI-Acts und Bußgelder
Nach dem erwarteten Inkrafttreten des AI-Acts im Frühjahr 2024 erhalten Unternehmen eine Übergangsfrist von 24 Monaten, um sich auf die Einhaltung neuer KI-Regelungen vorzubereiten. Insbesondere technologieintensive, finanzielle, gesundheitsbezogene und produktionsorientierte Branchen, die KI intensiv nutzen, sollten frühzeitig qualifizierten Rat einzuholen.
Nicht zuletzt, da die Konsequenzen bei Verstößen gegen den AI-Act erheblich sind: Unternehmen drohen Strafen von bis zu 35 Millionen Euro, wenn sie die Vorschriften missachten. Eine spezielle Überwachungsbehörde wird die Einhaltung der KI-Regulierungen kontrollieren, die von nationalen Aufsichtsbehörden unterstützt wird.
Das „Future of Life Institute“ (FLI), eine unabhängige Non-Profit-Organisation zur Risikominimierung bei transformativen Technologien, stellt Unternehmen ein nützliches Bewertungstool zur Verfügung. Mit diesem Tool können Unternehmen evaluieren, inwieweit sie von den Bestimmungen des AI-Acts betroffen sind.