Lesezeit: 11 min
23.09.2023 10:29  Aktualisiert: 23.09.2023 10:29
Der Fortschritt in der Entwicklung Künstlicher Intelligenz bringt weitgehende gesellschaftliche Herausforderungen und Risiken mit sich. Regierungen stehen vor neuen Problemen. Mit welchen Fragen müssen sich Regierungschefs im Gipfeltreffen in London auseinandersetzen?
Wessen KI-Revolution?
Die KI-Entwicklung ist noch stark unreguliert. (Foto: istockphoto.com/AndreyPopov)
Foto: AndreyPopov

Mehr zum Thema:  
Benachrichtigung über neue Artikel:  

Im November wird im Vereinigten Königreich ein hochrangig besetztes internationales Gipfeltreffen zur Governance im Bereich künstlicher Intelligenz (KI) stattfinden. Da Tagesordnung und Teilnehmerliste noch nicht feststehen, lautet die wichtigste Frage für die britischen Verantwortlichen, ob man China einladen soll oder ob man ein exklusiveres Treffen für die G7 und jene Länder anberaumt, die die liberale Demokratie als Fundament einer digitalen Gesellschaft absichern wollen.

Der Trade-off, also der Zielkonflikt, ist offensichtlich. Jeder globale Ansatz, der China nicht miteinschließt, hätte wohl nur begrenzte Auswirkungen. Andererseits würde Chinas Mitwirkung unweigerlich die Agenda beeinflussen. In diesem Fall könnte man auf dem Gipfel das Problem des staatlichen Einsatzes von KI zu Überwachungszwecken nicht behandeln – oder auch andere kontroverse Themen, die für demokratische Regierungen von Bedeutung sind.

Unabhängig von der Tagesordnung handelt es sich bei dem Gipfeltreffen um eine vernünftige Antwort auf die raschen und dramatischen Fortschritte im Bereich KI, die für Staaten sowohl einzigartige Chancen als auch Herausforderungen darstellen. Die Staats- und Regierungschefs dieser Welt sind erpicht darauf, eine technologische Revolution nicht vorüberziehen zu lassen, die ihnen – im Idealfall – helfen könnte, ihre jeweilen Volkswirtschaften zu stärken und globale Herausforderungen zu bewältigen.

KI verfügt zweifellos über das Potenzial, die Produktivität des Einzelnen zu verbessern und den sozialen Fortschritt voranzutreiben. Sie könnte eine bedeutende Weiterentwicklung in Bildung, Medizin, Landwirtschaft und vielen anderen für die menschliche Entwicklung entscheidenden Bereichen mit sich bringen. Darüber hinaus wird sie sich zur Grundlage geopolitischer und militärischer Macht herausbilden und Ländern, die in der KI-Entwicklung eine Führungsrolle übernehmen, einen erheblichen strategischen Vorteil verschaffen.

Doch KI birgt auch gesellschaftliche Herausforderungen und Risiken, weswegen die Forderungen nach staatlicher Intervention und Regulierung immer häufiger zu vernehmen sind. Unter anderem ist davon auszugehen, dass KI den Arbeitsmarkt verändern wird. Viele Arbeitskräfte werden keinen Einsatz mehr finden, während andere sehr viel produktiver werden. Aus diesem Grund ist zu erwarten, dass sich bestehende Ungleichheiten verschärfen und der soziale Zusammenhalt erodiert. Außerdem werden böswillige Akteure KI als Waffe einsetzen, um damit Betrügereien zu begehen, Menschen zu täuschen und Desinformationen zu verbreiten.

Im Zusammenhang mit Wahlen könnte KI die politische Autonomie der Bürgerinnen und Bürger beeinträchtigen und die Demokratie untergraben. Und als wirkungsvolles Instrument für Überwachungszwecke droht sie, Grundrechte und bürgerliche Freiheiten des Einzelnen auszuhöhlen.

Während die genannten Risiken mit an Sicherheit grenzender Wahrscheinlichkeit eintreten werden, sind andere eher spekulativ, dafür aber potenziell katastrophal. Von mancher Seite wird insbesondere davor gewarnt, dass KI außer Kontrolle geraten und eine existenzielle Bedrohung für die Menschheit darstellen könnte.

Kein einheitliches Regulierungsmodell

Mit Blick darauf, die ungeahnten Möglichkeiten der KI zu nutzen und gleichzeitig die potenziell schwerwiegenden Risiken zu beherrschen, zeichnen sich unterschiedliche Ansätze zur Regulierung des Sektors ab. Die Vereinigten Staaten zögern, sich in die Entwicklung einer disruptiven Technologie einzumischen, die für ihren wirtschaftlichen, geopolitischen und militärischen Wettbewerb mit China von entscheidender Bedeutung ist und setzen daher auf freiwillige Richtlinien und die Selbstregulierung durch Technologieunternehmen.

Im Gegensatz dazu beharrt die Europäische Union darauf, die Governance von KI nicht den Technologieunternehmen zu überlassen. Vielmehr müsse die digitale Regulierung auf rechtsstaatlichen Prinzipien beruhen und einer demokratischen Kontrolle unterliegen. Zusätzlich zu den bestehenden digitalen Regulierungen befindet sich die EU in der Endphase der Ausarbeitung einer umfassenden, rechtsverbindlichen KI-Verordnung, die auf den Schutz der Grundrechte des Einzelnen abstellt, darunter das Recht auf Datenschutz und Nicht-Diskriminierung.

Auch China arbeitet an einer ambitionierten KI-Regulierung, wobei diese allerdings autoritäre Züge aufweist. Die Behörden wollen zwar die KI-Entwicklung fördern, ohne jedoch die Zensur zu unterlaufen und das politische Machtmonopol der Kommunistischen Partei Chinas zu gefährden. Dies bringt jedoch einen Zielkonflikt mit sich, denn um die soziale Stabilität aufrechtzuerhalten, muss die KPC Inhalte einschränken, die für das Training der großen Sprachmodelle hinter der generativen KI verwendet werden könnten.

Somit präsentieren USA, EU und China konkurrierende Modelle der KI-Regulierung. Als weltweit führende Mächte in den Bereichen Technologie, Wirtschaft und Regulierung handelt es sich bei ihnen um „digitale Imperien”: sie regulieren nicht nur den jeweiligen heimischen Markt, sondern exportieren ihr Regulierungsmodell auch und zielen darauf ab, die weltweite Ordnung im digitalen Bereich nach eigenen Interessen zu gestalten. Einige Staaten werden sich in ihrer Regulierungspolitik am marktorientierten Ansatz der USA orientieren und sich für eine sanfte Regulierung entscheiden; andere wiederum werden sich auf die Seite des rechteorientierten Ansatzes der EU schlagen und verbindliche Rechtsvorschriften anstreben, die der Entwicklung von KI Grenzen setzen; wieder andere, nämlich autoritäre Staaten, werden sich ein Beispiel an China nehmen und dessen staatszentriertes Regulierungsmodell nachahmen.

Die meisten Länder werden wahrscheinlich an alle drei Ansätze anknüpfen und selektiv Elemente übernehmen. Das heißt, eine einzige, weltweit einheitliche Blaupause für KI-Governance wird sich wohl nicht herauskristallisieren.

Gründe für Zusammenarbeit

Obwohl also regulatorische Divergenzen unvermeidlich scheinen, besteht eklatanter Bedarf an internationaler Koordination, da KI Herausforderungen mit sich bringt, die kein Staat allein bewältigen kann. Eine engere Abstimmung der regulatorischen Ansätze würde allen Staaten helfen, die potenziellen Vorteile der Technologie zu maximieren und gleichzeitig die Risiken zu minimieren.

Schafft jede Regierung ihren eigenen Rechtsrahmen, wird die daraus resultierende Fragmentierung die Entwicklung der KI behindern. Denn die Navigation durch widersprüchliche Regulierungsregime erhöht die Kosten der Unternehmen, verstärkt die Unsicherheit und höhlt erwartete Gewinne aus. Einheitliche und berechenbare Standards auf allen Märkten fördern die Innovation, honorieren KI-Entwickler und kommen den Verbrauchern zugute.

Außerdem könnte ein internationales Abkommen helfen, diese erwarteten Gewinne gerechter auf die Länder zu verteilen. Derzeit konzentriert sich die KI-Entwicklung in wenigen (meist) entwickelten Volkswirtschaften, die wohl als klare Sieger aus dem globalen KI-Wettrennen hervorgehen werden. Gleichzeitig sind die Möglichkeiten der meisten anderen Länder, die Vorteile der KI zu nutzen, begrenzt. Es bedarf internationaler Zusammenarbeit, um den Zugang zu demokratisieren und Befürchtungen zu entkräften, wonach KI nur einem bestimmten Kreis wohlhabender Länder zugute kommt und der globale Süden weiter zurückfällt.

Internationale Koordination könnte den Staaten überdies helfen, grenzüberschreitende Risiken zu steuern und einen Wettlauf nach unten zu verhindern. Ohne eine derartige Koordination würden einige Akteure Regulierungslücken in manchen Märkten wohl ausnutzen und damit die Vorteile gut konzipierter Schutzmechanismen auf anderen Märkten zunichte machen. Um Regulierungsarbitrage zu verhindern, müssten Länder mit besseren Regulierungsstrukturen den in dieser Hinsicht schlechter ausgestatteten Ländern technische Hilfe anbieten. In der Praxis würde dies bedeuten, Ressourcen zu bündeln, um KI-bezogene Risiken zu identifizieren und zu bewerten, technisches Wissen über diese Risiken zu vermitteln und den Ländern zu helfen, regulatorische Antworten darauf zu finden.

Am bedeutsamsten ist wohl, dass internationale Zusammenarbeit das kostspielige und gefährliche KI-Wettrüsten eindämmen könnte, bevor diese Entwicklung die globale Ordnung destabilisiert oder einen militärischen Konflikt auslöst. Ohne umfassendes Abkommen, in dem die Regeln für KI mit zweifachem (zivilen und militärischen) Verwendungszweck festgelegt sind, wird kein Land das Risiko auf sich nehmen können, seine eigene militärische Entwicklung zu beschränken und seinen Widersachern auf diese Weise einen strategischen Vorteil zu verschaffen.

Angesichts der offenkundigen Vorteile der internationalen Koordinierung sind innerhalb verschiedener Institutionen wie der OECD, den G20, den G7, dem Europarat und den Vereinten Nationen bereits Bemühungen zur Entwicklung globaler Standards oder Methoden der Zusammenarbeit im Gange. Es ist jedoch zu befürchten, dass diese Anstrengungen nur begrenzte Wirkung zeigen werden. Angesichts unterschiedlicher Werte, Interessen und Möglichkeiten der einzelnen Staaten wird es schwierig sein, einen sinnvollen Konsens zu erzielen. Aus diesem Grund wird der bevorstehende Gipfel im Vereinigten Königreich höchstwahrscheinlich auch nur hochtrabende Erklärungen hervorbringen, nebulöse hehre Prinzipien unterstützen und sich zur Fortsetzung des Dialogs verpflichten.

Die Regulierungsdebatte

Nicht alle bejubeln erfolgreiche staatliche Regulierungsbemühungen. Mancherorts ist man überhaupt dagegen, dass Staaten Regulierungsversuche für eine sich derart schnell entwickelnde Technologie unternehmen.

Dabei bringen die Kritiker typischerweise zwei Argumente vor. Erstens sei KI zu komplex und schnelllebig, als dass die Gesetzgeber sie verstehen und mit der Entwicklung Schritt halten könnten. Zweitens heißt es, dass die Gesetzgeber, selbst wenn sie für die Regulierung der KI qualifiziert wären, wahrscheinlich übermäßig vorsichtig vorgehen - also zu viel tun - würden und damit Innovationen bremsen und den Nutzen der KI schmälern. Träfe das zu, wären beide Befürchtungen Grund genug für die Regierungen, dem „Do no harm“-Prinzip zu folgen, Zurückhaltung zu üben und die KI-Revolution ihren eigenen Weg gehen zu lassen.

Das Argument, wonach Gesetzgeber nicht in der Lage wären, eine so komplexe, vielschichtige und sich schnell entwickelnde Technologie zu verstehen, ist zwar leicht vorzubringen, überzeugt aber trotzdem nicht. Politische Entscheidungsträger regulieren viele Bereiche der Wirtschaftstätigkeit, ohne selbst Wirtschaftsfachleute zu sein. Nur wenige Regulierungsbehörden wissen, wie man Flugzeuge baut, und doch üben sie unumstrittene Autorität im Bereich der Flugsicherheit aus. Auch Medikamente und Impfstoffe unterliegen der staatlichen Regulierung, obwohl nur wenige Mitglieder gesetzgebender Körperschaften (wenn überhaupt) Experten für Biotechnologie sind. Verfügten nur Fachleute über Regulierungskompetenz, würde sich jede Branche selbst regulieren.

Überdies geht es bei der dieser Herausforderung der KI-Governance zwar teilweise um Technologie, aber auch um das Verständnis dessen, wie diese Technologie Grundrechte und Demokratie beeinflusst. In diesem Bereich können die Tech-Konzerne wohl kaum Expertise für sich reklamieren. Man denke etwa an Meta (Facebook). Dessen Bilanz in Sachen Inhaltsmoderation und Datenschutz lässt vermuten, dass es sich dabei – wie auch bei den meisten anderen führenden Tech-Konzernen - wohl um eines der am wenigsten qualifizierten Unternehmen der Welt handelt, wenn es um den Schutz von Demokratie oder Grundrechten geht. In Anbetracht dessen, was auf dem Spiel steht, muss der Staat die Führungsrolle bei der Regelung der KI übernehmen (und nicht deren Entwickler).

Das soll nicht heißen, dass der Staat die Regulierung in jedem Fall richtig hinbekommt oder die Unternehmen durch die Regulierung nicht gezwungen werden, Ressourcen aus Forschung und Entwicklung in die Einhaltung der Bestimmungen umzuleiten. Bei entsprechender Umsetzung kann Regulierung Unternehmen jedoch dazu ermutigen, in ethischere und weniger fehleranfällige Anwendungen zu investieren und die Branche damit in Richtung robusterer KI-Systeme zu lenken. Auf diese Weise ließe sich das Vertrauen der Verbraucher in die Technologie stärken und damit die Marktchancen für KI-Unternehmen ausweiten - anstatt sie zu schmälern.

Die Staaten haben allen Grund, nicht auf die mit der KI verbundenen Vorteile zu verzichten. Sie benötigen dringend neue Quellen des Wirtschaftswachstums und der Innovation, die dabei helfen, die Zukunft zu gestalten, wenn es etwa darum geht, Verbesserungen in Bildungs- und Gesundheitssystemen zu geringeren Kosten zu erzielen. Wenn überhaupt besteht wohl eher die Gefahr, dass sie zu wenig tun, um nicht einen strategischen Vorteil zu verlieren oder sich einen potentiellen Nutzen entgehen zu lassen.

Entscheidend im Hinblick auf die Regulierung einer sich schnell entwickelnden, vielschichtigen Technologie ist die enge Zusammenarbeit mit KI-Entwicklern, die gewährleisten soll, dass die potenziellen Vorteile erhalten und die Regulierungsbehörden flexibel bleiben. Enge Abstimmung mit Technologieunternehmen ist das eine, die Regulierung einfach dem Privatsektor zu überlassen, jedoch etwas ganz anderes.

Wer hat das Sagen?

Manche Kommentatoren sorgen sich weniger um mangelndes KI-Verständnis aufseiten der politisch Verantwortlichen oder eine falsche Herangehensweise im Bereich KI-Regulierung, weil man nämlich grundsätzlich bezweifelt, dass staatliches Handeln von Bedeutung ist. Aus dem Lager der Techno-Deterministen heißt es, dass Regierungen letztlich nur begrenzt in der Lage sind, Technologieunternehmen überhaupt zu regulieren. Da die wahre Macht im Silicon Valley und anderen Zentren der KI-Entwicklung verortet ist, hätte es keinen Sinn, dass sich Regierungen auf einen Kampf einlassen, den sie nicht gewinnen können. Hochrangig besetzte Konferenzen und Gipfeltreffen würden zu Nebenschauplätzen werden, die es Regierungen lediglich ermöglichen, so zu tun, als ob sie noch immer das Sagen hätten.

Einige Stimmen behaupten sogar – nicht ganz zu Unrecht – dass die Tech-Unternehmen die „neuen Herrscher” seien, die eine „Form der Souveränität“ ausüben und den Weg in Richtung einer Welt bereiten, die sich nicht mehr unipolar, bipolar oder multipolar, sondern „technopolar” präsentieren wird. Tatsächlich üben die größten Technologieunternehmen größeren wirtschaftlichen und politischen Einfluss aus als die meisten Staaten. Zudem verfügt die Technologiebranche über nahezu unbegrenzte Ressourcen, um Lobbyarbeit gegen Regulierungen zu betreiben und sich in Rechtsstreitigkeiten gegen Staaten zu behaupten.

Daraus folgt jedoch nicht, dass die Regierungen in diesem Bereich machtlos sind. Der Staat bleibt die Grundlage, auf der Gesellschaften aufgebaut sind. Der Politikwissenschaftler Stephen M. Walt hat es kürzlich so formuliert: „Was wird es Ihrer Meinung nach in 100 Jahren noch geben? Facebook oder Frankreich?” Trotz all des Einflusses, den sich die Tech-Konzerne aufgebaut haben, bleibt der Staat die ultimative Instanz zur Durchführung von Zwangsmaßnahmen.

Diese Autorität kann eingesetzt werden (und sie wird es häufig auch), um die Arbeitsweise von Unternehmen zu ändern. Nutzungsbedingungen, Gemeinschaftsrichtlinien und alle anderen, von großen Technologieunternehmen aufgestellten Regeln unterliegen weiterhin den Gesetzen des Staates, der auch befugt ist, die Einhaltung dieser Gesetze durchzusetzen. Technologieunternehmen können sich nicht vom Staat abkoppeln. Zwar können sie versuchen, sich staatlichen Vorschriften zu widersetzen oder sie mitzugestalten, doch letztlich haben sie sich diesen Bestimmungen zu fügen. Sie verfügen über keine Möglichkeit, gegen den Willen der Kartellbehörden Fusionen zu erzwingen, sie können sich nicht weigern, von Staaten erhobene digitale Steuern zu zahlen, und sie können keine digitalen Dienstleistungen anbieten, die gegen die Gesetze eines Landes verstoßen. Wenn Regierungen bestimmte KI-Systeme oder Anwendungen verbieten, haben Technologieunternehmen keine andere Wahl, als sich daran zu halten oder sich aus diesem Markt zurückzuziehen.

Das ist keine rein hypothetische Überlegung. Anfang dieses Jahres warnte Sam Altman von OpenAI (dem Entwickler von ChatGPT), dass sein Unternehmen dessen Produkte aufgrund regulatorischer Beschränkungen möglicherweise nicht in der EU anbieten würde. Doch schon wenige Tage später ruderte er zurück. Die Souveränität von OpenAI beschränkt sich also auf die Freiheit, in der EU oder einer anderen Gerichtsbarkeit, deren Regulierungen das Unternehmen ablehnt, keine Geschäfte zu machen. Es steht OpenAI frei, von dieser Wahlfreiheit Gebrauch zu machen, aber die zu treffende Entscheidung ist durchaus kostspielig.

Ein Problem des politischen Willens

Die Frage lautet also nicht, ob Regierungen die digitale Wirtschaft regulieren können, sondern ob sie den politischen Willen dazu haben. Seit der Kommerzialisierung des Internets in den 1990er Jahren hat sich die US-Regierung dafür entschieden, wichtige Governance-Aufgaben an den privaten Sektor zu delegieren. Dieser techno-libertäre Ansatz findet seinen bekanntesten Niederschlag in Paragraph 230 des US-amerikanischen Communications Decency Act von 1996, der Online-Plattformen von der Haftung für die auf diesen Plattformen erscheinenden Inhalte Dritter entbindet. Doch selbst angesichts dieses Gesetzeswerks ist die US-Regierung nicht machtlos. Obwohl man den Plattformen mit Paragraph 230 freie Hand lässt, ist die Regierung weiterhin befugt, dieses Gesetz aufzuheben oder zu ändern.

Der politische Wille dazu mag in der Vergangenheit gefehlt haben, doch angesichts des schwindenden Vertrauens in die Technologiebranche nimmt die Dynamik für eine Regulierung an Fahrt auf. In den letzten Jahren hat der amerikanische Gesetzgeber nicht nur Gesetzesentwürfe zur Neufassung von Paragraph 230, sondern auch zur Wiederbelebung des Kartellrechts und zur Einführung eines Bundesgesetzes zum Datenschutz vorgelegt. Und einige Abgeordnete sind mittlerweile entschlossen, KI zu regulieren. Sie halten Anhörungen ab und legen bereits Gesetzesvorschläge vor, die sich mit den jüngsten Fortschritten bei generativen KI-Algorithmen und großen Sprachmodellen befassen.

Doch während zwischen Demokraten und Republikanern im Kongress zunehmend Einigkeit darüber herrscht, dass Technologieunternehmen zu mächtig geworden sind und reguliert werden müssen, sind sie in der Frage, wie dies geschehen soll, tief gespalten. Bei manchen steht die Sorge im Vordergrund, dass die Regulierung der KI den technologischen Fortschritt und die Innovation in den USA in einer Zeit des zunehmenden Wettbewerbs zwischen den USA und China untergraben würde. Und die Tech-Unternehmen betreiben natürlich weiterhin aggressive und schlagkräftige Lobbyarbeit, was vermuten lässt, dass selbst ein parteiübergreifender Anti-Tech-Kreuzzug am Ende wenig ändern würde. So stark die Unzufriedenheit mit den Technologieunternehmen auch sein mag, die politische Dysfunktion im Kongress könnte sich als stärker erweisen.

Aber auch das bedeutet nicht, dass Regierungen nicht das Sagen haben. Die EU etwa wird nicht durch eine derartige politische Dysfunktion behindert und ihre jüngste Bilanz in puncto Gesetzgebung präsentiert sich beeindruckend. Nach der Verabschiedung der Datenschutz-Grundverordnung (DSGVO) im Jahr 2016 wurde die Regulierung von Online-Plattformen in Angriff genommen. Dies geschah auf Grundlage richtungsweisender Gesetze aus dem Jahr 2022: nämlich dem Gesetz über digitale Dienste und dem Gesetz über digitale Märkte, die klare Regeln für die Moderation von Inhalten beziehungsweise den Wettbewerb auf dem Markt festlegen. Und das ambitionierte KI-Gesetz der EU wird voraussichtlich noch in diesem Jahr fertiggestellt werden.

Doch so erfolgreich die EU in der Gesetzgebung auch ist, bei der Durchsetzung ihrer digitalen Regulierungen wurden die erklärten Ziele der Maßnahmen oft nicht erreicht. Vor allem die Umsetzung der DSGVO hat viel Kritik hervorgerufen, und alle gegen Google verhängten hohen Kartellstrafen haben wenig dazu beigetragen, die Dominanz des Unternehmens zu schmälern. Diese Misserfolge haben einige zu der Auffassung gebracht, dass die Technologieunternehmen bereits zu groß für eine Regulierung sind und KI ihre Marktmacht weiter festigen wird, wodurch die EU noch weniger in der Lage wäre, ihre Gesetze durchzusetzen.

Für die chinesische Regierung stellt sich dieses Problem freilich nicht. Da sie sich nicht an einen demokratischen Prozess halten muss, konnte sie ab 2020 drastisch und unvermittelt gegen die Tech-Industrie des Landes vorgehen, und die Tech-Unternehmen kapitulierten pflichtschuldig. Dieser relative „Erfolg“, Tech-Unternehmen in die Pflicht zu nehmen, steht in krassem Widerspruch zu den Erfahrungen der europäischen und amerikanischen Regulierungsbehörden. In beiden Rechtsordnungen haben die Regulierungsbehörden langwierige juristische Auseinandersetzungen mit Unternehmen zu führen, die jegliche geforderten Regulierungsmaßnahmen verlässlich anfechten, anstatt sich ihnen zu fügen.

Das gleiche Muster könnte sich bei der Regulierung von KI wiederholen. Der US-Kongress wird wohl weiterhin hitzige Debatten führen, aber ohne wirkliche Maßnahmen in der Sackgasse steckenbleiben; und die EU wird Gesetze verabschieden, obwohl die anhaltende Unsicherheit über die Wirksamkeit ihrer Regulierungsmaßnahmen zu ähnlichen Ergebnissen wie in den USA führen könnte. In diesem Fall wird es nicht demokratisch gewählten Regierungen, sondern Technologieunternehmen überlassen sein, die KI-Revolution nach ihrem Gutdünken zu gestalten.

Der große Test für die Demokratie

Diese Szenarien lassen die beunruhigende Vermutung aufkommen, dass nur autoritäre Regime in der Lage sind, KI effektiv zu regeln. Um diese These zu widerlegen, gilt es für die USA, die EU und andere gleichgesinnte Staaten, zu zeigen, dass eine demokratische Governance für KI sowohl machbar als auch wirksam ist. Sie werden auf ihrer Rolle als oberste Regelsetzer beharren müssen.

Der bevorstehende Gipfel wird die Welt wahrscheinlich nicht davon überzeugen, dass wahrhaft globale KI-Regeln in absehbarer Zeit in Reichweite sind. Die Meinungsverschiedenheiten sind nach wie vor zu gravierend, als dass die Länder - insbesondere die sogenannten Techno-Demokratien und Techno-Autokratien - gemeinsam handeln könnten. Nichtsdestotrotz kann und sollte der Gipfel ein klares Signal aussenden, dass Technologieunternehmen weiterhin den Regierungen verpflichtet sind und nicht umgekehrt.

Neben der engen Zusammenarbeit mit Technologieunternehmen zur Förderung der KI-Innovation und zur Maximierung ihres Nutzens müssen demokratische Regierungen auch ihre Bürger, Werte und Institutionen schützen. Ohne diese Art des zweifachen Engagements werden wahrscheinlich eher die Risiken und weniger die Versprechen KI-Revolution eintreten.

Aus dem Englischen von Helga Klinger-Groier

Copyright: Project Syndicate, 2023.

www.project-syndicate.org

***

Anu Bradford ist Professorin für Recht und Internationale Organisation an der Columbia Law School und Verfasserin des in Kürze erscheinenden Buches Digital Empires: The Global Battle to Regulate Technology (Oxford University Press, 2023).


Mehr zum Thema:  

DWN
Politik
Politik Krankenhausreform: Entscheidung über Lauterbachs hoch umstrittenes Projekt heute im Bundesrat
22.11.2024

Krankenhausreform: Kommt sie jetzt doch noch? Bundesgesundheitsminister Karl Lauterbach (SPD) steht mit seinem hochumstrittenen Projekt vor...

DWN
Unternehmen
Unternehmen Insolvenz von HH2E: Rückschlag für Habecks Energiewende - Wasserstoffprojekte in Sachsen in Gefahr
22.11.2024

Der Wasserstoff-Spezialist HH2E hat Insolvenz angemeldet, die Finanzierung durch ein britisches Private-Equity-Unternehmen ist gestoppt....

DWN
Finanzen
Finanzen US-Aktien sind heiß gelaufen: Warum immer mehr Analysten den europäischen Aktienmarkt in den Blick nehmen
22.11.2024

Vermögensverwalter Flossbach von Storch sieht zunehmend Risiken für US-Aktien. Nach der jüngsten Rekordjagd an den US-Börsen verlieren...

DWN
Politik
Politik SPD-Kanzlerkandidat steht fest: Pistorius zieht zurück und ebnet Weg für Scholz
21.11.2024

Nach intensiven Diskussionen innerhalb der SPD hat Verteidigungsminister Boris Pistorius Olaf Scholz den Weg für die erneute...

DWN
Finanzen
Finanzen Bitcoin-Prognose: Kryptowährung mit Rekordhoch kurz vor 100.000 Dollar - wie geht's weiter?
21.11.2024

Neues Bitcoin-Rekordhoch am Mittwoch - und am Donnerstag hat die wichtigste Kryptowährung direkt nachgelegt. Seit dem Sieg von Donald...

DWN
Panorama
Panorama Merkel-Buch „Freiheit“: Wie die Ex-Kanzlerin ihre politischen Memoiren schönschreibt
21.11.2024

Biden geht, Trump kommt! Wer auf Scholz folgt, ist zwar noch unklar. Dafür steht das Polit-Comeback des Jahres auf der Tagesordnung: Ab...

DWN
Politik
Politik Solidaritätszuschlag: Kippt das Bundesverfassungsgericht die „Reichensteuer“? Unternehmen könnten Milliarden sparen!
21.11.2024

Den umstrittenen Solidaritätszuschlag müssen seit 2021 immer noch Besserverdiener und Unternehmen zahlen. Ob das verfassungswidrig ist,...

DWN
Finanzen
Finanzen Bundesbank: Konjunkturflaute, Handelskonflikte, leere Büroimmobilien - Banken stehen vor akuten Herausforderungen
21.11.2024

Eigentlich stehen Deutschlands Finanzinstitute in Summe noch ganz gut da – so das Fazit der Bundesbank. Doch der Blick nach vorn ist...