Auf der Münchner Sicherheitskonferenz verpflichteten sich am Freitag Vertreter von 20 Unternehmen - darunter Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, TikTok und X (Twitter) - zur Zusammenarbeit, um schädliche KI-Inhalte besser erkennen und bekämpfen zu können. Die Tech-Anbieter haben vor allem durch KI generierte Audio-, Video- und Bilddateien im Visier, die das Aussehen oder die Stimme von politischen Kandidaten, Wahlhelfern und anderen wichtigen Akteuren einer demokratischen Wahl täuschend nachahmen oder verändern. Außerdem richtet sich die Initiative gegen digitale Inhalte, die den Wählern falsche Informationen darüber liefern, wann, wo und wie die Wahlen stattfinden.
Vor allem in den USA, wo am 5. November unter anderen die Präsidentschaftswahl stattfindet, gibt es schon reichlich Erfahrungen mit manipulativen KI-Inhalten im laufenden Wahlkampf. Dort hatte zuletzt ein Telefonroboter bei den Vorwahlen in New Hampshire die Menschen mit der Stimme von Präsident Joe Biden aufgefordert, ihre Stimme nicht abzugeben. Die von einer KI generierte Stimme ist kaum von der echten Stimme des US-Präsidenten zu unterscheiden.
Der Chef der Münchner Sicherheitskonferenz, Christoph Heusgen, sagte, Wahlen seien das pulsierende Herz der Demokratien. Die Vereinbarung sei ein entscheidender Schritt, um die Integrität von Wahlen zu fördern, die gesellschaftliche Resilienz zu erhöhen und vertrauenswürdige Tech-Praktiken zu schaffen.
Kent Walker, President Global Affairs bei Google, erklärte: "Wir dürfen es nicht zulassen, dass ein digitaler Missbrauch die Chancen der Künstlichen Intelligenz bedroht, unsere Volkswirtschaften zu verbessern, neue Arbeitsplätze zu schaffen und den Fortschritt in Gesundheit und Wissenschaft voranzutreiben." Microsoft-Präsident Brad Smith meinte, während die Gesellschaft die Vorteile der KI nutze, stünden die Unterzeichner der Vereinbarung in der Verantwortung, dafür zu sorgen, dass diese Werkzeuge nicht zu einer Waffe bei Wahlen würden.
Im Rahmen des Abkommens wollen die beteiligten Firmen unter anderem ihre KI-Modelle neu bewerten, um die Risiken zu verstehen, die sie im Zusammenhang mit betrügerischen Wahlinhalten darstellen könnten. Die Unternehmen wollen gleichzeitig Bemühungen unterstützen, das öffentliche Bewusstsein für diese Herausforderung zu schärfen. Außerdem wollen die Unterzeichner die Medienkompetenz sowie die Widerstandsfähigkeit der gesamten Gesellschaft fördern. (dpa)