Hass und Hetze, Falschinformationen und Aufrufe zu Terror und Gewalt sind ein zunehmendes Problem im digitalen Raum. Besonders deutlich wird das seit dem brutalen Überfall von Hamas-Terroristen auf israelische Zivilisten am 7. Oktober und dem darauf folgenden Krieg Israels gegen die Hamas im Gazastreifen. Im Sekundentakt werden seither die sozialen Netzwerke mir brutalen Bildern und Videos geflutet, bei denen Laien kaum noch unterscheiden können, ob sie echt oder gefälscht sind. Häufig stammen sie aus völlig anderen Konflikten oder wurden sogar mit Ausschnitten von Videospielen erstellt. Die falschen Botschaften sind gefährlich, sie können Angst und Verunsicherung schüren, Demokratien destabilisieren, Konflikte eskalieren und zu direkter Gewalt führen.
Sie können sogar die Weltordnung erschüttern, wie Reaktionen auf den Raketenbeschuss auf ein Krankenhaus in Gaza mit mehreren hundert getöteten Zivilisten am Dienstag zeigen, bei dem bisher noch nicht klar ist, ob er auf das Konto Israels geht oder doch das Ergebnis einer fehlgeleiteten Rakete der Hamas ist. Beide beschuldigen sich gegenseitig. Erste Urteile sind bereits gefällt. Die arabischen Staaten haben ein Treffen mit US-Präsident Biden abgesagt. Auch auf den Straßen europäischer Städte ist die Stimmung aufgeheizt.
Spagat zwischen Desinformation und Meinungsfreiheit
Die allgemeine Verunsicherung ob der unübersichtlichen Nachrichtenlage und der zwiespältigen Gefühle in dem Konflikt zeigte sich auch bei der Debatte über Desinformation im Netz im EU-Parlament am Mittwochabend. Dort diskutierten die Abgeordneten mit Vertretern von Kommission und Rat über das Problem und über den Nutzen des im August in Kraft getretenen Digital Service Act (DSA). Das Gesetz verbietet illegale Inhalte im Netz und verpflichtet die Betreiber großer Plattformen dagegen vorzugehen. Illegale Inhalte sind beispielsweise Kinderpornografie, Aufrufe zu Hass, Gewalt und Terror, Darstellungen von Gräueltaten und nachweisliche Falschinformationen. Die Meinungsfreiheit soll ausdrücklich gewahrt werden.
Darauf, dass zwischen Desinformation und Meinungsfreiheit oft nur ein schmaler Grat liegt, machten einige linke und rechte Abgeordnete aufmerksam, die den DSA auch als Zensur verstehen. Wenn damit unbequeme oder gegen den Mainstream stehende Meinungen unterdrückt würden, wäre ein kritischer Diskurs nicht mehr möglich. Die Mehrheit sprach sich allerdings ausdrücklich für die Notwendigkeit eines entschlossenen Einschreitens gegen Falschinformationen in ihren krassen Formen aus.
X im Visier der EU-Kommissarin
Besonders häufig sind sie nach neuesten Erkenntnissen in den Posts von X (ehemals Twitter) zu finden, aber auch andere Plattformen haben damit zu kämpfen. Sie haben dafür einen freiwilligen Praxiskodex zur Bekämpfung von Desinformation unterzeichnet. X/Twitter hat den Zusammenschluss im Mai wieder verlassen, doch sollte Elon Musk mit seinem Kurznachrichtendienst weiter in Europa aktiv sein wollen, könnte er Probleme bekommen.
Věra Jourová, Vize-Präsidentin der EU-Kommission und zuständig für die Umsetzung des Kodex, hat X im Blick. „Mit dem neuen Digital Service Act ist auch Elon Musk verpflichtet, sich an die Gesetze zu halten“, sagte Jourová Anfang Oktober in Brüssel. „Meine Botschaft an Twitter lautet: Wir werden beobachten, was Sie tun!“ Wenn die Plattformbetreiber über illegale Inhalte informiert werden, müssen sie innerhalb von 24 Stunden reagieren und darüber hinaus selbst proaktiv mit Moderatoren-Teams eingreifen. Wer sich nicht daran hält, riskiert hohe Strafen bis zum Verbot.
Plattformen geben erstmals umfangreiche Einblicke
Die EU versucht seit einigen Jahren mit verschiedenen Initiativen und Gesetzen das Internet zu bändigen. Nach zwei Jahrzehnten „Wild West“ soll das Internet zu einem sichereren, transparenteren und vertrauensvolleren Umfeld werden. Wegen der Europawahlen im kommenden Jahr, des Kriegs in der Ukraine und nun auch noch in Israel/Gaza treibt die EU das Problem Desinformation und Manipulation im Netz um. Entsprechend steigt auch der Druck auf die Plattformen, bei deren Bekämpfung aktiver zu werden.
Denn dass die Plattformen sehr wohl in der Lage sind, etwas gegen illegale Inhalte im Netz zu unternehmen, haben sie bereits belegt. Anfang Oktober wurde der erste umfassende Bericht der Unterzeichner dieses freiwilligen EU-Abkommens mit Auswertungen von Google, Meta, Microsoft, TikTok sowie der Faktenchecker-Organisation EFCSN veröffentlicht, den Jourová in einer ersten Zusammenfassung vorstellte. Mit einer in dieser Form neuen Fülle von Daten und Analysen bilanzieren die Dienste ihre Aktivitäten der vergangenen sechs Monate und geben einen Einblick in das Ausmaß, die Verbreitung und Rezeption von Fake-News auf den Social-Media-Plattformen und Suchmaschinen in Europa. Ihre Bemühungen, diesen einen Riegel vorzuschieben, belegen sie mit Daten und Zahlen.
Algorithmen verstärken Desinformation
Die Plattformen hatten unter anderem Indikatoren dafür gefunden, zu ermitteln, wie einfach es ist, Desinformations-Inhalte zu finden, wie viel Engagement solche Inhalte erhalten und von welchen Quellen sie kommen. In einem Pilotprojekt in den drei Mitgliedsstaaten Polen, Slowakei und Spanien wurde eine Methodologie für diese Indikatoren evaluiert.
Ergebnis: X/Twitter weist die größte Anzahl an Falsch- oder Desinformationsposts auf. Das ist wenig verwunderlich, da X-Chef Elon Musk sich immer wieder öffentlich gegen jede Form von Regulierung ausspricht. Die Verbreiter von Desinformation haben laut den Berichten deutlich mehr Follower als jene, die auf Desinformation verzichten und sind meist später als letztere den Plattformen beigetreten. Die teils 200 Seiten starken Berichte der einzelnen Plattformen liefern weitere Erkenntnisse, die noch auszuwerten sind, so die Kommissarin.
Dass hetzerische und auf Drama abzielende Posts zu mehr vom Gleichen führen, hat auch mit den Algorithmen der Plattformen zu tun. Starke Emotionen erhalten mehr Aufmerksamkeit und verstärken sich selbst, was den Betreibern mehr Profite beschert als „langweiligere“ gesicherte Information, die auf die hinteren Ränge verwiesen wird. „Wir können nicht hinnehmen, dass Terroristen die Plattformen missbrauchen“, so Jourová.
Schon Warnhinweise haben große Wirkung
Die Berichte der Online-Plattformen zeigen, in welche Richtung es gehen kann.
Microsoft berichtet etwa, dass allein im ersten Halbjahr 2023 mehr als 6,7 Millionen gefälschte LinkedIn-Konten in der EU an der Erstellung gehindert oder eingeschränkt wurden.
Google hat nach eigenen Angaben in den vergangenen sechs Monaten verhindert, dass Werbung im Wert von mehr als 31 Millionen Euro an Desinformationsakteure in der EU fließt und hat in der EU 20.441 politische Anzeigen im Wert von fast 4,5 Millionen Euro geschaltet. Rund 142.000 politische Anzeigen seien abgelehnt worden, weil sie die Identitätsprüfung nicht bestanden hätten.
Interessant ist außerdem, wie wirkungsvoll schon Warnhinweise an zweifelhaften Posts sind.
Meta gibt an, dass 95 Prozent der Nutzer, die auf Inhalte mit einem Warnhinweis stießen, die auf eine Faktenüberprüfung hinwiesen, sich dagegen entschieden, diese anzuklicken. 37 Prozent der Nutzer auf Facebook und 38 Prozent auf Instagram, leiteten Posts nicht weiter, wenn sie eine Warnung erhielten.
TikTok stellte fest, dass 29,93 Prozent seiner Nutzer ihre Freigabe abbrachen, wenn sie auf der Plattform auf den Hinweis „ungeprüfte Inhalte“ stießen. Außerdem seien 140.635 Videos mit mehr als einer Milliarde Aufrufen von der Plattform entfernt worden, weil sie gegen die Richtlinie für Fehlinformationen verstießen.
Kommissarin warnt vor Massen-Manipulation
EU-Kommissarin Věra Jourová würdigt die Bemühungen der Online-Player, ganz zufrieden ist sie allerdings nicht. Sie mahnt eine massive Verstärkung an. „Desinformation ist nichts Neues und geschieht auch nicht nur auf Online-Plattformen“, sagte sie. „Aber mit der zunehmenden Digitalisierung haben böswillige Akteure neue Wege gefunden, auf denen sie versuchen unsere Demokratien zu unterminieren.“ Russlands Krieg gegen die Ukraine, und die kommenden Europawahlen seien besonders relevant, weil hier das Risiko von Desinformation besonders groß sei.
Deshalb schwor Jourová die Unterzeichner darauf ein, stärker auf den Kontext zu achten. Russland hätte sich mit Halbwahrheiten und Lügen in einen Krieg der Ideen begeben, sagte sie. Der Kreml wolle das falsche Bild erschaffen, dass Demokratien nicht besser als Autokratien seien. „Heute ist das eine Multi-Millionen-Dollar-Waffe der Massen-Manipulation, die sich sowohl gegen die eigene Bevölkerung als auch gegen die Europäer und den Rest der Welt richtet“, so Jourová weiter.
Investitionen in Moderation und Faktenchecks nötig
Die Berichte enthalten auch ein Kapitel über Falschinformationen im Zusammenhang mit der Ukraine. Einige Erkenntnisse der einzelnen Plattformen hierzu:
Laut Google hat YouTube allein zwischen Januar und April 400 Kanäle geschlossen, die Teil von koordinierten Operationen waren, die mit der staatlich finanzierten russischen Internet Research Agency (IRA) in Verbindung gebracht wurden. Google hat Werbeanzeigen von fast 300 Seiten genommen, die mit staatlich finanzierten Propaganda-Seiten zusammenhingen.
Meta erweitert seine Partnerschaften zum Faktencheck in der EU auf 26 Partner in 22 Sprachen, darunter nun auch Tschechisch und Slowakisch.
TikTok checkt Fakten in Russisch, Ukrainisch, Belarussisch und 17 europäischen Sprachen und ist zudem eine Partnerschaft mit der Nachrichtenagentur Reuters eingegangen. Im Ergebnis wurden 832 Videos mit Bezug zum Ukrainekrieg überprüft und 211 davon von der Plattform genommen.
Microsoft stellt heraus, dass seine Suchmaschine Bing im Zusammenhang mit an die 800.000 Suchanfragen zu dem Thema entweder Informationen hervorgehoben oder fragwürdige Informationen heruntergestuft habe.
Wahlen und Nahen Osten stärker in den Blick nehmen
Den Kodex zur Bekämpfung von Desinformation haben inzwischen 44 Online-Plattformen und andere Akteure freiwillig unterzeichnet, darunter große wie Meta und Google, aber auch kleinere spezialisierte Plattformen, Ad-Tech-Unternehmer, Vertreter der Werbebranche und anderer Organisationen, sowie Faktenprüfer, Forscher und Vertreter der Zivilgesellschaft, die sich an dieser Aufgabe beteiligen. Er wurde 2018 mit ursprünglich 34 Teilnehmern ins Leben gerufen und wird seither kontinuierlich weiterentwickelt.
Zweimal im Jahr legen die Unterzeichner der Vereinbarung in Berichten dar, wie sie vorgehen und teilen ihre Erkenntnisse. Die nächsten Berichte im Rahmen des Kodex, die Anfang 2024 veröffentlicht werden, sollen ein spezielles Kapitel über die Bekämpfung von Falschinformation im Zusammenhang mit Wahlen enthalten.
Es sind nicht nur die Europawahlen 2024, die der EU Sorge bereiten. Nach Einschätzung von Experten wurde kein Land so stark mit Desinformationen geflutet, wie die Slowakei in den Monaten vor der Wahl Ende September, die bekanntlich den kremlfreundlichen Linkspopulisten Robert Fico zurück ins Amt brachte „Die Plattformen müssen sich bewusst sein, dass wir uns in einem Informations-Krieg befinden“, mahnte Jourová. Im kommenden Jahr stehen weltweit 50 Wahlen an.
Freiwillige Bemühungen allein reichen nicht, konstatiert wie seine Kollegin auch Kommissar Thierry Breton. Der Kodex und das Gesetz, an das inzwischen 90 große Plattformen und Dienste gebunden sind, können sich nun gegenseitig ergänzen. Die EU fordert eine konsequentere Moderation, mehr Investitionen in Faktenchecks und Risikoanalysen. „Wir haben den Plattformen Stresstests vorgeschlagen und X, Meta, TikTok, Youtube und anderen geschrieben, jetzt besonders den Nahen Osten im Blick zu haben“, sagte Breton. Er habe auch Musk noch einmal an die Gefahren erinnert, die von der Hamas ausgehen. „Alle müssen für solche Krisenlagen gut vorbereitet sein, um dann schnell handeln zu können.“ Am Donnerstag hat die EU-Kommission zudem ein offizielles Auskunftsersuchen an Meta und TikTok geschickt und sie darin aufgefordert zu erklären, wie sie gegen terroristische und gewalttätige Inhalte vorgehen. Je nachdem, wie die Antworten ausfallen, könnte sich die EU-Kommission entschließen, ein offizielles Verfahren einzuleiten und anschließend Bußgelder zu verhängen.
Musk streicht Anti-Fake-News-Team zusammen
Elon Musk scheinen die Drohungen der EU wenig zu beeindrucken. Während die anderen Plattformen sich willig zeigen, ihre Faktenchecker-Teams zu verstärken, hat Musk bei X sein Moderatoren-Team zusammengestrichen. EU-Kommissar Breton, der bei Nichtbeachtung der neuen EU-Gesetze mit Strafen droht, bemüht sich mit Anschreiben und Warnungen seit Wochen vergeblich X auf die neuen Regeln einzuschwören.
„Das EU-Parlament hat dem Gesetz im vergangenen Jahr mit klarer Mehrheit zugestimmt, das ist Demokratie“, erinnerte er die Parlamentarier nach einer teils emotional geführten Debatte. Nun gelte es, die am 25. August in Kraft getretenen Regeln auch durchzusetzen. Von Zensur könne beim DSA keine Rede sein, betont Breton. „Wir verbieten nun im digitalen Raum das, was offline längst verboten ist.“ Die Meinungsfreiheit stehe nicht zur Disposition.
Link zu den Berichten: digital-strategy.ec.europa.eu/en/news/code-practice-disinformation-new-reports-available-transparency-centre