Wie Meta gegen Wahleinmischung und Wählerbetrug zur Europawahl vorgehen will

Im Juni wird das Europaparlament gewählt. Wie Fake-News und andere manipulative Inhalte auf Facebook, Instagram und Threads verhindert werden sollen.

In Pocket speichern vorlesen Druckansicht 22 Kommentare lesen

Beispiel für Kennzeichnung einer "Falschinformation".

(Bild: Meta)

Lesezeit: 3 Min.

Meta bereitet sich auf die Europawahl im Juni dieses Jahres vor. Dabei geht es dem Mutterkonzern von Facebook, Threads und Instagram vor allem darum, Wahleinmischung und Wählerbetrug auf seinen Plattformen zu verhindern. Eine besondere Rolle komme dabei Künstlicher Intelligenz zu, erläutert Marco Pancini, bei Meta für EU-Angelegenheiten zuständig. Da KI-generierte Inhalte allgemein im Internet verbreitet werden, arbeitet Meta nach eigenen Angaben mit anderen Unternehmen zusammen, um Irreführung zu unterbinden.

Angesichts der zunehmenden Verbreitung von KI-Inhalten nimmt dieser Bereich einen besonderen Schwerpunkt in Metas Strategie zur Europawahl ein. Meta kennzeichne bereits fotorealistische Inhalte, die mit der konzerneigenen KI erstellt wurden, und erarbeite derzeit Tools, um auch KI-generierte Bilder von Google, OpenAI oder Adobe zu erkennen und zu kennzeichnen. Werbetreibende, die Anzeigen im Zusammenhang mit Wahlen oder Politik auf Meta-Plattformen schalten, müssen offenlegen, ob sie ein KI-generiertes oder -manipuliertes fotorealistisches Bild oder Video oder realistisch klingende Tonaufnahmen verwenden.

Daneben baut der Konzern auf seine Erfahrungen, die er in den vergangenen acht Jahren zu politischen Wahlen gesammelt hat. Dabei arbeitet Meta nach eigenen Angaben mit 26 Institutionen zusammen, die Fakten in 22 Sprachen überprüfen.
Postings, die von ihnen überprüft wurden, werden mit einer Markierung versehen. In der zweiten Jahreshälfte 2023 sei das bei 68 Millionen Inhalten geschehen.

Weil es wichtig sei, Fakten möglichst schnell zu überprüfen, will Meta den Faktencheckern erleichtern, Inhalte im Zusammenhang mit den Wahlen zu finden und zu bewerten. Dazu wolle Meta beispielsweise eine Keyword-Erkennung verwenden und am Forschungstool Meta Content Library mit seiner Suchfunktion beteiligt. Neben Postings von Usern werden dabei auch Anzeigen kontrolliert. Dabei geht es beispielsweise um solche, die Menschen davon abhalten sollen, zur Wahl zu gehen oder die deren Legitimität oder Ergebnisse in Frage stellen.

Wichtig sei es auch, koordinierten Bemühungen auf die Spur zu kommen, die öffentliche Debatte zu manipulieren oder zu stören. Spezialisierte Mitarbeiter werden darauf angesetzt, "koordiniertes, nicht authentisches Verhalten" mit gefälschten Identitäten nachzugehen. Inhalte von staatlich kontrollierten Medien auf Facebook, Instagram und Threads würden gesondert gekennzeichnet. Russische staatlich kontrollierte Medien werden in der EU blockiert, woanders "herabgestuft". Dadurch sei das Posting-Aufkommen aufseiten dieser Medien stark zurückgegangen, schreibt Pancini.

Wenn der Zeitpunkt der Europawahl näher gerückt ist – einen genauen Termin nennt Meta nicht –, soll ein spezielles "Elections Operations Center" gebildet werden. Darin sollen sich Experten aus verschiedenen Konzernabteilungen wie Content Policy, Recht, Forschung, Wissenschaft und Entwicklung zusammenfinden, um potenzielle Bedrohungen zu identifizieren und Konsequenzen daraus in seinen Apps einfließen zu lassen. Auch geplant ist eine Funktion, mit der Nutzer der Meta-Plattformen offenlegen können, wenn ein Video oder ein Audio mit KI generiert wurde.

Der chinesische Meta-Konkurrent TikTok hatte vor zehn Tagen vorgestellt, wie er sich für die Europawahl präpariert. TikTok sowie auch Meta unterliegen den durch den Digital Services Act der EU verschärften Vorschriften für die Moderation von Inhalten.

(anw)