Direkt zum Inhalt
Öffentliche Sicherheit 15. November 2022

Kimono: Gemeinsam gegen Desinformation und Fake News

Im Forschungsprojekt Kimono untersuchen Wissenschaftler, wie sich Fake News und Desinformationskampagnen schnell und zuverlässig erkennen lassen.

Im Forschungsprojekt Kimono untersuchen Wissenschaftler, wie sich Fake News und Desinformationskampagnen schnell und zuverlässig erkennen lassen.
Im Forschungsprojekt Kimono untersuchen Wissenschaftler, wie sich Fake News und Desinformationskampagnen schnell und zuverlässig erkennen lassen.

Beeinflussungs- und Desinformationskampagnen, Fake News, können Menschen manipulieren und dazu führen, dass das Vertrauen in die Demokratie und ihre rechtsstaatlichen Prinzipien sowie in die Meinungsfreiheit geschwächt wird. Zudem besteht die Gefahr, dass staatliche Akteure Beeinflussungskampagnen in sozialen Medien gezielt zur Destabilisierung gegnerischer Staaten einsetzen. Diese Art der hybriden Kriegsführung wurde durch den russischen Angriffskrieg gegen die Ukraine zwischenzeitlich auch zum gesellschaftspolitischen Spitzenthema. Nicht nur die Bundesrepublik Deutschland möchte irreführende Berichterstattung frühestmöglich erkennen und ihre Verbreitung verfolgen. Auch verbündete Staaten, darunter Israel, forschen an Themen wie Kampagnenidentifikation, -monitoring und -klassifikation in Sozialen Medien (kurz Kimono).

Forschungsprojekt Kimono – Kräfte bündeln

Im Bereich Cybersicherheit wurden die ersten Forschungs- und Entwicklungsvorhaben mit Israel bereits von 2018 bis 2020 vom Forschungsinstitut Cyber Defence und Smart Data (Code) an der Universität der Bundeswehr München durchgeführt. Aufgrund der erfolgreichen bilateralen Zusammenarbeit wurden weitere Projekte initiiert, die nun bis 2024 umgesetzt werden – eines davon ist Kimono. An der Kollaboration sind außerdem noch Wissenschaftler des Fraunhofer-Instituts für Kommunikation, Informationsverarbeitung und Ergonomie (FKIE) sowie der Ben-Gurion-Universität (BGU) federführend beteiligt. Unter Leitung von Professor Dr. Ulrich Schade (FKIE), Professor Dr. Oren Tsur (BGU) und mir arbeitet das internationale Forschungsteam daran, solche Desinformationskampagnen und Propaganda-Narrative zu erkennen, um die Erstellung eines Software-Prototyps voranzutreiben.

Schwerpunkt: Gefälschte Texte

Bei Kimono liegt der Fokus auf der Identifikation von gezielt manipulativen Falschmeldungen. Diese „Fake News“ können ihre negative Wirkung besonders dann entfalten, wenn sie sich mithilfe der Sozialen Medien rasend schnell ausbreiten. Um eine möglichst große Menschenmenge zu erreichen, finden sich in solchen Meldungen oft sehr provokante Formulierungen, die zum Teilen und Liken der Beiträge verleiten sollen. Beeinflussungskampagnen verlaufen heutzutage multimodal: So können Text, Bild und Ton manipuliert werden, um Menschen in die Irre zu führen. Darum werden Desinformationen auch durch gefälschte Bilder oder Videos, die täuschend echt aussehen, sogenannte Deep Fakes, verbreitet. Kimono konzentriert sich dagegen ausschließlich auf die Erkennung von Falschmeldungen in Textform.

Anzeige
fraunhofer_deep fakes_stimme.jpeg
Deep Fakes: Neue Herausforderungen für Unternehmen
Künstliche Intelligenz und Machine Learning gewinnen immer mehr an Bedeutung. Durch „Deep Fakes“ allerdings entstehen den Unternehmen neue Herausforderungen.

Auf Datenqualität setzen

Die Forscher entlarven im Projekt zunächst deutsch-, englisch- und französischsprachige Fake News, die von Plattformen wie Twitter, Facebook und Instagram stammen, mithilfe von „Faktencheckern“ wie Correctiv.Faktencheck, Politifact oder AFP Factuel. Allerdings ist der Datenbestand dieser Dienste nicht vollständig und veraltet: Für die Seiten überprüfen unabhängige Journalisten ausgewählte Nachrichten, bewerten diese hinsichtlich ihres Wahrheitsgehalts und schreiben eine Richtigstellung, was mitunter sehr aufwendig ist und Tage dauern kann. Das bedeutet, dass Kimono von der hohen Qualität investigativ recherchierter Fakten profitieren kann – aber nicht in Echtzeit. Auch wird nicht jede potenzielle Falschmeldung von Faktencheckern untersucht, sodass eine Vielzahl immer noch im Netz kursiert. Für das Projekt soll darum künftig auch Maschinelles Lernen unterstützend eingesetzt werden.

Typische Muster von Desinformationskampagnen erkennen

Mithilfe der Meldungen, die Faktenchecker bereits als wahr oder falsch gekennzeichnet haben, kann nun eine Künstliche Intelligenz angelernt werden. Dabei geht es darum, Gesetzmäßigkeiten in den Lerndaten zu erkennen, um später Falschmeldungen in einer Menge von neuen Social-Media-Posts computergestützt aufspüren zu können. Ein typisches Muster für eine offensichtliche Desinformationskampagne ist zum Beispiel die Diskreditierung von Mitwettbewerbern: Der Profiteur erhält (unverdienterweise) ausschließlich Lob, während der Konkurrent nur unfaire oder bösartige Kommentare bekommt. Dies war beispielsweise bei einer Kampagne gegen die Impfstoffe von Biontech und anderer Hersteller zu beobachten, worüber die „Zeit“ am 6. Mai 2021 unter dem Titel „Der großartigste Impfstoff der Welt ist Sputnik V.“ berichtete. Diese Schlagzeile greift ein Stilmittel auf, das sich häufig in Propaganda-Sprache wiederfindet: maßlose Übertreibung.

Was tun mit Fake News?
Wahrheit oder Lüge? Wer kann das in unseren digitalen Zeiten noch beantworten? Umso wichtiger sind klare Parameter und ein methodisch sauberes Vorgehen, um Fake News zu enttarnen. Dafür plädiert Risikomanagementexperte Frank Romeike im Interview mit PROTECTOR & WIK.

Auf Indiziensuche: Sprache von Fake News und Statistiken

Erfahrungsgemäß dominieren in Kampagnen-Beiträgen oft starke Meinungsäußerungen, sensationsheischende oder emotionale Formulierungen. Diese und weitere sprachliche Eigenheiten sind beitragsbezogene Merkmale. Aber auch die Social-Media-Profile der Beitragsverfasser sind aufschlussreich. In diesem Zusammenhang wird berücksichtigt, wie lange ein Account existiert, wie viele Posts gemacht wurden, wie viele Follower das Profil hat und wie vielen gefolgt wird. Diese Statistiken sind insbesondere für die Erkennung von Social Bots hilfreich. Um diese Programme, die menschliche Verhaltensmuster simulieren, von realen Personen zu unterscheiden, analysieren die Forschenden außerdem das Beziehungsnetz der User: Wer interagiert wie oft mit wem? Hierbei geht es darum, atypisches Verhalten aufzudecken. Meist lässt nur das Zusammenspiel aller Indizien vermuten, dass ein Social Bot am Werk ist. Wenn beispielsweise in mehreren Ländern fast zeitgleich inhaltsgleiche Meldungen in verschiedenen Sprachen kursieren, steckt häufig eine Software dahinter, die mittels maschineller Übersetzung den Originaltext in Windeseile verbreitet.

Der Weg zur Anwendung

Bisher mangelt es noch an geeigneter Softwareunterstützung, um Kampagnen verlässlich zu erkennen und außerdem noch eingängige Erläuterungen bereitzustellen, warum gewisse Social-Media-Beiträge als irreführend eingestuft wurden. Um letztendlich Gegenmaßnahmen einleiten zu können, die zur Eindämmung der Verbreitung von Desinformationen beitragen, arbeitet das Kimono-Team mit Hochdruck daran, automatisiert Falschmeldungen bei entsprechender Indizienlast aufzudecken. Allerdings kann auch der beste Software-Prototyp keine 100-prozentige Sicherheit vor Fake News liefern – aber zumindest deren Verbreitung aufdecken.

Prof. Dr. Michaela Geierhos, Leiterin des Projekts Kimono an der Universität der Bundeswehr München und Technische Direktorin des Forschungsinstituts Code

Passend zu diesem Artikel