„Fake News sind eine echte Gefahr“ : Datum: , Thema: Interview
Immer häufiger schaffen es Desinformationen von Verschwörungskreisen in die Mitte der Gesellschaft. Messenger-Dienste sind dabei oft der Ursprung. Im Projekt „Dynamo“ wollen Forschende Werkzeuge entwickeln, mit denen sich Fake News entlarven lassen.
bmbf.de: Herr Steinebach, was sind Fake News?
Martin Steinebach: Fake News oder Desinformationen sind Nachrichten oder Mitteilungen, die den Anschein erwecken, zu informieren. Tatsächlich ist die Absicht aber das genaue Gegenteil: gezielte Falschinformation und Verwirrung.
Warum ist das problematisch?
Teilweise stecken hinter Fake News echte Profis. Für die „normalen“ Bürger wird es leider immer schwieriger, solche Desinformationen zu entlarven. Das führt zu Verunsicherung – und die kann gefährlich werden, etwa wenn ein völlig falscher Rat zu einer medizinischen Behandlung gegen Covid-19 verbreitet wird. Das Problem ist, dass Desinformation immer weiter in die Gesellschaft rüber schwappt. Ich glaube, das ist eine echte Gefahr.
Welche Aspekte von Desinformation betrachten Sie im Projekt „Dynamo“?
Messenger-Kanäle wie Telegram und WhatsApp haben Plattformen wie Facebook den Rang abgelaufen. Wir schauen uns daher die Inhalte solcher Desinformationskanäle an. Denn dort entstehen häufig Fake News. Später werden sie dann über die Sozialen Medien weiterverbreitet.
Was genau wollen Sie erforschen?
Wir analysieren die Kommunikation in offenen Kanälen der Messenger-Dienste. Denn nur darauf können wir zugreifen. Diese können auch im Gegensatz zu den sozialen Medien, bei denen in den letzten Jahren mühsam Kontrollmöglichkeiten und Kontrollpflichten erarbeitet wurden, weniger angefochten werden. Tauchen dort Fake News auf, prüfen wir, wie weit und vor allem wohin es diese Desinformationen schaffen. Durch Vergleiche von Wortfolgen, dem Auffinden von Teilen der Nachricht oder das Wiedererkennen von Medieninhalten, insbesondere Bilder, können wir dann herausfinden, wie die Verbreitungsdynamiken sind und ob der Messenger-Kanal tatsächlich der Ursprung der Verbreitung war.
Reicht die Analyse von Wörtern aus, um den Ursprung zweifelsfrei herauszufinden?
Das kommt darauf an, wie viele Worte es sind. Lange Texte sind schon sehr aussagekräftig, da es unwahrscheinlich ist, dass man hier zufällige Übereinstimmungen findet. Aber wie immer sind mehr Belege über verschiedene Medientypen, also typischer Weise eine Kombination von Wort und Bild, aussagekräftiger. Wir kombinieren Auswertungen auch mit technischen Hilfsmitteln – etwa sogenannten Webcrawler-Mechanismen. Solche Programme durchsuchen selbstständig das Internet. So können wir Überlappungen zwischen Kanälen finden und Punkte wie den Erscheinungszeitpunkt oder -ort miteinander verknüpfen. So können wir die Verbreitungswege und -dynamiken sichtbar machen.
Wie wollen Sie dieses Wissen zu Schutz vor Desinformationen nutzen?
Erfahrungsgemäß kann man Fake News nicht einfach blockieren, da es letztendlich auch wieder als Zensur verstanden werden kann oder Betreiber von Kanälen sich weigern, dieses Vorgehen zu unterstützen. Unser Ziel ist es, mit den Projektergebnissen eine Künstliche Intelligenz zu trainieren. Diese soll dann ähnliche Desinformationen, die sich der gleichen Mechanismen und Denkmuster bedienen, automatisch erkennen.
Wem wollen Sie mit diesen Informationen helfen?
Wir wollen zuallererst die Art und Weise der Verbreitung von Desinformation verstehen. Danach können wir Mechanismen schaffen, die dann Journalisten, Ermittlern oder anderen, die sich professionell mit Desinformation beschäftigen, helfen, Desinformationskampagnen frühzeitig zu erkennen. Zudem wollen wir digitale Werkzeuge entwickeln, um das Überschwappen von Desinformationskampagnen aus Messenger-Kanälen in andere soziale Medien einzudämmen. Darüber hinaus muss weiterhin gegen die Fake News informiert und aufgeklärt werden.
Herr Steinebach, wir danken Ihnen für das Gespräch.