
Künstliche Intelligenz als Verbreiterin russischer Propaganda – Eine alarmierende Studie
2025-03-24
Autor: Gabriel
Immer mehr Menschen nutzen Chatbots, die auf Künstlicher Intelligenz basieren. Dabei wissen viele nicht, auf welche Quellen diese KI-Modelle zurückgreifen. Eine neue Studie von NewsGuard zeigt erschreckende Resultate: Diese Chatbots sind anfällig dafür, russische Propaganda zu verbreiten.
Konkret Beleg für Fehlinformationen
Ein konkretes Beispiel zeigt dies deutlich. Einige Chatbots behaupten, dass der ukrainische Präsident Wolodymyr Selenskyj Truth Social, die Social-Media-Plattform von Donald Trump, verboten habe. Dieser Falschbehauptung wurde vor allem durch das kremlnahe Pravda-Netzwerk eine Plattform geboten. Die Faktencheck-Redaktion der Nachrichtenagentur AFP stellte jedoch klar, dass Truth Social nie in der Ukraine verfügbar war, weshalb Selenskyj diese Plattform auch nicht verbieten konnte.
Die Rolle der Quellenwahl
Der Hauptgrund für diese Fehlinformationen ist die Auswahl der Quellen, die die KI-Chatbots nutzen. Die Untersuchung ergab, dass alle zehn führenden KI-Chatbots in 33 Prozent der Fälle falsche Behauptungen aus dem Pravda-Netzwerk wiederholten. Umgangsgemäß verwendeten diese Bots nicht nur seriöse, sondern auch zweifelhafte Quellen, um ihre Antworten zu generieren. Die Studie zeigt, dass 3,6 Millionen Artikel des Pravda-Netzwerks im Jahr 2024 in westliche KI-Systeme integriert wurden und so deren Antworten mit Fehlinformationen kontaminierten.
Manipulation durch Pravda-Netzwerk
Das Pravda-Netzwerk hat anscheinend die Manipulation von KI-Modellen zu einem der Hauptziele erklärt. Laut den Autorinnen der Studie, McKenzie Sadeghi und Isis Blachez, zielt das Netzwerk darauf ab, das Internet mit Inhalten zu überfluten, um Scraping-Algorithmen zu beeinflussen. Dabei sind die Websites des Netzwerks oft schwer zu navigieren und wenig nutzerfreundlich, was anzeigt, dass die Zielgruppe eher nicht die Nutzer dieser Plattformen sind.
Zunehmende Nutzung von KI-Chatbots
Aktuell nutzen 25 Prozent der Menschen ab 16 Jahren KI-Chatbots, und Marktforscher erwarten, dass diese Zahl weiter steigen wird. Dies könnte dazu führen, dass das Suchvolumen für traditionelle Suchmaschinen bis 2026 um 25 Prozent zurückgeht. Ein beunruhigender Fakt: Die Autorinnen weisen darauf hin, dass KI-Modelle oft nicht zwischen zuverlässigen und unseriösen Informationsquellen unterscheiden können. Besonders in Regionen mit weniger robusten Fact-Checking-Ökosystemen sind die Chatbots gefährdet, falsche Informationen zu verbreiten.
Fehlende Glaubwürdigkeitsbewertung
Die Studie weist darauf hin, dass die Chatbots keine strengen Methoden zur Bewertung der Glaubwürdigkeit von Quellen implementiert haben. Dadurch sind sie besonders anfällig für Fehlinformationen durch das Pravda-Netzwerk. Frühere Studien haben bereits auf die Fehleranfälligkeit dieser Systeme hingewiesen, so dass sie in 60 Prozent der Fälle falsche Quellen angeben.
Forderung nach Kontrolle und Transparenz
Die Probleme sind komplex und erfordern ständige menschliche Überwachung sowie Investitionen in vertrauenswürdige Datenquellen. Die steigende Popularität von Künstlicher Intelligenz im Alltag birgt ein hohes Risiko für Manipulationen aus dem Ausland, wenn keine angemessene Kontrolle erfolgt. In Zeiten des Informationsüberflusses droht die Gefahr, dass das Vertrauen in die Demokratie und in die Medien nachhaltig untergraben wird.