UZH-Studie enthüllt: ChatGPT versagt bei Fragen zu Kriegsopfern!
2024-11-26
Autor: Noah
Eine alarmierende Studie von Forscher:innen der Universitäten Zürich und Konstanz hat ergeben, dass der KI-Chatbot ChatGPT bei der Beantwortung von Fragen zu zivilen Opfern in bewaffneten Konflikten gravierende Mängel aufweist. Die Untersuchung legt die sprachliche Voreingenommenheit von generativer KI frei und wirft dabei wichtige Fragen über die gesellschaftlichen Auswirkungen auf.
Immer mehr Nutzer:innen wenden sich von traditionellen Suchmaschinen ab und trusten stattdessen auf KI-Systeme wie ChatGPT, um Informationen zu kriegerischen Auseinandersetzungen zu erhalten. Doch die Ergebnisse dieser Studie zeigen, dass solche Entscheidungen riskant sein können. Die Forscher befragten ChatGPT über die Zahl der zivilen Opfer in Konflikten wie dem israelisch-palästinensischen und dem türkisch-kurdischen Konflikt und fanden heraus, dass die Antworten je nach Sprache der Anfrage stark verzerrt sind.
Im Rahmen der Studie stellten die Wissenschaftler Christoph Steinert und Daniel Kazenwadel wiederholt die gleichen Fragen in verschiedenen Sprachen – Arabisch, Hebräisch, Türkisch und Kurdisch. Das Ergebnis: Die Antworten variieren signifikant, was darauf hindeutet, dass die formale Sprache einen erheblichen Einfluss auf die Daten hat, die die KI liefert.
Interessanterweise wurde auch festgestellt, dass ChatGPT die Wahrscheinlichkeit, Luftangriffe in aggressorischen Kontexten als weniger verlustreich darzustellen, erhöht, je mehr die Anfrage auf der Sprache des aggressorischen Landes formuliert wird. Dies könnte zu einer verzerrten Wahrnehmung der Konfliktdynamik führen und gefährliche Missverständnisse verstärken.
Die zugrunde liegende Problematik ist, dass die Trainingsdaten, auf denen ChatGPT basiert, bereits eine mediale Voreingenommenheit innehaben. Diese Bias wird dann unbewusst verstärkt, wenn Nutzer:innen Informationen aus verschiedenen Sprachkontexten abrufen. So könnte ein:e israelische:r Nutzer:in die Zahl der zivilen Opfer in Gaza als geringer wahrnehmen als arabischsprachige Menschen, was zu einer gravierenden Verzerrung des Weltbildes führt.
Es ist daher absolut entscheidend, dass Nutzer:innen verstehen, dass KI-generierte Antworten kritisch hinterfragt werden müssen. Der Einsatz solcher Technologien in regulären Suchmaschinen könnte langfristig die bestehenden Vorurteile und Informationsblasen entlang von Sprachgrenzen verstärken.
Die Forscher:innen plädieren für eine vertiefte Untersuchung der sprachlichen Verzerrungen bei anderen Themengebieten sowie für die Notwendigkeit, transparente Mechanismen zu entwickeln, um die Reliabilität von generativer KI zu verbessern.
In einer Welt, in der Informationen zunehmend von Algorithmen kuratiert werden, ist es unerlässlich, vorsichtig und skeptisch zu sein. ChatGPT ist kein verlässlicher Informationsanker – besonders wenn es um die tragischen und komplexen Themen von Krieg und Frieden geht!