
L'ONG NOYB attaque OpenAI pour diffamation envers un citoyen norvégien, présenté à tort comme un meurtrier
2025-03-20
Auteur: Sophie
L'ONG autrichienne NOYB (None of Your Business), engagée dans la défense de la vie privée numérique, a déposé une plainte le 20 mars auprès de l'agence norvégienne de protection des données, Datatilsynet. Cette action vise à dénoncer OpenAI pour diffamation : le célèbre chatbot ChatGPT aurait répondu à une requête sur le citoyen norvégien Arve Hjalmar Holmen en affirmant faussement qu'il avait tué deux de ses enfants.
NOYB souligne que le chatbot a lié cette accusation à un impact important, déclarant que l'affaire avait « choqué la communauté locale et nationale, et avait été largement couverte par les médias en raison de sa nature tragique ». En prime, le robot aurait aussi mentionné qu'Holmen avait été « condamné à une peine de prison de vingt et un ans ».
D'après l'ONG, ces déclarations sont totalement infondées, même si le robot a fait état de faits avérés comme le fait qu'il soit père de trois fils. Cela représente une source d'inquiétude pour la personne diffamée, comme l’a exprimé l’ONG dans un communiqué : « Certains pensent qu’il n’y a pas de fumée sans feu. Ce qui m’inquiète le plus, c’est que quelqu’un puisse lire cette réponse et croire qu’elle soit vraie.
NOYB explique au Monde que le problème est apparu en août 2024, lorsque la version gratuite de ChatGPT a commencé à répondre systématiquement aux questions sur des individus, en se basant sur des informations glanées sur Internet. Alors que cette accusation semblait être corrigée, l'association craint que l’erreur ne soit encore intégrée dans le fonctionnement de l'intelligence artificielle.
Des précédents préoccupants aux États-Unis
OpenAI, par le biais de sa politique de confidentialité, permet aux utilisateurs de signaler « des informations inexactes sur le plan factuel » à leur sujet. Cependant, NOYB rappelle que les conditions d'utilisation de ChatGPT incluent une clause de non-responsabilité, mentionnant que l'outil « peut faire des erreurs », en plaçant ainsi la responsabilité sur l'utilisateur de « vérifier les informations importantes ».
Malgré cela, Joakim Söderberg, avocat spécialisé en protection des données pour NOYB, affirme que le Règlement Général sur la Protection des Données (RGPD) est clair. En Europe, « les données personnelles doivent être exactes. » Il souligne qu’il est inacceptable de diffuser de fausses informations tout en ajoutant un avertissement en petit. En réponse à ces allégations, OpenAI n'a pas encore fourni de commentaires.
Ce ne serait pas un cas isolé. Aux États-Unis, OpenAI a déjà été critiqué pour avoir émis des déclarations diffamatoires à l'encontre de figures publiques. Des incidents similaires rapportés par le Washington Post montrent que ChatGPT avait injustement accusé un professeur de droit de harcèlement sexuel. D'autres exemples incluent des allégations contre un maire australien pour corruption et des accusations portées par l'IA Microsoft Copilot contre un journaliste.
Les enjeux de la fiabilité et de l'éthique des intelligences artificielles se révèlent ainsi cruciaux, alors que des utilisateurs, souvent mal informés, pourraient croire ces fictions comme des vérités. Éveillant des inquiétudes sur les conséquences d'une telle désinformation, cette affaire soulève également des questions sur les mécanismes de régulation à mettre en place pour éviter de tels abus à l'avenir.