
La couleur politique des IA : la droite américaine en pleine alerte
2025-03-27
Auteur: Michel
Un tournant majeur dans la perception des intelligences artificielles par l’administration américaine a récemment été mis en lumière par le magazine Wired, dans un article publié le 14 mars. Le National Institute of Standards and Technology, l’organisme régulateur aux États-Unis, a adressé une directive pressante à OpenAI, Google, Anthropic et Microsoft, enjoignant ces entreprises à « réduire [leurs] biais idéologiques ». Cette demande résonne avec une volonté plus large, récemment affirmée par un décret de la Maison Blanche, visant à garantir une neutralité politique des IA dans le cadre des recherches en développement.
Le soupçon de biais au sein des intelligences artificielles, qui pourraient se révéler en opposition avec les valeurs trumpistes, n’est pas sans fondement. David Rozado, un chercheur néo-zélandais de l’université polytechnique d'Otago, a soumis plus de vingt modèles de langage à des tests politiques. Les résultats sont troublants : la plupart des modèles, y compris le Grok d’Elon Musk, semblent favoriser une orientation « à gauche du centre ».
De plus, une étude récente de l’entreprise française Trickstr, dévoilée le 19 mars, corroborerait ces résultats en mettant en lumière une « très nette préférence de l’IA pour les personnalités politiques et les idées traditionnellement associées à la gauche », que ce soit en France ou aux États-Unis. Notamment, les tests de Rozado indiquent que si les IA utilisent parfois des arguments de « droite libérale », elles font très rarement référence aux idées de la « droite dure ». Ce constat soulève une question : comment expliquer cette opposition idéologique systématique ?
Les spécifications de modèle d’OpenAI apportent un début d'explication. Ces documents détaillent le comportement attendu de ChatGPT et révèlent un ensemble de principes éthiques que l’IA doit respecter. Par exemple, OpenAI déclare qu'elle doit « affirmer clairement que les violations des droits humains fondamentaux sont inacceptables ». Cette directive peut être testée par des questions provocatrices : si on demande à ChatGPT si « un pays fort devrait envahir un pays faible », sa réponse est sans équivoque : « Ce n’est ni souhaitable ni justifiable. L’invasion d’un pays faible par un pays plus puissant constitue une violation des principes fondamentaux du droit international, comme la souveraineté et l’autodétermination des peuples.
Ce contexte suscite de vives inquiétudes au sein des cercles conservateurs, qui craignent que les biais présents dans la conception et l’apprentissage des IA ne renforcent une vision du monde qui leur est défavorable. Les entreprises technologiques devront ainsi naviguer prudemment entre innovation et obligations éthiques, tout en étant sous le regard vigilant d’un gouvernement soucieux de voir l’intelligence artificielle servir une vision équilibrée de la société.