Technologie

Les 5 choses à ne jamais dire à ChatGPT : Protégez-vous !

2025-03-30

Auteur: Philippe

Les intelligences artificielles génératives, telles que ChatGPT, sont désormais intégrées dans notre quotidien et servent d'assistants à des millions d'utilisateurs à travers le monde. Que ce soit pour des recommandations, la production de contenu ou des échanges informels, ces chatbots semblent omniscients… mais attention : certaines informations restent sensibles et ne doivent jamais être divulguées, met en garde le Wall Street Journal.

Ces intelligences artificielles apprennent de leurs interactions avec les utilisateurs. Plus vous discutez, plus elles affinent leurs réponses en fonction de vos préférences. Si ces détails vous paraissent innocents, ils peuvent néanmoins se regrouper pour former un portrait détaillé de vous. Entre les risques d'exploitation de vos données et les fuites potentielles, voici cinq informations à ne jamais communiquer à ChatGPT.

1. Informations personnelles et d'identité

Il est crucial de ne jamais révéler votre numéro de sécurité sociale, votre carte d'identité, votre passeport, votre adresse complète ou votre numéro de téléphone. Même si certaines intelligences artificielles sont conçues pour filtrer et anonymiser ces données, le danger demeure. Un incident marquant en mars 2023, où un bug de ChatGPT a exposé à des utilisateurs des extraits de conversations d'autres utilisateurs, souligne l'importance de la prudence dans le partage des informations sensibles.

2. Résultats médicaux

Vous désirez un second avis sur des analyses de santé ? Réfléchissez-y à deux fois. Les chatbots ne sont pas soumis aux mêmes obligations légales concernant la protection des données de santé que les professionnels de santé ou les laboratoires. Une information médicale mal gérée pourrait être utilisée à des fins publicitaires ou, pire encore, vous exposer à de la discrimination dans le domaine de l'assurance.

3. Informations financières

Évitez de communiquer votre numéro de compte bancaire, vos identifiants d'accès, ou d'autres données financières. Les chatbots ne sont pas conçus pour être des dispositifs de stockage sécurisés, et une fuite de données pourrait exposer vos informations personnelles. Chaque détail compte : des chercheurs en cybersécurité ont déjà mis en évidence le fait que les pirates peuvent exploiter même des informations fragmentaires pour mener des attaques ciblées.

4. Données confidentielles de votre entreprise

Que vous rédigiez un e-mail professionnel ou que vous fassiez des brainstorming, ChatGPT peut paraître être un précieux allié. Cependant, toutes vos saisies peuvent être enregistrées et, dans certains cas, utilisées pour améliorer l'IA. Les entreprises attachant de l'importance à la confidentialité investissent dans des versions sécurisées de ces outils. Si votre entreprise n’a pas encore mis en place de telles mesures, évitez de partager des informations sensibles avec un chatbot public.

5. Mots de passe et identifiants

Les chatbots ne sont pas conçus pour gérer en toute sécurité vos mots de passe. Utilisez plutôt un gestionnaire de mots de passe dédié. Assurez-vous également d'activer l'authentification à deux facteurs sur l'ensemble de vos comptes importants pour renforcer votre sécurité.

En résumé, bien que les intelligences artificielles génératives soient de précieux outils, elles ne doivent pas être considérées comme des confidents. Chaque donnée partagée peut être enregistrée, utilisées ou exposée en cas de faille de sécurité. Pour Jennifer King, membre de l'Institut de Stanford pour l'intelligence artificielle centrée sur l'humain, "Les chatbots sont conçus pour poursuivre une conversation, mais c'est à vous de déterminer où se situe la limite." Protégez-vous et utilisez ces technologies avec sagesse!