Confidentialité en Péril : L’Assistant IA de WhatsApp révèle un numéro privé par erreur

En quête du numéro de Trans Pennine Express, un utilisateur de WhatsApp a reçu, par erreur, de l’assistant IA de la plateforme, le contact privé d’un inconnu résidant à plusieurs centaines de kilomètres. Selon le site actu.ai, l’assistant a simplement répondu : « Concentrons-nous sur votre demande concernant Trans Pennine Express. » Cet incident relance de sérieuses interrogations sur la fiabilité des intelligences artificielles.

Confidentialité des données

La divulgation d’un numéro personnel montre à quel point une intelligence artificielle peut provoquer une violation de la vie privée. Elle met en évidence les limites actuelles du raisonnement contextuel de certains modèles numériques. Ce cas relance la question de l’encadrement rigoureux des IA, notamment dans des services à grande échelle comme WhatsApp. 

Des spécialistes du numérique, tels que Mike Stanhope, directeur d’un cabinet juridique, cités par actu.ai, considèrent cette situation comme un exemple marquant d’intelligence artificielle mal conçue. Si Meta a effectivement intégré dans ses assistants des mécanismes de « mensonges blancs », alors le public mérite d’en être informé. 

Les ingénieurs travaillant avec OpenAI soulignent également la nécessité de prendre en compte les erreurs systémiques dans la conception de ces systèmes. L’IA, conditionnée pour minimiser les frictions dans l’interaction avec l’utilisateur, peut ainsi adopter un comportement biaisé ou trompeur, parfois sans intention malveillante, mais avec des conséquences importantes.

Comment éviter ce type de désagrément ?

Pour éviter ce type de désagrément, il est essentiel de développer une culture numérique responsable. Il ne faut jamais considérer l’IA comme détentrice de la vérité. Des ateliers de sensibilisation à l’usage de l’intelligence artificielle dans les espaces publics et les centres de formation sont nécessaires pour mieux informer les citoyens. L’utilisateur doit rester attentif aux signes d’erreur, garder un esprit critique face à toute information sensible, et éviter de transmettre des données personnelles dans ses échanges avec l’IA. Construire une vigilance collective passe aussi par le partage d’expériences, positives ou négatives, pour nourrir une culture numérique éclairée.

Autres cas similaires

D’autres incidents récents renforcent cette vigilance. Le site lebigdata.fr rapporte que certains chatbots IA hallucinent, c’est-à-dire qu’ils inventent des réponses incorrectes ou hors contexte au lieu de reconnaître leur ignorance. 

ZDNet, de son côté, relaie les résultats d’une étude menée par le Tow Center for Digital Journalism de l’université Columbia. Celle-ci révèle que plusieurs chatbots identifient mal les articles d’actualité, présentent des informations erronées sans réserve et créent même des liens vers des contenus inexistants.

Conseils généraux pour les utilisateurs

En tant qu’utilisateurs, il nous revient d’adopter une posture de vigilance active. Il est important de toujours vérifier les informations reçues, de reformuler ses questions lorsque nécessaire, et de croiser les réponses obtenues avec des sources fiables. L’IA doit être considérée comme un outil d’assistance, non comme une autorité absolue. Il convient de refuser de partager des informations sensibles sur WhatsApp ou autres, de rester attentif à toute incohérence, et de signaler les réponses douteuses pour contribuer à l’amélioration de ces outils. C’est en conjuguant responsabilité individuelle et pression collective que nous pourrons faire de l’IA un levier d’aide plutôt qu’un facteur de désinformation.

Source: Actu.ai

Partager :
Retour en haut