L’intelligence artificielle s’est invitée dans les bureaux. Mais elle y évolue souvent dans l’ombre. Une récente étude révèle qu’un salarié sur trois utilise des outils d’IA générative comme ChatGPT sans que son entreprise ne soit au courant.
Pourquoi ce phénomène intrigue et inquiète !?
Les employés cherchent à gagner en efficacité, accélérer leur travail quotidien ou pallier un manque de compétence technique. Mais ce recours discret s’accompagne de risques lourds : fuite de données sensibles, non-respect du RGPD, décisions basées sur des informations incorrectes . 38 % d’entre eux admettent avoir partagé des données confidentielles, sans vérifier leur usage.
Dans l’étude Kaspersky/ISACA, seuls 28 % des organisations autorisent officiellement l’IA. Et moins de 10 % ont mis en place des règles concrètes pour encadrer son usage. Résultat : une utilisation libre, fragmentée, peu surveillée.
Un fossé entre usagers et non-usagers
Cette « Shadow AI » cristallise une véritable fracture interne. Certains salariés boostés par l’IA gagnent en productivité, tandis que d’autres se sentent laissés de côté. Résultat : frustration, pression et inégalités dans la performance .
Un internaute venus des métiers non-tech résume bien le phénomène :
« Je travaille au sein d’un organisme HLM et je trouve que l’IA pourrait vraiment être un plus dans mon travail (chargé de clientèle). Sans pour autant me remplacer. »
Cela montre bien que l’IA n’est pas réservée qu’aux informaticiens, mais que sans cadre, elle creuse un fossé.
La cybersécurité en alerte
Ce Shadow AI n’est pas seulement une question d’efficacité : c’est une faille de sécurité. Les DSI ne voient rien venir : pas de trace dans les réseaux, pas de contrôle des flux API, pas d’autorisation explicite. Ces usages peuvent exposer les systèmes à des intrusions, fuites ou revers réglementaires.
Lorsqu’un salarié – même sans mauvaise intention – publie un document sensible via un outil IA personnel, c’est la sécurité des données entières de l’organisation qui se fragilise .
Comment encadrer ces usages ?
Les experts recommandent une approche en trois étapes :
- Visibilité : auditer les usages existants via logs ou enquêtes internes.
- Règles claires : charte IA, formation obligatoire, validation des outils.
- Alternatives internes : proposer des IA sécurisées, contrôlées et intégrées au système d’entreprise.
Une entreprise britannique a même mis en place des incitations : bonus pour les employés qui illustrent des prompts efficaces et respectueux des règles.
Le résumé de Yanick !
Le Shadow AI est un témoignage d’un besoin réel : automatiser, gagner du temps, innover localement. Mais sans cadre clair, c’est un danger pour la sécurité, l’équité et la cohésion. L’enjeu n’est pas d’interdire, mais de guider. Une charte, une formation, des outils sécurisés : voilà ce qui permet d’exploiter l’intelligence artificielle de façon mesurée, bénéfique et collective.







