Le "Shadow AI", ce nouveau phénomène d'utilisation clandestine de l'IA qui fait peur en entreprise
Intelligence artificielle. - Kirill KUDRYAVTSEV / AFP
Partager des informations sensibles fait partie des activités qu'il faut éviter à tout prix, d'autant plus lorsqu'on travaille pour une grande entreprise qui a la culture du secret. Mais avec l'essor de l'intelligence artificielle, de plus en plus de salariés utilisent les chatbots comme ChatGPT ou Gemini dans leur quotidien. Selon un récent sondage de l'Apec, ils seraient même plus d'un tiers à y avoir recours fréquemment.
Cependant, certains d'entre eux le font pour faciliter leur travail, au risque d’exposer involontairement des informations privées ou sensibles sur internet, avec de possibles conséquences désastreuses comme des fuites de données. Une dérive baptisée "Shadow AI" (IA fantôme) qui inquiète les services informatiques des entreprises.
Une utilisation clandestine risquée
On parle de "Shadow AI" quand on veut décrire l'utilisation "clandestine", ou non déclarée d'une intelligence artificielle générative. Cela peut servir à générer du texte, des photos ou vidéos, mais aussi à transformer des données en document ou vérifier qu'un élément est viable en quelques minutes.
De manière générale, les IA fonctionnent en se nourrissant des données qu'elles peuvent recevoir dans le cadre d'une conversation avec un utilisateur, dans le but d'améliorer leurs réponses futures.
Désireux d'utiliser l'IA pour accompagner -faciliter?- leur travail en entreprise, 28% des salariés français se disent néanmoins dépassés par l'arrivée de nouvelles technologies. Si plus de 70% d'entre eux souhaitent mieux comprendre l'IA (78% chez les cadres supérieurs), selon une récente étude Ipsos pour Jedha, ils souffrent encore bien souvent d'une méconnaissance des usages possibles au sein des entreprises et d'un manque de formation en interne. L'IA est trop souvent vue comme inoffensive, alors qu'elle peut représenter un problème sur le long terme.
Développer des outils utiles aux salariés
Cependant, tout n'est pas négatif dans le "Shadow AI". Dans une étude récemment publiée par l'Inria et Datacraft, un club de data scientists, les chercheurs démontrent que cela peut aussi constituer "une opportunité stratégique" capable de "transformer des pratiques individuelles et diffuses en intelligence collective".
Plusieurs recommandations sont ainsi faites aux employeurs pour endiguer le phénomène du Shadow AI.
Sans aller jusqu'à interdire l'utilisation de chatbot, l'institut recommande de mieux communiquer sur les usages afin de réguler progressivement les usages "informels" d'une IA générative. Cela peut passer par une négociation collective sur une régulation des usages de l'IA (usages, cadres, création d'espace et d'outils validés en interne dans un cadre légal) ou par la mise en place de formations et/ou ateliers pour définir les usages.
Les entreprises sont aussi appelées à réaliser des chatbot internes, notamment pour que les données ne sortent pas des bureaux. En outre, et comme le précise l'opérateur Orange, si un salarié a tendance à recourir à l'IA, c'est essentiellement parce que les outils déjà accessibles ne sont pas assez performants ou ne répondent pas à ses besoins.
Des conseils pour un bon usage
Rappelons néanmoins qu'à l'instar des logiciels piratés, l'utilisation non autorisée d'une IA générative dans le cadre du travail peut être sanctionnée. Quelques mesures de bon sens et de sécurité individuelle peuvent néanmoins être prises pour sécuriser les usages:
- N'entrez pas d'informations confidentielles telles que des projets, des données clients ou RH, dans ChatGPT, Gemini, Claude, Perplexity ou Copilot. Ou bien anonymiser les données pour une analyse ou un traitement.
- N'installez pas d'extensions ou applications IA non validées sur votre poste de travail.
- N'utilisez pas d'IA pour réutiliser du contenu protégé (texte, photo...) et l'appliquer tel quel.
- Vérifiez les informations pour éviter toute hallucination de l'IA (invention de données).
- Si vous avez recours à des outils à la fois en pro et en perso, privilégiez toujours la connexion avec votre compte professionnel. Des outils comme Copilot de Microsoft anonymisent les données si vous êtes connecté avec un compte entreprise et ne s'en servent pas pour entraîner l'IA.
