Le shadow IT à l'heure de l'IA, c'est avant tout des pratiques et initiatives individuelles : copier-coller des données sensibles dans ChatGPT, envoyer des fichiers via des boites e-mails personnelles ou encore utiliser des outils tiers sans validation ou consultation préalable de la DSI. Finalement, "le shadow IT, c'est le nom que l’on donne à l'inventivité des utilisateurs pour trouver des solutions quand on ne leur en fournit pas", explique Michel Cazenave, CISO chez PwC. Face aux restrictions mises en place par leur entreprises sur des solutions comme ChatGPT, les collaborateurs n’hésitent plus à contourner les interdictions.
Cette tendance ne concerne pas que les employés isolés. Les directions métiers adoptent en toute autonomie des solutions de GenAI spécifiques, sans prévenir leur DSI. "On retrouve un peu les mêmes phénomènes qu'on a eu à l'époque du cloud ou avec le shadow IT tout court. Maintenant avec l’IA, des divisions de métiers sont approchées directement par des fournisseurs de services qui leur vendent des IA génératives métiers", alerte Sébastien Verger, CTO de Dell France.
Le constat est implacable. Sébastien Verger ajoute : “selon les études, plus de 85 % des utilisateurs ont déjà utilisé des IA génératives en dehors des outils approuvés par leur entreprise”. Une explosion du shadow IT, renommée "shadow AI" pour l’occasion, qui expose les entreprises.
Données en fuite, utilisation de code manipulé, la GenAI est une faille béante
Les conséquences de ce shadow AI sont considérables. Le premier danger : la fuite de données sensibles. L’IA générative capitalise sur les entrées de ses utilisateurs. Or, dès qu’un collaborateur copie-colle un fichier ou un extrait de code dans un LLM, il perd tout contrôle sur sa diffusion. “Samsung et Amazon se sont rendus compte qu’ils avaient des informations potentiellement de l’entreprise qui étaient directement dans la base de connaissance de ChatGPT”, rappelle Sébastien Verger.
Le secteur de la cybersécurité s’alarme aussi d’un risque inédit lié au développement. “Avant, un développeur en panne allait chercher des réponses sur Stack Overflow. Aujourd’hui, il copie son code dans ChatGPT”, observe Hubert Loiseau, DSI et RSSI au Campus Cyber. Mais cette facilité a un prix : “ce code, parfois propriétaire, peut ressortir ailleurs. Et pire, l’IA peut générer des réponses erronées ou vulnérables.”
Les failles de sécurité logicielles deviennent ainsi un nouveau vecteur de compromission. “On va avoir tendance à faire confiance plus facilement à un LLM”, prévient Michel Cazenave. Un risque d’autant plus préoccupant que ces pratiques peuvent échapper aux processus de revue de code traditionnels.
Face au shadow AI, une riposte en trois actes
Alors comment les DSI peuvent-elles prendre en compte ce nouveau risque ? La bonne nouvelle, c’est que des canaux de sensibilisation ont déjà été mis en place précédemment avec l’arrivée, par exemple, du BYOD ou des solutions SaaS. Le plan tient donc en trois actes connus :
- Encadrer et sécuriser l’accès aux IA. Interdire n’est plus suffisant. “L’IT doit aller plus vite et proposer des solutions approuvées avant que les utilisateurs n’aillent chercher ailleurs”, insiste Michel Cazenave. L’implémentation d’instances privées de LLM, conformes aux exigences de sécurité et de souveraineté, devient essentielle.
Chez Dell, la politique est claire : “Si avec mon device Dell, j'essaie d'accéder à ChatGPT, je vais avoir un message qui va me dire : Non, désolé, tu n'as pas accès. Mais ça ne s'arrête pas là. On m'explique pourquoi, et on me propose une alternative. Nous, on a installé Copilot”, explique Sébastien Verger. - Superviser et analyser les usages La mise en place de contrôles stricts sur les flux de données est cruciale. “Il faut détecter les comportements suspects, identifier les usages cachés et surveiller les flux vers des IA non autorisées”, souligne Hubert Loiseau. Les outils de Zero Trust et de surveillance des endpoints permettent d’identifier les dérives sans nuire à l’innovation. “Plutôt qu’un blocage aveugle, nous devons comprendre comment les IA sont utilisées pour proposer des alternatives adaptées”, appuie Michel Cazenave.
- Former et responsabiliser les utilisateurs. Un cadre strict ne suffit pas : les employés doivent comprendre pourquoi ces règles existent. “Il faut intégrer la sensibilisation à l’IA dans les formations cybersécurité“ propose Sébastien Verger.
Les entreprises ont déjà des programmes de sensibilisation au phishing et aux cyberattaques. “Ces canaux doivent être adaptés aux risques de l’IA”, insiste Michel Cazenave.
Last but not least, l’adoption d’IA souveraines et contrôlées devient un enjeu stratégique. “Un modèle LLM français ou européen peut offrir plus de garanties sur la gestion des données”, rappelle Hubert Loiseau.