Accueil
Blog
Shadow IT IA
Shadow ITIAGouvernance

Shadow IT IA
ce que ChatGPT et l'IA changent
pour les PME

Le shadow IT n'est pas nouveau. Vos collaborateurs ont toujours utilisé des outils personnels en dehors du système. Mais avec ChatGPT, ça a changé de nature. Maintenant, vos données sensibles vont directement à OpenAI. Et vous ne le savez probablement pas.

Le cœur du sujet : Le shadow IT IA n'est pas juste un problème de contrôle. C'est un problème de données sensibles qui vont chez OpenAI sans que vous le sachiez. La solution n'est pas l'interdiction (elle échoue), mais l'équilibre: une policy simple, un outil enterprise qui protège les données, et une awareness formation. Ça change tout.

Le shadow IT a muté. L'IA l'a changé de nature.

Le shadow IT existait avant ChatGPT. Vos collaborateurs utilisaient Slack personnel, Google Drive, Dropbox pour des trucs qu'ils trouvaient plus rapides que le système officiel. C'était pas beau, mais c'était quasi inoffensif. Les données concernées? Du brainstorm, des documents de travail, pas du secret business.

Puis arrive ChatGPT. Et tout change.

Maintenant, un développeur colle du code propriétaire dedans pour l'optimiser. Un chef de projet met sa roadmap pour avoir un résumé. Quelqu'un d'autre tape des données client pour chercher un pattern. Et ces données? Elles vont directement à OpenAI. En utilisant la version free, tu acceptes que tes données servent à entraîner le modèle. C'est dans les conditions d'utilisation. Personne ne les lit, mais c'est écrit.

Ce qui signifie que le shadow IT IA n'est pas juste un problème de contrôle. C'est un problème de risque données exponentialisé.

Ce qui se passe réellement (et que vous ne savez probablement pas)

Nous voyons ça systématiquement. Un IT director découvre que 50% de son staff utilise ChatGPT. Pas "ils demandent des autorisations". Ils l'utilisent. Point. Et aucun log, aucune traçabilité, aucun contrôle. La vraie question: qu'est-ce qu'ils envoient dedans?

Parce que c'est là que ça devient problématique. Un développeur colle du code propriétaire dedans parce qu'il cherche une optimisation rapide. Un chef de projet tape sa roadmap 2027 pour en faire un résumé. Quelqu'un d'autre envoie une feuille de calcul avec les salaires des équipes en demandant un pattern d'optimisation budget. Et tout ça? Ça entraîne le modèle d'OpenAI. C'est dans les conditions d'utilisation version free: vos données servent à améliorer le modèle.

Ce qui signifie que votre IP propriétaire, vos secrets business, vos données sensibles — tout ça va chez OpenAI. Demain, un concurrent utilise le même ChatGPT et voit peut-être des patterns issus de votre travail. Vous avez une levée en cours? Votre pitch deck est chez OpenAI aussi. Vous avez des données client? Elles sont peut-être là-bas. Et si vous êtes sujet au GDPR (vous l'êtes si vous avez des clients en Europe), mettre des données personnelles chez OpenAI sans consentement explicite est un problème de compliance direct.

Le vrai problème: vous ne le savez pas que c'est en train de se passer. Zéro visibilité. Zéro log. Les gens l'utilisent. Point. Et vous découvrez ça trop tard — quand vous avez besoin de tracer ce qui s'est passé avec vos données sensibles.

Le piège du contrôle trop strict

La première réaction: "On interdit ChatGPT." C'est humain. C'est logique. Mais ça ne marche pas.

Pourquoi? Parce que les gens utilisent ChatGPT de chez eux. Ou sur le réseau mobile. Ou ils trouvent 10 alternatives (Claude, Gemini, etc.). Tu ne peux pas interdire. Ou plutôt, tu peux interdire, mais le problème ne disparaît pas. Il s'enfouît.

Ce qui signifie que plus tu restreignes, plus tu perds la visibilité. Et perdre la visibilité sur ce qui se passe avec les données, c'est le pire scénario.

L'approche du contrôle pur tue aussi l'innovation. Oui, ChatGPT peut être dangereux. Mais interdire signifie aussi interdire les uses cases qui créent de la valeur. Écrire des scripts plus vite. Résumer des documents. Trouver des bugs dans le code. C'est utile. Et tu ne veux pas que tes collaborateurs aient peur de l'utiliser.

L'équilibre: structure légère + transparence + awareness

Donc la vraie question n'est pas "Interdire ou autoriser?" C'est "Comment autoriser intelligemment?" Et la réponse tient en trois lignes.

D'abord, une policy claire et simple. Pas 50 pages de compliance. Juste une page: "IP sensible? Non. Données client? Non. Données personnelles? Non. Brainstorm, amélioration de code, résumé de doc? Oui." C'est transparent. Les gens savent où sont les limites. Pas de mystère.

Ensuite, offrir un outil qui respecte la policy. Si vous interdisez les données sensibles mais que l'outil officiel pour utiliser ChatGPT c'est "aller sur openai.com et utiliser la version free", c'est pas un outil, c'est une contradiction. Les gens vont utiliser free. Alors vous passez à ChatGPT Enterprise ou Claude for Work — des versions où les données ne sont pas utilisées pour entraîner le modèle. C'est 30€/mois par personne. Plus cher? Oui. Mais c'est le coût réel d'une gouvernance qui marche.

Et enfin, former vos gens. Pas avec peur. Avec clarté. "Vous utilisez ChatGPT? C'est cool. Voici ce qu'il faut savoir: certaines données ne vont jamais dedans. D'autres oui. Ce n'est pas un tabou, c'est un truc qu'on gère collectivement." Une formation de 30 minutes change tout en termes d'awareness.

Nous avons vu une PME de 50 personnes qui a fait exactement ça. Résultat? Zéro drame. Zéro problème d'adoption. Les gens utilisent ChatGPT proprement. La visibilité revient. Et six mois plus tard, personne ne se pose la question "Et si nos données sensibles s'échappaient?" Parce qu'elles ne s'échappent pas.

Comment le shadow IT IA se relie à votre stade de maturité digitale

Rappelez-vous: il y a 3 stades de maturité digitale. Et le shadow IT IA est un symptôme très clair de votre position.

Stade 1 (Chaos): Vous n'avez pas de policies du tout. Donc bien sûr que le shadow IT IA est incontrôlable. Il y en a partout. Et vous ne le savez pas.

Stade 2 (Intégration): Vos outils existent, mais vous découvrez seulement maintenant que tout le monde utilise ChatGPT en dehors du système. C'est là que le problème devient visible. Et c'est là qu'il faut agir.

Stade 3 (Maturité): Vous avez une policy IA claire. Vous avez des outils autorisés. Vous tracez l'usage. Le shadow IT IA existe toujours (humain), mais il est marginal et contrôlé.

Ce qui signifie que votre approche au shadow IT IA dépend de votre stade. Et la bonne nouvelle? Ça se règle.

Retenir l'essentiel

Avant ChatGPT, le shadow IT c'était un problème de contrôle. Maintenant, c'est un problème de données. Vos collaborateurs envoient probablement du code sensible, des données client, des secrets business à OpenAI sans le savoir. Et vous n'avez aucune visibilité.

Interdire ne marche pas. Ça crée juste du shadow IT caché. La vraie solution passe par l'équilibre: une policy claire, un outil autorisé qui respecte la confidentialité, et une awareness simple.

Et c'est directement lié à votre stade de maturité digitale. Si vous êtes au Stade 2 (c'est le cas de la plupart des PME), c'est le moment d'agir. Pas par panique. Par clarté.

Vous avez une policy IA claire?

Si non, on peut vous aider à la structurer. Pas de panique, juste de la clarté. Chez Leando, on audite votre posture IA et on vous propose un plan simple.

Audit IA gratuit