Accueil
Blog
Shadow IT IA
IAGouvernancePME

Shadow IT IA — Pourquoi votre PME est à deux vitesses

Depuis 6 mois, vos équipes utilisent ChatGPT, Claude, Perplexity. Sans vous le dire. Sans politique. Sans règles. Ça s'appelle du shadow IT IA. Et ça crée deux catégories de PME : celles qui le contrôlent et celles qui se laissent faire.

Depuis ChatGPT (novembre 2022), l'IA n'attend plus l'IT. Elle arrive par la fenêtre : sales utilise Claude pour écrire les emails, RH utilise Perplexity pour les analyses candidates, dev utilise ChatGPT pour coder. Personne n'a demandé la permission. Personne ne sait ce qui sort.

Les PME qui gouvernent l'IA gagnent 6 mois sur les autres. Les PME qui ignorent perdent du temps, du contrôle, et risquent des fuites données. On vous explique où vous êtes.

En résumé : Le shadow IT IA c'est simple — vos équipes utilisent l'IA sans politique interne, sans gouvernance, sans contrôle. Ça crée deux catégories de PME : celles qui gouvernent (sécurisées, rapides, compétitives) et celles qui ignorent (vulnérables, chaotiques, à la traîne). Le gap se creuse chaque mois. Les PME qui ne bougent pas perdent.

Le problème : 3 PME sur 4 ont du shadow IT IA sans le savoir

Les signaux que vous l'avez ? Vous n'avez pas de politique IA interne. Vos équipes vous le disent une fois pour blaguer. Vous voyez du contenu généré par IA et personne ne sait qui a utilisé quoi. Vous avez jamais audité "quel volume de données sensibles sort de l'entreprise par l'IA".

Si 2 cases cochées : vous avez du shadow IT IA. C'est normal. C'est même universel en PME. Le problème c'est ce qu'on en fait après.

Cas réel :

Chez un client BE (25 personnes), les commerciaux utilisaient ChatGPT pour générer des devis. Les données clients (nom, budget, secteur) partaient à OpenAI. Personne le savait. On l'a découvert en audit. RGPD violation potentielle = risk énorme. Coût du fix : 3 semaines de dev + changement de process. Ça aurait pris 1 heure en audit initial.

Pourquoi c'est un problème (surtout en PME)

Gouvernance = ressource qu'on n'a pas

Une grande entreprise a un CISO, une équipe compliance. Une PME a... personne. T'as un dev qui fait du réseau + serveurs + IA governance = c'est mort. Résultat : shadow IT crée du chaos.

Data leaks : où se perdent vos données

Quand un salarié utilise ChatGPT (openai.com public), il envoie quoi exactement à OpenAI?

  • Les données du prompt (verbatim)
  • Souvent : infos client, numéros de devis, noms de prospects
  • Emails internes

Compliance : RGPD dit "vous ne pouvez pas envoyer données perso à des tiers sans contrat". ChatGPT public = pas de contrat Entreprise = violation technique.

Gap interne : les équipes qui innovent vs les autres

Pendant que RH et sales utilisent Claude pour faire x2 plus vite, votre équipe produit refuse d'utiliser l'IA par prudence. Résultat : deux vitesses. Les équipes innovantes gagnent 6h/semaine. Les autres restent en 2024.

Non-conformité et accélération du problème

Chaque mois, l'IA devient plus puissante. Demain ce seront les agents autonomes. Le shadow IT va s'accélérer. Si vous n'avez pas de gouvernance NOW, dans 6 mois vous serez complètement hors de contrôle.

Comment Leando le voit

Shadow IT ≠ problème, c'est le CONTRÔLE qui manque

Interdire ChatGPT en PME? Impossible. Ça va pas marcher. Tes salariés vont l'utiliser caché.

Leando perspective : Les PME qui disent "on peut l'utiliser avec ces règles" gagnent. Les PME qui disent "on va l'interdire" se tirent une balle.

Les PME qui gouvernent gagnent 6 mois sur la concurrence

Une PME qui audite son IA + met une politique clair + forme l'équipe = elle innove vite ET safe. Elle gagne du temps (12-15h/semaine d'équipe). Elle reste compliant. Elle double sa productivité.

3 niveaux de gouvernance IA

Niveau 1 (Basic)

Audit + policy écrite. Coût: 1 semaine. Risk: 80% réduit.

Niveau 2 (Intermédiaire)

Audit + policy + workflow. Coût: 3 semaines. Risk: 95% réduit.

Niveau 3 (Avancé)

Audit + policy + workflow + outils. Coût: 6-8 semaines. Risk: 99% réduit.

La plupart des PME ont besoin de Niveau 1. C'est pas compliqué. C'est juste fallait le faire.

Les 3 choses à faire avant de "interdire l'IA"

1. Audit réaliste (ce qu'on utilise vraiment)

Qui utilise quoi? Sales utilise ChatGPT pour emails. RH utilise Perplexity pour analyses. Dev utilise Claude pour coder. Documenter ça en 1-2h. C'est votre baseline.

2. Politique pragmatique (pas "non à l'IA", mais "oui avec règles")

✅ Utilisez l'IA pour :

  • Drafts textes
  • Code review / brainstorm
  • Analyses données non-sensibles

❌ Ne l'utilisez PAS pour :

  • Données clients
  • Codes sources prod
  • Infos financières / RH sensibles

3. Formation équipe (ils se sentent confiants)

30min avec l'équipe : "Voici ce vous POUVEZ faire. Voici ce vous NE POUVEZ PAS faire. Vous êtes autorisés à utiliser IA." Fin.

La PME à deux vitesses : qui gagne?

PME qui ignore (retard garanti)

  • T0 : pas de gouvernance, shadow IT croissant
  • T+3 mois : data leak détecté, risk énorme
  • T+6 mois : en train de rattraper
  • T+12 mois : concurrence a 12 mois d'avance

PME qui gouverne (compétitive)

  • T0 : audit + policy + formation
  • T+1 mois : équipe confident, innovation rapide
  • T+6 mois : productivité +25%, compliant
  • T+12 mois : 18 mois d'avance vs concurrence

Le gap s'agrandit parce que la PME qui gouverne continue à innover + vite tandis que l'autre doit d'abord rattraper, PUIS innover.

À retenir

Shadow IT IA c'est universel en PME — vos équipes utilisent l'IA sans gouvernance, c'est normal et presque impossible à interdire.

Gouverner ≠ interdire — une bonne policy dit 'oui avec ces règles', pas 'non'.

Le coûts du fix est faible — audit + policy + formation = 1-3 semaines, pas 3 mois.

Les PME qui attendent perdent du temps — chaque mois sans gouvernance = gap productivité +5% vs concurrence.

Les data leaks existent — RGPD = sérieux. Audit IA révèle où les données sensibles sortent.

Questions fréquentes

Et si on interdit ChatGPT/Claude en PME?

Ça va pas marcher. Les salariés vont l'utiliser en caché. C'est moins sécurisé que si tu le formalises avec des règles. Meilleure approche: autoriser + cadrer + former.

On doit vraiment s'inquiéter du RGPD avec ChatGPT?

Oui. Envoyer des données perso à OpenAI = violation RGPD technique. C'est rare qu'on se fasse poursuivre. Le vrai risque: une donnée sensible qui sort. Audit IA révèle toujours des cas.

Ça coûte combien de mettre une gouvernance IA en PME?

Basic (policy + audit) = 1-2 semaines. Intermédiaire (workflow) = 3-4 semaines. Avancé (outils + infra) = 6-8 semaines. Leando fait ça.

On a 150 salariés, c'est pareil?

Même principe, un peu plus complexe. Mais la base reste: audit, policy, formation. Quelques semaines supplémentaires de structure.

Et si on a déjà des data leaks IA?

Audit le révèle vite. Plan de fix: identifier la scope, revenir à des outils sécurisés, notifier si RGPD l'exige, puis mettre la gouvernance. C'est récupérable.

Vous avez probablement du shadow IT IA.

Chez la plupart des PME, ça a commencé par "les salariés utilisent ChatGPT" et ça s'est compliqué une fois qu'on a audité où les données allaient. Leando fait ça en 4-6 semaines. Audit complet → policy pragmatique → formation équipe. Vous savez exactement où vous êtes, vos salariés se sentent confiants, et vous êtes compliant.

Demander votre audit gouvernance IA