Accueil
Blog
Risques IA
IARisquesQualité Code

Les risques de l'IA
dans les projets IT
(et comment les éviter)

L'IA accélère le code, mais elle accélère aussi les mauvaises décisions. Quand la conception disparaît, l'IA hardcode des décisions qui deviennent invisibles. Voici les risques réels et comment les éviter.

Le cœur du sujet : Avant l'IA, si votre conception était mauvaise, vous vous en rendiez compte en codant. Les développeurs vous forçaient à réfléchir. Maintenant, l'IA génère du code sans forcer la rigor. Elle rend opaque les décisions, hardcode les règles métier, et crée une dette technique amplifiée. La question n'est pas "utiliser l'IA ou pas", c'est "conception d'abord, IA après".

Avant l'IA, la rigor était FORCÉE. Maintenant, elle est OPTIONNELLE.

Vous aviez une idée de architecture, pas complètement pensée. Vous la proposiez à votre équipe dev. Le dev arrivait face à elle et disait "attendez, comment je fais ça?" Pas parce qu'il manquait de compétence. Parce que votre architecture avait des trous.

Et ça forçait la réflexion. Vous étiez obligé de concevoir. D'expliquer pourquoi vous aviez choisi telle structure de données. Pourquoi ce flux métier. Comment ça s'intègre. La friction était une feature. Elle forçait la rigor.

Maintenant, vous avez une idée imprécise. Vous la jetez à ChatGPT. "Crée un système de gestion d'inventaire avec ces quelques specs." L'IA génère une implémentation. Ça fonctionne. Pas de friction. Pas de questions. Pas de réflexion forcée.

Ce qui signifie que les mauvaises décisions passent maintenant en silence. L'architecture vague reste vague. Les règles métier restent implicites. Et ça encode le code. Personne ne l'a jamais décidé consciemment. Mais c'est là, hardcodé.

L'IA accélère, mais rend OPAQUE les décisions

Quand vous demandez à l'IA de créer "un système de gestion client", elle choisit un modèle de données. Elle décide comment organiser les attributs. Elle décide si c'est une base relationnelle, NoSQL, ou un truc hybride. Vous ne voyez pas ces choix. Ils sont implicites dans sa réponse.

Ce qui signifie que des décisions architecturales majeures sont prises sans que vous les ayez explicitement approuvées. Ou même pensées. L'IA a juste chosen une default qui semblait sensée pour elle.

Et ça résout rien. Au contraire. Ça crée une fausse impression de clarté. Vous avez du code. Ça fonctionne. Vous supposez que c'est bon. Mais les décisions sont opaque. Personne ne sait vraiment pourquoi les choses sont comme ça.

Ça devient un problème quand vous devez modifier le système. Ou quand vous l'auditez. Ou quand vous l'onboardez quelqu'un d'autre. Pourquoi la structure est comme ça? Personne n'a expliqué ça. Personne n'en sait rien.

Velocity sans rigor = dette technique amplifiée

Vous générez 10x plus de code avec l'IA qu'avant. C'est la promesse: velocity. Mais voici le problème: la même équipe peut maintenir 10x moins de code de mauvaise qualité.

Quand vous avez 10K lignes de code bien conçu, c'est manageable. Une équipe peut l'étendre, le modifier, l'améliorer. Quand vous avez 100K lignes de code généré sans conception, c'est un cauchemar. Ajouter une feature = casser 10 autres.

Nous avons vu un projet d'inventaire généré avec ChatGPT. Velocity impressionnant: en trois semaines, ils avaient un système qui fonctionnait. Trois mois après, ils devaient ajouter une nouvelle catégorie de produits. Changement simple, non? Ça a cassé le système au complet. Pourquoi? Parce que la catégorie était implicite dans le modèle de données. Avait été hardcodée par l'IA.

Un projet qui avait fait de la conception d'abord: même changement, une journée de travail. Pourquoi? Parce que le modèle de données était explicite. Avait été pensé. La modification était straightforward.

Voilà la différence. Velocity court-terme vs dette long-terme. Et la dette s'accumule exponentiellement. Chaque feature ajoutée amplifie le problème.

Les scénarios et les règles métier DISPARAISSENT

Quand vous demandez à l'IA de coder une règle métier, elle la code. Vous ne l'avez jamais écrite explicitement. Vous ne l'avez jamais documentée. C'était une demande en langage naturel dans votre prompt.

Résultat: la règle existe dans le code. Mais elle n'existe nulle part ailleurs. Pas dans un document. Pas dans un wiki. Pas dans les specs. Elle est implicite. Hardcodée. Invisible.

Et ça pose problème. Six mois après, quelqu'un demande "pourquoi on calcule le prix comme ça?" Personne ne sait. Personne n'a documenté ça. C'était dans le prompt qu'on a lancé à l'IA. C'était une demande orale quelque part.

Ça devient encore pire quand vous auditez le système. Un client vous demande "comment ça marche?" Vous regardez le code. Ça marche. Mais pourquoi? Personne ne peut l'expliquer. Les scénarios ne sont pas documentés. Les règles métier ne sont pas écrites.

Et quand ça devient un problème légal ou de compliance? Vous ne pouvez pas montrer "voici comment nous avons décidé cette règle". Parce que vous ne l'avez jamais décidée. L'IA l'a juste générée.

Comment utiliser l'IA sans sauter la conception

La réponse n'est pas "ne pas utiliser l'IA". L'IA est un outil puissant. La réponse est "conception d'abord, IA après".

Ça signifie: avant de demander à l'IA de coder, vous avez déjà conçu votre système. Vous avez un modèle de données explicite. Vous avez documenté vos règles métier. Vous avez décrit vos scénarios. Les décisions architecturales ont été prises consciemment.

Ensuite, vous utilisez l'IA pour implémenter cette conception. Pas pour la découvrir. Pas pour la générer. Pour l'implémenter. L'IA devient un accélérateur d'exécution, pas un remplaçant de la réflexion.

Un exemple: équipe qui a documenté clairement le modèle de données pour un système de facturation. Qui a écrit les scénarios. Qui a documenté les règles de calcul. Puis utilisé ChatGPT pour implémenter. Résultat? Un système que tout le monde comprend. Que tout le monde peut modifier. Que tout le monde peut auditer.

Et quand ils ont eu besoin d'ajouter une nouvelle règle fiscale? C'était pas un cauchemar. C'était une modification documentée dans un système conçu. Un ou deux jours. Boom, fait.

La clé c'est: la conception c'est votre job. L'implémentation, l'IA peut l'accélérer. Mais vous n'aviez pas échangé votre job. Vous l'avez amélioré.

Retenir l'essentiel

L'IA n'est pas mauvaise pour les projets IT. C'est la rigor-less IA qui est dangereuse. Avant l'IA, la friction forçait la réflexion. Maintenant, l'IA supprime la friction et rend la rigor optionnelle. Résultat: des décisions architecturales implicites, des règles métier hardcodées, une dette technique amplifiée.

La solution n'est pas de ne pas utiliser l'IA. C'est de faire de la conception AVANT de demander à l'IA de coder. Modèle de données explicite. Règles métier documentées. Scénarios décrits. Puis l'IA implémente. C'est ça, utiliser l'IA bien.

Et quand vous y pensez, c'est de la bonne architecture. Séparation des concerns. La conception c'est humain. L'exécution, IA peut l'accélérer. C'est juste qu'avant l'IA, personne ne vous donnait le choix. Vous étiez obligé de faire ça. Maintenant, c'est votre choix. Et ça change tout.

Vous utilisez l'IA en développement?

Audit de rigor gratuit (30 min, sans engagement). On évalue où vous en êtes et comment structurer votre usage d'IA.

Audit de rigor gratuit