Quand l’IA agentique force l’ingénierie logicielle à se réinventer en 2026
Début 2026, le Do Tank CAST × Cigref a réuni 265 participants issus de 98 grandes organisations françaises (banque, industrie, défense, énergie, secteur public) pour sa 3ᵉ édition consacrée à l’IA générative dans l’ingénierie logicielle.
Le principe : six groupes de travail thématiques, chacun piloté par une ou plusieurs entreprises membres, où les DSI partagent leurs retours d’expérience, testent des approches et produisent des recommandations collectives.
En parallèle, une étude menée auprès de 83 DSI vient objectiver le niveau réel d’adoption et de maturité du marché. Les résultats dressent un constat en clair-obscur.
Le vrai goulot d’étranglement n’est pas technologique
Des signaux positifs qui s’accumulent
Les résultats de l’étude V3, menée auprès de 83 DSI, dressent un constat en clair-obscur. Les gains de productivité moyens constatés sont passés de 11 % à 20,75 % en un an. La part des répondants jugeant l’impact de l’IA supérieur à leurs prévisions a quasiment doublé, passant de 11 % à 20 %.
Les outils se standardisent : GitHub Copilot domine, Claude Code s’installe en deuxième position, Mistral AI complète le podium, et le protocole MCP (Model Context Protocol) a explosé avec des milliers de serveurs disponibles. 89 % des organisations ont mis en place au moins un dispositif de suivi de l’usage.
Un paradoxe budget/attentes intenable
En face, 60 % des DSI investissent toujours moins de 1 % de leur budget IT dans l’IA pour l’IT, un chiffre qui n’a pas bougé entre 2024 et 2025. Et ce alors que 75 % des directions générales attendent désormais des gains supérieurs à 10 %, contre 32 % un an plus tôt.
La pression monte, les moyens stagnent.
Le constat partagé par les 6 groupes de travail
Ce qui se dégage de l’ensemble des groupes de travail est limpide : ce n’est pas la technologie qui plafonne. Les outils sont là, ils fonctionnent, ils progressent vite.
Ce qui bloque, c’est le modèle opérationnel.
Les processus hérités de l’ère pré-IA (sprints de deux semaines, poker planning, validations manuelles en cascade) absorbent les gains aussi vite que l’IA les produit. Pour passer de l’amélioration incrémentale au saut de performance que tous les groupes de travail entrevoient (facteur 2 à 5), c’est le cycle de vie logiciel lui-même qu’il faut repenser.
Le SDLC craque sous la pression de l’IA
L’IA génère en minutes, les cérémonies prennent des semaines
Le constat est partagé par tous les groupes de travail, de la modernisation au support en passant par les tests : l’IA accélère considérablement la phase de production, mais les phases d’arbitrage, de spécification et de validation manuelle restent à vitesse humaine. C’est un moteur de F1 dans un châssis de 2CV.
Bpifrance a posé sur la table une proposition radicale : passer d’équipes agiles de 7-8 personnes à des « pods » de 2, fonctionnant en flux continu (kanban pur) plutôt qu’en sprints. Dans cette vision, le Product Owner et l’architecte convergent vers un rôle hybride de « Product Architect ». Les story points deviennent inutiles, car la question n’est plus « combien de temps pour coder » mais « combien de temps pour vérifier et décider ».
SAFe, conçu pour synchroniser 150 personnes avançant lentement, se retrouve inadapté à des flottes de pods autonomes avançant très vite.
Le goulot d’étranglement migre. Ce n’est plus la capacité à produire du code qui limite la vélocité, c’est l’ingénierie des exigences : la capacité à spécifier, cadrer, contrôler et valider ce que les agents produisent en volume.
Le code devient jetable, la spec devient reine
C’est le fil rouge qui traverse tous les groupes de travail. Celui consacré à la modernisation des applications, piloté par Michelin, montre que les cas les plus ambitieux, la réécriture complète vers du cloud-native, fonctionnent quand on adopte un Spec-Driven Development : l’IA rétro-documente d’abord le système existant, ces spécifications deviennent le livrable pivot, et le nouveau code est généré à partir d’elles.
Le groupe de travail sur le design des applications, piloté par Air Liquide, décrit l’émergence d’un « Artefact-Driven Development » où la documentation (specs, maquettes, user stories, critères d’acceptation) pilote la génération de code. Le bilan technologique conclut que les outils deviennent des commodités et que la différenciation se joue sur la qualité du contexte et des spécifications fournis aux modèles.
L’amont, le meilleur ratio gain/risque
Point notable : c’est sur la phase amont, avant même la première ligne de code, que l’IA apporte aujourd’hui le meilleur ratio gain/risque. Clarifier un besoin, rédiger des user stories, générer des critères d’acceptation, produire des contrats d’interface : ces tâches sont déjà largement accélérées, avec un risque de dérive bien moindre que sur la génération de code pur.
Le groupe de travail sur le design des applications le confirment en documentant des pratiques comme le voice-to-text pour capturer les besoins métier ou le « roast » (utiliser les LLM comme challengers critiques des livrables de conception).
Le vibe coding, incarnation de la bascule
Le vibe coding, c’est-à-dire décrire en langage naturel ce qu’on veut produire et laisser l’IA générer, incarne cette bascule. Le groupe de travail dédié, piloté par Air France KLM, a documenté sa maturation rapide en 2025, du « fun chaos » (itération rapide, créativité débridée) vers le « professional zen » (spec-driven, résultats prévisibles).
Mais la tension entre vitesse et robustesse reste entière : Linus Torvalds juge l’approche acceptable tant que ce n’est pas critique, tandis que le CEO de Cursor alerte sur les fondations fragiles qu’elle peut produire.
Le vibe coding pose aussi une question stratégique : deviendra-t-il une alternative aux gros SaaS et au No Code/Low Code, rendant caduques des pans entiers de l’écosystème logiciel ?
La formule qui résume la conviction collective du Do Tank est sans appel : le code est jetable, c’est le savoir qui doit rester.
L’agentique change la donne, mais exige un nouveau cadre de confiance
L’IA agentique, c’est-à-dire des systèmes capables d’enchaîner des actions de manière autonome, entre en phase opérationnelle. Les réseaux agentiques sont en PoC ou en étude chez environ 50 % des répondants. Le protocole MCP, qui permet aux modèles de se connecter à des outils externes (Git, Jira, Playwright, AWS, Jenkins…), est devenu l’infrastructure de connexion de référence.
Les tests qui s’auto-réparent quand les sélecteurs UI changent ne relèvent plus de la science-fiction, comme l’illustre le retour d’expérience présenté par Bouygues Telecom sur ses outils de test augmentés par l’IA. Le support IT explore des architectures à trois niveaux, des agents décentralisés aux LLM centralisés avec RAG.
Mais les risques sont réels. La détection des hallucinations reste embryonnaire : seuls 3 % des répondants disposent d’un dispositif dédié. Les menaces de prompt injection et de tool poisoning émergent avec le MCP. La multiplication incontrôlée des serveurs MCP pose des questions de gouvernance. Et le groupe de travail sur la modernisation rappelle un prérequis strict : au-delà de 50 000 lignes de code, il faut segmenter le contexte, sous peine de résultats dégradés.
Le consensus du Do Tank est que les gains de rupture (x3, x5) ne viendront pas de meilleurs modèles seuls, mais de l’automatisation systémique de la confiance, c’est-à-dire des contrôles qualité et sécurité intégrés dans la chaîne, exécutés par des agents relecteurs dans la CI/CD, capables de valider en continu ce que d’autres agents produisent.
Les chantiers qui comptent vraiment en 2026
Le développeur augmenté : 80 % d’humain, 20 % de technologie
Le groupe de travail mené par le Crédit Mutuel a structuré un déploiement en 7 étapes, de la définition de la vision à la récompense des pionniers.
Le facteur clé de succès identifié n’est pas l’outil choisi mais le réseau de correspondants IA dans chaque équipe, des champions locaux qui ancrent les pratiques au quotidien, remontent le feedback et diffusent les bonnes pratiques.
Sept nouvelles compétences émergent : prompting, analyse de code IA, sécurité IA, veille IA, tests assistés, documentation assistée. Les gains constatés restent de 0 à 20 %.
Le « développeur 10x » n’est pas d’actualité, mais le « développeur 1,5x à 2x » est atteignable avec la bonne organisation et une formation structurée en trois niveaux (fondations pour les juniors, productivité avancée et leadership IA pour les seniors).
La modernisation par paliers : l’IA comme sherpa du legacy
Le groupe de travail sur la modernisation, piloté par Michelin, a élaboré une grille de complexité en 5 niveaux pour évaluer ce que l’IA sait faire aujourd’hui sur du code existant.
- Sur les cas les plus simples (corriger des mauvaises pratiques dans le code, mettre à jour des dépendances vulnérables type log4j), les résultats sont déjà probants.
- Sur les migrations de frameworks standards (passer de Spring Boot 2 à 3, monter de Java 8 à Java 21 par paliers), l’IA fonctionne à condition qu’un expert pilote le découpage en sous-tâches.
- Les cas les plus complexes, comme la modernisation de frameworks internes que l’IA n’a jamais vus, ou la réécriture complète vers du cloud-native, restent prometteurs mais encore sous supervision experte.
Sur les langages anciens (Cobol, OpenVMS), la migration directe reste insatisfaisante, mais la rétro-documentation par agent est très efficace. C’est la porte d’entrée pragmatique vers la modernisation du patrimoine.
La maîtrise technologique : FinOps, souveraineté et vendor lock-in
Le déploiement à l’échelle exige une vigilance sur les coûts cachés (consommation de VM et GPU on-premise, tokens) et une stratégie multi-LLM avec des engagements courts de 12 à 24 mois. La classification des données et le recours à des LLM de confiance pour les données sensibles sont des prérequis, tout comme l’inclusion des juristes dès le départ.
Les réflexions liées à l’AI Act et au Cloud de confiance sont décrites comme « très chronophages ». Mistral AI et son offre de déploiement on-premise (Devstral 2, contexte 256k tokens) répondent directement à cette exigence de souveraineté croissante.
Le dialogue avec les instances sociales est obligatoire dans le cadre du passage à l’échelle. Ce n’est pas une option. Le Crédit Mutuel a partagé l’exemple de sa charte IA. Le suivi du bien-être des équipes (via l’eNPS notamment) permet de repérer les signaux faibles d’anxiété liée au risque de « remplacement ».
Mais la question la plus déstabilisante reste ouverte : comment forme-t-on les développeurs seniors de demain si les juniors d’aujourd’hui n’ont jamais codé sans IA ? Ce « Knowledge Collapse », soulevé par EDF et Bpifrance, n’a pas encore de réponse.
L’atrophie des compétences fondamentales, le piège de la vérification paresseuse face à une IA qui a raison 95 % du temps, et la dette technique invisible sont des risques structurels que chaque organisation doit commencer à adresser.
2026, l’année du « deploy and prove »
Les 7 messages clés de cette 3e édition
- La chaîne de développement logiciel, de la conception au support, est le terrain d’application le plus mature de l’IA générative.
- Le code devient un sous-produit générable à la demande ; la valeur migre vers les spécifications, l’architecture et la validation.
- Les avancées de 2025 ont été extrêmement rapides et l’IA agentique (agents autonomes, protocole MCP) va les accélérer encore à horizon 2027-2028.
- Le SDLC actuel, construit autour de sprints et de validations manuelles, devient le principal frein aux gains de productivité.
- Les développeurs évoluent vers des rôles d’orchestrateurs et d’auditeurs ; les compétences en prompting, supervision et sécurité IA deviennent incontournables.
- Les principaux défis ne sont pas techniques mais organisationnels : adoption, conduite du changement, qualité de la documentation et structuration du contexte fourni aux modèles.
- Les directions générales et les métiers doivent comprendre que cette transformation dépasse la DSI et engage le modèle opérationnel de l’entreprise.
Vers la 4ᵉ édition
Pour 2026-2027, le Do Tank prévoit un nouveau groupe de travail sur la refonte du modèle SDLC, un chantier dédié à l’intégration des juniors et au re-skilling, et la production d’un document de référence consolidant l’ensemble des livrables : radar d’outils, bibliothèque de prompts, profils développeur, bibliothèque de serveurs MCP, architectures de support.
Le mot d’ordre de 2026 tient en trois mots : deploy and prove.
L’ère des POC est terminée. L’enjeu est de prouver la valeur en production, à l’échelle, avec une organisation qui a appris à fonctionner autrement. La transition en cours n’est pas celle d’un outil vers un autre, c’est celle d’une informatique de « main-d’œuvre » vers une informatique de « supervision », où la valeur ne réside plus dans les mains qui codent mais dans la vision qui orchestre.
Voir plus de Actualités
Quand l’IA agentique force l’ingénierie logicielle à se réinventer en 2026
SOC interne vs SOC managé : comparaison budgétaire et opérationnelle
Index Égalité Professionnelle 2025 : engagement maintenu, cap inchangé
Pentest : ce que révèle un test d’intrusion que les outils de sécurité ne voient pas
les articles