Un agent ne reçoit pas une instruction et produit un output. Il reçoit un objectif, décompose, planifie, exécute, vérifie, itère — et présente un résultat. Claude Code peut coder 5h sans interruption sur un projet entier. Cette différence n’est pas quantitative. Elle est qualitative.
La rupture : tâches vs workflows
Les LLMs de 2022-2024 automatisaient des tâches isolées : rédiger un email, résumer un document, générer une fonction. L’humain supervisait chaque étape.
Les agents de 2025-2026 exécutent des workflows complets :
| Avant | Maintenant |
|---|---|
| ”Écris une fonction qui fait X” → code généré | ”Construis le module d’authentification” → agent lit le codebase, planifie, écrit, teste, corrige, ouvre une PR |
| 1 tâche, supervision continue | Projet multi-heures, validation finale uniquement |
La supervision humaine se déplace : de human-in-the-loop (à chaque étape) à human-in-the-loop (à la validation) — et demain, human-on-the-loop (notification si exception, exécution autonome par défaut).
Pourquoi ça invalide les études classiques
Frey-Osborne (2013) et l’OCDE (2016) raisonnaient au niveau des tâches isolées — d’où leurs divergences (47% vs 9% des emplois menacés).
Les agents brisent cette logique : ils n’automatisent pas des tâches, ils automatisent des rôles entiers. Un agent qui gère le support client end-to-end ne remplace pas “répondre à un email” — il remplace le poste.
Données 2025-2026
Gartner :
- 40% des applications d’entreprise intégreront des agents d’ici fin 2026 (vs <5% en 2025)
- 15% des décisions de travail prises autonomement par des agents d’ici 2028
Goldman Sachs : 7% des rôles américains remplacés par des agents d’ici 2029 — programmeurs, comptables, assistants juridiques, support client en tête.
Salesforce : déploiement d’Agentforce en interne → 4 000 postes support supprimés.
Ce qui résiste encore
Même dans l’ère agentique, certaines activités restent structurellement humaines :
- Responsabilité légale et morale incarnée : un agent ne peut pas être tenu responsable d’un diagnostic, d’une décision de licenciement, d’une stratégie M&A
- Confiance construite dans le temps : relation thérapeute-patient, mentor — impossible à déléguer sans destruction de la valeur
- Ambiguïté haute + enjeux irréversibles : là où les règles sont floues et les conséquences non annulables
- Voix authentique reconnue : un auteur, un leader dont la réputation est la valeur — leur identité ne se délègue pas
Ce qui change : le seuil descend. Des activités qui semblaient “jugement humain” en 2024 deviennent “workflows agentiques” en 2026.
L’implication individuelle
La réponse n’est pas de résister — c’est de monter d’un cran :
- De faire à diriger (orchestrer des agents)
- De produire à décider pourquoi on produit (stratégie, sens, priorités)
- De exécuter à valider (jugement sur l’output)
Le risque : si tout le monde monte d’un cran, le niveau de jugement requis pour rester différenciant monte aussi. La compétition ne disparaît pas — elle se déplace vers le haut de la chaîne de valeur.
Sources
- Gartner (2025). Predicts 40% of enterprise apps will feature AI agents by 2026.
- Gartner (2026). Predicts 60% of brands will use agentic AI by 2028.
- Goldman Sachs (2023). The Potentially Large Effects of Artificial Intelligence on Economic Growth.
- IDC FutureScape (2026). Worldwide AI and Automation Predictions.