Les agents numériques ne se contentent plus de “répondre” : ils naviguent, cliquent, ajoutent au panier, paient, ouvrent des tickets et orchestrent des processus. Entre l’agent mode intégré à ChatGPT (héritier d’Operator) et les agents navigateur comme “Claude for Chrome”, une partie croissante des interactions client et employé se déplace vers des interfaces où l’utilisateur délègue l’exécution à une IA.
Mais repenser l’offre face aux agents numériques ne consiste pas à greffer une couche d’automatisation sur l’existant. Gartner recommande au contraire de “rethink workflows … from the ground up”, tout en alertant sur une réalité moins glamour : plus de 40% des projets d’agentic AI seraient annulés d’ici fin 2027 (coûts, valeur business floue, contrôles de risques insuffisants). L’enjeu est donc double : capter la nouvelle demande… sans construire une usine à risques.
1) Du logiciel “utilisé” au logiciel “actionné” par des agents
Le basculement le plus important n’est pas technologique mais comportemental : l’utilisateur passe de la manipulation directe d’une application à l’expression d’une intention (“réserve-moi”, “renouvelle”, “retourne”, “optimise”). L’agent devient l’interface, et les applications deviennent des systèmes exécutants.
Les signaux de marché convergent. Gartner projette que 33% des applications logicielles d’entreprise incluront de l’agentic AI d’ici 2028 (contre moins de 1% en 2024). En parallèle, 15% des décisions de “day-to-day work” seraient prises de façon autonome via des agents d’ici 2028 (contre 0% en 2024).
Conséquence pour l’offre : ce qui compte moins, c’est la richesse des écrans, et plus la capacité à être “actionnable” de manière fiable (déclencher une action, vérifier des contraintes, tracer, annuler, expliquer). Une offre qui n’est pas conçue pour être pilotée par des agents risque d’être contournée… ou réduite à un simple back-office.
2) L’agent-led commerce : quand l’acte d’achat quitte votre site
Le commerce illustre parfaitement la rupture. En février 2026, Google étend Gemini Shopping vers un “agent-led commerce” permettant d’acheter directement dans le chatbot (instant checkout), d’abord aux États-Unis, avec des partenaires comme Walmart, Shopify et Wayfair.
L’intégration Walmart x Google va plus loin : compte Walmart lié pour des recommandations personnalisées et gestion du panier Walmart/Sam’s Club depuis Gemini. Et la couche paiement s’élargit avec l’extension annoncée vers PayPal, au-delà des cartes liées au compte Google.
Pour les marques et distributeurs, la question n’est plus seulement “comment amener du trafic sur mon site ?”, mais “comment mon catalogue, mes prix, ma disponibilité, mes règles de retour et mon service deviennent-ils interprétables et exécutables par un agent tiers ?”. Sans stratégie, l’expérience et la marge peuvent se déplacer vers l’interface agent, qui devient le nouveau point de contrôle.
3) Service client : premier terrain d’adoption… et de déception
Côté retail, Salesforce indique (tendances 2025) que 76% des retailers prévoient d’augmenter leurs investissements IA sur l’année à venir, et que le service client est le use case “agent” numéro 1 (réponses, suivi de commande, retours 24/7). La pression est aussi structurelle : la part des achats en magasins physiques baisse (45% en 2024 → 41% projeté en 2026), ce qui amplifie le besoin d’expériences digitales efficaces.
Des retours clients valorisent déjà l’approche communautaire et relationnelle : SharkNinja (client Salesforce) décrit Agentforce comme “key to helping us build a community that keeps consumers coming back”. Autrement dit, l’agent n’est pas qu’un centre de coûts : il peut renforcer rétention et préférence de marque.
Mais Adobe (AI & Digital Trends 2026, étude ~3 000 executives et ~4 000 consumers) pointe l’écart entre attentes et stratégie : 46% des consommateurs se disent à l’aise avec des marques utilisant l’IA, mais seulement 43% sont prêts à interagir avec un agent IA. Pire, 37% mettraient fin à l’interaction s’ils s’attendent à un humain et trouvent une IA. L’offre doit donc “designer la confiance” : expliciter quand l’agent intervient, quand un humain prend le relais, et comment l’expérience reste fluide.
4) “Agent washing” et sélection des bons fournisseurs : le tri devient stratégique
Avec l’explosion du marketing, Gartner alerte (06/2025) sur l’“agent washing” et estime qu’il n’existerait qu’environ 130 fournisseurs “réellement” agentiques sur des milliers. Beaucoup de solutions rebaptisent des chatbots, des règles ou des automatisations en “agents”, sans autonomie contrôlée, sans orchestration, ni garanties d’exécution.
Pour repenser l’offre, cela implique de définir des critères concrets : quelles actions l’agent peut-il exécuter ? Sur quels systèmes ? Avec quelles permissions ? Quelles preuves d’exécution (logs, reçus, états) ? Quels mécanismes d’arrêt, d’annulation, d’escalade ? Et quels engagements sur la qualité (taux de succès, latence, coûts) ?
Cette discipline est d’autant plus nécessaire que Gartner projette aussi une vague d’échecs : plus de 40% des projets agentiques annulés d’ici fin 2027. Les causes citées (coûts, valeur business floue, contrôles de risques insuffisants) ressemblent à des défauts de conception d’offre : promesse trop large, métriques vagues, gouvernance incomplète.
5) Repenser le produit comme “Outcome as Agentic Solution (OaAS)”
ITPro (02/2026) formalise une évolution utile pour l’offre : “Outcome as Agentic Solution (OaAS)”. L’idée est de dépasser le SaaS vendu comme une boîte à outils, pour livrer un résultat mesurable, où l’éditeur devient responsable du résultat (pas seulement de la disponibilité de l’interface).
Dans cette logique, on passe de “systems of record” à “systems of action” : l’agent ne se limite pas à consulter des données, il exécute une chaîne d’actions orchestrées, auditable, et réversible. L’offre se vend en outcomes (ex. “retour traité en moins de X minutes”, “réapprovisionnement déclenché selon règles”, “réservation complète conforme politique”).
Concrètement, cela change la fiche produit : on doit inclure des garde-fous (plafonds de dépense, seuils, validations), une traçabilité (preuves, étapes, raisons), et une responsabilité partagée (ce qui relève du client : données, droits, exceptions ; ce qui relève de l’éditeur : orchestration, observabilité, sécurité). C’est souvent plus vendeur… et plus difficile, car on s’engage sur la réalité opérationnelle.
6) Les fondations techniques : MCP, registres et “offers” lisibles par des agents
Si les agents deviennent l’interface, l’offre doit être “exposable” de manière standardisée. Le Model Context Protocol (MCP, spec 11/2025) vise précisément à normaliser l’accès des modèles aux outils (JSON Schema, framework d’auth HTTP, validation). Cela devient une base technique pour transformer des capacités produit en outils appelables par des agents.
La roadmap MCP (10/2025) mentionne un “MCP Registry” lancé en preview (09/2025) et en route vers la GA, avec un focus sur suites de conformité et implémentations de référence. Autrement dit, on se dirige vers un monde où vos “connecteurs” et “outils” seront comparés, testés et sélectionnés… comme l’étaient les APIs à l’ère Web 2.0.
Fin 2025, la Linux Foundation annonce l’“AAIF / Agentic AI Foundation” avec le don de MCP (Anthropic) et AGENTS.md (OpenAI), visant un écosystème “open, neutral, community-driven”. Les chiffres d’adoption rapportés sont notables : MCP “powers over 10,000 servers” et AGENTS.md “adopted across 60,000 open-source projects”. Pour une offre, cela signifie que la compatibilité et la conformité (schemas, auth, validation) deviennent des arguments de distribution.
7) Sécurité et confiance : limiter l’agence, auditer l’action
Une offre “agent-ready” doit traiter la sécurité comme une fonctionnalité produit. OWASP GenAI Security (LLM Top 10, 2025) met en avant des risques clés : Prompt Injection, Sensitive Info Disclosure, Supply Chain, Unbounded Consumption… et surtout “LLM06: Excessive Agency”, qui vise l’excès de permissions et d’actions possibles. C’est directement applicable : l’offre doit borner ce que l’agent peut faire.
Les agents navigateur rendent ces enjeux très concrets. OpenAI décrivait Operator (01/2025) comme “an agent that can use its own browser to perform tasks for you”, capable de remplir des formulaires, commander des courses, etc., et l’a ensuite intégré à ChatGPT en “agent mode” (mise à jour 07/2025, sunset du site Operator). Anthropic, avec “Claude for Chrome” (08/2025), met en avant une réduction mesurée du succès des attaques de prompt injection (23,6% → 11,2%) et une approche par permissions, l’agent demandant l’autorisation avant des actions “high-risk” (publier/acheter/partager des données personnelles).
Au niveau protocolaire, la recherche pousse aussi vers plus de sécurité : SMCP (02/2026) propose un “Secure Model Context Protocol” (identity, mutual auth, policy enforcement, audit logs) pour réduire des risques comme tool poisoning, privilege escalation et supply chain. Des analyses (03/2025) détaillent les menaces sur le cycle de vie des serveurs MCP (création, opération, mise à jour). Une offre bien pensée doit donc prévoir : gestion d’identité forte, politiques d’accès, journaux inviolables, et mécanismes d’approbation gradués.
8) Données, intégration et transparence : le vrai goulot d’étranglement
Les limites les plus fréquentes ne viennent pas du modèle, mais du système : données incomplètes, règles implicites, intégrations fragiles. Adobe (02/2026) indique que 75% citent la mauvaise intégration/qualité des données comme barrière au passage à l’échelle. Et en pratique, un agent n’“improvise” pas une politique de retour ou une règle de TVA : il lui faut des sources fiables et structurées.
Côté déploiement, Adobe indique que 16% ont déjà déployé l’agentic AI “organization-wide” en support client, et 13% en discovery. Ce décalage entre ambition et réalité reflète la difficulté : industrialiser un agent impose des référentiels (catalogue, disponibilité, SLA), des systèmes de vérité, et des boucles de contrôle.
La transparence devient aussi une contrainte réglementaire et une exigence d’expérience. La Commission européenne (09/2025) lance une consultation sur des lignes directrices et un Code of Practice pour des “transparent AI systems”, avec une obligation de transparence de l’AI Act applicable à partir du 02/08/2026. Et côté consommateurs, Adobe note que 70% demandent des expériences IA “human-like” (confiance, transparence, réactivité) : cela implique d’expliquer clairement le rôle de l’agent, ses limites, et les voies de recours humaines.
Repenser l’offre face aux agents numériques revient à changer de centre de gravité : de l’interface vers l’exécution, du “feature” vers l’outcome, et du discours marketing vers la gouvernance réelle (permissions, preuves, sécurité, données). Les projections de Gartner (applications et décisions de plus en plus agentiques) indiquent que cette transformation va toucher l’essentiel des workflows, pas seulement quelques cas d’usage “innovants”.
La trajectoire gagnante consiste à concevoir des offres compatibles avec les agents (standards type MCP), mesurables (résultats et taux de succès), et dignes de confiance (anti-“excessive agency”, auditabilité, transparence). En prenant au sérieux les avertissements , annulations de projets, “agent washing”, attentes consommateurs , les entreprises peuvent éviter l’effet de mode et construire des produits réellement actionnables, capables d’exister dans un monde où l’agent devient le premier utilisateur.