Acteur référent sur le marché de l’analytique CX, Amplitude, comme d’autres éditeurs historiques du digital analytics, a intégré l’IA afin de se transformer. Pour l’éditeur américain qui vient d’annoncer des revenus récurrents en hausse de 17 % à 366 M$ les CMO doivent disposer de données analytiques liées au contexte du comportement de leurs consommateurs et d’une automatisation qui »raisonne» afin de faire évoluer rapidement leurs solutions digitales. Echanges sur les apports de l’IA à un meilleur digital analytics avec Jérémy Grinbaum, VP EMEA South d’Amplitude.
DigitalCMO – Avec sa stratégie agentique, Amplitude élargit ses intégrations data aux solutions IA du marché. Pourquoi ?
Jérémy Grinbaum – L’enjeu n’est pas simplement d’ouvrir un accès aux données. Il s’agit d’amener l’intelligence comportementale au plus près de l’action : là où un product manager rédige une spécification, où un designer ajuste un prototype, où un développeur valide une modification de code, où un responsable marketing optimise une campagne. Aujourd’hui, ces décisions se prennent dans des environnements alimentés par l’intelligence artificielle : assistants conversationnels, outils de développement ou plateformes de collaboration. Si l’analytics reste isolé dans un outil à part, il crée une distance entre l’analyse et l’exécution.
Le Model Context Protocol permet de rendre le contexte comportemental capturé par Amplitude (données d’usage, funnels de conversion, parcours utilisateurs, expérimentations, session replay, retours clients) accessible directement dans les outils d’IA déjà utilisés par les équipes, notamment Anthropic Claude, OpenAI, Cursor, Figma, Lovable, Notion, GitHub et tout environnement compatible MCP.
Il ne s’agit pas d’exposer des données brutes, mais un contexte structuré et gouverné. Une intelligence artificielle ne peut produire des réponses fiables que si elle s’appuie sur la réalité des usages. Cette approche s’inscrit dans notre vision agentique : faire de l’analytics une intelligence intégrée aux workflows quotidiens. Amplitude reste la source de vérité comportementale ; MCP permet de l’activer au moment où les décisions se prennent.
DigitalCMO – Quelle est la valeur créée pour les clients dans ce modèle ?
Jérémy Grinbaum – La valeur se mesure dans le temps gagné, la qualité des décisions et la réduction des angles morts. Beaucoup d’entreprises disposent déjà de volumes importants de données. L’enjeu n’est plus l’accès aux données, mais la vitesse d’interprétation. Les équipes livrent des fonctionnalités, lancent des campagnes ou déploient des expérimentations en continu, alors que l’analyse reste souvent ponctuelle, manuelle ou dépendante d’experts.
Les agents IA surveillent les indicateurs en continu, détectent des variations significatives, explorent les causes et formulent des recommandations directement exploitables. Le délai entre un signal et une décision se réduit fortement.
Chez NTT DOCOMO, premier opérateur mobile au Japon, un pilote mené avec nos agents a permis de réduire de 90 % le temps consacré à l’analyse des performances de campagne. Les équipes ont conservé leurs dashboards existants. L’agent a automatisé la synthèse et l’investigation, ce qui a fluidifié la prise de décision.
Mercado Libre, principale plateforme e-commerce en Amérique latine, opère dans 18 pays et traite 782 milliards d’événements comportementaux. En combinant dashboards et agents, l’entreprise a identifié plus rapidement des zones où des vendeurs ne trouvaient pas de transporteur disponible dans son programme logistique Flex. Le taux de recherches sans transporteur est passé de 31,8 % à 22,1 %.
Chez Complex, groupe média et commerce américain opérant au rythme des tendances culturelles, les AI Agents ont réduit le délai d’interprétation des évolutions de performance. Les équipes identifient désormais plus rapidement les signaux et leurs causes probables directement dans leurs analyses, ce qui permet une réaction plus rapide.
La logique reste la même : automatiser la détection, accélérer l’analyse et rendre les recommandations directement exploitables dans les outils de travail quotidiens. Les équipes passent moins de temps à reconstituer les analyses et davantage à décider et agir. À l’échelle d’organisations internationales, cette réduction du cycle décisionnel se traduit par un impact direct sur la performance.
DigitalCMO – Pensez-vous que tous les éditeurs analytiques sont aujourd’hui obligés d’emprunter cette voie ? Cela ne vous pousse-t-il pas dans un modèle plus proche du conseil data que de la production data ?
Jérémy Grinbaum – Le rythme auquel les équipes conçoivent et déploient des produits n’a jamais été aussi rapide. Les outils d’intelligence artificielle ont considérablement réduit les barrières à la mise en production de nouvelles fonctionnalités, campagnes ou expérimentations. Le véritable point de friction n’est plus de livrer, mais de savoir quoi construire ensuite.
Pourtant, l’analytics n’a pas évolué au même rythme. De nombreuses plateformes reposent encore sur un modèle où quelqu’un se connecte, construit un graphique, pose la bonne question et interprète le résultat. Ce modèle devient fragile lorsque les produits évoluent quotidiennement et que les cycles d’expérimentation s’accélèrent.
Les entreprises attendent désormais des systèmes capables de fonctionner en continu, de détecter ce qui compte, d’explorer des causes probables et d’accompagner la décision. L’analytics doit évoluer et passer du reporting à un raisonnement appliqué au produit, au moment où les décisions se prennent.
L’analytics entre dans une phase de réinvention, et nous voulons la mener avec une approche AI-native : reconstruire le produit pour que l’intelligence artificielle soit intégrée à l’architecture et aux workflows, plutôt qu’ajoutée en surcouche. Ce fonctionnement réduit la charge opérationnelle liée aux analyses récurrentes et répétitives (surveillance des indicateurs, détection d’anomalies, premières investigations). Les équipes peuvent alors se concentrer sur les décisions et leur exécution. Le modèle reste celui d’une plateforme logicielle. Ce qui évolue, c’est le degré d’autonomie et d’intégration du logiciel dans les processus décisionnels.








