Depuis le début de l’année les annonces se sont multipliées sur le marché de l’expérience client et de l’IA. Une agitation médiatique qui interpèle sur la réalité de ce marché et son impact réel dans les stratégies d’investissements des marques dans ces domaines. On a demandé à deux experts de ces marchés, Roland Koltchakian et Pascal Bizzari, de nous éclairer sur la réalité actuelle et les futurs enjeux.
DigitalCMO.fr – Vous avez une expérience assez longue des projets data média et marketing quel regard portez vous aujourd’hui sur la déferlante des annonces IA ?
Roland Koltchakian* – Tout d’abord, il s’agit de remettre cette question dans la perspective de ce qui vient caractériser le secteur de la tech et qui apparaît chaque année dans le fameux « hype cycle » théorisé par le Gartner. Comme toute grande vague technologique, l’I.A et plus particulièrement l’I.A ou les I.A génératives n’échappent à cette règle et font l’objet d’estimations macro-économiques particulièrement élevées, à l’image de ce que prévoit le cabinet Mc Kinsey dans une de ses études et qui révèle un impact économique de 17 à 25 Trillion (millier de milliard) soit 25% d’augmentation du PIB mondial. De son côté, IDC estime ce marché à plus de 500 milliards de $ dés 2024.
Selon McKinsey l’IA boostera le PIB mondial de 25 %
Sans compter de plus, la valorisation d’Open A.I qui s’envole désormais à plus de 80 milliards de $ et enfin 100 millions d’utilisateurs qui ont souscrit à Chat GPT en à peine 2 mois …Chacun comprendra donc face à de tels chiffres, le niveau d’effervescence, le niveau d’attentes et donc la « hype » qui a pu accompagner l’émergence de cette technologie ainsi que toutes les annonces qui ont pu suivre et qui ne manqueront probablement pas de suivre dans les mois à venir, avec encore très récemment les annonces faîtes autour de Sora, le nouveau service de création de vidéos développé par Open A.I
DigitalCMO.fr – Comment les entreprises commencent à travailler alors sur ces projets ?
Roland Koltchakian – Cette introduction étant posée, et si nous revenons sur le sujet plus spécifique lié à la façon dont les entreprises ont réagi et se sont emparés du sujet de l’I.A générative, nous avons pu observer deux grands phénomènes D’une part des salariés commencent à préempter des premiers usages autour de Chat GPT au travers de leurs propres initiatives personnelles afin de simplifier certaines tâches et gagner en productivité, ce qui conduit quelque part à « imposer » une nouvelle forme d’I.A, incroyablement accessible au sein de l’entreprise et dans certains de ses processus. Et d’autre part, au sein des entreprises, le caractère assez soudain de cette vague I.A générative qui a déferlé et qui continue de déferler a pu créer dans certains de la désorganisation ou des formes de conflit à propos de « qui devait porter le sujet » au sein de l’entreprise, relançant ainsi le débat sur le « owner » de la data entre DSI, équipes métier ou équipes Data. A date, nous observons qu’il n’y a pas encore de consensus absolu sur cette question et que les options organisationnelles peuvent différer d’une entreprise à une autre. Dans tous les cas et ce sera sans doute là, le défi majeur qui attend les entreprises afin de faire de l’I.A un nouveau facteur de compétitivité, c’est de réussir avant tout à en faire un sujet véritablement transverse.
Pascal Bizzari** – Cette question divise puisqu’elle cristallise des positions différentes au sein de l’entreprise. D’un côté, nous avons des équipes métier extrêmement enthousiastes et qui voient immédiatement les gains de productivité ou le potentiel créatif liés aux outils d’I.A générative et de l’autre côté, nous pouvons avoir des équipes DSI qui alertent à juste titre sur la nature des données traitées et qui partent chez Open A.I ainsi que sur le côté « boîte noire » de ces fameux LLM (large language models). Sans compter également, les équipes Data Science qui peuvent être engagées sur d’autres projets et qui doivent de fait, revoir leur agenda. Or, et malgré l’effervescence inédite que nous mentionnions plus tôt, nous observons qu’en dehors de certains déploiements qui ont pu aller assez vite, l’heure reste encore à la fois des premières phases d’acculturation ainsi qu’aux POC (Proof of concept) et que peu de projets sont encore menés « à l’échelle », ce qui semble aussi confirmer la nécessité de clarifier les modalités d’intégration de ces outils avec des processus existants mais surtout avec les gisements de données et d’information internes à l’entreprise. Ce qui renvoie donc naturellement à une autre dimension plutôt structurante qui est celle de l’architecture du S.I, en privilégiant un « cloud privé » afin d’héberger et faire tourner ces modèles, et donc pouvoir in fine, mieux les maîtriser tout en s’inscrivant notamment dans la doctrine de sécurité émise par la DSI.
DigitalCMO.fr – Compte tenu des expériences actuelles très diversifiées en IA comment peut-on classer les grands cas d’usages ?
L’intelligence documentaire, les interactions augmentées, le contenu.
Pascal Bizzari – En termes de cas d’usages, nous en recensons 3 grands types à date: INTELLIGENCE DOCUMENTAIRE (Extraction, Résumé, Analyse et enrichissement, Traduction) INTERACTIONS AUGMENTEES (Chatbots avancés, Assistants personnels, Automatisation de processus) & CRÉATION DE CONTENU (Inspiration / Design, Génération de code). Dans tous les cas, le changement de paradigme provient du niveau inédit d’accessibilité que proposent ces outils mais qui doit également obliger les entreprises à poser un cadre clair et défini si elles souhaitent éviter ce qui s’est déjà produit pour certaines marques, à l’image de ce que Samsung a connu en 2023 avec une fuite de données internes du fait d’initiatives malheureuse mais sans doute involontairement naïves de la part de certains salariés. Pour rappel, une étude menée par Avisia sur l’année 2023 révèle que ce sont en moyenne, + de 80% des salariés qui ont été amenés à utiliser des outils d’I.A générative sans aucune consigne claire ou communication interne sur le sujet au sein de l’entreprise.
DigitalCMO.fr – Pensez-vous que la France sera un marché particulier sur l’IA et que peut changer l’IA Act récemment voté ?
Roland Koltchakian – La France s’inscrit déjà naturellement depuis ces dernières années dans le cadre réglementaire et législatif qui est celui imposé par l’Europe et les entreprises Françaises ont su adapter leurs pratiques depuis des années entre les dispositions imposées par la CNIL et les dispositions imposées par des réglementations Européennes telles que le RGPD. De ce point de vue, il n’y a donc pas de raisons d’imaginer au prime abord que la France sera un marché particulier du fait de la nature de l’I.A act et de ses principes majeurs que nous souhaitons rappeler ici : Respect des droits fondamentaux, Transparence et traçabilité, responsabilité, fiabilité & sécurité, gouvernance des données, supervision humaine et enfin interdiction de certaines pratiques …Chacun de ces principes ont déjà été largement anticipés et adoptés au sein des pratiques de la majorité des entreprises et il n’y pas de « changement de paradigme » en tant que tel. Il s’agit simplement d’inscrire ces dispositions dans la continuité d’un cadre éthique et réglementaire déjà existant tout en renforçant sans doute l’effort à mener sur les sujets de « documentation » et de « traçabilité ». Le vrai sujet derrière la question de la France « en tant que marché particulier » est surtout de notre point de vue, le sujet des conditions permettant de faire émerger et prospérer durablement un « champion Français de l’I.A » grâce notamment aux atouts dont dispose la France et que Bruno Le Maire a souhaité rappeler dans son allocution du 9 février dernier au WAICF.
Faire émerger un champion français de l’IA est-il possible ?
Ces atouts sont les suivants : Une filière scientifique et mathématique de 1er plan et mondialement reconnue, une avance sur les investissements en matière d’énergie décarbonée afin d’opérer des Data centers moins polluants et enfin un véritable savoir-faire en matière d’open source afin d’accélérer la démocratisation d’une I.A plus transparente et donc plus vertueuse. C’est notamment l’influence de ces 3 facteurs clés de succès qui ont contribué à la création d’un acteur comme Mistral A.I En conclusion, l’enjeu sera donc comme très souvent, de trouver le bon équilibre entre le fait de laisser suffisamment de marges de manœuvre aux entreprises pour innover, prendre des risques et lancer rapidement de nouvelles initiatives, et le fait de pouvoir disposer d’une régulation nécessaire permettant de prévenir les risques de dérive liés à une utilisation dévoyée de l’I.A
DigitalCMO.fr – Dans ce contexte quels regards portez-vous sur les projets d’Expérience Client (CX) ? Dans quelles directions les entreprises réorientent leurs projets dans ce domaine ?
Roland Koltchakian – L’expérience client et l’optimisation de ses processus constituent effectivement l’un des champs prioritaires d’application pour tout ce qui est I.A et d’ailleurs il faut rappeler à quel point Data science puis l’industrialisation du machine Learning au travers des architectures Cloud ont été au cœur des stratégies de gestion de l’expérience client depuis ces dernières années. Et d’ailleurs l’étude menée par Mc Kinsey et que nous mentionnions plus haut, estimait que 67% de la valeur de l’impact économique susceptible d’être généré par l’I.A serait lié à tout ce qui est Advanced analytics, machine learning & deep learning, ce qui permet de relativiser pour l’heure actuelle, la part et l’influence des I.A génératives dans le mix d’innovation concerné.
75% de l’impact annuel de l’I.A générative se concentre autour de 5 grandes fonctions au sein de l’entreprise.
Pascal Bizzari – Avant de rentrer plus précisément sur la façon dont l’I.A générative vient ouvrir un nouveau champ des possibles en matière d’expérience client, il faut rappeler que 75% de l’impact annuel de l’I.A générative se concentre autour de 5 grandes fonctions au sein de l’entreprise : Les ventes, le marketing, le développement produit ( ou plus globalement le « product management »), le développement logiciel et son administration et enfin le service client. Si nous revenons sur ce que nous pouvons observer en matière de projets CX menés grâce et au travers de l’I.A générative, nous notons que :
- l’I.A générative va permettre d’augmenter de façon significative voire exponentielle les capacités des agents conversationnels et autres chatbots mis en place au sein des services clients ou sur des sites e-commerce, offrant ainsi à la fois des gains de productivité accrus, une baisse des coûts de service, ainsi qu’une expérience utilisateur améliorée de par le niveau d’empathie et de compréhension susceptible d’être atteint par ces agents conversationnels « augmentés ».
- Enfin et pour un métier aussi structuré par le contenu que peut être le marketing, l’I.A générative va permettre d’atteindre des niveaux de production, d’hyper segmentation et donc d’hyper personnalisation des contenus, messages, activation média de façon inédite dans un paysage de consommation des médias hyper fragmenté et qui est également caractérisé par un très fort phénomène de convergence puisque les canaux traditionnels tendent à devenir des médias et que les médias digitaux tendent eux à se transformer en canaux d’engagement.
DigitalCMO.fr – Est-ce que les données de l’expérience client sont un silo d’information déconnecté de la gestion globale des données consommateurs et clients ? Les entreprises ont-elles réellement intérêt à accélérer l’intégration ? N’est-ce pas encore trop tôt ?
Roland Koltchakian -La problématique des données en silos continue de demeurer un des enjeux majeurs pour les marques dans le cadre de leurs projets de transformation digitale. Or, l’émergence des technologies telles que les CDP ( Customer Data Platforms) a pour vocation de pouvoir précisément centraliser, unifier et reconnecter l’ensemble des données liées à l’expérience client au sens large, quel que soit la nature des sources de données concernées ou bien l’hétérogénéité des données : Données digitales temps réel, données transactionnelles, données signalétiques ou d’adressage, données de segmentation, données de service client voire données produit dans certains cas …
Pascal Bizarri – En intégrant les capacités propres à l’I.A générative, nous allons pouvoir élargir et enrichir le champ des données exploitables en intégrant des données non structurées avec l’aide de l’analyse sémantique le NLP, l’extraction et la catégorisation de ces données et enfin l’analyse des sentiments. La combinatoire entre l’ensemble de ces données ouvre la voie à de nouvelles potentialités en matière de « connaissance du consommateur » et d’hyper personnalisation des interactions et ce quel que soit le canal d’activation de cette interaction. La capacité à proposer et mettre en œuvre à grande échelle des expérience clients toujours plus personnalisées mais également de plus en plus « responsables » repose donc bel et bien sur cette démarche d’intégration et d’unification des données à l’échelle de la marque dans sa globalité et sur l’ensemble de ses moyens média, marketing, vente et service.Réussir un tel défi va notamment imposer de repenser l’approche des moyens en matière de « Data management »
*Roland Koltchakian est spécialiste Expérience client et a construit une expérience large et diversifiée dans ce domaine depuis plus de 23 ans, chez des acteurs majeurs de la tech tels que Oracle et plus récemment, en tant que Directeur des activités « Expérience & Design » pour la France au sein de SQLI, ESN spécialisée dans la conception de plateformes digitales et E-commerce. Dans le cadre de son parcours, Roland a eu l’opportunité d’accompagner de nombreuses entreprises B2C & B2B dans leur transformation culturelle, technologique & métier, autour de l’expérience client.
**Pascal BIZZARI est Partner chez AVISIA, Cabinet de Conseil spécialisé en Data & Intelligence Artificielle. Les différentes expériences et projets qu’il a pu mener au sein d’acteurs les plus matures (LOUIS VUITTON, SEPHORA, DIPTYQUE, CARREFOUR, MONOPRIX, BOUYGUES TELECOM, CLUB MED, EVANEOS, …), lui confèrent une expertise pointue sur la valorisation de la donnée et l’impact de l’intelligence artificielle avec une capacité d’apporter des solutions pragmatiques et concrètes sur les sujets les plus complexes.