C’est bientôt la fin de l’année et la rédaction de DigitalCMO a décidé dans un dossier spécial de partager les visions de tous les acteurs de l’éco système du digital. Leurs regards croisés sur les enjeux en cours devraient nous éclairer sur les voies à prendre en 2022. La parole est donnée aujourd’hui à Alexis Trentesaux, directeur associé du cabinet de conseil en transformation numérique mc2i.
Digital CMO : Où en sont les entreprises françaises en matière de data ? Et quelles sont les directions prises pour 2022 ?
Alexis Trentesaux : Les entreprises françaises font face à deux enjeux. Le premier concerne la volonté d’agréger et de valoriser le plus possible ses données. Le deuxième concerne le souhait de les maîtriser davantage. S’agissant du premier enjeu, nos clients chez mc2i, privilégient le plus possible, et quand elles en ont les moyens, la mise en place d’une organisation, proche d’un laboratoire de recherche et de développement : le Datalab. Souvent composé de profils techniques variés, cette équipe sera dédiée à l’application d’algorithmes d’apprentissage sur des données en vue de répondre à des cas d’usage métier. Ce dispositif s’appuie la plupart du temps sur une infrastructure technique en mesure de centraliser un grand volume de données disponibles dans l’entreprise. Ces données peuvent être très hétérogènes : elles peuvent être de type structurées ou non-structurées (images, texte brut…) et avoir une grande diversité d’origine fonctionnelle (RH, Achats…). Cette diversité de données couplée à la puissance des outils à disposition permet de couvrir de nombreux cas d’usage Les possibilités étant de plus en plus élargies et prometteuses, l’imagination des collaborateurs devient sans limite et les demandes peuvent vite s’accumuler pour les DSI.
En parallèle, les éditeurs ont fait de plus en plus de progrès dans la puissance et l’ergonomie de leurs outils, à tel point qu’un utilisateur métier peut être autonome dans le développement de son cas d’usage. Dans cet esprit, les éditeurs de plateformes de données se vantent de vulgariser l’utilisation de l’Intelligence Artificielle (IA) à des utilisateurs non-initiés.,Pour permettre une telle autonomie à leurs collaborateurs, les entreprises se lancent dans des chantiers de « data acculturation ». Plus précisément, elles poussent les utilisateurs métiers à s’approprier la donnée qui les entoure, soit de manière formelle (via la mise en place d’un dictionnaire de données par exemple), soit de manière plus ludique via la mise en place de hackathon interne. Par ailleurs, les événements récents ont conduit à l’expansion des formations Data en ligne, permettant aux salariés de monter encore plus vite en compétence.
Toutefois, vouloir être une société data driven implique la mise en place de garde-fous. En effet, le manque ou la perte de contrôle pourrait conduire à une diffusion non maîtrisée de données confidentielles ou personnelles au sein du SI mais également à l’extérieur. Face à ce constat, les entreprises s’organisent en mettant en place une gouvernance de la data qui a vocation à cadrer les usages notamment sur des problématiques de responsabilité de la donnée, de qualité et de définition de la donnée, de sécurité du SI ou encore de compliance.
Digital CMO : le sujet central semble être la capacité à utiliser les données réparties dans différents silos. Un chantier déjà ancien et difficile semble-t-il ? Quelles les nouvelles approches ?
Alexis Trentesaux : Datalake, Datawarehouse dans le cloud, data marketplace d’entreprises… Les promesses sont belles en effet mais la tâche est rude et le poids de l’histoire n’est pas à négliger ! Une centralisation des données doit d’abord faire face à des enjeux techniques lourds : le SI d’une organisation est constitué d’applications apparues sur un temps long. Si de plus en plus d’applications utilisent des APIs bien documentées, les échanges avec d’autres outils plus anciens peuvent se limiter à des échanges via FTP ou des communications de base à base. Cette complexité technique engendre des complexités organisationnelles : il faut plusieurs profils techniques (experts applicatifs, architectes et experts interfaces de données) pour assurer la bonne avancée du projet.
Souvent, la réplication de données d’une base à l’autre est privilégiée pour désiloter la donnée. Ce choix de dispositif technique ajoute une contrainte : celle de devoir administrer une base supplémentaire et d’ajouter un risque de dégradation de la cohérence des données si une base ou un flux devient défaillant. Heureusement, les outils de data virtualisation viennent répondre à ces contraintes en se positionnant comme un connecteur multi-sources unique au sein du SI. Une fois la connexion avec les applications sources faite, les données peuvent être transformées jusqu’à une autre interface à laquelle les applications et programmes consommateurs se brancheront directement à l’outil de data virtualisation. Ces outils proposent également une vue de toutes les données à disposition du SI. Cette vue faisant abstraction des interfaces existantes.
En plus du défi technique, les équipes doivent s’atteler au sujet fonctionnel et organisationnel. Le silotage des données est corrélé à celui des services de l’entreprise. Dans un SI peuvent ainsi cohabiter des applications orientées vers des collaborateurs spécifiques à l’entreprise. Si deux données peuvent avoir le même nom d’un service à l’autre, elles n’en ont pas pour autant le même sens. Quid de la responsabilité de la donnée lorsque celle-ci est partagée entre plusieurs services ? L’exploitation de ces données dans le cadre d’un cas d’usage transverse peut alors s’en trouver compliquée.
La mise en place d’une démarche de data management et de data gouvernance va venir pallier ces problèmes par des travaux de définition d’objets métiers et la mise en relation des termes fonctionnels et des données techniques. Cette démarche aidera d’autant plus le travail des équipes techniques qu’elle révélera les points de vérité au sein des SI (ou données de références), contrôlera et améliorera la qualité des données utilisées et contrôlera la conformité du dispositif technique à la réglementation.
Digital CMO : Une étude récente réalisée par Digital CMO montre que les entreprises cherchent à mieux sélectionner leurs prestataires dans le digital ? Qu’observez-vous par rapport à cette nouvelle tendance ? L’idée est d’avoir votre point de vue sur le sujet de la sélection des acteurs du digital : Quelles sont les priorités dans ce domaine : sur les prestataires techniques et logiciels, dans les investissements publicitaires, sur les agences. Comment diminuer le nombre d’intervenants ? Est- est- ce possible ? Nécessaire ?
Alexis Trentesaux : Les priorités vont influencer la sélection de prestataire et répondent à plusieurs enjeux. Premièrement des attentes sociétales fortes et notamment la prise de conscience autour du numérique responsable à la fois pour l’environnement et l’inclusion. Elle est renforcée par des nouvelles réglementations (RGAA, RGESN), par un besoin de confiance accru dans la collecte et l’exploitation des données. On observe également des attentes fortes en termes d’expérience utilisateurs (UX) qui implique une meilleure personnalisation ainsi que l’omnicanalité des parcours. Ensuite, cela est renforcé par la pression de certains éditeurs sur la donnée, on peut citer les exemples d’Apple avec le tracking transparency ou de Google avec la fin du support des cookies tiers. Enfin, s’ajoute à cela un réel enjeu de réduction des coûts et d’efficacité opérationnelle. Dans ce contexte, les partenaires et solutions d’hier ne sont pas forcément ceux de demain, et la mise en œuvre de solutions technologiques nécessite une triple expertise méthodologique, technologique et métier. Sont alors souvent retenues des grosses solutions en socle, complétées par de petits outils de niche en expérimentation ou sur des périmètres stratégiques.
Il est alors intéressant de se faire accompagner par des acteurs transverses intégrant une démarche d’assurance qualité des produits digitaux, et capables d’avoir une vision d’ensemble pour apporter de la valeur aux utilisateurs d’un bout à l’autre de leur expérience. Ces mêmes prestataires, par leur socle de connaissances sur les différents domaines du produit digital, seront à même d’identifier les risques du projet et de faire appel aux experts dédiés en cas de besoin. Pour garantir une réponse objective, on privilégiera alors un prestataire indépendant financièrement et commercialement, qui recherchera les experts ou spécialistes en toute objectivité, selon le besoin client.
———————————————————————————————–
Dossier CMO Vision 2022
- Données – Alexis Trentesaux, mc2i : vouloir être une société data driven implique des garde-fous
- Marketing BtoB – Le marketing de contenu un des piliers de la confiance client en BtoB
- Etude CMO les tendances 2022 – Qui croire ?
- Marketing BtoC – Christophe Rativet, CMO de Gold Circle : la donnée bancaire est omni-canal
- Agence – Quelle place dans l’éco système digital face aux spécialistes tech de la donnée