NetApp fait partie des géants de l’IT qui pensent que les données seront de plus en plus autonomes. Mathias Robichon, Directeur Technique pour la France, présente les 5 grandes tendances identifiées par NetApp pour expliquer ce constat.
- La première tendance mise en avant par NetApp pour 2018 concerne le fait que les données vont devenir « autonomes » : n’est-ce pas autant fascinant d’un point de vue technologique qu’effrayant d’un point de vue social ?
Mathias Robichon : Rappelons pour commencer les éléments fondamentaux qui justifient cette évolution. Il est évident que le volume des données progresse de façon exponentielle et qu’il faut trouver un remède à cela. Le principal est de faire un premier « tri » de ces données, le plus en amont possible, c’est-à-dire au moment où elles sont produites. Dans les faits, ce n’est gérable qui si les données « prennent conscience d’elles-mêmes ». Au fur et à mesure que les données prennent conscience d’elles-mêmes et deviennent encore plus diversifiées qu’elles ne le sont aujourd’hui, les méta données permettront aux données de se déplacer, se catégoriser, s’analyser et se protéger elles-mêmes de manière proactive. Concrètement, ces méta données seront définies par des humains, travaillant au sein des services les plus directement concernés par le sujet. Au final, cela permettra aux données de « s’auto-gouverner ». Elles détermineront elles-mêmes qui a le droit d’y accéder, de les communiquer et les utiliser, ce qui pourrait avoir des implications étendues sur la protection, la confidentialité, la gouvernance et la souveraineté des données externes.
Par exemple, si vous êtes impliqué dans un accident de voiture, différentes entités pourraient souhaiter ou exiger l’accès aux données de votre voiture. Un juge ou une compagnie d’assurance pourrait en avoir besoin pour déterminer la responsabilité, alors qu’un fabricant d’automobiles pourrait souhaiter optimiser les performances des freins ou d’autres systèmes mécaniques. Les données qui ont conscience d’elles-mêmes peuvent être balisées afin de contrôler qui en voit quelle partie et quand, sans délai supplémentaire ni intervention humaine potentiellement sujette à erreurs, pour subdiviser, approuver et diffuser ces données précieuses.
- Votre deuxième constat est que nous allons vers un partage des machines virtuelles, alors que celles-ci apportaient à l’origine une solution au partage des machines physiques : comment l’expliquez-vous ?
Mathias Robichon : Par le fait qu’il faut « décoreller » le volume des données à traiter et les processus de traitement. L’analogie est l’achat d’un véhicule plutôt que sa location, ou l’utilisation d’un service de covoiturage tel qu’Uber ou Lyft. Si vous transportez de lourdes charges tous les jours, il serait logique d’acheter un véhicule utilitaire. Quelqu’un d’autre ne pourrait avoir besoin que d’un certain type de véhicule pendant une période donnée, et donc s’orienterait vers la location. Et puis, il y a ceux qui n’ont seulement besoin d’un véhicule que pour aller du point A au point B, une seule fois. Le type de véhicule n’a pas d’importance. Seuls l‘aspect pratique et la vitesse importent. Un service de covoiturage est donc la meilleure option.
Cette même réflexion s’applique au contexte des instances de machines virtuelles et physiques. Le matériel personnalisé peut être coûteux, mais pour des charges de traitement régulières et intensives, il peut être plus judicieux d’investir dans une infrastructure physique. Une instance de machine virtuelle dans le Cloud, traitant des charges variables, est similaire à la location : les utilisateurs peuvent accéder à la machine virtuelle sans la posséder ni avoir besoin de connaître les détails la concernant. En fin de « bail », elle disparaît.
Les machines virtuelles provisionnées sur une infrastructure à l’échelle du web (c’est-à-dire sans serveur) sont comme un service de covoiturage, dans lequel l’utilisateur spécifie simplement la tâche devant être exécutée. Le reste des détails est laissé aux soins du prestataire de Cloud. Ce modèle est plus pratique et plus facile à utiliser que les modèles traditionnels pour certains types de charges de traitement.
- Votre troisième constat est que le volume des données va croître plus rapidement que notre capacité à les transporter : n’est-ce pas inquiétant ?
Mathias Robichon : Non, c’est tout à fait normal et cela milite également pour limiter les volumes de données à traiter. Par exemple, les constructeurs de véhicules autonomes ajoutent des capteurs qui génèrent tellement de données qu’il n’existe pas de réseau assez rapide entre les véhicules et les datacenters pour les transférer. La meilleure réponse est donc de limiter le nombre de données à déplacer, et pour cela de recourir à de nouvelles architectures, de type Edge, Core ou Cloud.
- Quatrième constat : le passage du « big data » au « huge data » est selon vous inéluctable, voir déjà effectif. Quelles seront les conséquences de cette évolution ?
Mathias Robichon : La technologie Flash devient un sujet brûlant. Les logiciels qui y sont hébergés ne vont pas vraiment changer : ils seront simplement plus rapides. Cela est motivé par l’évolution du rôle de l’informatique dans l’entreprise. Dans le passé, la principale fonction de l’informatique était d’automatiser et d’optimiser les processus de commande, de facturation, de créances et autres. Aujourd’hui, l’informatique est essentielle à l’enrichissement des relations clients, et pour proposer des services toujours disponibles, des applications mobiles et des expériences web enrichies. L’étape suivante consistera à monétiser les données collectées à l’aide des différents capteurs et appareils, afin de créer de nouvelles opportunités commerciales. Cette étape nécessitera de nouvelles architectures applicatives reposant notamment sur de la mémoire persistante.
- Dans votre dernier point, vous estimez que les mécanismes décentralisés sont les mieux adaptés à cette nouvelle donne. Devenez-vous un défenseur de la blockchain ?
Mathias Robichon : Tous les intervenants sont fascinés par la montée en puissance de la blockchain, et par voie de conséquence par celle du bitcoin. Des mécanismes décentralisés tels que la blockchain défient le sens traditionnel de la protection et de la gestion des données. Sans point de contrôle central, tel qu’un serveur centralisé, il est impossible de modifier ou de supprimer les informations contenues dans une blockchain, et toutes les transactions sont irréversibles. Cela ressemble à un système biologique comprenant une multitude de petits organismes. Chacun sait ce qu’il est censé faire sans avoir à communiquer avec quoi que ce soit d’autre ni recevoir d’instructions. Vous ajoutez ensuite des nutriments, à savoir dans ce cas, des données. Les nutriments savent ce qu’ils doivent faire et tout commence à fonctionner de manière coopérative, sans aucun contrôle central. Comme un récif de corail.
Propos recueillis par Pascal Boiron, Digital CMO