DigitalCMO

Fondée en 2009 par le Français Julien Coulon et l’Etasunien Marty Kagan, Cedexis (16 M$ de CA) vient d’être rachetée par le géant Citrix (3,2 milliards de $ de CA). Pourquoi ?

Il y a bien une logique industrielle. Citrix, a racheté pour une somme estimée à 100 millions de dollars (selon La Tribune) une entreprise franco-étasunienne décrite comme le « Waze » de l’Internet (autrement dit le parcours le moins long en durée pour accéder à la page recherchée). Cela semble cher payé si l’on rappelle que le chiffre d’affaires de Citrix est 200 fois plus élevé que celui de Cedexis.

En l’occurrence, les explications de ce rachat sont autant liées à une logique industrielle (Citrix avait effectivement besoin de « démontrer » que l’entreprise allait se diversifier) qu’à des relations humaines. Concrètement, les deux fondateurs de Cedexis ont travaillé ensemble pendant 8 ans au sein du groupe Akamai, dont l’un des gros clients s’appelle… Citrix (un hasard, bien sûr).

Pour mémoire, Marty Kagan quitte le groupe Akamai en 2007 (il en est alors le Directeur Technique). Puis, il devient investisseur et, en 2009, il fonde avec Julien Coulon la société Cedexis, alors que celui-ci est responsable de l’industrie et de l’international chez Akamai.

Cela étant dit, l’offre de Cedexis est appréciée. L’entreprise compte parmi ses clients des marques telles que Microsoft, Facebook, Twitter, LinkedIn, Slack, Accor Hotels, American Express, Le Figaro, Bloomberg, Nissan, Air France, Airbus, Dassault Systemes, Lenovo, Le Monde, Michelin, Le Parisien, Total…

Elle compte aujourd’hui 77 salariés avec des bureaux à San Francisco, New York, Londres, Barcelone, Genève, Tel Aviv et Singapour. Depuis sa création, la startup a levé 36,7 millions de dollars, mais sa principale levée de fonds date de 2016 (23,8 M$), à l’issue de laquelle l’un des principaux actionnaires fut… Citrix !

La Rédaction, Digital CMO

Créée en France en 2013 par deux jeunes entrepreneurs français, mais surtout présente aux Etats-Unis (basée à San Francisco depuis 2014), la startup Front a levé 66 M$ (environ 53 millions d’euros) cette fin janvier 2018, après une première levée de fonds de 10 M$ en 2016. Une levée de fonds significatives pour cette start-up IT dont l’approche technologique tranche avec celles de ses concurrents sur le marché du collaboratif. Quelle est sa recette ?

La recette de Front a – au début, en tout cas – un goût amer dans l’Hexagone. D’une part, la jeune entreprise a quitté la France dès l’année suivant sa création et s’est donc installée en Californie en 2014 ; d’autre part, les deux jeunes fondateurs (Mathilde Collin, CEO et Laurent Perrin, CTO, en photo) ont tout misé sur l’e-mail, alors que plusieurs grandes entreprises françaises pariaient de leur côté sur son déclin voire, sur sa disparition totale au cours de la prochaine décennie.

5 - Analytics

Front a balayé cette perspective en affirmant que les concurrents de l’e-mail (ils sont nombreux, depuis Slack, Hangouts, Teams, Twitter, Facebook, etc.) n’ont fait que permettre à l’e-mail d’évoluer et d’intégrer un flux unique (celui de Front). L’argument a été pris au sérieux. En 2016, Front a mené à bien sa première levée de fonds, de 10 M$ « seulement » (environ 8 millions d’euros). A l’été 2017, Front était loin d’avoir dépensé tout son pactole : il en restait les trois quarts, alors que l’effectif de l’entreprise avait plus que doublé et comptait 57 salariés.

A priori, cette première levée de fonds lui suffisait donc, mais Front n’a pas pu résisté longtemps aux « sirènes » que sont les investisseurs intéressés. Parmi, eux, on peut citer le fonds DFJ, mais surtout Sequoia, connu pour avoir misé sur Whatsapp, Instagram, Apple, Google, YouTube… Mieux, Front intègre dans son conseil d’administration un des dirigeants du fonds Sequoia, Bryan Schreir. Ce même Bryan Schreir siège au conseil d’administration de l’un des plus gros clients de Front : Dropbox. Auparavant, il fut Directeur des ventes et du développement international de… Google. Sa « vista » va peser  lourd dans les futurs développements de la jeune entreprise.

53 millions d’euros pour se développer technologiquement 

Entre ce qu’il reste de la première levée de fonds et ce nouvel apport, Front dispose d’environ 59 millions d’euros pour investir dans son développement. En l’occurrence, l’entreprise s’enorgueillit d’avoir passé la barre des 50% de l’activité en dehors des Etats-Unis (la moitié de ses 2 500 clients). Grâce à cette nouvelle levée de fonds, elle va développer son expansion, notamment en Asie et en Europe.

En Europe, la startup française (d’origine), a fait un retour discret fin 2017, en ouvrant un bureau à Paris qui compte 5 personnes. Dans les mois qui viennent, son implantation parisienne est appelée à devenir le quartier général de Front pour l’Europe, dans les domaines du commercial et du support clients. Dans sa communication, Front pense qu’elle aura 135 salariés à la fin de 2018,, contre 57 aujourd’hui, c’est-à-dire que son effectif aura plus que doublé en moins de 11 mois (+ 137% environ).

Quelles seront les prochaines étapes (outre ces recrutements, le développement de nouvelles implantations et le lancement de nouvelles fonctionnalités) ? Les dirigeants de Front ne le cachent pas : pas de levée de fonds supplémentaire, mais une entrée en bourse d’ici 2022. On est très sérieux, quand on a 27 ans…

Pascal Boiron, Digital CMO

Dans le cadre du sommet « Choose France » organisé par Emmanuel Macron, Facebook et Google ont fait part de leur volonté d’investir dans l’Intelligence Artificielle en France. Cela passera notamment par l’ouverture de centres de recherche dédiés et le recrutement d’ingénieurs français. 

Organisé quelques jours avant le forum de Davos, le sommet « Choose France » a permis à Emmanuel Macron de rassembler 140 dirigeants de grands groupes internationaux, Le président et son gouvernement ont obtenu de ces dirigeants plusieurs investissements en France sur les prochaines années. Après Toyota, l’éditeur allemand de logiciels SAP par la voix de son PDG, Bill McDermott, a indiqué vouloir investir 750 millions d’euros. Pour le Suisse Novartis, cela pourrait même atteindre les 900 millions d’euros. Du côté des géants du numérique, les annonces sont plus timides. Au delà des discussions en cours sur la fiscalité des géants du numérique, la France ne réussit toujours pas à séduire les géants du web sauf pour la qualité de ses ingénieurs.  Facebook et Google ont fait  néanmoins un effort et  viennent d’annoncer un renforcement en France  de leur recherche et développement en intelligence artificielle.

10 millions d’euros d’investissement pour Facebook et une annonce de Google

Les compétences des chercheurs hexagonaux, le riche écosystème de startups et la formation d’excellence « made in France » en matière d’intelligence artificielle intéressent fortement les GAFAM. Ainsi, Sheryl Sandberg (actuelle numéro 2 de Facebook) a annoncé un investissement de 10 millions d’euros dans FAIR Paris, le centre de recherche en intelligence artificielle basé en Île de France. L’objectif sera de doubler les effectifs de chercheurs et ingénieurs et d’augmenter le nombre de doctorants accompagnés pour atteindre un total d’une centaine de collaborateurs. En complément, la firme de Zuckerberg devrait ouvrir une dizaine serveurs « dernière génération » qui seront partagés avec les startups, universités et écoles françaises.

Dans la foulée, Google a dévoilé son projet de campus « IA » pour Paris. Ce centre de recherche sera le 3ème du genre pour la multinationale américaine (après Zurich et Mountain View bien sûr) et se focalisera sur l’application de l’intelligence artificielle à la santé, l’environnement et l’Art. Comme Facebook, Sundar Pichai souhaite également développer des partenariats avec les universités, en « formant la prochaine génération de chercheurs en Intelligence Artificielle en France ». Surtout les deux géants du web espèrent trouver dans l’éco système des start-ups en France les talents et les projets en Intelligence Artificielle qui leur permettront de compléter leur offre. Cela devrait être le cas au regard d’un éco système déjà bien structuré et qui devrait encore se développer dans les mois qui viennent.

 

NetApp fait partie des géants de l’IT qui pensent que les données seront de plus en plus autonomes. Mathias Robichon, Directeur Technique pour la France, présente les 5 grandes tendances identifiées par NetApp pour expliquer ce constat.

  • La première tendance mise en avant par NetApp pour 2018 concerne le fait que les données vont devenir « autonomes » : n’est-ce pas autant fascinant d’un point de vue technologique qu’effrayant d’un point de vue social ?

0022623ex0wg4p2cMathias Robichon : Rappelons pour commencer les éléments fondamentaux qui justifient cette évolution. Il est évident que le volume des données progresse de façon exponentielle et qu’il faut trouver un remède à cela. Le principal est de faire un premier « tri » de ces données, le plus en amont possible, c’est-à-dire au moment où elles sont produites. Dans les faits, ce n’est gérable qui si les données « prennent conscience d’elles-mêmes ». Au fur et à mesure que les données prennent conscience d’elles-mêmes et deviennent encore plus diversifiées qu’elles ne le sont aujourd’hui, les méta données permettront aux données de se déplacer, se catégoriser, s’analyser et se protéger elles-mêmes de manière proactive. Concrètement, ces méta données seront définies par des humains, travaillant au sein des services les plus directement concernés par le sujet. Au final, cela permettra aux données de « s’auto-gouverner ». Elles détermineront elles-mêmes qui a le droit d’y accéder, de les communiquer et les utiliser, ce qui pourrait avoir des implications étendues sur la protection, la confidentialité, la gouvernance et la souveraineté des données externes.

Par exemple, si vous êtes impliqué dans un accident de voiture, différentes entités pourraient souhaiter ou exiger l’accès aux données de votre voiture. Un juge ou une compagnie d’assurance pourrait en avoir besoin pour déterminer la responsabilité, alors qu’un fabricant d’automobiles pourrait souhaiter optimiser les performances des freins ou d’autres systèmes mécaniques. Les données qui ont conscience d’elles-mêmes peuvent être balisées afin de contrôler qui en voit quelle partie et quand, sans délai supplémentaire ni intervention humaine potentiellement sujette à erreurs, pour subdiviser, approuver et diffuser ces données précieuses.

  • Votre deuxième constat est que nous allons vers un partage des machines virtuelles, alors que celles-ci apportaient à l’origine une solution au partage des machines physiques : comment l’expliquez-vous ?

Mathias Robichon : Par le fait qu’il faut « décoreller » le volume des données à traiter et les processus de traitement. L’analogie est l’achat d’un véhicule plutôt que sa location, ou l’utilisation d’un service de covoiturage tel qu’Uber ou Lyft. Si vous transportez de lourdes charges tous les jours, il serait logique d’acheter un véhicule utilitaire. Quelqu’un d’autre ne pourrait avoir besoin que d’un certain type de véhicule pendant une période donnée, et donc s’orienterait vers la location. Et puis, il y a ceux qui n’ont seulement besoin d’un véhicule que pour aller du point A au point B, une seule fois. Le type de véhicule n’a pas d’importance. Seuls l‘aspect pratique et la vitesse importent. Un service de covoiturage est donc la meilleure option.

Cette même réflexion s’applique au contexte des instances de machines virtuelles et physiques. Le matériel personnalisé peut être coûteux, mais pour des charges de traitement régulières et intensives, il peut être plus judicieux d’investir dans une infrastructure physique. Une instance de machine virtuelle dans le Cloud, traitant des charges variables, est similaire à la location : les utilisateurs peuvent accéder à la machine virtuelle sans la posséder ni avoir besoin de connaître les détails la concernant. En fin de « bail », elle disparaît.

Les machines virtuelles provisionnées sur une infrastructure à l’échelle du web (c’est-à-dire sans serveur) sont comme un service de covoiturage, dans lequel l’utilisateur spécifie simplement la tâche devant être exécutée. Le reste des détails est laissé aux soins du prestataire de Cloud. Ce modèle est plus pratique et plus facile à utiliser que les modèles traditionnels pour certains types de charges de traitement.

  • Votre troisième constat est que le volume des données va croître plus rapidement que notre capacité à les transporter : n’est-ce pas inquiétant ?

Mathias Robichon : Non, c’est tout à fait normal et cela milite également pour limiter les volumes de données à traiter. Par exemple, les constructeurs de véhicules autonomes ajoutent des capteurs qui génèrent tellement de données qu’il n’existe pas de réseau assez rapide entre les véhicules et les datacenters pour les transférer. La meilleure réponse est donc de limiter le nombre de données à déplacer, et pour cela de recourir à de nouvelles architectures, de type Edge, Core ou Cloud.

  • Quatrième constat : le passage du « big data » au « huge data » est selon vous inéluctable, voir déjà effectif. Quelles seront les conséquences de cette évolution ?

Mathias Robichon : La technologie Flash devient un sujet brûlant. Les logiciels qui y sont hébergés ne vont pas vraiment changer : ils seront simplement plus rapides. Cela est motivé par l’évolution du rôle de l’informatique dans l’entreprise. Dans le passé, la principale fonction de l’informatique était d’automatiser et d’optimiser les processus de commande, de facturation, de créances et autres. Aujourd’hui, l’informatique est essentielle à l’enrichissement des relations clients, et pour proposer des services toujours disponibles, des applications mobiles et des expériences web enrichies. L’étape suivante consistera à monétiser les données collectées à l’aide des différents capteurs et appareils, afin de créer de nouvelles opportunités commerciales. Cette étape nécessitera de nouvelles architectures applicatives reposant notamment sur de la mémoire persistante.

  • Dans votre dernier point, vous estimez que les mécanismes décentralisés sont les mieux adaptés à cette nouvelle donne. Devenez-vous un défenseur de la blockchain ?

Mathias Robichon : Tous les intervenants sont fascinés par la montée en puissance de la blockchain, et par voie de conséquence par celle du bitcoin. Des mécanismes décentralisés tels que la blockchain défient le sens traditionnel de la protection et de la gestion des données. Sans point de contrôle central, tel qu’un serveur centralisé, il est impossible de modifier ou de supprimer les informations contenues dans une blockchain, et toutes les transactions sont irréversibles. Cela ressemble à un système biologique comprenant une multitude de petits organismes. Chacun sait ce qu’il est censé faire sans avoir à communiquer avec quoi que ce soit d’autre ni recevoir d’instructions. Vous ajoutez ensuite des nutriments, à savoir dans ce cas, des données. Les nutriments savent ce qu’ils doivent faire et tout commence à fonctionner de manière coopérative, sans aucun contrôle central. Comme un récif de corail.

Propos recueillis par Pascal Boiron, Digital CMO

Ses derniers résultats trimestriels l’ont confirmé, Cisco est de plus en plus une entreprise de logiciels et de moins en moins un constructeur. Les applications représentent désormais 10% de ses revenus. Une transformation qui s’effectue pour suivre la mutation en cours des investissements informatiques et digitaux vers le cloud et l’analytique.

Cela représente 1,2 milliards de dollars sur les 12,1 milliards de chiffre d’affaires enregistrés sur le trimestre clos fin octobre. Si l’on ôte les services, qui représentent 3 milliards de chiffre d’affaires, les applications représentent même 13,3% de ses ventes de produits.

Avec une croissance de 6% sur le trimestre, les applications sont aussi l’activité la plus dynamique de Cisco après la sécurité (+8%). Cette division est principalement constituée de ses activités collaboration mais elle comprend également ses activités objets connectés et ses outils analytiques.

En réalité, le poids du software est encore bien plus élevé dans le mix revenus de l’équipementier réseau que ne le laisse voir son bilan dans la mesure où les logiciels ont tendance à se diffuser dans l’ensemble de ses activités. À commencer sur son activité plateformes d’infrastructure, qui regroupe ses activités réseau traditionnelles (routeurs, commutateurs), ses équipements WiFi et ses solutions datacenter.

Cette activité, en recul de 4% sur le dernier trimestre, mais qui reste dominante avec 57% de ses revenus, a par exemple bénéficié de l’introduction en juin dernier de son initiative réseau intuitif, une offre de solutions et de services développée sur son architecture DNA qui permet d’automatiser l’optimisation de son environnement réseau et d’en prédire les dysfonctionnements. Cisco espère que cette initiative va lui permettre de relancer son activité réseaux sur les prochains trimestres.

C’est aussi sur l’activité Plateformes d’infrastructure que sont comptabilisés les revenus de la version logicielle d’ACI (application-centric infrastructure ou infrastructure axée sur les applications), la solution de virtualisation de réseau de Cisco (ou Software Defined Network), adoptée par 4.000 clients.

Les logiciels s’invitent également dans les services. Cisco a ainsi lancé une offre d’abonnement appelée Business Critical et High-Value Services alimentée par l’intelligence artificielle (IA) qui prédit les défaillances informatiques.

Selon son directeur financier Kelly Kramer, Cisco « continue de transformer [son] activité en proposant davantage de logiciels et en générant davantage d’abonnements et de revenus récurrents. » Près de 32% des revenus de Cisco étaient récurrents sur le dernier trimestre, contre 29% un an plus tôt, et les abonnements logiciels ont représenté 52% du revenu total des logiciels.

Un pied dans le multicloud

En mars dernier, Cisco a ainsi renforcé son activité applications en acquérant AppDynamics pour 3,7 milliards de dollars. Cette opération lui permet de fournir aux clients une surveillance continue de leurs déploiements d’applications en environnement “multicloud” en les aidant à identifier les variations de performances des applications et à contrôler les dépenses cloud. Avec l’acquisition de Perspica le mois dernier, Cisco va compléter les capacités de surveillance d’Appdynamics en fournissant des analyses basées sur l’apprentissage automatique.

On notera que Cisco vient également d’annoncer son intention d’acquérir BroadSoft, qui compte 19 millions de clients dans la voix et les centres de contact dans le cloud et qu’il s’est associé à Google pour développer une solution de cloud hybride permettant de déployer des applications et des services à la fois sur site et sur la plateforme de Google.

Julien Cort, Digital CMO

Sage vient d’annoncer des résultats en croissance de 19,2%, à 1,72 milliard de livres, à l’issue de l’exercice 2017. Le résultat d’exploitation progresse  de 30,3% à 348 millions de livres. Le bénéfice avant impôts s’établit à 342 millions de livres.  La société déclare avoir maintenu une croissance organique forte (+6%) sur un marché du logiciel comptable et financier  en pleine transformation, notamment avec la montée en puissance du cloud.

Sage Business Cloud : un modèle qui a généré 300 millions livres de chiffres d’affaires en 2017

Dans le cadre la publication de ses résultats annuels, Sage précise que la mutation vers le cloud progresse de plus en plus rapidement. Dans la transition de son modèle commercial à la souscription, le chiffre d’affaires récurrent représente désormais 78 % du chiffre d’affaires global, avec une activité réalisée en souscription représentant 37 % du chiffre d’affaires global, soit une augmentation de 22 % par rapport à l’année passée.  Sage propose désormais une suite complète de solutions cloud, intégrées sous  la marque Sage Business Cloud, qui totalise £ 300M de chiffre d’affaires récurrent sur l’exercice 2017. La croissance annoncée par le cloud sur cette activité est de plus de 80 % sur l’année. Cette offre cible des entreprises traditionnelles mais aussi des startups et des entreprises à croissance rapide. Elle propose un ensemble de logiciels, de comptabilité, de gestion financière, de gestion commerciale, de gestion d’entreprise intégrées, de gestion des ressources humaines, de paie, de paiements et de communication bancaire mais aussi des applications complémentaires correspondant aux nouveaux usages des jeunes entreprises.

Dans l’Hexagone, la tendance enregistrée par Sage dans le cloud devrait encore s’accélérer l’année prochaine. « En France nous avons réalisé un chiffre d’affaires de 320M€, en légère progression par rapport à l’année dernière, précise Laurent Dechaux, Directeur de Sage Europe du Sud. Aujourd’hui, la part du revenu récurrent s’élève à 85% de notre chiffre d’affaires total. Cette tendance est renforcée par le virage de nos clients vers le cloud avec le lancement de nos offres cloud globales Sage One, Sage Live et Sage X3 et le développement de la souscription avec les nouvelles versions de nos offres connectées Sage 100c et Sage 50c Ciel. L’activité Sage X3 a connu une belle croissance de plus de 20% avec notamment 18 affaires de plus de 100 000 euros en licence signées cette l’année. Nous avons également constaté une forte croissance des services de 15% tout au long de l’année avec une accélération de près 35% sur le dernier trimestre. Notre capacité de rétention de nos clients s’est encore améliorée grâce à des indicateurs de satisfaction client en nette hausse. Avec l’arrivée de Sage Business Cloud, l’année prochaine sera marquée par une accélération vers le cloud de nos clients et partenaires « .

La Rédaction, Digital CMO

Amazon Web Services (AWS) grandit chaque année un peu plus en France. Le leader mondial du cloud démarrait le 8 Novembre à Paris avec le AWS Transformation Day , un tour de France  ayant  pour objectif de séduire un plus grand nombre d’entreprises françaises. Son approche commerciale reste centrée cependant sur les startups.

AWS grandit mais ne souhaite pas bruler les étapes. Après Paris, AWS visitera les villes de Lyon, Toulouse, Nantes et Lille. La présence lors des interventions du 8 novembre à Paris  d’un responsable en architecture informatique de la société Solvay témoignait de la volonté d’insister sur son engagement auprès des grands comptes. Mais il faudra encore attendre que ses effectifs en France se stabilisent, que le support soit de plus en plus local et que l’entreprise puisse enfin  proposer un centre d’hébergement en France pour que son activité sur ces entreprises se développe. Cela n’a pas empêché AWS de présenter lors de son étape parisienne un atelier spécifique sur SAP et de témoigner ainsi indirectement de ses ambitions sur le marché du cloud d’entreprise. Néanmoins, AWS reste l’infrastructure des startups à croissance rapide, comme en témoigne le retour d’expérience de la jeune entreprise française Peter.

Le cas client de la start-up française Peter

Peter est le projet d’une jeune entreprise française, dont le service (un chatbot) est d’associer l’intelligence artificielle aux compétences de professeurs sélectionnés. Ce service éducatif  sur mobile répond aux questions des élèves, de la 6ème à la terminale, et les aide dans leurs devoirs. Pour bien illustrer la capacité d’AWS à accompagner des montées en charge rapide d’un tel service, la jeune entreprise a précisé comment AWS l’avait aidé à faire face rapidement à un gain de 300 000 utilisateurs supplémentaires en une semaine. Pour cela, la jeune entreprise insiste sur deux points. Le premier est le support d’AWS, qui les a aidé à monter une architecture plus adaptée.  « Il s’est avéré que nos bases de données (BDD) étaient trop lentes car nous n’utilisions pas celles fournies par AWS. J’avais des BDD dans des conteneurs Dockers à l’intérieur de mon serveur. Comme sur ce même serveur se trouvait aussi l’application, nous manquions de processeurs pour répondre à la demande » explique Stephen Lambeaux, le fondateur et CTO de Peter. La partie conseil a aussi permis de mettre en place une méthode pour augmenter le nombre de Dockers en fonction de la demande. Il nous ont aidé à nous poser les bonnes questions : quels prérequis dans l’application ? comment configurer le load balancer d’AWS ? comment configurer les services dans Amazon ECS ?. Le second point mis en évidence dans le cas client Peter est la partie gestion et industrialisation du cloud proposée par AWS. Peter explique qu’il a mis en place une chaîne d’intégration continue pour intégrer régulièrement les modifications de code à un référentiel centralisé, entraînant automatiquement des opérations de création et test. Et sur la gestion de l’infrastructure Peter utilise également Amazon CloudWatch pour surveiller les ressources du cloud d’AWS et des applications exécutées sur AWS. « Nous avons 8 containers Dockers, chacun avec une problématique métier différente. CloudWatch nous facilite la vie en cas de problème » précise le CTO de Peter.

La Rédaction, Digital CMO

Après IBM, Microsoft et Oracle, Hewlett-Packard Enterprise se positionne à son tour sur le créneau prometteur de la blockchain (ou chaine de blocs) popularisée par la monnaie virtuelle Bitcoin.

Le constructeur a ainsi dévoilé la semaine dernière Mission Critical DLT, une solution de registre distribué exécutable sur ses plates-formes HPE Integrity NonStop, des ordinateurs tolérants aux pannes conçus pour ne jamais s’arrêter. Ce sont ces ordinateurs qui traitent deux transactions de carte de crédit sur trois dans le monde.

Cette solution vise à permettre aux entreprises d’utiliser la blockchain sur une plus grande échelle que ce que permettent Bitcoin ou Ethereum. Ces deux systèmes de monnaie virtuelle permettent de transférer efficacement de l’argent via Internet mais elles disposent de capacités limitées en termes de puissance de traitement des transactions et de montée en charge. Ainsi, les transactions Bitcoin prennent au moins 10 minutes à traiter.

Autre facteur de limitation selon HPE : le Cloud public sur lequel tournent en général les applications Blockchaine. « Les entreprises intéressées par la blockchain constatent que le cloud public ne répond pas toujours à leurs exigences non fonctionnelles, explique dans un communiqué Raphael Davison, directeur mondial de Blockchain, HPE. À mesure qu’ils tentent de monter en charge, ils s’aperçoivent que, pour les processus stratégiques, l’infrastructure sur site doit faire partie […] pour répondre aux exigences des charges de travail blockchain d’entreprise. »

Il est intéressant de noter également que HPE a construit sa solution autour du registre Corda – une alternative de blockchain adaptée à la banque développée par le consortium financier R3 – qui, contrairement à Bitcoin, garde les enregistrements de son registre privés, de sorte que les parties ne peuvent voir leurs transactions que via un accès restreint.

Dans son communiqué, HPE se dit convaincu qu’à terme, « la blockchain sera aussi fondamentale pour la technologie qu’Internet ». Gartner prévoit ainsi que la blockchain générera 176 milliards de dollars de valeur commerciale d’ici 2025.

Conçu pour répondre aux besoins d’optimisation des transactions des entreprises du secteur des services financiers, Mission Critical DLT a vocation à couvrir aussi les besoins d’entreprises issues d’autres industries. HPE viserait notamment les compagnies aériennes qui pourraient utiliser sa solution blockchain pour suivre les données de vol et les programmes de maintenance de leurs avions, ou les constructeurs automobiles, selon le site Fortune. Il existe un large éventail d’applications potentielles, souligne HPE.

L’offre Mission Critical DLT pourra être mise à disposition sur site ou sous forme de service à partir du début de l’année 2018.

Julien Corti, Digital CMO

Le prototype du projet de recherche The Machine rompt avec une approche qui a guidé les recherches durant plus de 60 ans le potentiel de l’informatique fondée sur la mémoire.

Hewlett Packard Enterprise a présenté ce printemps 2017 le plus puissant ordinateur dit “à mémoire unique” au niveau mondial. C’est le dernier jalon du projet de recherche “The Machine”. Concrètement, c’est le plus important programme de R&D de l’histoire de l’entreprise, c’est-à-dire depuis 1939. Il vise à proposer un nouveau concept d’architecture, appelé “Memory-Driven Computing”, spécialement conçu pour l’ère du big data.

« Les secrets de la prochaine grande percée scientifique, des innovations industrielles à venir ou des technologies qui vont bouleverser nos vies se cachent derrière les montagnes de données que nous créons chaque jour« , a déclaré Meg Whitman, PDG de Hewlett Packard Enterprise. « Pour relever ce défi, nous ne pouvons pas compter sur les technologies du passé, nous avons besoin d’un ordinateur construit pour l’ère du big data.« 

Le prototype dévoilé au printemps 2017 contient 160 téraoctets de mémoire. Il est capable de traiter simultanément sur l’équivalent de 160 millions de livres ou de 5 fois la Bibliothèque du Congrès. Il n’a jamais été possible de conserver et de manipuler des ensembles de données de cette ampleur dans un système à mémoire unique, et ceci n’est qu’un aperçu de l’immense potentiel de l’informatique basée sur la mémoire.

Vers des changements sociétaux

Basé sur le prototype actuel, HPE s’attend à ce que l’architecture puisse facilement évoluer vers un système à mémoire unique à l’échelle des exaoctets et -au-delà – vers un volume de mémoire quasiment illimité (on parle alors de plusieurs milliers de yottaoctets). Pour rappel, c’est environ 250 000 fois l’ensemble de l’univers numérique actuel.

Avec cette quantité de mémoire, il sera possible de travailler simultanément sur le dossier de santé numérique de chaque personne sur terre, sur chaque chaînon de données de Facebook, sur chacun des trajets des véhicules autonomes de Google et sur l’ensemble des données issues de l’exploration spatiale, et ce tout en atteignant des temps de réponse plus rapides que jamais auparavant.

« Nous pensons que la “Memory-Driven Computing” est la meilleure solution pour faire progresser la technologie et permettre des avancées dans tous les secteurs de la société« , a déclaré Mark Potter, Directeur de la Technologie chez HPE et Directeur de Hewlett Packard Labs. « L’architecture que nous avons dévoilée peut être appliquée à toutes les catégories de calcul, des périphériques intelligents aux superordinateurs« , a-t-il ajouté. Le “Memory-Driven Computing” place la mémoire, et non le processeur, au centre de l’architecture informatique.

Des spécifications techniques sans précédent

Le nouveau prototype s’appuie sur les réalisations du programme de recherche “The Machine”, dont :

  • 160 To de mémoire partagée répartis sur 40 nœuds physiques, interconnectés à l’aide d’un protocole de matrice haute performance ;
  • un système d’exploitation basé sur Linux (OS) optimisé fonctionnant sur ThunderX2, le système sur puce optimisé pour la charge de travail ARMv8-A de Cavium ;
  • des liens de communication photoniques/optiques, y compris le nouveau module photonique X1, lesquels sont opérationnels ;
  • des outils de programmation logiciels conçus pour tirer parti de la mémoire persistante abondante.

En tant que fabricant de semiconducteurs, Cavium partage la vision de HPE pour le Memory-Driven Computing et est fier de collaborer avec HPE sur ce programme”, a déclaré Syed Ali, président et PDG de Cavium. “Les innovations révolutionnaires de HPE en Memory-Driven Computing vont générer un nouvel élan de l’informatique et vont déboucher sur la création de nombreuses nouvelles applications, y compris au niveau des datacenters de nouvelle génération, du cloud ou de l’informatique haute performance« , a-t-il précisé.

Les DAF ( directions administratives et financières)  vont-ils être obligés de devenir des data scientist pour exercer leur métier dans l’avenir ? Selon une étude de Workday, un éditeur américain spécialiste de la donnée dans le cloud,  menée auprès de 1 000 décideurs financiers, la multiplication des données issues de la transformation digitale des entreprises pousse les directions financières et administratives à se transformer en profondeur.

Comme dans le marketing, le DAF doit créer ses données et être capable de les manipuler 

Dans le cadre d’une étude menée par FSN et Workday auprès de près de 1 000 décideurs financiers au sein de 23 secteurs d’activités différents, intitulée  « The Future of Financial reporting », on constate que « les directeurs financiers ont de grandes difficultés à répondre aux exigences des rapports financiers réclamés par les établissements de contrôles extérieurs » commente Thierry Mathoulin  directeur général France de Workday. Selon cette étude  c’est dans le domaine de l’analytique que les besoins sont les plus importants et notamment parce que la direction générale et les actionnaires attendent des DAF  des données financières fiables et utilisables pour des décisions stratégiques.

Toujours selon  cette étude, 53% des responsables financiers confient réaliser la vérification et la mise à jour des rapports financiers manuellement.  Par ailleurs, 43 % de ces responsables ignorent même le nombre exact de feuilles de calcul utilisées au sein de leur organisation tant il est important. Cette inflation des simulations financières est générée par la complexité des modes de développement des entreprises  et pose la question de leur centralisation dans un seul référentiel. D’ailleurs selon Workday les DAF doivent déployer de nouveaux outils et process afin de gagner en productivité et en fiabilité. Et tout d’abord ils doivent mettre en place un environnement unifié via un CPM « Corporate Performance Management » (« gestion globale de la performance de l’entreprise ») dont la vocation est de regrouper les processus de reporting financier au sein d’un environnement unique et centralisé précise l’éditeur américain.

Pour pouvoir manipuler ces données il est prévisible que les DAF devront utiliser des data scientists ou apprendre eux même à manipuler ces données. Même si cette approche pose le problème de la relation avec l’informatique qui gère notamment l’ERP, il est probable que la volonté d’agilité des entreprises pour construire de meilleures prévisions l’emportera  et obligera les directions financières à s’organiser en une plateforme en libre service des données financières mais aussi des autres données utiles. « Il s’agira  de créer un référentiel central agrègeant toutes les données financières issues des diverses bases de données dispersées dans l’entreprise et d’informations issues de l’extérieur – IoT, réseaux sociaux, open data, ventes, données clients…-, et produit tous les indicateurs nécessaires au pilotage de la performance de l’entreprise »  précise Thierry Mathoulin. Cette automatisation des données correspond sans doute à ce qui va caractériser le plus la transformation digitale de ce département d’entreprise. Une transformation qui passera sans aucun doute par l’intelligence artificielle et des investissements nouveaux dans les technologies analytiques comme le deep learning.

 

.