DigitalCMO

Amazon Web Services (AWS) grandit chaque année un peu plus en France. Le leader mondial du cloud démarrait le 8 Novembre à Paris avec le AWS Transformation Day , un tour de France  ayant  pour objectif de séduire un plus grand nombre d’entreprises françaises. Son approche commerciale reste centrée cependant sur les startups.

AWS grandit mais ne souhaite pas bruler les étapes. Après Paris, AWS visitera les villes de Lyon, Toulouse, Nantes et Lille. La présence lors des interventions du 8 novembre à Paris  d’un responsable en architecture informatique de la société Solvay témoignait de la volonté d’insister sur son engagement auprès des grands comptes. Mais il faudra encore attendre que ses effectifs en France se stabilisent, que le support soit de plus en plus local et que l’entreprise puisse enfin  proposer un centre d’hébergement en France pour que son activité sur ces entreprises se développe. Cela n’a pas empêché AWS de présenter lors de son étape parisienne un atelier spécifique sur SAP et de témoigner ainsi indirectement de ses ambitions sur le marché du cloud d’entreprise. Néanmoins, AWS reste l’infrastructure des startups à croissance rapide, comme en témoigne le retour d’expérience de la jeune entreprise française Peter.

Le cas client de la start-up française Peter

Peter est le projet d’une jeune entreprise française, dont le service (un chatbot) est d’associer l’intelligence artificielle aux compétences de professeurs sélectionnés. Ce service éducatif  sur mobile répond aux questions des élèves, de la 6ème à la terminale, et les aide dans leurs devoirs. Pour bien illustrer la capacité d’AWS à accompagner des montées en charge rapide d’un tel service, la jeune entreprise a précisé comment AWS l’avait aidé à faire face rapidement à un gain de 300 000 utilisateurs supplémentaires en une semaine. Pour cela, la jeune entreprise insiste sur deux points. Le premier est le support d’AWS, qui les a aidé à monter une architecture plus adaptée.  « Il s’est avéré que nos bases de données (BDD) étaient trop lentes car nous n’utilisions pas celles fournies par AWS. J’avais des BDD dans des conteneurs Dockers à l’intérieur de mon serveur. Comme sur ce même serveur se trouvait aussi l’application, nous manquions de processeurs pour répondre à la demande » explique Stephen Lambeaux, le fondateur et CTO de Peter. La partie conseil a aussi permis de mettre en place une méthode pour augmenter le nombre de Dockers en fonction de la demande. Il nous ont aidé à nous poser les bonnes questions : quels prérequis dans l’application ? comment configurer le load balancer d’AWS ? comment configurer les services dans Amazon ECS ?. Le second point mis en évidence dans le cas client Peter est la partie gestion et industrialisation du cloud proposée par AWS. Peter explique qu’il a mis en place une chaîne d’intégration continue pour intégrer régulièrement les modifications de code à un référentiel centralisé, entraînant automatiquement des opérations de création et test. Et sur la gestion de l’infrastructure Peter utilise également Amazon CloudWatch pour surveiller les ressources du cloud d’AWS et des applications exécutées sur AWS. « Nous avons 8 containers Dockers, chacun avec une problématique métier différente. CloudWatch nous facilite la vie en cas de problème » précise le CTO de Peter.

La Rédaction, Digital CMO

Après IBM, Microsoft et Oracle, Hewlett-Packard Enterprise se positionne à son tour sur le créneau prometteur de la blockchain (ou chaine de blocs) popularisée par la monnaie virtuelle Bitcoin.

Le constructeur a ainsi dévoilé la semaine dernière Mission Critical DLT, une solution de registre distribué exécutable sur ses plates-formes HPE Integrity NonStop, des ordinateurs tolérants aux pannes conçus pour ne jamais s’arrêter. Ce sont ces ordinateurs qui traitent deux transactions de carte de crédit sur trois dans le monde.

Cette solution vise à permettre aux entreprises d’utiliser la blockchain sur une plus grande échelle que ce que permettent Bitcoin ou Ethereum. Ces deux systèmes de monnaie virtuelle permettent de transférer efficacement de l’argent via Internet mais elles disposent de capacités limitées en termes de puissance de traitement des transactions et de montée en charge. Ainsi, les transactions Bitcoin prennent au moins 10 minutes à traiter.

Autre facteur de limitation selon HPE : le Cloud public sur lequel tournent en général les applications Blockchaine. « Les entreprises intéressées par la blockchain constatent que le cloud public ne répond pas toujours à leurs exigences non fonctionnelles, explique dans un communiqué Raphael Davison, directeur mondial de Blockchain, HPE. À mesure qu’ils tentent de monter en charge, ils s’aperçoivent que, pour les processus stratégiques, l’infrastructure sur site doit faire partie […] pour répondre aux exigences des charges de travail blockchain d’entreprise. »

Il est intéressant de noter également que HPE a construit sa solution autour du registre Corda – une alternative de blockchain adaptée à la banque développée par le consortium financier R3 – qui, contrairement à Bitcoin, garde les enregistrements de son registre privés, de sorte que les parties ne peuvent voir leurs transactions que via un accès restreint.

Dans son communiqué, HPE se dit convaincu qu’à terme, « la blockchain sera aussi fondamentale pour la technologie qu’Internet ». Gartner prévoit ainsi que la blockchain générera 176 milliards de dollars de valeur commerciale d’ici 2025.

Conçu pour répondre aux besoins d’optimisation des transactions des entreprises du secteur des services financiers, Mission Critical DLT a vocation à couvrir aussi les besoins d’entreprises issues d’autres industries. HPE viserait notamment les compagnies aériennes qui pourraient utiliser sa solution blockchain pour suivre les données de vol et les programmes de maintenance de leurs avions, ou les constructeurs automobiles, selon le site Fortune. Il existe un large éventail d’applications potentielles, souligne HPE.

L’offre Mission Critical DLT pourra être mise à disposition sur site ou sous forme de service à partir du début de l’année 2018.

Julien Corti, Digital CMO

Le prototype du projet de recherche The Machine rompt avec une approche qui a guidé les recherches durant plus de 60 ans le potentiel de l’informatique fondée sur la mémoire.

Hewlett Packard Enterprise a présenté ce printemps 2017 le plus puissant ordinateur dit “à mémoire unique” au niveau mondial. C’est le dernier jalon du projet de recherche “The Machine”. Concrètement, c’est le plus important programme de R&D de l’histoire de l’entreprise, c’est-à-dire depuis 1939. Il vise à proposer un nouveau concept d’architecture, appelé “Memory-Driven Computing”, spécialement conçu pour l’ère du big data.

« Les secrets de la prochaine grande percée scientifique, des innovations industrielles à venir ou des technologies qui vont bouleverser nos vies se cachent derrière les montagnes de données que nous créons chaque jour« , a déclaré Meg Whitman, PDG de Hewlett Packard Enterprise. « Pour relever ce défi, nous ne pouvons pas compter sur les technologies du passé, nous avons besoin d’un ordinateur construit pour l’ère du big data.« 

Le prototype dévoilé au printemps 2017 contient 160 téraoctets de mémoire. Il est capable de traiter simultanément sur l’équivalent de 160 millions de livres ou de 5 fois la Bibliothèque du Congrès. Il n’a jamais été possible de conserver et de manipuler des ensembles de données de cette ampleur dans un système à mémoire unique, et ceci n’est qu’un aperçu de l’immense potentiel de l’informatique basée sur la mémoire.

Vers des changements sociétaux

Basé sur le prototype actuel, HPE s’attend à ce que l’architecture puisse facilement évoluer vers un système à mémoire unique à l’échelle des exaoctets et -au-delà – vers un volume de mémoire quasiment illimité (on parle alors de plusieurs milliers de yottaoctets). Pour rappel, c’est environ 250 000 fois l’ensemble de l’univers numérique actuel.

Avec cette quantité de mémoire, il sera possible de travailler simultanément sur le dossier de santé numérique de chaque personne sur terre, sur chaque chaînon de données de Facebook, sur chacun des trajets des véhicules autonomes de Google et sur l’ensemble des données issues de l’exploration spatiale, et ce tout en atteignant des temps de réponse plus rapides que jamais auparavant.

« Nous pensons que la “Memory-Driven Computing” est la meilleure solution pour faire progresser la technologie et permettre des avancées dans tous les secteurs de la société« , a déclaré Mark Potter, Directeur de la Technologie chez HPE et Directeur de Hewlett Packard Labs. « L’architecture que nous avons dévoilée peut être appliquée à toutes les catégories de calcul, des périphériques intelligents aux superordinateurs« , a-t-il ajouté. Le “Memory-Driven Computing” place la mémoire, et non le processeur, au centre de l’architecture informatique.

Des spécifications techniques sans précédent

Le nouveau prototype s’appuie sur les réalisations du programme de recherche “The Machine”, dont :

  • 160 To de mémoire partagée répartis sur 40 nœuds physiques, interconnectés à l’aide d’un protocole de matrice haute performance ;
  • un système d’exploitation basé sur Linux (OS) optimisé fonctionnant sur ThunderX2, le système sur puce optimisé pour la charge de travail ARMv8-A de Cavium ;
  • des liens de communication photoniques/optiques, y compris le nouveau module photonique X1, lesquels sont opérationnels ;
  • des outils de programmation logiciels conçus pour tirer parti de la mémoire persistante abondante.

En tant que fabricant de semiconducteurs, Cavium partage la vision de HPE pour le Memory-Driven Computing et est fier de collaborer avec HPE sur ce programme”, a déclaré Syed Ali, président et PDG de Cavium. “Les innovations révolutionnaires de HPE en Memory-Driven Computing vont générer un nouvel élan de l’informatique et vont déboucher sur la création de nombreuses nouvelles applications, y compris au niveau des datacenters de nouvelle génération, du cloud ou de l’informatique haute performance« , a-t-il précisé.

Les DAF ( directions administratives et financières)  vont-ils être obligés de devenir des data scientist pour exercer leur métier dans l’avenir ? Selon une étude de Workday, un éditeur américain spécialiste de la donnée dans le cloud,  menée auprès de 1 000 décideurs financiers, la multiplication des données issues de la transformation digitale des entreprises pousse les directions financières et administratives à se transformer en profondeur.

Comme dans le marketing, le DAF doit créer ses données et être capable de les manipuler 

Dans le cadre d’une étude menée par FSN et Workday auprès de près de 1 000 décideurs financiers au sein de 23 secteurs d’activités différents, intitulée  « The Future of Financial reporting », on constate que « les directeurs financiers ont de grandes difficultés à répondre aux exigences des rapports financiers réclamés par les établissements de contrôles extérieurs » commente Thierry Mathoulin  directeur général France de Workday. Selon cette étude  c’est dans le domaine de l’analytique que les besoins sont les plus importants et notamment parce que la direction générale et les actionnaires attendent des DAF  des données financières fiables et utilisables pour des décisions stratégiques.

Toujours selon  cette étude, 53% des responsables financiers confient réaliser la vérification et la mise à jour des rapports financiers manuellement.  Par ailleurs, 43 % de ces responsables ignorent même le nombre exact de feuilles de calcul utilisées au sein de leur organisation tant il est important. Cette inflation des simulations financières est générée par la complexité des modes de développement des entreprises  et pose la question de leur centralisation dans un seul référentiel. D’ailleurs selon Workday les DAF doivent déployer de nouveaux outils et process afin de gagner en productivité et en fiabilité. Et tout d’abord ils doivent mettre en place un environnement unifié via un CPM « Corporate Performance Management » (« gestion globale de la performance de l’entreprise ») dont la vocation est de regrouper les processus de reporting financier au sein d’un environnement unique et centralisé précise l’éditeur américain.

Pour pouvoir manipuler ces données il est prévisible que les DAF devront utiliser des data scientists ou apprendre eux même à manipuler ces données. Même si cette approche pose le problème de la relation avec l’informatique qui gère notamment l’ERP, il est probable que la volonté d’agilité des entreprises pour construire de meilleures prévisions l’emportera  et obligera les directions financières à s’organiser en une plateforme en libre service des données financières mais aussi des autres données utiles. « Il s’agira  de créer un référentiel central agrègeant toutes les données financières issues des diverses bases de données dispersées dans l’entreprise et d’informations issues de l’extérieur – IoT, réseaux sociaux, open data, ventes, données clients…-, et produit tous les indicateurs nécessaires au pilotage de la performance de l’entreprise »  précise Thierry Mathoulin. Cette automatisation des données correspond sans doute à ce qui va caractériser le plus la transformation digitale de ce département d’entreprise. Une transformation qui passera sans aucun doute par l’intelligence artificielle et des investissements nouveaux dans les technologies analytiques comme le deep learning.

 

.

 

A mesure que les besoins des utilisateurs évoluent, les entreprises adoptent de nouveaux modèles pour fournir à leurs collaborateurs un espace de travail adapté. Cela inclut généralement la possibilité de travailler à partir de plusieurs endroits. Voici un exemple concret de transformation de ces espaces avec celui conçu par HPE et Citrix.

Pour répondre aux besoins croissant en termes de télétravail, Citrix et HPE ont développé une solution qui fournit espace de travail à la fois mobile, puissant et facile à déployer comme à gérer.  Cette solution, baptisée “Intelligent Edge Workspace”, est fondée sur le matériel HPE Edgeline EL4000 Converged Edge System, associé au logiciel Citrix Mobile Workspace.

Concrètement, ce système s’appuie sur un châssis HPE pouvant contenir jusqu’à quatre modules de serveur ProLiant x86, chacun étant doté de processeurs Intel® Xeon® et de, tout c qui est nécessaire pour les charges de travail les plus importantes. .

À cette fin, HPE et Citrix proposent une nouvelle solution qui propose un stockage de haute disponibilité (via Atlantis Computing™), la virtualisation via Citrix XenServer™ et l’accès distant via Citrix XenApp™ et XenDesktop™.

Le résumé de ce livre blanc sur “the Intelligent Edge Workspace” décrit plusieurs cas d’utilisation, composants et fonctionnalités de la solution.

latest-HPE-BreakingThePlane-2x-md

Qu’est-ce que l’espace de travail Intelligent Edge ?

L’Intelligent Edge Workspace est une solution pouvant être rapidement déployée et configurée au sein de l’entreprise, dans un bureau chez un salarié, dans un atelier ou un entrepôt. La solution est construite sur le succès des cartouches de serveur HPE ProLiant exécutant Citrix Mobile Workspace, XenDesktop et XenApp dans le centre de données, et

placé dans un châssis plus petit et plus robuste. De plus, la solution peut rapidement et facilement évoluer grâce à l’ajout de châssis EL4000 ou être personnalisée dans un seul

châssis s’il se révèle nécessaire d’intégrer davantage d’utilisateurs. La solution peut donc prendre en charge les charges de travail les plus exigeantes du point de vue graphique. La cartouche de serveur HPE ProLiant m510 avec le processeur Intel Xeon D-1587 à 16 cœurs est la mieux adaptée pour desservir un grand nombre d’utilisateurs (chaque serveur 16-core peut prendre en charge jusqu’à 167 sessions de travail de bureau XenApp et plus de 660 utilisateurs par châssis, tout en utilisant moins de 1/2 Watt par session).

Dans les cas où des charges de travail graphiques intensives s’imposent, c’est la cartouche de serveur HPE ProLiant m710x qui devrait être envisagée, en utilisant Citrix XenDesktop, le HDX 3D Pro VDA et la puce Intel Xeon E3-1585L à 3,7 GHz. Les résultats des tests LoginVSI sur le ProLiant m710x montrent ainsi qu’il peut prendre en charge plus de 67 utilisateurs, avec des capacités graphiques partagées par cartouche de serveur pour plus de 260 sessions utilisateur par châssis. L’espace de travail Intelligent Edge étend les solutions utilisateur distantes traditionnelles en déplaçant les systèmes de calcul de l’utilisateur à distance

Les atouts de XenServer

XenServer est la première plateforme de virtualisation open source, alimentée par l’hyperviseur Xen Project et l’outil XAPI. Elle est utilisée par les plus grandes entreprises du monde  dans le cadre de leur architecture cloud. Cette plateforme fournit également plusieurs outils gratuits, qui permettent la migration physique et/ou virtuelle vers XenServer et la conversion de serveur virtuel-virtuel. XenServer est également conçu pour fonctionner spécifiquement avec Citrix XenApp et XenDesktop. Enfin, le coût de déploiement de XenServer reste faible, du fait de sa disponibilité en open source.

Citrix XenServer Standard Edition comprend :

  • l’architecture complète du noyau 64 bits,
  • la haute disponibilité, la tolérance aux pannes et la protection des données,
  • la migration de VM dynamique (XenMotion)
  • la migration de stockage dynamique (Storage XenMotion)
  • les migrations sans partage
  • le contrôleur de commutateur virtuel distribué (DVSC)
  • le GPU Pass-through (NVIDIA et AMD)
  • le contrôle d’intégrité XenServer avec les rapports Citrix Insight Services (CIS) disponibles

Citrix XenServer Enterprise Edition inclut des fonctions avancées de virutalisation qui incluent:

  • le cache de lecture en mémoire (pour les baies NFS)
  • la planification dynamique des ressources (équilibrage de la charge de travail)
  • le démarrage mesuré par hyperviseur (Intel Trusted eXecution Technology (TXT))
  • le gestionnaire de conversion vSphere
  • NVIDIA GRID et la virtualisation GPU Intel GVT-g

“Intelligent Edge Workspace” en bref

L’espace de travail Intelligent fonctionnant sur HPE Edgeline EL4000 a été spécialement conçu, conçu et testé pour fournir des systèmes hautement disponibles, flexibles, facilement déployables et évolutifs pour répondre aux besoins changeants des modèles d’espace de travail. Que ce soit pour offrir une expérience de bureau riche avec le ProLiant m710x et Citrix XenDesktop, ou pour fournir une très forte densité de charges de travail de bureaux virtuels et d’applications sur le ProLiant m510 et Citrix XenApp, il est clair que la solution Intelligent Edge Workspace développée par Citrix et HPE fournit les meilleures performances, la fiabilité et la facilité de gestion pour une main-d’œuvre distante.

Pour en savoir plus : https://www.hpe.com/us/en/servers/edgeline-iot-systems.html ou le livre blanc technique complet : https://news.hpe.com/uploads/2017/04/Download.pdf

Si le « mobile first » que Satya Nadella avait proclamé à l’époque de son intronisation début 2014 n’est désormais plus qu’un mauvais souvenir, son « Cloud first » est plus que jamais d’actualité. Ses résultats trimestriels publiés la semaine dernière pour la période juillet-septembre 2017 l’ont encore montré de manière éclatante.

Non seulement le Cloud continue d’assurer à Microsoft une croissance de plus en plus confortable, mais il commence à prendre l’ascendant sur toutes ses autres activités.

Certes, la division More Personal Computing, qui englobe les ventes Windows, les produits hardware, la console Xbox et la publicité en ligne, demeure la principale division du groupe, avec 9,38 milliards de dollars de chiffre d’affaires. Mais sa croissance est au point mort (-0,2%) en raison de l’arrêt définitif de ses activités dans la mobilité. De fait, l’ensemble des autres activités de cette division affiche des facturations en croissance, y compris l’activité Windows OEM (+4%), pourtant considérée comme une activité en déclin. Autre activité en panne de croissance : les services, qui ne progressent que de 1%.

90 % de croissance pour Azure

Mais la dynamique est clairement du côté des activités Cloud : les revenus de sa suite de productivité Office 365 pour les entreprises progressent ainsi de 42%, ceux de ses applications de gestion de la relation client Dynamics 365 affichent 69% de croissance et, cerise sur le gâteau, ceux de son Cloud Azure, atteignent 90%. L’éditeur ne divulgue pas les revenus nominaux de chacune de ces activités mais il s’est félicité d’avoir atteint son objectif de 20 milliards de dollars de chiffre d’affaires annualisé pour son activité Cloud.

En effet, en multipliant par douze les revenus de ses différents services Cloud – qui incluent notamment Azure, les différentes déclinaisons de Office 365 et Dynamics 365 – enregistrés sur le dernier mois du trimestre (en l’occurrence le mois de septembre), Microsoft affiche 20,4 milliards de dollars de chiffre d’affaires annualisé sur le Cloud. Ce seuil des 20 milliards implique que le Cloud devrait dépasser pour la première fois 20% des revenus de Microsoft, alors que ce ratio n’était que de 5% début 2015, ont souligné les analystes de la banque d’investissements KeyBank.

In fine, Microsoft affiche une progression de 12% de ses revenus sur le trimestre, à 24,54 Md$, et une progression de 16% de son bénéfice net, à 6,58 Md$. Une performance qui a permis à sa capitalisation boursière de repasser au-dessus des 600 milliards de dollars pour la première fois depuis l’éclatement de la bulle Internet il y a 17 ans.

Julien Corti, Digital CMO

IBM annonce qu’il va renouer avec la croissance à partir du premier trimestre 2018, après 5 ans et demi de baisse ininterrompu de son chiffre d’affaires.

IBM a publié mardi ses résultats pour le trimestre clos fin septembre. Bien que le chiffre d’affaires soit en recul de 1% – pour le 22ème trimestre consécutif – à 19,15 milliards de dollars, et que le bénéfice cède 4,5% à 2,7 milliards de dollars, la bourse a salué ces résultats meilleurs que prévu (le consensus attendait 18,6 milliards de revenus et un bénéfice par action inférieur) par une hausse de 5% du cours au lendemain de l’annonce.

Le marché a notamment été rassuré par la déclaration d’IBM selon laquelle le groupe renouerait avec la croissance dès le trimestre prochain après 5 ans et demi de baisse ininterrompue. Autre bonne nouvelle : après un tassement au trimestre dernier, la croissance de ce qu’IBM appelle ses « impératifs stratégiques » – qui recouvrent ses activités cloud, analyse de donnée (dont l’intelligence artificielle), sécurité et mobilité – est repartie à la hausse (+11%) pour s’établir à 8,8 milliards de dollars, soit 46% de son chiffre d’affaires total. Et le chiffre d’affaires “logiciels” de la société a également augmenté pour la première fois après 13 trimestres consécutifs de baisse.

IBM insiste notamment sur l’augmentation de 20% de ses revenus cloud, à 4,1 milliards de dollars. Sur douze mois glissants, IBM revendique ainsi 15,8 milliards de facturations cloud, ce qui en fait potentiellement le troisième acteur cloud mondial derrière Microsoft et – probablement – juste derrière Amazon (qui ne dévoilera ses résultats que dans quelques jours) mais devant Salesforce ou Oracle. Sauf que, dans ces 15,8 milliards d’euros, 7 milliards sont en réalité des solutions d’infrastructures (matériels, logiciels et services) destinées aux clouds privés des clients. Seuls 8,8 milliards sont des solutions « fournies sous forme de services ». Ce qui ramène IBM, au cinquième rang des fournisseurs de services clouds derrière Salesforce et SAP. Mais là encore, la croissance a tendance à fléchir par rapport à 2016 où les revenus du Cloud avaient progressé de 35%.

Dans le domaine des solutions cognitives, la croissance a plutôt tendance à s’accélérer (de 2% en 2016 à 3% sur le trimestre). Mais là encore, cette évolution, positive en apparence, cache un recul de la croissance des offres regroupées dans la catégorie solutions logicielles (on y trouve notamment l’analytique, la sécurité, la business intelligence, l’intelligence artificielle, les objets connectés…), qui recule de 5% à 3%. Difficile toutefois de savoir ce qui cause ce recul car, à lire les communiqués d’IBM, tout est en progression : la sécurité (+49%), la technologie d’IA Watson (une progression « à deux chiffres d’un trimestre à l’autre »), et la business intelligence & data discovery (hausse à trois chiffres).

Julien Corti, Digital CMO

Au-delà du marketing et du penchant pour l’esbrouffe de son président exécutif et directeur technique Larry Ellison, Oracle a semble-t-il marqué les esprits cette année par la consistance de ses annonces lors d’Open World, sa grand’messe annuelle, qui s’est tenue la première semaine d’octobre à San Francisco.

Ainsi, dans sa version 18c, annoncée pour décembre, sa base de données transactionnelle devient « autonome ». En clair : toutes les mises à jour, les patchs, les réglages et les contrôles seront désormais automatisés, ce qui devrait se traduire par des réductions de coûts d’exploitation significatifs pour les entreprises clientes. Bien-sûr, cette fonction d’autonomie ne pourra être activée que si la base de données est fournie par Oracle sous la forme d’un service cloud – on parle de data warehouse as a service – ou via son offre Cloud at Customer, qui repose sur des machines déployées et gérées par Oracle dans les datacenters des clients.

Fidèle à son habitude, Larry Ellison n’a pas manqué de désigner l’ennemi et de l’égratigner en assurant que la version 18c reviendrait « moins de la moitié de ce qu’Amazon facture à ses clients ». Une façon d’attirer l’attention du marché sur son offre mais également de montrer la détermination d’Oracle en matière de Cloud.

Selon son PDG, Mark Hurd, 80% des charges de travail de production s’exécuteront dans le Cloud d’ici à 2025 contre seulement 14% aujourd’hui. L’enjeu pour Oracle est donc d’arriver à diriger vers son propre Cloud l’énorme base installée sur site que les clients ne vont pas manquer de migrer en disqualifiant autant que possible les alternatives proposées par Amazon telles que RedShift (data warehouse as a service) ou Aurora (base de données managée).

Autre tendance lourde : l’intelligence artificielle qui commence à irriguer l’ensemble de ses applications Cloud avec notamment l’intégration de fonctionnalités d’apprentissage automatique visant à améliorer la collecte et la gestion des données et à fournir des recommandations pour optimiser les décisions. Oracle a ainsi annoncé une famille d’applications baptisées Adaptative Intelligent Apps qui viendront enrichir ses principales solutions Cloud telles que HCM (gestion des ressources humaines), ERP et SCM (Supply Chain Management). Mais sa suite de gestion de la relation client CX Cloud (Customer Experience), qui inclut notamment son outil de gestion de campagnes marketing et son outil de gestion des ventes, est aussi concerné.

À surveiller enfin : l’annonce d’investissements conséquents dans NetSuite, l’ERP Cloud qu’Oracle a acquis pour 9,3 milliards de dollars l’année dernière – et qui est en cours l’implantation en France – et le lancement d’un service cloud Blockchain destiné à « sécuriser les transactions et la collaboration entre entreprises ».

Julien Corti, Digital CMO

L’éditeur américain SAS vient de publier le retour d’expérience dans l’analytique  très intéressant de la société d’études canadienne Numéris. Cette société qui a vu ses coûts d’interrogation de panels exploser ces dernières années utilise les solutions analytiques pour optimiser cette phase de son process sur les études et augmenter ses capacités de conseil.

Les objectifs de Numeris : diminuer les coûts et augmenter la partie conseil 

Numeris est le leader canadien de la fourniture de données sur les mesures d’audience et les comportements d’achat des consommateurs. Une société d’études un peu comparable à GFK et médiamétrie réunies. La société offre en outre des services de conseil aux producteurs TV, publicitaires et agences de communication. Pas vraiment engagée dans la transformation digitales, les données qu’elle exploite sont toutes tirées d’appels téléphoniques, mais de moins en moins de participants répondent à ses sollicitations souligneNuméris. Dans ce domaine la société  d’études a vu ses coûts d’interrogation téléphoniques des panelistes exploser. Elle rappelle notamment qu’il est de plus en plus difficile d’atteindre le quota de 180 000 répondants qui est traditionnellement de mise sur ce marché, ainsi que les 11 000 mesures d’audience requises pour produire des estimations d’audience audio et vidéo fiables.« Il y a dix ans, 90 à 92 % des foyers acceptaient de répondre par téléphone aux enquêtes d’audience. Aujourd’hui ce taux a chuté à 65 %, » soulignait dans le cadre de cette étude de cas Derrick Gray, Director of Audience Measurement Science chez Numeris. Afin de pouvoir disposer d’une vue consolidée et interroger plus régulièrement toutes ces bases Numeris a investi sur l’analytique. Le renforcement de la capacité analytique permet  également à la société d’études de travailler avec moins de répondants et surtout cela permet de développer une capacité de conseil additionnelle en partageant les données et les analyses de plusieurs départements. En clair moins de répondants mais plus de certitudes grâce à l’analytique sur les réponses et la qualité de celles-ci. Pour beaucoup d’analystes la capacité à interroger plus facilement en language naturel et à obtenir plus facilement des données analytiques permet aux entreprises d’augmenter leurs capacités décisionnelles et de diminuer les coûts d’acquisition de l’information. Le défi étant de traiter des données de plus en plus hétérogènes et de moins en moins sourcées. Reste à convaincre les clients que ces méthodes sont plus efficaces et pertinentes que celles qui étaient utilisées dans le passé.

 

Spécialisée dans la conception de datacenters, l’entreprise américaine Switch a mené à bien l’une des plus belles introductions en bourse de l’année 2017 : 531 M$ levés !

Considéré comme l’exploitant de datacenter le plus “propre” du monde (il n’utilise que des énergies renouvelables), l’Américain Switch a conduit la semaine dernière l’une des entrées en bourse les plus réussies de 2017. A cette occasion, l’entreprise a en effet levé 531 M$ (plus de 450 millions d’euros), soit la troisième levée de fonds la plus importante de l’année dans le secteur technologique, derrière SNAP (3,3 milliards d’euros) et Altice USA (1,9 milliard d’euros). Pour ce faire, Switch est parvenu à vendre plus de 31 millions d’actions au prix de 17 euros.

Peu connu en France car il n’y est pas directement implanté, Switch est principalement présent aux Etats-Unis. Créée en 2000 à Las Vegas (voir la vidéo), l’entreprise est toutefois présente en Europe (à Milan) et en Asie (à Bangkok).

Le succès de cette introduction en bourse confirme l’augmentation exponentielle du volume des données collectées, dans le contexte de la montée en puissance continue du big data et de l’intelligence artificielle.

Parmi les clients de Switch, on trouve des sociétés comme Intel, Cisco, EMC ou encore e-Bay et la Metro-Goldwyn-Mayer.

Constance Dalmon, Digital CMO