Revue de Presse – Février 2019

Revue de Presse – Février 2019

150 150 Team Gekko

Cloud hybride : GSP de Google arrive en bêta
Annoncée l’année dernière par Google, l’offre Cloud Services Platform permet d’améliorer la gestion, la gouvernance et la sécurité des données et des applications on-premise aussi facilement que sur le cloud public. Elle vient d’être lancée en bêta.
Mois après mois, Google affine sa stratégie dans le cloud hybride. Annoncé en juillet dernier lors de son événement Next, Cloud Services Platform (CSP) regroupe plusieurs offres permettant d’accroître la rapidité et la fiabilité d’exécution – mais aussi la gouvernance et la sécurité –  d’applications et de services hébergées on-premise dans les entreprises. Objectif : leur permettre de gérer aussi facilement leur parc applicatif (administration, mises à jour, cycle de vie…) qu’il soit aussi bien hébergé en local que dans le cloud. L’éditeur a aujourd’hui franchi un cap en lançant la bêta de CSP, comprenant 300 dollars de crédit à dépenser sur les 12 prochains mois pour tester la solution.
CSP est construit sur plusieurs briques technologiques : GKE (GoogleKubernetes Engine) pour gérer, sécuriser et automatiser les applications et services conteneurisés et GKE On-Prem (service Kubernetes géré assurant la gestion du cycle de vie à distance des clusters on-premise). Et également le gestionnaire de microservices Istio. «  La conception de CSP vous permet d’intégrer les fonctionnalités réseau, de stockage et d’identité existantes que vous utilisez déjà, afin que vous puissiez passer au cloud lorsque vous êtes prêt », précise par ailleurs Google dans un communiqué.
https://www.lemondeinformatique.fr/actualites/lire-cloud-hybride-gsp-de-google-arrive-en-beta-74414.html

AWS stagne alors que ses concurrents progressent sur le marché du cloud
Toujours numéro un mondial du Cloud Public, AWS fait néanmoins face à une concurrence très dynamique qui gagne du terrain, alors que ses propres parts de marché stagnent.
La progression des ventes des opérateurs de clouds publics est restée forte et stable l’an dernier. Après avoir été de 45% en 2017, la hausse des revenus de ces fournisseurs de services a en effet atteint +46,5% à 80 Md$ en 2018. Selon Canalys, qui publie ces chiffres, cela fait du secteur l’un des plus important du marché global de l’IT, tant en termes de dynamisme que de taille. « La dynamique du marché a évolué au cours de l’année passée. Davantage d’entreprises optent pour le multi-cloud et les environnements hybrides, notamment pour utiliser les atouts de différents opérateurs en fonction de leurs besoins », indique Matthew Ball, analyste chez Canalys.

Plus de 80% de croissance pour les challengers d’Amazon, sauf pour IBM
En 2018, c’est encore une fois Amazon Web Service qui a raflé la première place mondiale des opérateurs de cloud public. L’entreprise a généré 25,4 Md$ (+47,1% par rapport à 2017) de revenus et obtenue ainsi une part de marché stable à 31,7%. Derrière elle, ses concurrents ne restent pas les bras croisés, en particulier Microsoft. La firme de Redmond a largement conforté sa place de numéro deux du cloud public avec une croissance de chiffre d’affaires de 82,4% qui lui permet de s’adjuger 16,8% de parts de marché (+3,3 points). Google Cloud se montre également très actif avec +94% de facturations et une part de marché de 8,5% (+2,1 points). Le chinois Alibaba n’est pas en reste avec des revenus qui se sont appréciés de 92% et qui lui ont permis de quasiment doubler sa part de marché à 3,2%. Il prend ainsi la quatrième place du classement à IBM Cloud qui affiche la plus faible croissance (+17,6%).
Pour Canalys, la nouvelle dynamique qu’a connu le marché du cloud public en 2018 a pour conséquence de donner un rôle accru aux partenaires. Il devient en effet toujours plus important de compter sur eux pour bien cerner les besoins des clients, recommander certains services, les déployer et les intégrer, et simplifier la facturation et la gestion de services provenant de différents opérateurs. « Les fournisseurs de services de cloud public mettent davantage l’accent sur la construction de programmes partenaires […], surtout depuis qu’ils étendent leurs cibles de clients aux ETI et aux PME », en veut pour preuve Alastarir Edwards, analyste chez Canalys. De fait, ce dernier s’attend à ce que la part du chiffre d’affaires des opérateurs de cloud public générée par les revendeurs progresse cette année.

Microsoft élargit la possibilité de souscrire à ses services en direct
Le cabinet d’études profite également de sa nouvelle étude pour taper sur les doigts de Microsoft. L’opérateur du cloud Azur est actuellement celui qui a le plus recours au channel pour la revente de ses services hébergés. Las, il a depuis peu élargi la possibilité pour les entreprises de souscrire à ses services en direct. L’éditeur court ainsi le risque de voir ses concurrents exploiter l’incertitude qui a pu gagner certains de ses partenaires.
https://www.lemondeinformatique.fr/actualites/lire-aws-stagne-alors-que-ses-concurrents-progressent-sur-le-marche-du-cloud-74354.html

AWS veut réduire le coût des fichiers peu utilisés avec EFS IA
Avec sa nouvelle option EFS Infrequent Access, Amazon Web Services promet de réduire de 85% le coût de stockage des fichiers non utilisés pendant 30 jours.
Les utilisateurs d’Elastic File System, le service de stockage de fichiers d’Amazon Web Services, disposent maintenant d’une nouvelle option dans le cadre de la gestion du cycle de vie de leurs données. EFS IA (pour Infrequent Access) leur est proposé pour les données auxquelles ils accèdent peu fréquemment. Il est maintenant possible d’indiquer que l’on veut transférer les fichiers qui n’ont pas été utilisés au cours des 30 derniers jours vers une classe de stockage coûtant 85% de moins, souligne AWS.
Pour bénéficier de la classe de stockage Infrequent Access dans EFS, il faut activer les fonctions Lifecycle Management permettant la gestion du cycle de vie des fichiers, ce qui se fait au moment de la création d’un nouveau système de fichiers EFS. Il est possible de l’activer a posteriori pour les fichiers déjà créés avant le lancement de l’option EFS IA. Ce processus peut être automatisé par les utilisateurs qui ont choisi Lifecycle Management. Les fichiers non accédés pendant 30 jours passeront automatiquement du stockage standard vers EFS IA.

5 instances bare-metal supplémentaires
AWS a par ailleurs annoncé 5 nouvelles instances à la demande de serveurs bare metal sur EC2 : m5.metal, m5d.metal, r5.metal, r5d.metal et z1d.metal. Celles-ci sont destinées à des charges de travail nécessitant un accès direct aux ressources CPU et de mémoire.
https://www.lemondeinformatique.fr/actualites/lire-aws-veut-reduire-le-cout-des-fichiers-peu-utilises-avec-efs-ia-74343.html

Google veut investir 13 Md$ en 2019 dans ses datacenters
Après avoir investi 9 milliards de dollars en 2018 dans ses datacenters aux Etats-Unis, Google compte cette année consacrer 13 milliards supplémentaires dans la construction de nouveaux centres de calcul et étendre les capacités d’autres dans 14 Etats. Plus de 10 000 emplois seront créés pour ses travaux de construction.
La réponse du berger à la bergère ? Deux mois après Apple qui a annoncé investir 10 milliards de dollars dans ses datacenters aux Etats-Unis, c’est au tour de Google de se jeter à l’eau. La firme de Mountain View pousse cependant le curseur financier un peu plus loin que la firme à la pomme avec un investissement de 13 milliards de dollars prévu cette année dans la construction de nouveaux datacenters, mais également l’expansion d’autres centres de calcul existants.
« Ces nouveaux investissements vont nous permettre d’embaucher des dizaines de milliers d’employés et de créer plus de 10 000 nouveaux emplois dans le secteur de la construction dans les États du Nebraska, du Nevada, de l’Ohio, du Texas, de l’Oklahoma, de la Caroline du Sud et de Virginie », a précisé le CEO de Google, Sundar Pichai.

Pas encore de datacenter Google en France, jusqu’à quand ?
Au-delà de ses promesses d’embauches pharaoniques – sans précision sur la nature des contrats proposés – cette annonce d’investissements massifs de Google est tout sauf le fruit du hasard. Elle intervient effectivement au moment où ses rivaux directs, AWS et Microsoft, mettent également les bouchées doubles pour étendre au maximum leurs capacités cloud. Rappelons toutefois que par rapport à ses deux grands rivaux, Google ne possède toujours pas de datacenter en propre en France – mais c’est le cas en Belgique, Irlande, Pays-Bas et Finlande – ce qui n’empêche cependant pas de très grands groupes industriels européens, comme Airbus, de recourir à ses services collaboratifs et bureautiques.
En parallèle, le géant américain du cloud promet de nouveaux investissements « dans l’énergie » comme cela avait été le cas récemment avec la mise en oeuvre de fermes d’1,6 million de panneaux solaires dans les Etats du Tennessee et de l’Alabama.
https://www.lemondeinformatique.fr/actualites/lire-google-veut-investir-13-md$-en-2019-dans-ses-datacenters-74335.html

IBM Watson IA arrive sur les clouds concurrents
Les services Watson Assistant et OpenScale tournant sur IBM Cloud Private for Data pourront bientôt travailler sur AWS, Google Cloud, Microsoft Azure et Red Hat OpenShift.
Les futures versions des services IBM Watson pourront prochainement fonctionner sur des clouds publics concurrents ou sur une infrastructure hébergée privée de conteneurs. C’est ce qu’a annoncé IBM an précisant pour le moment que deux des services d’intelligence-machine de son offre Watson sont concernés. Ils pourront fonctionner sous forme d’applications autonomes dans d’autres clouds public ou privé.
Pour cela, IBM fournira ces services Watson locaux sur IBM Cloud Private for Data, une plate-forme combinant analyse et gouvernance des données qui peut être déployée sur Kubernetes.Ruchir Puri, CTO et architecte en chef d’IBM Watson, a déclaré que l’offre répondait à une demande des clients qui souhaitaient des solutions d’apprentissage machine exécutables là où résident déjà les données client, en général dans un environnement multi-cloud ou cloud hybride.

Watson Assistant et OpenScale proposés en tant qu’applications autonomes
« Au lieu d’essayer de déplacer les données vers un seul cloud, et de créer un verrouillage dans un environnement de calcul ouvert, nous rendons l’IA disponible et la transférons vers les données », a expliqué le CTO. Le concept s’inspire du mode de fonctionnement de Hadoop et d’autres systèmes de traitement de données de masse qui traitent les données sur place au lieu de les déplacer vers les instances de traitement.
Pour l’instant, seuls les deux services Watson Assistant et Watson OpenScale, « qualifiés de produits phares » par Ruchir Puri, seront proposés aux clients en tant qu’applications autonomes. Watson Assistant permet de construire des « interfaces conversationnelles », des chatbots en particulier, et Watson OpenScale sert de base « à la conception et au déploiement automatisés de réseaux neuronaux ». Il permet aussi d’entraîner, de déployer et de superviser des modèles d’apprentissage machine et des réseaux neuronaux dans un environnement d’entreprise.

Des microservices exécutés sur un cluster IBM Cloud Private multi-nœud basé sur Kubernetes
IBM Cloud Private for Data est composé de microservices préconfigurés qui s’exécutent sur un cluster IBM Cloud Private multi-nœud basé sur Kubernetes. Selon le CTO d’IBM Watson, le client est censé effectuer sa propre intégration entre IBM Cloud Private for Data et ses magasins de données locaux, une telle intégration n’étant pas gérée directement par IBM. Ruchir Puri a clairement indiqué que ces versions localisées de Watson ne se contentent pas de transférer les appels d’API d’un proxy local vers le service Watson hébergé par IBM. Le client gère sa propre incarnation locale du service, livré sur IBM Cloud Private et fonctionnant dans l’environnement de son choix. Les environnements Amazon Web Services, Google Cloud, Microsoft Azure et Red Hat OpenShift sont pris en charge.
Ce qui pourrait changer, ce sont les résultats fournis par les versions localisées de Watson par rapport à la version maître, car les versions locales doivent être mises à jour périodiquement. Ruchir Puri n’a pas été en mesure de fournir un calendrier précis de la fréquence à laquelle les nouvelles versions des services localisées de Watson seront mises à jour (trimestriellement, annuellement, etc.), mais il a indiqué qu’elles le seront « de façon relativement régulière ». La quantité de ressources système nécessaires à consacrer à une instance de service Watson varie en fonction de la charge de travail. « Certaines ententes SLA de niveau de service pour les produits proposés précisent les configurations nécessaires de l’environnement informatique (mémoire, cœurs, GPU) pour la performance désirée », a indiqué le CTO d’IBM Watson. Les déploiements virtualisés et non virtualisés sont pris en charge.

Watson Knowledge Studio et Natural Language Understanding à suivre
D’autres services Watson seront disponibles localement sur IBM Cloud Private plus tard. IBM prévoit notamment de proposer dans le courant de l’année 2019 Watson Knowledge Studio, un service « de découverte d’informations significatives à partir de textes non structurés sans écrire de code », et Watson Natural Language Understanding, un outil d’extraction automatique de métadonnées. Selon Ruchir Puri, « ce dernier est déjà utilisé dans Watson Assistant comme microservice interne, de sorte que l’essentiel du travail pour le transformer en version localisée a déjà été fait ».
Cette nouvelle version localisée des services de Watson explique en partie pourquoi IBM a fait l’acquisition de Red Hat. « IBM Cloud Private peut utiliser l’OpenShift de Kubernetes comme base, et les services de Watson ont été réorganisés depuis trois ans autour de Kubernetes et des conteneurs », a encore expliqué le CTO. Une fois que Red Hat sera entièrement passé sous le contrôle d’IBM, il est probable que l’expertise de Red Hat en matière d’infrastructure débloquera la portabilité du cloud pour les futurs services d’IBM centrés sur les données, Watson et d’autres.
https://www.lemondeinformatique.fr/actualites/lire-ibm-watson-ia-arrive-sur-les-clouds-concurrents-74323.html

Les revenus cloud AWS et Azure en plein boom… jusqu’à quand ?
Dans leurs derniers résultats trimestriels, Amazon et Microsoft ont fait part de résultats en forte hausse pour les revenus générés par leurs activités cloud pour entreprises. AWS a vu les siens augmenter de 45% au dernier trimestre 2018 sur un an, tandis que ceux d’Azure pour le 2e trimestre 2019 sont annoncés en progression de 76%.
En cette fin janvier-début février, les résultats d’entreprise pleuvent. Microsoft et Amazon ont publié les leur coup sur coup, l’occasion de faire un focus tout particulier sur les revenus issus de leurs activités cloud pour entreprises. Principal point commun à signaler entre ces deux poids lourds de l’IT : les chiffres d’affaires de ces activités ressortent en forte hausse. Du côté d’Amazon, les ventes de l’entité AWS ont ainsi grimpé de 5,1 à 7,43 milliards de dollars entre le 4e trimestre 2018 et la même période l’année précédente, soit une progression de 45,7%. Pour l’ensemble de son exercice fiscal, Amazon Web Services a vu ses revenus passer de 17,46 à 25,66 milliards de dollars, en hausse sur un an de près de 47%. Les hausses de chiffre d’affaires ont beau être élevées, cela n’a pas empêcher certains analystes de rester sur leur faim.
« Il est intéressant de noter que ces chiffres sont loin du taux de croissance torride de 60 à 70% et plus que la société a connu il y a quelques années à peine », a fait savoir Charles King, président et analyste principal de Pund-IT. « Je ne dénigre pas AWS […] mais à mesure que la société et le marché du cloud continuent à se développer et que les concurrents renforcent encore leurs positions, je prévois que les ventes d’AWS continueront à baisser lentement ». On notera toutefois que les croissances des bénéfices opérationnels d’AWS s’en sortent plutôt bien, avec des hausses affichées de 61,5% et 68,6%, respectivement pour le 4e trimestre 2018 (2,18 Md$) et l’ensemble de l’année écoulée (7,3 Md$).

L’âge d’or du boom des croissances cloud bientôt achevé ?
Chez Microsoft, le chiffre d’affaires cloud pour entreprises inventoriés dans la catégorie « Intelligent Cloud » ont été annoncés en progression de 20% à 9,4 milliards de dollars, comprenant les produits serveurs et services cloud (+24%). Cette hausse a été tirée par les revenus Azure dont les revenus ont bondi de 76%. Cette croissance, proche de celle de l’année dernière, est-elle vouée à se poursuivre ? Rien n’est moins sûre : « La vraie question est de savoir si Microsoft peut accélérer les ventes d’Azure ou si, au lieu de cela, les revenus du cloud de la société ont atteint un sommet et entrent dans un cycle similaire à celui d’AWS. La réponse à cette question est loin d’être claire, mais il convient de noter qu’un taux de croissance de 76% dans une entreprise de plusieurs milliards de dollars serait considéré comme remarquable dans la plupart des autres circonstances ».
https://www.lemondeinformatique.fr/actualites/lire-les-revenus-cloud-aws-et-azure-en-plein-boom-jusqu-a-quand-74219.html

Groupe PSA sort les griffes dans l’IoT
Afin de suivre et analyser les livraisons des conteneurs envoyés entre ses fournisseurs et ses usines, le fabricant automobile PSA mise sur l’internet des objets. IBM et Sigfox ont été choisis pour l’accompagner dans ses projets.
Groupe PSA passe la seconde dans l’internet des objets. Déjà partenaire depuis de longues années dans ce domaine avec IBM pour son activité BtoC, le fabricant sochalien de voitures a annoncé un projet de suivi et d’analyse de l’itinéraire de ses conteneurs. Baptisée « Track&Trace », cette initiative, basée sur la plateforme cloud Watson IoT d’IBM et le réseau IoT du toulousain Sigfox, va permettre au constructeur automobile d’optimiser en particulier la rotation de ses conteneurs entre les sites de ses fournisseurs et ses usines d’assemblage.
« Nous sommes constamment à la recherche de solutions technologiques pour répondre aux besoins de nos usines et pour être aussi efficaces que possible. Ce système Track & Trace nous permet de connaître, individuellement et en détail, l’emplacement de nos conteneurs. Cette avancée technologique doit permettre d’optimiser nos boucles de rotation et de prévenir les incidents. C’est une véritable rupture et une nouvelle étape dans la numérisation de la chaîne logistique », a expliqué Yann Vincent, vice-président exécutif fabrication et chaîne logistique du groupe PSA.

Un projet né dans la ScaleZone d’IBM
Pour son projet « Track&Trace », l’industriel automobile a travaillé de près avec IBM et Sigfox dans le cadre de leur initiative commune ScaleZone visant notamment à faire émerger des solutions métiers et Design Thinking et d’accompagner des start-ups pour industrialiser leurs projets.
https://www.lemondeinformatique.fr/actualites/lire-groupe-psa-sort-les-griffes-dans-l-iot-74208.html

Laisser une réponse