Revue de Presse du 1er au 15 mai

Revue de Presse du 1er au 15 mai

150 150 Team Gekko

 L’actualité Cloud décortiquée par Gekko ! 

Ryanair bascule toute son IT sur AWS
La compagnie aérienne low cost Ryanair compte fermer la totalité de ses datacenters pour migrer toutes ses opérations vers l’infrastructure d’AWS. La société espère aussi profiter des capacités d’apprentissage machine du géant américain du cloud.
Ryanair a entrepris de migrer progressivement la totalité ou presque de ses opérations sur Amazon Web Services (AWS). La société s’est donné trois ans pour fermer « la majorité » de ses datacenters. La compagnie aérienne a déclaré qu’elle était en train de rationaliser son IT autour des services d’AWS, y compris les bases de données, l’analyse, l’apprentissage machine et les services de deep learning.
La compagnie aérienne low cost utilisait déjà l’infrastructure cloud d’AWS pour soutenir le site Ryanair.com et son activité de réservation d’hôtel Ryanair Rooms, ainsi que le service Simple Storage Service (S3) pour son lac de données plus les capacités d’analyse d’Amazon Kinesis. Ryanair va également migrer ses bases de données Microsoft SQL Server vers le populaire Aurora d’Amazon. La migration devrait permettre à la compagnie aérienne de réduire le coût de ses campagnes marketing par courriel. Ces campagnes sont généralement très volumineuses, puisque Ryanair envoie chaque jour 22 millions de courriels aux clients après des réservations de voyages ou pour ses campagnes de vente.
Apprentissage machine et chatbot à l’essai
Dans un communiqué, Ryanair s’est clairement réjoui des services offerts par AWS comme l’apprentissage machine et l’expertise en intelligence artificielle, estimant que ce sont des différentiateurs uniques dans l’univers du cloud. « L’apprentissage machine est très important pour notre croissance, et nous portons un intérêt particulier à différents services d’apprentissage machine d’AWS, comme Amazon SageMaker, qui peuvent nous permettre d’améliorer l’expérience client et nous aider à offrir via le portail MyRyanair une expérience unique à chaque voyageur », a déclaré John Hurley, le CTO de Ryanair.
La compagnie aérienne teste également la technologie chatbot Lex d’Amazon, qu’elle utilise pour automatiser certaines demandes d’assistance à la clientèle. Ryanair voudrait aussi prendre en charge les demandes vocales par le biais de l’assistant virtuel Alexa d’Amazon. Enfin, Ryanair a précisé qu’elle travaillait avec ML Solutions Lab d’AWS pour créer une application « qui permettra à l’entreprise de détecter automatiquement les pics de demande sur les réservations de vols à certaines heures et anticiper des changements d’horaire », comme le souligne son communiqué de presse.
https://www.lemondeinformatique.fr/actualites/lire-ryanair-bascule-toute-son-it-sur-aws-71725.html

Une version gratuite de Talend Data Streams sur AWS
Sur la marketplace d’AWS, Talend propose depuis quelques jours la version gratuite de Data Streams. A travers une interface reposant sur Apache Beam, l’outil simplifie l’intégration des flux de données en continu.
Pour ingérer d’importants volumes de données en temps réel, Talend vient de livrer sur la marketplace d’AWS l’application Data Streams. L’outil, proposé ici dans une version gratuite, viendra ensuite enrichir la suite cloud Data Fabric du spécialiste français de l’intégration de données. Il a été annoncé il y a quelques jours sur la conférence Talend Connect US, à New York. Data Streams se présente comme une application en libre-service dotée d’une interface graphique que l’éditeur qualifie d’intuitive. Elle s’appuie sur Apache Beam, modèle unifié open source conçu pour définir des pipelines de traitement de données, qu’il s’agisse de flux traités en continu ou de batch.
Talend a conçu son outil d’intégration en streaming pour qu’il puisse s’adresser à un nombre élargi de profils d’utilisateurs, analystes de données, ingénieurs, scientifiques. Pour l’éditeur, qui rappelle que l’un des défis les plus courants en data science porte sur la qualité des données (qui peuvent être incomplètes, insuffisantes, difficiles d’accès, etc.), chaque utilisateur doit pouvoir être impliqué dans les opérations de collecte, de mise en forme et d’amélioration de la qualité et de la confiance autour des données.
S’utilise avec Kafka, Kinesis d’AWS et Pub/Sub de Google
Data Streams met en place les files d’attente de messages pour Apache Kafka, Kinesis d’Amazon et Pub/Sub de Google. La présentation des données se fait à la lecture (schema-on-read), ce qui supprime la nécessité de définir les schémas avant la construction des pipelines et permet d’intégrer facilement de nouveaux types de flux, ainsi que le décrit Talend sur la marketplace d’AWS. Data Streams supporte les formats AVRO, JSON, Parquet et CSV. Il fonctionne bien sûr avec le service de stockage S3 d’Amazon, mais aussi avec Cloud Storage de Google et peut être par ailleurs utilisé avec Salesforce et différentes bases de données cloud.
Enfin, les pipelines de données créés peuvent intégrer des composants codés en Python et présenter une prévisualisation des changements sur les données à chaque étape du traitement ce qui permet de réduire les phases de test et débuggage. Avec Data Beams, Talend veut permettre l’ingestion de « volumes considérables de données disparates, en streaming, dans le cloud ».
https://www.lemondeinformatique.fr/actualites/lire-une-version-gratuite-de-talend-data-streams-sur-aws-71740.html

Après AWS et Azure, NetApp s’associe à Google Cloud
Après avoir noué des partenariats similaires avec Azure et AWS, NetApp annonce Cloud Volumes for Google Cloud Platform. Cette offre, pour l’instant ouverte aux inscriptions en version bêta, permet aux entreprises de relier les services de données flash de NetApp aux fonctions analytiques et d’apprentissage machine de la GCP.
NetApp enrichit son offre grâce à un partenariat avec Google pour intégrer ses services de données flash à sa plate-forme cloud. Annoncé hier, ce service de stockage entièrement géré, dénommé NetApp Cloud Volumes for Google Cloud Platform, va permettre aux clients des deux entreprises d’exécuter plus facilement leurs workloads à venir et existants dans le cloud. Le service de stockage de fichiers natifs dans le cloud relie désormais les services de données de NetApp aux fonctions de développement d’applications, d’analyse et d’apprentissage machine de Google Cloud, accélérant l’accès aux ressources et simplifiant la gestion.
Parallèlement, NetApp a déployé une nouvelle baie de stockage d’entreprise haut de gamme 100 % flash et a mis à jour son logiciel de gestion de données d’entreprise ONTAP. Parmi les améliorations logicielles, on peut noter une meilleure conformité dans la conservation des données. De plus, de nouvelles capacités d’analyses basées sur l’apprentissage machine doivent permettre de réduire les coûts structurels. Le partenariat de NetApp avec Google arrive après des accords similaires passés avec Microsoft Azure et Amazon Web Services. « NetApp a développé une technologie de pointe et nous la livrons aujourd’hui sous une forme nouvelle qui va permettre à nos clients de changer le monde avec les données », a déclaré George Kurian, CEO de NetApp, lors d’une interview avec IDG Enterprise [actionnaire minoritaire d’IT News Info, éditeur du Monde Informatique, NDLR]. « En apportant cette capacité de transformation, NetApp renoue avec sa vocation première ».
[…]
https://www.lemondeinformatique.fr/actualites/lire-l-ifop-cree-un-pole-data-management-pilote-par-gerard-donadieu-71332.html

Cloud : le contrôle du coût des ressources reste aléatoire
La migration du système d’information vers les infrastructures Cloud se poursuit à un rythme soutenu. Pour les DSI, le challenge est désormais de peaufiner le processus de contrôle et de suivi des coûts.
Les entreprises doivent apprendre à maitriser les modèles de consommation et de coûts des services de cloud relève un récent rapport du cabinet 451 Research. Un constat partagé par Canalys dans ses dernières statistiques sur le marché mondial des offres d’infrastructure (IaaS et PaaS).
Premier constat : les entreprises ont tendance à provisionner plus de ressources que nécessaire. Ainsi, seulement 16 % des 146 revendeurs interrogés au mois d’avril estiment que leurs clients utilisent effectivement les ressources qu’ils ont payé.  À l’inverse, ils sont 13 % à affirmer que leurs clients « gaspillent » plus de 40 % des ressources facturées.
Pour Canalys, ce besoin de calibrer sa consommation offre de belles opportunités aux acteurs de l’intelligence artificielle qui fournissent aux entreprises des algorithmes d’aide à la décision pour définir les besoins réels et choisir les offres adaptées.
Du règlement à la simple règle
Autre indicateur critique : le suivi de la consommation. Selon 451 Research, cette utilisation des ressources est d’autant plus sensible que les ressources sont devient d’autant plus difficile d’accès.
Selon les réponses des 500 DSI interrogés, un peu plus d’un tiers (34,2 %) ont établi des politiques d’utilisation et 26,9 %, de simples règles. A l’opposé, 18,6 %, suivent les consommations des ressources cloud sans les contrôler quand 7,3 %, ignorent les ressources consommées.
Concernant le marché IaaS / PaaS dans son ensemble, Canalys l’évalue à 16,9 milliards de dollars au niveau mondial sur le 1er trimestre 2018 (+ 46,8 % d’une année sur l’autre). Une progression des investissements devrait intervenir, tout particulièrement pour la mise en conformité avec le RGPD et les mises à jour d’infrastructure liées aux failles Meltdown et Spectre.
AWS concentre toujours un peu plus de 30 % de ce volume d’affaires (5,2 milliards de dollars ; + 45 % sur un an). Microsoft Azure avoisine les 15 % (2,7 milliards ; + 93 %), quand Google Cloud Platform tend vers les 10 % (+ 89 %, à 1,2 milliard).
https://www.silicon.fr/209041-209041.html

Laisser une réponse