Revue de Presse du 15 au 30 novembre

Revue de Presse du 15 au 30 novembre

150 150 Team Gekko

L’actualité Cloud & AWS décortiquée par Gekko !

AWS : annonces essentielles du Re:Invent 2017 

  • « Amazon Elastic Container Service pour Kubernetes (version préliminaire) est un service géré qui vous permet d’exécuter facilement Kubernetes sur AWS sans devoir installer, faire fonctionner et maintenir vos clusters Kubernetes. Auparavant, vous deviez gérer le dimensionnement et la disponibilité de vos maîtres Kubernetes et la couche de persistance en choisissant les types d’instance appropriés, en les exécutant à travers plusieurs zones de disponibilité, en surveillent leur état et en remplaçant les nœuds défectueux. Vous devez corriger et mettre à niveau vos maîtres et nœuds de travail afin de vous assurer d’exécuter la dernière version de Kubernetes. Tout cela nécessite une expertise et beaucoup de travail manuel. Amazon EKS gère entièrement la disponibilité et la scalabilité du plan de contrôle Kubernetes de chaque cluster. Avec Amazon EKS, les mises à niveau et la haute disponibilité sont gérées automatiquement par AWS. Amazon EKS exécute trois maîtres Kubernetes à travers trois zones de disponibilité afin d’assurer une haute disponibilité. Amazon EKS détecte et remplace automatiquement les maîtres défectueux, et fournit des mises à niveau de version automatiques et des correctifs pour les maîtres. Amazon EKS étant développé à l’aide de Kubernetes open source en amont, vous pouvez utiliser tous les plug-ins et outils existants de la communauté Kubernetes. Amazon EKS étant aussi intégré à de nombreux services AWS, vous pouvez tirer parti d’Elastic Load Balancing, de l’authentification IAM, de l’isolation Amazon VPC, de l’accès AWS PrivateLink et de la journalisation AWS CloudTrail. Les applications s’exécutant sur Amazon EKS sont entièrement compatibles avec les applications s’exécutant sur n’importe quel environnement Kubernetes standard, qu’elles s’exécutent sur les centres de données locaux ou dans le cloud. Cela signifie que vous pouvez facilement faire migrer n’importe quelle application Kubernetes standard vers Amazon EKS sans aucune modification du code. »
    https://aws.amazon.com/fr/about-aws/whats-new/2017/11/introducing-amazon-elastic-container-service-for-kubernetes/
  • « AWS Fargate est une technologie qui permet de déployer et de gérer des conteneurs sans devoir gérer quoi que ce soit de l’infrastructure sous-jacente. Fargate simplifie le dimensionnement de vos applications. Vous n’avez plus à vous préoccuper de mettre en service suffisamment de ressources de calcul pour les applications de votre conteneur. Vous pouvez lancer des dizaines de milliers de conteneurs en quelques secondes. Précédemment, vous deviez gérer un cluster d’instances Amazon EC2, sélectionner les types d’instance, gérer la planification des conteneurs et optimiser l’utilisation des clusters. Avec Fargate, toute cette gestion disparaît. Fargate s’intègre de façon transparente à Amazon ECS. Vous définissez juste votre application comme vous le faites aujourd’hui pour Amazon ECS. Vous empaquetez votre application dans des définitions de tâche, spécifiez l’UC et la mémoire nécessaires ; définissez les stratégies IAM et de mise en réseau dont chaque conteneur a besoin. Une fois que tout est configuré, Fargate lance et gère automatiquement vos conteneurs. »
    https://aws.amazon.com/fr/about-aws/whats-new/2017/11/introducing-aws-fargate-a-technology-to-run-containers-without-managing-infrastructure/
  • « Amazon Aurora sans serveur est une configuration de scalabilité automatique à la demande pour Amazon Aurora, où la base de données démarre, s’éteint et augmente ou réduit la capacité automatiquement en fonction des besoins de votre application. Aurora sans serveur vous permet d’exécuter votre base de données relationnelle dans le cloud sans gérer les instances ou les clusters de base de données. L’aperçu sera disponible pour l’édition compatible Aurora MySQL, et vous pouvez participer en remplissant le formulaire d’inscription. Aurora sans serveur est conçu pour les applications avec des charges de travail peu fréquentes, intermittentes ou imprévisibles. Par exemple, les jeux en ligne, les blogs à faible volume, les nouvelles applications pour lesquelles la demande est inconnue et les environnements de développement/test qui n’ont pas besoin d’être exécutés en permanence. Les solutions de base de données actuelles nécessitent un important effort de mise en service et de gestion pour ajuster la capacité, ce qui provoque des inquiétudes concernant la sur-allocation ou sous-allocation des ressources. Avec Aurora sans serveur, vous pouvez éventuellement spécifier la capacité minimale et maximale dont votre application a besoin, et ne payer que pour les ressources que vous consommez. Les avantages de l’informatique sans serveur sont maintenant disponibles dans le monde des bases de données relationnelles. Amazon Aurora est une base de données relationnelle entièrement gérée, qui associe la performance et la disponibilité des bases de données commerciales haut de gamme à la simplicité et à la rentabilité des bases de données open source. Pour plus d’informations à propos d’Aurora sans serveur, visitez la page du produit. »
    https://aws.amazon.com/fr/about-aws/whats-new/2017/11/sign-up-for-the-preview-of-amazon-aurora-serverless/
  • « Amazon Aurora Multi-Master vous permet de créer plusieurs instances maîtres de lecture/écriture à travers plusieurs zones de disponibilité. Les applications peuvent ainsi lire et écrire des données sur plusieurs instances de base de données d’un cluster, tout comme vous pouvez lire aujourd’hui les réplicas en lecture. Les clusters à plusieurs maîtres améliorent la disponibilité déjà élevée d’Aurora. Si l’une de vos instances maîtres échoue, les autres instances du cluster prennent immédiatement le relais, maintenant la disponibilité en lecture et écriture à travers les défaillances d’instance ou même les défaillances complètes de zone de disponibilité sans aucun arrêt des applications. Aujourd’hui Aurora à un seul maître prend en charge une instance d’écriture et jusqu’à 15 réplicas en lecture seule susceptibles d’être promus dans un seul cluster de base de données. L’instance d’écriture principale peut exécuter jusqu’à 200 000 opérations d’écriture /s sur une instance r4.16xlarge. Les charges de travail qui nécessitent un débit d’écriture encore plus élevé tirent profit du dimensionnement horizontal de leurs écritures avec des instances maîtres supplémentaires. La version préliminaire sera disponible pour l’édition compatible Aurora MySQL, et vous pouvez participer en remplissant le formulaire d’inscription. »
    https://aws.amazon.com/fr/about-aws/whats-new/2017/11/sign-up-for-the-preview-of-amazon-aurora-multi-master/
  • « AWS Cloud9 est un IDE cloud permettant d’écrire, d’exécuter et de déboguer votre code. AWS Cloud9 est un environnement de développement intégré (IDE) cloud pour écrire, exécuter et déboguer votre code à l’aide d’un simple navigateur. Il inclut un éditeur de code, un débogueur et un terminal. Cloud9 est préconçu avec les outils essentiels pour les langages de programmation les plus courants, dont JavaScript, Python et PHP. Vous n’avez donc pas besoin d’installer des fichiers ou de configurer votre machine de développement pour commencer de nouveaux projets. Votre IDE Cloud9 est basé sur le cloud. Vous pouvez donc travailler sur vos projets depuis votre bureau, votre domicile ou tout appareil connecté à Internet. Cloud9 fournit également une expérience transparente pour le développement d’applications sans serveur. Vous pouvez ainsi facilement définir des ressources, les déboguer et basculer entre l’exécution locale et distante d’applications sans serveur. Avec Cloud9, vous pouvez rapidement partager votre environnement de développement avec votre équipe, et ainsi effectuer des programmations en binôme et suivre les entrées de chacun en temps réel. AWS Cloud9 s’intègre à AWS CodeStar pour que vous puissiez configurer rapidement une chaîne d’outils de livraison en continu de bout-en-bout pour votre application, et publier du code plus rapidement sur AWS. Codestar fournit une expérience unifiée qui vous permet de concevoir, tester et déployer des applications facilement sur AWS. AWS Cloud9 est disponible sans frais supplémentaires. Si vous utilisez une instance Amazon EC2 pour votre environnement de développement AWS Cloud9, vous payez uniquement les ressources de calcul et de stockage (par exemple, instance EC2 ou volume EBS) utilisées pour exécuter et stocker votre code. Vous pouvez également connecter votre environnement de développement AWS Cloud9 à un serveur Linux existant (par exemple, un serveur sur site) via SSH sans frais supplémentaires. »
    https://aws.amazon.com/fr/about-aws/whats-new/2017/11/introducing-aws-cloud9/
  • « Amazon Sumerian (version préliminaire) vous permet de créer et d’exécuter des applications de réalité virtuelle, de réalité augmentée et 3D rapidement et facilement, sans nécessiter d’expertise en programmation ou en graphismes 3D. Avec Sumerian, vous pouvez créer des scènes hautement immersives et interactives qui s’exécutent sur des matériels populaires tels qu’Oculus Rift, HTC Vive et les appareils mobiles iOS (très prochainement, prise en charge d’Android ARCore). Par exemple, vous pouvez créer une classe virtuelle qui vous permet de former de nouveaux employés à travers le monde ou vous pouvez développer un environnement virtuel qui permet de visiter un immeuble à distance. Sumerian facilite la création de tous les blocs de construction nécessaires pour développer des expériences 3D hautement immersives et interactives, dont l’ajout d’objets (personnages, mobilier et paysage, par exemple), ainsi que des environnements de conception, d’animation et de script. Sumerian ne requiert aucune expertise spécialisée et vous pouvez concevoir les scènes directement depuis votre navigateur. »
    https://aws.amazon.com/fr/about-aws/whats-new/2017/11/announcing-amazon-sumerian-preview/

Amazon dessine les contours d’une plateforme cloud d’IA
Analyse du langage, de la vidéo, création de modèles d’apprentissage… A l’occasion de son événement mondial, AWS a égrainé les annonces de nouveaux services de machine et deep learning.
L’année dernière, lors de l’édition 2016 de son événement mondial re:Invent, AWS avait jeté les bases d’une offre cloud d’intelligence artificielle. Trois services d’IA  étaient alors dévoilés : Amazon Rekognition (pour la reconnaissance d’images),  Amazon Polly (pour la synthèse vocale) et Amazon Lex (pour le pilotage d’interfaces conversationnelles). A cela venait s’ajouter l’infrastructure AMI AWS Deep Learning pour configurer des grappes de serveurs (Amazon EC2, GPU ou CPU) dédiées à l’apprentissage profond ou à l’exécution d’opérations d’inférence de modèles de machine learning. A l’occasion d’AWS re:Invent 2017 qui se tient cette semaine à Las Vegas, le cloud américain a livré toute une série de nouveautés dans l’optique de compléter l’édifice. Des évolutions qui dessinent désormais plus clairement les contours d’une plateforme d’IA.
« Le machine learning et le deep learning sont des domaines super stratégiques pour nous », martèle Andy Jassy, PDG d’AWS.
Côté IA orientée compréhension du langage, AWS introduit notamment une brique de natural language processing (NLP). Baptisée Amazon Comprehend, elle est dessinée pour identifier la teneur d’un texte (positif, négatif ou neutre) et en détecter les phrases clés et entités nommées (lieux, personnalités, marques, produits…). « Elle permet d’améliorer la capacité des bots à saisir les subtilités d’une question. Mais Comprehend pourra également aider à automatiser le traitement de gros volumes de documents, en vue de les classer, les référencer », insiste Andy Jassy.
Dans la même logique, AWS livre Amazon Transcribe : une interface de reconnaissance vocale pour automatiser la retranscription de discours audio (elle est limitée pour l’heure à la prise en charge de l’espagnol et de l’anglais). Mais aussi Amazon Translate pour gérer les traductions (avec à la clés le support de l’allemand, l’arabe, le chinois le français et le portugais). « Amazon Translate peut par exemple servir pour bâtir un chatbot de traduction basé sur Amazon Lex », commente Andy Jassy. Ces deux derniers services sont pour l’instant disponibles en bêta.
Sur le plan du traitement d’images, AWS lance en parallèle un service équivalent à Amazon Rekognition, mais pour la reconnaissance de contenus vidéo (Amazon Rekognition Video). Il est conçu pour identifier les visages ou objets (tels que des produits) apparaissant dans les séquences vidéo. « Il est capable d’ingérer à la fois des vidéos stockées sur Amazon S3 et des flux en streaming, en provenance d’objets connectés dotés d’une caméra par exemple. Pour gérer ce type de processus de streaming vidéo, nous lançons par ailleurs Amazon Kinesis Video Stream », précise-t-on chez AWS.
Fort de l’ensemble de ces nouveautés, Amazon avance désormais une infrastructure d’IA en concurrence de plus en plus frontale avec celles de Google (Google Cloud Machine Learning), IBM (Watson), Microsoft (AI platform) ou Salesforce (Einstein).
Un environnement de datascience
Ce n’est pas tout. Toujours en matière d’IA, AWS a profité de son événement mondial pour commercialiser un environnement de datascience. Le service en question, appelé SageMaker, couvre l’ensemble du cycle de vie d’un modèle d’apprentissage, depuis sa création jusqu’à son déploiement et sa maintenance en passant par « son entrainement ».
Développé en Python tout en étant compatible avec des langages tiers (comme R, C++…), SageMaker est optimisé pour exécuter divers frameworks d’auto-apprentissage (TensorFlow, Apache MXNet, Caffe…) et de nombreux algorithmes (clustering, régression linéaire, réseaux neuronaux…). En sortie, les modèles produits peuvent être déployés sous forme de containers Docker, exactement dans la même logique que ce que propose Azure Machine Learning de Microsoft.
DeepLens : la caméra conçue par AWS pour tester les modèles orientés reconnaissance d’image. © AWS
« SageMaker inclut des mécanismes d’A/B testing pour générer et benchmarker les modèles et détecter celui dont les prédictions seront les meilleures », indique Matt Wood, responsable du deep learning chez AWS. Dans ses futures versions, l’outil permettra en outre de faire appel à du machine learning pour aider aux paramétrages des critères de traitement d’algorithmes.
Pour accompagner SageMaker, AWS annonce en outre la sortie pour début 2018 d’une caméra HD programmable (alias AWS DeepLens) taillée pour tester des modèles de deep learning appliquées à la reconnaissance d’images ou de vidéos. Sous le capot, elle renferme un processeur Intel Atom qui, selon AWS, pourrait atteindre une fréquence de 100 milliards d’opérations par seconde.
Dotée d’une bibliothèque de modèles d’apprentissage préentrainés, « AWS DeepLens permet de développer un projet de deep learning en se basant sur les fonctions serverless Amazon Lambda », complète Matt Wood. Tarifée 249 dollars, la caméra d’Amazon est disponible en précommande. Sa sortie est prévue au premier semestre 2018.
L’IoT également mis dans la boucle
Toujours à l’occasion de ce re:Invent 2017, plusieurs nouveaux services orientés data ont aussi été présentés par Amazon. « Des services qui, par essence, peuvent servir de fondation en vue de réaliser les analyses à base d’IA », insiste Andy Jassy. Au programme : une offre cloud managée de base de graph (Amazon Neptune), une déclinaison serverless du serveur de données Aurora (Amazon Aurora Serverless), un dispositif de réplication automatique des tables DynamoDB sur plusieurs régions AWS (DynamoDB Global Tables), ou encore une fonction pour requêter (en SQL) des sets d’informations particuliers archivés sur les environnements de stockage Amazon S3 ou Glacier (S3 Select et Glacier Select). « Grâce à ce mécanisme de requêtage, il est désormais concevable de transformer son espace Glacier en data lake », insiste Andy Jassy.
Pour finir, AWS a avancé plusieurs nouveautés en matière d’IoT, parmi lesquelles un OS ciblant les microcontrôleurs (FreeRTOS) ou encore des services de gestion de parc d’objets et de sécurité (AWS IoT Device Management et AWS IoT Device Defender). Avec pour objectif de faciliter l’analyse des flux d’informations produits par les devices, l’une d’entre elles rejoint la problématique de l’intelligence artificielle. Il s’agit d’AWS IoT Analytics. Au-delà de la création de tableaux de bord de pilotage, cette solution a pour but, aussi, de préparer les flux remontés des wearables et autres dispositifs connectés (les nettoyer, les structurer) en vue de leur appliquer ensuite des traitements d’IA.
http://www.journaldunet.com/solutions/cloud-computing/1205443-amazon-dessine-les-contours-d-une-plateforme-cloud-d-intelligence-artificielle/

Avec SageMaker, AWS veut démocratiser l’accès au machine learning
« Avec SageMaker, AWS cherche à faciliter l’adoption des algorithmes d’intelligence artificielle auprès de ses utilisateurs. Managé de bout en bout, ce service permet de créer, entraîner et déployer des algorithmes d’apprentissage machine pour les applications d’entreprise en réduisant les charges manuelles associées à ces processus, le provisionnement d’infrastructures, mais aussi la gestion et l’ajustement des modèles d’entraînement. SageMaker permet aux data scientists, développeurs et experts du machine learning de bâtir rapidement des modèles et de les faire tourner à l’échelle souhaité, ainsi que l’explique dans un billet Randall Hunt, évangéliste technique senior d’AWS. L’ajout de fonctionnalités d’apprentissage machine aux applications s’en trouvera considérablement accéléré, souligne-t-il.
Derrière SageMaker se trouvent trois composants principaux. Premièrement, AWS fournit l’environnement de développement intégré Jupyter pour explorer, nettoyer et pré-traiter les données. Deuxièmement, un service permettra de construire des modèles distribués, de les entraîner et de les valider. Les entreprises pourront choisir parmi les algorithmes déjà réalisés et proposés par AWS ou bien importer un framework open source comme TensorFlow (développé par Google). Elles pourront aussi écrire et déployer leurs propres algorithmes avec les containers Dockers, directement dans SageMaker.
Enfin, troisièmement, on trouve dans SageMaker un service d’hébergement avec des terminaux https pour invoquer les modèles afin d’obtenir des inférences en temps réel, ainsi que l’explique AWS. Pour commencer à entraîner les modèles, on choisit un emplacement dans l’espace de stockage S3, ainsi que l’instance que l’on veut utiliser et, en un clic, SageMaker lance un cluster isolé et un réseau défini par logiciel avec des fonctions d’autoscaling et des pipelines de données. Des terminaux https sont donc utilisés pour l’hébergement des modèles. Leur puissance peut être augmentée pour supporter le trafic et faire de l’A/B testing simultanément sur plusieurs modèles. Les algorithmes peuvent être déployés directement en production à partir d’instances EC2, sur un clic. A la suite de quoi, ils seront déployés à travers plusieurs zones de disponibilité en bénéficiant de fonctions d’autoscaling.
HPO, une fonction pour optimiser le tuning de modèles
En général, le tuning de modèles est un exercice de test pour voir ce qui fonctionne. Mais SageMaker est fourni avec ce qu’AWS appelle des appels HPO, optimisation hyper paramètre. En cochant simplement une case, le service va lancer plusieurs copies du modèle d’entraînement et utiliser le machine learning pour repérer chaque changement en parallèle et ajuster les paramètres en conséquence.
Démocratiser l’apprentissage machine et l’IA, c’est donc l’un des messages-clés du keynote délivré d’Andy Jassy sur la conférence Re:Invent qui s’est tenue cette semaine à Las Vegas (du 27 novembre au 1er décembre). « Si vous voulez permettre à la plupart des entreprises d’utiliser le machine learning de façon expensive, nous devons résoudre le problème de l’accessibilité quotidienne aux développeurs et aux scientifiques », a déclaré le CEO. Dans cette perspective, SageMaker se présente sous une forme agnostive, supportant la plupart des frameworks les plus utilisés, depuis TensorFlow bien sûr, jusqu’à Caffe2 et à la propre bibliothèque Gluon d’AWS.
D’ores et déjà, TensorFlow est davantage utilisé sur AWS que n’importe où ailleurs, assure Andy Jassy, ce qui ne doit pas particulièrement réjouir l’équipe de la Google Cloud Platform. Quoi qu’il en soit, le principe général d’AWS est de fournir toutes les solutions les plus importantes « afin que vous ayez les outils dont vous avez besoin pour la tâche que vous voulez effectuer », a conclu le CEO. »
http://www.lemondeinformatique.fr/actualites/lire-avec-sagemaker-aws-veut-democratiser-l-acces-au-machine-learning-70151.html

Autres news Cloud

 NetApp affiche une croissance insolente et mise sur le cloud
« Après une mauvaise passe en 2014 et en 2015, NetApp poursuit un redressement spectaculaire, soutenu par le succès de ses baies Flash et par les améliorations apportées à son OS OnTap. L’alliance avec Microsoft Azure et la nouvelle offre HCI pourraient encore accélérer la croissance de la firme dans l’année à venir.
La semaine dernière, NetApp tenait sa conférence utilisateur européenne annuelle à Berlin, un événement durant lequel la firme a souligné la bonne santé de son activité. Mercredi 15 novembre, l’éditeur a ainsi présenté des résultats financiers trimestriels flatteurs qui contrastent singulièrement avec la morosité affichée depuis plusieurs trimestres par les acteurs traditionnels du stockage comme HPE, IBM ou Dell EMC.
Après un premier trimestre fiscal flatteur, la firme a vu son chiffre d’affaires progresser de 6 % sur un an, à 1,42 Md$ pour son second trimestre fiscal 2018. Dans le même temps, son bénéfice net est passé de 109 M$ à 175 M$. Mais Le plus impressionnant est sans doute que la firme a réussi à faire croître de 14 % ses ventes de systèmes de stockage, une croissance impressionnante dans un marché du stockage SAN et NAS largement déprimé.
La Flash et le succès des dernières moutures d’OnTap tirent les ventes
Après deux années difficiles, NetApp a corrigé les problèmes initiaux de Clustered OnTap et notamment les problèmes de migration et de performance des premières générations (les versions 7.x et dans une moindre mesure les premières versions 8.x). Depuis OnTap 8.3, la firme n’a cessé d’améliorer son OS. Ainsi, la plus récente mouture d’Ontap, la 9.3, promet des gains de performances pouvant atteindre 40 % par rapport aux versions antérieures et un taux de réduction de données jusqu’à 30 % meilleur.
Surtout, la firme a su tirer parti de la transition vers la Flash pour bâtir un portefeuille de baies séduisantes et performantes. La transition vers la Flash a été tellement rondement menée que dans certains pays NetApp dépasse désormais Dell EMC aussi bien sur le marché du NAS que sur celui du SAN. Selon NetApp, les ventes de ses systèmes Flash AFF, EF et SolidFire ont ainsi progressé de 60 % sur un an. NetApp note toutefois que sa marge de progression est encore forte dans la Flash. Un peu moins de 10 % de la base installée du constructeur aurait ainsi déjà migré vers cette technologie.»
http://www.lemagit.fr/actualites/450430355/NetApp-affiche-une-croissance-insolente-et-mise-sur-le-cloud

Ouverture imminente de deux datacenters Microsoft Azure en France
« C’est par un mail envoyé aux abonnés MSDN que Microsoft a confirmé l’imminence de l’ouverture de ses datacenters Azure en France. « Cloud ou pas Cloud ? Dans nos datacenters français ? », aguiche le mail des prochains Azure Days. « Vous le saurez en venant ou en vous connectant le 5 décembre ». Ces datacenters devraient se situer à Paris et à Marseille comme le confirme un communiqué de presse publié le 23 juin. Les datacenters, initialement prévus pour 2017, devraient être opérationnels d’ici la fin de l’année. Des clients sélectionnés sont actuellement en train d’en essuyer les plâtres, comme a pu le constater LeMagIT lors du salon Experiences (ex-TechDays) début octobre. L’annonce de la disponibilité commerciale officielle était en principe prévue pour janvier. Ces deux datacenters marqueront l’ouverture des deux régions, France Centre (Paris) et France Sud (Marseille) de Azure. »
http://www.lemagit.fr/actualites/450430317/Lessentiel-de-la-semaine-vue-par-LeMagIT-17-novembre

Azure Migrate : VMware n’approuve pas
« Désireux de concurrencer Amazon et sa solution VMware Cloud on AWS, Microsoft lance aujourd’hui son offre Azure Migrate. Première brique d’une suite d’offres dédiées, ce service gratuit doit faciliter la migration des applications VMware sur le cloud de Redmond, de la phase de découverte et d’assessment à l’hébergement, en passant par l’optimisation des coûts des ressources. Ainsi Azure Migrate comprend plusieurs autres outils Microsoft, tels que Azure Site Recovery, Azure Database Migration Service, Azure Backup, Azure Security Center ou encore Azure Cost Management.
Dans son communiqué, Microsoft explique vouloir « répondre à une requête fréquemment entendue de migrer des charges de travail VMware sur site vers Azure ». En outre, l’éditeur lance une version Preview de son futur service VMware virtualization on Azure, une « solution bare-metal qui exécute la pile VMware complète sur le matériel Azure, co-localisée avec d’autres services Azure en partenariat avec des partenaires certifiés VMware ». De quoi chasser les clients de l’offre de son concurrent VMware Cloud on AWS.
VMware furieux
Sauf que Microsoft devra se passer du soutien de VMware, qui semble avoir appris l’existence de cette offre à l’occasion de son lancement. « Aucun nom de partenaire certifié VMware n’a été mentionné et aucun partenaire n’a collaboré avec VMware pour concevoir de cette offre. Cette offre a été développée indépendamment de VMware et n’est ni certifiée ni prise en charge par VMware » souligne Ajay Patel, Vice President en charge des service cloud chez VMware.
Le géant de la virtualisation semble particulièrement énervé d’être mis devant le fait accompli par Redmond. « Nous ne pensons pas que cette approche offrira une bonne solution à leurs clients multicloud ou hybride » écrit encore Ajay Patel. VMware fait ainsi savoir qu’il ne recommande pas l’utilisation de ce service et qu’il « ne prendra pas en charge les clients s’exécutant sur l’offre de partenariat annoncée par Azure ». »
https://www.linformaticien.com/actualites/id/45697/azure-migrate-vmware-n-approuve-pas.aspx

Gestion de la mobilité : IBM ouvre un Cloud Maas360 en France
« IBM fait le choix du local pour ses services Cloud. Plus particulièrement pour MaaS360 with Watson. Big Blue annonce aujourd’hui l’ouverture d’un nouveau datacenter Cloud en France dédié à son offre cognitive de gestion unifiée des terminaux (UEM).
Pour l’heure, l’entreprise d’Armonk reste discrète sur les capacités de son datacenter. Tout ce que l’on sait est que le centre est implanté en région parisienne. De plus amples détails devraient être fournis le 6 décembre prochain.
En vue du RGPD
En choisissant de localiser sa solution sur le sol national, IBM entend mieux servir et rassurer les utilisateurs. D’abord en garantissant l’hébergement des données en France. Ensuite, en assurant la préservation des données personnelles de chaque utilisateur. Deux points qui entendent aider les entreprises à se conformer au RGPD (ou GDPR), le règlement européen sur la protection des données personnelles qui entrera en vigueur le 25 mai 2018.
Qui plus est, le fournisseur américain assure mettre à disposition une équipe locale d’experts qui pourront au besoin assister les clients dans le déploiement de la solution (via les Mobility Success Services) en s’exprimant dans la langue de Molière. Un service appréciable pour les utilisateurs n’étant pas très à l’aise avec celle Shakespeare.
Toutes les plates-formes mobiles
MaaS360 with Watson intéressera les entreprises qui souhaitent gérer et sécuriser les données de leurs terminaux mobiles, smartphones, tablettes, PC et autres objets connectés sous Android, iOS et Windows. L’offre SaaS propose la gestion des terminaux comme celle des applications et des identités tout en offrant le contrôle des dépenses ou encore des outils de synchronisation et d’édition de documents bureautiques.
Des services d’information et d’analytique sont également proposés à travers Watson aux côtés de solutions de protection contre les menaces avec IBM X-Force. Des solutions qui, en France, ont séduit des entreprises comme Vinci Energies, le Groupe Coriance ou encore Bouygues Telecom Entreprise.
La France s’inscrit comme le 6e Cloud MaaS360 dans le monde (sur les 47 datacenters qu’exploite IBM dans 26 pays). D’autres ouvertures de centres SaaS dédiés à la gestion unifiée des terminaux sont attendus en 2018. »
https://www.silicon.fr/gestion-de-la-mobilite-ibm-ouvre-un-cloud-maas360-en-france-191843.html?inf_by=5981ddaf671db8ef0e8b4a7e

 

 

 

 

Laisser une réponse