Revue de Presse du 1er au 15 mars

Revue de Presse du 1er au 15 mars

150 150 Team Gekko

L’actualité Cloud décortiquée par Gekko !

Cloud : les entreprises face à la maîtrise des coûts
451 Research constate que les entreprises ne maîtrisent pas encore totalement les modèles de consommation et de coûts qu’engendre l’adoption du cloud.
Les entreprises en sont, dans leur adoption du cloud, au stade où elles ne maîtrisent encore que partiellement les coûts.
C’est l’un des principaux enseignements d’un rapport signé 451 Research.
Le cabinet américain de recherche et de conseil IT fait le parallèle avec le paradoxe de Jevons, du nom d’un économiste britannique qui a énoncé que plus une énergie est simple d’utilisation et peu coûteuse, plus sa consommation totale augmente.
Appliquée à la technologie, cette théorie aussi appelée « effet rebond » induit, selon 451 Research, plusieurs problématiques.
D’une part, l’utilisation des ressources devient d’autant plus difficile à contrôler qu’elles sont faciles d’accès. De l’autre, les entreprises ont tendance à en provisionner plus que nécessaire. Elles ont par ailleurs tendance, entre autres par manque de visibilité, à sous-estimer certains postes de dépenses tels que la bande passante.
Or, le premier levier d’adoption du cloud réside précisément dans les économies potentielles : 38,8 % des 490 DSI qui se sont prononcés à cet égard dans le cadre de l’étude trimestrielle « Voice of the Enterprise » les ont évoquées, contre 32,2 % pour la flexibilité, 26,9 % pour la disponibilité des ressources et 23,5 % pour la gestion simplifiée.
Apprendre à contrôler
Dans la pratique, les coûts représentent le principal point noir une fois finalisée la migration, qui elle-même peut requérir de remodeler certaines applications : ils sont cités par 53,2 % des 534 DSI répondants, contre 46,6 % pour la sécurité, 43,3 % pour la conformité et 27,2 % pour le manque de personnel.
Quelles réponses face à cet enjeu ? Ils sont 34,2 % à affirmer avoir défini des politiques d’utilisation, quand 26,9 % disent avoir mis des règles en place. Certains suivent l’utilisation du cloud sans la contrôler (18,6 %), quand d’autres reconnaissent ignorer les ressources consommées (7,3 %).
Dans ce contexte, des entreprises font partiellement machine arrière : plus d’un tiers des DSI déclarent avoir, au cours des 12  derniers mois, rebasculé au moins une application en interne.
Si bien que les principaux fournisseurs de cloud public ont pris des initiatives, à l’image d’AWS avec les instances réservées ou de Google avec un système de remises sur engagement.
http://www.itespresso.fr/cloud-maitrise-couts-courbe-apprentissage-entreprises-185314.html

AWS : 12 ans en 12 dates clés
Amazon Web Services (AWS) fête plus d’une décennie d’activité. Retour en douze dates sur la montée en puissance du pionnier des services cloud.
Il y a douze ans le marchand en ligne américain Amazon.com lançait sa filiale cloud Amazon Web Services (AWS). L’entreprise est depuis devenue une référence mondiale du marché des services cloud d’infrastructure. Et un moteur de croissance pour Amazon.
Voici 12 dates qui comptent dans l’histoire d’AWS :
– Mars 2006 : lancement du service de stockage Amazon Simple Storage Service (S3) ;
– Août 2006 : lancement d’EC2 et d’une première « Région AWS US » (Virginie du Nord) ;
– Décembre 2008 : ouverture d’une première Région AWS Europe à Dublin (Irlande) ;
– Avril 2009 : Amazon lance Elastic MapReduce (EMR), une infrastructure Hadoop ;
– Mars 2011 : AWS ouvre une Région en Asie, à Tokyo (Japon) ;
– Novembre 2012 : lancement du service d’entrepôt de données Amazon Redshift ;
– Décembre 2013 : AWS est lancé en Chine, le service est opéré par Sinnet ;
– October 2014 : ouverture de la Région AWS EU Francfort (Allemagne) ;
– Juin 2016 : AWS gagne Bombay (Inde) ;
– Juin 2016 : AWS lance le stockage de fichiers Elastic File System (EFS) ;
– Décembre 2016 : inauguration de la Région AWS Europe Londres (UK) ;
– Décembre 2017 : ouverture d’une quatrième Région AWS EU à Paris.
La régionalisation de l’infrastructure permet aux clients d’AWS, des grands groupes des secteurs privé et public aux entreprises de taille moyenne et aux start-up, d’exécuter des applications et stocker leurs données dans des datacenters locaux.
En France, AWS revendique « des dizaines de milliers de clients », parmi lesquels 80% des entreprises du CAC 40, dont Capgemini, Engie, la Société Générale ou encore Veolia.
10 % du chiffre d’affaires d’Amazon
À l’échelle mondiale, Amazon Web Services domine le marché Cloud d’infrastructure, devant Microsoft Azure. AWS est ainsi une machine à revenus pour Amazon.
Le poids d’AWS dans le chiffre d’affaires du groupe est passé de 5 % en 2014 à 10 % l’an dernier. Soit 17,46 milliards de dollars, dont 5,11 milliards sur le seul 4e trimestre (+ 45 %).
https://www.silicon.fr/12-ans-aws-amazon-web-services-202971.html

VMware se met à l’heure européenne avec Amazon Web Services
Amazon Web Services ouvre, dans son datacenter de Londres, l’offre montée avec VMware pour faciliter la migration de charges de travail vers le cloud public.
Il y a du nouveau dans le datacenter londonien d’Amazon Web Services.
Le groupe américain y ouvre une offre lancée voilà six mois et jusqu’alors limitée à deux zones de disponibilité aux États-Unis : VMware Cloud sur AWS.
Le service est destiné à simplifier la migration des charges de travail vers le cloud public.
Il permet d’exécuter la pile SDDC (datacenter défini par logiciel) de VMware sur l’infrastructure AWS. En l’occurrence, sur des hôtes équivalents à des instances EC2 I3.16XL (2 sockets de 18 cœurs, 512 Go de RAM et 13,8 To de stockage brut).
Les deux environnements partagent les mêmes outils d’administration et de gestion des politiques (une instance de serveur vCenter étant déployée dans le cadre de chaque SDDC).
Les machines virtuelles, dont la migration peut se faire à froid ou en « mode lié hybride » avec un seul écran de gestion, ont la possibilité de se connecter à des ressources AWS natives : instances Amazon EC2, compartiments de stockage S3, bases de données RDS…
L’offre est utilisable à la demande ou sur contrat pour 1 ou 3 ans. La prise en charge de la compression et de la déduplication via VMware vSAN vient d’y être ajoutée, tout comme des intégrations avec AWS CloudFormation et Hashicorp Terraform pour automatiser le provisionnement.
Parmi les fonctionnalités en cours de déploiement figure la capacité à étendre un cluster (4 à 16 hôtes, chaque SDDC prenant en charge jusqu’à 10 clusters) sur deux zones de disponibilité AWS et à migrer des charges de travail.
Après le Royaume-Uni, il est question, selon Les Échos, de déployer l’offre dans les installations d’AWS en Allemagne. Aucune annonce n’est faite pour la France, où des datacenters ont ouvert en décembre dernier.
VMware dispose de partenariats similaires avec IBM et Microsoft.
http://www.itespresso.fr/vmware-heure-londonienne-amazon-web-services-185150.html

AWS baisse le prix de son service de communications unifiées Chime
Les services de communications unifiées dans le cloud (UcaaS) ont le vent en poupe et attisent les convoitises de nombreux acteurs. Non seulement ceux issus du domaine traditionnel des réseaux et télécoms (Orange Business Services, Cisco, Mitel…) mais aussi des grands éditeurs généralistes (Google, Microsoft…) que des pure players comme RingCentral ou encore LogMeIn qui vient de mettre la main sur Jive Communications pour 357 millions de dollars. C’est donc sans surprise que l’on a appris en février 2017 l’arrivée sur ce marché d’Amazon Web Services avec sa propre offre UcaaS.
Baptisée Chime, cette solution de communications unifiées dans le cloud a fait son apparition avec le lancement de la solution de bureau virtuel (DaaS) WorkSpaces, comprenant une suite bureautique (WorkDocs), un service de messagerie (WorkMail) ainsi que le service de veille économique QuickSights. Alors que jusqu’à présent AWS proposait 3 types de tarification, Basic, Plus et Pro, le géant américain du cloud vient de réviser à la baisse le tarif de son offre la plus complète. Ainsi, à compter du 1er avril 2018, les utilisateurs vont bénéficier d’une période d’essai gratuite de 30 jours. Après, aucune facturation ne sera effectuée pour ceux qui utilisent Chime Pro pour du chat et participent à des meetings. Seul l’hébergement de meeting sera payant, 3 dollars par jour, et limité à 15 dollars maximum par mois.
https://www.lemondeinformatique.fr/actualites/lire-aws-baisse-le-prix-de-son-service-de-communications-unifiees-chime-71143.html

Big Data Paris 2018 : Des projets en production à pérenniser
RGPD, prépondérance des algorithmes, mais aussi diversification des offres de PaaS big data ou projets IoT figurent parmi les focus de Big Data Paris 2018. Du côté des entreprises, on s’attelle à pérenniser les projets en production, après les premiers chantiers réussis.
Ouvert hier matin pour deux jours au Palais des Congrès de la porte Maillot, le salon Big Data Paris en est déjà à sa 7ème édition avec, toujours, une forte affluence dans ses allées, tant sur les stands d’éditeurs historiques comme Teradata, Microstrategy et SAP, que d’acteurs comme Hortonworks, Cloudera et MapR ou d’un Confluent qui s’est focalisé sur la plateforme de gestion de flux de données Apache Kafka, de nouveaux venus comme Snowflake dans le datawarehouse cloud ou d’acteurs français tels qu’Advanced Schema, Dataiku ou Saagie qui vient de lever 5 M€ sur sa solution big data. L’ombre portée du RGPD marque le salon, à quelques semaines de l’entrée en vigueur du règlement européen sur la protection des données personnelles, de même que les débats qui se multiplient sur l’importance prise par les algorithmes et l’emprise de l’intelligence artificielle.
En ouverture de séance plénière, Mounir Mahjoubi, secrétaire d’état chargé du Numérique, a notamment abordé la portabilité des données personnelles conservées par les plateformes Internet, suggérant aux utilisateurs de réclamer leurs données aux GAFA. Lui-même dit avoir ainsi récupéré, sur 2 CD, douze années de commandes faites sur Amazon. En cours de matinée, le grand amphithéâtre du Palais des Congrès a ensuite accueilli une table ronde sur la place de l’humain dans les processus big data. Laurence Devillers, chercheuse au LIMSI-CNRS (laboratoire de recherche en informatique pluridisciplinaire), a rappelé la création il y a 3 mois de DATAIA, institut de convergence dédié aux sciences de la donnée et à leurs enjeux socio-économiques en France. L’un des objectifs, a-t-elle expliqué, est de « rendre plus compréhensibles ces systèmes de boîtes noires » qui font appel à des technologies comme le deep learning, et « de demander aux industriels qui les fabriquent de les rendre plus lisibles » car on va y être connectés de plus en plus, dans des domaines aussi sensibles que la santé, en particulier. « L’intérêt de l’institut est de mettre ensemble des chercheurs et des industriels pour mieux comprendre ces manipulations », a-t-elle ajouté en indiquant travailler aussi avec des juristes, des économistes et des chercheurs venant d’autres pays : « Il faut réfléchir à ces objets qui viennent de partout et les penser avec l’humain au centre ».
Deezer injecte de la culture dans l’algorithme
A ses côtés, Alexis de Gemini, PDG du site français Deezer, a expliqué à son tour comment son service réintroduisait de l’humain pour éditorialiser l’écoute de musique en streaming et faire découvrir à ses abonnés des morceaux qu’ils n’auraient pas spontanément souhaité écouter. Pour faire des recommandations musicales à un instant T en tenant compte de différents critères, « nous avons besoin d’analyser de l’information et d’un algorithme, mais également de collaborateurs qui écoutent de la musique dans le monde entier ». C’est l’algorithme et les méta-données associées qui permettent de faire des propositions. « Nous développons une sorte de veille transversale du Net, et c’est là où l’intelligence artificielle nous aide, pour voir ce qui se recommande sur toutes les plateformes de référence », explique Alexis de Gemini. « Nous nous servons de cela pour enrichir la sélection des bons morceaux. » Deezer fait notamment une analyse sémantique des articles de journalistes spécialisés à travers le monde.
Interpellé sur la « bulle de filtre » qui, par une trop forte personnalisation, risque d’enfermer les utilisateurs dans un isolement intellectuel, le PDG de Deezer considère qu’il s’agit effectivement d’un point très important. « Je me bats toute la journée contre la mentalité algorithmique que peuvent avoir certains de nos ingénieurs et développeurs parce que nous devons remettre des passerelles entre les musiques et ça, ça requiert de la culture », fait remarquer Alexis de Gemini. « Savoir qu’un morceau de Nina Simone a été samplé par l’artiste de musique électronique St Germain et que quelqu’un qui n’écoute que de l’électro va découvrir le jazz grâce à lui, l’algorithme ne le sait pas », pointe-t-il. « Alors on peut l’aider et lui dire quand il y a du jazz dans un morceau ». L’éditeur français travaille avec des organismes spécialisés dans la reconnaissance audio pour identifier par exemple qu’il y a un sample de jazz dans un morceau. « Et l’on essaie petit à petit d’entraîner nos machines pour qu’elles soient plus intelligentes dans l’ouverture culturelle », explique Alexis de Gemini. Interrogé sur l’usage fait par Deezer des play lists de ses utilisateurs, en dehors des recommandations, le PDG reconnait que « vos goûts musicaux disent énormément de vous », mais il assure que le site « ne fait pas commerce de la cartographie musicale [de ses abonnés] pour l’instant ».
Embarquer les métiers aux côtés des data scientists
Sur l’espace d’exposition, la forte fréquentation des stands manifestait l’intérêt des visiteurs, notamment sur les présentations ponctuelles proposées par les éditeurs. Croisé dans les allées, Florian Douetteau, PDG de Dataiku, relève l’aspect de maturité de ce rendez-vous désormais établi, avec des clients qui passent maintenant en production après de premiers cas d’usage big data couronnés de succès. Dans les entreprises se pose alors la question de la pérennité des projets à 3, 4 ou 5 ans avec des réflexions sur les recrutements à mener et les compétences à associer, nous a exposé le PDG de l’éditeur français. « Quelles vont être mes prochaines recrues si je fais passer mes équipes data à l’échelle, en interne ou en externe, et pas uniquement avec des data scientists ? ». L’enjeu, souligne le fondateur de la plateforme de data science, « c’est de faire travailler à long terme des data scientists avec des profils qui viennent de la BI et qui sont plus des business analysts ». Après les premiers parcours big data réussis, menés avec enthousiasme sur des périmètres spécifiques et nouveaux, par exemple sur des catégories de clients non traitées jusque-là, il faut désormais transformer ces essais en les intégrant dans les projets existants qui n’auront peut-être pas le même impact. Mais, surtout, il faut cette fois « embarquer les métiers dès le début » aux côtés des data scientists, pointe Florian Douetteau.
Des outils pour maintenir les modèles développés
Parmi les évolutions apportées à l’offre Dataiku, Florian Douetteau souligne par ailleurs le changement de paradigme intervenu avec la multiplication des modèles de données. Les équipes de marketing peuvent se retrouver avec 20, 30 ou 40 modèles de scoring pris en charge par des effectifs de data scientists qui restent souvent limités, notamment dans les entreprises plus petites. Pour maintenir ces modèles dans le temps, la plateforme Dataiku s’est enrichie fin 2017 de fonctions pour en gérer le cycle de vie, avec des alertes, par exemple en cas de données manquantes, lorsqu’un modèle s’étiole ou lorsque l’on s’aperçoit de dérives sur le réentrainement d’un modèle (qui s’effectue par exemple toutes les semaines).
Autre enjeu, le règlement sur la protection des données personnelles. « Le GDPR est dans la tête de tout le monde et sa mise en œuvre, importante, oblige à comprendre quelles données sont utilisées et où elles le sont, à être plus fin pour savoir si une donnée est personnelle ou pas, savoir dans quel contexte chacune a été connectée et savoir la tracer dans le SI de l’entreprise », rappelle Florian Douetteau. Il faut donc, selon lui, des systèmes beaucoup plus intégrés pour gérer les données brutes de bout en bout et pas de façon tronçonnée dans 3 ou 4 systèmes différents. Le GDPR pourrait alors servir de catalyseur pour gérer les données de manière transverse avec une responsabilité globale confiée à un chief data officer. En septembre, lors de la levée de fonds de 23,5 M€, le PDG de Dataiku nous avait expliqué vouloir faire de Dataiku la plateforme sur laquelle on capitalise.
PaaS Analytics en bêta chez Cloudera
Du côté des fournisseurs américains, MapR Technologies a annoncé il y a quelques jours une évolution de Data Fabric for Kubernetes qui étend l’intégration des containers dans sa plateforme Converged Data. La solution fournit du stockage persistant pour les containers et permet le déploiement d’applications conteneurisés « stateful », en assurant la persistance de leur état. Cloudera, pour sa part, met toujours l’accent sur son PaaS Altus lancé l’an dernier sur la partie Engineering pour le traitement des données. Celui-ci arrive en bêta sur sa partie analytique proposant un service de datawarehouse, nous a indiqué sur le stand de l’éditeur Sarah Lallam, responsable marketing France et Moyen-Orient de Cloudera. Bâti pour simplifier les projets big data, ce PaaS peut être déployé sur les clouds publics AWS et Azure, nous a-t-elle rappelé, en mentionnant par ailleurs la sortie il y a quelques mois de la plateforme collaborative Data Science Workbench. Celle-ci permet aux data scientists – travaillant avec R, Python, Spark ou Scala – de gérer leurs processus de traitement de données (préparation, monitoring, alertes) et de prototyper des projets d’apprentissage machine. Dans le domaine du machine learning, Sarah Lallam a également mentionné le rachat en septembre dernier du cabinet de conseil Fast Forward Labs, spécialisé en IA.
Confluent, des services pour maîtriser Apache Kafka
Près des stands Dataiku et MapR, l’éditeur Confluent, créé il y a 3 ans par une partie des développeurs d’Apache Kafka, présentait son offre de services. La société a ouvert des bureaux en France en août après s’être installée à Londres en janvier 2017. La plateforme de gestion de flux de données en temps réel Kafka, qui se présente comme une technologie de pub/sub, permet de gérer et stocker indéfiniment les données. Parmi les cas d’usage figurent en particulier les applications de low latency trading dans le secteur bancaire ou encore la connaissance client 360 pour réagir en temps réel à un achat, nous a notamment cité Leo Delmouly, de l’équipe commerciale de Confluent France.
Parmi les utilisateurs français, une grande banque gère un data hub pour des flux de données « client facing » sur des applications en temps réel. Parmi les cas d’usage bancaire, Kafka peut être utilisé pour savoir, par exemple, combien de fois un client utilise son app mobile par jour afin de réagir avec lui en temps réel sur le meilleur canal. La plateforme de streaming est néanmoins assez complexe à utiliser en production lorsque l’on ne dispose pas des bonnes compétences, rappelle Leo Delmouly. D’où la création de Confluent qui propose des services, par exemple pour répliquer des données entre datacenters, migrer vers le cloud, etc.
Nodata gère les méta-données et laisse les données sur site
Parmi les nombreux éditeurs français présents sur Big Data Paris, Advanced Schema, disposait d’un stand spacieux pour présenter sa plateforme Nodata (not only data). Cette entreprise de services numériques fondée il y a plus de 15 ans, regroupe 180 personnes dont une soixantaine en R&D. Après avoir accompagné pendant de nombreuses années ses clients sur la mise en place de datawarehouses en créant ses propres outils pour le faire, elle a lancé il y a deux ans, à travers sa filiale Nodata, une solution cloud de gestion des données (collecte, intégration, modélisation, tableaux de bord) qui permet aux entreprises de conserver leurs données chez elle si elles le souhaitent. « La solution travaille sur les métadonnées », nous a expliqué Nicolas Brigitte-Alphonsine, PDG de Nodata. « Elle a été préparée dans le cloud, mais nos clients ont des problématiques réglementaires fortes ». D’où la proposition de conserver les données où elles se trouvent. « La plateforme va connaître le contour des données, les métadonnées, le nom de la table, la forme du graphique, etc. Ce sont les informations que nous stockons. En revanche, nous ne stockons pas les données elles-mêmes, nom du client, etc. ». La solution Nodata comporte une partie logicielle à installer sur l’infrastructure du client. Parmi ses utilisateurs figurent le groupe Renault et sa filiale bancaire RCI Bank and Services, ainsi que le groupe d’assurance et gestion de patrimoine SwissLife.
IoT au coeur du big data
Les projets liés à l’Internet des objets constituent également une part importante du salon Big Data Paris, à travers les conférences, notamment hier celle de Schneider Electric au cours de laquelle Rodolphe Heliot, directeur de l’incubation business du groupe, a expliqué comment les outils analytiques étaient embarqués dans le matériel sur le terrain pour injecter des analyses dans les workflows des clients en temps réel. « Il faut vraiment comprendre l’ensemble du workflow du client pour ajouter des services et rendre le big data vraiment exploitable », a-t-il souligné en précisant que Schneider Electric travaillait avec plus de 20 000 intégrateurs systèmes et développeurs. Des fournisseurs comme Teradata et SAP présentaient également leurs solutions IoT.
https://www.lemondeinformatique.fr/actualites/lire-big-data-paris-2018-des-projets-en-production-a-perenniser-71136.html

Microsoft ouvre officiellement ses datacenters en France
La disponibilité générale des datacenters Azure français est officialisée par Microsoft cette semaine sur l’événement Tech Summit (14 et 15 mars à Paris Expo). Parmi les 1ers clients, la Centrale d’achat de l’informatique hospitalière et le Conseil départemental du Val d’Oise utilisent les services bureautiques et collaboratifs Office 365.
Annoncée depuis fin 2017, l’ouverture des 4 datacenters français de Microsoft vient d’être officialisée à l’occasion du Tech Summit organisé par l’éditeur les 14 et 15 mars au Parc des Expositions de la Porte de Versailles. Les entreprises peuvent désormais accéder à des services Azure et Office 365 hébergés dans trois datacenters situés en Ile-de-France, le 4ème se trouvant à Marseille. Ces quatre implantations constituent 2 régions supplémentaires dans le réseau mondial d’Azure qui en compte 50 en incluant des projets pour 12 nouvelles régions. Selon Microsoft, cette activité génère plus de 20 milliards de dollars dans son chiffre d’affaires.
Le fournisseur américain en profite pour rappeler qu’il adopte sur ses régions françaises les clauses contractuelles types définies par l’Union européenne et qu’il garantit à ses clients hexagonaux la transparence sur ses engagements contractuels. Microsoft rappelle que la certification ISO 27001 est revue tous les ans et que, conformément aux exigences du RGPD, chaque client peut récupérer ses données et ses applications métiers quand il le désire. L’éditeur souligne par ailleurs que la région parisienne sera l’une des premières du réseau Azure à apporter une garantie de disponibilité et de service de 99,99%.
Hébergement en France, facteur déterminant pour la CAIH
Parmi les premiers utilisateurs intéressés par un hébergement des données en France, la Centrale d’achat de l’informatique hospitalière (CAIH) et le Conseil départemental du Val d’Oise, qui ont retenu la suite bureautique cloud Office 365. Ils participent au lancement officiel de ces datacenters français. Cette ouverture fait suite à une préversion de quelques semaines au cours de laquelle « plusieurs milliers de clients et partenaires » ont pu tester et déployer des services cloud hébergés sur le territoire, selon Bernard Ourghanlian, CTO et CSO de Microsoft France. Pour Guillaume Deraedt, président du comité technique de la CAIH, cette disponibilité depuis la France « a été un facteur déterminant » pour choisir la solution. La Centrale d’achat veut simplifier pour ses adhérents un « partage sécurisé de l’information entre les professionnels de santé tout en garantissant la confidentialité des données et la maîtrise de la réversibilité », explique-t-il dans un communiqué.
Le fournisseur américain profite de ce Tech Summit parisien pour annoncer la prochaine ouverture d’autres datacenters en Europe et au Moyen-Orient. Jason Zander, vice-président corporate au sein de l’équipe Azure, indique dans un billet que de nouvelles régions cloud se préparent en Suisse, ainsi que l’extension des options pour les clients en Allemagne. « Sur les 3 dernières années, Microsoft a plus que doublé le nombre de régions Azure disponibles », écrit-il en dévoilant également des projets d’implantation au Moyen-Orient, aux Emirats arabes unis. D’ici 2019, les services Azure, Office 365 et Dynamics 365 seront accessibles depuis des datacenters installés à Abu Dhabi et Dubai. L’an dernier, la firme dirigée par Satya Nadella avait annoncé l’ouverture de datacenters à Johannesburg et au Cape Town en 2018.
https://www.lemondeinformatique.fr/actualites/lire-microsoft-ouvre-officiellement-ses-datacenters-en-france-71156.html

Collaboratif : Airbus lâche Microsoft Office pour G Suite de Google
L’offre de cloud de Google monte en puissance chez Airbus, qui va remplacer Office par G Suite pour quelque 130 000 employés.
Airbus bascule ses outils collaboratifs dans le cloud… et abandonne, à cette occasion, Microsoft Office au profit de G Suite.
Le Register dit avoir pu consulter la note dans laquelle Tom Enders, CEO du groupe aéronautique, annonce la nouvelle aux employés.
Ils sont plus de 130 000 concernés par ce que le dirigeant présente comme une « transition majeure » ; une « rupture avec le passé » et le début d’un « voyage vers une entreprise vraiment collaborative ».
18 mois pour migrer l’ensemble du parc
Un délai de 18 mois a été fixé pour boucler cette migration qui s’inscrit dans le cadre d’un plan de transformation numérique dont le machine learning est l’un des grands axes.
En la matière, Airbus a déjà frappé à la porte de Google, pour corriger, sur les images satellite de sa branche Defense & Space, les imperfections liées à la présence de formations nuageuses, que la machine peine traditionnellement à distinguer de la neige.
Aucun des deux groupes – pas plus que Microsoft – n’émet, pour l’heure, de commentaire sur le volet bureautique. […]
https://www.silicon.fr/airbus-substitue-google-microsoft-collaboratif-saas-203275.html

Laisser une réponse