Revue de Presse du 1er au 15 octobre

Revue de Presse du 1er au 15 octobre

150 150 Team Gekko

L’actualité Cloud & AWS décortiquée par Gekko !

AWS

Lancement d’une réduction accélérée des environnements de calcul managés AWS Batch
Amazon EC2 est récemment passé à la facturation par seconde. Auparavant, une fois les travaux finis, AWS Batch conservait les ressources de calcul disponible pour la majorité de l’heure facturable afin d’éviter le coût associé aux instances additionnelles lancées pendant cette heure. Avec la facturation à la seconde, les clients AWS peuvent se concentrer sur leurs applications au lieu de maximiser l’usage à l’heure. Ainsi, AWS Batch va évaluer les ressources de calcul plus fréquemment et réduire immédiatement toutes les instances disponibles quand il n’y a plus de travaux en attente.
https://aws.amazon.com/fr/about-aws/whats-new/2017/10/announcing-accelerated-scale-down-of-aws-batch-managed-compute-environments/

Le service de migration de bases de données AWS ajoute Amazon S3 et la base de données Azure SQL comme sources
Le service de migration de bases de données AWS (DMS) a ajouté Amazon Simple Storage Service (S3) et la base de données Azure SQL comme sources de migration. Amazon S3 est un stockage objet avec une interface web simple pour stocker et retrouver n’importe quelle quantité de données. Maintenant que S3 est supporté tant comme source que comme cible, il est possible de bouger facilement les données entre des buckets S3 et n’importe quelle base de données supportée par DMS.
DMS supporte maintenant une pleine charge depuis les instances de bases de données Azure SQL vers un serveur de basee de données SQL tournant sur Amazon EC2 ou Amazon RDS, ou vers une base de données open source ou toute autre cible supportée par DMS. Ceci ouvre à la fois la mobilité du vendeur cloud et la mobilité de la base de données.
https://aws.amazon.com/fr/about-aws/whats-new/2017/10/aws-database-migration-service-adds-amazon-s3-and-azure-sql-database-as-sources/

Lancement du module de migration ATADATA ATAmotion avec le Hub de migration AWS
Dès aujourd’hui ATADATA ATAmotion devient un outil partenaire de migration intégré pour offrir plus de choix. Ainsi, il est possible d’utiliser les outils de migration qui fonctionnent le mieux pour votre organisation. Par exemple, vous pouvez chercher les migrations de serveurs depuis ATADATA ATAmotion en même temps que les migrations de bases de données depuis le Service de Migration de Bases de Données AWS, tout ça depuis un emplacement central dans le Hub de Migration.
https://aws.amazon.com/fr/about-aws/whats-new/2017/

Elastic Load Balancing: l’application Load Balancer supporte maintenant de multiples certificats SSL et la Sélection Smart Certificate en utilisant le Server Name Indication (SNI)
Il est maintenant possible d’héberger plusieurs applications sécurisées, chacune avec son propre certificat SSL, derrière un seul load balancer. Ceci simplifie grandement le management des applications puisque de nombreuses applications sécurisée ou multi-tenant SaaS peuvent tourner derrière le même load balancer.
Avant ce lancement, l’application Load Balancer supportait seulement un certificat pour un écouteur HTTPS standard (port 443) et il fallait utiliser des certifications Wildcard ou Multi-Domaines (SAN) pour héberger plusieurs applications sécurisées derrière le même load balancer. Les risques potentiels de sécurité avec les certificats WIldcard et du management opérationnel vertical des certificats Multi-Domaines présentaient des challenges. Avec le support SNI, il est possible d’associer plusieurs certificats avec un écouteur et chaque application sécurisée derrière un load balancer peut utiliser son propre certificat.
L’application Load Balancer supporte également un algorithme de sélection de certificats intelligent avec SNI. Si le nom indiqué par le client correspond à plusieurs certificats, le load balancer détermine le meilleur certificat à utiliser selon différents facteurs comme les capacités du client.
SNI est intégré avec AWS Certificate Manager (ACM) et AWS Identity and Access Management (IAM) pour le management de certificats. Il est possible d’associer jusqu’à 25 certificats à un load balancer.
https://aws.amazon.com/fr/about-aws/whats-new/2017/10/elastic-load-balancing-application-load-balancers-now-support-multiple-ssl-certificates-and-smart-certificate-selection-using-server-name-indication-sni/

Lambda@Edge fournit à présent un accès à des paramètres de requêtes de type Pays et périphérique
Lambda@Edge vous permet de personnaliser du contenu avec une faible latence, sans avoir à manager les serveurs d’origine. Dès aujourd’hui, Lambda@Edge permet de personnaliser votre contenu encore plus facilement en vous donnant accès à des attributs additionnels de la requête. Vous pouvez à présent accéder à des paramètres de requête de type Pays et Périphérique dans vos fonctions Lambda. Avec cette possibilité, vous pouvez par exemple rediriger vos utilisateurs finaux vers des versions spécifiques de votre site web dans des langues différentes selon la localisation de l’utilisateur d’où la requête a été faite. Cette fonctionnalité n’implique pas de frais additionnels.
https://aws.amazon.com/fr/about-aws/whats-new/2017/10/lambda-at-edge-now-provides-access-to-query-string-parameters-country-and-device-type-headers/

AWS et Microsoft annoncent Gluon pour simplifier le Deep Learning pour les développeurs
Aujourd’hui, AWS et Microsoft ont annoncé une nouvelle librairie de deep learning baptisée Gluon, qui permet aux développeurs de tous niveaux de pouvoir concevoir, construire et déployer des modèles de machine learning sophistiqués pour le cloud.
Avec Gluon, les développeurs peuvent construire des modèles de machine learning en utilisant une simple API Python et un certain nombre de composants pré-construits et optimisés pour réseau neuronal. Ceci facilite la construction de réseaux neuronaux pour les développeurs en utilisant du code simple et concis sans pour autant sacrifier les performances d’apprentissage.
La plupart des frameworks de deep learning ont besoin que les développeurs définissent des modèles et des algorithmes à l’avance en utilisant du code long et complexe qu’il est difficile de modifier. D’autres outils de deep learning rendent la construction de modèle plus facile mais cette simplicité peut être au détriment d’une performance d’apprentissage plus lente.
L’interface Gluon donne aux développeurs le meilleur des deux mondes, offrant les bénéfices suivants :

  1. Du code simple et facile à comprendre – vous avez un jeu complet de blocs prêts à construire et pour tester des réseaux neuronaux. Ceci inclue des couches prédéfinies, des optimiseurs et des initialiseurs.
  2. Une structure flexible – Gluon rapproche le modèle du réseau neuronal et l’algorithme d’apprentissage, offrant ainsi une plus grande flexibilité dans le processus de développement. Cette structure flexible rend votre code intuitif et facile à débuguer et ouvre la porte à des modèles plus avancés.
  3. Des graphiques dynamiques – Avec Gluon, vous pouvez construire à la volée avec n’importe quelle structure et utiliser n’importe quel flux de commande natif de Python.
  4. De meilleures performances – Vous obtenez tous ces bénéfices sans avoir à sacrifier la vitesse d’apprentissage.

L’interface Gluon fonctionne actuellement avec le framework de deep learning Apache MXNet et supportera Microsoft Cognitive Toolkit (CNTK) dans une prochaine version. AWS et Microsoft ont publié les spécifications de référence de Gluon afin que d’autre moteurs de deep learning puissent être intégrés à l’interface.
https://aws.amazon.com/fr/about-aws/whats-new/2017/10/aws-and-microsoft-announce-gluon-to-simplify-deep-learning-for-developers/

Cloud

Google étoffe son service cloud Container Engine
« Les entreprises utilisant Google Container Engine (GKE) pour exécuter leurs applications distribuées peuvent utiliser de nouvelles fonctionnalités telles que les alias IP donnant à un conteneur une adresse IP virtuelle. Cette dernière peut être référencée par un développeur pour d’autres applications de la même manière qu’avec une machine virtuelle traditionnelle. Les entreprises peuvent également s’inscrire pour utiliser – un service encore en version alpha – les cartes GPU Nvidia Tesla P100 dans une application conteneurisée sur le cloud de Google.
La firme de Mountain View annonce également une fonctionnalité pour lancer plus rapidement une plateforme multi-cluster, ce qui permettra aux entreprises d’exécuter des clusters Kubernetes dans différentes régions cloud et de faire en sorte que le service achemine « intelligemment » le trafic vers celui capable de fournir les meilleures performances pour un utilisateur final. »
http://www.lemondeinformatique.fr/actualites/lire-google-etoffe-son-service-cloud-container-engine-69548.html

Alibaba va investir 15 milliards de dollars dans les technologies de rupture
« Maîtriser les technologies de rupture pour garder une longueur d’avance sur ses concurrents. C’est le pari d’Alibaba. Le géant chinois du e-commerce a annoncé qu’il allait investir 15 milliards de dollars (environ 12,7 milliards d’euros) au cours des trois prochaines années dans sa R&D à travers une nouvelle initiative baptisée Alibaba Damo (pour Discovery, adventure, momentum and outlook) Academy.
Le programme sera piloté par Jeff Zhang, l’actuel directeur technique du groupe asiatique. Le dispositif, qui cherche à recruter une centaine de chercheurs, doit permettre à Alibaba d’atteindre un objectif pharaonique : servir 2 milliards de clients et créer 100 millions d’emplois à l’horizon 2036. »
https://www.usine-digitale.fr/article/alibaba-va-investir-15-milliards-de-dollars-dans-les-technologies-de-rupture.N598973

OpenWorld 2017 : Oracle annonce Oracle 18c, sa première « base de données autonome »
« Cette année, c’est bien la base de données, le produit star et historique de l’éditeur, qui a été à l’honneur de la première journée de l’Open World 2017. Le CTO, fondateur et ex-PDG d’Oracle, l’infatigable Larry Ellison y a en effet présenté Oracle 18c, la première « base de données autonome du monde ».
Par base de données autonome, Larry Ellison décrit un SGBD qui est capable à la fois de s’adapter aux charges de travail qu’il soutient qu’une base capable de se maintenir et de se patcher elle-même en cas de détection d’incident de sécurité.
Derrière cette automatisation accrue, on retrouve le fameux duo Machine Learning et Intelligence artificielle, appliqué ici au SGBD. »
http://www.lemagit.fr/actualites/450427303/OpenWorld-2017-Oracle-annonce-Oracle-18c-sa-premiere-base-de-donnee-autonome

OpenWorld 2017 : Oracle met du Serverless, Docker et plus d’Open Source dans son Cloud
« Oracle veut le faire savoir : son PaaS ne se limite pas à Java et son IaaS n’est pas « fermé ». Cette nouvelle orientation, au coeur de l’évènement annuel de l’éditeur, semble aussi importante que l’arrivée des outils d’AI, de bots et de Machine Learning.
La transformation d’Oracle vers le Cloud pousse l’éditeur à s’imprégner en interne d’une culture du développement, mélange de DevOps, de virtualisation et d’Open Source.
Sans ce mélange, pas de SaaS. Avec, Oracle a gagné des compétences et, logiquement, l’éditeur les intègre lentement mais surement à ses offres de Cloud public pour ses clients « externes ». »
http://www.lemagit.fr/actualites/450427540/Open-World-Oracle-met-du-Serverless-de-la-Blockchain-Docker-et-plus-dOpen-Source-dans-son-Cloud

A Las Vegas, NetApp annonce un service NFS pour Azure et un nouvel OnTap
« La première annonce effectuée par la firme est l’arrivée prévue pour le début 2018 d’un service de stockage NFS motorisé par la technologie NetApp dans le cloud Azure. Intégré nativement à Azure et développé en partenariat avec Microsoft, le service Microsoft Azure Enterprise Network File System (NFS) permettra aux entreprises de bénéficier d’un stockage NFS (v3 et v4) performant dans le cloud Azure. L’administration du service s’effectuera directement depuis la console Azure et il sera possible de piloter certains services de données avancés comme les snapshots depuis la console. Selon les deux sociétés, Microsoft Azure Enterprise NFS s’intégrera aussi avec d’autres services proposés par Microsoft comme les instances SQL Server ou SAP Hana for Azure. »

NetApp HCI officiellement disponible
La conférence a aussi été l’occasion pour NetApp d’officialiser la disponibilité de son offre « d’hyperconvergence » NetApp HCI bâtie autour de serveurs SuperMicro, de VMware vSphere ESXi et de son OS de stockage distribué ElementOS (le système d’exploitation des baies SolidFire).
La firme a aussi annoncé l’arrivée de la réplication SnapMirror sur ElementOS. Ce support du moteur de réplication NetApp sur l’OS de Solidfire permet aux systèmes hyperconvergés NetApp HCI de répliquer leurs données de façon transparente vers des baies NetApp FAS ou NetApp AFF et plus généralement vers tout système Ontap (y compris des instances virtuelles Ontap Select ou Ontap Cloud).

Ontap 9.3 promet des performances en hausse
Le constructeur a aussi profité de sa conférence pour lancer la dernière mouture de son système d’exploitation, Ontap 9.3. Cette version promet des gains de performances allant jusqu’à 40 %, une gestion de la qualité de service renforcée et embarque un algorithme de déduplication jusqu’à 30 % plus efficace. Selon NetApp, une paire de contrôleurs haut de gamme en configuration HA sur une baie AFF NetApp peut désormais délivrer plus de 850 000 IOPS et il est possible de définir des objectifs minimum et maximum de qualité de service par application.
Ontap 9.3 apporte aussi une intégration avec des outils de gestion de clés tiers (supportant le protocole KMIP) pour la gestion du chiffrement et l’authentification forte pour le login des administrateurs de la baie (via le support de SAML 2.0).
Ontap 9.3 sera disponible dans le courant du mois de novembre et sera disponible gratuitement pour tous les possesseurs de baies NetApp FAS ou AFF sous contrat de maintenance. »
http://www.lemagit.fr/actualites/450427676/A-Las-Vegas-NetApp-annonce-un-service-NFS-pour-Azure-et-un-nouvel-OnTap

Watson Summit 2017 : Bouygues Telecom, Allianz et la Macif entrent dans le jeu Watson
« Watson est à l’œuvre. L’édition 2017, qui se tenait aujourd’hui au Carroussel du Louvre à Paris, sera symbolisée par la présentation de plusieurs cas d’usage type chez les grands comptes français. Une accélération des projets, au-delà des pilotes reconnait Nicolas Sekkaki, qui trouve son ancrage dans les secteurs de l’assurance, de la banque et des services financiers, du retail, des transports et des télécommunications. Sans oublier évidemment les start-ups qui étaient pourtant moins mises en avant lors de cette édition.
Allianz s’appuie sur Watson pour analyser sémantiquement les données issues des chats pour y extraire des éléments de satisfaction ou de mécontentement. L’objectif est ici d’augmenter la relation de l’assureur avec ses clients et d’y apporter une touche « d’hyper-personnalisation ». La Macif utilise les services cognitifs d’IBM pour déterminer un contexte autour de ses clients et, en améliorant cette connaissance, compte augmenter les performances des forces de ventes, a résumé le DSI de la Macif, Pierre Gauthier.
Même logique chez le 3ème opérateur français, Bouygues Telecom. Le groupe a entrepris de déployer un moteur de langage naturel afin de favoriser les interactions avec ses clients sur les réseaux sociaux et sur le Web. « Les clients s’attendent à une relation clients efficace, performante et de plus en plus personnalisée, commente Sylvain Goussot, vice-président Big Data & Innovationn chez Bouygues Telecom. Nous voulions donc ajouter une couche supplémentaire d’interprétation et nous avons choisi l’Intelligence artificielle pour cela. » Le projet, dont les déploiements ont débuté progressivement, permet aux utilisateurs  de questionner l’opérateur en langage naturel. L’opérateur a ainsi interfacé son chatbot à sa vaste base de connaissance. Cette assistance, pour le moment portée sur les produits Internet fixe du groupe, a été pour l’heure utilisée par 3 000 clients de l’opérateur. Si à l’origine, le module a été « entrainé » avec 200 réponses types, les quelque 1 500 retours utilisateurs ont permis de le nourrir un peu plus en précieuses données. A tel point que le vice-président évoque des taux de performances de l’ordre de 90% – seuls 10% des dialogues ne sont finalement pas compris par Watson. Ce bot a été mis en place en 6 mois et Bouygues Telecom a étendu la portée de son outil, de 2% de ses clients à 6%.
Bouygues Telecoms, Allianz, la Macif, le Crédit Mutuel, ainsi que la Sacem qui mettait également en avant son usage de Watson, font aujourd’hui partis de la « dizaine de clients » de Watson en France, rappelle Nicolas Sekkaki. Des sociétés dont la transformation numérique tire essentiellement les revenus de Watson dans l’Hexagone, précise encore le patron français – sans donner de chiffres. »
http://www.lemagit.fr/actualites/450428001/Watson-Summit-2017-Bouygues-Telecom-Allianz-et-la-Macif-entrent-dans-le-jeu-Watson

Cloud Foundry Summit : BOSH devient aussi un standard pour déployer Kubernetes
« La communauté Cloud Foundry a décidé de capitaliser sur le projet BOSH. A l’occasion du Cloud Foundry Summit qui se tient actuellement à Bâle, la fondation derrière l’un des projets Open Source les plus actifs dans le monde du Cloud Open Source, a donné vie au projet Kubo en l’affublant d’un nouveau nom de baptême : Container Runtime.
Container Runtime, ex-Kubo, est un projet Open Source initié par Google et Pivotal et donné à la Cloud Foundry Fondation en juin 2017. Son principe : industrialiser les déploiements et la gestion du cycle de vie de l’orchestrateur de containers Kubernetes à partir de BOSH. BOSH, quant à lui, est un autre projet Open Source, né dans le sillage du projet de Paas Cloud Foundry, au sein de la fondation Open Source. Son rôle est de gérer et de monitorer les déploiements distribués d’applications et multi-cloud sur le Paas – à l’origine, il a également été conçu pour s’adapter à toute autre application. BOSH correspond en fait à une tour de contrôle opérationnelle des applications déployées en garantissant un maintien des workloads, de leur bon fonctionnement et de leur bonne coordination.
Logiquement, BOSH était devenu l’un des projets les plus actifs de la Cloud Foundry Foundation – nous avions pu le voir lors de l’édition 2016 du Cloud Foundry Summit Europe. Son approche, censée simplifier les déploiements et la maintenance, son modèle descriptif de configuration ainsi que l’abstraction multi-Iaas (du moins Google, AWS et VMware vSphere), avait séduit la communauté en ôtant une partie de la complexité des déploiements multi-cloud de Cloud Foundry.  Il apparait donc comme une aubaine pour Kubernetes, plutôt connu pour sa complexité à opérer en production. On lui reproche notamment son absence de possibilités natives de tolérance aux pannes pour les composants du cluster, de monitoring partiel de l’état de santé d’un cluster, et la difficulté d’effectuer des mises à jour continues (« rolling ») sur les grands clusters. Autant de trous dans la raquette qui pourront être désormais pris en compte via le Container Runtime de la fondation. »
http://www.lemagit.fr/actualites/450428050/Cloud-Foundry-Summit-BOSH-devient-aussi-un-standard-pour-deployer-Kubernetes

Des données critiques d’Accenture stockées sans sécurité dans AWS
« Selon l’entreprise de sécurité UpGuard, quatre instances de stockage d’Accenture basées dans le cloud n’étaient pas sécurisées et permettaient des téléchargements publics.
La faille, qui selon UpGuard, exposait des données d’API secrètes, des identifiants d’authentification, des certificats, des clés de décryptage, des informations clients et autres données a été mise à jour le 17 septembre dernier. C’est Chris Vickery, directeur de la recherche en cyber risques d’UpGuard, qui a découvert que quatre instances de stockage d’Amazon Web Services S3 avaient été configurés en accès public, et permettaient à toute personne tapant l’adresse web du seau dans son navigateur de télécharger des données. Les instances concernées s’intitulaient « acp-deployment », « acpcollector », « acp-software » et « acp-ssl ».
Ces données, qui auraient pu être utilisées pour attaquer aussi bien Accenture que ses clients, ont été sécurisées dès le lendemain de l’alerte adressée à l’entreprise internationale de conseil. Les quatre seaux S3 contenaient des données très sensibles sur la plateforme Accenture Cloud Platform, sur son fonctionnement interne et sur les clients d’Accenture utilisant la plate-forme. D’après l’annonce faite par UpGuard, l’instance dénommée « acp-deployment » servait essentiellement au stockage des clés d’accès internes et des identifiants utilisés par l’API Identity, apparemment dédiée à l’authentification des identifiants.
Selon UpGuard, « cette fuite au niveau des instances cloud montre que même les entreprises les plus avancées et les plus sécurisées peuvent exposer des données cruciales, avec de graves conséquences pour leur activité et leurs clients ».
http://www.lemondeinformatique.fr/actualites/lire-des-donnees-critiques-d-accenture-stockees-sans-securite-dans-aws-69671.html

Cyberattaques : une facture annuelle de 11,7 millions de dollars par entreprise
« Le coût moyen des cyberattaques dans sept pays, dont la France, a progressé de 22,7% en un an, selon l’enquête 2017 du Ponemon Institute pour Accenture.
Dans l’Hexagone, 22% du coût total est imputable aux logiciels malveillants (malwares), 20% proviennent du Web, 12% au déni de service (DoS), 12% aux attaques internes. Suivent le phishing et le code malicieux (10% respectivement), les terminaux volés (9%), les ransomwares (5%) et les Botnets (2%).
Les secteurs les plus touchés sont les services financiers et l’énergie. La situation est d’autant plus préoccupante que la durée moyenne pour résoudre une attaque par ransomware est de 23 jours. Et de 50 jours en cas d’attaque informatique interne. »
http://www.silicon.fr/cyberattaques-facture-117-entreprise-186597.html?inf_by=5981ddaf671db8ef0e8b4a7e

Laisser une réponse