Revue de Presse du 1er au 15 novembre

Revue de Presse du 1er au 15 novembre

150 150 Team Gekko

L’actualité Cloud & AWS décortiquée par Gekko !

Amazon muscle la sécurité de son stockage cloud S3
« Après que plusieurs de ses clients, dont Deloitte et Accenture, ont été piratés à cause d’erreurs de configuration de buckets sur son service de stockage cloud S3, Amazon réagit. Chiffrement par défaut des instances S3 et remontée d’alertes de celles accessibles publiquement font partie des dernières fonctions de sécurité ajoutées.
La console S3 permet également d’afficher un indicateur permettant de connaître les instances qui sont publiquement accessibles. De même, lorsque des objets sont répliqués entre plusieurs comptes AWS, on peut spécifier les objets à inscrire sur une nouvelle liste de contrôle d’accès (ACL) ou encore gérer leurs clés via le service Key Management d’Amazon. Enfin, le rapport d’inventaire S3 inclut à présent le statut de chiffrement pour chaque objet, et peut lui-même être chiffré. »
http://www.lemondeinformatique.fr/actualites/lire-amazon-muscle-la-securite-de-son-stockage-cloud-s3-69922.html

AWS Direct Connect permet l’accès mondial
« AWS Direct Connect fournit une connectivité à large bande passante privée entre les réseaux des clients et le cloud AWS. Le trafic envoyé via une connexion AWS Direct Connect reste dans le réseau privé AWS et ne passe pas par l’Internet public.
Accès mondial pour Virtual Private Cloud (VPC) : pour permettre un accès mondial aux VPC Amazon des clients, AWS Direct Connect annonce le lancement de la passerelle Direct Connect. Cette nouvelle fonction permettra aux clients qui utilisent un emplacement AWS Direct Connect d’utiliser leurs connexions Direct Connect pour accéder à tous les VPC déployés dans toutes les régions AWS (à l’exception de la région AWS China). En outre, chaque passerelle Direct Connect permettra l’association avec un ou plusieurs VPC Amazon. Lorsque vous utilisez la passerelle Direct Connect, vous n’avez pas besoin de disposer de connexions dans plusieurs régions AWS pour accéder à vos VPC Amazon situés dans ces régions AWS. Par ailleurs, vous utilisez une interface virtuelle privée (ou plusieurs) pour communiquer avec plusieurs VPC Amazon dans toutes les régions AWS (à l’exception de la région AWS Chine).
Accès mondial aux services publics AWS : pour proposer un accès mondial aux services publiquement routables d’Amazon, AWS Direct Connect développe son service d’accès public entre régions au niveau mondial. Les clients AWS Direct Connect situés à n’importe quel emplacement AWS Direct Connect peuvent créer des interfaces virtuelles publiques pour recevoir les routes IP au niveau mondial d’Amazon, et accéder aux services publiquement routables d’Amazon dans n’importe quelle région AWS (à l’exception de la région AWS Chine). Avec l’accès public mondial, vous pouvez désormais accéder à tous les services publics d’Amazon en utilisant les interfaces virtuelles publiques AWS Direct Connect nouvellement créées, ce qui amplifie la valeur de votre connexion AWS Direct Connect.
Nouvelle tarification applicable au transfert de données sortantes : dès aujourd’hui, les clients seront en mesure de déterminer le tarif applicable au transfert de données sortantes en fonction de l’emplacement de la charge de travail (région AWS) et de l’emplacement Direct Connect. Cette tarification mise à jour vous permet de sélectionner l’emplacement AWS Direct Connect qui répond le mieux à vos besoins dans la liste en constante évolution d’emplacements à travers le monde. »
https://aws.amazon.com/fr/about-aws/whats-new/2017/11/aws-direct-connect-enables-global-access/

AWS obligé de céder ses infrastructures cloud en Chine
« Selon l’agence de presse Reuters, Amazon a été obligé de céder à son partenaire local Beijing Sinnet Technology ses infrastructures cloud computing publique – sur lesquelles reposent ses offres Amazon Web Services (AWS) – pour un montant de 2 milliards de yuans (256,1 millions d’euros). « Afin de se conformer à la législation chinoise, AWS a vendu certains actifs de ses infrastructures physiques à Sinnet », a déclaré ce mardi un porte-parole d’AWS, ajoutant qu’AWS détiendrait toujours la propriété intellectuelle de ses services dans le monde entier.
Les régulateurs chinois ont durci les règles sur les services de données et de cloud, mettant en œuvre de nouvelles mesures de surveillance et un contrôle accru des transferts de données transfrontaliers. Les lois entrées en vigueur en juin exigent que les entreprises stockent les données localement. L’utilisation des VPN a également été interdite, tout comme en Russie d’ailleurs.
Présent en Chine depuis 2013
Les services cloud public d’AWS seront donc désormais gérés par Sinnet, sous la bienveillance du gouvernement chinois. D’autres acteurs (IBM, Microsoft, Oracle…) sur le marché du cloud sont confrontés au même problème et, s’ils veulent poursuivent leurs activités sur le territoire chinois, devront se plier à la réglementation en matière de cybersécurité entrée en vigueur en juin dernier.
Rappelons qu’Amazon avait ouvert sa région AWS chinoise en décembre 2013 et, à l’époque, se conformait déjà aux exigences légales et réglementaires. La société travaillait déjà avec des hébergeurs locaux, comme Sinnet, qui fournissent les mètres carrés et les capacités réseau nécessaires dans les datacenters. »
http://www.lemondeinformatique.fr/actualites/lire-aws-oblige-de-ceder-ses-infrastructures-cloud-en-chine-69981.html

Le FinOps, un architecte aux multiples facettes
« Le Financier des Opérations ou FinOps n’est pas un métier défini précisément dans les nomenclatures mais son rôle s’impose pour une bascule dans le cloud d’une entreprise. Optimiser l’architecture IT et l’exploitation quotidienne est en effet indispensable pour réaliser les économies attendues de l’usage du cloud. Avant tout ingénieur et architecte, le FinOps est aussi un contrôleur de gestion et un gestionnaire de contrats.
Le « FinOps » [Financier des Opérations] n’existe pas encore dans les nomenclatures de métiers comme celle du Cigref. Pourtant, de plus en plus de DSI s’intéressent à lui à l’heure de basculer leur IT dans le cloud. Pour l’heure, ce profil très hybride, à la fois technique, financier et juridique, se trouve plus volontiers chez les fournisseurs. Mais les premiers « Finops » ont déjà pris leurs marques dans de grands groupes comme Veolia. Avec un retour sur investissement rapide.
Quel problème les entreprises veulent-elles résoudre en embauchant un « FinOps » ? Il s’agit en fait d’optimiser l’IT pour tirer parti du cloud. Chaque fournisseur (AWS, Google, OVH, Microsoft…) a ses propres règles de facturation, même si les grands principes sont communs. Et, bien entendu, chaque fournisseur a ses propres tarifs, variables dans le temps. Tenir compte de ces règles est indispensable si l’on ne veut pas voir ses coûts d’infrastructure exploser lors de la bascule dans le cloud. Cette bascule a, en principe, plutôt comme objet de réduire les coûts et voir ces coûts augmenter pourrait perturber une direction générale. Au point qu’un DSI pourrait être amené à lui-même partir dans les nuages. »
http://www.lemondeinformatique.fr/actualites/lire-le-finops-un-architecte-aux-multiples-facettes-69900.html

IBM met à jour son Cloud de Francfort pour être compatible RGPD
« IBM annonce de nouveaux services de contrôle des données dans son Cloud de Francfort pour faciliter la conformité de ses clients avec le GDPR européen.
Combiner performance d’accès aux données et contraintes réglementaires est l’un des enjeux qui se profile pour les entreprises.
Au nom de l’échéance de mise en conformité avec le Règlement européen sur la protection des données (RGPD ou GDPR en anglais) fixée au 25 mai 2018.
Outre la protection des données personnelles, le règlement impose notamment aux organisations d’avoir une visibilité sur l’endroit où sont stockées et traitées les données de leurs clients.
C’est pour mieux répondre à ces contraintes que IBM vient de faire évoluer son offre Cloud.
En décembre, un nouveau modèle de support et de nouvelles fonctionnalités seront déployés sur son Cloud de Francfort (Allemagne) afin de proposer une nouvelle approche concernant la responsabilité des données.
Il n’est pas étonnant qu’IBM démarre cette initiative en Allemagne au regard de la législation rigoureuse pour la protection des données personnelles mise en place dans ce pays. »
https://www.silicon.fr/ibm-cloud-francfort-compatible-rgpd-189661.html?inf_by=5981ddaf671db8ef0e8b4a7e

Google, IBM et Microsoft s’engagent pour garantir la portabilité des environnements Kubernetes
« C’est un grand pas en avant pour l’écosystème Kubernetes et sa promesse de délivrer des environnements applicatifs entièrement portables. En effet, l’une des principales promesses de Kubernetes qui permet aux entreprises de gérer les applications conteneurisées repose sur sa capacité à déplacer les charges de travail entre différents environnements, notamment entre plates-formes cloud. En théorie, les charges de travail Kubernetes encapsulées dans des containers doivent pouvoir s’exécuter sur n’importe quelle plate-forme d’orchestration du même type placée au-dessus du projet open source. Mais en pratique, les entreprises peuvent créer des forks de Kubernetes incompatibles entre elles.
Tous les partenaires du programme Conformance, parmi lesquels Alibaba, Microsoft, IBM, Google, Red Hat, SAP et Tencent, comptent dans leur portefeuille des produits certifiés garantissant que l’API Kubernetes (qui permet aux développeurs de configurer des tâches d’orchestration par programmation) fonctionnera de manière cohérente. Cela signifie qu’il sera plus facile pour les développeurs de déplacer les charges de travail entre différentes plates-formes et d’éviter le verrouillage, l’un des attraits de l’écosystème cloud recherché par les entreprises. « La nouvelle certification de conformité logicielle de Kubernetes offre aux entreprises l’assurance que les charges de travail qui tournent sur n’importe quelle plate-forme ou distribution certifiée Kubernetes fonctionneront correctement sur n’importe quelle autre version », a déclaré Dan Kohn, directeur exécutif de la Cloud Native Computing Foundation. « L’interopérabilité garantie par ce programme est essentielle pour que Kubernetes tienne sa promesse de pile logicielle open source unique, prise en charge par de nombreux fournisseurs, et pouvant être déployée sur n’importe quel cloud public, privé ou hybride ».
Support de Kubernetes sur AWS
Cette annonce, qui intervient quelques semaines avant la conférence Re : Invent organisée du 27 novembre au 1er décembre à Las Vegas par Amazon Web Services, est particulièrement importante. En effet, il est probable qu’AWS annonce à cette occasion un service Kubernetes. Il est également possible que le fournisseur décide de créer sa propre version de l’orchestrateur de conteneurs sans garantir nécessairement la même performance ou la même expérience. Le programme de conformité est destiné à faire pression sur AWS et sur les autres acteurs pour que leurs produits restent conformes au projet open source de Kubernetes, au lieu de créer leur propre fork. De nombreux fournisseurs de technologie ont promis que leurs produits supporteraient Kubernetes. Né chez Google, le projet a suscité une large adoption, même par des fournisseurs concurrents comme Microsoft, Docker et Mesosphere. »
http://www.lemondeinformatique.fr/actualites/lire-google-ibm-et-microsoft-s-engagent-pour-garantir-la-portabilite-des-environnements-kubernetes-69976.html

Red Hat Ceph Storage 3 : vers un stockage unifié sous l’ombrelle OpenStack
« Un peu plus d’un an après Ceph Storage 2, Red Hat profite de l’ouverture de l’OpenStack Summit de Sydney pour présenter les évolutions de sa solution de stockage défini par logiciel (Software-defined Storage ou SDS en anglais).
Rappelons que Red Hat Ceph est une offre dédiée au stockage objet pour l’infrastructure cloud, l’analyse des données, les référentiels média, et la sauvegarde et restauration des systèmes.
Ceph Storage 3, mise à jour majeure de sa plateforme de SDS, introduit le stockage en mode bloc via iSCSI et le stockage de fichiers via CephFS. Ce qui favorise les migrations des plateformes existantes vers des environnements de stockage unifié estampillés OpenStack.
Le système se déploie sur plusieurs serveurs alors pilotables depuis une plateforme unifiée pour administrer des petaoctets de données tout en optimisant les performances et la capacité.
S’appuyant sur le projet communautaire Ceph 12.2 (Luminous), Ceph Storage 3 introduit quelques nouveautés propres à optimiser son exploitation sous OpenStack (plateforme open source pour le cloud).
A commencer par l’introduction de CephFS, le système de fichier scale-out (qui permet d’élargir les capacités de stockage en ajoutant de nouveaux supports de stockage dans le réseau) et compatible Posix (Portable Operating System Interface uniX).
Cela permettra aux utilisateurs de mieux intégrer le stockage à l’environnement d’exploitation Open Source pour les déploiements de différents profils de Cloud privé comme le cloud web-scale, l’infrastructure NFV (virtualisation des fonctions réseau ou NFVi) et de Cloud de développement/calcul.
Le stockage en conteneurs
Par ailleurs, le déploiement de capacités de stockage en conteneur Linux est désormais proposé.
Ceph Storage peut ainsi s’exécuter sur un nombre réduit de serveurs en optant pour la colocation des services sans risque de conflits entre les ressources plutôt que sur des équipements dédiés.
Selon Red Hat, cela permet de réduire d’au moins 24% les dépenses matérielles. Une solution séduisante pour les organisations contraintes par le manque d’espace et de matériel et qui déploient NFVi.
D’autre part, le nouveau support de l’interface iSCSI (Internet Small Computer System Interface) élargit la prise en charge de plates-formes hétérogènes en exploitant le protocole TCP/IP (le même qu’Internet).
Les environnements VMware et Windows, dépourvus du pilote Ceph natif, peuvent ainsi être pilotés depuis une seule plateforme de stockage en mode bloc.
Ceph Storage 3 est également compatible avec l’API Amazon S3 (connecteur logiciel pour la plateforme phare d’Amazon Web Services pour le stockage objet) .
Nouveau tableau de bord
« Red Hat Ceph Storage 3 constitue une étape importante pour les communautés OpenStack, VMware et Windows ayant besoin d’une solution de stockage unifiée », commente Olivier Delachapelle, Responsable du service Data Center Category Management EMEIA, chez Fujitsu.
« Avec cette version, Red Hat pose des fondations pour tous les services de stockage à base de logiciels qui seront conteneurisés à l’avenir et aide les clients à gagner en agilité et à réduire leurs coûts de déploiement. »
Enfin, Ceph Storage 3 se distingue par une nouvelle interface du tableau de bord qui intègre de nouvelles vues de contrôle des données à même de faciliter leur gestion.
La nouvelle solution doit être livrée courant novembre. »
https://www.silicon.fr/red-hat-met-ceph-storage-3-stockage-unifie-openstack-189499.html?inf_by=5981ddaf671db8ef0e8b4a7e

Laisser une réponse