Windows Server 2019 : datacenter-ready

Les exploitants IT découvrent progressivement le potentiel de la nouvelle mouture du système d’exploitation Microsoft qui propose de substantielles améliorations sur les thèmes de l’hyper-convergence et de l’hybridation cloud. La prise en charge de l’hyper-convergence n’est pas nouvelle avec Windows Server (et ceci explique en partie la rapidité d’adoption de la version 2016), toutefois il devient à présent possible d’agréger plusieurs clusters dans un seul groupe de gestion et de disponibilité. L’exploitation d’un objet tel qu’une machine virtuelle bénéficie ainsi à la fois d’une continuité inter-clusters de management et de service. En parallèle, Microsoft communique régulièrement sur l’intégration dans Windows Server 2019 de nouvelles fonctions d’interopérabilité entre les systèmes on-premise et le cloud MS Azure, telles que Storage Migration Service.

Microsoft officialise ses premières zones de disponibilité pour son offre Azure

C’est aux États-Unis (Iowa – US Central Region) et en France (Paris – France Central Region) que sont à présent déployées les premières zones de disponibilité du cloud MS Azure, conformément aux annonces de Microsoft de septembre dernier. Au sein d’une zone de disponibilité de chacune de ces régions, les services hébergés du cloud supportent la panne complète d’un Centre de données, sans aucune interruption, puisqu’ils sont également et simultanément en production au sein d’un Centre de données d’une autre zone de disponibilité de la même région. Le SLA de disponibilité d’une VM intégrée selon cette logique atteint 99,99 %. Bien entendu, cette stratégie présuppose, par exemple, le cloisonnement préalable des chaînes d’approvisionnement énergétique et des raccordements aux réseaux télécoms entre les différentes zones d’une région donnée.

Des camions autonomes pour assurer le fret à destination des DataCenters

C’est ce que la holding Alphabet expérimente actuellement au travers de sa filiale véhicules autonomes Waymo, avec pour destinataires naturels les DataCenter Google localisés à Atlanta (Géorgie). L’intérêt de la séquence de test est double :  elle permet non seulement d’évaluer sur le terrain la maturité du trucking autonome pour l’ensemble de la couverture logistique encore portée de nos jours par ce moyen de transport, mais de plus elle contribue à préparer l’optimisation de la répartition du traitement de l’information entre ce qui relèvera du véhicule et ce qui devra être supporté par les centres de données tout au long de l’acheminement des matériels.

Les Datacenters islandais victimes de vols en série de matériels IT

L’Islande jouit d’une excellente réputation auprès des mineurs de cryptomonnaie grâce à sa forte capacité de production d’une énergie renouvelable à coûts maîtrisés. Cependant, depuis 3 mois, près de deux millions de dollars d’équipements informatiques orientés minage ont été subtilisés sur l’île lors d’une série de vols dont les auteurs n’ont pas encore été identifiés. Les autorités espèrent repérer dans les variations de consommation énergétique les traces d’une mise à profit, pour le compte de bénéficiaires illégitimes, des actifs volés. En effet, les revenus à moyen terme issus d’un minage à partir de ces matériels s’avèrent théoriquement plus élevés que le produit de leur simple revente.

Les JO de Paris 2024 constituent-ils un risque énergétique pour les Datacenter français ?

C’est ce que laisse entendre le québecois ROOT Data Center dans sa dernière publication du 13 février dernier : une intéressante synthèse sur l’enjeu stratégique que représente l’évolutivité capacitaire des Centres de données, à dessein d’accompagner la croissance des activités numériques et digitales des entreprises. ROOT Data Center y décrit une approche structurée selon 3 paramètres : la puissance électrique, l’espace disponible et les compétences nécessaires à la gestion optimisée de ces deux variables. Concernant la France, le spécialiste de la colocation pointe une baisse de l’attractivité du bassin de Paris en raison de limitations énergétiques ainsi que la diminution progressive de la capacité de production du parc nucléaire. Dans ce contexte, les Jeux Olympiques de 2024 nécessiteront une réaffectation temporaire des ressources électriques disponibles, à laquelle devront probablement s’adapter les Centres de données.

VPS, la société américaine qui propose de piloter l’approvisionnement énergétique par le logiciel

VPS -pour Virtual Power Systems– est une start-up californienne créée en 2014 dont l’offre technologique est actuellement au stade de projet POC chez Equinix, SAP ou encore Uber. A l’instar de la virtualisation de systèmes qui permet de réaliser dynamiquement la mise en adéquation software-defined des ressources matérielles allouées (CPU, RAM, espace disque, accès réseau) et les besoins des systèmes, VPS met en avant la possibilité de réaliser une relation de gestion identique entre le provisionning énergétique et les actifs IT. Typiquement, en ajustant par pilotage logiciel la capacité énergétique disponible pour une baie ou un groupe de baies, selon l’évolution des matériels contenus. VPS propose ainsi, par exemple, de concevoir un mécanisme de gestion de la priorité énergétique en cas de panne (prise en compte des différents de niveaux de disponibilité des services IT) et d’accompagner les pics de charge en production par mobilisation d’énergie stockée.

L’UE rapatrie un Centre de données Galileo suite au Brexit

Après l’annonce du transfert, depuis Londres vers Amsterdam, du siège de l’Agence Européenne des Médicaments en 2019 et de celui de l’Autorité Bancaire Européenne à la même période (vers Paris cette fois), c’est au tour du Centre de Données Galileo de backup, localisé à Swanwick (Southampton) de devoir préparer son transfert vers l’un des pays de l’Europe des 27, à savoir l’Espagne, à l’horizon de l’année prochaine. Le DataCenter principal de production demeure à Paris. Le Royaume-Uni demeure membre du programme spatial Galileo et bénéficiaire de ses applications civiles et militaires, cependant l’Union Européenne exprime ainsi sa volonté de conserver la main sur la disponibilité de ses institutions stratégiques.

GeForce et Titan non supportées en Data Center… excepté pour les opérations blockchain

L’usage des fameux GPU Nvidia fait l’objet depuis début 2018 d’une restriction remarquée quant aux conditions générales d’utilisation des pilotes logiciels développés par le constructeur : « No Datacenter Deployment. The SOFTWARE is not licensed for datacenter deployment, except that blockchain processing in a datacenter is permitted. ». Sauf pour les applications blockchain (comme le minage de cryptomonnaie), les utilisateurs de Centres de Données risquent de devoir se rabattre sur des modèles plus qualitatifs, non initialement destinés au gamers, tels que Quadro et Tesla, pour opérer dans les domaines du calcul scientifique ou de l’intelligence artificielle.

Ouverture de la nouvelle région AWS EU/Paris depuis le 19/12/17

Amazon Web Services, qui revendique plusieurs dizaines de milliers de clients dans l’hexagone, poursuit l’implantation de son offre Cloud en France avec la mise en production le 19 décembre dernier de 3 DataCenters, matérialisant 3 nouvelles zones de disponibilité (sur 11 zones au total en Europe). De quoi réduire la latence applicative pour les utilisateurs français et souscrire aux éventuelles exigences de localisation des données sur le territoire, alors qu’Amazon garantit par ailleurs la pleine compatibilité de ses services avec le RGDP et a publié le mois dernier un livre Blanc sur ce thème.

Utiliser l’IA pour prévenir l’indisponibilité d’un Centre de données

C’est ce que l’opérateur de Centre de données québecois ROOT Datacenter (2 DC basés à Montréal) propose et revendique : gérer et réduire le risque de rupture de service grâce à l’Intelligence Artificielle et au Machine Learning. Ces technologies sont pourvues par Litbit, un concepteur et fournisseur d’AI personas, lui-même hébergé par ROOT Datacenter. Litbit propose aux entreprises une offre IA-based en accompagnement et soutien des activités humaines, par analyse et surveillance continue des flux d’informations sectorielles pertinentes. Ici, l’Intelligence Artificielle surveille, collecte et analyse en permanence l’ensemble des données d’infrastructure technique du Centre de données par l’intermédiaire de capteurs d’apprentissage : elle améliore ainsi la performance DCIM des exploitants en s’avérant notamment capable de prédire les futures pannes, lesquelles peuvent ainsi être évitées.

Page 1 sur 41234