A l’aube des Jeux Olympiques de 2020, le leader mondial du Centre de données neutre-opérateur projette de s’implanter dans le quartier Ariake, réputé pour le haut niveau de résilience de ses infrastructures, afin d’y bâtir son 11ème IBX tokyoïte. Ce dernier constituera la plus vaste de ses implantations locales avec une capacité d’accueil initiale de 1000 baies, extensible à 2800 racks dans un second temps. La mise en service du nouveau site est planifiée pour le premier trimestre 2019, au sein d’un secteur géographique particulièrement demandeur en connectivité haute-performance vers les services Cloud.
Afin de garantir l’évolutivité de son infrastructure de services basée sur Apache Hadoop pour le stockage et l’analyse Big Data, Twitter entame le déplacement de ses entrepôts de données à froid (plus de 300 PB…) vers l’offre Google Cloud Platform. Avec à la clé, un provisionning de ressources plus efficace , des garanties accrues en matière de résistance aux sinistres et une meilleure segmentation des allocations de composants au regard des tâches techniques qui leur sont affectées.
Les exploitants IT découvrent progressivement le potentiel de la nouvelle mouture du système d’exploitation Microsoft qui propose de substantielles améliorations sur les thèmes de l’hyper-convergence et de l’hybridation cloud. La prise en charge de l’hyper-convergence n’est pas nouvelle avec Windows Server (et ceci explique en partie la rapidité d’adoption de la version 2016), toutefois il devient à présent possible d’agréger plusieurs clusters dans un seul groupe de gestion et de disponibilité. L’exploitation d’un objet tel qu’une machine virtuelle bénéficie ainsi à la fois d’une continuité inter-clusters de management et de service. En parallèle, Microsoft communique régulièrement sur l’intégration dans Windows Server 2019 de nouvelles fonctions d’interopérabilité entre les systèmes on-premise et le cloud MS Azure, telles que Storage Migration Service.
C’est aux États-Unis (Iowa – US Central Region) et en France (Paris – France Central Region) que sont à présent déployées les premières zones de disponibilité du cloud MS Azure, conformément aux annonces de Microsoft de septembre dernier. Au sein d’une zone de disponibilité de chacune de ces régions, les services hébergés du cloud supportent la panne complète d’un Centre de données, sans aucune interruption, puisqu’ils sont également et simultanément en production au sein d’un Centre de données d’une autre zone de disponibilité de la même région. Le SLA de disponibilité d’une VM intégrée selon cette logique atteint 99,99 %. Bien entendu, cette stratégie présuppose, par exemple, le cloisonnement préalable des chaînes d’approvisionnement énergétique et des raccordements aux réseaux télécoms entre les différentes zones d’une région donnée.
C’est ce que la holding Alphabet expérimente actuellement au travers de sa filiale véhicules autonomes Waymo, avec pour destinataires naturels les DataCenter Google localisés à Atlanta (Géorgie). L’intérêt de la séquence de test est double : elle permet non seulement d’évaluer sur le terrain la maturité du trucking autonome pour l’ensemble de la couverture logistique encore portée de nos jours par ce moyen de transport, mais de plus elle contribue à préparer l’optimisation de la répartition du traitement de l’information entre ce qui relèvera du véhicule et ce qui devra être supporté par les centres de données tout au long de l’acheminement des matériels.
L’Islande jouit d’une excellente réputation auprès des mineurs de cryptomonnaie grâce à sa forte capacité de production d’une énergie renouvelable à coûts maîtrisés. Cependant, depuis 3 mois, près de deux millions de dollars d’équipements informatiques orientés minage ont été subtilisés sur l’île lors d’une série de vols dont les auteurs n’ont pas encore été identifiés. Les autorités espèrent repérer dans les variations de consommation énergétique les traces d’une mise à profit, pour le compte de bénéficiaires illégitimes, des actifs volés. En effet, les revenus à moyen terme issus d’un minage à partir de ces matériels s’avèrent théoriquement plus élevés que le produit de leur simple revente.
C’est ce que laisse entendre le québecois ROOT Data Center dans sa dernière publication du 13 février dernier : une intéressante synthèse sur l’enjeu stratégique que représente l’évolutivité capacitaire des Centres de données, à dessein d’accompagner la croissance des activités numériques et digitales des entreprises. ROOT Data Center y décrit une approche structurée selon 3 paramètres : la puissance électrique, l’espace disponible et les compétences nécessaires à la gestion optimisée de ces deux variables. Concernant la France, le spécialiste de la colocation pointe une baisse de l’attractivité du bassin de Paris en raison de limitations énergétiques ainsi que la diminution progressive de la capacité de production du parc nucléaire. Dans ce contexte, les Jeux Olympiques de 2024 nécessiteront une réaffectation temporaire des ressources électriques disponibles, à laquelle devront probablement s’adapter les Centres de données.
VPS -pour Virtual Power Systems– est une start-up californienne créée en 2014 dont l’offre technologique est actuellement au stade de projet POC chez Equinix, SAP ou encore Uber. A l’instar de la virtualisation de systèmes qui permet de réaliser dynamiquement la mise en adéquation software-defined des ressources matérielles allouées (CPU, RAM, espace disque, accès réseau) et les besoins des systèmes, VPS met en avant la possibilité de réaliser une relation de gestion identique entre le provisionning énergétique et les actifs IT. Typiquement, en ajustant par pilotage logiciel la capacité énergétique disponible pour une baie ou un groupe de baies, selon l’évolution des matériels contenus. VPS propose ainsi, par exemple, de concevoir un mécanisme de gestion de la priorité énergétique en cas de panne (prise en compte des différents de niveaux de disponibilité des services IT) et d’accompagner les pics de charge en production par mobilisation d’énergie stockée.
Après l’annonce du transfert, depuis Londres vers Amsterdam, du siège de l’Agence Européenne des Médicaments en 2019 et de celui de l’Autorité Bancaire Européenne à la même période (vers Paris cette fois), c’est au tour du Centre de Données Galileo de backup, localisé à Swanwick (Southampton) de devoir préparer son transfert vers l’un des pays de l’Europe des 27, à savoir l’Espagne, à l’horizon de l’année prochaine. Le DataCenter principal de production demeure à Paris. Le Royaume-Uni demeure membre du programme spatial Galileo et bénéficiaire de ses applications civiles et militaires, cependant l’Union Européenne exprime ainsi sa volonté de conserver la main sur la disponibilité de ses institutions stratégiques.
L’usage des fameux GPU Nvidia fait l’objet depuis début 2018 d’une restriction remarquée quant aux conditions générales d’utilisation des pilotes logiciels développés par le constructeur : « No Datacenter Deployment. The SOFTWARE is not licensed for datacenter deployment, except that blockchain processing in a datacenter is permitted. ». Sauf pour les applications blockchain (comme le minage de cryptomonnaie), les utilisateurs de Centres de Données risquent de devoir se rabattre sur des modèles plus qualitatifs, non initialement destinés au gamers, tels que Quadro et Tesla, pour opérer dans les domaines du calcul scientifique ou de l’intelligence artificielle.