Uptime Institute : pour en finir avec l’ « erreur humaine »

Le célèbre créateur du standard Tier s’interroge sur les causes des arrêts de production dans nos SI modernes. Et en particulier, sur la prédominance de l’ « erreur humaine » comme résultante de l’analyse causale d’une catastrophe numérique. En effet, dans nos SI modernes, articulés autour des salles informatiques et des Datacenters, le facteur humain semble presque incongru. L’ « erreur humaine » ne serait-elle pas devenue une expression valise qui masque une réelle lacune de cohérence stratégique ? Les exploitants sont-ils vraiment responsables lorsque l’organisation globale est défaillante ?

La synthèse de l’étude de l’UI invite froidement à ne pas attendre de miracle technologique tant que la gestion des actifs IT demeure fantaisiste. Par exemple, lorsque la gestion des changements est inconsistante. Ou que la gestion des infrastructures logiques fait oublier l’existence des équipements sous-jacents. Il s’agit donc de rehausser le niveau de rigueur en incluant les exploitants dans cette démarche d’amélioration continue. Sous-estimer la valeur opérationnelle du matériel informatique débouche immanquablement sur de brutaux retours à la réalité.

Twitter va massivement employer les services Cloud de Google

Afin de garantir l’évolutivité de son infrastructure de services basée sur Apache Hadoop pour le stockage et l’analyse Big Data, Twitter entame le déplacement de ses entrepôts de données à froid (plus de 300 PB…) vers l’offre Google Cloud Platform. Avec à la clé, un provisionning de ressources plus efficace , des garanties accrues en matière de résistance aux sinistres et une meilleure segmentation des allocations de composants au regard des tâches techniques qui leur sont affectées.

Windows Server 2019 : datacenter-ready

Les exploitants IT découvrent progressivement le potentiel de la nouvelle mouture du système d’exploitation Microsoft qui propose de substantielles améliorations sur les thèmes de l’hyper-convergence et de l’hybridation cloud. La prise en charge de l’hyper-convergence n’est pas nouvelle avec Windows Server (et ceci explique en partie la rapidité d’adoption de la version 2016), toutefois il devient à présent possible d’agréger plusieurs clusters dans un seul groupe de gestion et de disponibilité. L’exploitation d’un objet tel qu’une machine virtuelle bénéficie ainsi à la fois d’une continuité inter-clusters de management et de service. En parallèle, Microsoft communique régulièrement sur l’intégration dans Windows Server 2019 de nouvelles fonctions d’interopérabilité entre les systèmes on-premise et le cloud MS Azure, telles que Storage Migration Service.

Microsoft officialise ses premières zones de disponibilité pour son offre Azure

C’est aux États-Unis (Iowa – US Central Region) et en France (Paris – France Central Region) que sont à présent déployées les premières zones de disponibilité du cloud MS Azure, conformément aux annonces de Microsoft de septembre dernier. Au sein d’une zone de disponibilité de chacune de ces régions, les services hébergés du cloud supportent la panne complète d’un Centre de données, sans aucune interruption, puisqu’ils sont également et simultanément en production au sein d’un Centre de données d’une autre zone de disponibilité de la même région. Le SLA de disponibilité d’une VM intégrée selon cette logique atteint 99,99 %. Bien entendu, cette stratégie présuppose, par exemple, le cloisonnement préalable des chaînes d’approvisionnement énergétique et des raccordements aux réseaux télécoms entre les différentes zones d’une région donnée.

VPS, la société américaine qui propose de piloter l’approvisionnement énergétique par le logiciel

VPS -pour Virtual Power Systems– est une start-up californienne créée en 2014 dont l’offre technologique est actuellement au stade de projet POC chez Equinix, SAP ou encore Uber. A l’instar de la virtualisation de systèmes qui permet de réaliser dynamiquement la mise en adéquation software-defined des ressources matérielles allouées (CPU, RAM, espace disque, accès réseau) et les besoins des systèmes, VPS met en avant la possibilité de réaliser une relation de gestion identique entre le provisionning énergétique et les actifs IT. Typiquement, en ajustant par pilotage logiciel la capacité énergétique disponible pour une baie ou un groupe de baies, selon l’évolution des matériels contenus. VPS propose ainsi, par exemple, de concevoir un mécanisme de gestion de la priorité énergétique en cas de panne (prise en compte des différents de niveaux de disponibilité des services IT) et d’accompagner les pics de charge en production par mobilisation d’énergie stockée.

L’UE rapatrie un Centre de données Galileo suite au Brexit

Après l’annonce du transfert, depuis Londres vers Amsterdam, du siège de l’Agence Européenne des Médicaments en 2019 et de celui de l’Autorité Bancaire Européenne à la même période (vers Paris cette fois), c’est au tour du Centre de Données Galileo de backup, localisé à Swanwick (Southampton) de devoir préparer son transfert vers l’un des pays de l’Europe des 27, à savoir l’Espagne, à l’horizon de l’année prochaine. Le DataCenter principal de production demeure à Paris. Le Royaume-Uni demeure membre du programme spatial Galileo et bénéficiaire de ses applications civiles et militaires, cependant l’Union Européenne exprime ainsi sa volonté de conserver la main sur la disponibilité de ses institutions stratégiques.

Ouverture de la nouvelle région AWS EU/Paris depuis le 19/12/17

Amazon Web Services, qui revendique plusieurs dizaines de milliers de clients dans l’hexagone, poursuit l’implantation de son offre Cloud en France avec la mise en production le 19 décembre dernier de 3 DataCenters, matérialisant 3 nouvelles zones de disponibilité (sur 11 zones au total en Europe). De quoi réduire la latence applicative pour les utilisateurs français et souscrire aux éventuelles exigences de localisation des données sur le territoire, alors qu’Amazon garantit par ailleurs la pleine compatibilité de ses services avec le RGDP et a publié le mois dernier un livre Blanc sur ce thème.

Utiliser l’IA pour prévenir l’indisponibilité d’un Centre de données

C’est ce que l’opérateur de Centre de données québecois ROOT Datacenter (2 DC basés à Montréal) propose et revendique : gérer et réduire le risque de rupture de service grâce à l’Intelligence Artificielle et au Machine Learning. Ces technologies sont pourvues par Litbit, un concepteur et fournisseur d’AI personas, lui-même hébergé par ROOT Datacenter. Litbit propose aux entreprises une offre IA-based en accompagnement et soutien des activités humaines, par analyse et surveillance continue des flux d’informations sectorielles pertinentes. Ici, l’Intelligence Artificielle surveille, collecte et analyse en permanence l’ensemble des données d’infrastructure technique du Centre de données par l’intermédiaire de capteurs d’apprentissage : elle améliore ainsi la performance DCIM des exploitants en s’avérant notamment capable de prédire les futures pannes, lesquelles peuvent ainsi être évitées.

L’Uptime Institute lance un programme de certification TIER pour les DC préfabriqués et modulaires

Dans un contexte de croissance des implantations edge-computing, le nouveau programme « TIER-Ready » permet à présent aux fabricants de travailler avec l’Uptime Institute pour valider les conceptions spécifiques de leurs solutions pré-construites. La conformité TIER ciblée, anticipée au stade de la fabrication, permet ainsi aux organisations clientes de ces modules d’accélérer leur propre processus de certification UI et d’en réduire le coût, tout en bénéficiant du niveau requis en matière de garantie de continuité de fonctionnement en cas d’incident. Les sociétés Compass Datacenters, Schneider Electric et Huawei ont notamment adhéré à ce programme.