ChemicalPlant

LOCALISATION DES CENTRES DE DONNÉES ET ÉVITEMENT DES MENACES

Les critères climatiques et géographiques qui président au choix de l’emplacement des Datacentres s’avèrent essentiels puisqu’ils influent considérablement sur l’atteinte des objectifs de performance énergétique. Cependant, de nombreux autres paramètres sont également à prendre en compte en matière de réduction des diverses menaces que peut présenter l’environnement géographique d’accueil. A tel point, si l’on se réfère aux différentes nomenclatures de risques dont celles proposées par TIA-942, que l’on pourrait de demander s’il est encore envisageable de pouvoir décemment bâtir un Datacenter quelque part. Bien sûr, tout est alors question d’équilibre entre les opportunités économiques et fonctionnelles pourvues par le site d’implantation et la capacité de l’organisation propriétaire à gérer les risques induits par la localisation retenue.

Lire la suite
NuclearPlant

CRITÈRES ÉNERGÉTIQUES ET CLIMATIQUES DE LOCALISATION DES CENTRES DE DONNÉES

Contenu mis à jour le 04 août 2018

Par nature, les Datacenters sont très énergivores, puisqu’une de leur vocation première consiste à approvisionner en électricité, de façon ininterrompue, d’importantes quantités de matériel informatique dont la densité ne cesse par ailleurs de croître. Ils représentent collectivement environ 5 % de la consommation électrique mondiale (en France : 9% ; individuellement, ils peuvent consommer autant qu’une ville de plusieurs dizaines de milliers d’habitants). Les Datacenters dépendent ainsi fortement de la disponibilité des sources d’énergie pourvues par le tissu géoéconomique local.

Lire la suite

Windows Server 2019 : datacenter-ready

Les exploitants IT découvrent progressivement le potentiel de la nouvelle mouture du système d’exploitation Microsoft qui propose de substantielles améliorations sur les thèmes de l’hyper-convergence et de l’hybridation cloud. La prise en charge de l’hyper-convergence n’est pas nouvelle avec Windows Server (et ceci explique en partie la rapidité d’adoption de la version 2016), toutefois il devient à présent possible d’agréger plusieurs clusters dans un seul groupe de gestion et de disponibilité. L’exploitation d’un objet tel qu’une machine virtuelle bénéficie ainsi à la fois d’une continuité inter-clusters de management et de service. En parallèle, Microsoft communique régulièrement sur l’intégration dans Windows Server 2019 de nouvelles fonctions d’interopérabilité entre les systèmes on-premise et le cloud MS Azure, telles que Storage Migration Service.

VPS, la société américaine qui propose de piloter l’approvisionnement énergétique par le logiciel

VPS -pour Virtual Power Systems– est une start-up californienne créée en 2014 dont l’offre technologique est actuellement au stade de projet POC chez Equinix, SAP ou encore Uber. A l’instar de la virtualisation de systèmes qui permet de réaliser dynamiquement la mise en adéquation software-defined des ressources matérielles allouées (CPU, RAM, espace disque, accès réseau) et les besoins des systèmes, VPS met en avant la possibilité de réaliser une relation de gestion identique entre le provisionning énergétique et les actifs IT. Typiquement, en ajustant par pilotage logiciel la capacité énergétique disponible pour une baie ou un groupe de baies, selon l’évolution des matériels contenus. VPS propose ainsi, par exemple, de concevoir un mécanisme de gestion de la priorité énergétique en cas de panne (prise en compte des différents de niveaux de disponibilité des services IT) et d’accompagner les pics de charge en production par mobilisation d’énergie stockée.

Utiliser l’IA pour prévenir l’indisponibilité d’un Centre de données

C’est ce que l’opérateur de Centre de données québecois ROOT Datacenter (2 DC basés à Montréal) propose et revendique : gérer et réduire le risque de rupture de service grâce à l’Intelligence Artificielle et au Machine Learning. Ces technologies sont pourvues par Litbit, un concepteur et fournisseur d’AI personas, lui-même hébergé par ROOT Datacenter. Litbit propose aux entreprises une offre IA-based en accompagnement et soutien des activités humaines, par analyse et surveillance continue des flux d’informations sectorielles pertinentes. Ici, l’Intelligence Artificielle surveille, collecte et analyse en permanence l’ensemble des données d’infrastructure technique du Centre de données par l’intermédiaire de capteurs d’apprentissage : elle améliore ainsi la performance DCIM des exploitants en s’avérant notamment capable de prédire les futures pannes, lesquelles peuvent ainsi être évitées.

L’Uptime Institute lance un programme de certification TIER pour les DC préfabriqués et modulaires

Dans un contexte de croissance des implantations edge-computing, le nouveau programme « TIER-Ready » permet à présent aux fabricants de travailler avec l’Uptime Institute pour valider les conceptions spécifiques de leurs solutions pré-construites. La conformité TIER ciblée, anticipée au stade de la fabrication, permet ainsi aux organisations clientes de ces modules d’accélérer leur propre processus de certification UI et d’en réduire le coût, tout en bénéficiant du niveau requis en matière de garantie de continuité de fonctionnement en cas d’incident. Les sociétés Compass Datacenters, Schneider Electric et Huawei ont notamment adhéré à ce programme.

Facebook prévoit l’ouverture prochaine du code de LogDevice

Le réseau social poursuit sa stratégie de contribution au monde Open Source avec l’annonce, lors de la conférence @Scale 2017, de la prochaine mise à disposition du code C++ de l’application-maison LogDevice, encore en cours d’amélioration. Distribuée à l’échelle mondiale au niveau des centres de données détenus par Facebook, la solution permet la prise en charge proactive des transactions à l’occurrence d’une panne ou d’un incident de performance, tandis que la source du problème est identifiée et le retour à la normale opéré. La réinjection des données et la synchronisation de celles-ci vers et depuis les différents DataCenter surviennent ensuite sans perte des transactions initiées par les utilisateurs, assurant ainsi l’homogénéité du contenu proposé d’un bout à l’autre de la planète.

Malgré le Brexit, OVH poursuit (notamment) son développement au Royaume-Uni

OVH inaugure comme prévu un Centre de données au sud-est de Londres, le premier d’une série de trois sites outre-manche, les deux autres étant dédiés à la continuité de service et à la reprise de celui-ci à l’occurrence d’un sinistre. Pas de modification du plan de route pour le spécialiste français de l’hébergement et du cloud computing, depuis l’annonce du retrait du Royaume-Uni de l’Union Européenne. Ces investissements s’inscrivent d’ailleurs dans le cadre d’une campagne plus vaste d’internationalisation des services de la société (Allemagne, Pologne, Singapour, Australie ; et à l’horizon 2020 : Espagne, Italie, Pays-Bas et États-unis). Le DataCenter UK n’offrira pas d’hébergement type colocation.

Panne informatique de British Airways : une conjonction de causes classiques

La compagnie aérienne British Airways s’est récemment exprimée quant aux causes de la panne informatique ayant récemment impacté 75.000 de ses passagers. Celles-ci participent de deux thèmes invariablement localisés dans le trio de tête des études statistiques internationales de ces dernières années  (comme celles du Ponemon Institute) et qui concernent les arrêts de production des Centres de données : l’erreur humaine et l’alimentation énergétique. Particularité intéressante de cet incident, c’est lors de la remise en fonction de la source énergétique que les incidents informatiques auraient débuté dans le DC de la compagnie britannique…