CoolingTower

3 PARAMÈTRES ESSENTIELS POUR LA CONCEPTION D’UNE STRATÉGIE DE REFROIDISSEMENT (2/3)

Suite de notre série de billets concernant l’organisation de l’apport d’air froid en salle informatique. Au-delà de la mise en place de dispositifs de climatisation, le concepteur de salles informatiques (in-house ou hébergées en centres de données) recherche par exemple l’évolutivité capacitaire, la tolérance à la panne, la performance énergétique ou encore un rendement économique aussi élevé que possible. En particulier, la mise en haute-disponibilité de l’apport d’air froid est essentielle à la conduite des opérations informatiques. Une panne prolongée, même partielle, de cette fonction de soutien génère une élévation rapide de température pouvant déboucher sur des arrêts préventifs et automatiques d’équipements IT.

2- Comment organiser la redondance de la fonction refroidissement en salle informatique ?

Avant tout, il convient de bien comprendre que cette redondance s’entend à capacité égale, dans une logique similaire à la redondance énergétique. Une erreur courante consiste à construire une stratégie de tolérance à la panne garantissant un mode dégradé, à 70 ou 75% de la capacité initiale. Or, une capacité de refroidissement insuffisante ne se traduit pas uniquement par une élévation globale de température moins agressive que des climatiseurs totalement inopérants : en réalité, des points chauds apparaissent rapidement aux endroits les moins efficacement refroidis, affichant des températures au-delà des préconisations ASHRAE et provoquant des arrêts localisés d’activité.

C’est d’abord au niveau énergétique, à l’instar des équipements IT, que débute la mise en place du plan de continuité de la fonction refroidissement. Au moins 2 chaînes de refroidissement (2 groupes de climatiseurs) bénéficient chacune d’une chaîne d’alimentation énergétique dédiée, distincte des canaux énergétiques à destination de l’IT. Ces chaînes d’alimentation de climatiseurs proviennent de TGBT distincts, afin de se prémunir de l’impact d’une panne localisée au niveau d’un TGBT.

Chacune des chaînes de refroidissement doit pouvoir prendre en charge la totalité du besoin de l’ensemble de la salle informatique. En mode nominal, la charge de travail est ainsi uniformément répartie entre les deux groupes. Au sein de chaque chaîne, la même logique de répartition de la production de froid entre climatiseurs prévaut, cependant elle peut être optimisée en permettant la panne totale d’un ou plusieurs élément(s) sans report de charge sur l’autre chaîne. C’est pourquoi certaines conceptions privilégient l’intégration de grappes de modules froid de faible capacité plutôt qu’une grosse armoire de climatisation. Afin de mieux résister aux arrêts électriques intempestifs, il est également judicieux d’alimenter quelques climatiseurs par les deux voies énergétiques et de paramétrer la solution de refroidissement de façon à permettre l’inclusion de ces climatiseurs dans le fonctionnement global de l’une ou l’autre des chaînes de production de froid.

 Pour se former :

cellaconsilium-logo

RowPower

CONCEVOIR LA DISTRIBUTION ÉLECTRIQUE EN SALLE INFORMATIQUE : POINTS D’ATTENTION

Contenu mis à jour le 13/05/2018

Que les tableaux divisionnaires terminaux soient localisés directement en salle informatique ou qu’ils bénéficient de locaux techniques dédiés, l’acheminement de l’énergie jusqu’aux équipements IT mérite une conception globale attentive sous peine d’engendrer des écueils de fonctionnement et des lacunes de design difficilement récupérables, donc coûteuses à corriger.

Lire la suite

Twitter va massivement employer les services Cloud de Google

Afin de garantir l’évolutivité de son infrastructure de services basée sur Apache Hadoop pour le stockage et l’analyse Big Data, Twitter entame le déplacement de ses entrepôts de données à froid (plus de 300 PB…) vers l’offre Google Cloud Platform. Avec à la clé, un provisionning de ressources plus efficace , des garanties accrues en matière de résistance aux sinistres et une meilleure segmentation des allocations de composants au regard des tâches techniques qui leur sont affectées.

Windows Server 2019 : datacenter-ready

Les exploitants IT découvrent progressivement le potentiel de la nouvelle mouture du système d’exploitation Microsoft qui propose de substantielles améliorations sur les thèmes de l’hyper-convergence et de l’hybridation cloud. La prise en charge de l’hyper-convergence n’est pas nouvelle avec Windows Server (et ceci explique en partie la rapidité d’adoption de la version 2016), toutefois il devient à présent possible d’agréger plusieurs clusters dans un seul groupe de gestion et de disponibilité. L’exploitation d’un objet tel qu’une machine virtuelle bénéficie ainsi à la fois d’une continuité inter-clusters de management et de service. En parallèle, Microsoft communique régulièrement sur l’intégration dans Windows Server 2019 de nouvelles fonctions d’interopérabilité entre les systèmes on-premise et le cloud MS Azure, telles que Storage Migration Service.

Microsoft officialise ses premières zones de disponibilité pour son offre Azure

C’est aux États-Unis (Iowa – US Central Region) et en France (Paris – France Central Region) que sont à présent déployées les premières zones de disponibilité du cloud MS Azure, conformément aux annonces de Microsoft de septembre dernier. Au sein d’une zone de disponibilité de chacune de ces régions, les services hébergés du cloud supportent la panne complète d’un Centre de données, sans aucune interruption, puisqu’ils sont également et simultanément en production au sein d’un Centre de données d’une autre zone de disponibilité de la même région. Le SLA de disponibilité d’une VM intégrée selon cette logique atteint 99,99 %. Bien entendu, cette stratégie présuppose, par exemple, le cloisonnement préalable des chaînes d’approvisionnement énergétique et des raccordements aux réseaux télécoms entre les différentes zones d’une région donnée.

ElectricalSwitchgear

LES PRINCIPALES CAUSES DE PANNE ÉLECTRIQUE EN DATACENTER

Garantir la continuité de l’alimentation électrique des équipements IT constitue l’une des fonctions fondamentales des Datacenters. Pourtant, parmi les nombreux articles de presse relatant les incidents de production dont les Centres de données font encore l’objet (et l’année 2017 fût à ce titre particulièrement féconde…), les départs de feu et les arrêts électriques intempestifs représentent les menaces dont la concrétisation est la plus fréquente. Les concepteurs de Datacenters veillent pourtant à l’implantation judicieuse de ces bâtiments spécifiques en s’assurant de la qualité, de la densité, de la robustesse et de la redondance de l’offre énergétique locale tout en évitant autant que possible l’occurrence de risques environnementaux. La tâche est plus ardue pour les exploitants de salles in-house, contraints par la localisation historique du site et ne bénéficiant pas toujours d’une infrastructure de bâtiment à la hauteur des enjeux.

Lire la suite

VPS, la société américaine qui propose de piloter l’approvisionnement énergétique par le logiciel

VPS -pour Virtual Power Systems– est une start-up californienne créée en 2014 dont l’offre technologique est actuellement au stade de projet POC chez Equinix, SAP ou encore Uber. A l’instar de la virtualisation de systèmes qui permet de réaliser dynamiquement la mise en adéquation software-defined des ressources matérielles allouées (CPU, RAM, espace disque, accès réseau) et les besoins des systèmes, VPS met en avant la possibilité de réaliser une relation de gestion identique entre le provisionning énergétique et les actifs IT. Typiquement, en ajustant par pilotage logiciel la capacité énergétique disponible pour une baie ou un groupe de baies, selon l’évolution des matériels contenus. VPS propose ainsi, par exemple, de concevoir un mécanisme de gestion de la priorité énergétique en cas de panne (prise en compte des différents de niveaux de disponibilité des services IT) et d’accompagner les pics de charge en production par mobilisation d’énergie stockée.

L’UE rapatrie un Centre de données Galileo suite au Brexit

Après l’annonce du transfert, depuis Londres vers Amsterdam, du siège de l’Agence Européenne des Médicaments en 2019 et de celui de l’Autorité Bancaire Européenne à la même période (vers Paris cette fois), c’est au tour du Centre de Données Galileo de backup, localisé à Swanwick (Southampton) de devoir préparer son transfert vers l’un des pays de l’Europe des 27, à savoir l’Espagne, à l’horizon de l’année prochaine. Le DataCenter principal de production demeure à Paris. Le Royaume-Uni demeure membre du programme spatial Galileo et bénéficiaire de ses applications civiles et militaires, cependant l’Union Européenne exprime ainsi sa volonté de conserver la main sur la disponibilité de ses institutions stratégiques.

PDU

FONCTIONS DES PDU D’ARRIÈRE DE BAIES

Contenu mis à jour le 14 janvier 2018

Distribuer et répartir de façon redondante la fourniture d’électricité au niveau des équipements IT localisés dans les baies informatiques nécessite l’emploi d’unités de distribution d’énergie (PDU – Power Distribution Unit). Matérialisant la terminaison des chaînes de distribution énergétiques en salle, les PDU assurent l’organisation de la capillarité et de la lisibilité nécessaires à l’exploitation. Indispensable lorsque le nombre d’alimentations à connecter peut aisément avoisiner les 70 éléments par rack.

Lire la suite

Ouverture de la nouvelle région AWS EU/Paris depuis le 19/12/17

Amazon Web Services, qui revendique plusieurs dizaines de milliers de clients dans l’hexagone, poursuit l’implantation de son offre Cloud en France avec la mise en production le 19 décembre dernier de 3 DataCenters, matérialisant 3 nouvelles zones de disponibilité (sur 11 zones au total en Europe). De quoi réduire la latence applicative pour les utilisateurs français et souscrire aux éventuelles exigences de localisation des données sur le territoire, alors qu’Amazon garantit par ailleurs la pleine compatibilité de ses services avec le RGDP et a publié le mois dernier un livre Blanc sur ce thème.

Page 1 sur 3123