ServerPowerSupply

SÉCURITÉ ÉLECTRIQUE DES ÉQUIPEMENTS MONO-ALIMENTÉS

Contenu mis à jour le 11 février 2018

Au sein des Centres de données, les références « Tier » (Uptime Institute) qualifient le niveau de disponibilité du service, par exemple : possibilité ou non d’une maintenance de l’infrastructure sans perturbation de la production IT, tolérance ou non à la panne d’un composant quelconque de cette même infrastructure… La qualité de la conception de la fourniture d’énergie, parmi les différentes fonctions distribuées vers les équipements informatiques, est prise en compte dans l’évaluation du niveau de disponibilité. C’est pourquoi la gestion de la continuité de l’alimentation électrique des composants mono-alimentés demande une attention particulière. Généralement, les matériels mono-alimentés ne sont pas pressentis pour une exploitation optimale. S’ils sont double-alimentables par adjonction d’un module d’alimentation électrique additionnel, cette modification matérielle est opérée systématiquement et indépendamment de la finalité IT.

Lire la suite

VPS, la société américaine qui propose de piloter l’approvisionnement énergétique par le logiciel

VPS -pour Virtual Power Systems– est une start-up californienne créée en 2014 dont l’offre technologique est actuellement au stade de projet POC chez Equinix, SAP ou encore Uber. A l’instar de la virtualisation de systèmes qui permet de réaliser dynamiquement la mise en adéquation software-defined des ressources matérielles allouées (CPU, RAM, espace disque, accès réseau) et les besoins des systèmes, VPS met en avant la possibilité de réaliser une relation de gestion identique entre le provisionning énergétique et les actifs IT. Typiquement, en ajustant par pilotage logiciel la capacité énergétique disponible pour une baie ou un groupe de baies, selon l’évolution des matériels contenus. VPS propose ainsi, par exemple, de concevoir un mécanisme de gestion de la priorité énergétique en cas de panne (prise en compte des différents de niveaux de disponibilité des services IT) et d’accompagner les pics de charge en production par mobilisation d’énergie stockée.

Air-PM

ISO 16890 : QUEL IMPACT POUR LA GESTION DE LA PROPRETÉ DE L’AIR EN SALLE ?

Jusqu’au début du mois de juin 2018, la norme historique de classification des filtres à air particulaires EN 779-2012 pourra encore être employée. Cependant, à partir de cette date, le standard ISO 16980, publié le 30 août 2016, deviendra l’unique prescription de référence et remplacera EN 779. Avec à la clé, un nouveau système plus lisible qui régira la performance des filtres au regard de la qualité de l’air obtenue.

Lire la suite

L’UE rapatrie un Centre de données Galileo suite au Brexit

Après l’annonce du transfert, depuis Londres vers Amsterdam, du siège de l’Agence Européenne des Médicaments en 2019 et de celui de l’Autorité Bancaire Européenne à la même période (vers Paris cette fois), c’est au tour du Centre de Données Galileo de backup, localisé à Swanwick (Southampton) de devoir préparer son transfert vers l’un des pays de l’Europe des 27, à savoir l’Espagne, à l’horizon de l’année prochaine. Le DataCenter principal de production demeure à Paris. Le Royaume-Uni demeure membre du programme spatial Galileo et bénéficiaire de ses applications civiles et militaires, cependant l’Union Européenne exprime ainsi sa volonté de conserver la main sur la disponibilité de ses institutions stratégiques.

PDU

FONCTIONS DES PDU D’ARRIÈRE DE BAIES

Contenu mis à jour le 14 janvier 2018

Distribuer et répartir de façon redondante la fourniture d’électricité au niveau des équipements IT localisés dans les baies informatiques nécessite l’emploi d’unités de distribution d’énergie (PDU – Power Distribution Unit). Matérialisant la terminaison des chaînes de distribution énergétiques en salle, les PDU assurent l’organisation de la capillarité et de la lisibilité nécessaires à l’exploitation. Indispensable lorsque le nombre d’alimentations à connecter peut aisément avoisiner les 70 éléments par rack.

Lire la suite

GeForce et Titan non supportées en Data Center… excepté pour les opérations blockchain

L’usage des fameux GPU Nvidia fait l’objet depuis début 2018 d’une restriction remarquée quant aux conditions générales d’utilisation des pilotes logiciels développés par le constructeur : « No Datacenter Deployment. The SOFTWARE is not licensed for datacenter deployment, except that blockchain processing in a datacenter is permitted. ». Sauf pour les applications blockchain (comme le minage de cryptomonnaie), les utilisateurs de Centres de Données risquent de devoir se rabattre sur des modèles plus qualitatifs, non initialement destinés au gamers, tels que Quadro et Tesla, pour opérer dans les domaines du calcul scientifique ou de l’intelligence artificielle.

CorrosonCI

PROPRETÉ DE L’AIR EN SALLE : SYNTHÈSE DE CE QU’IL FAUT ABSOLUMENT RETENIR

Les spécifications ASHRAE concernant les températures de fonctionnement en salle informatique ainsi que la teneur en humidité (hygrométrie) de son air intérieur sont communément comprises et intégrées dans les actes de conception et d’exploitation. Cependant, concernant la qualité de cet air intérieur, l’ASHRAE propose également un volet encore largement méconnu, dédié à sa propreté et qui s’appuie sur divers standards tels que ISO 14644-1 et ANSI/ISA 71.04-2013.

Lire la suite

Ouverture de la nouvelle région AWS EU/Paris depuis le 19/12/17

Amazon Web Services, qui revendique plusieurs dizaines de milliers de clients dans l’hexagone, poursuit l’implantation de son offre Cloud en France avec la mise en production le 19 décembre dernier de 3 DataCenters, matérialisant 3 nouvelles zones de disponibilité (sur 11 zones au total en Europe). De quoi réduire la latence applicative pour les utilisateurs français et souscrire aux éventuelles exigences de localisation des données sur le territoire, alors qu’Amazon garantit par ailleurs la pleine compatibilité de ses services avec le RGDP et a publié le mois dernier un livre Blanc sur ce thème.

DCKolosArctique

OPTIMISER LA PERFORMANCE ÉNERGÉTIQUE DE LA FONCTION REFROIDISSEMENT : LE FREE COOLING

Contenu mis à jour le 12 décembre 2017

Les systèmes de refroidissement classiques sont énergivores : 1 kW de puissance électrique consommée par l’IT engendre une charge thermique telle qu’1 « kW-froid » sera nécessaire pour la traiter, c’est-à-dire pour acheminer la chaleur produite par dissipation thermique à l’extérieur du Centre de Données.

Refroidir son Data Center par l’import opportuniste d’un fluide extérieur (air ou eau) librement disponible et de température plus faible que l’air intérieur : tel est en substance le principe du « free cooling », gage de substantielles économies par réduction de l’emploi de mécanismes basés sur des pompes à chaleur ; ces derniers sont alors conservés en tant que dispositifs d’appoint. Les bâtiments les mieux conçus en la matière -et les mieux localisés– réduisent leur consommation électrique de 50 % et utilisent exclusivement un refroidissement de type free-cooling.

Lire la suite

Utiliser l’IA pour prévenir l’indisponibilité d’un Centre de données

C’est ce que l’opérateur de Centre de données québecois ROOT Datacenter (2 DC basés à Montréal) propose et revendique : gérer et réduire le risque de rupture de service grâce à l’Intelligence Artificielle et au Machine Learning. Ces technologies sont pourvues par Litbit, un concepteur et fournisseur d’AI personas, lui-même hébergé par ROOT Datacenter. Litbit propose aux entreprises une offre IA-based en accompagnement et soutien des activités humaines, par analyse et surveillance continue des flux d’informations sectorielles pertinentes. Ici, l’Intelligence Artificielle surveille, collecte et analyse en permanence l’ensemble des données d’infrastructure technique du Centre de données par l’intermédiaire de capteurs d’apprentissage : elle améliore ainsi la performance DCIM des exploitants en s’avérant notamment capable de prédire les futures pannes, lesquelles peuvent ainsi être évitées.

Page 2 sur 121234510Dernière page »