amélioration continue de la salle informatique

Amélioration continue de la salle informatique : offrez-vous un audit 360°

De nombreux corps de Métier contribuent à la conception et à l’exploitation d’un Datacenter. Cette multidisciplinarité peut faire obstacle à l’amélioration continue de la salle informatique. En effet, les écosystèmes professionnels de l’Infrastructure Bâtiment et des l’IT emploient des champs sémantiques dédiés. Ils répondent de surcroît à des enjeux particuliers par référence à des normes et règlements spécifiques. En outre, ces domaines d’expertise produisent des sous-spécialités additionnelles qui compliquent encore le maintien d’une vision d’ensemble intercohérente. Dans ces conditions, faire appel à un regard externe expérimenté permet d’identifier les principales perspectives d’amélioration. Ces dernières s’avèrent aussi bien localisées que transverses et organisationnelles. Elles s’appuient tant sur l’évolution des bonnes pratiques du Facility Management que sur celles de l’IT.

HOC INFO exerce dans le milieu des salles informatiques depuis 1994 : conception, réhabilitation, déplacement… .  Nous pilotons, pour tous ces projets de création ou de transformation de salles, des professionnels internes ou externes aux organisations, ainsi que de nombreux corps de Métier. En nous sollicitant pour un audit Datacenter en vue d’une amélioration continue de la salle informatique, vous vous assurez de la mise en œuvre d’une démarche complète adressant non seulement l’ensemble des fonctions techniques du bâtiment et de la cohérence de l’agencement des actifs IT, mais aussi, si vous le souhaitez, une évaluation de la maturité de votre organisation en matière de gestion des enjeux liés à l’exploitation (gestion des capacités, de la performance énergétique, des incidents, des configurations…). N’hésitez-pas à nous faire part de votre besoin.

Broadcom débute la livraison du Tomahawk ® 4

Nouvelle prometteuse pour le Cloud hyperscale et les adeptes du Leaf & Spine : le nouveau commutateur Tomahawk ® du constructeur américain affiche une (colossale) puissance de traitement réseau de… 25,6 Tbits/s. Cela représente 256 ports 100 GbE pris en charge par un système à puce unique. La stratégie habituelle de conception du géant industriel s’applique donc. Toutefois, il est possible de réorganiser autrement la bande passante disponible : 64 ports 400 GbE, par exemple.

De quoi générer un choc de performance des architectures réseau des Datacenters, avec de nombreux bénéfices annexes. En effet, le StrataXGS ® Tomahawk ® 4 est particulièrement représentatif d’une tendance globale à la simplification drastique des architectures réseaux physiques par consolidation/suppression des agrégats. Avec, à la clé, de substantielles économies d’énergie et une exploitation facilitée. Autre enjeu crucial adressé : la réduction de la latence réseau. En cause ici, l’amélioration des performances du stockage et l’hyper-distribution de la puissance de calcul. Ces évolutions ne nécessitent pas seulement l’élimination des congestions, mais aussi la simplification des chaînes de liaison.

NuclearPlant

CRITÈRES ÉNERGÉTIQUES ET CLIMATIQUES DE LOCALISATION DES CENTRES DE DONNÉES

Contenu mis à jour le 04 août 2018

Par nature, les Datacenters sont très énergivores, puisqu’une de leur vocation première consiste à approvisionner en électricité, de façon ininterrompue, d’importantes quantités de matériel informatique dont la densité ne cesse par ailleurs de croître. Ils représentent collectivement environ 5 % de la consommation électrique mondiale (en France : 9% ; individuellement, ils peuvent consommer autant qu’une ville de plusieurs dizaines de milliers d’habitants). Les Datacenters dépendent ainsi fortement de la disponibilité des sources d’énergie pourvues par le tissu géoéconomique local.

Lire la suite
ComputerRoom02

L’AUDIT PERIODIQUE DU PLANCHER TECHNIQUE

En salle informatique, la présence d’un plancher technique permet d’offrir de précieuses fonctions, telles qu’un espace de distribution pour le courant fort, un chemin de confinement de l’air froid soufflé par les climatiseurs, ou encore la matérialisation d’un réseau de masse garant de l’équipotentialité des matériels. Cependant, sinistres localisés, mauvaises pratiques d’exploitation, erreurs initiales de conception et phénomènes d’usure mécanique peuvent altérer progressivement la fiabilité du faux-plancher. C’est pourquoi l’audit périodique de cet élément s’impose pour contrôler sa conformité et proposer des actions correctives en cas de risque avéré d’exploitation.

Lire la suite

Les JO de Paris 2024 constituent-ils un risque énergétique pour les Datacenter français ?

C’est ce que laisse entendre le québecois ROOT Data Center dans sa dernière publication du 13 février dernier : une intéressante synthèse sur l’enjeu stratégique que représente l’évolutivité capacitaire des Centres de données, à dessein d’accompagner la croissance des activités numériques et digitales des entreprises. ROOT Data Center y décrit une approche structurée selon 3 paramètres : la puissance électrique, l’espace disponible et les compétences nécessaires à la gestion optimisée de ces deux variables. Concernant la France, le spécialiste de la colocation pointe une baisse de l’attractivité du bassin de Paris en raison de limitations énergétiques ainsi que la diminution progressive de la capacité de production du parc nucléaire. Dans ce contexte, les Jeux Olympiques de 2024 nécessiteront une réaffectation temporaire des ressources électriques disponibles, à laquelle devront probablement s’adapter les Centres de données.

VPS, la société américaine qui propose de piloter l’approvisionnement énergétique par le logiciel

VPS -pour Virtual Power Systems– est une start-up californienne créée en 2014 dont l’offre technologique est actuellement au stade de projet POC chez Equinix, SAP ou encore Uber. A l’instar de la virtualisation de systèmes qui permet de réaliser dynamiquement la mise en adéquation software-defined des ressources matérielles allouées (CPU, RAM, espace disque, accès réseau) et les besoins des systèmes, VPS met en avant la possibilité de réaliser une relation de gestion identique entre le provisionning énergétique et les actifs IT. Typiquement, en ajustant par pilotage logiciel la capacité énergétique disponible pour une baie ou un groupe de baies, selon l’évolution des matériels contenus. VPS propose ainsi, par exemple, de concevoir un mécanisme de gestion de la priorité énergétique en cas de panne (prise en compte des différents de niveaux de disponibilité des services IT) et d’accompagner les pics de charge en production par mobilisation d’énergie stockée.