amélioration continue de la salle informatique

Amélioration continue de la salle informatique : offrez-vous un audit 360°

De nombreux corps de Métier contribuent à la conception et à l’exploitation d’un Datacenter. Cette multidisciplinarité peut faire obstacle à l’amélioration continue de la salle informatique. En effet, les écosystèmes professionnels de l’Infrastructure Bâtiment et des l’IT emploient des champs sémantiques dédiés. Ils répondent de surcroît à des enjeux particuliers par référence à des normes et règlements spécifiques. En outre, ces domaines d’expertise produisent des sous-spécialités additionnelles qui compliquent encore le maintien d’une vision d’ensemble intercohérente. Dans ces conditions, faire appel à un regard externe expérimenté permet d’identifier les principales perspectives d’amélioration. Ces dernières s’avèrent aussi bien localisées que transverses et organisationnelles. Elles s’appuient tant sur l’évolution des bonnes pratiques du Facility Management que sur celles de l’IT.

HOC INFO exerce dans le milieu des salles informatiques depuis 1994 : conception, réhabilitation, déplacement… .  Nous pilotons, pour tous ces projets de création ou de transformation de salles, des professionnels internes ou externes aux organisations, ainsi que de nombreux corps de Métier. En nous sollicitant pour un audit Datacenter en vue d’une amélioration continue de la salle informatique, vous vous assurez de la mise en œuvre d’une démarche complète adressant non seulement l’ensemble des fonctions techniques du bâtiment et de la cohérence de l’agencement des actifs IT, mais aussi, si vous le souhaitez, une évaluation de la maturité de votre organisation en matière de gestion des enjeux liés à l’exploitation (gestion des capacités, de la performance énergétique, des incidents, des configurations…). N’hésitez-pas à nous faire part de votre besoin.

Uptime Institute : pour en finir avec l’ « erreur humaine »

Le célèbre créateur du standard Tier s’interroge sur les causes des arrêts de production dans nos SI modernes. Et en particulier, sur la prédominance de l’ « erreur humaine » comme résultante de l’analyse causale d’une catastrophe numérique. En effet, dans nos SI modernes, articulés autour des salles informatiques et des Datacenters, le facteur humain semble presque incongru. L’ « erreur humaine » ne serait-elle pas devenue une expression valise qui masque une réelle lacune de cohérence stratégique ? Les exploitants sont-ils vraiment responsables lorsque l’organisation globale est défaillante ?

La synthèse de l’étude de l’UI invite froidement à ne pas attendre de miracle technologique tant que la gestion des actifs IT demeure fantaisiste. Par exemple, lorsque la gestion des changements est inconsistante. Ou que la gestion des infrastructures logiques fait oublier l’existence des équipements sous-jacents. Il s’agit donc de rehausser le niveau de rigueur en incluant les exploitants dans cette démarche d’amélioration continue. Sous-estimer la valeur opérationnelle du matériel informatique débouche immanquablement sur de brutaux retours à la réalité.

DeepMind aux commandes du refroidissement des Datacenters Google

Google utilise son système d’intelligence artificielle DeepMind pour opérer la fonction Refroidissement de plusieurs de ses Datacenters. A partir des données fournies par des milliers de capteurs, l’IA effectue sans intervention humaine les actions appropriées, qu’elle détermine en tenant compte des indicateurs prioritaires de fonctionnement tout en recherchant continuellement l’amélioration de la performance énergétique. Les opérateurs humains peuvent reprendre la main à tout instant, bien qu’un système de contrôle additionnel et indépendant s’assure automatiquement du respect des contraintes fondamentales applicables.

ComputerRoom02

L’AUDIT PERIODIQUE DU PLANCHER TECHNIQUE

En salle informatique, la présence d’un plancher technique permet d’offrir de précieuses fonctions, telles qu’un espace de distribution pour le courant fort, un chemin de confinement de l’air froid soufflé par les climatiseurs, ou encore la matérialisation d’un réseau de masse garant de l’équipotentialité des matériels. Cependant, sinistres localisés, mauvaises pratiques d’exploitation, erreurs initiales de conception et phénomènes d’usure mécanique peuvent altérer progressivement la fiabilité du faux-plancher. C’est pourquoi l’audit périodique de cet élément s’impose pour contrôler sa conformité et proposer des actions correctives en cas de risque avéré d’exploitation.

Lire la suite

Twitter va massivement employer les services Cloud de Google

Afin de garantir l’évolutivité de son infrastructure de services basée sur Apache Hadoop pour le stockage et l’analyse Big Data, Twitter entame le déplacement de ses entrepôts de données à froid (plus de 300 PB…) vers l’offre Google Cloud Platform. Avec à la clé, un provisionning de ressources plus efficace , des garanties accrues en matière de résistance aux sinistres et une meilleure segmentation des allocations de composants au regard des tâches techniques qui leur sont affectées.

Windows Server 2019 : datacenter-ready

Les exploitants IT découvrent progressivement le potentiel de la nouvelle mouture du système d’exploitation Microsoft qui propose de substantielles améliorations sur les thèmes de l’hyper-convergence et de l’hybridation cloud. La prise en charge de l’hyper-convergence n’est pas nouvelle avec Windows Server (et ceci explique en partie la rapidité d’adoption de la version 2016), toutefois il devient à présent possible d’agréger plusieurs clusters dans un seul groupe de gestion et de disponibilité. L’exploitation d’un objet tel qu’une machine virtuelle bénéficie ainsi à la fois d’une continuité inter-clusters de management et de service. En parallèle, Microsoft communique régulièrement sur l’intégration dans Windows Server 2019 de nouvelles fonctions d’interopérabilité entre les systèmes on-premise et le cloud MS Azure, telles que Storage Migration Service.

Utiliser l’IA pour prévenir l’indisponibilité d’un Centre de données

C’est ce que l’opérateur de Centre de données québecois ROOT Datacenter (2 DC basés à Montréal) propose et revendique : gérer et réduire le risque de rupture de service grâce à l’Intelligence Artificielle et au Machine Learning. Ces technologies sont pourvues par Litbit, un concepteur et fournisseur d’AI personas, lui-même hébergé par ROOT Datacenter. Litbit propose aux entreprises une offre IA-based en accompagnement et soutien des activités humaines, par analyse et surveillance continue des flux d’informations sectorielles pertinentes. Ici, l’Intelligence Artificielle surveille, collecte et analyse en permanence l’ensemble des données d’infrastructure technique du Centre de données par l’intermédiaire de capteurs d’apprentissage : elle améliore ainsi la performance DCIM des exploitants en s’avérant notamment capable de prédire les futures pannes, lesquelles peuvent ainsi être évitées.