DeepMind aux commandes du refroidissement des Datacenters Google

Google utilise son système d’intelligence artificielle DeepMind pour opérer la fonction Refroidissement de plusieurs de ses Datacenters. A partir des données fournies par des milliers de capteurs, l’IA effectue sans intervention humaine les actions appropriées, qu’elle détermine en tenant compte des indicateurs prioritaires de fonctionnement tout en recherchant continuellement l’amélioration de la performance énergétique. Les opérateurs humains peuvent reprendre la main à tout instant, bien qu’un système de contrôle additionnel et indépendant s’assure automatiquement du respect des contraintes fondamentales applicables.

ComputerRoom02

L’AUDIT PERIODIQUE DU PLANCHER TECHNIQUE

En salle informatique, la présence d’un plancher technique permet d’offrir de précieuses fonctions, telles qu’un espace de distribution pour le courant fort, un chemin de confinement de l’air froid soufflé par les climatiseurs, ou encore la matérialisation d’un réseau de masse garant de l’équipotentialité des matériels. Cependant, sinistres localisés, mauvaises pratiques d’exploitation, erreurs initiales de conception et phénomènes d’usure mécanique peuvent altérer progressivement la fiabilité du faux-plancher. C’est pourquoi l’audit périodique de cet élément s’impose pour contrôler sa conformité et proposer des actions correctives en cas de risque avéré d’exploitation.

Lire la suite

Twitter va massivement employer les services Cloud de Google

Afin de garantir l’évolutivité de son infrastructure de services basée sur Apache Hadoop pour le stockage et l’analyse Big Data, Twitter entame le déplacement de ses entrepôts de données à froid (plus de 300 PB…) vers l’offre Google Cloud Platform. Avec à la clé, un provisionning de ressources plus efficace , des garanties accrues en matière de résistance aux sinistres et une meilleure segmentation des allocations de composants au regard des tâches techniques qui leur sont affectées.

Windows Server 2019 : datacenter-ready

Les exploitants IT découvrent progressivement le potentiel de la nouvelle mouture du système d’exploitation Microsoft qui propose de substantielles améliorations sur les thèmes de l’hyper-convergence et de l’hybridation cloud. La prise en charge de l’hyper-convergence n’est pas nouvelle avec Windows Server (et ceci explique en partie la rapidité d’adoption de la version 2016), toutefois il devient à présent possible d’agréger plusieurs clusters dans un seul groupe de gestion et de disponibilité. L’exploitation d’un objet tel qu’une machine virtuelle bénéficie ainsi à la fois d’une continuité inter-clusters de management et de service. En parallèle, Microsoft communique régulièrement sur l’intégration dans Windows Server 2019 de nouvelles fonctions d’interopérabilité entre les systèmes on-premise et le cloud MS Azure, telles que Storage Migration Service.

Utiliser l’IA pour prévenir l’indisponibilité d’un Centre de données

C’est ce que l’opérateur de Centre de données québecois ROOT Datacenter (2 DC basés à Montréal) propose et revendique : gérer et réduire le risque de rupture de service grâce à l’Intelligence Artificielle et au Machine Learning. Ces technologies sont pourvues par Litbit, un concepteur et fournisseur d’AI personas, lui-même hébergé par ROOT Datacenter. Litbit propose aux entreprises une offre IA-based en accompagnement et soutien des activités humaines, par analyse et surveillance continue des flux d’informations sectorielles pertinentes. Ici, l’Intelligence Artificielle surveille, collecte et analyse en permanence l’ensemble des données d’infrastructure technique du Centre de données par l’intermédiaire de capteurs d’apprentissage : elle améliore ainsi la performance DCIM des exploitants en s’avérant notamment capable de prédire les futures pannes, lesquelles peuvent ainsi être évitées.