Pacific Power va produire massivement de l’électricité solaire pour Facebook

Les sociétés américaines Facebook et Pacific Power ont conclu ces derniers jours un partenariat économique en vue de fournir au réseau social 437 mégawatts d’électricité exclusivement produite à partir de panneaux solaires. Le Datacenter de Prineville, dans l’état de l’Oregon, fonctionnera en totalité et en priorité grâce à cet approvisionnement d’énergie renouvelable, grâce à une production régionale de 100 MW saluée par les élus locaux, par ailleurs associés à la démarche. Facebook continue ainsi de traduire dans les faits sa stratégie énergétique en faveur des modes de production propres.

Le groupe Data4 repasse sous pavillon français

Le fonds d’investissement américain Colony Capital (anciennement Colony NorthStar) cède la totalité de ses parts de Data4, constructeur et opérateur Cloud français de datacenters (15 sites à Paris, à Milan et au Luxembourg). L’acquéreur : AXA Investment Managers – Real Assets, actionnaire français historique à hauteur de 37% depuis 6 ans. Une opération gagnant-gagnant pour les deux parties dans la mesure où Colony Capital, investisseur de la première heure, vend des actifs à fort potentiel de croissance ; Data4 prévoit en effet le doublement de son parc dans les prochaines années.

Le Datacenter le plus green d’Europe renforce son infrastructure électrique

Et c’est la société ABB, partenaire historique de cet audacieux projet industriel, qui demeure en charge d’une conception des plus respectueuses de l’environnement. En effet, le Lefdal Mine DataCenter a tout pour plaire aux adeptes de la performance énergétique et des objectifs PUE-PI ambitieux. Localisé en Norvège, dont la part d’énergie renouvelable dans la production électrique nationale avoisine les 97 %, le site est localisé dans une ancienne mine d’olivine à proximité de glaciers ; en addition d’une température naturellement fraîche et stable, la proximité d’un fjord permet l’établissement d’un free-cooling à eau glacée, sans gaspillage excessif d’énergie de pompage. Les travaux d’ABB s’inscrivent dans les ambitions d’un site Tier III, d’une taille potentielle de 120 000 mètres-carrés et dont l’approvisionnement prévisionnel à terme représenterait 200 MW.

Microsoft Natick phase 2 : le datacenter sous-marin à présent immergé

La phase 2 du projet Microsoft Natick entre en phase d’expérimentation opérationnelle : après sa construction et son assemblage en France par le breton Naval Group, le prototype de DataCenter sous-marin a été immergé voici quelques jours au large des Orcades, au Nord de l’Ecosse, et déposé sur une base d’ancrage par 35 mètres de fond. L’éditeur et fournisseur de services Cloud souhaite évaluer la possibilité d’implanter de cette manière des Datacenters à la périphérie des grands centres urbains côtiers tout en réduisant la facture énergétique du poste Refroidissement, ainsi que les éventuelles nuisances pour les habitants. Pour le moment, le test grandeur nature se limite à un caisson d’une douzaine de baies et environ 800 serveurs ; son infrastructure est conçue pour une immersion de 5 années sans intervention physique.

ITB2 évalue l’impact énergétique du minage

Le DataCenter ITB2 d’Appeldoorn, aux Pays-Bas, se distingue par sa haute efficacité énergétique et son PUE de 1,08, bien meilleur que la moyenne européenne. Ce centre de données vient d’initier l‘ITB2 Crypto Currency Lab afin d’évaluer l’impact sur la consommation énergétique du minage des cryptomonnaies BitCoin et Ethereum. Au-delà des calculs et des constats qui seront opérés, ce sont les conséquences de la technologie blockchain sur l’infrastructure des DataCenters qu’ITB2 souhaite évoluer, dans la mesure où les GAFAM mettent en avant de nouveaux services l’utilisant.

TY11 : 11ème Datacenter Equinix à Tokyo

A l’aube des Jeux Olympiques de 2020, le leader mondial du Centre de données neutre-opérateur projette de s’implanter dans le quartier Ariake, réputé pour le haut niveau de résilience de ses infrastructures, afin d’y bâtir son 11ème IBX tokyoïte. Ce dernier constituera la plus vaste de ses implantations locales avec une capacité d’accueil initiale de 1000 baies, extensible à 2800 racks dans un second temps. La mise en service du nouveau site est planifiée pour le premier trimestre 2019, au sein d’un secteur géographique particulièrement demandeur en connectivité haute-performance vers les services Cloud.

Twitter va massivement employer les services Cloud de Google

Afin de garantir l’évolutivité de son infrastructure de services basée sur Apache Hadoop pour le stockage et l’analyse Big Data, Twitter entame le déplacement de ses entrepôts de données à froid (plus de 300 PB…) vers l’offre Google Cloud Platform. Avec à la clé, un provisionning de ressources plus efficace , des garanties accrues en matière de résistance aux sinistres et une meilleure segmentation des allocations de composants au regard des tâches techniques qui leur sont affectées.

Windows Server 2019 : datacenter-ready

Les exploitants IT découvrent progressivement le potentiel de la nouvelle mouture du système d’exploitation Microsoft qui propose de substantielles améliorations sur les thèmes de l’hyper-convergence et de l’hybridation cloud. La prise en charge de l’hyper-convergence n’est pas nouvelle avec Windows Server (et ceci explique en partie la rapidité d’adoption de la version 2016), toutefois il devient à présent possible d’agréger plusieurs clusters dans un seul groupe de gestion et de disponibilité. L’exploitation d’un objet tel qu’une machine virtuelle bénéficie ainsi à la fois d’une continuité inter-clusters de management et de service. En parallèle, Microsoft communique régulièrement sur l’intégration dans Windows Server 2019 de nouvelles fonctions d’interopérabilité entre les systèmes on-premise et le cloud MS Azure, telles que Storage Migration Service.

Microsoft officialise ses premières zones de disponibilité pour son offre Azure

C’est aux États-Unis (Iowa – US Central Region) et en France (Paris – France Central Region) que sont à présent déployées les premières zones de disponibilité du cloud MS Azure, conformément aux annonces de Microsoft de septembre dernier. Au sein d’une zone de disponibilité de chacune de ces régions, les services hébergés du cloud supportent la panne complète d’un Centre de données, sans aucune interruption, puisqu’ils sont également et simultanément en production au sein d’un Centre de données d’une autre zone de disponibilité de la même région. Le SLA de disponibilité d’une VM intégrée selon cette logique atteint 99,99 %. Bien entendu, cette stratégie présuppose, par exemple, le cloisonnement préalable des chaînes d’approvisionnement énergétique et des raccordements aux réseaux télécoms entre les différentes zones d’une région donnée.

Des camions autonomes pour assurer le fret à destination des DataCenters

C’est ce que la holding Alphabet expérimente actuellement au travers de sa filiale véhicules autonomes Waymo, avec pour destinataires naturels les DataCenter Google localisés à Atlanta (Géorgie). L’intérêt de la séquence de test est double :  elle permet non seulement d’évaluer sur le terrain la maturité du trucking autonome pour l’ensemble de la couverture logistique encore portée de nos jours par ce moyen de transport, mais de plus elle contribue à préparer l’optimisation de la répartition du traitement de l’information entre ce qui relèvera du véhicule et ce qui devra être supporté par les centres de données tout au long de l’acheminement des matériels.