Panne informatique de British Airways : une conjonction de causes classiques

La compagnie aérienne British Airways s’est récemment exprimée quant aux causes de la panne informatique ayant récemment impacté 75.000 de ses passagers. Celles-ci participent de deux thèmes invariablement localisés dans le trio de tête des études statistiques internationales de ces dernières années  (comme celles du Ponemon Institute) et qui concernent les arrêts de production des Centres de données : l’erreur humaine et l’alimentation énergétique. Particularité intéressante de cet incident, c’est lors de la remise en fonction de la source énergétique que les incidents informatiques auraient débuté dans le DC de la compagnie britannique…

Distribution décentralisée de la mémoire physique avec Infiniswap

L’Université du Michigan réinvente les architectures RDMA avec Infiniswap, une technologie strictement logicielle de distribution décentralisée de la mémoire physique ne nécessitant aucun ajustement matériel, aucune modification de système d’exploitation ou d’application, aucun management centralisé, mais qui pourrait générer environ 25 % d’économies sur le poste RAM pour les Centres de données. En éliminant les points de congestion des réseaux RDMA classiques, Infiniswap atteint, durant les tests menés sur des applications de manipulation intensive de données, des taux de traitement multipliés par 4 à 16 selon les cas.

Localisation des centres de données : convergence des nouvelles tendances

Gartner prévoit que le nombre d’objets connectés dépassera les 20 milliards d’unités d’ici 2020, dont 65 % seront détenus par des particuliers. Or, l’utilité d’une grande majorité de ces objets connectés dépend de leur capacité à interagir efficacement, en temps réel, avec les services du cloud computing qui reposent sur les Centres de Données. Les architectures DataCenter doivent donc proposer l’implantation et le développement de nouvelles unités capables de distribuer ces services localement, au plus près des consommateurs, dans l’objectif de réduire les latences réseau et d’augmenter la résilience du fonctionnement global, en investissant les territoires des agglomérations de taille moyenne, à l’instar d’Apple à l’est de Reno au Nevada. A l’heure où la consommation énergétique mondiale des Centres de données dépasse celle du Royaume-Uni, leur implantation en région permet également de contourner l’impact de la saturation des réseaux électriques des grandes métropoles (cf. l’offre haut-de-gamme Castle IT à Larçay, en Indre-et-Loire) tout en privilégiant, du côté de certains géants du web, le développement de filières de production d’énergie renouvelable.

Le comportement au feu des câbles signalé dès le 1er juillet 2017 par marquage CE

Le Règlement européen des Produits de Construction (RPC) (« Construction Products Regulation » – CPR) appliqué au domaine 31 des « câbles d’alimentation, de commande et de communication », impose aux constructeurs de câbles destinés à l’implantation durable dans un bâtiment, dès le premier juillet 2017, de tester, classer et marquer les câbles proposés au marché européen.

Les spécifications de la norme harmonisée NF EN 50575 sont reprises concernant la qualification des critères de classification au feu du câblage de données, les principaux paramètres considérés de comportement au feu demeurant la propagation de la flamme et le dégagement de chaleur. 7 nouvelles classes Euro sont ainsi définies et complétées de critères d’importance contextuelle tels que le dégagement de fumée, leur pouvoir de corrosion et la production de gouttelettes enflammées.

Vers une norme internationale pour la filtration particulaire

En matière de qualité de l’air en salle informatique, les filtres à particule intégrés aux Centrales de Traitement d’Air et aux CRAC sont actuellement répartis, en Europe, selon la norme EN-779-2012 (classification G/M/F) tandis qu’outre-atlantique, ce rôle est assumé par le standard ASHRAE 52.2, le reste du monde s’appuyant sur telle ou telle référence. Cependant, la qualification toujours plus accrue de l’impact des particules en suspension dans l’air sur la santé des collaborateurs et la bonne exécution des processus industriels et tertiaires conduit à la mondialisation d’une norme de classement des filtres rendant directement compte de leur pouvoir filtrant. Ainsi, ISO 16890 facilitera la mise en adéquation entre la sélection d’un filtre, la qualité de l’air de son environnement natif d’intégration et la nature des processus numériques à protéger. Publiée Q1 2017, elle remplacera peu à peu les standards préexistants qui disparaîtront d’ici 2018.

Infrastructure Google cloud : 3 nouvelles régions

Lors de la conférence Google Cloud Next 2017, Google a confirmé la poursuite de la montée en puissance de son infrastructure DataCenter mondiale, notamment par la création de 3 nouvelles « régions » (Pays-Bas, Montréal et Californie), chacune d’entre elle contenant à terme un minimum de 3 centres de données. L’objectif annoncé consiste en l’amélioration des performances pour les zones géographiques adjacentes et en l’incorporation régionale des services GCP (Google Cloud Platform) – dont le traitement prédictif des données par exploitation du Big Data (Machine Learning) que la société américaine souhaite proposer aux entreprises de toute taille.

Plus qu’un mois pour se préparer à la nouvelle règlementation « Inspection des climatiseurs »

A partir du 1er avril 2017, les « systèmes complexes » de production de froid, autrement dit, au sens de l’arrêté du 15 décembre 2016, les dispositifs de réfrigération, de climatisation ainsi que les pompes à chaleur réversibles de puissance frigorifique supérieure ou égale à 12 kW et utilisés à d’autres fins que le simple confort des collaborateurs, devront faire l »objet d’une inspection périodique par un prestataire officiellement certifié par un organisme indépendant. Les exploitants de DataCenters et les responsables GTB devront préparer un dossier technique détaillé qui complètera l’examen sur site des installations en production.

Tuer vos zombies vous coûtera moins cher que de les élever en DataCenter

L’Uptime Institute a publié une synthèse comparative des plus intéressantes sur le thème des « coûts exorbitants de l’inaction », dans laquelle le dé-commissionnement systématique des « zombies » (les systèmes physiques ou virtuels n’ayant plus d’utilité réelle depuis au moins 6 mois) permet d’initier la réalisation d’économies d’échelle à plusieurs niveaux (énergie, exploitation, maintenance matérielle…) puis d’enclencher la mise en œuvre d’une stratégie proactive et à long terme de maîtrise des ressources et des coûts.

 

IDC : prépondérance programmée des investissements d’infrastructure cloud

Selon le cabinet d’études IDC, les dépenses mondiales d’infrastructure des acteurs cloud surclasseront les dépenses d’infrastructure traditionnelles dès 2020, période à laquelle le cloud public pèsera pour un tiers du marché d’investissement, contre un cinquième pour le cloud privé. Commutation et stockage représenteront les principaux postes budgétaires du cloud dès 2017.

Un micro-Datacenter à positionner sur site

HP et Schneider Electrics lancent sur le marché un micro-DataCenter modulaire. Autonome, ne nécessitant pas de salle informatique ou technique, il intègre la distribution électrique, l’ondulation, la climatisation, sa propre GT, ainsi qu’une infrastructure IT hyperconvergée. Résistant au feu, son positionnement s’adapte à la configuration des locaux du site d’accueil.