Accès du DoJ aux données hébergées dans les DataCenters étrangers : la Cour Suprême saisie

Entre le Département de la Justice des États-unis et des géants de l’économie du numérique comme Google ou Microsoft, deux conceptions s’affrontent dans les tribunaux depuis plusieurs années : pour le premier, en vertu notamment du Stored Communications Act (et de l’Electronic Communications Privacy Act -ECPA- qui le contient), un mandat de perquisition suffit pour obliger les hébergeurs et pourvoyeurs de services Cloud à fournir à la justice américaine des données stockées dans des Data Centers localisés en dehors du territoire fédéral. Ce que conteste Microsoft, fer de lance d’une opposition qui plaide pour l’encadrement de ces pratiques par le biais d’accords intergouvernementaux : on comprend aisément qu’avec, par exemple, l’adoption du règlement « General Data Protection Regulation (GDPR) » par le Parlement Européen en avril 2017, l’éditeur risquerait, en fournissant sur mandat au DoJ américain des données stockées par les clients de son offre SaaS Office 365 au sein de ses Data Centers irlandais, de se voir condamner à une amende portée à 4% de son CA mondial consolidé ! En addition d’une bien mauvaise publicité auprès d’une clientèle professionnelle toujours plus vigilante quant à la confidentialité de ses données… . Mieux vaut donc, pour les sociétés du numérique d’envergure internationale, que des accords binationaux statuent sur la conduite qu’elles doivent tenir en la matière de part et d’autre de l’Atlantique.

Microsoft a gagné de nombreuses batailles judiciaires depuis 2016, notamment grâce à la constitution d’une solide coalition de protestataires (au rang desquels Apple, Cisco ou encore HP), cependant le gouvernement des États-Unis semble bien décider à remporter cette épreuve de force et a sollicité sa plus haute juridiction le 23 juin dernier. Inutile de préciser que sa décision est attendue avec impatience.

Panne informatique de British Airways : une conjonction de causes classiques

La compagnie aérienne British Airways s’est récemment exprimée quant aux causes de la panne informatique ayant récemment impacté 75.000 de ses passagers. Celles-ci participent de deux thèmes invariablement localisés dans le trio de tête des études statistiques internationales de ces dernières années  (comme celles du Ponemon Institute) et qui concernent les arrêts de production des Centres de données : l’erreur humaine et l’alimentation énergétique. Particularité intéressante de cet incident, c’est lors de la remise en fonction de la source énergétique que les incidents informatiques auraient débuté dans le DC de la compagnie britannique…

Distribution décentralisée de la mémoire physique avec Infiniswap

L’Université du Michigan réinvente les architectures RDMA avec Infiniswap, une technologie strictement logicielle de distribution décentralisée de la mémoire physique ne nécessitant aucun ajustement matériel, aucune modification de système d’exploitation ou d’application, aucun management centralisé, mais qui pourrait générer environ 25 % d’économies sur le poste RAM pour les Centres de données. En éliminant les points de congestion des réseaux RDMA classiques, Infiniswap atteint, durant les tests menés sur des applications de manipulation intensive de données, des taux de traitement multipliés par 4 à 16 selon les cas.

Localisation des centres de données : convergence des nouvelles tendances

Gartner prévoit que le nombre d’objets connectés dépassera les 20 milliards d’unités d’ici 2020, dont 65 % seront détenus par des particuliers. Or, l’utilité d’une grande majorité de ces objets connectés dépend de leur capacité à interagir efficacement, en temps réel, avec les services du cloud computing qui reposent sur les Centres de Données. Les architectures DataCenter doivent donc proposer l’implantation et le développement de nouvelles unités capables de distribuer ces services localement, au plus près des consommateurs, dans l’objectif de réduire les latences réseau et d’augmenter la résilience du fonctionnement global, en investissant les territoires des agglomérations de taille moyenne, à l’instar d’Apple à l’est de Reno au Nevada. A l’heure où la consommation énergétique mondiale des Centres de données dépasse celle du Royaume-Uni, leur implantation en région permet également de contourner l’impact de la saturation des réseaux électriques des grandes métropoles (cf. l’offre haut-de-gamme Castle IT à Larçay, en Indre-et-Loire) tout en privilégiant, du côté de certains géants du web, le développement de filières de production d’énergie renouvelable.

Le comportement au feu des câbles signalé dès le 1er juillet 2017 par marquage CE

Le Règlement européen des Produits de Construction (RPC) (« Construction Products Regulation » – CPR) appliqué au domaine 31 des « câbles d’alimentation, de commande et de communication », impose aux constructeurs de câbles destinés à l’implantation durable dans un bâtiment, dès le premier juillet 2017, de tester, classer et marquer les câbles proposés au marché européen.

Les spécifications de la norme harmonisée NF EN 50575 sont reprises concernant la qualification des critères de classification au feu du câblage de données, les principaux paramètres considérés de comportement au feu demeurant la propagation de la flamme et le dégagement de chaleur. 7 nouvelles classes Euro sont ainsi définies et complétées de critères d’importance contextuelle tels que le dégagement de fumée, leur pouvoir de corrosion et la production de gouttelettes enflammées.

Vers une norme internationale pour la filtration particulaire

En matière de qualité de l’air en salle informatique, les filtres à particule intégrés aux Centrales de Traitement d’Air et aux CRAC sont actuellement répartis, en Europe, selon la norme EN-779-2012 (classification G/M/F) tandis qu’outre-atlantique, ce rôle est assumé par le standard ASHRAE 52.2, le reste du monde s’appuyant sur telle ou telle référence. Cependant, la qualification toujours plus accrue de l’impact des particules en suspension dans l’air sur la santé des collaborateurs et la bonne exécution des processus industriels et tertiaires conduit à la mondialisation d’une norme de classement des filtres rendant directement compte de leur pouvoir filtrant. Ainsi, ISO 16890 facilitera la mise en adéquation entre la sélection d’un filtre, la qualité de l’air de son environnement natif d’intégration et la nature des processus numériques à protéger. Publiée Q1 2017, elle remplacera peu à peu les standards préexistants qui disparaîtront d’ici 2018.

Protection des données personnelles : plus que 14 mois pour souscrire aux obligations du RGPD

Le Règlement Général pour la Protection des Données entrera en vigueur dans l’Union Européenne le 24 mai 2018 et concerne aussi bien les Responsables d’un traitement de données personnelles que leurs sous-traitants. La nouvelle réglementation, assortie de lourdes sanctions financières pour les contrevenants (de 2 à 4 % du CA annuel mondial ou de 10 à 20 millions d’euros, selon le montant le plus élevé) impose l’intégration, avec obligation de résultat et capacité d’apport de preuve, de dispositifs de protection des données personnelles dès la conception du traitement (« privacy by design » & « privacy by default »). Gare aux fuites accidentelles de données privées qui pourront dès lors faire peser un risque financier non-négligeable à votre entreprise. Et si celle-ci ne collecte aucune donnée client, elle emploie probablement des collaborateurs dont les données personnelles entrent de plein droit dans le champ du dispositif…

Infrastructure Google cloud : 3 nouvelles régions

Lors de la conférence Google Cloud Next 2017, Google a confirmé la poursuite de la montée en puissance de son infrastructure DataCenter mondiale, notamment par la création de 3 nouvelles « régions » (Pays-Bas, Montréal et Californie), chacune d’entre elle contenant à terme un minimum de 3 centres de données. L’objectif annoncé consiste en l’amélioration des performances pour les zones géographiques adjacentes et en l’incorporation régionale des services GCP (Google Cloud Platform) – dont le traitement prédictif des données par exploitation du Big Data (Machine Learning) que la société américaine souhaite proposer aux entreprises de toute taille.

Plus qu’un mois pour se préparer à la nouvelle règlementation « Inspection des climatiseurs »

A partir du 1er avril 2017, les « systèmes complexes » de production de froid, autrement dit, au sens de l’arrêté du 15 décembre 2016, les dispositifs de réfrigération, de climatisation ainsi que les pompes à chaleur réversibles de puissance frigorifique supérieure ou égale à 12 kW et utilisés à d’autres fins que le simple confort des collaborateurs, devront faire l »objet d’une inspection périodique par un prestataire officiellement certifié par un organisme indépendant. Les exploitants de DataCenters et les responsables GTB devront préparer un dossier technique détaillé qui complètera l’examen sur site des installations en production.

Tuer vos zombies vous coûtera moins cher que de les élever en DataCenter

L’Uptime Institute a publié une synthèse comparative des plus intéressantes sur le thème des « coûts exorbitants de l’inaction », dans laquelle le dé-commissionnement systématique des « zombies » (les systèmes physiques ou virtuels n’ayant plus d’utilité réelle depuis au moins 6 mois) permet d’initier la réalisation d’économies d’échelle à plusieurs niveaux (énergie, exploitation, maintenance matérielle…) puis d’enclencher la mise en œuvre d’une stratégie proactive et à long terme de maîtrise des ressources et des coûts.

 

Page 5 sur 6« Première page23456