Gartner prévoit que le nombre d’objets connectés dépassera les 20 milliards d’unités d’ici 2020, dont 65 % seront détenus par des particuliers. Or, l’utilité d’une grande majorité de ces objets connectés dépend de leur capacité à interagir efficacement, en temps réel, avec les services du cloud computing qui reposent sur les Centres de Données. Les architectures DataCenter doivent donc proposer l’implantation et le développement de nouvelles unités capables de distribuer ces services localement, au plus près des consommateurs, dans l’objectif de réduire les latences réseau et d’augmenter la résilience du fonctionnement global, en investissant les territoires des agglomérations de taille moyenne, à l’instar d’Apple à l’est de Reno au Nevada. A l’heure où la consommation énergétique mondiale des Centres de données dépasse celle du Royaume-Uni, leur implantation en région permet également de contourner l’impact de la saturation des réseaux électriques des grandes métropoles (cf. l’offre haut-de-gamme Castle IT à Larçay, en Indre-et-Loire) tout en privilégiant, du côté de certains géants du web, le développement de filières de production d’énergie renouvelable.
Le Règlement européen des Produits de Construction (RPC) (« Construction Products Regulation » – CPR) appliqué au domaine 31 des « câbles d’alimentation, de commande et de communication », impose aux constructeurs de câbles destinés à l’implantation durable dans un bâtiment, dès le premier juillet 2017, de tester, classer et marquer les câbles proposés au marché européen.
Les spécifications de la norme harmonisée NF EN 50575 sont reprises concernant la qualification des critères de classification au feu du câblage de données, les principaux paramètres considérés de comportement au feu demeurant la propagation de la flamme et le dégagement de chaleur. 7 nouvelles classes Euro sont ainsi définies et complétées de critères d’importance contextuelle tels que le dégagement de fumée, leur pouvoir de corrosion et la production de gouttelettes enflammées.
En matière de qualité de l’air en salle informatique, les filtres à particule intégrés aux Centrales de Traitement d’Air et aux CRAC sont actuellement répartis, en Europe, selon la norme EN-779-2012 (classification G/M/F) tandis qu’outre-atlantique, ce rôle est assumé par le standard ASHRAE 52.2, le reste du monde s’appuyant sur telle ou telle référence. Cependant, la qualification toujours plus accrue de l’impact des particules en suspension dans l’air sur la santé des collaborateurs et la bonne exécution des processus industriels et tertiaires conduit à la mondialisation d’une norme de classement des filtres rendant directement compte de leur pouvoir filtrant. Ainsi, ISO 16890 facilitera la mise en adéquation entre la sélection d’un filtre, la qualité de l’air de son environnement natif d’intégration et la nature des processus numériques à protéger. Publiée Q1 2017, elle remplacera peu à peu les standards préexistants qui disparaîtront d’ici 2018.
Le Règlement Général pour la Protection des Données entrera en vigueur dans l’Union Européenne le 24 mai 2018 et concerne aussi bien les Responsables d’un traitement de données personnelles que leurs sous-traitants. La nouvelle réglementation, assortie de lourdes sanctions financières pour les contrevenants (de 2 à 4 % du CA annuel mondial ou de 10 à 20 millions d’euros, selon le montant le plus élevé) impose l’intégration, avec obligation de résultat et capacité d’apport de preuve, de dispositifs de protection des données personnelles dès la conception du traitement (« privacy by design » & « privacy by default »). Gare aux fuites accidentelles de données privées qui pourront dès lors faire peser un risque financier non-négligeable à votre entreprise. Et si celle-ci ne collecte aucune donnée client, elle emploie probablement des collaborateurs dont les données personnelles entrent de plein droit dans le champ du dispositif…
Lors de la conférence Google Cloud Next 2017, Google a confirmé la poursuite de la montée en puissance de son infrastructure DataCenter mondiale, notamment par la création de 3 nouvelles « régions » (Pays-Bas, Montréal et Californie), chacune d’entre elle contenant à terme un minimum de 3 centres de données. L’objectif annoncé consiste en l’amélioration des performances pour les zones géographiques adjacentes et en l’incorporation régionale des services GCP (Google Cloud Platform) – dont le traitement prédictif des données par exploitation du Big Data (Machine Learning) que la société américaine souhaite proposer aux entreprises de toute taille.
A partir du 1er avril 2017, les « systèmes complexes » de production de froid, autrement dit, au sens de l’arrêté du 15 décembre 2016, les dispositifs de réfrigération, de climatisation ainsi que les pompes à chaleur réversibles de puissance frigorifique supérieure ou égale à 12 kW et utilisés à d’autres fins que le simple confort des collaborateurs, devront faire l »objet d’une inspection périodique par un prestataire officiellement certifié par un organisme indépendant. Les exploitants de DataCenters et les responsables GTB devront préparer un dossier technique détaillé qui complètera l’examen sur site des installations en production.
L’Uptime Institute a publié une synthèse comparative des plus intéressantes sur le thème des « coûts exorbitants de l’inaction », dans laquelle le dé-commissionnement systématique des « zombies » (les systèmes physiques ou virtuels n’ayant plus d’utilité réelle depuis au moins 6 mois) permet d’initier la réalisation d’économies d’échelle à plusieurs niveaux (énergie, exploitation, maintenance matérielle…) puis d’enclencher la mise en œuvre d’une stratégie proactive et à long terme de maîtrise des ressources et des coûts.
Selon le cabinet d’études IDC, les dépenses mondiales d’infrastructure des acteurs cloud surclasseront les dépenses d’infrastructure traditionnelles dès 2020, période à laquelle le cloud public pèsera pour un tiers du marché d’investissement, contre un cinquième pour le cloud privé. Commutation et stockage représenteront les principaux postes budgétaires du cloud dès 2017.
HP et Schneider Electrics lancent sur le marché un micro-DataCenter modulaire. Autonome, ne nécessitant pas de salle informatique ou technique, il intègre la distribution électrique, l’ondulation, la climatisation, sa propre GT, ainsi qu’une infrastructure IT hyperconvergée. Résistant au feu, son positionnement s’adapte à la configuration des locaux du site d’accueil.