Protection des données personnelles : plus que 14 mois pour souscrire aux obligations du RGPD

Le Règlement Général pour la Protection des Données entrera en vigueur dans l’Union Européenne le 24 mai 2018 et concerne aussi bien les Responsables d’un traitement de données personnelles que leurs sous-traitants. La nouvelle réglementation, assortie de lourdes sanctions financières pour les contrevenants (de 2 à 4 % du CA annuel mondial ou de 10 à 20 millions d’euros, selon le montant le plus élevé) impose l’intégration, avec obligation de résultat et capacité d’apport de preuve, de dispositifs de protection des données personnelles dès la conception du traitement (« privacy by design » & « privacy by default »). Gare aux fuites accidentelles de données privées qui pourront dès lors faire peser un risque financier non-négligeable à votre entreprise. Et si celle-ci ne collecte aucune donnée client, elle emploie probablement des collaborateurs dont les données personnelles entrent de plein droit dans le champ du dispositif…

GESTION THERMODYNAMIQUE EN SALLE : LES APPORTS DE LA MODÉLISATION

L’efficacité réelle des dispositifs de refroidissement d’une salle informatique peut être évaluée par une approche métrologique qui consiste, par exemple, à mesurer la température de l’air en face avant des serveurs et autres équipements IT. Typiquement, des telles mesures peuvent être régulièrement opérées en haut, au milieu et au pied de chaque face avant de baie/rack contenant des actifs matériels à refroidir ; puis les valeurs obtenues sont comparées à la cible théorique parmi la plage proposée par l’ASHRAE au regard de ce que les équipements informatiques peuvent supporter. Cette température cible, qui peut varier d’un actif à l’autre, dépend en partie de la stratégie de résilience et d’efficience IT de l’organisation, elle-même fonction de son secteur d’activité et des impératifs de sa clientèle.

Lire la suite

Infrastructure Google cloud : 3 nouvelles régions

Lors de la conférence Google Cloud Next 2017, Google a confirmé la poursuite de la montée en puissance de son infrastructure DataCenter mondiale, notamment par la création de 3 nouvelles « régions » (Pays-Bas, Montréal et Californie), chacune d’entre elle contenant à terme un minimum de 3 centres de données. L’objectif annoncé consiste en l’amélioration des performances pour les zones géographiques adjacentes et en l’incorporation régionale des services GCP (Google Cloud Platform) – dont le traitement prédictif des données par exploitation du Big Data (Machine Learning) que la société américaine souhaite proposer aux entreprises de toute taille.

APPROCHES SECTORIELLES DE LA PERFORMANCE ÉNERGÉTIQUE

Considérant les limites de l’indicateur historique de performance énergétique P.U.E. (pour Power Usage Effectiveness), le consortium The Green Grid propose depuis juin 2016 un nouveau modèle d’évaluation qui introduit les critères d’efficience et de résilience en matière de gestion thermique, nommé P.I. (pour Performance Indicator). L’intérêt de P.I. réside notamment dans sa capacité prédictive qui introduit les notions de conformité thermique (mesure du taux d’équipements IT bénéficiant de conditions thermiques favorables) et de résilience thermique (mesure du taux d’équipements IT bénéficiant de conditions thermiques acceptables en contexte de panne ou de maintenance de la fonction climatisation).

Lire la suite

Plus qu’un mois pour se préparer à la nouvelle règlementation « Inspection des climatiseurs »

A partir du 1er avril 2017, les « systèmes complexes » de production de froid, autrement dit, au sens de l’arrêté du 15 décembre 2016, les dispositifs de réfrigération, de climatisation ainsi que les pompes à chaleur réversibles de puissance frigorifique supérieure ou égale à 12 kW et utilisés à d’autres fins que le simple confort des collaborateurs, devront faire l »objet d’une inspection périodique par un prestataire officiellement certifié par un organisme indépendant. Les exploitants de DataCenters et les responsables GTB devront préparer un dossier technique détaillé qui complètera l’examen sur site des installations en production.

OPTIMISER LE TCO DE LA FILTRATION PARTICULAIRE

Le pouvoir filtrant d’un filtre particulaire de salle informatique augmente avec sa durée d’utilisation. Son rôle consistant précisément à s’encrasser en lieu et place des équipements qu’il protège, l’accumulation de particules sur le filtre contribue à renforcer sa capacité d’obstruction vis-à-vis des futures particules indésirables présentes dans le flux d’air entrant. S’il convient de remplacer régulièrement les filtres particulaires d’un centre de données, ce n’est pas donc à cause d’une diminution de leur pouvoir filtrant, mais plutôt parce-que, mal évaluée et mal gérée, l’altération de leur efficacité énergétique constitue le principal centre de surcoût du poste filtration particulaire.

Lire la suite

Tuer vos zombies vous coûtera moins cher que de les élever en DataCenter

L’Uptime Institute a publié une synthèse comparative des plus intéressantes sur le thème des « coûts exorbitants de l’inaction », dans laquelle le dé-commissionnement systématique des « zombies » (les systèmes physiques ou virtuels n’ayant plus d’utilité réelle depuis au moins 6 mois) permet d’initier la réalisation d’économies d’échelle à plusieurs niveaux (énergie, exploitation, maintenance matérielle…) puis d’enclencher la mise en œuvre d’une stratégie proactive et à long terme de maîtrise des ressources et des coûts.

 

QUALITÉ DE L’AIR EN SALLE : LES 2 GRANDS TYPES DE FILTRATION

La menace que représentent les polluants transportés par l’air pour la production informatique est souvent sous-estimée, car bien au-dessous des seuils naturels de perception visuelle et olfactive. Ils constituent pourtant l’un des principaux facteurs de dégradation des composants électroniques dont regorgent les salles informatiques. Les catégories de moyens préventifs d’assainissement de l’air, avant que celui-ci ne soit acheminé en salle, sont subdivisées en deux grandes familles : la filtration particulaire et la filtration moléculaire.

Lire la suite

IDC : prépondérance programmée des investissements d’infrastructure cloud

Selon le cabinet d’études IDC, les dépenses mondiales d’infrastructure des acteurs cloud surclasseront les dépenses d’infrastructure traditionnelles dès 2020, période à laquelle le cloud public pèsera pour un tiers du marché d’investissement, contre un cinquième pour le cloud privé. Commutation et stockage représenteront les principaux postes budgétaires du cloud dès 2017.

TIER UPTIME INSTITUTE vs. STANDARD TIA-942

Y compris sur le continent américain, la confusion est encore fréquente entre le système de classification Tier proposé par The Uptime Institute (TUI) et les spécifications énoncées par The Telecommunications Industry Association (TIA) au niveau du standard ANSI/TIA-942-A. Cet amalgame fut longtemps favorisé et entretenu par l’emploi du terme « Tier » (niveau, degré, échelon) dans les publications des deux organismes, au moins jusqu’en 2014, année durant laquelle TIA entreprit de retirer cette formulation du standard TIA-942.

Lire la suite