Concevoir un Datacenter, ou l’architecture d’un programme invisible ? (Partie 2)

I. Du rack au bâtiment

Partir de la plus petite échelle est aussi une nécessité car un centre de traitement de données est un équipement de type industriel et donc les dispositions de l’outil de production vont dicter en premier la composition du bâtiment.

© Melanie Conner for The New York Times - Google Oregon

A. Le serveur

L’unité de base du centre de traitement de données est le serveur 1U, c’est-à-dire un ordinateur (processeur, mémoire vive, disque dur) monté dans une « boite de pizza »[1] aux dimensions standards de 19 pouces (48,26 cm) de large pour 17 pouces (43,18 cm) de profondeur et 1.75in (4,445cm) de hauteur (1U). Il existe des déclinaisons et des variations sur ce thème : alimentation en 3U, switch en 1U, stockage en 2U, etc. Le tout est empilé dans des racks, armoires métalliques aménagées pour les recevoir et pouvant contenir en général 42U. Actuellement le serveur lame (carte serveur ou blade server), plus dense est en train de prendre d’avantage pour les applications de virtualisation (60 serveurs au lieu de 42 dans un rack de 42U) mais son alimentation (jusqu’à 15 voir 30kW) et sa ventilation deviennent problématique. Ainsi le matériel informatique devient plus compact et plus puissant mais demande en retour des systèmes de ventilation plus pointue et des alimentations de forte intensité (3kW par m²). A noter que malgré cette miniaturisation, la demande en terme de surface est toujours à la hausse car les besoins sont encore largement insatisfaits.
Les serveurs sont donc montés dans des racks, eux-mêmes disposés en rangées dans la salle informatique, c’est le cœur du bâtiment.

© Evoswitch

B. Fonctionnement du data center

La salle informatique concentre toutes les attentions du gestionnaire. C’est un grand plateau nu, avec un faux planché et des chemins de câbles au plafond, qui se remplie d’armoire au fur et à mesure des besoins. Les clients peuvent soit mettre leur serveur dans des racks communs, soit posséder leurs racks qui peuvent être sécurisés à l’aide de cage en grillage métallique, soit posséder une suite qui est une salle à leur usage exclusif. Les principaux problèmes techniques à résoudre sont l’accès physique sécurisé,  la détection et l’extinction incendie (système à gaz), l’alimentation en électricité sans coupure et bien dimensionné en terme de puissance (problème de monté en charge lors des pics de demande du réseau), la maitrise de l’hygrométrie, la limitation de la poussière et enfin le refroidissement qui représente autant que la consommation du matériel informatique et qui est souvent encore très mal optimisé (généralement par un système de climatisation de la salle dans son ensemble qui répartit mal les besoins en froid qui ne sont pas homogènes sur les machines).

Autour de cette salle s’organisent d’autres pièces qui viennent la servir. Une salle pour l’arrivée de l’alimentation électrique, les batteries de secours et le groupe électrogène, une salle dite « meet me room » où les clients peuvent se connecter avec tous les réseaux fibre qui desservent le bâtiment, une salle de contrôle pour le personnel de maintenance informatique. Il faut ajouter les installations de controle d’accès et les systèmes de climatisation extérieure. Souvent des salles de réunion ou des bureaux sont proposés pour l’usage des clients.

Les équipements techniques sont dimensionnés selon la classe du centre informatique[2]. Actuellement c’est la norme Tier IV qui s’impose pour les installations accueillant des systèmes bancaires en vertu des accords de Bâle II[3].

C. Enjeux de construction

Datacenter © Evoswitch

Un centre de traitement de données doit donc répondre à des contraintes immédiates de fiabilité et de continuité de service, mais aussi, au vu de la croissance du marché, à des impératifs d’évolutivité et de flexibilité. Chaque mettre carré de salle informatique en plus engendre des répercussions dans tout la chaîne des installations. Il faut donc clairement anticiper ces possibles évolutions.

En cela ce type d’activité se rapproche de la conception d’un bâtiment industriel car comme le dit Serge Antoine, président de l’Institut Claude-Nicolas Ledoux, l’industrie de la fin du XXème siècle, « ce n’est plus uniquement l’industrie des productions d’artefacts, c’est aussi une industrie du « tertiaire » et du « quaternaire », une industrie très évolutive qui fabrique, aux limites du virtuel, de la communication, de l’image, tout un éventail d’autres fonctions qui n’existaient pas au XIXe siècle » [4] . Pour le cas spécifique de l’activité d’hébergement informatique (des « usines à données » [5] ), la transition est à l’œuvre vers un secteur structuré avec des méthodes inspirées de l’industrie (division du travail, gestion, contrôle qualité) [6].

Cette nouvelle ambition se traduit avant tout par la nécessité de prendre en compte les problématiques énergétiques et au delà environnementales. Un centre de traitement de données consomme en moyenne l’équivalent d’une ville de quinze mille habitants, le réseau mondial dans son ensemble consomme chaque année l’équivalent de seize fois la consommation de la ville de Paris et les prévisions de croissance sont exceptionnelles[7].  Toute une série d’initiatives ont donc été prises pour tenter de réduire cette consommation et de limiter le gaspillage que l’on rassemble sous le vocabulaire générique de GrennIT (Informatique verte). Pour les centres de traitement de données, c’est avant tout  l’origine de l’électricité consommée, l’optimisation de la climatisation, l’optimisation de la consommation électrique des serveurs, la réutilisation de l’énergie dégagée par les machines, le recyclage des composants électroniques. Ces objectifs ont bien-sûr aussi un intérêt bien compris dans la réduction de la facture d’électricité qui augmente chaque année.

En termes d’architecture, on insistera aussi sur la discrétion des installations qui est réclamée par les exploitants afin de ne pas attirer l’attention sur un programme de nature sensible[8]. Rappelons qu’Internet a été conçu à l’origine par un programme de recherche militaire visant à permettre à l’armée américaine de garder toutes ses capacités de commandement et d’organisation en cas d’attaque sur l’un de ses maillons[9]. Internet garde donc inscrit en lui ce rapport à une planification stratégique et une nécessaire discrétion. L’art du camouflage par la démultiplication des centralités et l’évacuation d’un certain nombre de contingences dans le cyberespace. Ce qui reste visible doit donc tendre vers l’invisible.

Découpage de Datacenter en IdF vue par satellite

En tant qu’émergence des réseaux numériques, le centre de traitement de données agit comme un commutateur, qui met en relation des espaces feuilletés qui se superposent, réseaux physiques et numériques, territoire[10]. « Mais ces structures sont encore des formes primitives de l’architecture de réseau. Comme point durs, obstacles à la fluidité, elles constituent les éléments nécessairement imparfaits ; structures issues des différentes étapes de la mécanisation, elles ne sont pas […] des formes émergents, mais des formes en sursis. » Ces phrases tirées d’un article de Hugues Fontenas[11] sur les châteaux d’eau et les silos à grain collent parfaitement à ces autres architectures de stockage, numérique cette fois que sont les centres de traitement de données. On ajoutera aussi que « si de telles architectures peuvent être considérées comme des monuments, elles annoncent en fait la possibilité d’une monumentalité informelle, issue du rejet progressif de tout contemplateur direct. Une monumentalité dépassant le cadre formel du perceptible pour accéder à celui, non perceptuel, d’une infrastructure, d’un “paysage”, qui se déploie toujours au-delà des marges du champ de vision. »

© Simon Norfolk

Les structures de stockage constituent les premiers essais de définitions d’architectures de réseaux, c’est-à-dire d’architectures qui ne reposent plus sur des constructions ponctuelles, mais sur une dispersion des effets constructifs, sur leur dilution. » Et de conclure : « Toutes ces approches concernent bien le traitement d’un objet paysager, le juste dessin d’une structure qui semble échapper à l’architecture et qu’il s’agit, quelle qu’en soit la manière, de fondre dans le paysage, de cristalliser. » Comment donc faire de ce dispositif un objet à la fois fonctionnel mais qui se fondrait dans le paysage, un espace ultra-sécurisé mais dilué ; délier le nœud pour passer du point à l’étendu,  du réseau au territoire.

Détail carte mère d'un Amstrad CPC 464

  • [1] Appellation du jargon informatique en raison de la forme presque carré et très plate du serveur.
  • [2] Le classement Tier, définie par l’Uptime Institute, donne le pourcentage de disponibilité théorique d’un centre informatique selon la configuration de ces équipements techniques (redondance, sécurité, …). De Tier I = 99,671% à Tier IV = 99,995% de disponibilité.
  • [3] Normes édictée en 2004 par le comité de Bâle, qui réunit toutes les banques centrales, afin de réduire les risques bancaires dans de multiples domaines dont l’informatique.
  • [4] Institut Claude-Nicolas Ledoux, Actes du colloque « Y a-t-il une architecture industrielle contemporaine ? », 6 et 7 mai 1999.
  • [5] H. Le Crosnier, « Internet, une industrie lourde », op. cité.
  • [6]F. COQUIO, Directeur Général INTERXION France, « Discours d’inauguration du data center Interxion Paris 3 », juin. 2008.
  • [7] Grégoire Lecalot, « Internet, nouveau glouton énergétique », France Info, mars 2008.
  • [8] Le Sunday Times du 11 mars 2007 rapport ainsi qu’une équipe de terroriste se réclamant d’Al Qaeda aurait planifié de faire sauter le centre de colocation Telehouse de Londres pour perturber tout le système Internet d’Angleterre et le système bancaire.
  • [9] M. Gausa, V. Guallart, et W. Muller, “Camouflage”, in The Metapolis Dictionary of Advanced Architecture: City, Technology and Society in the Information Age, Actar, 2002.
  • [10] J. Lévy et M. Lussault, « Commutateur », Dictionnaire de la géographie et de l’espace des sociétés,  Paris: Belin, 2003.
  • [11] H. Fontenas, « Stockages, un trouble de l’esthétique architecturale », Les Cahiers du musée national d’art moderne, 1996, pp. 74-105.

Plan du mémoire de diplôme :

2 réflexions sur « Concevoir un Datacenter, ou l’architecture d’un programme invisible ? (Partie 2) »

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.