Concevoir un Datacenter, ou l’architecture d’un programme invisible ? (Partie 1)

Pour commencer, je voudrais vous présenter mon diplôme de PFE, passé en juin 2009 à l’ENSAPM, qui m’a amené à me questionner sur les sujets qui intéressent ce blog.


Les centres de traitement de données (datacenters) seront peut-être les futures friches industrielles de la fin du XXIème siècle. Ces installations, discrètes et parfois massives, sont des points d’émergence du réseau informatique qui couvre maintenant la majeure partie de la planète. Décrites comme des infrastructures techniques, l’Architecture n’a pas, pour ce type de programme, de traitement spécifique sinon celui d’une banale boite industrielle entourée de fils de fer barbelé.

Comment concevoir l’architecture d’un centre de traitement de données, comment penser le réseau et dessiner la boite, comment faire acte d’architecture et camoufler la fonction, voilà les problématiques auxquelles nous tenterons de répondre par une analyse générale du contexte de cette production et par une réponse spécifique à un contexte d’implantation.

I. Du réseau au site

Le contexte général de l’apparition des centres de traitement de données est celui du développement fulgurant, au sortir de la seconde guerre mondiale, de l’informatique suivi de peu par la mise en place des réseaux de télécommunication de données.

A. L’informatique, les réseaux et Internet

A partir des années 60, les ordinateurs ont connu un développement formidable vers plus de puissance d’un côté (vitesse de calcul, capacité de stockage) et plus de miniaturisation de l’autre (taille des composants et de la machine dans son entier). La loi de Moore[1] exprimée en 1965 et ses dérivés[2] a vérifié que depuis cette époque, le nombre de transistors de microprocesseur (=puissance de calcul) et les capacités de stockage des disques durs était multipliés par deux, respectivement, tous les dix-huit et les neufs mois, à coût constant et avec une miniaturisation progressive des composants .

D’autre part, les recherches pour faire communiquer entre elles ces machines, les mettre en réseau, ont abouti au début des années 1990 à la création officielle d’Internet.

L’univers de la communication informatiques se compose aujourd’hui de réseaux (en fibre optique, onde par satellite, câble Ethernet) sur lesquels sont connectés des machines informatiques qui parlent entre elles par le biais de protocoles. Ces réseaux sont la plupart du temps mis en relation par des points d’interconnexion (point de peering). Internet a été construit sur la mise au point d’un protocole partagé (TCP/IP) permettant d’unifier la communication des ordinateurs entre différents réseaux interconnectés dans des GIX (Global Internet eXchange). D’autres protocoles existent aussi sur des réseaux privés qui ne communiquent pas avec Internet (entreprises, administrations) mais on va de plus en plus vers une convergence des standards de communication en mode IP.

Les acteurs qui s’occupent de gérer et de faire fonctionner ce monde répondent chacun à une spécialité particulière ou parfois peuvent prendre en charge plusieurs des nombreux métiers qui sont nécessaires au bon fonctionnement des réseaux.

Sur le plan purement physique, les réseaux intercontinentaux ou dorsales empruntent le plus souvent les océans ou passent par les satellites alors qu’à un niveau métropolitain les réseaux suivent souvent les tracés de réseaux préexistants : autoroute, voie ferré, canaux, ligne électrique.

Les points d’interconnections sont eux situés dans les grandes villes car c’est là que passent les dorsales. Ils sont le plus souvent situés dans des centres de colocations où les différents opérateurs réseaux centralisent leurs points de présence. Ces centres de colocation ont pour vocation d’héberger de manière neutre des serveurs informatiques appartenant à des organisations. Ce sont des centres de traitement des données (datacenter).

B. Le rôle du datacenter

Le centre de traitement des données est à l’origine un lieu servant à traiter, de manière informatisée, les informations nécessaires au fonctionnement d’une organisation. Il gère donc des processus critiques et de ce fait, doit posséder une sécurité physique élevée ainsi qu’un contrôle total de son environnement (température, hygrométrie, incendie, poussière, alimentation électrique, connectivité, insectes[3]). Il accueille des ordinateurs dont les tâches peuvent être la gestion de base de données, la mise à disposition de puissance de calcul, de serveurs de fichiers, de serveurs d’applications ou de serveurs Internet.

Sa taille peut varier d’une pièce à un bâtiment entier, appartenir à une seule entreprise ou être destiné à être loué à d’autres entreprises (cas des centres de colocations qui appartiennent à des entreprises spécialisées dans l’hébergement de serveurs informatiques).

Actuellement, les centres de traitement de données connaissent une forte croissance à cause d’une part de l’augmentation exponentielle du trafic Internet (nombre d’internautes, stockage de vidéos, base de donnée des réseaux sociaux) (voire annexe 3) et d’autre part, plus spécifiquement pour les centres de colocation, à cause de l’externalisation de cette activité par les entreprises, vers des prestataires spécialisés. Le coût des services informatiques devient tel qu’il est plus avantageux et stratégique de le confier à une entreprise spécialisée qui mutualise ces coûts et garantit la qualité du service. Ainsi une solution comme la virtualisation, qui se développe beaucoup actuellement, permet d’agréger de la capacité de calcul et de stockage sur plusieurs dizaines de machines et de redistribuer indifféremment à tel ou tel client selon ses besoins. Le client ne garde plus dans son entreprise qu’un terminal « bête et bon marché mais solidement relié au réseau par des conduits à grand débit »[4]. Ceci permet aussi aux employés, dans certains cas, d’accéder à leurs données de travail depuis n’importe quel terminal dans le monde (fixe ou mobile) relié aux réseaux.

Le centre de traitement de données, et en particulier le centre de colocation qui nous intéressera plus particulièrement dans ce projet, devient donc une pièce stratégique du réseau car il recueille toutes les informations nécessaires au fonctionnement d’une partie de plus en plus importante de l’économie et au-delà du savoir des sociétés humaines.

C. Stratégie d’implantation

La qualité et la nature stratégique des informations que renferme un centre de traitement de données implique de la part du prestataire de garantir aux clients la propriété, l’intégrité et la sécurité de celles-ci. En effet, elles constituent  de plus en plus le capital intellectuel des organisations et c’est celui-ci qui prend dans l’économie de la connaissance une valeur et une importance stratégiques. « La virtualisation de l’économie, c’est à dire le rôle de l’immatériel […] s’appuie sur les NTIC, […]. Elle exige la saisie de l’information, son traitement, son stockage […] » déclare l’économiste Yann Moulier Boutang qui voit apparaitre une nouvelle ère du capitalisme qu’il appelle « cognitif »[5]. L’information devient la nouvelle valeur d’accumulation. Les centres de données en sont leur réceptacle. Ils constituent « le support invisible mais décisif aux activités de l’avant »[6]. Or cette information est principalement générée dans un certain nombre de villes que le géographe Olivier Dolfus nomme « l’archipel mégapolitain mondial (AMM ) »[7] qui rassemble un réseau urbain de niveau mondial où s’exerce la synergie entre les différentes formes du tertiaire supérieur et du quaternaire (recherche, innovation, activité de direction). Les zones d’implantation des centres de traitement de données devront donc se faire à proximité de ces centres urbains.

En comparant une carte de ce réseau de ville avec les implantations de centres de traitement de données de Google, on voit apparaitre une parfaite similitude d’implantation. Les données informatiques ne sont donc pas, paradoxalement peut-être, délocalisables car elles doivent rester dans une proximité stratégique des endroits qui les génèrent. Pierre Veltz avance aussi que « leur « territoire » est certes le réseau électronique, mais aussi un ensemble de nœuds très fortement spatialisés »[8].

Construire un équipement de ce genre, c’est donc avant tout se demander où l’implanter car ce paramètre a autant d’importance que le bâtiment lui-même, il est même de nature géostratégique selon Hervé Le Crosnier[9]. Le choix du site permet de choisir le coût du foncier, la nature de l’environnement, la connectivité avec les fournisseurs d’électricité et de fibre et enfin l’accessibilité. En effet, toutes ces machines nécessitent encore une forte présence de techniciens pour la maintenance et dans le cas d’un centre de colocation, ceux-ci viennent souvent depuis les sièges des entreprises qui possèdent les serveurs (banques, administrations, assurances, compagnies du CAC40). Un centre de colocation doit donc être positionné non-loin des centres d’affaires principaux (mais pas trop près car le terrain y est cher) ; à l’intersection de plusieurs arrivées d’électricité et de réseau fibre afin de garantir son approvisionnement et la disponibilité de nombreux réseaux, gage de possibilité de mise en concurrence et de choix pour le client. Étudier les logiques d’implantation de ces installations c’est donc aussi tirer avantage de manière stratégique de « l’usage de la dimension spatiale de la société »[10] : permettre à une société d’optimiser son capital spatial.

On cherchera donc à savoir pour la zone qui nous intéresse, l’Ile-de-France, quels sont les sites qui peuvent accueillir de manière optimum un centre de colocation en localisant les sources d’avantages et/ou de contraintes.


  • [1] La loi de Moore est une loi empirique inventé par Gordon Moore un des fondateurs de la marque de microprocesseur Intel.
  • [2] Une version commune énonce que « quelque chose » double tous les dix-huit mois.
  • [3] D’où l’origine de l’expression bogue informatique (de l’anglais bug).
  • [4] Bruno Latour évoquant cette configuration dans Paris Ville Invisible en 1998, p.101.
  • [5] Yann Moulier Boutang et coll., Le capitalisme cognitif : La Nouvelle Grande Transformation, Amsterdam, 2008, p.77-78.
  • [6] P. Veltz, Des lieux et des liens : Essai sur les politiques du territoire à l’heure de la mondialisation, L’Aube, 2008, p.98.
  • [7] O. Dollfus, La mondialisation, Presses de Sciences Po, 2008.
  • [8] P. Veltz, op.cité, p.17.
  • [9] H. Le Crosnier, « Internet, une industrie lourde », Le Monde Diplomatique, 2008, p. 19.
  • [10] J. Lévy et M. Lussault, « capital spatial », Dictionnaire de la géographie et de l’espace des sociétés,  Paris, Belin, 2003, p.124.

Plan du mémoire de diplôme :

3 réflexions sur « Concevoir un Datacenter, ou l’architecture d’un programme invisible ? (Partie 1) »

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.