Les hébergeurs ont longtemps hésité avant d’utiliser ou de dire à leurs clients qu’ils s’appuyaient sur des technologies de virtualisation dans leurs centres de données. Aujourd’hui, celle-ci a pleinement droit de cité en apportant des bénéfices à la fois à l’exploitant et aux clients.
La virtualisation permet jusqu’à 60 % d’économie en terme d’alimentation électrique.
Il y a quelques années, seuls les hébergeurs les plus aventureux utilisaient les technologies de virtualisation pour proposer leurs services. Il est vrai qu’à l’époque les tensions sur la fourniture en énergie étaient moins fortes. La technologie, elle-même, n’avait pas atteint la maturité qu’elle détient maintenant. Les utilisateurs n’avaient pas non plus les retours d’expérience permettant une utilisation optimisée. Aujourd’hui, la virtualisation tient le haut du pavé pour des raisons objectives. Patrick Gomez, en charge des Server Services d’IGS chez IBM, rappelle : « En dix ans, le nombre des serveurs ou de stockage a été multiplié par six. Les éléments et les surfaces de stockage ont été multipliés par 70. Dans le secteur de la banque, on parle déjà de murs de calcul s’appuyant sur plus de 1 000 serveurs en lames. »
La question énergétique est devenue d’une telle importance pour les coûts d’exploitation d’un centre de données que toutes les technologies permettant de réaliser des économies sont les bienvenues. La virtualisation en est désormais une composante fondamentale et pas seulement pour le marketing des hébergeurs. Patrick Gomez ajoute : « Pour un euro dépensé dans un serveur, il fallait dépenser 54 cents d’euro pour l’alimentation électrique. Aujourd’hui, cela coûte 71 cents. Bientôt, il sera aussi cher de brancher un serveur que de l’acheter ! »
Il faut de plus compter sur une ob-solescence des centres de données actuels. La plupart ont été construits il y a plusieurs années. À cette époque, les besoins en alimentation par watt au mètre carré étaient moindres. Ainsi, il suffisait de 800 W/m2 en l’an 2000. Trois ans plus tard, il fallait 1,2 kW/m2. « Aujourd’hui, nous sommes plutôt à 1,5 kW/m2 », explique Patrick Gomez. Il ajoute : « La plupart des data centres actuels ne sont pas adaptés à de telles charges. » 87 % des centres de données en activité ont été construits avant 2001.
La virtualisation est vecteur d’économie
Dans ce contexte d’augmentation des charges d’exploitation pour les hébergeurs, la recherche de solutions efficaces pour abaisser la consommation en énergie est primordiale. Dans le domaine, la virtualisation faite presque figure de panacée. Arnaud Tayac, directeur commercial et marketing d’Ikoula assure : « Sur une étude comparative sur 1 000 serveurs dédiés, nous avons déterminé que la solution entraînait une économie énergétique de plus de 60 %. »
Dans le domaine de l’hébergement, la question des coûts est centrale. Les économies engendrées pour la consommation d’énergie sont quasi vitales pour les exploitants devant l’augmentation de la facture énergétique depuis deux ans et la raréfaction des mètres carrés disponibles.
Une administration centralisée
Ce deuxième facteur n’est pas négligeable. Dans les grands centres urbains, la bulle immobilière, en train de se dégonfler peu à peu, a fait s’envoler les prix du mètre carré. Les exploitants de data center sont obligés de s’éloigner des grandes centres pour aller en province ou en banlieue et se retrouvent confrontés à l’inadéquation des infrastructures électriques. Pour économiser, ils ont donc rationalisé et consolidé les serveurs physiques sur des environnements de virtualisation pour réduire l’encombrement au sol. Le rapport d’encombrement au sol est en moyenne de 1 pour 5 en faveur de la virtualisation. Seul souci, mais de taille, cette densification, concentre les besoins d’alimentation et de climatisation sur des parties spécifiques des data centres. Pour le client, ce sont aussi moins de machines à acheter ou à louer avec son corollaire : l’abandon de certains frais de maintenance et de support sur ces matériels.
Les gains se réalisent aussi sur les ressources nécessaires pour l’administration des plates-formes virtualisées. Franck Dubray, PDG d’Intrinsec, entité du groupe Neurones, ajoute : « Nous pouvons gérer plus de clients avec les mêmes effectifs qu’auparavant bien que ceux-ci doivent avoir une maîtrise technique plus grande et une attitude très responsable. » C’est sans compter que, selon Philippe Moity, directeur général d’Interoute, près de 50 % des pannes sont d’origine humaine.
La rationalisation de l’administration des data centres a pour conséquence d’amener les hébergeurs à rationaliser aussi leurs matériels sur des configurations permettant d’exploiter des environnements virtuels de qualité. La plupart n’ont plus que 4 ou 5 références de serveurs dans leur catalogue, selon les besoins spécifiques des clients. Les hébergeurs gagnent aussi sur les volumes des serveurs achetés aux constructeurs et sur les processus de maintenance et de support.
Logiquement, on pourrait s’attendre à des baisses drastiques sur les prix des prestations devant l’étalage de tant d’économies réalisées. Ce n’est cependant pas le cas. Tout d’abord s’occuper d’un serveur virtuel ou physique représente la même charge de travail. Les matériels fournis sont plus puissants et donc plus chers à l’achat, même si leur capacité sont plus utilisées. En moyenne, les prix constatés pour les prestations restent cependant largement inférieurs à ce que dépenserait une entreprise pour réaliser les mêmes services en interne. Ludovic Foreau, directeur des solutions au sein du groupe Ornis, résume : « Les économies se font sur les couches basses et non sur les prestations qui, elles, ne sont pas mutualisées sauf chez les hébergeurs de sites Web en volume. »
D’ailleurs, ce sont principalement des grands comptes qui ont recours à ces technologies ou à ces environnements chez leurs hébergeurs. Franck Dubray le résume d’un lapidaire : « Ce sont des problèmes de riches. » Ludovic Foreau l’exprime plus diplomatiquement : « Pour utiliser des environnements virtuels, il faut que l’équation économique ait un sens et donc un nombre minimum de serveurs à virtualiser. » Là aussi, ce sont donc bien les grands comptes les bénéficiaires de ces technologies même si toutes les personnes interrogées lors de cette enquête ont assuré que la démocratisation vers les PME était en train d’arriver.
Le client s’y retrouve
Si les hébergeurs gagnent beaucoup à l’utilisation de la virtualisation, les clients eux aussi s’y retrouvent. En général, le client y gagne en qualité et en flexibilité : deux atouts importants pour les services informatiques pour faire face aux demandes des utilisateurs. Ainsi, le temps de mise en œuvre d’un nouveau serveur a été drastiquement réduit. Certains hébergeurs proposent même une mise en place en un quart d’heure.
L’autre principal avantage se dégageant pour les clients des hébergeurs concerne l’accès à des services autrefois seulement à la portée des bourses les mieux garnies. Aujourd’hui, des entreprises peuvent s’offrir des environnements totalement redondants sur des machines virtuelles, sans pour autant s’acheter toute leur infrastructure en double comme autrefois. Cette possibilité permet aux entreprises d’atteindre des niveaux de fiabilité informatique sans commune mesure avec une opération d’un système d’information classique. Les niveaux de services sont incomparablement supérieurs et augmentent la disponibilité des systèmes fournis aux utilisateurs.
Certains s’autorisent même à aller très loin sur des fonctionnalités avancées de virtualisation, comme la mise en place d’un plan de reprise d’activité ou de continuation d’activité (PRA/PCA).
Il y a encore peu (deux ou trois ans) ces plans étaient l’apanage des seules grandes entreprises ayant des moyens importants.
Ludovic Foreau pointe un autre avantage de la virtualisation qui autorise de pérenniser des environnements applicatifs anciens. Des environnements n’ayant plus le support d‘un éditeur ou d’un constructeur, comme NT4 chez Microsoft, peuvent connaître une seconde vie ou attendre une migration sans souci en passant sur une plate-forme virtualisée.
Il en est de même en exploitation avec la possibilité de créer de véritables environnements de préproduction informatique. Les environnements virtuels laissent ainsi la possibilité de créer des plates-formes de tests ou de migration sans heurt. Ludovic Foreau précise : « Ce sont pratiquement des bacs à sable où il est loisible de réaliser les tests de patchs et de faire de la vraie assurance qualité. »
Il existe bien des raisons objectives pour que la virtualisation s’impose aujourd’hui dans les systèmes d’informations et dans les centres de données. Les hébergeurs y trouvent leur intérêt par les économies qu’elle permet de réaliser et les clients par de nouvelles fonctionnalités plus avancées et une flexibilité à moindre coût.
Cet article a été publié par la revue l’Informaticien, en mai 2008.