Le n° 406 du mois d’août 2011 de la revue « Pour la Science » présente dans sa rubrique d’opinion dédiée au développement durable un article de Dominique Boutigny consacré à la gestion énergétique des salles informatiques. Cette problématique dépasse le clivage des logiciels libres et propriétaires, et n’est pas anodine lorsqu’on sait qu’environ 1 000 terawattheures sont consommées par nos ordinateurs, soit de l’ordre de 5% de la consommation électrique mondiale ! Près de la moitié de cette énergie est utilisée dans des salles regroupant un grand nombre de serveurs.
Si on se remémore ses cours de physique, on se rend compte que toute l’utilisation électrique des processeurs mène finalement à un dégagement de chaleur. Alors que celle-ci est presque anodine pour un processeur individuel dans un ordinateur personnel, il n’en va pas de même lorsqu’on concentre un grand nombre d’unités de calcul dans un espace réduit, d’autant que la recherche de plus grandes performances est reliée à une augmentation des fréquences. En quelques années, la puissance dégagée par chaque m2 au sol est passée allègrement de 2 à 10 kW ! Si au départ l’utilisation de faux planchers avec une circulation d’air froid permettait d’évacuer la chaleur, l’augmentation des puissances a rendu nécessaire la conception de systèmes de refroidissement plus évolués.
L’auteur de l’article explique la signification du PUE (Power Usage Effectiveness), un nombre qui caractérise l’énergie inutilement gaspillée pour refroidir les équipements informatiques. Il nous indique aussi les progrès réalisés ces dernières années, du côté des fabricants (optimisation des flux d’air, limitation des fréquences, augmentation des capacités des disques) et chez les concepteurs de salles, par les systèmes d’armoires refroidies et le confinement des allées chaudes. Ces solutions qui ont permis de réduire de moitié au moins le gaspillage (évolution du PUE de 1.7 vers 1.3) ont aussi eu le mérite de supprimer l’usage de faux planchers couteux.
Mais les progrès ne s’arrêtent pas là, et des solutions additionnelles sont étudiées, visant par exemple à récupérer la chaleur pour les bâtiments voisins, ou à concevoir du matériel pouvant être exposé à des températures plus élevées et moins stables.
Au delà du sujet de la gestion de l’énergie, les salles informatiques et centres de données doivent gérer en plus les problématiques de la sécurité et de la disponibilité. C’est un élément stratégique pour la survie d’une société. L’incident récent lié à un orage à Dublin est là pour montrer que même les toutes grosses compagnies sont exposées à des dommages importants.
Et qu’en est-il pour l’utilisateur privé, lambda ou geek ? Certes, les dégagements de chaleur sont rarement gênants. Cependant, la multiplication des équipements branchés en permanence est un véritable fléau du fait de systèmes de veille inexistants ou inefficaces. Par exemple, une simple puissance moyenne de 100 Watts conduit déjà à une consommation annuelle de 880 KWh, équivalent en coût et en dégagement de CO2 à la combustion d’environ 150 L de fioul domestique ! Autant dire qu’installer un petit serveur chez soi ronronnant en permanence, plutôt que de louer des services d’un hébergeur, peut être qualifié de fausse bonne idée… L’ordinateur qui consomme le moins est tout simplement celui qu’on allume pas !
Références :
- Le début de l’article, dans la revue Pour la Science
- http://en.wikipedia.org/wiki/Power_usage_effectiveness
Voici un article en relation avec ce sujet, paru sur le site ITworld : http://www.itworld.com/data-centerservers/194941/data-center-innovations
Mais mes serveurs personnels au fond de mon grenier sont ils des mangeurs d’arbres ???