16 Nov Parole d’expert – Nicolas Miceli
Parole d’expert – Nicolas Miceli, responsable du pôle performance énergétique et innovation, APL
Relever la température des salles serveurs pour améliorer la performance énergétique des data centers
La température d’une grande majorité de data centers est encore maintenue à des niveaux trop bas. Pourtant, selon les standards actuels, elle peut être remontée de quelques degrés pour un fonctionnement moins énergivore des salles informatiques, une augmentation de la capacité de refroidissement sans investissement complémentaire, et sans compromettre pour autant la continuité de service IT.
Température des data centers : les préconisations ont évolué
Les systèmes de refroidissement, indispensables pour maintenir les serveurs dans des conditions optimales de fonctionnement représentent en moyenne entre 30 et 50 % des dépenses en énergie des data centers. Longtemps, la température communément admise par les exploitants de salles informatiques était de l’ordre de 22 °C en ambiance, engendrant des températures de 15 à 16 °C au soufflage des armoires de climatisation. Ce qui nécessitait une puissance électrique importante pour le refroidissement et générait de lourdes dépenses énergétiques.
Depuis 2015, l’ASHRAE (American Society of Heating, Refrigerating and Air Conditioning Engineers) recommande des plages de températures en entrée de serveur de 18 à 27 °C, avec une hygrométrie comprise entre 8 et 60 %. Pour la majorité des matériels récents, les préconisations de température s’étendent même de 15 à 32 °C, pour une hygrométrie comprise entre 8 et 80 %. En d’autres mots : depuis quelques années, la température des data centers peut être relevée, sans compromettre la continuité de service IT.
Augmenter la température des salles serveurs : quels bénéfices ?
Cette augmentation des températures de fonctionnement ouvre de nouvelles possibilités pour les exploitants de data centers. Elle rend possible une densification des salles informatiques sans remplacement des matériels de climatisation, et donc sans avoir à réaliser d’investissement supplémentaire. Elle permet aussi de réduire de manière importante la consommation énergétique à isopérimètre IT.
La hausse de températures en entrée de serveur rend également l’usage du free cooling ou du free chilling (systèmes qui consistent à utiliser l’air extérieur pour souffler de l’air frais dans la salle ou refroidir l’eau à la place du groupe de production d’eau glacée) bien plus intéressant, notamment dans des régions tempérées, comme la France. En effet, avec des consignes de température de 25° C en salle, au lieu de 15° C, les périodes de l’année pendant lesquelles le free cooling pourra être utilisé, sans activer la climatisation, s’allongent considérablement. Ce qui génère d’importantes économies d’énergie et une amélioration du PUE (Power Usage Effectiveness). Il en va de même avec le free chilling, qui pourra être utilisé plus fréquemment dans l’année, pour refroidir les boucles d’eau, les consignes de température étant désormais fixées à 15° C au lieu de 7 °C pour l’eau.
Free cooling ou free chilling ?
Si le free cooling à air, direct ou indirect, s’est démocratisé depuis quelques années, notamment dans les grands data centers, il n’en demeure pas moins qu’il est contraignant au niveau bâtimentaire car il nécessite de la place pour installer les gaines qui amènent l’air dans les salles. Il exige également une certaine expertise pour être exploité dans les règles de l’art. La mise en place d’une solution de refroidissement en free chilling s’avère souvent plus adaptée, notamment dans les projets de rénovation de data centers équipés d’un groupe de production d’eau glacée. Par exemple, pour un data center situé à Lyon, en fixant une température de soufflage en salle à 27 °C et des régimes d’eau glacée à 15-20 °C, il a été possible d’obtenir un retour sur investissement de moins de deux ans.
Maîtriser les flux d’air : urbanisation et confinement des salles IT
Remonter la température globale du data center nécessite de bien connaître les spécificités des équipements de climatisation et des matériels IT qui sont hébergés dans les salles, et de maîtriser l’ensemble des flux d’air qui circulent dans le data center. Il faut contrôler la température en entrée de serveur et non la température ambiante de la salle, ni même la température en reprise des armoires de climatisation. Des flux d’air mal maîtrisés, ne serait-ce que sur une seule baie, peuvent entraîner une « pollution thermique » de l’ensemble de la salle. D’où la nécessaire urbanisation du data center en allées froides et allées chaudes pour s’assurer que l’air frais est acheminé correctement jusqu’aux serveurs et que l’air chaud, généré par la dissipation thermique des équipements IT, ne se mélange pas à celui destiné au refroidissement. Cela implique de mettre en œuvre des systèmes de confinement et d’étanchéification qui permettent de contrôler de manière efficace la circulation des flux d’air : obturateurs pour recouvrir les espaces non utilisés dans une baie ou divers percements, passe-câbles pour limiter les flux d’air au niveau des câbles, etc.
Des data centers plus chauds, oui… mais pas n’importe comment !
Un projet d’optimisation énergétique d’un data center est souvent complexe car il doit, la majorité du temps, être mené sur des sites en exploitation, soumis aux exigences de continuité de service. Il nécessite une phase approfondie d’audit et d’études pour prendre en compte l’ensemble des paramètres du data center : surface, puissance des matériels, taux de charge, infrastructures physiques, systèmes de refroidissement, flux d’air, contraintes environnementales (poussière, degré d’hygrométrie…), etc.
Dans tous les cas de figure, la mise en œuvre d’un tel projet, ainsi que les résultats en matière de gains énergétiques, dépendent des caractéristiques et des infrastructures de chaque site, du niveau de pilotage assuré en amont (régularité du suivi, indicateurs de performance calculés, proximité des équipes projet…) et de la politique d’exploitation adoptée en aval (définition des processus, formation, ressources mobilisées…).
Par Nicolas Miceli, responsable du pôle performance énergétique et innovation, APL
Nicolas Miceli est un expert en simulation numérique pour l’étude du refroidissement des data centers et il utilise depuis plusieurs années 6SigmaRoom au sein d’APL France.
Source : https://www.apl-datacenter.com/