Des centres de données plus frais pour un monde qui se réchauffe


Des centres de données plus frais pour un monde qui se réchauffe

par Ramanujam KomanduriCountry Manager, Inde, Pure Storage
Partout dans le monde, les journées chaudes deviennent de plus en plus chaudes et fréquentes. Le changement climatique provoque une augmentation des vagues de chaleur intenses et des températures qui atteignent des degrés record. Le mois de mars de cette année a été le plus chaud en Inde depuis 1901. Au cours de cet été, de nombreux centres de données de grandes entreprises ont été touchés par la chaleur intense entraînant des pannes à grande échelle dans tous les pays. Comme le Mercure continue d’augmenter, le défi de garder les centres de données au frais devient plus complexe, coûteux et gourmand en énergie. Les besoins en électricité pour ce faire ont un impact sur d’autres infrastructures, comme on l’a vu récemment à Londres, la construction de nouvelles maisons étant affectée par les besoins élevés en énergie des centres de données. Avec l’augmentation des volumes de données, ce besoin ne fera que croître.

Pour ceux d’entre nous qui travaillent dans le monde du stockage et du traitement des données, rester au frais n’est pas un nouveau défi. Tout responsable de centre de données connaîtra également la nécessité d’équilibrer une consommation d’énergie efficace et des températures constantes tout en répondant aux besoins de l’entreprise. En fait, le Agence internationale de l’énergie

estime que 1 % de toute l’électricité mondiale est utilisée par les centres de données et que d’ici 2025, les centres de données consommeront 1/5 de l’alimentation électrique mondiale. Bien qu’il existe de nombreuses technologies haut de gamme qui peuvent aider à refroidir les composants, celles-ci peuvent être difficiles à mettre en œuvre ou à moderniser dans les centres de données existants. Heureusement, il existe des stratégies pragmatiques et durables à explorer dans le cadre d’une solution holistique.

Garder l’air frais en circulation

Il va sans dire qu’une bonne climatisation devrait être un pilier de tous les centres de données. Pour ceux qui en ont la possibilité, la construction de centres de données dans des climats plus frais peut faire beaucoup pour réduire la charge de refroidissement. Bien sûr, pour beaucoup, ce n’est pas une option pratique.

S’assurer que Chauffage, Les systèmes de ventilation et de climatisation (HVAC) ont une alimentation électrique stable est une stipulation de base. Pour la continuité des activités et la planification d’urgence, les générateurs de secours sont une précaution nécessaire – pour les technologies de refroidissement ainsi que pour les ressources de calcul et de stockage. Les plans de continuité des activités et de reprise après sinistre devraient déjà inclure des dispositions sur ce qu’il faut faire si l’alimentation (et l’alimentation de secours) est coupée.

Si les températures grimpent, il est avantageux d’utiliser du matériel plus durable et plus fiable. Par rapport aux alternatives de disque mécanique, le stockage flash est souvent beaucoup plus adapté pour résister aux augmentations de température. De ce fait, même à des températures extrêmes, les données sont sécurisées et les performances sont constantes.

Suggestions de réduction de puissance
Voici trois stratégies que les organisations informatiques devraient envisager. Lorsqu’ils sont combinés, ils peuvent contribuer à réduire les besoins en alimentation et en refroidissement des centres de données :

Des solutions plus efficaces – c’est une évidence : chaque pièce de matériel consomme de l’énergie et génère de la chaleur. Les entreprises doivent rechercher du matériel capable d’en faire plus pour elles dans un centre de données plus petit, ce qui aide immédiatement à maintenir les températures et, par conséquent, les coûts de refroidissement à un niveau bas. De plus en plus, les organisations informatiques tiennent compte de l’efficacité énergétique lors de la sélection de ce qui se passe dans leur centre de données. Dans le monde du stockage et du traitement des données, par exemple, les indicateurs clés actuellement évalués incluent la capacité par watt et les performances par watt. Le stockage de données représentant une part importante du matériel dans les centres de données, la mise à niveau vers des systèmes plus efficaces peut réduire considérablement l’empreinte énergétique et de refroidissement globale de l’ensemble du centre de données.

Architectures désagrégées – nous nous tournons maintenant vers le stockage en attachement direct et les systèmes hyperconvergés. De nombreux fournisseurs parlent de l’efficacité de la combinaison de systèmes de calcul et de stockage dans HCI (infrastructure hyper convergée). C’est tout à fait juste, mais cette efficacité est principalement liée à des déploiements rapides et à la réduction du nombre d’équipes impliquées dans le déploiement de ces solutions. Cela ne signifie pas nécessairement l’efficacité énergétique. En fait, il y a beaucoup d’énergie gaspillée par le stockage à connexion directe et les systèmes hyperconvergés.

D’une part, les besoins de calcul et de stockage augmentent rarement au même rythme. Certaines organisations finissent par surprovisionner le côté calcul de l’équation afin de répondre à leurs besoins de stockage croissants. Parfois, la même chose se produit du point de vue du stockage, et dans les deux cas, beaucoup d’énergie est gaspillée. Si le calcul et le stockage sont séparés, il est plus facile de réduire le nombre total de composants d’infrastructure nécessaires, et donc de réduire également les besoins en alimentation et en refroidissement. De plus, le stockage en attachement direct et les solutions hyperconvergées ont tendance à créer des silos d’infrastructure. La capacité inutilisée d’un cluster est très difficile à mettre à la disposition d’autres clusters, ce qui entraîne encore plus de sur-approvisionnement et de gaspillage de ressources.

Approvisionnement juste à temps – L’approche héritée de l’approvisionnement basée sur les besoins des 3 à 5 prochaines années n’est plus adaptée à l’objectif. Cette approche signifie que les organisations finissent par gérer bien plus d’infrastructures qu’elles n’en ont besoin immédiatement. Au lieu de cela, les modèles modernes de consommation à la demande et les outils de déploiement automatisés permettent aux entreprises de faire évoluer facilement l’infrastructure de leurs centres de données au fil du temps. L’infrastructure est provisionnée juste à temps plutôt qu’au cas où, ce qui évite d’avoir à alimenter et à refroidir des composants qui ne seront pas nécessaires pendant des mois, voire des années.

Alors que l’Inde progresse vers une véritable économie numérique, les investissements des opérateurs de centres de données locaux et internationaux devraient toucher 4,6 milliards de dollars par an d’ici 2025, selon un récent rapport de NasscomComment. L’explosion massive de la création et de la consommation de données alimente cette croissance exponentielle. Permettre un avenir numérique durable avec une infrastructure économe en énergie devient primordial.

Alors, avec des solutions plus efficaces disponibles, pourquoi ne prendrions-nous pas des mesures pour réduire les volumes d’équipement et la génération de chaleur en premier lieu ? Si nous pouvons réduire les coûts de fonctionnement, simplifier et refroidir nos centres de données et réduire notre consommation d’énergie, tout cela en même temps, je ne suis même pas sûr que ce soit une question à poser.

FacebookTwitterLinkedin


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*