CAREcloud

CAREcloud - Comprendre, Améliorer, Réduire les impacts Environnementaux du Cloud computing

Responsable projet : Anne-Cécile Orgerie, CNRS

Membres impliqués : Virginie Amand étudiante en master Inria de l’Université de Lille CRIStAL, Pierre Bourhis, CNRS CRIStAL, Sophie Cerf Inria de l’Université de Lille CRIStAL, Belkis Djeffal doctorant Inria de l’Université de Lille CRIStAL, Adrien Luxey-Bitri Université de Lille CRIStAL, Clément Quinton Université de Lille CRIStAL, Romain Rouvoy Université de Lille CRIStAL

Équipe : Spirals du Groupe Thématique : GL

Résumé :

Le cloud computing et ses nombreuses déclinaisons offrent aux utilisateurs des capacités de calcul et de stockage considérables. La maturité des techniques de virtualisation a permis l’émergence d’infrastructures virtualisées complexes, capables de déployer et reconfigurer rapidement des ressources virtuelles et élastiques, dans des infrastructures de plus en plus distribuées. Cette gestion des ressources, transparente pour les utilisateurs, donne l’illusion d’un accès à des ressources flexibles, illimitées et quasiment immatérielles. Cependant, la consommation électrique de ces clouds est bien réelle et préoccupante, de même que leurs émissions globales de gaz à effet de serre (GES) et la consommation de matières premières critiques utilisées pour leur fabrication. Dans un contexte où les changements climatiques sont chaque année plus visibles et impressionnants, entraînant des conséquences graves à l’échelle mondiale pour les populations et pour la planète, tous les secteurs (transport, bâtiment, agriculture, industrie, etc.) doivent contribuer à l’effort de réduction des émissions de GES. Les clouds, malgré leur capacité à optimiser les processus des autres secteurs (transport, énergie, agriculture), n’échappent pas à ce constat : la pente croissante de leurs émissions de gaz à effet de serre doit s’inverser, sous peine de gommer leurs éventuels bénéfices dans les autres secteurs. C’est pourquoi le projet CARECloud (Comprendre, Améliorer, Réduire les impacts Environnementaux du Cloud computing) vise à réduire drastiquement les impacts environnementaux des infrastructures de cloud.
Les infrastructures de Cloud sont de plus en plus complexes : à la fois en largeur, avec des infrastructures de plus en plus distribuées, dont les ressources s’éparpillent au plus proche de l’utilisateur (edge, fog, continuum computing) et en profondeur, avec une imbrication de plus en plus forte et un empilement logiciel croissant entre le matériel et l’application de l’utilisateur (système d’exploitation, machines virtuelles, conteneurs, orchestrateurs, micro-services, etc.). Le premier objectif du projet vise à comprendre comment ces infrastructures consomment de l’énergie afin d’identifier les sources de gaspillage et à concevoir de nouveaux modèles et métriques pour qualifier l’efficience énergétique. Le deuxième objectif se concentre sur l’efficacité énergétique des infrastructures de cloud, c’est-à-dire optimiser leur consommation en phase d’usage. Il s’agit notamment de concevoir des stratégies d’allocation de ressources et d’orchestration de leviers énergétiques : ces mécanismes qui permettent d’optimiser la consommation énergétique (modes veille, ajustement dynamique de la taille des ressources virtuelles, optimisation de la fréquence des processeurs, etc.). Enfin, le troisième objectif cible la sobriété numérique afin de réduire durablement les impacts environnementaux des clouds. En effet, les clouds actuels offrent une haute disponibilité et une tolérance aux pannes très élevées, au prix de dépenses énergétiques importantes, notamment dues à la redondance et au surdimensionnement. Ce troisième objectif vise à concevoir des infrastructures plus sobres en énergie et en ressources informatiques, résilientes aux intermittences électriques, adaptables à la production électrique de sources d’énergie renouvelable et tolérantes à la déconnexion d’une partie de l’infrastructure fortement décentralisée.

Abstract

Cloud computing and its many variations offer users considerable computing and storage capacities. The maturity of virtualization techniques has enabled the emergence of complex virtualized infrastructures, capable of rapidly deploying and reconfiguring virtual and elastic resources in increasingly distributed infrastructures. This resource management, transparent to users, gives the illusion of access to flexible, unlimited and almost immaterial resources. However, the power consumption of these clouds is very real and worrying, as are their overall greenhouse gas (GHG) emissions and the consumption of critical raw materials used in their manufacture. In a context where climate change is becoming more visible and impressive every year, with serious consequences for people and the planet, all sectors (transport, building, agriculture, industry, etc.) must contribute to the effort to reduce GHG emissions. Despite their ability to optimize processes in other sectors (transport, energy, agriculture), clouds are not immune to this observation : the increasing slope of their greenhouse gas emissions must be reversed, otherwise their potential benefits in other sectors will be erased. This is why the CARECloud project (understanding, improving, reducing the environmental impacts of Cloud Computing) aims to drastically reduce the environmental impacts of cloud infrastructures.
Cloud infrastructures are becoming more and more complex : both in width, with more and more distributed infrastructures, whose resources are scattered as close as possible to the user (edge, fog, continuum computing) and in depth, with an increasing software stacking between the hardware and the user’s application (operating system, virtual machines, containers, orchestrators, micro-services, etc.) The first objective of the project is to understand how these infrastructures consume energy in order to identify sources of waste and to design new models and metrics to qualify energy efficiency. The second objective focuses on the energy efficiency of cloud infrastructures, i.e., optimizing their consumption during the usage phase. In particular, this involves designing resource allocation and energy lever orchestration strategies : mechanisms that optimize energy consumption (sleep modes, dynamic adjustment of the size of virtual resources, optimization of processor frequency, etc.). Finally, the third objective targets digital sobriety in order to sustainably reduce the environmental impact of clouds. Indeed, current clouds offer high availability and very high fault tolerance, at the cost of significant energy expenditure, particularly due to redundancy and oversizing. This third objective aims to design infrastructures that are more energy and IT resource efficient, resilient to electrical intermittency, adaptable to the production of electricity from renewable energy sources and tolerant of the disconnection of a highly decentralized part of the infrastructure.