L’edge computing peut-il aider à réduire l'impact environnemental du numérique ?

Une des grandes tendances identifiée à 2027, auprès de 3400 DSI interrogés dans le monde [1], est de pouvoir traiter le plus possible de données en local, à proximité de la source qui les collecte ou les émet, et de passer ainsi d’une informatique en nuage à une informatique en périphérie du réseau (“from cloud to edge”). Cette tendance vers l’edge computing répond à l’essor continu des volumes de données à traiter, notamment celles en provenance d’objets et de processus industriels connectés, d’applications IoT et IIoT (Internet of Things - Industrial Internet of Things) ainsi que celles aux formats “lourds” (cf. imagerie médicale, vidéosurveillance, computer vision, etc.). L’edge computing permet de réduire la quantité de données transitant dans le réseau et d’améliorer la latence en y accédant plus rapidement par capillarité et traitement de proximité. Combiné avec de nouvelles approches de traitement, de stockage et de sauvegarde, de compression et de transport via des systèmes à plus faible consommation énergétique, l’edge computing peut-il aider à réduire l’impact environnemental de certains services numériques ? Voici quelques pistes de réflexion d’AdVaes sur le sujet.

L'edge computing pour traiter les données au plus près

L'edge computing permet de traiter les données à la périphérie du réseau, au plus près de leur source, et de réduire ainsi les besoins en bande passante dans les transits afférents, notamment entre les différents systèmes où elles seront traitées, analysées, stockées et sauvegardées [2]. Comme l’illustre le schéma ci-dessous, l’edge computing repose sur une approche (hyper)décentralisée du traitement des données, différentes des approches de traitement (hyper)centralisées prônées par les centres de données d’entreprise (data center on premise) ou le modèle du cloud computing. L'edge computing pourrait, sur certains points, s’apparenter à une version locale d'un modèle standard de cloud computing. 

Contrairement à l'exécution centralisée de calculs dans des centres de données on premise ou dans le cloud, l'edge computing rapproche l'informatique de l'utilisateur ou de processus locaux grâce à des appareils, des plates-formes ou des systèmes qui traitent les données au niveau d’équipements situés à la périphérie du réseau. Ce modèle rapproche le calcul, le stockage et également l'énergie pour effectuer ces actions, de la source de génération des données, ce qui permet d'en augmenter leur capacité. Cette proximité est clé. L’objectif premier est de diminuer la latence (i.e. avoir des informations plus immédiates à partir des appareils et systèmes connectés) et d’améliorer la qualité de service (QoS). Les réflexions autour des apports à la réduction de l’impact environnemental sont récentes et méritent d’être suivies avec attention. Elles doivent intégrer dans la démarche les effets rebonds éventuels, tels qu’une augmentation des usages par amélioration de la latence, susceptibles de générer des effets inverses que ceux escomptés.

Les dépenses mondiales consacrées aux produits et services liés à des projets d’edge computing augmentent à un rythme de 13% par an environ et devraient atteindre 317 milliards de dollars en 2026 [3]. Cette croissance s’explique par les investissements dans l’IA, l’IoT et l’IIoT pour répondre à des besoins et créer de nouveaux modèles commerciaux à la périphérie, combinant des flux de travail intelligents, l'automatisation et l'interconnectivité des appareils. En 2023, plus de 50% des données des entreprises seraient déjà générées à la périphérie, en dehors de centres de données (hyper)centralisés. Ce taux devrait rapidement atteindre plus de 75% [4]. De taille plus réduite, d’une capacité de puissance énergétique généralement inférieure à 3 MW, proches des usages et des données, les centres de données de type edge (data center edge) sont en phase de croissance. Très modulaires, à proximité de réseaux de télécommunications, certains peuvent être installés sur des sites industriels. Plusieurs configurations existent selon les besoins et les contextes : “device edge”, “micro edge”, “data center edge” local ou régional, “data center in container”…

Ces tendances soulèvent la question des impacts environnementaux sous-jacents (cf. prolifération des équipements et des objets connectés, croissance des données à traiter et à stocker…) et des apports en contrepartie à la réduction de ceux-ci.

L’edge, une voie complémentaire au cloud pour réduire l’impact environnemental du traitement des données

Le transit des données est souvent omis ou sinon partiellement pris en compte dans les évaluations d’impact environnemental du numérique. Or, les réseaux peuvent représenter 29% de la consommation d’énergie finale d’un service numérique dans sa phase d’usage, et entre 16% et 35% en global en prenant en compte la fabrication des équipements et les usages [5]. L’optimisation des flux des données transitant sur les réseaux ainsi que leur traitement sur des unités de réseau local sont des leviers sur lesquels agir pour réduire l’impact environnemental de tout service numérique. L’edge computing, par son modèle même, agit à ce niveau et peut donc apparaître comme une solution à investiguer. Il donne un rôle majeur et actif aux opérateurs de réseaux, en charge du déploiement et de l’exploitation des réseaux concernés (4G, 5G, TTHD…).

Une étude de 2018 de Cisco relevait par ailleurs que “pour chaque bit de données qui transite par le réseau des centres de données jusqu’aux utilisateurs finaux, cinq autres bits sont transmis à l'intérieur et entre les centres de données” [6]. Or chaque transfert de données consomme de l’énergie, mobilise des équipements, etc. Traiter au plus près peut éliminer une partie de ces transferts in situ et, par corollaire, réduire les consommations énergétiques correspondantes.

Sur le volet de la consommation énergétique, les leaders du cloud public disposent aujourd’hui de centres de données efficients et à l’état de l’art. Ils favorisent par ailleurs de plus en plus, et quand cela est possible, le recours à des énergies bas carbone ou renouvelables. Le PUE (Power Usage Effectiveness) est un ratio parmi d’autres qui mesure l’efficience énergétique d’un centre de données. Les leaders du cloud public affichent des PUE annuels moyens aux alentours de 1,1 contre 1,55 en moyenne pour l’ensemble des centres de données analysés par l’Uptime Institute en 2022. Par son modèle, et à usage ou traitement équivalent, le cloud public peut être plus efficient d’un point de vue énergétique. Cependant, les derniers centres de données hyperscale des clouders occupent de larges espaces, sont le plus souvent déployés sur des campus de plusieurs dizaines de milliers de m2 (aux Etats-Unis, certains peuvent s’étendre sur des centaines de milliers de m2), nécessitent des dizaines, voire des centaines de MW en capacité énergétique, des milliers de litres d’eau pour certains de leurs systèmes de refroidissement et des investissements financiers importants tant en phase de construction que d’exploitation ensuite. 

Pour certains usages, l’edge computing peut s’avérer une alternative à moindre impact en mobilisant moins de capacité énergétique et de ressources, tout en réduisant la latence du service et en améliorant la précision et la sécurité de la collecte des données. L’un des principes fondamentaux de l'edge computing est de stocker et de traiter les données à la périphérie du réseau, réduisant le volume de données transitant à travers le réseau mondial et libérant ainsi la bande passante. Après tout, une grande partie des données produites au quotidien n'a pas forcément besoin d'être stockée à plusieurs reprises dans centres de données hyperscale de clouders.

L’edge computing peut également améliorer la résilience grâce à des modes de fonctionnement hors ligne. En déployant des applications sur des nœuds décentralisés plutôt que sur des serveurs centralisés, les systèmes concernés peuvent être sollicités pour traiter en local certaines tâches, en l'absence d'accès à Internet ou de réseaux longue distance. Ils deviennent ponctuellement autonomes du réseau.

L’edge computing à d’autres avantages qui contribuent à une meilleure maîtrise des impacts environnementaux de tout système numérique : surveillance et pilotage décentralisés des équipements, répartition des charges en fonction des capacités du réseau, capacité à équilibrer le mix énergétique au plus près des usages, et en tenant compte des besoins en consommation (pics/creux) ainsi que des variations météorologiques locales. Il peut se présenter comme une voie complémentaire au cloud pour réduire l’impact environnemental du traitement des données .

L’edge, en soutien de l’IT for Green ?

L’edge computing a des effets positifs sur l'environnement, la société et l'économie lorsqu’il est utilisé au maximum de son potentiel. Il contribue déjà aux efforts de développement durable dans un certain nombre d'applications à travers le monde. Celles-ci impliquent souvent le déploiement de composants et de capteurs IoT ou IIoT. 

Parmi les exemples où l’edge est au service de l’environnement figure le cas de la ville de Chicago [7]. La ville a mis en place un système d'éclairage intelligent qui s'appuie sur des capteurs connectés à une plate-forme edge afin de réduire la consommation d'énergie et améliorer l'efficacité des réparations. Chaque nouveau luminaire est équipé d'une ampoule plus économe en énergie et d'un capteur qui détecte les pannes. Le système automatise les tickets de réparation et la programmation.

Un autre exemple est celui de la gestion de l’eau. Le secteur de l'eau connaît une importante transformation numérique grâce à l'automatisation de la surveillance, à la génération et à la collecte de données en temps réel par le biais de capteurs IoT. La sensorisation du réseau d'eau (des canalisations aux ménages) est la clé d'une gestion intelligente de l'eau. L’edge joue un rôle très important dans ce processus pour accéder aux données en temps réel. L'avantage supplémentaire de cette approche est que des milliers de capteurs et de données de terrain peuvent être traités en temps réel, avec des réponses évolutives, sans mettre le réseau en danger.

De même, l’edge computing réduit la latence ce qui permet de créer des services plus efficaces. Par exemple, lors du transport alimentaire, des capteurs en “périphérie” peuvent surveiller en temps réel la température, l'humidité et le degré de maturité des fruits et légumes, même en ligne. Ces données peuvent être utilisées pour maintenir les aliments toujours à la bonne température, minimisant ainsi le gaspillage de nourriture et d'énergie.

Les entreprises peuvent tirer parti de l’edge computing pour réduire leur empreinte environnementale dans une démarche “IT for Green”. Le modèle de l’edge computing présente des avantages, mais la contrepartie est l'augmentation des ressources pour le traitement et la maintenance, ainsi que la complexité dans le traitement des déchets électroniques associés. Le recours à l’edge computing pour certains traitements ciblés peut cependant aider les opérations à continuer à fonctionner sans heurts tout en intégrant des pratiques plus durables.

Ces capteurs, massivement déployés - le nombre d'objets connectés devrait atteindre 55,7 milliards d'ici 2025, dont 75% seront connectés à une plate-forme IoT [8] - ont également un impact environnemental tant au niveau de leur fabrication que de leur fin de vie. Effectuer au préalable une analyse du cycle de vie (ACV) et une analyse d’impact de ces projets peut permettre de mieux apprécier leurs apports ainsi que leur niveau de contribution à la démarche “IT for Green” qu’ils défendent.

Au fur et à mesure que les dispositifs d’edge computing deviennent plus efficaces, les avantages peuvent s'accroître. Et si les entreprises continuent à transférer une plus grande partie de leurs ressources vers la périphérie, il pourrait devenir un modèle alternatif à considérer plus largement.  Des points restent à surveiller : 

  • A traitement équivalent, la somme de l’empreinte environnementale des systèmes, des traitements et des autres éléments composant une architecture edge peut s’avérer, par effet de dispersion de milliers d’éléments hétérogènes, supérieure à l’empreinte environnementale d’un modèle hypercentralisé, qui aura su agir sur tous les effets de leviers d’efficacité possibles à son niveau. L’évaluation et la mesure en amont est un passage obligé pour s’assurer des meilleures alternatives. Le choix de l’edge computing ne doit pas contribuer à augmenter in fine la consommation énergétique globale des centres de données, ni altérer les résultats de réduction d’impacts concrétisés ailleurs.
  • Les plates-formes d’edge computing doivent privilégier par défaut des énergies bas carbone ou renouvelables pour alimenter et faire fonctionner les composants clés de leur système, et activer tous les leviers permettant d’optimiser leur efficacité énergétique, tels que le recours à des équipements à faible consommation, l’arrêt en cas de non-utilisation, etc. Des initiatives émergent autour de plates-formes autonomes en énergie, capables de fonctionner en autoconsommation par la production et le stockage in situ (cf. énergies éoliennes, solaires, géothermiques, hydrauliques locales, issues de la méthanisation, etc.). 
  • Tous les effets rebonds inhérents à ce type de projet et de modèle. 

[1] Vanson Bourne – Enterprise Cloud Index (3,400 CIOs interviewed Worldwide in 2020 including France, UK, and Germany)

[2] Wikipedia – Edge computing

[3] Distributique – “En 2026, les investissements edge computing atteindront 317 Md$” selon IDC, 2023

[4] Gartner – “What Edge Computing Means for Infrastructure and Operations Leaders”, 2018

[5] The Shift Project – Lean ICT, 2018 – Données estimées sur l’année 2017
+ Que peut le numérique pour la transition écologique ? État des lieux de l’empreinte écologique du numérique et étude de ses impacts positifs annoncés pour la transition – Mars, 2021 | D'après Freitag et al., “The climate impact of ICT: A review of estimates, trends and regulations”

[6] Cisco Global Cloud Index: Forecast and Methodology, 2016-2021

[7] RTInsights “Chicago Smart Lighting Project Delivers Savings

[8] IDC – “IoT Growth Demands Rethink of Long-Term Storage Strategies”, 2020

Vous avez aimé cette analyse, n'hésitez pas à la partager