Comment atténuer les coûts environnementaux et sociaux des projets d’IA dans les grandes organisations ?
21 oct. 2025
4 minutes
Le 23 septembre, à Green IO London 2025, 🌵 Aguaro a co-animé un atelier aux côtés de Capgemini, représenté par Sunil Bharadwaj, Senior Director of Sustainability, et de Matthieu Poulard, CEO d’Aguaro. Intitulée « Comment atténuer les coûts environnementaux et sociaux des projets d’IA dans les grandes organisations ? », la session a réuni des professionnels du numérique responsable pour explorer les impacts réels de l’Intelligence Artificielle — de la consommation d’énergie aux conséquences sociales — et les leviers concrets pour rendre les projets plus responsables.
L’échange a notamment porté sur les actions concrètes à mettre en place pour faire de l’environnement un sujet opérationnel, accessible à chaque chef de projet, afin d’agir directement sur l’empreinte de ses projets.
L’Intelligence Artificielle est aujourd’hui présentée comme la révolution à ne pas manquer, l’outil de productivité par excellence. Elle promet optimisation, aide à la décision, automatisation et de nombreux gains d’efficacité. Mais derrière ces promesses se cache un coût qu’on ne perçoit pas immédiatement : un coût qui ne pourra rester invisible longtemps et qui soulève d’ores et déjà des questionnements majeurs.
Le coût caché de l’IA
Les modèles d’IA actuels nécessitent un entraînement intensif, qui demande une puissance de calcul massive. Mais l’entraînement n’est pas le seul facteur. Une fois déployé, chaque fois qu’un modèle génère une réponse ou traite des données, en particulier lors de l’inférence**, il consomme aussi de l’énergie. Et comme les modèles sont utilisés des millions de fois par jour, cette phase représente désormais la majeure partie de la consommation énergétique totale de l’IA.
À mesure que l’adoption de l’IA s’accélère, cela se traduit par une envolée de la consommation d’énergie et une pression croissante sur des ressources critiques déjà sous tension. Dans le même temps, l’IA reconfigure des rôles, pose des questions de transparence et influence la manière dont les décisions sont perçues et jugées dignes de confiance.
Cela soulève une question fondamentale : l’IA finit-elle par produire plus de dommages à l'environnement et à la société que de bénéfices ? Comment limiter les externalités négatives et rééquilibrer la balance ?
De l’engouement à la responsabilité
Dans les grandes organisations, la vraie question n’est plus de savoir si l’IA doit être adoptée : elle est déjà bien présente. Toutefois, la crainte de rater une opportunité - le fameux FOMO, Fear of Missing Out - pousse certaines entreprises à se lancer dans l’IA sans toujours prendre en compte ses implications environnementales et sociales.
Le défi aujourd’hui est de savoir comment l’adopter de manière responsable, en posant les bonnes questions avant tout déploiement :
“Appliquons-nous l’IA à de vrais problèmes, avec une valeur organisationnelle ou sociétale réelle, ou courons-nous derrière un effet de mode ?”
“Comment limiter la complexité inutile des modèles et privilégier des approches plus sobres ?”
“Notre infrastructure peut-elle s’aligner sur des sources d’énergie durables et renouvelables plutôt que fossiles ?”
“Quelle gouvernance est mise en place pour gérer les risques, des biais aux impacts sur la main-d’œuvre en passant par la réputation et la marque employeur ?”
Du constat à l’action
L’empreinte environnementale de l’IA est loin d’être abstraite. Par exemple, l’entraînement d’un grand modèle d’IA peut émettre autant de CO₂ que 24 allers-retours Londres–New York chaque jour. Si les tendances actuelles se poursuivent, l’IT pourraient représenter jusqu’à 20 % de la consommation énergétique mondiale d’ici 2030.
En plus de l’énergie, l’IA entraîne aussi des coûts sociaux : exploitation de travailleurs dans la préparation des données, pollution locale dans des communautés vulnérables et risques réputationnels (ex. réponses et traitements biaisés ou discriminatoires, atteintes à la protection des données, réactions publiques négatives…) pour les entreprises déployant l’IA à grande échelle.
Pour agir, les organisations doivent d’abord rendre ces impacts visibles et mesurables. C’est précisément ce que nous faisons chez Aguaro.
Aguaro a été conçu pour rendre les pratiques numériques plus responsables et les intégrer au quotidien. Comme notre solution s’intègre nativement sur ServiceNow, les équipes opérationnels ne se contentent pas d’analyser des chiffres : les chefs de projets et de produits peuvent agir directement dans les outils qu’ils utilisent déjà.
Avec Aguaro, les organisations peuvent mesurer, modéliser, planifier et agir sur les coûts environnementaux de leur SI, de l’infrastructure et des équipements au cloud, aux licences, à l’énergie et au conseil, avec la collecte automatisée des données.
Le module Aguaro for Projects va plus loin en donnant une réelle autonomie aux chefs de projet. Ils peuvent évaluer l’empreinte de leur projet à chaque étape, comparer des scénarios à faibles et forts impacts carbone, tester des options de conception et vérifier leur conformité avec les principes d’éco-conception, d’IA frugale et des référentiels comme RIA31***. Ils peuvent aussi appliquer des recommandations concrètes pour orienter leur choix de design ou d’achat, et de collaborer avec les parties prenantes grâce à des workflows intégrés qui garantissent que ces décisions sont suivies et mises en œuvre, pas seulement rapportées.
Notre moteur de calcul s’appuie sur plus de 6 000 facteurs d’émission, dont 400 dédiés à l’IA, et prend en charge une modélisation multicritère couvrant l’énergie, l’eau et l’épuisement des ressources rares, un sujet particulièrement important à mesure que la demande en calculs intensifs augmente. L’objectif est de transformer la contrainte en un levier de performance pour l’entreprise, en termes de confiance, de résilience et souvent d’économies.
Comme l’ont souligné Matthieu Poulard et Sunil Bharadwaj lors de l’atelier, l’incertitude n’est pas une excuse pour attendre, c’est une variable à piloter. Intégrer des métriques environnementales dans les outils existants, plutôt que de les isoler sur une plateforme distincte, aide les organisations à effectuer des arbitrages précoces, quand il est encore possible d’ajuster.
Du pilotage à la stratégie
Une fois les impacts environnementaux et sociaux rendus visibles, les organisations peuvent passer de la prise de conscience à l’action. Cela implique des choix techniques réfléchis :
dimensionner les modèles au juste besoin plutôt que de viser systématiquement les plus grands
déployer des centres de données alimentés par des énergies renouvelables
optimiser les algorithmes et intégrer la comptabilité carbone tout au long du cycle de vie des modèles.
Il est également essentiel de mettre en place des structures adéquates :
des équipes pluridisciplinaires combinant compétences techniques, environnementales et sociales
un reporting transparent et des évaluations régulières des risques
pour garantir une véritable responsabilité au sein de l’organisation
Comme l’a souligné Sunil, il ne s’agit pas seulement d’éthique, mais aussi de bon sens économique : réduire la consommation d’énergie et l’utilisation des ressources fait baisser les coûts, concevoir pour l’efficacité diminue les risques, et être capable de démontrer une IA responsable renforce la confiance des clients, des régulateurs et des investisseurs.
C’est là qu’Aguaro fait la différence. Notre solution intègre ces principes au quotidien, en permettant aux entreprises de lier performance économique et environnementale grâce à l’intégration native des métriques, de la collecte automatisée des données et de la modélisation de scénarios dans le quotidien des équipes.
Pour aller plus loin
Pour approfondir ces enjeux, découvrez notre note de synthèse : « L’intelligence artificielle : origines, défis et impact environnemental ».
Elle explore l’histoire de l’IA, les forces à l’origine de sa croissance exponentielle et l’empreinte environnementale souvent méconnue, tout en traçant des pistes claires pour une adoption plus vertueuse.
*Green IO London est une conférence sur le numérique responsable, rassemblant des experts pour partager des solutions concrètes en faveur d’un numérique plus durable.
**L’inférence correspond au moment où un modèle entraîné applique ce qu’il a appris à de nouvelles données pour produire une réponse.
***Le RIA31 est le « référentiel IA Éthique et Responsable » élaboré par l’Institut du Numérique Responsable (INR)

