Aller au contenu

Le coût énergétique d’un prompt 

Dr. Houssam Kanso

Un prompt est une instruction ou une question que vous envoyez à un modèle de langage tel que ChatGPT, Claude ou Gemini (souvent connu comme LLM, en anglais large language model) afin d’obtenir une réponse sous format textuel. Cette action est devenue une partie de notre quotidien, que ce soit pour générer du contenu, rechercher une information ou traduire du texte. Bien que ce prompt puisse sembler simple à rédiger et à envoyer, il déclenche des calculs dans des data centers gourmands en énergie. 

Les data centers de taille moyenne ont une consommation énergétique qui tourne autour de 5 à 10 mégawatts (MW). En revanche, les grands data centers consomment 100 MW ou plus. Pour mieux comprendre l’échelle de grandeur, une telle consommation sur une heure permet de faire rouler 6000 voitures électriques sur 100 km [1]. Dans les grandes économies comme l’Union Européenne, les États-Unis et la Chine, les data centers représentent aujourd’hui entre 2% et 4% de la consommation totale d’électricité. L’impact est plus grand dans certains pays, par exemple en Irlande, désormais plus de 20 % de l’électricité est consommée par des data centers [2]. 

À noter que de plus en plus de pays se lancent dans la construction de nouveaux data centers spécialement conçus pour l’IA. En France, une carte de 35 sites « prêts à l’emploi » a été révélé en 2025 pour des projets de data centers. Ces derniers seront utilisés majoritairement dans le domaine de l’IA, ce qui soulève une inquiétude sur leur consommation énergétique [4]. Malgré les nouvelles technologies performantes utilisées dans les data centers, les différentes projections sur les 10 prochaines années montrent que la consommation énergétique liée à l’Intelligence Artificielle (IA) va augmenter (même dans le scénario le plus optimiste) [3]. 

Il est donc essentiel de s’interroger sur le coût énergétique de ces interactions avec les IA génératives. 

Que se passe-t-il derrière un prompt ? 

Lorsque vous envoyez un prompt, les serveurs activent des processeurs graphiques, ou GPU (de l’anglais Graphics Processing Unit), pour analyser le texte et effectuer des milliards d’opérations (FLOPs). Le prompt déclenche également des appels d’outils (tools) quand c’est nécessaire et conserve vos derniers messages pour pouvoir générer une réponse. Ces unités de calcul chauffent énormément, nécessitant un refroidissement constant dans les data centers. Ce processus repose sur une infrastructure complexe : serveurs, réseaux et climatisation. L’impact n’est donc pas uniquement limité au calcul : le refroidissement peut consommer plus d’énergie que les circuits eux-mêmes. L’extraction des matières premières pour produire ces équipements a également un impact important sur la planète. 

Combien consomme un prompt ? 

Selon Sam Altman (cofondateur et PDG d’OpenAI), une requête simple sur ChatGPT consomme environ 0,34 Wh. Des estimations dans d’autres études scientifiques confirment ces valeurs [5,6]. Selon Google [10], en mai 2025, une requête nécessite environ 0,24 Wh, soit moins que regarder neuf secondes de télévision. Ces ordres de grandeur permettent de mieux situer l’impact réel d’une interaction avec un modèle d’IA moderne malgré quelles sont critiqué par d’autres chercheurs en particulier sur la méthodologie utilisée pour faire ces calculs et le manque de transparence [11]. Bien que cette consommation puisse paraître faible, il est nécessaire d’en considérer d’avantage lorsque l’on raisonne à grande échelle. Les fournisseurs d’IA générative n’ont pas divulgué publiquement les données spécifiques concernant le nombre de prompts reçus, mais on estime que 700 millions de requêtes sont traitées par jour [5]. Pour des prompts plus complexes, incluant des milliers de tokens, la facture peut grimper à 2,5 Wh pour 10k de tokens et jusqu’à 40 Wh pour 100k de tokens [5,6]. Ces valeurs, bien que modestes individuellement, s’additionnent rapidement : consommées par des centaines de millions de requêtes quotidiennes, elles se traduisent par une utilisation massive de ressources au total. 

Facteurs influençant la consommation 

Plusieurs variables influencent cette consommation, dont:  

  • La longueur et la complexité du prompt : plus de tokens signifie plus de calculs. 
  • La taille du modèle : un GPT2 est bien moins gourmand qu’un GPT4. 
  • L’infrastructure elle-même : les data centers utilisant des énergies renouvelables ou exploitant des processeurs optimisés peuvent réduire les émissions par token par rapport à des architectures plus classiques. 

Cependant, la situation est plus complexe parce que l’impact ne se réduit pas uniquement à la consommation électrique. 

Impact énergétique des LLM au-delà de l’électricité 

L’empreinte écologique des modèles d’IA ne se limite pas à la consommation d’électricité lors de l’utilisation : elle englobe aussi la consommation d’eau pour le réchauffement des composants, les impacts liés à l’extraction des matériaux, et l’énergie massive déployée durant la phase d’entraînement. Les data centers utilisent quotidiennement des centaines de milliers de litres d’eau pour refroidir leurs serveurs. Les data centers ultramodernes de Microsoft aux États-Unis peuvent utiliser directement 700 000 litres d’eau douce propre. Plus important encore, la demande mondiale en IA devrait représenter entre 4,2 et 6,6 milliards de mètres cubes d’eau en 2027 [5,7]. Google [10], estime qu’un prompt correspond à l’utilisation de 0,26 mL d’eau, l’équivalent d’environ cinq gouttes, et génère 0,03 gCO₂e (estimations contestées par d’autres chercheurs [11]). 

Sur le plan énergétique, la phase d’entraînement est particulièrement gourmande. Parmi ces émissions, près de la moitié est liée à la fabrication du matériel et à la conception même du modèle. Enfin, les modèles lors de l’inférence, même s’ils consomment moins d’énergie qu’à l’entraînement, sont sollicités à grande échelle. 

Vers des fournisseurs d’IA plus sobre 

Pour réduire l’impact de l’IA, plusieurs leviers existent. D’abord, les optimisations techniques et les nouvelles technologies permettent de réduire la consommation. Les GPU ont connu une amélioration de leur efficacité énergétique ces dernières années. L’efficacité des accélérateurs GPU a doublé tous les deux ans [8].  Ensuite, des modèles légers open source couvrent de nombreux cas d’usage quotidien, sans recourir systématiquement aux géants du cloud. Enfin, le recours à des hébergeurs verts, alimentés par des énergies propres (solaire ou nucléaire, par exemple), contribue à réduire l’empreinte carbone.  

Autant de progrès qui indiquent que la courbe de consommation ne suit pas forcément la croissance de la demande. Cela peut amplifier le paradoxe de Jevons : à mesure que l’IA devient moins chère et plus rapide, son utilisation totale augmente, intensifiant la pression environnementale malgré les gains d’efficacité par requête [5]. 

Plusieurs initiatives ont été lancé pour inciter les producteurs de modèles d’IA à utiliser des équipements plus optimisés mais aussi de publier des rapports. L’AI Energy Score [12] est une initiative de Hugging Face visant à mesurer et comparer de manière standardisée la consommation énergétique des modèles d’IA lors de l’inférence. Les modèles sont évalués sur un ensemble commun de tâches (génération de texte, classification, vision, audio, etc.) en utilisant le même matériel et les mêmes conditions de test, ce qui permet des comparaisons équitables. Chaque modèle reçoit une note de 1 à 5 étoiles selon son efficacité énergétique relative. Les résultats sont publiés dans un tableau de classement public. L’objectif est de fournir une meilleure transparence sur l’impact énergétique des IA, d’aider les organisations à choisir des modèles plus sobres, et d’encourager les développeurs à optimiser leurs modèles pour une IA plus durable. 

Les utilisateurs peuvent aussi jouer un rôle clé. Ils peuvent former des prompts clairs, précis et visant l’efficacité. 

Bonnes pratiques pour consommer moins avec les LLMs en tant qu’utilisateur 

En tant qu’utilisateur, l’adoption de certains gestes simples permet de   limiter l’impact environnemental des interactions avec les IA génératives. Voici quelques bonnes pratiques : 

  • Privilégier des prompts clairs 
    Un prompt bien formulé, structuré et précis réduit le nombre de tokens traités, évitant des réponses trop longues et gourmande en énergie. Un prompt clair permet aussi d’avoir les résultats attendus avec une discussion plus courte et moins d’aller-retour entre l’utilisateur et le LLM. 
  • Choisir des modèles adaptés 
    Utiliser des modèles moins lourds (comme GPT3.5 ou TinyBERT) pour des tâches simples, plutôt que GPT4, peut significativement diminuer la consommation. L’utilisation de petits modèles (comme Tinyllama) en local peuvent également réduire l’impact de vos interactions (le petit bonus c’est que ça permet d’avoir une meilleure maîtrise de vos données). 
  • Réduire les prompts inutiles 
    Chaque message envoyé à une IA, même s’il semble simple comme un « merci », déclenche un processus complet de traitement et de génération de réponse « Avec plaisir ! ». Si des centaines de millions de prompts sont ponctués d’un « merci », le cumul énergétique devient significatif [9]. 

Conclusion 

L’utilisation des modèles d’IA peut sembler sans impact, mais chaque prompt active une infrastructure lourde qui consomme de l’énergie, de l’eau et des ressources matérielles. Individuellement, l’impact paraît minime mais à grande échelle, il devient majeur lorsque des centaines de millions de requêtes sont envoyées chaque jour. Malgré les progrès technologiques et les efforts pour rendre ces systèmes plus efficaces, les besoins énergétiques liés à l’IA continuent d’augmenter. Comprendre ce qui se cache derrière une simple requête aide à mieux saisir les enjeux environnementaux associés à ces technologies. L’IA ouvre des possibilités impressionnantes, mais son développement doit s’accompagner d’une réflexion sur sa consommation et sur les moyens de la rendre plus durable à long terme. 

Références 

[1] Combien consomme une voiture électrique ? – Renault. Accessed: Jun. 26, 2025. [Online]. Available: https://www.renault.fr/faq-electrique/consommation-vehicule-electrique.html  

[2] What the data centre and AI boom could mean for the energy sector – Analysis, IEA. Accessed: Jun. 26, 2025. [Online]. Available: https://www.iea.org/commentaries/what-the-data-centre-and-ai-boom-could-mean-for-the-energy-sector  

[3] F. Wijnhoven and R. Paccou, ‘Scenarios for AI Electricity Usage’, Jan. 24, 2025, Social Science Research Network, Rochester, NY: 5101376. doi: 10.2139/ssrn.5101376. 

[4] IA : une nouvelle impulsion pour la stratégie nationale, Site officiel du Gouvernement Français. Accessed: Jun. 26, 2025. [Online]. Available: https://www.info.gouv.fr/actualite/ia-une-nouvelle-impulsion-pour-la-strategie-nationale  

[5] N. Jegham, M. Abdelatti, L. Elmoubarki, and A. Hendawi, ‘How Hungry is AI? Benchmarking Energy, Water, and Carbon Footprint of LLM Inference’, May 15, 2025, arXiv: arXiv:2505.09598. doi: 10.48550/arXiv.2505.09598. 

[6] J. You, ‘How much energy does ChatGPT use?’, Epoch AI. Accessed: Jun. 26, 2025. [Online]. Available: https://epoch.ai/gradient-updates/how-much-energy-does-chatgpt-use  

[7] P. Li, J. Yang, M. A. Islam, and S. Ren, ‘Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models’, Mar. 26, 2025, arXiv: arXiv:2304.03271. doi: 10.48550/arXiv.2304.03271. 

[8] R. Rahman, ‘Leading ML hardware becomes 40% more energy-efficient each year’, Epoch AI. Accessed: Jun. 26, 2025. [Online]. Available: https://epoch.ai/data-insights/ml-hardware-energy-efficiency  

[9] Sam Altman Admits That Saying “Please” and “Thank You” to ChatGPT Is Wasting Millions of Dollars in Computing Power, Futurism. Accessed: Jun. 26, 2025. [Online]. Available: https://futurism.com/altman-please-thanks-chatgpt  

[10] C. Elsworth et al., ‘Measuring the environmental impact of delivering AI at Google Scale’, 2025, arXiv. doi: 10.48550/ARXIV.2508.15734 

[11] D. C. D. Santos, D. Trystram, D. Simeu, and L. Lefèvre, ‘L’IA générative est-elle soutenable ? Le vrai coût écologique d’un prompt’, The Conversation. Accessed: Nov. 27, 2025. [Online]. Available: http://theconversation.com/lia-generative-est-elle-soutenable-le-vrai-cout-ecologique-dun-prompt-269432  

[12] AIEnergyScore (AI Energy Score). Accessed: Nov. 26, 2025. [Online]. Available: https://huggingface.co/AIEnergyScore