L’intelligence artificielle ne flotte pas dans un « nuage » immatériel : elle repose sur des bâtiments bien réels, des gigawatts d’électricité, des milliards de litres d’eau et des millions de tonnes de métaux extraits du sous‑sol. En quelques années, l’IA générative a transformé les centres de données en infrastructures industrielles majeures, au point que son impact sur l’énergie, l’eau et les ressources minières devient un sujet stratégique autant qu’environnemental.
Une IA branchée au réseau électrique
Les centres de données consommaient déjà autour de 460 TWh d’électricité par an en 2022, soit l’équivalent de la consommation d’un grand pays industrialisé comme la France. Les projections les plus citées anticipent un doublement de cette demande d’ici 2030, pour atteindre entre 900 et 1 000 TWh par an, principalement sous l’effet de l’IA générative (entraînement des modèles et inférence massive).
Dans les scénarios hauts, l’IA pourrait représenter 50 à 70 % de l’électricité consommée par les data centers à l’horizon 2030, faisant de l’IA un poste majeur de la demande électrique mondiale. Certains travaux estiment même que, sans rupture d’efficacité, les centres de données pourraient approcher 10 à 20 % de la consommation mondiale d’électricité d’ici la fin de la décennie, contre 1 à 2 % aujourd’hui.
L’empreinte énergétique d’un modèle
L’entraînement d’un grand modèle de langage de type GPT compte parmi les opérations les plus intensives : il mobilise des grappes de GPU pendant des semaines, pour une consommation de l’ordre de plusieurs centaines à plus de 1 000 MWh par entraînement complet. Ces modèles sont ensuite ré‑entraînés, affinés, dupliqués pour différents usages, ce qui multiplie les pics de consommation au fil du temps.
L’inférence, elle, pèse moins par requête (une réponse peut représenter une fraction de kWh), mais se répète des milliards de fois par jour à l’échelle mondiale. Pour de grands services d’IA générative, l’inférence devient rapidement la principale source de consommation énergétique totale, bien devant l’entraînement initial, à mesure que l’audience se compte en centaines de millions d’utilisateurs.
La soif d’eau des centres de données
Derrière chaque requête d’IA, il y a aussi de l’eau : principalement pour le refroidissement des serveurs via des tours aéroréfrigérantes ou des systèmes évaporatifs. Aux États‑Unis, la consommation directe d’eau des centres de données a été estimée à plus de 60 milliards de litres par an au début des années 2020, avec une tendance nette à la hausse liée à la densification des charges de travail IA.
Des études de cas montrent que l’entraînement d’un grand modèle de langage peut conduire, selon le lieu et la technologie de refroidissement, à l’évaporation de centaines de milliers de litres d’eau pour un seul cycle d’entraînement. À l’échelle globale, des scénarios à 2030 évoquent une consommation d’eau cumulée des data centers – fortement tirée par l’IA – pouvant dépasser le billion (mille milliards) de litres par an, si les pratiques actuelles se maintiennent.
Des infrastructures en zones sous stress hydrique
Le problème n’est pas seulement le volume d’eau, mais l’endroit où elle est prélevée. Des travaux de cartographie montrent qu’une part importante des nouveaux data centers (y compris dédiés à l’IA) est construite dans des régions en stress hydrique élevé, notamment dans certaines zones des États‑Unis, d’Europe et d’Asie.
Dans ces territoires, chaque nouveau campus de serveurs ajoute une pression supplémentaire sur des ressources déjà disputées par l’agriculture, l’industrie et les usages domestiques. Des rapports récents documentent des tensions locales croissantes autour des permis de pompage, avec des demandes d’augmentation de plusieurs dizaines de pourcents pour accompagner l’extension d’installations cloud et IA.
Les métaux critiques derrière les puces IA
L’autre dimension, moins visible pour l’utilisateur final, est minérale : l’IA repose sur des infrastructures saturées de cuivre, d’aluminium, de terres rares, de gallium, de germanium et d’autres métaux dits « critiques ». Selon l’Agence internationale de l’énergie, la demande mondiale de cuivre pourrait passer d’environ 26 millions de tonnes en 2023 à plus de 31 millions de tonnes en 2030, puis au‑delà de 36 millions de tonnes en 2040, portée par les réseaux électriques, les renouvelables… et la croissance rapide des centres de données.
Pour les seuls data centers, des estimations récentes indiquent que l’IA pourrait représenter autour de 2 % de la demande mondiale de cuivre à l’horizon 2030, soit plus d’un demi‑million de tonnes par an, avec une trajectoire pouvant dépasser le million de tonnes si les projets de « méga‑campus » se concrétisent. Des analyses soulignent déjà un déficit structurel du marché du cuivre raffiné à partir du milieu des années 2020, avant même l’essor complet des infrastructures IA planifiées.
Cuivre, “tuyauterie” de l’IA
Le cuivre est omniprésent dans l’écosystème IA : câbles haute et basse tension, transformateurs, busbars, systèmes de refroidissement, interconnexions dans les racks et jusqu’aux niveaux les plus fins des circuits électroniques. Un grand producteur minier estime que la demande de cuivre liée aux data centers pourrait être multipliée par six d’ici 2050, passant d’environ 0,5 million de tonnes aujourd’hui à près de 3 millions de tonnes par an, soit l’équivalent de la production annuelle combinée de plusieurs grandes mines actuelles.
Ce mouvement s’inscrit dans une tendance plus large : sous l’effet conjugué de la transition énergétique, de l’électrification et du numérique, les chaînes d’approvisionnement en cuivre fonctionnent déjà au plus près de leurs capacités, avec un risque de prix élevés et de retards de projets. L’IA n’est donc pas un demandeur isolé, mais un accélérateur dans un système déjà tendu.
Terres rares, gallium, germanium : les angles morts géopolitiques
Au‑delà du cuivre, l’IA dépend d’une série de métaux plus discrets, mais tout aussi stratégiques. Le néodyme et le dysprosium sont indispensables aux aimants permanents haute performance qui équipent ventilateurs, moteurs de pompes, générateurs et certains équipements de conversion de puissance dans les data centers.
La chaîne de valeur de ces terres rares est extrêmement concentrée : la Chine contrôle une très large part de la production et du raffinage des aimants permanents, et a déjà mis en place des restrictions d’exportation sur des métaux comme le gallium et le germanium utilisés en électronique avancée. Des analyses géopolitiques commencent à parler d’une « nouvelle guerre froide des matériaux », où l’IA devient un champ de bataille indirect via les chaînes d’approvisionnement en métaux critiques.
Lithium, cobalt, graphite : concurrence avec la transition énergétique
Même si les serveurs eux‑mêmes ne contiennent pas des quantités massives de lithium ou de cobalt, l’IA dépend de réseaux électriques qui, pour se décarboner, s’appuient sur des batteries, des véhicules électriques et des solutions de stockage stationnaire, très consommatrices de ces métaux. Selon les scénarios de transition, la demande de lithium pourrait être multipliée par plus de deux d’ici 2030 par rapport à 2024, tandis que celle de cobalt et de graphite progresserait fortement, tirée par les batteries de véhicules et de stockage réseau.
Les data centers IA, en sollicitant fortement les réseaux, poussent à développer plus vite ces capacités de stockage et de production renouvelable, et contribuent donc indirectement à la compétition pour ces ressources. Plusieurs études évoquent la possibilité d’un « supercycle des métaux critiques », où la combinaison IA + transition énergétique + réarmement technologique maintiendrait une forte pression sur l’offre pendant une grande partie de la décennie.
Perspectives sur cinq ans : une tension croissante sur les ressources
En agrégeant les études scientifiques et analyses prospectives, les cinq prochaines années dessinent un scénario où l’IA continue de croître rapidement, tout en heurtant de plus en plus les limites physiques de l’énergie, de l’eau et des métaux. À l’horizon 2030, la demande électrique des data centers pourrait avoir doublé, avec une part de l’IA qui deviendrait largement majoritaire dans cette consommation.
Du côté de l’eau, la poursuite des technologies de refroidissement actuelles conduirait à un doublement ou un triplement de la consommation globale des centres de données, avec un risque de goulots d’étranglement locaux dans les régions déjà en stress hydrique. En parallèle, les data centers IA pèseraient plusieurs pourcents de la demande mondiale de cuivre et renforceraient la tension sur les terres rares et les métaux de batteries, à un moment où la transition énergétique en a elle‑même un besoin massif.
Vers une IA compatible avec les limites planétaires ?
Les travaux de recherche ne concluent pas à un « arrêt » de l’IA, mais à la nécessité d’un changement de cap rapide vers une IA sobre en ressources. Quatre leviers reviennent de façon récurrente :
- Concevoir des modèles plus efficaces (compressés, spécialisés, moins gourmands en calcul) et optimiser drastiquement l’entraînement.
- Co‑localiser les data centers avec des sources d’électricité bas carbone abondantes (hydro, éolien, solaire + stockage) pour limiter l’empreinte climatique et soulager les réseaux locaux.
- Généraliser des technologies de refroidissement économes en eau (refroidissement liquide en boucle fermée, air‑cooling avancé), surtout dans les zones en stress hydrique.
- Intégrer explicitement l’énergie, l’eau et les métaux critiques dans les politiques publiques et les cahiers des charges des grands clients (critères d’implantation, reporting, normes de performance).
Pour les dirigeants et concepteurs de politiques publiques, la question n’est donc plus de savoir si l’IA est utile, mais comment la déployer dans un monde aux ressources finies. Reconnaître la matérialité de l’IA – ses câbles, ses mines, ses gigawatts et ses milliards de litres d’eau – est un préalable indispensable pour en faire un outil au service de la société, plutôt qu’un facteur supplémentaire de dépassement des limites planétaires.