Pendant des décennies, l’IA a été freinée par des ordinateurs lents et coûteux. Aujourd’hui, le problème est plus simple, mais plus difficile à résoudre : trouver suffisamment d’électricité fiable pour maintenir les centres de données opérationnels alors que l’IA envahit la vie quotidienne.

L’énergie nécessaire pour alimenter les systèmes d’IA pourrait être le principal obstacle à l’avancement de cette technologie, et non la puissance de calcul. (Crédit photo : marian/Getty Images) Inscrivez-vous à notre newsletter
Pendant une grande partie du 20e siècle, l’intelligence artificielle (IA) a lutté non pas par manque d’ambition des chercheurs, mais parce que le matériel disponible pour l’alimenter n’était tout simplement pas assez performant. Les premiers systèmes d’IA se sont heurtés à des limites sévères en matière de vitesse de traitement et de mémoire, contribuant à des “hivers de l’IA” répétés à mesure que les progrès stagnaient et que le financement se tarissait.
Ce problème a en grande partie disparu. Aujourd’hui, les modèles d’IA sont entraînés sur des puces spécialisées dans d’énormes centres de données, et ils peuvent évoluer en quelques semaines au lieu de quelques années. Le calcul, qui était autrefois le principal goulot d’étranglement, est désormais quelque chose que l’on peut acheter avec suffisamment d’argent. Des entreprises comme Nvidia ou AMD produisent également en masse des unités de traitement graphique (GPU) encore plus puissantes – des composants traditionnellement utilisés pour les jeux ou la visualisation, mais aussi bien adaptés au traitement des calculs d’IA – chaque année qui passe.
Alors, au-delà des architectures fondamentales au cœur de ces modèles, qu’est-ce qui empêche l’IA de devenir encore plus avancée ? La nouvelle limite est de nature beaucoup plus physique – et beaucoup plus difficile à contourner. C’est l’électricité.
Pourquoi l’appétit énergétique de l’IA explose
Les modèles d’IA modernes ne s’entraînent pas une seule fois et s’arrêtent ensuite. Ils fonctionnent en permanence, alimentant des chatbots, des outils de recherche, des générateurs d’images et des agents plus autonomes. Ce changement a fait de l’IA un utilisateur constant et à grande échelle d’électricité.
Selon Sampsa Samila, directeur académique de l’Initiative AI and the Future of Management à l’IESE Business School de Barcelone, le problème n’est pas un manque d’énergie en termes absolus. “Ce n’est pas l’offre globale d’énergie, mais la capacité fiable et ferme, au bon endroit et au bon moment, qui est rare”, a-t-il déclaré à Live Science.
Les prévisions de consommation d’énergie de l’IA montrent clairement cette tension. L’Agence Internationale de l’Énergie (AIE) s’attend à ce que les centres de données consomment plus du double d’électricité d’ici la fin de la décennie, atteignant des niveaux similaires à ceux des grandes économies industrielles. Dans certaines régions des États-Unis, les centres de données consomment déjà autant d’énergie que l’industrie lourde.
La manière dont l’IA est réellement utilisée est aussi importante que la manière dont elle est entraînée. L’entraînement de grands modèles linguistiques (LLM) consomme encore beaucoup d’énergie, mais il a tendance à se dérouler en exécutions importantes et peu fréquentes. Ce qui croît plus rapidement, c’est le travail quotidien – les modèles répondant aux utilisateurs, encore et encore. Samila note que les nouveaux systèmes de “raisonnement”, qui passent plus de temps à trouver une réponse, poussent la consommation d’énergie vers les opérations normales plutôt que vers des rafales d’entraînement occasionnelles.
Un réseau électrique conçu pour un monde plus lent
Les réseaux électriques ont été conçus pour une croissance progressive, pas pour des charges de taille urbaine apparaissant presque du jour au lendemain.
Juan Arismendi-Zambrano, professeur adjoint à l’UCD Michael Smurfit Graduate Business School en Irlande, a déclaré que le problème principal est le calendrier. Les grands campus d’IA se développent plus rapidement que les mises à niveau du réseau électrique ou les approbations gouvernementales ne peuvent suivre. Cela crée un véritable goulot d’étranglement : obtenir suffisamment d’énergie, quand et où elle est nécessaire.

Les réseaux électriques actuels n’ont pas été conçus pour l’IA. (Crédit photo : Europa Press News via Getty Images)
“La ‘pénurie’ d’électricité pour l’IA, à mon avis, concerne moins un manque absolu d’électricité mondiale que des goulets d’étranglement locaux créés par le déploiement rapide de grands centres de données”, a déclaré Arismendi-Zambrano à Live Science.
“Ces campus se développent plus rapidement que les mises à niveau du réseau électrique ou que la bureaucratie ne peut y répondre. Surtout lorsqu’ils s’installent dans des zones rurales choisies pour leur terrain bon marché et leur ‘lobbying’ politique auprès des États, mais qui ne sont pas conçues pour une charge concentrée et soudaine. Le résultat est une contrainte très physique : l’accès à une grande quantité d’électricité, en temps voulu, au nœud approprié”, a-t-il dit.
Le regroupement des centres de données dans une même zone aggrave le problème. Jens Förderer, professeur à la Business School de l’Université de Mannheim en Allemagne, a souligné le “Data Center Alley” de Northern Virginia, où de nombreuses installations prélèvent d’énormes quantités d’énergie du même réseau. Les centrales électriques, les lignes de transmission et les sous-stations prennent des années à être construites, mais les entreprises d’IA commencent souvent à utiliser le calcul bien plus tôt, parfois même avant que leurs bâtiments ne soient achevés.
“Lorsque de nombreuses charges de taille urbaine sont tirées du même réseau local, la mise à l’échelle de l’approvisionnement en électricité devient beaucoup plus difficile”, a déclaré Förderer.
Comment l’industrie s’efforce de réagir
Il n’y a pas de solution unique au problème énergétique de l’IA. Au lieu de cela, les entreprises poursuivent plusieurs stratégies à la fois.
L’une d’elles consiste à construire l’énergie plus près des centres de données eux-mêmes. Les grandes entreprises technologiques ont signé des contrats à long terme pour soutenir de nouvelles productions d’énergie, y compris des centrales nucléaires, et explorent la production d’énergie sur site lorsque les mises à niveau du réseau sont trop lentes.
Google, par exemple, fait cela au Texas par le biais de son acquisition du développeur d’énergie Intersect, qui construit des projets solaires et de stockage à grande échelle parallèlement à la demande des centres de données, au lieu d’attendre les mises à niveau du réseau. Microsoft, quant à elle, a signé un accord à long terme avec Constellation Energy lié au redémarrage prévu d’un réacteur nucléaire sur le site de Three Mile Island en Pennsylvanie pour alimenter ses centres de données.
Une autre consiste à choisir des emplacements basés sur l’électricité, plutôt que sur les utilisateurs. Comme l’a noté Förderer, les centres de données sont de plus en plus situés là où l’énergie est la plus facile à adapter, même si cela signifie s’éloigner des grands centres de population.
Ensuite, il y a la réutilisation – y compris une source surprenante. Les anciennes installations d’exploitation de cryptomonnaies émergent comme candidates pour les charges de travail d’IA. Autrefois critiqués pour leur consommation d’énergie, ces sites possèdent déjà ce dont l’IA a le plus besoin : de grandes connexions au réseau, des systèmes de refroidissement et une expérience dans l’exploitation de matériel gourmand en énergie 24h/24 et 7j/7. Le chevauchement entre Bitcoin et IA peut sembler étrange, mais la physique sous-jacente est la même.
“Ces installations disposent déjà de grandes connexions au réseau, et certains anciens mineurs pourraient se tourner vers les charges de travail d’IA”, a déclaré Förderer.
Le mineur canadien Bitfarms a récemment annoncé son intention de faire passer ses installations du minage de Bitcoin à l’informatique haute performance et aux centres de données d’IA, tandis que Hut 8 – initialement une société de minage de Bitcoin – a conclu un accord de location majeur de 7 milliards de dollars fin 2025 pour fournir une capacité de centre de données pour le calcul d’IA.
Certaines idées vont encore plus loin. Les centres de données spatiaux sont parfois présentés comme un moyen de contourner complètement le réseau terrestre, en utilisant l’énergie solaire constante et le froid de l’espace pour le refroidissement. Samila a déclaré que l’idée fonctionne sur le papier, mais que les chiffres deviennent rapidement intimidants.
L’énergie est nécessaire mais pas suffisante
Sampsa Samila, directeur académique de l’Initiative AI and the Future of Management à l’IESE Business School de Barcelone
Une seule installation de 5 gigawatts nécessiterait environ 2,5 par 2,5 miles (4 par 4 kilomètres) de panneaux solaires en orbite. C’est “en principe réalisable”, a-t-il ajouté, mais seulement avec une ingénierie sérieuse. La latence, l’entretien et la logistique de lancement restent des questions ouvertes.
L’efficacité est peut-être le levier le plus rapide de tous. Förderer a souligné que les progrès dans les puces, la conception des modèles et l’architecture des systèmes ont déjà réduit l’énergie requise par unité d’intelligence. Parmi les efforts récents, on trouve une percée du MIT qui vise à réduire la consommation d’énergie en empilant les composants verticalement, ainsi qu’un “arc-en-ciel sur puce” qui utilise des lasers pour transmettre des données dans les composants.
Ces gains n’élimineront pas le besoin de plus d’énergie, mais ils peuvent ralentir le rythme auquel la demande augmente.
Débloquer l’énergie débloque-t-il une IA plus intelligente ?
La demande croissante exercée sur le réseau électrique par l’IA soulève également des préoccupations environnementales. Aoife Foley, ingénieure, professeur et titulaire de la chaire Net Zero Infrastructure à l’Université de Manchester au Royaume-Uni, a souligné que le secteur informatique au sens large représente déjà environ 1,4 % des émissions mondiales de carbone.
Les charges de travail d’IA consomment beaucoup plus d’énergie que l’informatique en nuage ordinaire, et bien que les grandes entreprises technologiques investissent dans les énergies renouvelables et de meilleurs systèmes de refroidissement, Foley a déclaré que ces efforts seuls ne suffisent pas. “Ces impacts peuvent être réduits grâce à une optimisation plus intelligente des modèles et à un alignement plus étroit entre la stratégie des centres de données et la génération régionale d’énergies renouvelables”, a-t-elle déclaré à Live Science.
Malgré l’ampleur du défi, aucun des experts ne voit l’électricité comme un raccourci vers l’intelligence artificielle générale (IAG) – une forme hypothétique d’IA capable de simuler un comportement aussi intelligent, voire plus intelligent, que celui d’un être humain. Plus d’énergie facilite la construction et l’exécution de systèmes plus importants, mais cela ne résout pas les problèmes plus difficiles. Au lieu de cela, Förderer a soutenu que les vraies limites se situent ailleurs – dans l’accès aux données, dans de nouvelles architectures de modèles et dans de véritables avancées en matière de raisonnement.
“L’énergie est nécessaire mais pas suffisante”, a convenu Samila, ajoutant que l’approche dominante actuelle pour améliorer l’IA repose sur des quantités massives d’énergie, mais que plus d’électricité seule ne produira pas magiquement d’IAG.
Plus d’énergie ne garantit pas des machines plus intelligentes, mais elle change qui peut y participer. L’accès à l’énergie façonnera l’endroit où l’IA sera construite, qui pourra se permettre de l’exécuter et à quel point elle sera déployée. Le goulot d’étranglement s’est déplacé du silicium vers le monde physique, où les réseaux, les permis et les centrales électriques évoluent à un rythme très différent de celui du code.
SUJETS
Sourse: www.livescience.com
