L’explosion de la consommation d’énergie des centres de données pour soutenir les technologies d’IA générative, y compris les grands modèles de langage (LLM), pose des défis au réseau électrique américain d’une manière comparable à l’adoption généralisée de la climatisation centralisée à domicile dans les années 1960.

Selon un rapport de McKinsey de janvier 2023, la consommation d’énergie des centres de données sur le marché américain devrait passer de 17 gigawatts (GW) en 2017 à 35 GW d’ici 2030. Pour augmenter la production d’énergie et suivre la demande croissante, les services publics modernisent les réseaux électriques vieillissants, tandis que des entreprises comme Microsoft ont commencé à conclure des contrats directement avec des fournisseurs d’énergie renouvelable.

Cependant, d’autres adoptent une approche plus novatrice en se concentrant sur l’augmentation de l’efficacité en réduisant la consommation d’énergie des opérations d’inférence d’IA générative.

L’entraînement même d’un seul grand modèle de langage (LLM) prend des mois et coûte des millions de dollars. Les centres de données d’IA qui entraînent ces modèles consomment quatre fois plus d’électricité que les centres de données hébergeant des applications cloud, en raison des unités de traitement graphique (GPU) qui effectuent les opérations de traitement parallèle nécessaires aux LLM comme ChatGPT et DALL-E 3.

Les GPU génèrent également beaucoup plus de chaleur résiduelle que les unités centrales de traitement (CPU), nécessitant des systèmes de refroidissement améliorés. Cela rend la rénovation des centres de données existants difficile, car l’infrastructure électrique existante ne prend en charge qu’un quart des GPU par rapport aux CPU.

Pour résoudre ce problème, il est essentiel d’améliorer l’efficacité de l’infrastructure de calcul des centres de données. En augmentant l’efficacité du calcul par une meilleure architecture, il est possible de mettre plus de puissance de calcul dans un dispositif plus petit tout en consommant significativement moins d’énergie. Cela se traduirait par moins de centres de données à construire et moins de besoins en refroidissement liquide, réduisant ainsi la consommation d’eau.

En fin de compte, ces améliorations offrent des avantages considérables, tels que des coûts d’exploitation et d’énergie réduits, pour la même quantité de puissance de calcul. Il est crucial de se concentrer sur des solutions innovantes pour relever les défis posés par la consommation d’énergie croissante des technologies d’IA générative, tout en poursuivant les objectifs de neutralité carbone du pays.