L’impact environnemental de l’intelligence artificielle générative
Une chercheuse néerlandaise a mis en évidence la consommation d’énergie énorme associée à la nouvelle génération d’outils alimentés par l’intelligence artificielle générative. Si ces outils étaient largement adoptés, ils pourraient finir par consommer autant d’énergie qu’un pays entier, voire plusieurs pays combinés.
Alex de Vries, doctorante à la Vrije Universiteit Amsterdam, a publié une recherche dans le journal Joule sur l’impact environnemental des technologies émergentes telles que l’intelligence artificielle générative.
L’arrivée, en moins d’un an, d’outils tels que ChatGPT (d’OpenAI), Bing Chat (Microsoft) et Bard (Google), ainsi que Midjourney et d’autres dans le secteur de l’image, a considérablement augmenté la demande de serveurs et donc l’énergie nécessaire pour les faire fonctionner correctement. Cette évolution soulève inévitablement des préoccupations quant à l’impact environnemental de cette technologie, qui est déjà utilisée par de nombreuses personnes.
Ces dernières années, à l’exception de l’extraction de cryptomonnaie, la consommation d’électricité des centres de données est restée relativement stable, représentant environ 1% de la consommation mondiale. Cependant, l’expansion de l’intelligence artificielle, qui est inévitable dans de nombreux domaines, est susceptible de changer la donne.
Selon Alex de Vries, le modèle linguistique GPT-3 a consommé à lui seul plus de 1 287 MWh lors de son entraînement. Après cette phase, l’outil est mis au travail, générant des réponses aux requêtes des internautes, pour rester avec ChatGPT.
Au début de l’année, SemiAnalysis estimait qu’OpenAI avait besoin de 3 617 serveurs, avec un total de 28 936 unités de traitement graphique (GPU), pour prendre en charge ChatGPT, ce qui correspondrait à une demande de puissance d’environ 564 MWh par jour.
Et cela n’est bien sûr que le début. Toujours selon SemiAnalysis, la mise en œuvre d’une IA similaire à ChatGPT dans chaque recherche Google nécessiterait l’utilisation de 512 821 serveurs dédiés, soit un total de plus de 4 millions de GPU.
Avec une demande de puissance de 6,5 kW par serveur, cela se traduirait par une consommation quotidienne d’électricité de 80 GWh et une consommation annuelle de 29,2 TWh (térawatt-heures, soit un milliard de kilowatt-heures). Selon le scénario le plus pessimiste, une IA déployée à grande échelle par Google pourrait consommer autant d’énergie qu’un pays comme l’Irlande (29,3 TWh par an).
Alphabet a déjà confirmé que l’interaction avec un modèle linguistique pourrait consommer jusqu’à 10 fois plus d’énergie qu’une recherche par mot-clé standard, passant de 0,3 Wh à environ 3 Wh. Chez Nvidia, le principal fournisseur de serveurs d’IA, plus de 1,5 million d’unités pourraient être vendues d’ici 2027, pour une consommation totale allant de 85 à 134 TWh par an.
En conclusion, la consommation d’électricité liée à l’IA devient rapidement une préoccupation majeure. Néanmoins, il existe plusieurs moyens de réduire cela. La première serait évidemment de privilégier les sources d’énergie renouvelable pour alimenter les centres de données.
Ensuite, il est nécessaire de trouver des moyens de développer des algorithmes qui consomment moins d’énergie. Enfin, il serait possible de sensibiliser les utilisateurs d’Internet à une utilisation responsable de l’IA.




