🧠💧 Starter pack IA : une image, 5 litres d’eau et quelques mégawatts ?

l’équipe Com' du LTI
Updated on

 📦 Des « starter packs » qui cartonnent… mais à quel prix ?

Si tu traînes un peu sur Internet (ne mens pas, on te voit 👀), tu n’as pas pu rater les starter packs générés par intelligence artificielle. Tu sais, ces montages à base d’objets emblématiques, de vêtements et d’attitudes qui résument parfaitement un stéréotype ? C’est drôle, parfois même savoureusement absurde… Mais derrière l’humour, il y a un vrai sujet de fond.

Car chaque fois que tu demandes à une IA de générer une image, une immense machine s’active : des serveurs surpuissants, des flux de données transcontinentaux, et surtout… une grosse facture énergétique et hydrique.

💧 Une IA bien assoiffée

On parle souvent de pollution numérique ou de consommation électrique… mais l’eau est le grand oublié du débat. Et pourtant, les data centers – ces gigantesques entrepôts remplis de serveurs – doivent être refroidis en permanence pour éviter la surchauffe. Résultat : ils consomment des millions de litres d’eau chaque jour.

Selon une étude de l’UniversitĂ© de Carnegie Mellon, chaque image gĂ©nĂ©rĂ©e par une IA peut reprĂ©senter entre 2 et 5 litres d’eau Ă©vaporĂ©e pour le refroidissement. Microsoft, lui, a utilisĂ© plus de 6,4 milliards de litres en 2022, soit l’équivalent de la consommation annuelle de 50 000 habitants.

Microsoft, de son côté, a vu sa consommation d’eau grimper de 34 % entre 2021 et 2022, en partie à cause de l’entraînement de modèles comme GPT-3.

Et tout ça, souvent, pour faire des chats avec des casques de réalité virtuelle. Oui, ça fait réfléchir.

⚡ Une consommation d’énergie qui grimpe aussi vite que les likes

Et ce n’est pas tout. Une requête à une IA générative comme ChatGPT consomme jusqu’à 10 fois plus qu’une recherche Google classique (Polytechnique Insights).

Les serveurs spécialisés (GPU, TPU) tournent à plein régime, même quand on leur demande des choses simples. Et à l’échelle mondiale, cette gourmandise énergétique fait exploser le bilan carbone. Google a vu ses émissions de CO₂ grimper de 13 % en un an, principalement à cause de ses outils IA.

 🌱 L’IA frugale, c’est possible ?

Face à ces constats, un mot commence à émerger dans la tech : frugalité. L’idée ? Faire mieux, avec moins. Moins d’énergie, moins de ressources, moins de calculs. Facile à dire, mais compliqué à faire quand on veut générer 4 paragraphes et une recette de tiramisu en 2 secondes.

Mais il existe des solutions. Certaines entreprises conçoivent désormais des modèles d’IA plus petits, plus rapides et plus efficaces. C’est le cas de GPT-0.1 Mini ou GPT-4.1 Nano (OpenAI), qui offrent des performances honorables tout en réduisant leur empreinte environnementale. De nouveaux algorithmes permettent également de mutualiser les calculs ou d’éviter des redondances inutiles dans l’entraînement des IA.

 

🔍 Comment ça marche, un data center ?

Imagine un hangar géant rempli de serveurs, organisés en rangées. Chacun de ces serveurs chauffe énormément lorsqu’il exécute des calculs complexes. Il faut donc constamment le refroidir – via des ventilateurs, des circuits de liquide, ou même… des systèmes de refroidissement par immersion ! Et tout cela fonctionne 24h/24, 365 jours par an.

En plus, ces infrastructures sont souvent situées dans des régions où l’eau est rare (Californie, Arizona…), ce qui aggrave les tensions hydriques locales. Bref : le cloud a des pieds bien ancrés dans le sol, et il a besoin qu’on s’en occupe.

 

🛠️ Et au LTI, on en pense quoi ?

Au Laboratoire des Technologies Innovantes, les enjeux de consommation énergétique et de sobriété numérique sont au centre de plusieurs projets, notamment porté par nos savoir-faire et thématiques de recherche :

  • Équipe EESA : optimisation Ă©nergĂ©tique de la production d’Ă©nergie, Ă©lectronique de puissance, systèmes embarquĂ©s Ă©conomes

  • Équipe SI : IA frugale, hybridation physique-apprentissage machine

Laisser un commentaire