L’intérêt pour les intelligences artificielles, notamment les modèles génératifs qui produisent textes, images, sons et vidéos, ne cesse de croître. D’une simple commande, ces outils produisent en quelques secondes ce que l’humain réalise en plusieurs heures. Mais cette capacité technologique n’est pas sans coût énergétique, une consommation que nombreux sont loin d’imaginer.
Les années 2022 et 2023 ont été marquées par l’essor des intelligences artificielles (IA), dont le célèbre ChatGPT de l’entreprise OpenAI. Pour interagir correctement avec les utilisateurs, ces technologies s’appuient sur des milliards de paramètres et mobilisent des milliers de serveurs. Rien que pour ChatGPT, on parle de 3 617 serveurs, chacun affichant souvent une puissance allant de 6 à 10,2 kW (serveurs NVIDIA).
Au total, la puissance électrique pourrait osciller entre 21,7 à 36,8 MW. Face à de tels chiffres, des interrogations suscitent quant à la consommation électrique de ces nouvelles technologies. Une étude récente lève le voile : leur consommation électrique est colossale, et pourrait, dans le futur, rivaliser avec celle de certains pays.
Jusqu’à 564 MWh par jour
Le cycle de vie d’une IA se compose de deux phases majeures. La première est appelée « formation », correspondant à l’étape durant laquelle le système est entrainé à répondre à une requête. Selon l’étude, cette opération peut nécessiter des centaines de mégawattheures (MWh), voire plus ... Lire la suite de l'actu sur revolution-energetique.com
Vous aimez ? Partagez sur Facebook :
En rapport sur ForumConstruire.com
Devis travaux électriques Demandez, en 5 minutes, 3 devis comparatifs aux professionnels de votre région. Gratuit et sans engagement.
M'inquiète car je l'utilise plusieurs fois par jour sur le chantier surtout pour l'électricité mais pas que.
Me demande quel est le coût en électricité de FC ?
Ben oui, le poids du numérique est loin d'être négligeable.
Celle des IA est carrément abusé, les cryptomonnaies c'est pas beaucoup mieux (même si la vague est passée et que c'est en train de retomber). Et à un niveau plus proche, tout ce qu'on met dans le Cloud (données, applications, services ...) a un impact, même minime mais multiplié par des milliards de personnes ça pèse. Youtube, Netflix & Co par exemple.
Donc autant faire du ménage de printemps dans nos données.
La conso des ordinateurs est de plus en plus faible proportionnellement à la capacité de stockage ou de calcul. Ce qui pèse lourd, et de plus en plus lourd ... c'est la clim !
Les grands Datacenters peuvent réduire un peu ça en faisant des économies d'échelle mais bon ... souvent d'ailleurs ils sont directement raccordés en Haute Tension, voir plus (en gros ils traitent directement avec RTE et ne passent pas par Enedis).
Pour rebondir sur ce que dit @Woofy on peut se moquer de l'énergie consommée et de la technicité déployée pour diffuser des vidéos de chat et des cours de reproductions... car ce sont les contenus les plus plébiscités sur les différentes plateforme...
Ensuite vient la consommation liée au tout numérique mais pourrait-on s'en passer aujourd'hui vu qu'on en est dépendant pour tout.
Je pense surtout qu'il est temps de réfléchir a faire plus propre et plus durable.
Comme beaucoup de choses, une très grande partie de la consommation électrique des serveurs est convertie en chaleur, qui doit être évacuée car fatale pour les processeurs.
De plus, près de la moitié de l'électricité consommée par les serveurs provient justement du système de refroidissement
On peut donc penser que l'on peut refroidir et récupérer la chaleur des serveurs pour produire de l'énergie, ou simplement produire le chauffage pour les villes avoisinantes, comme je l'ai déjà lu dans un article. Donc moins d'énergie dépensée pour le refroidissement, et une réduction de la perte d'énergie consommée par les serveurs.