Une étude montre les risques exponentiels de l’IA pour le climat

Par Inès A. le 08/03/2024

Temps de lecture : 2 min

L’IA, le nouveau super vilain ?

L’intelligence artificielle est souvent présentée comme une solution miracle aux problèmes de notre société – elle est censée aider à guérir les maladies, réduire les erreurs et diminuer les gaz à effet de serre. Cependant, une étude réalisée par Friends of the Earth met en lumière deux dangers de l’IA sous-estimés : la consommation croissante d’énergie et d’eau nécessaire aux systèmes d’IA, et la menace de la propagation de la désinformation climatique amplifiée par l’IA. 

L’industrie reconnaît désormais que l’IA nécessitera des quantités massives d’énergie et d’eau. Les déclarations de responsables d’entreprises telles qu’Alphabet, Google et Open AI soulignent que chaque nouvelle requête d’IA nécessite une quantité d’énergie considérablement plus élevée que les recherches traditionnelles sur Google. De plus, l’Agence Internationale de l’Énergie estime que la consommation d’énergie des centres de données alimentant l’IA doublera dans les deux prochaines années, atteignant ainsi des niveaux alarmants. 

L’IA risque de propager la désinformation climatique à une vitesse sans précédent. Les modèles d’IA permettent aux propagateurs de désinformation climatique de créer du faux contenu de manière plus économique et rapide, entraînant une propagation accrue sur les réseaux sociaux, la publicité et les moteurs de recherche.

Cette étude lève le voile sur le rôle crucial des gouvernements dans la régulation de l’IA pour garantir la transparence, la sécurité et la responsabilité des entreprises qui développent et utilisent ces technologies. Alors, comment accompagner cette révolution technologique tout en limitant son impact sur le climat ? Des innovations comme le nouveau système Groq, moins énergivores et plus rapides grâce à son unité de traitement du langage LPU, pourraient être la solution. 

News Scan Book

Starbucks célèbre ses 20 ans en France

1

2

3

4

5

Précédent Suivant