IV Edición: Recursos energéticos & mineros

ChatGPT no está al alcance de todo el mundo: varios expertos denuncian que la IA necesita una enorme cantidad de energía para funcionar

La llegada de la inteligencia artificial generativa, la tecnología que se encuentra detrás de herramientas tan disruptivas como ChatGPT Midjourney, ha generado numerosas dudas. 

Uno de los principales debates que ha generado esta tecnología tiene que ver con las preocupaciones éticas que plantea su desarrollo. La semana pasada, miles de líderes tecnológicos de la talla de Elon Musk, CEO de Twitter, Tesla y SpaceX, o Steve Wozniak, cofundador de Apple, se pusieron de acuerdo para firmar un manifiesto que pedía frenar durante al menos 6 meses el desarrollo de IA generativa.

"Los sistemas de IA más potentes solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán asumibles", sugería la carta abierta, que en la actualidad ya ha sido firmada por casi 3.000 personas. 

El manifiesto, que ha sido criticado por haber omitido los distintos problemas que entraña el desarrollo de la inteligencia artificial (como la acumulación de mucho poder en unas pocas manos), venía a recoger la preocupación ética que existe ante el avance desmedido de la IA. Sin embargo, existen muchas inquietudes acerca de esta tecnología. 

Una de ellas tiene que ver con la enorme cantidad de electricidad que se necesita para hacerla funcionar. Tal y como han explicado varios expertos a El Confidencial, la energía necesaria solo está al alcance de unos pocos gigantes tecnológicos como Google o Microsoft (impulsora de OpenAI, la desarrolladora de ChatGPT).

El medio de comunicación cita un estudio realizado por empleados de Alphabet —la matriz de Google— y académicos de la Universidad de Berkeley que calculó que las emisiones de CO2 que produjo el entrenamiento del modelo lingüístico con el que funcionaba la anterior versión de ChatGPT, GPT-3, ascendieron a 550 toneladas. Por su parte, el consumo energético fue de 1.300.000 kWh. 

"Eso no es sostenible para alguien que no sea un gigante. Las empresa o instituciones que sean pequeñas, medianas o grandes no se lo pueden permitir", ha indicado Carlos Gómez-Rodríguez, catedrático de Computación Informática de la Universidad de Santiago de Compostela, a El Confidencial.

Un artículo de Bloomberg sobre este mismo tema ya estimaba el mes pasado que el entrenamiento de un único modelo lingüístico como el que hace funcionar al generador de texto por IA de OpenAI podía suponer un consumo energético similar al de 100 hogares estadounidenses durante un año completo

El medio también hacía referencia a un análisis de Google en el que la compañía descubrió que la inteligencia artificial representaba entre un 10 % y un 15 % de su consumo total de electricidad. Aproximadamente tanta energía como la que necesitan todas las viviendas de una ciudad como Atlanta, en Estados Unidos (de 500.000 habitantes).