|19/12/23 02:38 PM

El impresionante consumo energético de la Inteligencia Artificial

La demanda de aplicaciones de Inteligencia Artificial no solo redefine el futuro digital, sino que plantea un desafío energético significativo

Por Redacción

19 de diciembre, 2023 - 15:12

La Inteligencia Artificial (IA), tan fascinante como inquietante, plantea no solo cuestionamientos sobre su posible amenaza a la humanidad, sino también sobre su voraz consumo energético. Según Sergey Edunov, director de ingeniería de IA generativa en Meta, este consumo desmedido de energía es un tema crítico que no recibe la atención que merece.

El problema radica en el elevado consumo de energía que la Inteligencia Artificial proyecta para el futuro. Edunov, en una mesa redonda, alertó que la demanda prevista para aplicaciones de IA en 2024 podría igualar el gasto de dos plantas de energía nuclear. Esta estimación se basa en cálculos aproximados relacionados con lo que él denomina inferencia en el campo de este avance tecnológico.

La inferencia, un proceso clave en la Inteligencia Artificial, implica aplicar la tecnología para responder preguntas o hacer recomendaciones. Es fundamental comprender que la energía necesaria para dos centrales nucleares no se destinaría al proceso de entrenamiento de modelos de IA, donde se manejan grandes cantidades de datos antes de realizar inferencias.

Fuente: Pexels /  cottonbro studio

Un estudio de la Universidad Cornell arroja luz sobre la magnitud del problema que presenta la Inteligencia Artificial. El entrenamiento de ChatGPT-3, la generación anterior a ChatGPT-4, consumió una cantidad sorprendente de 700.000 litros de agua. Para ponerlo en perspectiva, esta cifra iguala al agua utilizada por todos los centros de datos de Microsoft en Estados Unidos. Además, el modelo de lenguaje grande (LLM) consume en promedio medio litro de agua por cada conversación.

Retos y perspectivas para un futuro sostenible

A pesar de las preocupaciones sobre el consumo energético, Edunov mantiene una perspectiva optimista. Asegura que se pueden encontrar soluciones para abordar la creciente demanda de aplicaciones de Inteligencia Artificial, especialmente en el ámbito de la inferencia.

El director de ingeniería menciona los planes de Nvidia, el principal proveedor de procesadores para Inteligencia Artificial, que planea lanzar entre uno y dos millones de sus GPU H100 para 2024. Con un enfoque en generar tokens para LLM de tamaño razonable, podríamos alcanzar la asombrosa cifra de 100,000 tokens por persona en el planeta al día.

Sin embargo, este enfoque optimista no pasa por alto los desafíos. Edunov reconoce la dificultad de obtener suficientes datos para el entrenamiento de la Inteligencia Artificial, citando el caso de ChatGPT-4, supuestamente entrenado con todos los datos de Internet disponibles públicamente. Descargar todo el Internet público equivaldría a unos 100 billones de tokens, pero limpiarlos y eliminar datos duplicados podría reducir la cifra a entre 10 y 20 billones de tokens.

Frente a estas limitaciones, Edunov destaca que los investigadores trabajan en técnicas de eficiencia para hacer que los modelos sean más inteligentes con cantidades de datos más pequeñas. También plantea la posibilidad de aprovechar otras fuentes de datos, como los vídeos, como alternativa para alimentar el voraz apetito de la Inteligencia Artificial.