|21/03/23 08:15 AM

Los creadores de ChatGPT admitieron que están "asustados"

La empresa OpenAI lanzó recientemente el GPT-4, la última versión de su IA que cuenta con un poder increíble de razonamiento ante diversas consignas que le dan los humanos

Por Redacción

21 de marzo, 2023 - 08:15

La popularidad de la Inteligencia Artificial (IA) puso en el centro de la escena a ChatGPT, una herramienta cada vez más usada por diversos internautas. A medida que esta tecnología se integra en la sociedad, crece la preocupación de que esta cause nuevos problemas o riesgos.

Sam Altman, actual CEO de OpenAI y creador de ChatGPT, expresó su preocupación al respecto. En una entrevista, el empresario hizo hincapié en la necesidad de que tanto los reguladores como la sociedad en general se involucren con la tecnología para protegerse contra las posibles consecuencias negativas para la humanidad.

"Tenemos que tener cuidado aquí. Creo que la gente debería estar feliz de que estemos un poco asustados por esto", dijo Altman.

"Estoy particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala. Ahora que están mejorando en la escritura de código de computadora, podrían usarse para ataques cibernéticos ofensivos", declaró a ABC News.

Recientemente, la empresa OpenAI presentó el GPT-4, una nueva versión del ChatGPT que demuestra ser altamente competente. El modelo de lenguaje obtuvo calificaciones impresionantes en sus exámenes, incluyendo un puntaje del 88% para su ingreso a la facultad de derecho, un destacado 90% en el prestigioso examen de Bar, y más de un 85% en todas las evaluaciones de secundaria.

Pese a todo, Altman reflexionó: “Esta es una herramienta que está en gran medida bajo el control humano”. En este sentido, marcó que el GPT-4 "espera a que alguien le dé una entrada", y lo preocupante es, en realidad, es quién tenga el control de esas entradas.

Ya Elon Musk, uno de los primeros inversores de OpenAI, había advertido que la Inteligencia Artificial era "uno de los mayores riesgos para el futuro de la civilización". "Creo que necesitamos regular la seguridad de la IA. Creo que son un riesgo mayor para la sociedad que los automóviles, los aviones o los medicamentos", declaró el dueño de Twitter y CEO de Tesla.

“Habrá otras personas que no pongan algunos de los límites de seguridad que ponemos nosotros”, consideró Altman. “Creo que la sociedad tiene una cantidad limitada de tiempo para descubrir cómo reaccionar ante eso, cómo regularlo, cómo manejarlo”.

El CEO de OpenAI insinuó críticas hacia aquellas compañías que adoptan un enfoque más liberal en cuanto a la inteligencia artificial, como fue el caso de Microsoft, que recientemente eliminó su departamento de ética en IA a pesar de las demandas de regulación.

A pesar de estas preocupaciones, el potencial de la IA no se ha visto afectado. En términos económicos, se espera que el mercado global de la inteligencia artificial experimente un crecimiento del 19% anual para el año 2026, generando ingresos por encima de los 900 mil millones de dólares.