|06/02/24 11:15 PM

Alerta por filtraciones de datos privados y contraseñas en ChatGPT

Algunos usuarios fueron los primeros en descubrir las vulnerabilidades en cuanto a seguridad que presentaba este generador de texto

Por Redacción

06 de febrero, 2024 - 23:15

Durante el año pasado, cuando el avance de la inteligencia artificial generativa parecía incontenible gracias al éxito de herramientas como ChatGPT, muchas empresas tomaron medidas para prohibir a sus empleados el uso de estas tecnologías.

Resulta especialmente llamativo el caso de ChatGPT, ya que grandes empresas tecnológicas como Amazon, Apple y Microsoft, esta última siendo la principal impulsora de OpenAI, la desarrolladora del chatbot de IA, advirtieron a sus trabajadores sobre el riesgo significativo que implicaba compartir ‘datos sensibles’ con estas herramientas.

Algunos usuarios de ChatGPT fueron los primeros en descubrir las vulnerabilidades en cuanto a seguridad que presentaba este generador de texto. A través de la creación de alter egos, lograron eludir los parámetros predefinidos por OpenAI, llevando a ChatGPT a ofrecer respuestas controvertidas sobre temas delicados como el holocausto o el tráfico de drogas.

Varios investigadores especializados han señalado que el chatbot de inteligencia artificial puede filtrar información sobre personas reales. Un lector de Ars Technica compartió su experiencia, revelando que ChatGPT estaba filtrando conversaciones privadas que contenían contraseñas y otros datos personales de usuarios sin relación aparente y compartió capturas de pantalla que mostraban nombres de usuario y contraseñas relacionados con un sistema de asistencia utilizado por los empleados de un portal de medicamentos con receta de una farmacia.

Según lo informado por Ars Technica, además de proporcionar acceso a un usuario ajeno a una conversación privada y a contraseñas, ChatGPT reveló detalles como el nombre de la aplicación que el empleado estaba abordando y el número de la tienda afectada por el problema.

El lector que compartió esta experiencia explicó que descubrió estas nuevas conversaciones cuando regresó a la aplicación después de realizar una consulta previa. Afirmó que no estaban presentes en su historial la noche anterior, y destacó que no había realizado ninguna consulta relacionada con esas conversaciones filtradas. También afirmó haber tenido acceso a otras conversaciones filtradas que incluían información como el nombre de una presentación en la que alguien trabajaba, detalles de una propuesta de investigación no publicada y un fragmento de código fuente en PHP.

Ante estos informes, OpenAI ha anunciado que investigará este problema, pero cabe señalar que no es la primera vez que los usuarios de ChatGPT denuncian incidentes similares.