|27/02/24 01:23 PM

Investigador advierte que la IA podría ser una amenaza para la humanidad

El científico experto en inteligencia artificial, plantea una visión alarmante sobre el futuro de la humanidad en relación con el avance de la IA

Por Redacción

27 de febrero, 2024 - 14:23

La Inteligencia Artificial (IA) ha sido tanto un motor de avance como una fuente de preocupación en el ámbito tecnológico. Mientras algunos celebran su potencial para aumentar la productividad, otros advierten sobre los riesgos que podría conllevar, incluida la posible desaparición de ciertas profesiones.

Eliezer Yudkowsky, destacado experto en IA y fundador del Instituto de Investigación de Inteligencia de Máquinas en California, ha planteado recientemente una visión sombría sobre el futuro de la humanidad en relación con el desarrollo de esta tecnología. En una entrevista con el diario británico The Guardian, sugirió que el tiempo restante para la humanidad podría ser sorprendentemente corto, estimando que podríamos estar más cerca de la catástrofe de lo que muchos creen.

Esta visión apocalíptica se centra en el temor de que las máquinas, impulsadas por una IA General, podrían eventualmente causar la destrucción del planeta. Yudkowsky critica la rápida adopción de la IA por parte de la sociedad, sin una cuidadosa consideración de sus posibles efectos adversos, y además señaló los riesgos enormes si no se implementa un uso ético y responsable de esta tecnología.

Aunque de manera jocosa, Yudkowsky sugiere que la solución para contrarrestar la amenaza de la IA podría ser bombardear sus centros de datos. Aunque esto es una broma, refleja la seria preocupación dentro de la comunidad científica sobre los peligros de usar esta herramienta de manera descontrolada.

Más de uno tuvo un recuerdo relacionado con el cine: en la larga y exitosa saga de películas relacionadas con Terminator, una IA llamada Skynet es la que ordena eliminar a los humanos.

Fuente: Wikipedia

En charlas anteriores, Yudkowsky había abordado este tema, advirtiendo sobre un posible enfrentamiento entre la humanidad y una IA más inteligente con objetivos distintos a los nuestros. Esta perspectiva pesimista ha ganado apoyo en la comunidad científica, como lo demuestra el reciente manifiesto contra la IA firmado por el nieto de Robert Oppenheimer.

No obstante, Yudkowsky no está en contra de la IA en sí misma; de hecho, aboga por la creación de una herramienta amigable. Sin embargo, para lograr esto, es fundamental examinar críticamente el desarrollo, el impacto y tomar medidas para garantizar su uso ético y responsable.