6 Diciembre de 2023 - 10:25
![pedofilia-jpg.](https://statics.ciudadano.news/2023/12/crop/738db1fe8003d32882f7ff641c2ee360__400x300.webp)
Distintos organismos internacionales alertan sobre la utilización de Inteligencia Artificial (IA) para crear material de abuso sexual infantil (MASI).
Un informe de la organización Internet Watch Foundation advirtió sobre este nuevo fenómeno relacionado con uno de los avances tecnológicos más importantes de los últimos años. Mientras el mundo analiza el alcance de la tecnología artificial y como afecta nuestra vida, grupos de pedófilos están creando y compartiendo en internet imágenes de explotación sexual de menores generadas con fotos de niños y adolescentes que fueron publicadas en redes sociales, propias o de sus padres.
En sólo un mes de trabajo analizando un único sitio del 'internet profundo' o 'deep web', la organización detectó alrededor de 3 mil imágenes artificiales de niños actores y de niños sin una vida pública, sexualizados artificialmente. Se lo conoce como 'deep fake', se utiliza la Deep Face (“face”, rostro en inglés) y la Deep Voice (“voice”, voz en inglés), para modificar la cara y voz de una persona en una foto o video simulando que es otra.
“La crítica no debe estar enfocada solamente en el uso indebido de este tipo de sistemas, sino también en la responsabilidad de las empresas que permiten que sus desarrollos informáticos de inteligencia artificial se usen para esto”, afirmó Marina Benítez Demtschenko, abogada especialista en Derecho Informático, en diálogo con el sitio El Destape. Según la experta, las empresas desarrolladoras tienen la posibilidad de inhibir usos de esta índole y no lo hacen porque “les genera lucro”.
Respecto a una solución, Demtschenko sostuvo que “es evitable. Los organismos internacionales tienen una red de detección preventiva de softwares que rastrean este tipo de contenidos, y tienen la capacidad de alertar a las fiscalías locales en Argentina si encuentran MASI”.
En referencia a la legislación vigente, la titular de la Unidad Fiscal Especializada en Delitos y Contravenciones Informáticas, Daniela Dupuy, opinó: “Si bien para muchísimas legislaciones penales esto ya es considerado un delito, la falta de un marco legal específico para castigarlo sigue siendo una deuda que tenemos en Argentina”. https://ciudadano.news/policiales/mostro-imagenes-de-pedofilia-extorsiono-y-se-hizo-pasar-por-un-fiscal
Chantaje en el mundo
En Argentina, como en el mundo, se produjo la creación y distribución de MASI cuyo abordaje representa un desafío para el poder judicial.
En Argentina
Un ejemplo se dio en la provincia de San Juan. El joven de 23 años Mario Leandro Pérez González fue denunciado por sus compañeras de la Facultad. Sin su consentimiento, usó fotos de las redes sociales de al menos 15 jóvenes, para luego “desnudarlas” borrando su ropa con Inteligencia Artificial y posteriormente venderlas con precio en dólares a un sitio web para adultos.
El caso fue tratado por la Justicia de Faltas de San Juan, y los fiscales descartaron la comisión de un delito tipificado en el Código Penal.
La edad de las víctimas es condicionante: cada vez más mujeres adultas son agredidas sexualmente con la creación de “deep fakes” que se confunde con pornografía lícita, pero no avanzan las investigaciones. Sin embargo, la creación, distribución e incluso la tenencia de imágenes pornográficas con menores de edad no tiene discusión: es un delito.
Así, este caso fue tenido en cuenta por la Justicia después de que el Centro de Abordaje Integral de Niños, Niñas y Adolescentes Víctimas de esa provincia presentara un informe en el que alertaba que Pérez González tenía, además, material real de explotación sexual de chicas y chicos menores de 13 años que luego distribuía en redes como WhatsApp. Fue así que se concretó la condena a tres años de prisión condicional.
Perú
En el colegio St George's College, fueron entre 14 y 16 las adolescentes mujeres víctimas de la manipulación de fotografías y videos sacados de sus redes sociales con fines de explotación sexual.
Los presuntos responsables serían sus propios compañeros varones, de entre 13 y 14 años, que, mediante una aplicación, insertaron las caras de sus compañeras en cuerpos desnudos falsos para venderlos a otros alumnos del mismo centro educativo. Se investiga actualmente si adultos ayudaron a los adolescentes en la creación y distribución de las imágenes en cuestión.
España
“Mamá, están circulando fotos mías con el pecho desnudo”, contó una adolescente de 14 años en septiembre, en Almendralejo, España. Su madre contó a la BBC: “Le pregunté si se había tomado fotos desnuda y dijo: 'No, mamá, son fotos falsas de niñas que están siendo creadas y hay otras chicas de mi clase a las que les ha pasado también'”.
Además de la hija de María, hubo 24 niñas y adolescentes de Almendralejo y cercanías, entre los 11 y los 17 años, que han denunciado lo mismo: sus fotos fueron tomadas de las redes sociales para luego ser “desnudadas” mediante una aplicación de IA.
A esta problemática se suma que los agresores extorsionaron a las familias exigiéndoles dinero a cambio de no difundir las imágenes de algunas de ellas.
Cuando se trata de menores de edad, no existen grises judiciales, sean imágenes reales, ficticias o mixtas, son condenables.
“Está bien que pensemos en que hay personas que hacen el mal, pero lo hacen con cualquier instrumento. Las redes de distribución y comercialización de material de abuso sexual infantil a nivel mundial son literalmente imparables y cada vez mayores. Es necesario estudiar y controlar esa actividad, no luchar contra un software”, sostuvo Demtschenko.
Con información de El Destape
Seguí leyendo
- España regulará los alquileres temporales en todo el país: ¿chau Airbnb?
- Video: Jamaica sufrió el castigo fulminante del huracán Beryl
- Laboristas cierran campaña y los conservadores se preparan para una paliza
- La francesa Eramet pone US$ 800 millones de inversión en el oro blanco
- Kamala Harris empieza a sonar fuerte como candidata demócrata a la Casa Blanca
Más leídas
- ¿Qué número es el embarazo en la quiniela y qué significa soñarlo?
- Números y profesiones en la quiniela: la tabla completa
- ¿Qué número es 'El sexo' en la quiniela y qué significa soñarlo?
- ¿Qué número es la víbora en la quiniela y que significa soñarla?
- ¿Cuándo pagan el Plan de Acompañamiento Social en julio?
![patricia-bullrich-jpg.](https://statics.ciudadano.news/2023/08/crop/4eb230c196519e999afbc2c4f88da378__360x237.webp)
Redes sociales
La Justicia de Corrientes ordenó eliminar una publicación de TikTok por su contenido
Por Redacción
![salud-mental-adolescente-jpg.](https://statics.ciudadano.news/2022/04/crop/91a6aef820cdbc726dd25ad9e2b3b4c2__360x237.webp)
Educación superior
Las cinco nuevas carreras universitarias que podrán estudiarse en Argentina en el 2025
Por Redacción
![Ciberseguridad.](https://statics.ciudadano.news/2023/08/crop/d045efa8652f8210a621da59c3d16e6b__360x237.webp)
Reflexiones claves
¿De qué se arrepienten las personas justo antes de morir? La mirada de un experto
Por Redacción
![¿De qué se arrepienten las personas justo antes de morir? La mirada de un experto](https://statics.ciudadano.news/2024/07/crop/6686aa4aed0fb__360x237.webp?v=1720101605)
¿Gran expectativa?
A días de su vuelta a la televisión, Jey Mammón reveló a su primer invitado
Por Redacción
![Su nuevo programa saldrá en la señal de NetTV.](https://statics.ciudadano.news/2024/07/crop/66869e0f470d6__360x237.webp)
Nuevo caso
Estudiante utilizó la IA para crear imágenes pornográficas de sus compañeras
Por Redacción
![Estudiante utilizó la IA para crear imágenes pornográficas de sus compañeras](https://statics.ciudadano.news/2024/07/crop/66869a7931e68__360x237.webp)
Ciberseguridad
Alerta WhastApp: identifican los números que representan riesgo de estafas
Por Redacción
![Diversos tipos de estafas están siendo llevadas a cabo a través de la aplicación de telefonía móvil.](https://statics.ciudadano.news/2024/07/crop/6686999613cae__360x237.webp)
Opción laboral
Tras la paritaria récord, ¿qué hay que estudiar para trabajar en petróleo?
Por Redacción
![¿Por qué conviene trabajar en la industria del petróleo?](https://statics.ciudadano.news/2024/07/crop/66869597df760__360x237.webp?v=1720096229)