Generales Escuchar artículo

“Es un peligroso cambio de tendencia”: las redes de pedofilia locales ya usan inteligencia artificial para generar imágenes de abusos sexuales a niños

La denuncia contra Mario Leandro Pérez González, un sanjuanino de 23 años, la hicieron sus compañeras de la Facultad de Arquitectura y Diseño Gráfico de la Universidad Nacional de San Juan. S...

La denuncia contra Mario Leandro Pérez González, un sanjuanino de 23 años, la hicieron sus compañeras de la Facultad de Arquitectura y Diseño Gráfico de la Universidad Nacional de San Juan. Sin su consentimiento, había tomado fotos de las redes sociales de al menos 15 jóvenes, para luego “desnudarlas” borrando su ropa mediante el uso de inteligencia artificial (IA). El paso siguiente fue subir esas imágenes a un sitio web para adultos donde esas fotos se venden con precios en dólares.

El caso fue a parar a la Justicia de Faltas de San Juan, ya que los fiscales descartaron la comisión de un delito tipificado en el Código Penal. Pero la investigación tomó un rumbo inesperado después de que el Centro de Abordaje Integral de Niños, Niñas y Adolescentes Víctimas (ANIVI) de esa provincia presentara un informe en el que alertaba que Pérez González tenía, además, material real de explotación sexual de chicas y chicos (la mal llamada “pornografía infantil”). Las víctimas eran menores de 13 años y él distribuía ese contenido en redes como WhatsApp. La semana pasada y tras un acuerdo entre la defensa y la fiscalía, se lo condenó por este último delito a tres años de prisión condicional.

Esta historia ejemplifica una tendencia que crece a la par del avance de las nuevas tecnologías: el uso de la inteligencia artificial para producir fotos y videos falsos, pero hiperrealistas (conocidos como “deepfakes”) donde se utiliza el rostro de personas reales que son “desnudadas” e incluso incluídas en escenas sexuales. En ocasiones y a diferencia de lo ocurrido con las jóvenes sanjuaninas, que eran mayores de edad, el material que se produce puede ser de explotación sexual de niñas, niños y adolescentes.

En otras palabras, imágenes de chicas y chicos (muchas extraídas de sus propias redes sociales, de las de sus padres o amigos) son usadas para generar un contenido que después es comercializado en redes de pedofilia de la darkweb. Pero también hay material 100% “falso”: es decir donde tantos los rostros como los cuerpos son generados con inteligencia artificial. Se trata de un fenómeno nuevo que tiene en alerta a los especialistas, quienes ponen el foco en una cuestión central: hoy, en la Argentina resulta clave aggiornar la legislación para dar respuesta a esta tendencia en alza.

“El avance de las nuevas tecnologías nos desafía a observar las legislaciones penales. A nosotros nos ingresan casos que son producciones ficticias, hechas con inteligencia artificial, tan realistas que aparentan ser de niñas, niños o adolescentes desnudos o en una situación de abuso sexual. Hoy en muchísimas legislaciones penales, tanto a nivel regional como internacional, esto ya es considerado un delito. Es una deuda que aún tenemos en la Argentina”, explica Daniela Dupuy, al frente de la Unidad Fiscal Especializada en Delitos y Contravenciones Informáticas porteña.

Respecto a la situación normativa en nuestro país, la especialista diferencia entre:

Aquellos casos donde las imágenes de las chicas y los chicos son completamente ficticias, tanto el cuerpo como el rostro (es decir, que no se involucran a niños reales): esto en nuestro país aún no es considerado delito y sería fundamental que se lo incorpore cuanto antes a nuestra legislación penal, tal como ocurrió en otros países y como recomienda el Convenio de Budapest . En ese sentido, Dupuy señala: “Su protocolo explicativo hace una interpretación sobre la que yo estoy a favor y es que todas esas imágenes irreales, ya sea a través de dibujos animados o que aparentan ser reales mediante el uso de la inteligencia artificial, son utilizadas por los delincuentes para convencer a los niños de que formen parte de actividades de abuso sexual, porque las naturalizan”.Aquellos casos donde se utiliza la cara de una niña, niño o adolescente real y se hace un montaje con su cuerpo. Si bien esto aún no está contemplado como tal en nuestra legislación, como fiscal Dupuy insistiría, ante un caso como este, en que la Justicia condene a los responsables basándose en el artículo 128 del Código Penal, que habla de la producción y distribución de material de explotación sexual de niñas, niños y adolescentes. “Acá tenés una personita, un niño, que está siendo vulnerado”, dice Dupuy.

Fernando Tomeo, abogado, profesor de la UBA y consultor en derecho digital, privacidad y datos personales, coincide con esta mirada, y advierte que el avance cotidiano de la inteligencia artificial es un realidad que “ya está entre nosotros”. Por lo tanto, “lo primero es trabajar en la concientización y en la educación, haciendo un llamado de alerta a la ciudadanía, porque esto recién empieza” y, por ende, se desconoce la magnitud de su alcance. Explica que las imágenes e incluso voces de las chicas y los chicos son adulteradas con distintos fines, incluyendo los crímenes financieros. Y cuenta el caso de un cliente suyo: un hombre al cual le llegó por WhatsApp un supuesto video de su nieto, donde le decía que había sido secuestrado y le pedía pagar un rescate en dólares. La voz y la imagen eran de un hiperrealismo escalofriante.

“Mamá, están circulando fotos mías desnuda”

“Mamá, están circulando fotos mías con el pecho desnudo”, le contó días atrás a la española María Blanco Rayo, su hija de 14 años. “Le pregunté si se había tomado fotos desnuda y dijo: ‘No, mamá, son fotos falsas de niñas que están siendo creadas y hay otras chicas de mi clase a las que les ha pasado también’”, detalló la madre a la BBC.

La hija de María fue una de las más de 25 niñas y adolescentes de la pequeña localidad de Almendralejo que fueron víctimas de un caso que conmocionó a España en los últimos días. Sus fotos fueron tomadas de las redes sociales para luego ser “desnudadas” mediante una aplicación de IA. Circularon en grupos de WhatsApp y Telegram, y hubo incluso chantaje: les pidieron dinero a cambio de no difundir las imágenes.

En cuanto al método utilizado para realizar los montajes, la investigación apunta a que fue ClothOff, una app cuyo eslogan es “Undress girls for free” (“Desnuda a chicas gratis”). Los presuntos autores fueron identificados como chicos de entre 12 y 14 años, cercanos a las niñas. Algunos tienen los 14 cumplidos, edad a partir de la cual en España son punibles. En ese país, la creación de desnudos con inteligencia artificial es un delito reconocido por el Código Penal: a pesar de que sean imágenes manipuladas, si son realistas se consideran como material de explotación sexual de niñas y niños.

Hernán Navarro, abogado y fundador de Grooming Argentina, explica que son varios los países que avanzaron en la condena de este delito: “Funcionarios del Departamento de Justicia de EE.UU manifestaron que estas imágenes sexualizan a menores de edad, por lo que violan las leyes federales de protección a las infancias. En Reino Unido, una ‘pseudo imagen’ generada por computadoras que refleje violencia sexual a niñas, niños y adolescentes es considerada real y su posesión, publicación o transferencia son ilegales”.

Para el abogado, es clave poner el foco en “un peligroso cambio de tendencia”: hoy, señala, no sólo preocupa la producción de material de explotación sexual sino también la programación o fabricación del mismo a través de herramientas tecnológicas. Considera que este nuevo canal “incentiva, sin lugar a dudas, el mecanismo de oferta y demanda de este material, avasallando principios fundamentales de la infancia y marcos regulatorios específicos que protegen los derechos de las niñas, niños y adolescentes”.

Navarro afirma que la utilización de imágenes realistas de explotación sexual de chicas y chicos no sólo tiene como objetivo, por parte de la pedofilia, tratar de naturalizar estas prácticas, sino que a su vez estas imágenes “se utilizan para entrenar modelos de inteligencia artificial (mediante el ‘machine learning’ o aprendizaje automático) que generen cada vez más de este contenido”.

Esta realidad, dice el especialista, no solo puede ser producida por redes criminales, sino también por adolescentes, como en el caso de los jóvenes españoles: “Hasta que las leyes no establezcan de forma clara cómo debe actuar la sociedad ante los ‘deepfakes’ de explotación sexual, todo lleva a pensar que estas imágenes seguirán propagándose, lo que nos preocupa mucho”, reflexiona.

“Con un click, se puede desatar un infierno”

Paula Wachter, directora ejecutiva de Red por la Infancia, reflexiona acerca de cómo las aplicaciones de IA “borran de un plumazo el consentimiento” de las personas, pudiendo generar contenidos que “definitivamente son una forma de violencia sexual y digital”. La repercusión en la salud mental de las niñas, niños y adolescentes víctimas, alerta, está siendo enorme, gatillando problemáticas como los trastornos de ansiedad y depresión, autolesiones y hasta ideas de muerte. “Lo que nos tenemos que preguntar es cómo desarmamos esta cadena, que encima se va de las manos en un segundo: con tan solo un ‘click’, se puede desatar el infierno de un adolescente”, opina Wachter.

En esa línea, Lucía Fainboim, licenciada en Ciencias de la Comunicación, docente universitaria y consultora, sostiene que uno de los principales dilemas es que, a diferencia de lo que ocurre en otros rubros, como por ejemplos los medicamentos, que siempre son aprobados por entes reguladores antes de ser utilizados, con las nuevas tecnologías eso no sucede. “En este caso, se empiezan a pensar las normativas una vez que ya se están utilizando: eso es preocupante y se tiene que revertir urgentemente, porque si los programas están en uso, es mucho más difícil regularlos. Llegamos tarde, cuando el impacto y los daños ya están hechos”, dice.

Por otro lado, Fainboim considera que así como en su desarrollo participan ingenieros, también deberían hacerlo “profesionales de las ciencias sociales, ya que la pata ética debe ser una obligación. Es fundamental proteger cuestiones vinculadas a los derechos de las infancias y su impacto psicológico”.

Sobre este tema, Navarro suma: “Entendemos que la generación de contenido de explotación sexual a través de la utilización de inteligencia artificial generativa podría configurar un tipo penal en la Argentina, más allá de reconocer la evidente responsabilidad civil objetiva de los generadores de ese contenido. Es evidente que necesitamos avanzar parlamentariamente hacia la regulación y sanción de estas conductas”.

Más de 30.000 grupos y sitios web

Las niñas, niños y adolescentes no son las únicas víctimas de estos delitos. En la Argentina existen más de 30.000 grupos en sitios de Internet y redes sociales en los que miles de usuarios consumen, comparten, distribuyen y comercializan fotos y videos de mujeres sin su consentimiento. El dato surge del relevamiento de mercados de explotación sexual en Internet que están disponibles en nuestro país y fue realizado por el Frente Nacional para la Sororidad México. Lo difunde la organización Género y TIC, una organización que lucha contra la ciberviolencia de género.

Hay dos proyectos de ley clave que buscan ponerle un freno a esta violencia. Uno de ellos busca penalizar la obtención y difusión no consentida de material íntimo. Se lo conoce como “Ley Belén”, en homenaje a Belén San Román, una joven de Bragado que se suicidó tras enterarse de que una expareja había viralizado un video íntimo suyo sin su consentimiento. El otro, busca incorporar este tipo de violencia digital como otra forma de violencia contra las mujeres. Lleva el nombre Olimpia, en honor a Olimpia Coral Melo, una mujer mexicana que fue víctima de la difusión no consentida de un video íntimo y que en 2020 logró que su país reconociera este tipo de prácticas como violencia digital.

Dupuy, quien además dirige el Observatorio de Cibercrimen y Evidencia Digital en Investigaciones Criminales de la Universidad Austral, concluye: “Hay que trabajar fuertemente en la prevención para que se sepa que esto puede pasar y se tomen los recaudos necesarios, tanto la ciudadanía como en las legislaciones penales y procesales”.

Para más informaciónUnidad Especializada en Delitos y Contravenciones Informáticas del Ministerio Público Fiscal de la Ciudad Autónoma de Buenos Aires: además del 0800 33 FISCAL que atiende las 24hs, se puede denunciar desde la APP “DENUNCIAS MPF”, por mail a denuncias@fiscalias.gob.ar, desde la web www.mpfciudad.gob.ar o de manera presencial.Grooming Argentina: desde la ONG crearon una aplicación mediante la cual se puede denunciar casos de grooming con solo apretar un botón. De esa forma, se remite a una línea de Whatsapp que es atendida las 24 horas, activándose un protocolo de actuación, acompañamiento legal y psicológico. Entre sus programas de prevención, ofrecen capacitaciones gratuitas sobre el uso seguro de Internet en escuelas y otras instituciones, tanto para docentes como para estudiantes. Se puede consultar escribiendo a contacto@groomingarg.orgRed por la Infancia: trabaja en la promoción y protección de los derechos de las niñas, niños, adolescentes y mujeres contra las violencias. En su web se pueden encontrar guías y recursos para víctimas. Consultas: info@redporlainfancia.orgHablemos de abuso sexual: en esta guía de Fundación La Nación podés encontrár más información sobre dónde pedir ayuda y señales de alerta.

Fuente: https://www.lanacion.com.ar/comunidad/es-una-peligroso-cambio-de-tendencia-las-redes-de-pedofilia-locales-ya-usan-inteligencia-artificial-nid26092023/

Comentarios
Volver arriba