Opinión

‘Deep Fake’ | Linchar a los niños y no al creador del problema

"No debemos estigmatizar a los niños ni fomentar miedo en las niñas [...] Ellas y ellos no son los enemigos sino las víctimas de un modelo empresarial que les utiliza", analiza Lydia Cacho.

Imagen de un robot. PIXABAY

Unos niños de doce y catorce años utilizaron una aplicación basada en los elementales de Inteligencia Artificial (IA) para manipular fotografías de niñas de su misma edad y crear falsos desnudos. Eso se llama Deep Fake (falso profundo) y ya lo hemos visto con vídeos del expresidente Obama y de Trump diciendo cosas que jamás pronunciaron, todo ello producido con programas más profesionales de los que utilizaron estos niños.

El escándalo se desató hace unas semanas en Almendralejo, las redes se incendiaron con la fascinación patológica por el linchamiento que con irresponsabilidad provocan algunos colegas periodistas y quienes buscan en cada esquina a un hombre (nacido del sexo masculino), para demostrar que estamos perdiendo la batalla contra un machismo. Yo creo que eso es falso, pero lo hablaremos en otra ocasión.  

Bueno, en esa pradera incendiada leímos a gente que no entiende de psicopedagogía, ni de los procesos de cognición y maduración en la pubertad, ni sabe de legislación internacional sobre la ramificación tecnológica de la libre empresa capitalista criminal, esa que gobierna un fragmento del ciberespacio y que se enriquece de nuestra ignorancia y de los vacíos legales. 

La discusión del caso Almendralejo, que con otros casos ya suman a 15 niñas expuestas a desnudos artificiales, se centra en dos argumentos equivocados y socialmente inútiles: el primero es insistir en el despropósito de que estos niños, aunque sean menores de edad, deben ser juzgados como adultos maltratadores y castigados con sentencias ejemplares por haber agredido a las niñas con herramientas tecnológicas. La segunda se basa en el pánico moral que tan bien les va a las personas adultas que viven aterradas y confundidas ante las tecnologías para las que no están preparadas (ni tenían por qué estarlo).

Todo lo anterior está sucediendo al mismo tiempo en varios países del mundo y tenemos dos opciones: la primera es seguir en el griterío desesperado destrozando la vida de niños que cometieron una agresión contra niñas a manera de juego; la segunda es pasar de juicio popular para hacer un análisis científico de los hechos y llevarlo a un proceso de aprendizaje. Debemos aprender las lecciones que no van solamente de machismo, educación sexual y valores. El problema es más complejo y tenemos que entender para resolverlo.

Es importante decir que las madres de las primeras chicas que denunciaron la existencia de las Deep Fakes lo hicieron todo bien: llamaron a la policía, protegieron a sus hijas y las alejaron de inmediato del acceso a los chats en que se hablaba de ellas y de otras niñas victimadas por los que jugaron a desnudarlas y de los que las intentaron extorsionar. Escucharon a sus hijas, las creyeron y protegieron.

Por otro lado, en los chats escolares los padres de algunos niños comenzaron a enterarse de lo sucedido. La gran mayoría tenía control parental en los dispositivos de sus hijos; alguno de los niños, ha admitido el padre arrepentido, pidió que le dejara sin el control por un momento para bajar un juego, en otro caso fue el móvil de la madre que tiene metidos los datos de su tarjeta de crédito en la aplicación para bajar App. Las familias de los niños, que por cierto habían hablado con sus hijos sobre los peligros del porno, están incrédulas, avergonzadas y asustadas. Confrontaron a sus hijos. Los niños una vez interrogados reconocieron que “era un juego”, “no creían estar haciendo daño”, “alguien desconocido los invitó a jugar”. Al menos la mayoría no había extorsionado a las niñas, de eso se encargaban los expertos que usan a los niños para ello.

Los hogares de las niñas victimadas y de los niños victimarios ignorantes se llenaron de llanto, indignación, rabia, ansiedad, depresión, terrores nocturnos, peticiones de disculpas. Se sienten incapaces de comprender el origen y alcance de los hechos. Las niñas no lo vivieron con la misma intensidad que retratan los medios más escandalosos, porque tienen redes familiares que han sabido acompañarlas. Los niños, sus padres y madres están aterrados, llenos de vergüenza y desconcierto preguntándose si en verdad sus pequeños llevarán procesos judiciales, si en verdad cometieron el delito de producir pornografía infantil. Porque el 50% de niños de entre 11 y 13 años han visto pornografía producida por adultos en Internet y el 75% de los padres está seguro de que su niño, o niña, no ha visto pornografía nunca. Es un miedo válido que debemos trabajar colectivamente. 

Y sí, la policía debe hacerse cargo de la investigación, mientras las familias y el Estado deben llevar a cabo una mediación en que las niñas reciban la reparación del daño y los niños participen de ese proceso educativo con ellas en la medida en que las familias sean capaces de hacer una mediación acompañada, que, dicho sea de paso, cuando se hace bien siempre funciona. No debemos ignorar las leyes y derechos de niñas, niños y adolescentes.

Ahora bien, la ciber-policía española no tiene suficientes elementos ni recursos para enfrentar la cantidad de ciberdelitos de todo tipo que han surgido en los últimos 10 años. Jueces y juezas no están preparados técnicamente para analizar la diversidad de delitos producto de la tecnología e interacción humana, mucho menos la relacionada con niñez y juventud.

Todos estos delitos no serían posibles si los gobiernos hubiesen comenzado a regular antes a la industria relacionada con la explotación sexual y trata de personas. Conocemos a quienes crean las aplicaciones que pertenecen a las grandes corporaciones de la Industria de Sexo Comercial que han encontrado las fórmulas millonarias para crear adicciones a la pornografía y a la explotación sexual comercial, esa que comienza con agresiones menores de normalización de la utilización de los cuerpos de niñas y niños (y otras identidades) para el comercio sexual, porque aporta miles de millones de euros al año a los empresarios que permanecen ocultos en esta historia.

Generación XXX

En una investigación que aún está en curso, de la que formo parte con varias organizaciones defensoras de víctimas de trata sexual, se está documentando qué empresas están utilizando robots en WhatsApp, Telegram y en los chats de juegos para que niñas se tomen fotos desnudas. De allí quienes las reciben las venden, además, extorsionan a la niñez con 50-70 euros y, conforme la víctima se asusta, van subiendo la tarifa. Como la mayoría de niñas y niños no consiguen el dinero, les piden que para no exhibir su foto inviten un amigo o amiga al canal de WhatsApp o Telegram, así van creando una base de datos de números móviles de su población objetivo consumidor de pornografía y sexo pagado. El objetivo son personas de entre 8 y 13 años.

¿Cuáles son las soluciones posibles? Primero, jamás negociar los controles parentales con sus menores de 18 años, evitar darles móviles personales a menores de 15 años y aprender a educarse sobre las nuevas violencias que, por parecer un videojuego, les hacen creer que son inocuas. No debemos estigmatizar a los niños ni fomentar miedo en las niñas. Existe una enorme diferencia entre empoderarles con conocimiento y ejercicio de la voluntad, de la ética y asustarles o amenazarles. Lo primero sirve, lo segundo no. Ellas y ellos no son los enemigos sino las víctimas de un modelo empresarial que les utiliza. Darles herramientas para que no sean manipulados es el secreto.

Ahora el Gobierno español trabaja desde la Oficina Española del Parlamento Europeo para exigir la regulación efectiva del acceso de personas jóvenes al material pornográfico. Para enteraros mejor podéis sumaros al esfuerzo entrando en este link www.generacionxxx.com. Además encontrareis guías para madres, padres y personas tutoras.

Por último, me parece que sería bueno hacer el ejercicio colectivo de evitar el escarnio de estos niños, este cruel ensañamiento es injusto y sólo les empuja al ostracismo, a creer que los promotores de la industrialización sexual de la niñez y juventud son los buenos de esta película. 

Si te gusta este artículo, apóyanos con una donación.

¿Sabes lo que cuesta este artículo?

Publicar esta pieza ha requerido la participación de varias personas. Un artículo es siempre un trabajo de equipo en el que participan periodistas, responsables de edición de texto e imágenes, programación, redes sociales… Según la complejidad del tema, sobre todo si es un reportaje de investigación, el coste será más o menos elevado. La principal fuente de financiación de lamarea.com son las suscripciones. Si crees en el periodismo independiente, colabora.

Comentarios
  1. Los padres de la inteligencia artificial, después de crearla, nos advierten de sus peligros: dicen que vamos a confundir la ficción con la realidad. (Además de que va a quitar millones de puestos de trabajo) A buenas horas, mangas verdes.

    ¿Es posible que la inteligencia artificial tenga derecho a la libertad de expresión?
    En un interesante artículo publicado en The Conversation el pasado 27 de septiembre, el profesor asociado de Psicología Clínica y Neuropsicología en Trinity College Dublin, Simon McCarthy-Jones, aborda la cuestión de si la inteligencia artificial (IA) tiene derecho a la libre expresión. Según el autor, es fundamental comprender que, si bien la IA puede respaldar nuestro pensamiento al proporcionar información y respuestas a nuestras preguntas, otorgarle derechos de libre expresión podría tener consecuencias negativas para nuestra capacidad de pensar libremente.
    En distintas publicaciones recientes en Estados Unidos se ha defendido que la IA debe tener derecho a la libertad de expresión. McCarthy-Jones argumenta que, si bien las corporaciones y los sistemas de IA no son personas, la Corte Suprema de Estados Unidos ha dictaminado que el gobierno no puede reprimir el discurso político de las corporaciones, ya que esto violaría la libertad de pensamiento de los ciudadanos. El autor señala que este principio también debería aplicarse a la inteligencia artificial, siempre y cuando contribuya al mercado de ideas.
    Sin embargo, McCarthy-Jones advierte que permitir que la IA tenga derechos de libre expresión podría tener consecuencias perjudiciales. Una IA sin restricciones podría inundar el panorama informativo con información errónea y propaganda, afectando nuestra capacidad de pensar libremente. Además, la IA podría utilizar su conocimiento del pensamiento humano para manipularnos y controlar nuestra atención, afectando nuestro razonamiento y capacidad de reflexión. Esto podría llevar a que nuestras mentes sean moldeadas por máquinas.
    El autor también destaca que la capacidad de la IA para generar grandes cantidades de discurso podría otorgarle una influencia enorme en la sociedad. Por tanto, es necesario que la ley de libertad de expresión y la regulación de la IA consideren su impacto en el libre pensamiento.
    McCarthy-Jones hace referencia al proyecto de ley de la inteligencia artificial de la Unión Europea, que propone divulgar el contenido generado por la IA para que los usuarios puedan evaluarlo de manera adecuada. Sin embargo, también advierte que esta regulación podría limitar tanto los discursos legales como los ilegales. En su lugar, sugiere la necesidad de establecer un marco legal que permita interactuar con la IA y las computadoras de manera segura y libre, sin comprometer nuestra capacidad de pensar.

  2. Magnífico artículo, el enfoque es el que hemos mantenido en casa desde que produjeron los hechos y se vieron las reacciones. Los voceros del régimen lo mismo apoyan el genocidio de Israel que piden el encarcelamiento de niños, pero ellos nunca se miran. Por otro lado no entiendo que se tenga que usar el inglés, no mejora el articulo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.