Sionismo, boicot, frontera… Los riesgos del protocolo del Gobierno para combatir los discursos de odio

El entrenamiento de la inteligencia artificial destinada a frenar el odio en Internet podría tener sesgos ideológicos. Ejemplo: el apoyo a la causa palestina podría considerarse antisemitismo y, así, desaparecer de la Red.

Eliminar discursos de odio mediante la inteligencia artificial plantea ciertos debates. JON TYSON/UNSPLASH

Mantero, moro o sudaca son algunos de los términos que podrían conllevar la eliminación o bloqueo de contenidos en Internet de ser considerados ilícitos, según el Protocolo para combatir el discurso de odio Ilegal en línea, publicado el pasado 18 de marzo por la Secretaría de Estado de Migraciones del Ministerio de Inclusión, Seguridad Social y Migraciones. Pero no son los únicos. Diversos especialistas observan con preocupación cómo en el elenco de palabras clave, que han servido para entrenar a un algoritmo rastreador de los discursos de odio, se han introducido conceptos como frontera, boicot o sionismo. Un ejemplo a modo de resumen: ¿las críticas a las políticas del Estado de Israel podrían ser consideradas racistas y, por tanto, ser eliminadas de la Red?

El Observatorio Español de Racismo y la Xenofobia (OBERAXE), órgano dependiente de la Secretaría General de Inmigración y Emigración, coordina este protocolo, en el que han participado diversas organizaciones de la sociedad civil. El instrumento sobre delitos de odio se basa en el Código de Conducta de la Comisión Europea de 2016 con las empresas en Internet y en la Recomendación de 2018 sobre medidas para combatir eficazmente estos contenidos en línea.

La propia recomendación recuerda en su artículo 19 que, para evitar la retirada de contenidos lícitos, “deben existir salvaguardias eficaces y apropiadas” ya que, de lo contrario, supondría una colisión con la libertad de expresión, derivada de la “retirada o el bloqueo de los contenidos considerados ilícitos”.

Bajo sospecha inicial

Según la página web de la Secretaría de Estado, este protocolo nace con “la vocación de ser una guía para la cooperación y la colaboración entre los actores institucionales de la sociedad civil y las empresas de servicios de alojamiento de datos para prevenir, eliminar y combatir el discurso de odio ilegal en línea”.

Para ello, se plantea un proceso con tres fases: la recolección de contenidos con diferentes criterios por medio de un listado o banco de palabras; un algoritmo construido en el proyecto europeo ALRECO, al que se le va entrenando para que identifique contenidos susceptibles de ser considerados discursos de odio y, posteriormente, su revisión por “una persona para asegurar que el algoritmo lo ha hecho correctamente”, según explica Karoline Fernández de la Hoz, directora del OBERAXE.

Tras reconocer que “toda inteligencia artificial no es perfecta”, Lena de Botton, investigadora del proyecto ALRECO que ha dado lugar al protocolo y profesora de la Universitat de Barcelona, afirma que la finalidad de la investigación es el monitoreo y la evaluación del discurso del odio racista, xenófobo, islamófobo, antisemita y antigitano en la Red, para lo cual se han diseñado unos indicadores de alerta temprana que evalúan la intensidad, gravedad, distribución y potencial impacto de este contenido en línea.

“No hay claridad sobre cuáles son los criterios detrás de esas intensidades y si están relacionados con los propuestos por el Plan de Acción de Rabat para prohibir contenidos que inciten a la violencia y al odio”, señala Paulina Gutiérrez, de la organización internacional Artículo 19, consagrada a la libertad de expresión y al derecho a la información. Gutiérrez se refiere a los seis parámetros para evaluar un determinado discurso de odio, según la compilación que Naciones Unidas elaboró en Marruecos en 2012.

Intensidades

Como la abogada de la ONG, otros miembros de la sociedad civil y del ámbito académico muestran su preocupación frente a los riesgos del protocolo, cuya aplicación podría conllevar tanto al bloqueo y/o eliminación de mensajes en Internet, como el inicio de un procedimiento judicial contra las personas que emitiesen dichos contenidos supuestamente ilícitos.

Conceptos enredados

Entre los conceptos utilizados para la captura automática de mensajes se encuentran términos como machupichu o conguito. Pero, tal y como ha podido saber La Marea, en este banco de palabras también hay vocablos como frontera, boicot, expulsión, nazi o sionista.

Palabras para la captura de tuits (provisional)

El profesor de Derecho Constitucional de la Universidad de Sevilla Víctor Vázquez explica el riesgo que existe en la utilización de estos conceptos. “No se justifica en ningún caso la inclusión dentro del algoritmo de términos que permitan un sesgo ideológico, ya que el mismo puede condicionar el debate de interés público que se produce en redes sociales, que, recordemos, son empresas oligopólicas. Es un problema que podría generar censura y que atenta contra el pluralismo”, afirma.

Otra estrategia manejada para la creación del banco de palabras ha sido el análisis de 20 perfiles de usuarios de Twitter españoles (y escritos en castellano) que eran, “de manera obvia y ostentosa, racistas”, según el documento de presentación del protocolo y sistema de indicadores. De los 50 hashtags frecuentes examinados en el modelo piloto, la mitad se refirieron a contenido relacionado con los derechos humanos y a determinadas opiniones y actividades políticas, como las promovidas por el movimiento de Boicot, Desinversión y Sanciones (BDS) a Israel.

Hashtags frecuentes en los usuarios racistas

Según todos los especialistas consultados, esta elección de la muestra podría provocar un sesgo en la base de datos inicial difícil de corregir durante el proceso de entrenamiento y perfeccionamiento del algoritmo, ya que el proceso de análisis automático se cimienta en estas palabras.

Víctor Vázquez recalca la importancia de la elección de estos términos clave en el protocolo, al examinar los resultados de su fase piloto. “Podría suponer un problema de censura política que afectaría a la neutralidad de contenido en la web”, explica el profesor universitario, suponiendo una sospecha inicial de discurso del odio que puede enmascarar una estigmatización de determinadas opiniones políticas, como se observa en el caso del sionismo.

Sin embargo, para Lena de Botton, la incorporación de esta palabra en el banco de términos pretende “recoger un nuevo antisemitismo que se esconde en el antisionismo”. Esta “nueva judeofobia”, como la define la profesora, fue un acuerdo conjunto de todos los miembros del consorcio y se inspira en la definición de la Alianza Internacional para el Recuerdo del Holocausto (IHRA por sus siglas en inglés).

La ideología vinculada al apoyo y defensa del Estado de Israel posee críticas de distintas personas y colectivos, como los activistas del movimiento BDS. Alys Samson Estapé, de BDS Catalunya, lo tiene claro e incide en que el “BDS es antirracista”. Según la activista, “considerar el antisionismo como indicio de delito de odio es una medida para silenciar las voces palestinas que denuncian la vulneración de sus derechos humanos. Israel y sus aliados pretenden manipular la definición de antisemitismo para evitar incluir en él la crítica legítima al apartheid israelí”.

Hashtags frecuentes en los usuarios racistas

En este sentido, Laia Serra, abogada y autora de la investigación Discurso de incitación al odio: Análisis desde los derechos humanos y pautas interpretativas, opina que este tipo de herramientas poseen otro riesgo añadido: “Los colectivos que enfrentan los discursos de incitación al odio pueden estar legitimándolas, desconociendo que, en nombre de su protección, se puede instaurar una herramienta que restrinja la libertad de expresión colectiva y sus propias manifestaciones críticas”.

Discursos de odio: ¿son posibles los matices y la ironía?

El mecanismo propuesto por la Secretaría de Estado para las Migraciones utiliza la inteligencia artificial para identificar contenidos con discursos de odio en línea. Según explica la investigadora de la Universitat de Barcelona, el algoritmo rastreador se entrena en base al listado de palabras elegido previamente, por medio de personas que, durante meses, han etiquetado miles de tuits por intensidades y categorías. Una vez terminada esa fase, la propia inteligencia artificial analiza de forma automática el contenido en red, por un proceso denominado machine learning.

Diversas investigaciones han demostrado que existen dos situaciones potencialmente peligrosas relacionadas con el sistema de moderación de contenidos en línea que, eventualmente, pueden considerarse discursos de odio: “En primer lugar, las palabras clave que se usen para encontrar contenido serán necesariamente parciales e incompletas. Y después, si se confía solo en la inteligencia artificial para decirle al algoritmo qué contenido es un discurso de odio, se cometerán errores. Porque los modelos de inteligencia artificial para la detección del odio todavía tienen fallas”, explica Paul Rottger, investigador del Oxford Internet Institute.

Rottger es coautor del estudio HateCheck publicado el 27 de mayo. En él, diversos científicos analizan los cuatro sistemas de inteligencia artificial comerciales y académicos para detectar discursos de odio. “Todavía no existe inteligencia artificial capaz de comprender todos los matices del discurso de odio”, afirma el investigador.

Las herramientas automatizadas no son capaces de identificar el sarcasmo, la ironía o la reapropiación de ciertas palabras por parte de colectivos vulnerados. Por ejemplo, algunas personas del colectivo LGBTIQ+ utilizan palabras como bollera o maricona para nombrarse, articulando respuestas a los discursos ofensivos.

Ahondando en esta idea, la abogada Laia Serra concluye que “la máquina nunca puede reconocer las intenciones ni los contextos que hay detrás de esas palabras, que se usan para dañar, pero también para ejercer crítica legítima. Actualmente, ningún ajuste durante el proceso de entrenamiento del algoritmo puede asegurar la eliminación del sesgo inicial”.

La falta de transparencia es otro de los riesgos identificados por la penalista. “El autoaprendizaje genera el llamado fenómeno black box. Esto es, que ni los propios creadores del algoritmo de rastreo pueden explicar el mecanismo que le lleva a identificar un contenido como discurso de incitación al odio. Luego, ¿cómo podremos discutir el criterio y ante quién protestaremos por la censura algorítmica?”.

Si te gusta este artículo, apóyanos con una donación.

Sigue leyendo | ESPECIAL Algoritmo y (tus) datos

¿Sabes lo que cuesta este artículo?

Publicar esta pieza ha requerido la participación de varias personas. Un artículo es siempre un trabajo de equipo en el que participan periodistas, responsables de edición de texto e imágenes, programación, redes sociales… Según la complejidad del tema, sobre todo si es un reportaje de investigación, el coste será más o menos elevado. La principal fuente de financiación de lamarea.com son las suscripciones. Si crees en el periodismo independiente, colabora.

Comentarios
  1. A mi me choca mucho cuando se defiende palestina y se desconoce la realidad que viven ahi los homosexuales o al mismo che guevara y su homofovia. Ver a alguien que se define como homosexual o cualquier genero de los que son populares ultimamente vestido con una camiseta del che y un pañuelo palestino…no puedo evitar sonrojarme

  2. Así se construye patria, la patria caciquil, la que bosteza, la de aquellos que han de helarte el corazón.
    Se empieza por reducir el número de profesores.
    Les interesa que seamos incultos y brutos; mientras ellos llevan a sus hijos a elitistas colegios.
    Díaz-Ayuso prescinde de 5.000 profesores para el nuevo curso escolar en Madrid
    El nuevo curso escolar en Madrid comenzará con casi 5.000 docentes menos.
    Así lo ha denunciado CCOO de Madrid que advierte de la ‘trampa’ que esconde el anuncio de Isabel Díaz-Ayuso de ampliación de la plantilla.
    En su discurso de investidura, la presidenta madrileña, se comprometió a contratar a 3.000 nuevos docentes para el próximo curso, cuando en realidad se mantendrá solo a 3.000 de las casi 7.000 contrataciones del pasado año.
    “Lo que el Gobierno regional anuncia como contratación supone en realidad una reducción de la plantilla actual del profesorado en los centros públicos en 4.677 docentes y personal si se tiene en cuenta la eliminación el pasado diciembre de los 1.117 refuerzos Covid”, explica el sindicato.
    “El Gobierno de Díaz Ayuso está usando el número de contrataciones en bruto, sin compararlo con la plantilla del curso pasado, para vender estas contrataciones como una buena noticia. El Gobierno regional anuncia la suma sin hablar de la resta”, denuncia CCOO que exige que se mantengan todos los recursos extras habilitados por la pandemia y que incluso se incrementen.
    En un reciente informe, el sindicato planteó la necesidad de ampliar la plantilla de profesorado en 12.500 profesionales más.
    Según datos oficiales de la propia comunidad de Madrid, la plantilla docente prepandemia en centros públicos era de 46.796 efectivos. El curso 2020/21 se inició con un total de 53.594, al añadirse los 5.681 para desdobles de grupos y los 1.117 en concepto de refuerzos Covid, número que quedó reducido cuando en diciembre de 2020 se cesaron a estos refuerzos Covid, quedándose así el total en 52.477.
    Al retirarse todas las contrataciones añadidas este curso por la pandemia y sumando las 2.121 ahora anunciadas, el total de la plantilla docente de la pública (no universitaria) se situaría en 48.917 efectivos. Es decir, se empezaría el nuevo curso con casi 5.000 menos docentes de los que han estado presentes este curso.

    Esta «castiza» lagarta no tiene nada que envidia al desparpajo, astucia, osadía y perversidad de la condesa del Tamayazo.

  3. En este caso el algoritmo es lo de menos, la prueba es la propia existencia del algoritmo. Me explicaré.

    Si nos preocupara el odio, lo prohibiriamos. Sin embargo, el odio es perfectamente legal. Lo que se pretende ilegalizar es el odio de determinadas personas. Ahí es cuando todo se complica. El termino «maricón» es despectivo, de eso nos damos cuenta todos. El problema es cuando se considera que es lícito definir con ese término a un homosexual con distinta ideología.

    Como los fascistas eran malos y persiguieron a los judíos, obviamente hablar mal de los judíos te convierte en fascista. Hasta ahí, fácil. Pero claro, Israel es un aliado histórico de Estados Unidos. Para ir de rebelde, es imprescindible ir contra Estados Unidos y, en consecuencia, contra sus aliados. Así que tienes que apoyar a países que, como los fascistas, tienen ojeriza a los judíos. Si a esto le añadimos que Italia, el país que inventó el fascismo, era en aquella época menos antisemita que las principales potencias que se enfrentaron a la Alemania Nazi, (Estados Unidos, Inglaterra, Unión Soviética y Francia), nos encontramos con que, efectivamente, combatir al fascismo te convierte en fascista. Sobre todo ahora, que el fascismo lleva setenta y seis años desaparecido.

    Hasta que no admitamos que el racismo es más propio de países democráticos que de países fascistas, este problema seguirá existiendo.

    Estas incoherencias las encontramos por doquier. Gente que apoya el derecho a manifestarse y se queja de algunas manifestaciones. Gente que habla bien de la democracia y se queja de quien ha sido puesto en el poder por el voto popular. Gente que es incapaz de hablar de ecologismo sin contaminar a lo bestia. Gente que habla de libertad y que se preocupa de que insulten a políticos y violadores…

    El defecto/virtud del algoritmo es que no tiene conciencia. Por lo tanto, no se le puede enseñar a odiar. Por lo tanto a nadie le gusta.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.