Política

AlgoRace, una herramienta contra el uso racista de la Inteligencia Artificial

La iniciativa busca "concienciar sobre las consecuencias del uso racista de la IA” por parte de las administraciones públicas.

“Las políticas de la UE y Estados miembro en materia de sistemas de decisión automática e IA [Inteligencia Artificial] afianzan la desigualdad racial, la discriminación y la intolerancia”. Esta es la denuncia de diferentes organizaciones como Amnistía Internacional, que en abril del pasado año avisaba de que la legislación propuesta por la Comisión Europea para prohibir ciertos usos de estas herramientas de control era “demasiado débil para protegernos de peligrosos sistemas de inteligencia artificial”.

Contra estos instrumentos que “amplifican el racismo estructural”, nace AlgoRace, una iniciativa presentada este martes y cuyo objetivo será llevar a cabo propuestas “para que la administración pública y actores privados no refuercen el racismo y las lógicas coloniales existentes mediante la aplicación de la IA en todos los ámbitos de nuestra vidas”.

AlgoRace también pretende aportar herramientas para generar “un debate amplio sobre el impacto que tiene el uso de la Inteligencia Artificial (IA) en las poblaciones racializadas”. El equipo lo componen, entre otros, el periodista Youssef M. Ouled, divulgador sobre islamofobia y perfilación racial; Paula Guerra Cáceres, expresidenta de SOS Racismo Madrid; Javier Sánchez, investigador ‘Beatriz Galindo’ en Inteligencia Artificial en la Universidad de Córdoba; y Ana Valdivia, investigadora postdoctoral en Estudios Críticos de la Inteligencia Artificial en King’s College London, entre otros.

A través del diálogo con población racializada “para concienciar sobre las consecuencias del uso racista de la IA”, AlgoRace pondrá en marcha campañas destinadas a sensibilizar y concienciar sobre cómo la Inteligencia Artificial, los algoritmos y los grandes conjuntos de datos “fomentan la discriminación de personas racializadas, (re)produciendo opresión racial”. El objetivo final es trasladar recomendaciones a las instituciones para combatir el sesgo racial de las nuevas tecnologías.

Si te gusta este artículo, apóyanos con una donación.

¿Sabes lo que cuesta este artículo?

Publicar esta pieza ha requerido la participación de varias personas. Un artículo es siempre un trabajo de equipo en el que participan periodistas, responsables de edición de texto e imágenes, programación, redes sociales… Según la complejidad del tema, sobre todo si es un reportaje de investigación, el coste será más o menos elevado. La principal fuente de financiación de lamarea.com son las suscripciones. Si crees en el periodismo independiente, colabora.

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.