Política
AlgoRace, una herramienta contra el uso racista de la Inteligencia Artificial
La iniciativa busca "concienciar sobre las consecuencias del uso racista de la IA” por parte de las administraciones públicas.
“Las políticas de la UE y Estados miembro en materia de sistemas de decisión automática e IA [Inteligencia Artificial] afianzan la desigualdad racial, la discriminación y la intolerancia”. Esta es la denuncia de diferentes organizaciones como Amnistía Internacional, que en abril del pasado año avisaba de que la legislación propuesta por la Comisión Europea para prohibir ciertos usos de estas herramientas de control era “demasiado débil para protegernos de peligrosos sistemas de inteligencia artificial”.
Contra estos instrumentos que “amplifican el racismo estructural”, nace AlgoRace, una iniciativa presentada este martes y cuyo objetivo será llevar a cabo propuestas “para que la administración pública y actores privados no refuercen el racismo y las lógicas coloniales existentes mediante la aplicación de la IA en todos los ámbitos de nuestra vidas”.
AlgoRace también pretende aportar herramientas para generar “un debate amplio sobre el impacto que tiene el uso de la Inteligencia Artificial (IA) en las poblaciones racializadas”. El equipo lo componen, entre otros, el periodista Youssef M. Ouled, divulgador sobre islamofobia y perfilación racial; Paula Guerra Cáceres, expresidenta de SOS Racismo Madrid; Javier Sánchez, investigador ‘Beatriz Galindo’ en Inteligencia Artificial en la Universidad de Córdoba; y Ana Valdivia, investigadora postdoctoral en Estudios Críticos de la Inteligencia Artificial en King’s College London, entre otros.
A través del diálogo con población racializada “para concienciar sobre las consecuencias del uso racista de la IA”, AlgoRace pondrá en marcha campañas destinadas a sensibilizar y concienciar sobre cómo la Inteligencia Artificial, los algoritmos y los grandes conjuntos de datos “fomentan la discriminación de personas racializadas, (re)produciendo opresión racial”. El objetivo final es trasladar recomendaciones a las instituciones para combatir el sesgo racial de las nuevas tecnologías.