Internacional
La amenaza de la proliferación de los drones (2)
La aplicación de la IA a las armas autónomas está propiciando el nacimiento de máquinas que ‘autoaprenden’. Su proliferación plantea muchas dudas sobre su seguridad y su efecto para desencadenar una escalada bélica.
Este reportaje (el segundo de una serie de tres) forma parte parte del dossier ‘Robots asesinos’ de la revista #LaMarea99. Puedes conseguirla aquí y seguir apoyando el periodismo independiente.
El uso de las armas autónomas letales se ha disparado en los últimos años gracias a los dos grandes laboratorios en los que se están probando: la guerra de Ucrania y la Franja de Gaza. Pero el epicentro sigue siendo Estados Unidos, cuya subsecretaria de Defensa, Kathleen Hicks, anunció en agosto de 2023 que el objetivo del gobierno de Joe Biden es «poner en funcionamiento miles de sistemas autónomos, en múltiples dominios, en los próximos 18 a 24 meses» para hacer frente al expansionismo chino. Una semana después, aclaró que estaba pensando en buques de guerra autónomos, aviones sin tripulación y «grupos» de unidades móviles de propósito general desplegadas en tierra, mar, aire y espacio.
La sección de la Marina de Estados Unidos dedicada al desarrollo de aplicaciones militares con inteligencia artificial (IA) ya tiene una flota autónoma de drones dedicados a la alerta temprana en el estrecho de Ormuz, vital para el tráfico mundial de energía. El pasado 23 de octubre, después de que un soldado le diese la orden desde tierra, pero ninguna información táctica, un barco no tripulado de la Armada atacó con misiles a un falso enemigo.
El 15 de enero de este año se produjo otro hito en la carrera armamentística sin apenas eco: ese día, la empresa más importante del mundo en IA, OpenAI, anunció que eliminaba la prohibición de usar su programa ChatGPT y el resto de sus herramientas en el ámbito militar. Realizó el anuncio justo después de comenzar a trabajar con el Departamento de Defensa de Estados Unidos. En el Foro Económico Mundial, su portavoz, Anna Makanju, justificó la decisión aduciendo «razones de seguridad nacional» y subrayó que han autorizado el uso militar, no así la producción de armas.
Según información de acceso público, el Pentágono cuenta con más de 800 proyectos de IA militar. Todo ello, después de que en enero de 2023 actualizase su política sobre las armas autónomas letales y de que el presidente de China, Xi Jinping, y el de Estados Unidos, Joe Biden, acordasen mantener conversaciones bilaterales sobre los riesgos que estos sistemas plantean y de que reactivasen las líneas directas de emergencia.
Una vía de comunicación importante porque, como responde por correo electrónico Mary Wareham, investigadora de Human Rights Watch y cofundadora de la coalición Stop Killer Robots, las armas autónomas tienen «la capacidad de tomar decisiones complejas en entornos menos estructurados». La velocidad a la que son capaces de actuar también puede provocar «que los conflictos armados se descontrolen rápidamente y desencadenar una serie de consecuencias imprevistas, muchas de las cuales podrían alterar de manera crucial las relaciones entre Estados o la naturaleza de los conflictos en curso», añade.
El filósofo Peter Asaro recuerda que, en 1962, la crisis de los misiles en Cuba se resolvió gracias a las conversaciones privadas entre Nikita Jrushchov y John F. Kennedy. En la actualidad, algunos países han confirmado que van a seguir desarrollando armas autónomas letales. India alega que lo hace para defenderse de China, una potencia en este sector y con la que comparte más de 3.300 kilómetros de frontera.
El riesgo de la rápida escalada y los fallos de ciberseguridad no son los únicos peligros que conlleva el uso de la inteligencia artificial en la industria militar. Otro igual de importante es la imprevisibilidad: su respuesta se basa en complejos cómputos basados en algoritmos que autoaprenden. Esto, que los fabricantes presentan como una ventaja frente al enemigo, es un riesgo de consecuencias imprevisibles en opinión de las fuentes expertas consultadas para este reportaje.
La rápida proliferación de estas armas también supone una amenaza. Una vez que bajan sus costes de producción, no solo se crea un mercado en el que pueden adquirirlas actores al margen de la ley –lobos solitarios, grupos terroristas o bandas de narcotraficantes, como los que llevan años usando drones en México para combatir atacar a bandas rivales–, sino que, antes o después, terminan aplicándose en el ámbito civil de la seguridad, de la vigilancia y del control social.
Ataques selectivos
Combatir la opacidad de la industria armamentística y las políticas de defensa es otro de los grandes desafíos que plantean. Una investigación de una década realizada por The Bureau of Investigative Journalism reveló cómo los asesinatos realizados mediante drones por Estados Unidos, entre 2004 y 2018, acabaron con la vida de entre 10.888 y 20.823 personas en Pakistán, Afganistán, Yemen y Somalia. De estos, entre el 7% y el 15% eran claramente civiles: entre 910 y 2.200 personas. De ellas, entre 283 y 454 eran niños y niñas.
La Casa Blanca y el Pentágono siempre han sostenido que su programa de ataques selectivos con drones, como los denominan, reduce las víctimas de civiles en los conflictos gracias a su precisión. Un extremo que quedó también desmentido tras la investigación The Drone Papers, de la revista digital The Intercept, que accedió a documentos clasificados en los que se describen acciones del Ejército estadounidense a lo largo de cinco meses en el marco de la operación llevada a cabo en Afganistán entre enero de 2012 y febrero de 2013.
En estos papeles puede leerse que 200 personas fueron asesinadas mediante drones, de las cuales solo 35 eran objetivos militares. Es decir, el 82,5% fueron víctimas no buscadas, aunque a todos los fallecidos en estos ataques Estados Unidos los contabiliza como «enemigos muertos en combate».
Presupuesto militar desbocado
Desde la invasión rusa de Ucrania, asistimos a un rearme generalizado. En términos globales, el mundo gastó en 2023 un 9% más en defensa que el año anterior, según el Instituto Internacional de Estudios Estratégicos, con sede en Inglaterra. El objetivo marcado por el secretario general de la OTAN, Jens Stoltenberg, especialmente ante la posible reelección de Donald Trump en Estados Unidos, es que los Estados miembros inviertan un 2% de su PIB en la coalición militar. Un dinero que tendrá que salir de otras partidas presupuestarias y que, a menudo, termina engrasando un triunvirato opaco: el compuesto por los ministerios de Defensa, las universidades y las empresas privadas.
«Hay una desproporción entre los presupuestos que proveen a la investigación militar y la civil. Y muchas veces vemos que cuando la de la empresa privada militar necesita apoyo, se invierte en departamentos de universidades para que hagan desarrollo tecnológico en su provecho», explica en su oficina de Barcelona Caramés Boada, director de la ONG FundiPau.
«A lo largo de la historia, las tecnologías que se desarrollan en la guerra, terminan incorporándose al poder policial, a la seguridad fronteriza… Y la gente empieza a darse cuenta de que el software de reconocimiento facial que se usa en las cámaras de vigilancia de las tiendas, de la policía o en tu teléfono, es el mismo que se usará en los sistemas de las armas autónomas», explica a La Marea, poco después de su intervención en Naciones Unidas, la doctora en Derecho Internacional y Estudios de Seguridad Catherine Connolly, responsable de Investigación de Decisiones Automatizadas de Stop Killer Robots.
Y añade: «Hemos visto cómo en las grandes protestas en Estados Unidos, las fuerzas policiales usan drones para observar a los participantes, como antes hicieron en Afganistán, Irak y Pakistán. ¿Quién puede decir que no los armarán en algún momento?». Pocos días antes, estas periodistas habían sido testigos en Nueva York de cómo varios drones policiales grababan dos concentraciones, una a favor de Palestina y otra de Israel, que tenían lugar a pocos metros de distancia en Times Square.