Internacional
La batalla contra los robots asesinos (1)
La ONU está dedicando muchos esfuerzos a la regulación de las armas autónomas letales. Los fabricantes intentan, sin demasiado éxito, trasladar un mensaje de tranquilidad. Estados Unidos, China y Rusia son reacias a su limitación.
Este reportaje (el primero de una serie de tres) forma parte parte del dossier ‘Robots asesinos’ de la revista #LaMarea99. Puedes conseguirla aquí y seguir apoyando el periodismo independiente.
Lo que nos impulsó no fue la carrera frenética contra los nazis (y luego contra los rusos, y luego contra los chinos, y así, sucesivamente, hasta el fin del mundo); fue la euforia de pensar lo impensable y de conquistar lo imposible, superando todos los límites humanos al quemar el regalo de Prometeo hasta su máxima incandescencia.
Benjamín Labatut, ‘Maniac‘
Los calcetines estampados con dibujos de robots pasarían inadvertidos en otro momento y en otro lugar, pero quedan a la vista de algunas de las personas que se han sentado en la moqueta para escuchar y tomar apuntes porque no hay sillas libres. Unos cuarenta asistentes se concentran en una sala de poco más de 40 metros cuadrados, ocupada casi totalmente por varias mesas unidas en círculo para favorecer la conversación. Bajo ellas, se acumulan mochilas para portátiles de las que tanto abundan en la sede de Naciones Unidas, en Nueva York.
Hay entusiasmo. Es 17 de octubre de 2023, faltan dos meses para aprobar la primera resolución a favor de regular las armas autónomas letales durante la 78ª Asamblea General de la ONU. Los tres ponentes del evento organizado por la delegación de Austria, Peter Asaro, Brady Mabe y Catherine Connelly, trabajan con organizaciones integradas en la coalición Stop Killer Robots, que lleva más de una década investigando sobre estos sistemas.
Finalmente, se abre el turno de preguntas. Cuando el hombre de los calcetines de robots se identifica, se escapan algunos gestos de sorpresa. Es Brendan Schulman, vicepresidente de Políticas y Relaciones Gubernamentales de Boston Dynamics, la empresa líder en robótica fundada en 1992 por el ingeniero Marc Raibert, exprofesor del Instituto de Tecnología de Massachusetts (MIT, por sus siglas en inglés), conocida por su capacidad para innovar con productos como BigDog, el perro-robot que diseñó para el Ejército estadounidense hace casi 20 años.
Schulman asegura haber aprendido mucho escuchando las intervenciones anteriores y aprovecha la ocasión para recalcar que, un año antes, su compañía firmó una carta junto a otros cinco fabricantes de robots en la que se declararon en contra de quienes adquieren sus productos para armarlos. La iniciativa fue impulsada tras la alarma social que causaron en el verano de 2022 algunos vídeos virales, cuya veracidad nunca fue confirmada, sobre perros-robot armados. Uno de ellos se paseaba por los pasillos de una feria de defensa en Moscú (Rusia) con un lanzacohetes sobre su lomo.
La falta de transparencia del sector, que se escuda en las cláusulas de confidencialidad para no aclarar hasta qué punto sus productos pueden tomar decisiones de manera autónoma, es decir, sin supervisión humana, qué prestaciones y modificaciones se les pueden incorporar una vez comprados y qué clientes los están adquiriendo, agrava el temor a que los robots decidan por sí mismos matar a personas.
«Falta educación sobre tecnología, la gente ha visto muchas películas y programas de ciencia ficción que les hacen tener una imagen de los robots que no es realista», asegura Schulman en la entrevista que concede a La Marea al terminar la mesa redonda. Su argumento es uno de los más repetidos por los que se dedican a este negocio, pero también por quienes alertan sobre sus peligros y recuerdan que los robots asesinos no tienen en la actualidad forma humanoide, sino que la mayoría son armas convencionales que, gracias a la inteligencia artificial, alcanzan sus propias conclusiones y actúan en consecuencia.
Con los algoritmos de los datos recogidos a través de sensores y de los incorporados por sus productores a través del software, desarrollan sus propias respuestas en una caja negra de autoaprendizaje indescifrable y atacan, si lo encuentran oportuno, a sus objetivos sin necesidad de la confirmación de una persona. Ya se han desarrollado y, en algunos casos, empleado armas que actúan de manera autónoma o semiautónoma: aviones no tripulados, buques, enjambres de drones, submarinos, armas láser…
Schulman no solo luce robots en los pies. En la solapa de la chaqueta lleva un pin de Spot, el perro-robot más famoso del mundo, diseñado por Boston Dynamics. «¿Por qué dices que es un perro?», pregunta. «¿Quizá porque recuerda a un perro y lo hemos llamado Spot?», se autocontesta con tono resignado. El sector prefiere denominar a este tipo de robots vehículos o plataformas cuadrúpedas.
Patrullas de vigilancia
Los perros-robot llevan años integrándose en ejércitos, agencias espaciales, cuerpos de policía y de bomberos. El Gobierno estadounidense anunció en febrero de 2022 que reforzaría las patrullas de vigilancia en la frontera con México mediante unidades del Vision 60, el perro-robot de Ghost Robotics, una start-up que promociona abiertamente el uso militar de sus productos. Uno de sus modelos, los cuadrúpedos Q-UGV, fueron probados por la Brigada Almogávares VI de Paracaidistas del Ejército de Tierra español en 2022.
Cada vez más sofisticados, ligeros y silenciosos, las cuatro patas de los perros-robot se adaptan mejor que las ruedas a terrenos de difícil acceso o escaleras. Los últimos modelos, como el Go2 de la empresa china Unitree, asombran por la gracilidad de sus movimientos, pero sobre todo por su capacidad para saltar, correr y salvar obstáculos. Esta compañía es una de las seis que en 2022 firmó la carta rechazando que sus productos pudieran ser armados.
Pero ¿cómo pueden asegurarse los fabricantes de que sus clientes no harán un mal uso de esas máquinas? Schulman muestra cierto fastidio al oír la pregunta: «Sabemos quiénes son. Por tanto, no hemos tenido que enfrentarnos a ninguna situación de ese tipo. Pero si tuviéramos que hacerlo, dispondríamos de dos mecanismos. El primero es legal, podríamos alegar incumplimiento de contrato si un cliente violara nuestros términos y condiciones éticas. El segundo es la licencia de software de los robots, que caduca tras un periodo de tiempo. Si descubriéramos que se ha hecho un uso indebido, no la actualizaríamos; podríamos desactivarla y el robot dejaría de funcionar».
¿Y si sufre un hackeo? «Tenemos mecanismos de seguridad robustos. Y estoy seguro de que funcionarían», asegura categórico Schulman. Sin embargo, la ciberseguridad es uno de los principales peligros de las armas que incorporan inteligencia artificial. Así lo destacaba Iona Puscas, investigadora de UNIDIR (Instituto de las Naciones Unidas para la Investigación del Desarme), durante la presentación, en otra sala, de un informe.
«La clave de lo que estamos exigiendo es que haya un control humano significativo en los sistemas de armas», argumenta en un descanso de la mesa redonda Pía Devoto, fundadora de la la Red Argentina para el Desarme (RAD), responsable de Políticas Públicas de la Asociación Seguridad Humana en Latinoamérica y El Caribe y miembro de la campaña Stop Killer Robots. «Los países que ponen mayores resistencias son los que han invertido mucho en desarrollar estos sistemas porque ven la ventaja de tener armas completamente autónomas. Los llaman el soldado que no duerme, que no tiene hambre, que puede aguantar la radiación, las temperaturas extremas…», explica.
Durante la última década, las grandes potencias productoras han bloqueado los intentos de alcanzar un acuerdo de prohibición en la Convención sobre Ciertas Armas Convencionales, con sede en Ginebra, que se rige por un sistema de unanimidad. Estados Unidos, Israel, China y Reino Unido han sido especialmente reacias, mientras Rusia siempre ha manifestado su oposición a cualquier tipo de regulación.
El país gobernado por Vladímir Putin mantiene su rechazo y, junto a India, Bielorrusia y Mali, votó en contra de la resolución 78/241, aprobada el 22 de diciembre de 2023 por 152 países durante la 78ª Asamblea General de las Naciones Unidas. Se abstuvieron 11 Estados: Israel, China, Corea del Sur, Irán, Turquía, Siria, Arabia Saudí, Sudán del Sur, Emiratos Árabes Unidos, Madagascar y Níger.
El mandato que ha recibido el secretario general de la ONU, António Guterres, es recabar las opiniones de los países y otras partes interesadas sobre la manera de abordar los retos y las preocupaciones «desde las perspectivas humanitaria, jurídica, de seguridad, tecnológica y ética», y recogerlas en un informe que debe presentarse ante la Asamblea General en el segundo semestre de este año. Guterres espera haber aprobado un tratado que las regule antes de 2026.
Los verdaderos y malignos » robots asesinos», son los investigadores y profesores de las principales universidades norteamericanas que inventan y desarrollan, no solo robots asesinos, sino tambien armas quimicas y biologicas para el complejo militar- industrial- academico anglo- sionista- norteamericano. El caracter de robots asesinos de esos tipos se debe a su condicion de psicopatas, carentes de moralidad, solidaridad, compasion y todo rastro de caracter humano. Ahora, vemos algo mas grotesco aun, observamos asqueados como la dirigencia politica europea se solaza enviando armas y pasta a Netanyahu y a su banda de sionistas. Para que siguiendo las ordenes del Moloch sinoista, Jahve, estos genocidas puedan continuar con su genocidio de niños y bebes palestinos, con esto, ya no queda duda de que la psicopatia y la maldad que caracterizan a los robots yanquis es una enferemedad transmisible e incurable