Crónicas | Política

La necesidad de prohibir (o, al menos, regular) los robots asesinos

"La única posición digna en este asunto pasa por la prohibición de las LAWS, o al menos por su regulación estricta en el marco del Derecho Internacional Humanitario", escribe Fernando Flores Giménez, profesor de Derecho Constitucional y director del Institut de Drets Humans de la Universitat de València

Prototipo de sistema autónomo armado MUTT del Ejército estadounidense. Foto: Departamento de Defensa de EEUU

Hay máquinas que pueden decidir de forma autónoma actuar letalmente contra los seres humanos. Les llaman robots asesinos, aunque también se les conoce como LAWS: Lethal Autonomous Weapons System. Las minas antipersona eran —son— LAWS. Rudimentarias, anticuadas hoy (aunque no tan pasadas de moda), pero cumpliendo en su curriculum con las características básicas de lo que el ‘Grupo de Expertos Gubernamentales sobre las tecnologías emergentes en la esfera de los sistemas de armas autónomas letales’ considera necesario para reconocer su marca: letalidad (suficiente carga útil para matar), autonomía (no hay control humano en el proceso de ejecución de su tarea), imposibilidad de terminación (una vez las pones en marcha, no hay vuelta atrás, o el coste es altísimo), y efecto indiscriminado (independientemente de las condiciones, los escenarios y los objetivos).

Sin embargo, estas minas les falta un rasgo, la evolución, el cual indica que el dispositivo se adapta al contexto, aprende de forma autónoma y amplía sus capacidades más allá del control humano. Ellas no lo tienen, pero sí los robots asesinos desarrollados, cada vez más independientes.

Porque los LAWS han evolucionado, y mucho. Antes, la autonomía de la máquina se reducía a decidir si estallaba cuando un ser humano presionaba accidentalmente su espoleta. En cualquier sitio, a cualquier hora, quienquiera que fuera el desgraciado caminante: un soldado, una doctora, un escolar, una periodista, un empresario de la industria de armamento. Ahora, un enjambre de drones suicidas puede desplegarse por un área o incluso entrar en una casa, perseguir y empotrarse contra quien haga un movimiento o tenga la temperatura humana estándar. El uso de robots semiautónomos (paso previo al asesino) ya puede verse en los vídeos propagandísticos, pero reales, que circulan en redes sobre su uso en la guerra de Ucrania, o escucharse en las noticias que nos informan sobre cómo asesinan en Gaza a periodistas palestinos y sus familias. Por su parte, la ONU denunció en mayo de 2021 el uso de drones completamente autónomos para matar personas en Libia. Ya están aquí.

Las minas antipersonas se consideran no éticas, porque un robot asesino, por tosco que sea, no hace distinciones, no distingue lo legal de lo correcto. Se ha luchado mucho contra ellas por esa razón. No cumplen lo que llaman ética bélica, un oxímoron brutal pero razonable si no tienes nada mejor que llevarte a la negociación sobre cómo regular el uso de las armas. Aquella lucha terminó con la aprobación del Tratado de Ottawa, o Convención sobre la prohibición del empleo, almacenamiento, producción y transferencia de minas antipersonales y sobre su destrucción, que entró en vigor en 1999. 

EEUU, Rusia e Israel (entre otros) ya han dejado claro que se oponen a un tratado que prohíba las armas autónomas. Están en otra guerra, en la de la competición tecnológica, en la carrera —frenética y carísima— por la superioridad en la Inteligencia Artificial. Y así te lo explican: una cosa son las tecnologías emergentes como la digitalización, la inteligencia artificial y la autonomía de las máquinas, que pueden emplearse respetando plenamente el derecho internacional (por ejemplo, apagando grandes incendios), y otra son esas tecnologías como elementos integrales de los LAWS. 

Nadie duda de eso, pero es conocida la irresistible tendencia del poder a utilizar los desarrollos tecnológicos para aumentar las capacidades militares (el ejército siempre está detrás de las investigaciones más punteras), y pocos necesitan que les expliquen qué es un bien de doble uso, pues se plasmó por primera vez en el Código de Justiniano, allá por el siglo VI. 

En realidad, las justificaciones y los argumentos a favor del uso de LAWS ya se encuentran con facilidad en artículos y conferencias auspiciados por grandes sumas de dinero. Las LAWS impulsan el desarrollo tecnológico para «tomar las mejores decisiones», para «salvar las vidas de nuestros jóvenes» o para hacer la guerra «más precisa y más humana». Tal cual. 

Pero un robot no distingue lo legal de lo correcto, pues no entiende de conflictos morales, y si bien es cierto que muchas veces los humanos tampoco somos capaces de elegir lo justo frente a lo aparentemente legal y a la obediencia debida, llegado el caso, al menos sabremos de quién es la decisión homicida, de quién es la responsabilidad. Porque el arma autónoma letal ni compadece a la víctima ni asume responsabilidades.

Así las cosas, la única posición digna en este asunto pasa por la prohibición de las LAWS, o al menos por su regulación estricta en el marco del Derecho Internacional Humanitario, normativa que trata de limitar los efectos de los conflictos armados, principalmente protegiendo a las personas que no participan en ellos. Por ello, deben prohibirse las armas autónomas que no puedan ser controladas totalmente por los seres humanos, así como las que por estos motivos puedan causar muertes, lesiones y daños incidentales e indiscriminados a civiles. Y deben ser descartadas aquellas que no puedan relacionarse con la responsabilidad de una cadena de mando y control humanos.

En último término, la IA, aplicada a la carrera de armamento, deja de ser inteligencia y pasa a ser estupidez, pues activa la llave de una caja de pandora que, como pasa con estas cajas, una vez se abre, no se cierra.

Si te gusta este artículo, apóyanos con una donación.

¿Sabes lo que cuesta este artículo?

Publicar esta pieza ha requerido la participación de varias personas. Un artículo es siempre un trabajo de equipo en el que participan periodistas, responsables de edición de texto e imágenes, programación, redes sociales… Según la complejidad del tema, sobre todo si es un reportaje de investigación, el coste será más o menos elevado. La principal fuente de financiación de lamarea.com son las suscripciones. Si crees en el periodismo independiente, colabora.

Comentarios
  1. En lugar de tanto invento siniestro o letal, no podrían dirigir sus inquietudes en idear herramientas para hacer del Planeta y de sus criaturas un lugar mejor?; pero eso no interesa a las bestias que tienen sometido al mundo y son ellas las que pagan a estos inventores para someter y sacar aún más provecho del que ya sacan del Planeta y de sus criaturas. Lo propio de estas bestias para sacar beneficios es destruir.
    Pocos son los que se rebelan, por eso los encarcelan, los acosan o los destruyen. Si fuéramos cientos de miles o millones las personas informadas y con ética sabríamos depositar a estas bestias en prisiones de alta seguridad.
    Eso es la democracia: conciencia de la realidad y ética.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.