Internacional

Robots asesinos: la realidad ya supera la ficción

Esta semana la comunidad internacional vuelve a reunirse en Ginebra para debatir el futuro de las armas autónomas, una tecnología militar que marca un antes y un después en la historia de la guerra.

Prototipo de sistema autónomo armado MUTT del Ejército estadounidense. Foto: Departamento de Defensa de EEUU

Versión actualizada del reportaje ‘Robots asesinos: la realidad ya supera la ficción’, publicado en #LaMarea45 (enero de 2017). Este trabajo solo es posible gracias a las personas suscritas a La Marea. 

En 1942, el bioquímico y escritor ruso Isaac Asimov publicó sus tres leyes de la robótica:

  • 1.- Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
  • 2.- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley
  • 3.- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.

Asimov pensó que estas leyes serían su legado más duradero, pero se equivocó. En diciembre de 2016, la comunidad internacional se reunió en Ginebra para debatir sobre el futuro de las armas autónomas letales, robots militares programados para seleccionar y eliminar objetivos humanos. Los llamados robots asesinos violan las leyes que Asimov concibió para sus obras de ciencia ficción: están diseñados para matar y no obedecen las órdenes de un ser humano.

La conferencia se produjo en ausencia de periodistas –La Marea fue el único medio acreditado–en el marco de la Convención de la ONU sobre Ciertas Armas Convencionales, la misma que prohíbe las bombas de racimo, las armas láser y las minas antipersona. Se trató de un acto histórico: era la primera vez que los 123 países ratificantes de la Convención tenían que expresar su posición oficial acerca de estos robots, una tecnología dotada de inteligencia artificial –son capaces de aprender– que ya está cambiando el concepto de guerra pero que aún no está sujeta a ninguna regulación específica. Tras una semana de debates protagonizados por posiciones ambiguas camufladas en la retórica diplomática, la comunidad internacional decidió postergar el debate y crear un Grupo de Expertos Gubernamentales “con fines abiertos”, según recoge la declaración final.

Ese grupo de carácter político y sin poder para emitir decisiones vinculantes es ahora la única puerta que podría conducir a la prohibición. Esta semana esos expertos trasladan sus conclusiones a los representantes nacionales y civiles que vuelven a reunirse en Ginebra. Lo hacen tras recibir un mensaje claro por parte de Francia y Alemania: las dos potencias militares europeas, hasta hace poco partidarias de prohibir los robots asesinos y evitar su proliferación, han dado un giro de 180 grados a su postura y ahora se limitarse a pedir una regulación internacional.

EEUU, Rusia y China ya poseen aviones, vehículos terrestres, barcos y submarinos armados con capacidad para entrar en combate de forma autónoma, aunque ninguno admite haberlos desplegado. Fuentes diplomáticas de Afganistán e Iraq aseguran a La Marea que la Casa Blanca ya ha probado en su territorio distintas armas autónomas. Israel usa con frecuencia los ‘aviones suicida’ Harpy y Harop, un ‘avión suicida’ con carga explosiva que localiza señales de radio y se estrella contra su lugar de procedencia, sin distinguir si se trata de un objetivo civil o militar. Estados Unidos desveló que incluso está desarrollando enjambres de drones autónomos.

En la lista de naciones con tecnología militar autónoma también entran, al menos, Corea del Sur (Samsung ya exporta el robot SGR-A1), Reino Unido, Francia, Israel e India. A diferencia de los drones teledirigidos que ya poseen más de 70 países, o de los sistemas de misiles defensivos que se activan solos al detectar una amenaza, los robots asesinos atacan de forma independiente.

La primera voz de a alarma la dio un grupo de 300 científicos en 2013, el mismo año en que nació la campaña para detener los robots asesinos (Campaing to Stop Killer Robots, en inglés), compuesta por 65 organizaciones no gubernamentales de 28 países y activistas con prestigio mundial, entre ellas la Premio Nobel de la Paz Jody Williams (aquí puedes leer la entrevista que le realizó La Marea). A mediados de 2015 más de 2.800 académicos de distintas disciplinas firmaron una carta abierta pidiendo la prohibición de estas armas. Al cabo de pocos meses, más de 16.000 nombres destacados del mundo científico, religioso, empresarial y cultural habían suscrito la misiva, y en la primavera de 2016 un grupo de expertos independientes se reunió para elaborar un informe sobre los dilemas éticos, legales y políticos de las armas autónomas que sirvió de base teórica para la cita de diciembre en Ginebra. Desde entonces no ha parado de crecer el número de personas destacadas de distintos ámbitos que piden la prohibición de estas máquinas militares. No obstante, el asunto parece tan lejano y ficticio que todavía no despierta demasiada atención por parte de los principales medios de comunicación -una percepción que, además, se ve dañada por las imágenes de Terminator con que frecuentemente son ilustrados los artículos sobre robots asesinos-.

Poco antes de morir, el astrofísico Stephen Hawking también advirtió sobre los riesgos de esta tecnología. Pero, ¿por qué una tecnología que, según Reino Unido, “aún no existe y quizás nunca exista”, genera tanto revuelo?

La armamentización de las nuevas tecnologías

Para la organización Human Rights Watch, los sistemas autónomos armados letales (LAWS, por sus siglas en inglés) son aquellos capaces de detectar, seleccionar y atacar objetivos sin ningún tipo de intervención humana. EEUU, una de las naciones que muestra reticencias a la prohibición, asegura que esta tecnología “servirá para mejorar el respeto al derecho humanitario internacional”. Los defensores de las armas autónomas letales alegan que permitirán reducir el número de soldados muertos y destacan que estas máquinas están libres de cualidades humanas que chocan con la dinámica de la guerra, pues no padecen hambre, frío ni sed, ni sienten miedo, pánico o compasión, ni necesitan años de entrenamiento o apoyo financiero y sanitario tras la batalla.

La otra cara de la moneda está plagada de interrogantes, los principales de tipo ético: ¿es moral que una máquina decida acerca de la vida de un ser humano? Mary Wareham, portavoz de Stop Killer Robots, señala que esta tecnología plantea un sinfín de dilemas legales, como su incapacidad para discriminar entre objetivos civiles y militares, las dificultades para probar su operatividad o la imposibilidad de que apliquen nociones cualitativas como la compasión. Los especialistas señalan que se trata de una revolución semejante a la que supuso la invención de la pólvora y la bomba nuclear, aunque la investigadora Heather Roff precisa que “se trata de armas precisas, no inteligentes”. Toby Walsh, un reconocido experto en inteligencia artificial, explica que a estos robots les sucede como a los niños: “Sabes cómo aprenden, pero no qué van a hacer con el conocimiento adquirido”. Además, podrían ser hackeados, lo que generaría “serios problemas si caen en las manos equivocadas”.

Las negociaciones en Ginebra concluyeron con tres grandes posturas: las principales potencias militares -y con las mayores industrias armamentísticas- no quieren prohibir los robots asesinos; la mayor parte de los Estados –entre ellos España–aboga por seguir estudiándolos en aras de una futura prohibición, y un grupo de 19 países pide abiertamente la creación de una moratoria que vete su desarrollo y despliegue hasta que haya mecanismos legales internacionales que rijan o veten su uso. EEUU y Reino Unido no ven necesario crear nuevas normas. Francia y Alemania ahora están a favor de estudiar la cuestión con más detenimiento y se oponen a su prohibición. China rechaza el riesgo de proliferación y justifica sus reticencias en “el derecho de las naciones en vías de desarrollo a dotarse de la última tecnología”. Corea del Sur, Israel e India también muestran reticencias y abogan por posponer el tema, mientras que los representantes de la Unión Europea y Japón subrayan los riesgos de tomar medidas apresuradas que limiten el uso de otros robots beneficiosos para la sociedad, como los que sirven para combatir incendios o evacuar heridos. Rusia se opone tajantemente a cualquier veto sobre esta tecnología. Tras un almuerzo con su homólogo ruso, el embajador de España y jefe de delegación en este encuentro explicó a este medio que Rusia trata de ganar tiempo para consultar a sus propios académicos, juristas y militares.

Finalmente, todas estas naciones menos Rusia –se abstuvo en el último minuto– dieron luz verde a la creación del grupo de expertos. La elección del embajador indio para presidirlo genera distintas interpretaciones. Unos lo ven como figura de consenso y otros creen que dará resultados ambiguos. Además, algunas delegaciones admiten en privado que su voto no es consistente con la realidad de sus países. Por ejemplo, un miembro de la delegación turca reconoció a La Marea que, a pesar de su apoyo a la creación del grupo, Turquía está interesada en desarrollar robots asesinos.

Un grupo de 19 países, entre ellos 13 latinoamericanos, lanzaron un llamamiento para la prohibición preventiva. Actualmente ya son 22 las naciones que piden vetar esta tecnología. Ante la duda de si sucederá como con las minas antipersona, prohibidas después de su proliferación por un tratado que sólo han ratificado 40 países, estas naciones decidieron adoptar una propuesta de Jody Williams: crear zonas libres de robots asesinos. Mientras tanto, la sociedad civil sigue organizándose y obtiene pequeñas victorias cargadas de simbolismo. Sin ir más lejos, a principios de abril medio centenar de reconocidos investigadores anunciaron un boicot contra una de las universidades más prestigiosas de Corea del Sur, tras saber que había creado un departamento para crear robots asesinos. La universidad cedió a la presión y anunció que no desarrollará esta tecnología.

Principales argumentos de los defensores de los robots asesinos:

  • Son más económicos: los robots asesinos no conllevan gastos de entrenamiento, manutención (alimentación, descanso, salario, indemnización por baja, pensión, etcétera).
  • Sus defensores argumentan que sirven para reducir el número de bajas en filas amigas (sustituyen a soldados).
  • También aseguran que prohibir el desarrollo de armas autónomas letales podría estancar el desarrollo de otros robots autónomos con fines civiles.
  • Son más efectivos: la máquina no siente miedo, pánico ni otras características humanas que pueden limitar la efectividad en el campo de batalla.
  • Son más resistentes: el robot tiene más autonomía energética, no siente frío, hambre, cansancio ni otras sensaciones que limitan a un soldado humano.
  • Son más precisos: la naturaleza mecánica de estos dispositivos hace que su precisión de tiro y efectividad letal sean mayores que las de un humano.
  • Mejor aplicación de la legislación internacional: los defensores de esta tecnología dicen que permitirá un mayor respeto al derecho humanitario internacional.

Principales argumentos de quienes piden prohibir los robots asesinos:

  • Principio de proporcionalidad: no puede determinar la fuerza que debe aplicar en su ataque en función de la ventaja militar, situación del enemigo y otros parámetros.
  • Principio de distinción: estas máquinas no pueden distinguir objetivos civiles y militares, ni si se trata de heridos, menores de edad, etcétera.
  • Incapacidad para razonar y aplicar nociones cualitativas como la compasión.
  • Los detractores de estas armas subrayan el riesgo de proliferación, si no se prohíbe de forma preventiva el desarrollo de robots asesinos.
  • Imposibilidad de realizar pruebas concluyentes sobre estas máquinas (no se puede simular el caos bélico; se puede estudiar la forma en que aprenden pero no cómo aplican los conocimientos adquiridos).
  • Imposibilidad de establecer una cadena de responsabilidad jurídica a los actos de las armas autónomas letales.
  • Las limitaciones técnicas y la incapacidad para razonar hacen que el robot asesino no pueda respetar el derecho humanitario internacional.
  • Al tratarse de máquinas programadas, existe riesgo de hackeo y pérdida de control de los robots asesinos.
  • Además, un error de programación o una avería pueden llevar al robot asesino a ocasionar graves daños a civiles y objetivos no militares (infraestructuras civiles, etcétera).

Si te gusta este artículo, apóyanos con una donación.

¿Sabes lo que cuesta este artículo?

Publicar esta pieza ha requerido la participación de varias personas. Un artículo es siempre un trabajo de equipo en el que participan periodistas, responsables de edición de texto e imágenes, programación, redes sociales… Según la complejidad del tema, sobre todo si es un reportaje de investigación, el coste será más o menos elevado. La principal fuente de financiación de lamarea.com son las suscripciones. Si crees en el periodismo independiente, colabora.

Comentarios
  1. Acabo de publicar dos libros Globalización Flexibilización Corrupcion y con la gente aue hacemos y Porque Europa En marzo publicaré TERCER MUNDO

  2. Ni robots asesinos ni arma alguna, todas son asesinas.

    Paz, educación, derechos, proyectos de desarrollo sostenible y solidaridad entre los pueblos.
    No a las armas, no a las guerras, no a los monstruos con apariencia de seres humanos que las idean y dirigen para saquear países, para someterlos, para satisfacer sus más bajas pasiones.
    Los líderes estadounidenses, vergüenza ajena de los primates, nos tienen acostumbrados a frases: (Bush) «hay que cortar los bosques para que no se incendien» el actual asegura que la tecnología de los robots asesinos “servirá para mejorar el respeto al derecho humanitario internacional”.

    EMPODERAMIENTO DEL PUEBLO, NO PERMITAMOS QUE CUATRO MATONES DIRIJAN EL MUNDO.

    –Mayor Zaragoza denuncia que mueran de hambre 20.000 personas al día mientras sube el gasto militar.
    –Elegir la guerra es renunciar a la paz.
    –Por cada euro en ayuda al desarrollo España destina 11,5 a gasto militar.

    CENTRO DELAS DE ESTUDIOS POR LA PAZ:
    Los Días de Acción Global para la Reducción del Gasto Militar (GDAMS) 2018 tendrán lugar entre el 14 de abril y el 3 de mayo.
    Bajo el lema “Reducir el 10% de los activos militares ayudará a salvar nuestro planeta. ¡Tomar acción!”, organizaciones de todo el mundo denunciarán las políticas de promoción del gasto militar.
    Durante los GDAMS participan personas y organizaciones de todo el mundo en acciones de colaboración para centrar la atención pública, política y de los medios de comunicación, sobre los gastos militares y la necesidad de invertir en nuevas prioridades construcción de una cultura de paz. Las líneas de trabajo son: el desarme, la prevención, resolución de conflictos y la seguridad humana, desarrollo sostenible y la lucha contra la pobreza; políticas medioambientales en contra del cambio climático y de la pérdida de la biodiversidad; la justicia social y el bienestar, los derechos humanos, la igualdad de género y la creación de empleo sostenible.

    La campaña internacional contra el gasto militar (GCOMS), pide el máximo apoyo de los distintos países en la movilización para conseguir verdaderos cambios en las políticas que promueven el gasto militar mundial. En la página podreis ver la lista de acciones por fechas y países.

    Este año también se está promoviendo una declaración científica internacional sobre la necesidad de reducir el gasto militar para hacer frente a los efectos del cambio climático en todo el mundo. El texto completo de la declaración se puede leer y descargar aquí.
    http://www.centredelas.org/es/noticias-breves/3542-la-accion-global-sobre-el-gasto-militar-gdams-2018-se-realizara-del-14-de-abril-al-3-de-mayo

    Para adheriros a la campaña os podéis poner en contacto escribiendo a coordination.gcoms@ipb.org.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.