Internacional

Peter Asaro: “Una máquina no debería poder decidir si una persona vive o muere”

El filósofo estadounidense es uno de los grandes expertos mundiales en ‘roboética’ y advierte de los peligros de no regular las armas autónomas: «Veremos su proliferación en el uso policial, civil, para el control fronterizo… Y los gobiernos autoritarios las emplearán contra sus poblaciones».

Peter Asaro, filósofo de la ciencia y la tecnología, en Nueva York, en la sede de las Naciones Unidas. PATRICIA SIMÓN

Este entrevista forma parte parte del dossier ‘Robots asesinos’ de la revista #LaMarea99. Puedes conseguirla aquí y seguir apoyando el periodismo independiente.

El filósofo Peter Asaro tiene un perfil poco habitual. Especializado en el impacto social y ético de la inteligencia artificial, los algoritmos y los medios digitales, ha desarrollado también tecnologías en el ámbito de la realidad virtual, de la computación y, en general, de la robótica, una de sus grandes pasiones. En 2009, cofundó el Comité Internacional para el Control de las Armas Robóticas (ICRAC, por sus siglas en inglés), una entidad que dos años después formaría parte de la creación de la coalición de ONG que conforman la campaña Stop Killer Robots, dedicada a exigir la prohibición de las armas autónomas letales.

Asaro es uno de los grandes expertos mundiales en roboética. Realizamos esta entrevista en octubre de 2023 en la sede de las Naciones Unidas, en Nueva York, durante las sesiones preparatorias para la primera resolución contra las armas autónomas.

Tras la aprobación de la resolución, ¿cuáles serían los siguientes objetivos?

Cuando en 2012 comenzamos la campaña Stop Killer Robots buscábamos impedir el desarrollo de estos sistemas. Hoy ya tenemos modelos de armas que identifican y atacan objetivos de manera autónoma, sin mediación humana, basándose en unos algoritmos desarrollados por unos programadores que no saben cómo ni dónde se están utilizando. Ahora esperamos que la mayoría de los países se unan para exigir un tratado legalmente vinculante que prohíba estas armas. El secretario general, António Guterres, ha manifestado su interés por conseguirlo antes de 2026.

Con la oposición de algunos de sus principales productores, como Rusia o Turquía, ¿cree que es realmente posible controlar su uso?

El objetivo es impedir que los Estados adquieran estas armas y que se cree un mercado internacional. Así, tampoco proliferarán entre actores no estatales y organizaciones terroristas. Rusia ha sido el país que más obstáculos ha puesto en los debates mantenidos hasta ahora. Turquía e Israel ya están produciéndolos y también se oponen a un tratado. Estados Unidos y China lideran el desarrollo de estos sistemas, pero no parece que se opongan a su regulación, sino que quieren que ésta refleje sus condiciones. El otro país complicado es Corea del Sur, que tiene sistemas altamente automatizados y que cuenta con apoyo social para que los robots puedan actuar como combatientes en lugar de humanos. Tenemos que lograr que se unan al tratado o averiguar qué querrían que se incorporase a él sin que socave sus objetivos.

¿Cómo se implementarían estas armas en los países en paz?

La mayoría se usarán en el sur global, contra poblaciones minoritarias y colectivos que ya están siendo perseguidos, como ocurre con todas las armas. Si no establecemos normas para controlar su uso militar, veremos su proliferación en el uso policial, civil, para el control fronterizo… Y los gobiernos autoritarios las emplearán con sus poblaciones.

¿Qué efectos pueden tener en el desarrollo de los conflictos?

Se suele hablar de la precisión de las armas guiadas y de los drones para impactar en un lugar o acabar con una persona en concreto. La consecuencia es que los gobiernos están más dispuestos a atacar zonas pobladas por civiles porque creen que el coste en términos de daños colaterales será menor y porque pueden atacar más objetivos. El resultado es que pueden acabar con más víctimas civiles porque realizan más ataques. Y si se trata de la lucha contra el terrorismo, terminan generando a más terroristas entre los familiares de las víctimas. Por eso, aunque pensemos que una tecnología es precisa y quirúrgica, los efectos reales no son distintos a los bombardeos indiscriminados. En el caso de las armas autónomas, pueden llegar a ser mejores a la hora de distinguir un objetivo o apuntar con más precisión, ¿pero cuántos errores se cometerán hasta llegar a ese punto? Y también hay cuestiones básicas: una máquina no debería poder decidir si una persona vive o muere.

Y, a la vez, tu supuesto enemigo también las desarrolla.

Y así es como llegamos a la situación en la que terminan desconociendo la verdadera capacidad del otro, la sobreestiman o subestiman, lo que deviene en conflictos en mucho más peligrosos. Y si introducimos sistemas que responden sin intervención humana, la posibilidad de iniciar un conflicto o de agravarlo es increíblemente mayor. Y con las guerras cibernéticas y la posibilidad de piratear los sistemas, aumenta muchísimo el riesgo para la estabilidad internacional. Recordemos que Israel empleó una ametralladora a control remoto para asesinar a un iraní que no sabemos si era un general, un científico o qué. Este tipo de asesinatos tienen repercusiones geopolíticas. También hemos visto intentos de acabar con el presidente de Venezuela con aviones no tripulados provistos de bombas. El hecho de que no sepamos a quién atribuir estos ataques lo complica todo más. Cuando sobrevino la crisis de los misiles cubanos, fueron los canales de comunicación abiertos entre Jrushchov y Kennedy los que les permitieron acordar que seguirían diciendo ciertas cosas ante la prensa para mantener su estatus, pero que por la vía secreta calmarían la situación. Eso no va a ocurrir con los robots. Y asusta.

No hay un rechazo social amplio a estar armas, quizás porque hemos normalizado vivir vigilados por nuestros móviles, por drones, por cámaras…

Una de las vías por las que se ha normalizado el uso de la fuerza por parte de la policía es con el argumento de la defensa ante una amenaza inminente de violencia o daño corporal. Puesto que un robot no es una persona, no tiene que defenderse, solo intervenir cuando alguien esté en riesgo. Pero la cuestión es que si un sistema es lo suficientemente sofisticado como para comprender la naturaleza física de una amenaza, así como su intención, también debería ser capaz de intentar desactivarla por medios psicológicos antes de actuar físicamente. Con estos dos escenarios, se acaban los casos en los que se justifica el uso de la fuerza por parte de los robots. Los estándares para que esta tecnología use la violencia tienen que ser mucho más altos que para los seres humanos. Ya en 1960, Hannah Arendt advertía de que una bomba nuclear puede provocar una destrucción masiva de vidas e infraestructuras, pero no es útil en términos de poder porque el territorio ya no sirve para nada. Pero con las armas autónomas, los gobernantes ya no necesitan una fuerza policial o una agencia de inteligencia secreta para controlar a la población. Sencillamente les pueden ordenar que maten o amenacen a quienes quieran sin coste alguno para su poder.

Si te gusta este artículo, apóyanos con una donación.

¿Sabes lo que cuesta este artículo?

Publicar esta pieza ha requerido la participación de varias personas. Un artículo es siempre un trabajo de equipo en el que participan periodistas, responsables de edición de texto e imágenes, programación, redes sociales… Según la complejidad del tema, sobre todo si es un reportaje de investigación, el coste será más o menos elevado. La principal fuente de financiación de lamarea.com son las suscripciones. Si crees en el periodismo independiente, colabora.

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.