Opinión

La Inteligencia Artificial: el último capítulo del capitalismo de la vigilancia

"Si ya habitamos un mundo de fanatismos, asaltos al Capitolio, desencanto y descrédito del periodismo y la política, la nueva IA tendría un potencial gigante para amplificar estos problemas", analiza Azahara Palomeque.

El presidente del Gobierno y el consejero delegado de OpenAI durante su encuentro en La Moncloa. POOL MONCLOA / FERNANDO CALVO

La semana pasada escribí un artículo sobre la sesión que tuvo lugar en el Capitolio en relación con la Inteligencia Artificial (IA) generativa, en la que compareció el CEO de OpenAI (la empresa impulsora de ChatGPT), Sam Altman. Era una pieza informativa que sintetizaba el diálogo mantenido en dicha sesión, donde también participaron senadores y expertos y, para mi sorpresa, se situó inmediatamente entre las más leídas de este medio.

Sin embargo, después de publicarla, me quedé con la sensación de que le faltaba análisis; de que satisfacía la necesidad inmediata de contar esa reunión en el Capitolio, pero carecía de un contexto más amplio donde ubicarla y entenderla. Para intentar remediar esos fallos, escribo ahora este otro artículo complementario.

Capitalismo de la vigilancia

Lo primero es señalar las coordenadas históricas en que nace la IA y cómo esta nueva versión se diferencia de las anteriores. El “capitalismo de la vigilancia”, explica la investigadora y profesora emérita de Harvard Shoshana Zuboff, es el sistema que surge en torno a 2002 basado en la extracción de datos personales, resultado de nuestra interacción con los ya ubicuos espacios digitales (webs, tarjetas de crédito, apps, ordenador del coche, la Roomba o cualquier cosa que lleve Internet), a partir de la cual generar predicciones sobre nuestras conductas, que luego son vendidas sin consentimiento y para fines más o menos espurios.

En un marco legal insuficiente, por mucho que Meta haya sido multada en Irlanda por violar la privacidad de los usuarios (ciudadanos), se da una competición empresarial exacerbada dirigida a acumular trazos cada vez más íntimos de nuestra experiencia y, ya no sólo predecir comportamientos, sino también modificarlos. Se trata, dice Zuboff, de “transformar el mercado en un proyecto de certeza total”, pues, una vez sabido cómo pensamos, sentimos, qué nos duele o nos emociona, es muy fácil manipularnos con el objetivo de que compremos ciertos productos, y hasta de que votemos en una u otra dirección –justamente lo que ocurrió con el escándalo de Cambridge Analytica–. En estos procesos interviene la Inteligencia Artificial no generativa de los algoritmos, que analizan los datos y aprenden de ellos. 

Ahora bien, advierte el profesor emérito de Ciencia Neuronal y Psicología en la Universidad de Nueva York Gaby Marcus: para que Rusia pudiera interferir en las elecciones norteamericanas de 2016 tuvo que gastarse cantidades millonarias en la producción de desinformación (principalmente en la creación y difusión de anuncios malintencionados en redes) y, con una herramienta como la IA generativa, los costes habrían sido prácticamente nulos. Esto es así porque herramientas como ChatGPT –y otras similares– no reproducen mensajes, sino que los fabrican, a partir de datos –desconocidos hasta ahora– que actúan de combustible, con un alto nivel de verosimilitud, no de veracidad. 

Consecuencias devastadoras

Las consecuencias pueden ser absolutamente devastadoras en un clima ya afectado por la posverdad algorítmica, donde abundan las fake news, muchos gobiernos o partidos políticos han adoptado las estrategias trumpistas de institucionalización de la mentira, y el lucro de la élite ha quebrado los cimientos de la democracia. Estamos hablando de campañas masivas destinadas a alterar procesos electorales, pero también de la suplantación de identidades gracias a fotografías que parecen reales, programas de clonación de voz, y un más que probable incremento de los ataques cibernéticos, a lo que se sumaría la falsificación de pruebas judiciales y, por consiguiente, una casi total incapacidad humana para distinguir qué es cierto y qué no, con la lógica pérdida de confianza en las instituciones. Si ya habitamos un mundo de fanatismos, asaltos al Capitolio, desencanto y descrédito del periodismo y la política, la nueva IA tendría un potencial gigante para amplificar estos problemas

Se ha hablado también de la posibilidad de integrarla en armamento que funcionaría de manera autónoma; de la degradación de las prácticas educativas (millones de estudiantes ya utilizan ChatGPT para sus trabajos, a pesar de que incorpora información falsa) y la merma de inteligencia colectiva que esto supone; de las dificultades para producir investigación científica fiable si, de repente, una marea de papers ficticios lo inunda todo; de una inestabilidad social insoportable que puede conducir a conflictos y respondería asimismo a la eliminación sustancial de empleos que serían sustituidos por máquinas “inteligentes”.

Con el fin de calmar los ánimos, algunos apuntan a los beneficios de la IA, por ejemplo, en el sector sanitario. El Dr. Isaac Kohane, profesor en Harvard, afirmaba en esta entrevista que, como faltan médicos de atención primaria en EEUU, la Inteligencia Artificial podría usarse para responder a las cuestiones de los pacientes, ofrecer diagnósticos y recomendar tratamientos. Lo curioso es que en ningún momento sugiere la contratación de más facultativos, lo cual invita a pensar en una automatización de la sanidad, privada de contacto humano y dependiente de artilugios no regulados, programados sin ningún tipo de transparencia que –según sus creadores– pueden sufrir “alucinaciones”, es decir, generar mentiras mientras perpetran lo que Naomi Klein ha llamado “el mayor robo de la historia” al caer en manos de unas pocas empresas poderosísimas todo el conocimiento humano. 

Matices de la regulación

Los magnates de estas corporaciones son completamente conscientes; de ahí que Altman se haya acercado primero a los congresistas de su país, movido por el afán de colaborar a favor de que se regule su criatura, y ahora se halle de gira por Europa persiguiendo el mismo propósito. La pregunta de qué organismos, existentes o futuros, se encargarán de supervisar un monstruo capaz de destruir los pilares de la vida como los hemos conocido ha centrado la conversación de Altman con Pedro Sánchez, de igual forma que ya lo hizo en la sesión del Senado estadounidense, donde la ejecutiva de IBM Christina Montgomery enfatizó varias veces la necesidad de regular los contextos de aplicación de la IA, pero no la innovación tecnológica, dejando claro que el monstruo seguirá creciendo mientras los lentos marcos jurídicos se actualizan –si lo hacen–.

Se replicaría así la situación de los primeros pasos del capitalismo de la vigilancia (el extractivismo impune de la intimidad), hoy imparable. De todo ello podría inferirse que la petición de regulación por parte de Altman obedece más bien a la búsqueda de connivencia gubernamental con el avance de la IA, y a la creación de ciertos permisos o licencias que sirvan para evitar las peores consecuencias –por ejemplo: en el desarrollo de escenarios bélicos, y no es casual la constante comparación con las armas nucleares–, pero también para blindar legalmente a las empresas del oligopolio frente al daño infligido en otros ámbitos. 

Dados los antecedentes del fenómeno, las grietas jurídicas en que se inserta y las amenazas democráticas que plantea dentro de un panorama donde, de por sí, la democracia cada vez garantiza menos derechos, la pregunta quizá debería ser: ¿ofrece algún horizonte de mejora social la IA? Recular antes que prosperar en desastres es algo que aún no está sobre la mesa.

Si te gusta este artículo, apóyanos con una donación.

¿Sabes lo que cuesta este artículo?

Publicar esta pieza ha requerido la participación de varias personas. Un artículo es siempre un trabajo de equipo en el que participan periodistas, responsables de edición de texto e imágenes, programación, redes sociales… Según la complejidad del tema, sobre todo si es un reportaje de investigación, el coste será más o menos elevado. La principal fuente de financiación de lamarea.com son las suscripciones. Si crees en el periodismo independiente, colabora.

Comentarios
  1. Los medios virtuales es en lo que vivimos hoy. Y virtuales son, como los políticos, construidos por una inteligencia artificial. No da para más. Es un capitalismo fake que no da para más.

  2. Que necesarios y de agradecer son tus artículos sobre IA, Azahara.
    Que suerte que contemos con personas con una mente despierta como la tuya.
    ********************************
    …los riesgos del uso de los sistemas de inteligencia artificial son reales y mucho más vastos que lo que se ha planteado hasta ahora. El control es solo uno de los problemas que plantean estos sistemas, que sin que nos demos cuenta se están convirtiendo peligrosamente en una parte de nuestra vida.
    la digitalización y los sistemas de inteligencia artificial demandan enormes cantidades de energía, materiales y agua, y generan grandes cantidades de basura contaminante difícil de gestionar. Los centros de datos de las grandes tecnológicas consumen energía en forma continua y grandes cantidades de agua para refrigerar los sistemas, y están entre los cinco principales consumidores de energía en EEUU.
    … El entrenamiento de un solo sistema de inteligencia artificial consume energía equivalente al gasto anual de 1200 hogares en EEUU y emite grandes cantidades de carbono. Esto se debe a la cantidad de parámetros o variables utilizados en los sistemas de inteligencia artificial, lo que hace que el entrenamiento deba ser renovado y aumentado constantemente para lograr mantenerlo actualizado….
    (Inteligencia artificial, ¿beneficio o amenaza?- Aday Quesada)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.