Entrevistas

Melanie Mitchell, experta en inteligencia artificial: “Es posible que nos volvamos más tolerantes con la mediocridad”

La profesora del Santa Fe Institute publica nuevo libro en castellano: 'Inteligencia artificial: guía para seres pensantes' (Capitán Swing, 2024)

Melanie Mitchell, experta en inteligencia artificial/Kate Joyce, para el Santa Fe Institute.

Melanie Mitchell me recibe por videoconferencia desde Nuevo México, donde es catedrática en el prestigioso centro de investigación Santa Fe Institute, especializada en razonamiento analógico, sistemas complejos, algoritmos e inteligencia artificial generativa.

Con seis libros en su haber, y decenas de artículos científicos que se encuentran entre los más citados de su especialidad, es la primera vez que uno de sus volúmenes se publica en español. Estamos hablando de Inteligencia artificial: guía para seres pensantes, que edita Capitán Swing. Conversamos sobre este tema candente y complejo, que despierta tantas pasiones detractoras como admiración.

Su libro se publicó en inglés en 2019 y la traducción al español ha salido en 2024. En estos cinco años han cambiado muchísimas cosas respecto a la inteligencia artificial. ¿Ha añadido información nueva, en el original o en la traducción?

Sí, han cambiado muchas cosas… Estoy en el proceso de escribir algunos capítulos nuevos, que espero terminar en los próximos meses. El libro salió antes de la explosión de la inteligencia artificial generativa, ChatGPT, o programas de texto a imagen como DALL-E, etc. Creo que lo que ha cambiado más es la habilidad de estos programas para lidiar con el lenguaje natural. Hay algunos detalles del libro donde muestro que algunos programas tienen fallos con el lenguaje natural, pero ahora ChatGPT lo está haciendo mejor…, aunque todavía existen el tipo de errores sobre los que escribí. Especialmente, en lo referido a entender… Los sistemas carecen del tipo de entendimiento que tienen los humanos, y lo puedes ver en los errores que cometen. Así que la pregunta sobre cómo los humanos entendemos el mundo versus cómo lo hacen las máquinas todavía sigue vigente.

Pero, ¿no cree que, por ejemplo, las “alucinaciones” de ChatGPT se podrían eliminar o mejorar muy pronto?

La alucinación es sólo un tipo de error, pero no es el único. Al igual que estos sistemas están entrenados en generar textos que suenen verosímiles, no están entrenados en generar declaraciones verdaderas. De hecho, nadie sabe cómo entrenarlos en eso. Creo que todavía son propensos a alucinar. Mejorarán, pero no se va a solucionar el problema, al menos hasta que no aprendamos a diseñarlos de manera diferente.

Teniendo en cuenta lo que acaba de afirmar, ¿qué impacto tienen estos sistemas en la producción de verdad?

Hay muchas cuestiones… Primero, estos sistemas a veces inventan cosas. Puedes pedirles una descripción de alguna noticia y, como periodista, utilizarla para escribir una historia, pero tendrás que verificarla cuidadosamente. Ese es un problema. Y la gente ha colgado artículos en internet con declaraciones falsas. Pero también está el problema de la gente que, intencionalmente, usa los sistemas de IA para diseminar desinformación, ya sea a través de texto, imagen, vídeo o audio. Eso va a ser un problema de aquí en adelante, porque es muy difícil saber, cuando te encuentras con una imagen o texto, si se trata de una representación verdadera o ha sido la inteligencia artificial generativa. Ha habido algunos intentos de elaborar leyes para regular esto, y la Unión Europea ha ido por delante de otras regiones, pero prevenirlo enteramente va a ser muy difícil. 

Hablando de regulación: Sam Altman, el creador de OpenAI –la empresa de ChatGPT – participó hace poco en una sesión en el congreso de Estados Unidos donde se debatió acerca de posibles enfoques regulativos, sin que llegaran a ningún acuerdo. ¿Cómo cree que debería regularse la IA?

Es muy difícil. Creo que necesitamos entender con claridad cuáles son los posibles daños y legislar de acuerdo a esto. Hay mucha especulación sobre los posibles riesgos, y tenemos que entender los problemas reales. Por ejemplo: Altman y otra gente están intentando presionar a favor de una regulación que restringiría la apertura de los sistemas. ChatGPT no es abierto; quiero decir: tienes que usarlo a través de la web de la empresa, y ellos no revelan cómo han entrenado el sistema, no te dejan descargar el software… Esto es distinto de otras compañías como META, que ha liberado sus modelos, te los puedes descargar y modificarlos tú misma. Pero algunas grandes empresas como OpenAI están presionando contra esta apertura porque creen que la gente no va a usar bien los sistemas.

Tenemos que sopesar el problema del mal uso versus el beneficio de la transparencia, y el beneficio de no permitir sólo a un pequeño número de grandes empresas controlar la tecnología. Es un equilibrio complicado, pero creo que me sitúo en el lado de la transparencia, para que la comunidad de investigadores de la IA y otra gente entienda mejor el entrenamiento de estos sistemas, cómo funcionan y cuál va a ser el daño real. Este tema ha supuesto un gran debate en lo relativo a la regulación.

En esa sesión del congreso se comparó la situación actual de la inteligencia artificial con la falta de regulación de las redes sociales. ¿Son realmente comparables?

Es similar en algunos aspectos. Por ejemplo, en que hay un número escaso de grandes empresas que controlan la tecnología y se ha dejado que se regulen solas, lo cual no funciona en las redes sociales y no lo hará tampoco en la IA. Ahí hay similitud. Pero creo que los posibles problemas de la IA son diferentes… Hay que entenderlos y regularlos. Pero regular requiere una negociación, porque tampoco queremos sofocar la innovación, o el progreso.

Por otra parte, es preciso asegurarse de que esta tecnología no es dañina. Creo que, cuando las redes sociales surgieron, hubo gente que predijo algunos de los daños y el Gobierno no necesariamente prestó atención. Con suerte, prestarán más atención a los daños de la IA. Pienso que la Unión Europea lo ha hecho muy bien [con la nueva ley de IA]; es un punto de partida, no definitivo, pero contempla los peligros de la desinformación, etc.

Hay estudios que vaticinan la eliminación de millones de puestos de trabajo debido a la IA. En su libro no parece demasiado preocupada. ¿Sigue pensando lo mismo?

Es difícil hacer predicciones, pero creo que estos sistemas generativos no son lo suficientemente fiables como para efectuar esta sustitución masiva de trabajos. Lo vemos en que ChatGPT puede aprobar el examen BAR [específico para ejercer la abogacía en EE.UU.], ¿significa eso que puede reemplazar a los abogados? Probablemente no, porque el examen evalúa ciertas destrezas, pero ChatGPT puede no ser capaz de aplicar este conocimiento en situaciones nuevas. Ahí es donde la IA tiene muchos problemas, así que no creo que la cosecha actual de sistemas de IA vaya a sustituir a los trabajadores, aunque no sabemos qué pasará en el futuro.

Por otra parte, cada nueva tecnología que surge provoca una preocupación respecto a los puestos de trabajo, y luego ocurre que no los sustituye, sino que los cambia. El mundo cambió con los ordenadores, con internet, pero no hubo una pérdida masiva de empleo. Cambió todo porque se crearon otros trabajos, algunos cambiaron, la gente se tuvo que adaptar. Creo que va a suceder eso. Habrá otro tipo de trabajos; o gente como tú, periodistas, aprenderán a usar estas herramientas y ellas te asistirán, no te sustituirán.

Ya veremos… [risas]

Mira, en 2016, Geoffrey Hinton, uno de los grandes nombres en cuestiones de IA, dijo que en cinco años no habría puestos de radiólogos, que la IA los reemplazaría. Ocho años más tarde, hay una escasez de radiólogos y las facultades de medicina están tratando de atraer a gente para educarla en radiología. Así que no soy pesimista respecto al mercado laboral.

¿Cree que la IA puede reemplazar el arte y, si es así, qué significado tendría a la hora de pensarnos como humanos? Si la IA puede crear música como la de Mozart o Bach, según cuenta en su libro, ¿qué queda de nosotros? Hablo ahora como poeta y escritora…

Lo que sabemos es que estos sistemas son muy buenos imitadores del estilo de artistas en los que han sido entrenados, pero no se les da bien crear cosas nuevas. Son derivados. Así que no me parece que vayan a sustituir a los poetas; pueden escribir poesía, pero no será genial. Pueden escribir ficción, pero no será interesante. La verdadera preocupación –creo que también es la de los guionistas de Hollywood que se pusieron en huelga– no es que estos sistemas puedan alcanzar al talento humano, sino que los estudios [de cine] opten por contenido mediocre porque es muy barato. Eso es una posibilidad, que tengamos peores contenidos, porque estos estudios o editoriales quieren ahorrarse dinero, pero [la IA] no podrá igualar a los humanos en creatividad.

Si los contenidos son cada vez más mediocres, ¿cómo va a afectar esto a nuestra capacidad de pensar?

Bueno… eso me preocupa. No sé qué ocurrirá. Es posible que, como sociedad, nos volvamos más tolerantes con la mediocridad. Creo que eso será perjudicial.

Hablando de mediocridad… Si la IA sólo puede producir contenidos basándose en patrones anteriores, ¿puede considerarse una amenaza a la innovación?

Es un arma de doble filo. Puede ser una amenaza a la innovación si la usamos para sustituir a la gente, pero puede facilitar la innovación si se usa para mejorar a las personas. Sabemos que, en las ciencias, estos sistemas pueden ayudar a descubrir cosas nuevas en conjunto con los humanos que los usan. Creo que es una situación que puede ayudar a la innovación en vez de destruirla.

Melanie, las expertas en IA están muy demandadas. Más allá del Santa Fe Institute, ¿ha colaborado con la empresa privada o con el Gobierno? ¿Alguna colaboración reseñable?

Hay siempre una frontera borrosa entre la universidad y la empresa privada, porque mucha gente trabaja en los dos lugares y, cuando colaboro con ellos, no sé qué rol desempeñan. Pero, en general, mis colaboraciones son académicas; es decir, es investigación que se publica de manera abierta. He estado trabajando con gente en el campo de la psicología cognitiva, interesándome en la relación entre cómo pensamos la inteligencia humana y animal, y cómo pensamos la inteligencia de las máquinas: cómo las comparamos, qué idea del aprendizaje o el desarrollo humano podemos usar para solucionar los problemas de la IA, etc. Esa ha sido mi colaboración más importante hasta hoy, y es muy emocionante.

Antes de finalizar esta conversación… Me da mucha curiosidad saber de qué van esos capítulos nuevos del libro. ¿Nos podría adelantar algo? Ya que la traducción tardará…

Estoy escribiendo sobre cómo funcionan estos sistemas de inteligencia artificial generativa, cómo se los entrena, qué tipo de ordenadores son, cómo evaluamos lo que saben, etc. También sobre algunas cuestiones éticas y de seguridad, y cómo prevenir que se descontrolen. Cómo lidiamos con estos problemas de los que hablamos antes: la desinformación, los sesgos, la privacidad, todos estos problemas que ahora se han amplificado. Y qué esperar del futuro, hacia dónde vamos.

Muchas gracias, Melanie. Un placer.

Igualmente. El placer es mío.

Si te gusta este artículo, apóyanos con una donación.

¿Sabes lo que cuesta este artículo?

Publicar esta pieza ha requerido la participación de varias personas. Un artículo es siempre un trabajo de equipo en el que participan periodistas, responsables de edición de texto e imágenes, programación, redes sociales… Según la complejidad del tema, sobre todo si es un reportaje de investigación, el coste será más o menos elevado. La principal fuente de financiación de lamarea.com son las suscripciones. Si crees en el periodismo independiente, colabora.

Comentarios
  1. AL CAPITALISMO ACTUAL LE SOBRAN MILLONES DE PERSONAS. (Canarias Semanal)
    El 27 de marzo de 2023, el Banco Mundial emitía un comunicado de prensa donde señalaba “Para 2030, el límite de velocidad de la economía mundial – la tasa máxima a largo plazo a la que puede crecer sin provocar inflación – caerá al nivel más bajo de los últimos 30 años”.
    Y para reducir costes e incrementar la productividad, los capitalistas se ven obligados a desarrollar la inteligencia artificial, la automatización de la producción y de los servicios. Según Goldman Sachs, en un informe realizado en 2023, el desarrollo de la inteligencia artificial puede hacer desaparecer 300 millones de puestos de trabajo en Europa y EEUU en la próxima década.
    … si bien la IA aumentará la productividad y la riqueza, el dinero iría a parar a los ricos y no a las personas cuyos empleos se pierden.
    …la IA en manos de los capitalistas significa más paro, más desigualdad, más pobreza para la mayoría trabajadora y un excedente humano que la burguesía resolverá por la vía de la liquidación física de millones de proletarios ya sea por la vía de la guerra imperialista, ya sea por la vía del asesinato mediante la negación de la alimentación y los servicios básicos como la sanidad pública.

  2. Mejorar a las personas la inteligencia artificial?
    Además de peligrosa por engañosa, otra dispersión más, otro entretenimiento más, otro paso más para alejarnos del ser interno, apartarnos de la convivencia humana, para robotizarnos más.
    La sabiduría es el autoconocimiento, la máxima de los más grandes sabios: «conócete, acéptate, supérate»
    Simplifica.
    Al revés, en lugar de simplificar hemos permitido que las máquinas sometan al ser humano. Nos hemos pasado de rosca con tanta tecnología.
    Dichosos aquellos tiempos relajados sin apenas tecnología que se cultivaba el diálogo, la reflexión, el intercambio de opiniones entre los seres humanos y que ya nunca volverán.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.