Economía
Matteo Pasquinelli: “Los algoritmos multiplican los trabajos precarios”
El filósofo conversó con la profesora Carmina Crusafon sobre cómo el trabajo digital ha transformado la organización de la fuerza de trabajo tal y como se la conocía hasta ahora
Esta entrevista se ha publicado originalmente en Catalunya Plural. Puedes leerla en catalán aquí.
VICTORIA TRAPÉ Y KARINA JACOMÉ | Matteo Pasquinelli es profesor de Filosofía de los Medios en la Universidad de Artes y Diseño de Karlsruhe, donde también coordina el grupo de investigación sobre Inteligencia Artificial y Filosofía de los Medios KIM. Su intervención abrió el ciclo de debates “¿En el futuro tecnológico, ¿hay vida alternativa al metaverso?” organizada por el Observatorio Social de Fundación “la Caixa”. Pasquinelli, bajo el enunciado “El trabajo invisible en la inteligencia artificial: de la línea de montaje al algoritmo”, abordó las cuestiones vinculadas a los peligros de la concentración de la atención y del trabajo humano en las plataformas tecnológicas.
El filósofo conversó con la profesora Carmina Crusafon sobre cómo el trabajo digital ha transformado la organización de la fuerza de trabajo tal y como se la conocía hasta ahora. En el diálogo exploraron diversas alternativas frente a los peligros y beneficios de la concentración de la atención y el trabajo humano en las grandes plataformas tecnológicas. Concentración que deriva de la proyección de distopías y mundos virtuales en los que, cada vez más, las personas estaremos inmersas.
Antes del encuentro, el profesor Pasquinelli fue entrevistado por Catalunya Plural y preguntado por algunas cuestiones clave sobre qué nos depara el trabajo en el futuro:
¿A qué hace referencia con el concepto de “trabajo fantasma” asociado a las Inteligencias Artificiales (IA)?
La primera dimensión del trabajo invisible que quiero destacar es la fuente de la inteligencia que la IA pretende automatizar. Cada vez es más claro para todos que el aprendizaje automático se basa en un vasto depósito de datos individuales y colectivos del que se extrae su «inteligencia». La inteligencia artificial es reparada y mantenida continuamente por una gran multitud de trabajadores fantasmas que corrigen los modelos de aprendizaje automático en tiempo real o en posproducción. Por eso es que la IA también está en deuda con estos trabajadores.
¿Y quiénes son estos trabajadores fantasma?
Son las personas reales más allá de muchos servicios en línea que usamos todos los días. Estos trabajadores invisibles filtran los contenidos violentos, ofensivos y pornográficos que se suben cada minuto a las redes sociales para hacer de ellas un lugar más seguro. El contenido producido por el Norte Global requiere la supervisión constante y el trabajo de mantenimiento, por lo cual a menudo se subcontrata a trabajadores anónimos e invisibles en línea del Sur Global.
Pero este es un ejemplo entre muchos. Florian Schmidt realizó una investigación sobre la línea de producción de IA en el caso de los coches autónomos, y descubrió que los modelos de aprendizaje automático del proyecto alemán de coches autónomos son evaluados por plataformas de crowdsourcing que cuentan con trabajadores de Italia, España y Venezuela. Así mostró cómo la mano de obra del sur de Europa y América del Sur repara autos invisibles que se venden bajo marcas alemanas.
¿Y qué nos puede decir del temor que genera en la sociedad el reemplazo del trabajo humano por parte de estas nuevas tecnologías?
En el mundo real, hoy en día, mucha gente está descubriendo que la IA no se trata realmente de automatizar el trabajo sino de automatizar la gestión. La automatización contemporánea, especialmente en el caso de la economía de plataformas, no se trata de un trabajador individual como en la imagen estereotipada del robot humanoide, sino de la automatización de la gestión, como sucede en las plataformas de la gig economy, lo que se denomina también «gestión algorítmica». Yo creo que lo que pasa hoy en día está más cerca de lo que vemos con empresas como Uber Eats, por ejemplo.
Desde mi punto de vista, los algoritmos están reemplazando a los jefes, no a los trabajadores.
Desde los gigantes de la logística (Amazon, Alibaba, DHL, UPS, etc.) y la movilidad (Uber, Share Now, Foodora y Deliveroo) hasta las redes sociales (Facebook, Twitter), la IA y la automatización digital -lo que se denomina capitalismo de plataformas-, es una forma de automatización que en realidad no reemplaza a los trabajadores, sino que los gobierna y los multiplica. Bajo la automatización de la gestión, o “gestión algorítmica”, todos nos convertimos en microtrabajadores de un gran autómata, es decir, usuarios genéricos, conductores y pasajeros de muchos tipos. El debate sobre el temor a que la IA sustituya por completo a los puestos de trabajo es erróneo: en la llamada economía de plataformas, en realidad, los algoritmos sustituyen a la gestión y multiplican los puestos de trabajo precarios.
Los algoritmos ayudan a contratar a más trabajadores, trabajadores baratos, como los riders. También habrá más trabajo para mantener a las máquinas. Esto es más una automatización de tareas gerenciales, que del trabajo en general. Se multiplicarán los trabajos precarios mientras que se reemplazarán los jefes. La IA implica más trabajo, no menos.
¿Los algoritmos reemplazarán los trabajos que conocemos hoy en día?
Sí, pero también viene a multiplicar nuevos trabajos, los más precarios. Cada vez que introduces una máquina, también se multiplican los trabajadores que se requieren.
¿Cuáles son los cambios más importantes que esperan como consecuencia de la introducción de la inteligencia artificial en el mundo del trabajo?
La automatización nunca reemplaza el trabajo por completo, sino que lo relocaliza en otras tareas y lo esconde en otros sitios. Se va a producir una división internacional del trabajo motorizada por las nuevas tecnologías, se repiten las condiciones colonialistas. Especiales sectores del mercado laboral, la IA tiene el efecto de aplicar o sumar las habilidades del humano. Implica un gran impacto que afectará a los trabajos mecánicos. Los riders son un gran ejemplo.
¿Será un mundo laboral más inclusivo para las personas con capacidades diversas?
Está claro que la IA puede ayudar a los discapacitados, ya que estos pueden ser los primeros en testear y usar estas tecnologías. Los ancianos, los discapacitados, serán los primeros en probar estas tecnologías, como sillas de ruedas, prótesis. Nuestros abuelos serán cyborgs antes que nosotros.
¿Quedarán fuera de este mundo aquellas personas que no puedan acceder al entorno digital, ya sea por sus condiciones de vida como por sus conocimientos?
Un buen término para hablar de esto es el de “extractivismo cognitivo». Hoy se percibe la generación de monopolios de datos, y todos nosotros, incluidas las personas que habitan en áreas remotas, producen conocimientos para estos monopolios. Y estos conocimientos se acumulan en centros de bases de datos, y luego los modelos algorítmicos están fuera de nuestro control.
Entonces no es solo un problema de las personas que habitan en sitios rurales, incluso ellos tal vez hasta sean más afortunados que nosotros. Entonces lo que pasa hoy es que habitamos en una sociedad de crecientes monopolios. El problema con ellos es un problema del cual debería encargarse el Congreso de Estados Unidos, porque Google o Facebook se están convirtiendo en grandes monopolios que ni siquiera existían en los 90. Creo que es un problema de políticas del conocimiento, de compartir el conocimiento, y del control y protección de datos.
Para entender esto hay que contextualizar a la IA en la historia del conocimiento. La IA es la epistemología hegemónica hoy en día; es una manera de pensar que es estadística, mecánica. Pero gracias a Dios en este planeta tenemos muchas otras epistemologías: epistemologías indígenas, epistemologías locales, epistemologías feministas, epistemologías decoloniales y esto es lo que tenemos que discutir. La epistemología se está transformando, peligrosamente, en una forma de pensar hegemónica, cuando en realidad también tenemos muchas otras.
¿Y qué impacto tendrá todo esto a nivel de relaciones sociales?
Estos casos que mencionamos deberían llevar finalmente a cuestionar la relación entre la automatización y los seres humanos, a investigar esta relación como una relación de poder, y también de explotación. Desafortunadamente, la historia de la automatización es una historia de más trabajo, no menos. Pero esta historia es más profunda.
Siempre debemos recordar que el movimiento feminista de los años 60 y 70 fue el primero en señalar la invisibilización del trabajo, específicamente del trabajo de cuidados y del trabajo doméstico. Los futuros tecnológicos vinculados al desarrollo capitalista iteran una fantasía que, a medida que las máquinas, los algoritmos y la inteligencia artificial se hacen cargo del trabajo aburrido, sucio, repetitivo e incluso reproductivo realizado por trabajadores racializados, de género y colonizados en el pasado. Esto lleva a creer que la humanidad completa será liberada para poder desarrollar plenamente sus capacidades creativas.
Las fantasías de automatización total extienden la historia del sujeto autónomo cuya libertad es imposible solo por el efecto sustituto de sirvientes, esclavos, esposas y, más tarde, trabajadores de servicios industriales que realizan un trabajo racializado y de género. Recordando a autoras feministas como Silvia Federici y Ruth Cowan, recientemente Astra Taylor ha introducido el término “fauxtomation” para referirse a las falsas promesas que ofrece la automatización, especialmente en el ámbito doméstico, donde las máquinas a menudo amplifican, no reducen, el trabajo de los cuidadores y mujeres.
¿Por qué llama a su todo la Teoría Laboral de la IA?
Creo que el principio operativo de la IA, de hecho, no es solo la automatización laboral, es la imposición de jerarquías sociales de trabajo manual y mental a través de la automatización. Entre los siglos XIX y XX, la gestión del trabajo se extendió a toda la sociedad. Impuso formas de control basadas en las medidas estadísticas de “inteligencia”, también como forma de discriminar a los trabajadores en clases de calificación. Creo que la IA continúa este proceso de codificar jerarquías sociales y discriminar entre la fuerza laboral.
El sesgo de clase, género y raza que los sistemas de IA amplifican notoriamente debe considerarse, de hecho, no como un error, sino como una de sus características constitutivas.
El sesgo de la IA no solo discrimina a los grupos sociales, sino que lo hace para imponer implícitamente jerarquías de trabajo y conocimiento e imponer una polarización de ocupaciones calificadas y no calificadas en el mercado laboral. Los estudios de IA deberían abordar no solo la sustitución de los trabajos administrativos por algoritmos, sino también el desplazamiento y la multiplicación de trabajos precarios, mal pagados y discriminados en una economía global. La IA y el trabajo fantasma parecen ser, desde este punto de vista, las dos caras del único y mismo mecanismo social de automatización laboral.
La teoría laboral de la IA que propuse es, al final, no solo un principio analítico para ayudar a criticar el poder de las empresas de IA y los monopolios de datos, sino también un principio sintético y político: como una teoría de la autonomía para generar nuevas formas de conocimiento y producción, y una nueva cultura de la invención y el diseño. Pero para abordar esta cuestión necesitamos más horas de entrevista.
¿Cuáles son las facultades o habilidades que la inteligencia artificial no puede simular a las de un humano?
La interacción humana, la labor de cuidado. Para entender la IA, hay que verla desde un punto de vista capitalista, económico. La IA pertenece a la idea de que la naturaleza puede ser descrita según patrones mecánicos, y estos patrones permiten organizar la naturaleza.
Lo cierto es que la IA tiene muchos límites, tiene muchos errores, falacias, aproximaciones, y sesgos que la constituyen. La IA se vende como un paradigma de inteligencia, pero en verdad es un paradigma de automatización estadística, porque lo que en realidad hace es una aproximación estadística.
La traducción es otro de los límites de la IA, por ejemplo. Es muy difícil traducir metáforas o chistes, ese es uno de los límites lógicos de la IA. Porque todo chiste rompe la regla que el algoritmo sigue. Humberto Eco dijo esto muchos años atrás.
¿Quién se va a hacer cargo en el futuro de estos errores de los algoritmos?
El trabajador invisible siempre está detrás en la corrección del algoritmo, de los datos. Hay una máquina que no es perfecta, siempre tiene un margen de error, y el humano está detrás para arreglarla.
¿Quiénes van a ser los ganadores y los perdedores de este sistema con creciente presencia de la IA?
Creo que se producirá una polarización de la sociedad. Qué trabajos serán automatizados, como los choferes, repartidores, trabajos de cuidado, la precarización del trabajo. Y del otro lado, los trabajos como programadores, que se convertirán en una élite. Se producirá una polarización del mercado laboral, y no sólo como fenómeno de la IA, sino de toda innovación.
¿Cuáles son las carreras del futuro que nos permitirán subirnos a la ola de estos nuevos trabajos y no ser arrollados por ella?
Yo lo que intento enseñar en Karlsruhe no es IA, sino las humanidades digitales, que intentan entender este fenómeno tecnológico desde un punto de vista de las ciencias sociales, las humanidades. Es una nueva disciplina que podríamos llamar “humanidades digitales”. En Karlsruhe intentamos estudiar visiones críticas de IA: implicaciones políticas, sociales, históricas, y poner a la IA como parte de la evolución de distintas formas culturales. La IA está dentro de un ecosistema de conocimiento. La IA es parte de nuestra cultura y hay que desarrollar herramientas críticas para comprenderla. Necesitamos desarrollar todo tipo de habilidades desde las humanidades, las ciencias sociales, las ciencias políticas para completar el ecosistema de esta realidad virtual además de los técnicos. El rol de los educadores será crucial, porque no podemos enseñar machine learning sin pensar en las peligrosas implicaciones que puede tener.
La Inteligencia Artificial (IA) ha llegado para quedarse y se ha desarrollado a través del tiempo. Factores como la pandemia han acelerado la digitalización de aspectos de nuestra vida cotidiana como el trabajo hasta lograr una hibridación. Para muchos la IA sigue siendo un mundo inexplorado y hay trabajos en los qué las habilidades humanas no pueden ser reemplazadas, sin embargo, otros muchos empleos se sumarán a la era tecnológica y sustentarán su funcionamiento en este fenómeno digital. La idea es acompañar a la sociedad hacia una mejora, explorando nuevas fronteras a través de nuevos profesionales capacitados para manejar, dar mantenimiento y seguir indagando en el nuevo mundo.
YUVAL NOAH HARARI, historiador y filósofo:»Las grandes corporaciones quieren ‘hackear’ a la humanidad».
«Tenemos al espía en la mano: el móvil… Ni tu madre te conoce mejor que el algoritmo. La tecnología devalúa al ser humano. Lo domestica»
Necesitamos a los filósofos más que nunca porque muchas de las preguntas filosóficas, que antes eran puramente teóricas, ahora se han convertido en cuestiones de ingeniería práctica. Un coche autónomo debe tomar decisiones éticas. El famoso dilema de si atropellas a un niño o te estrellas contra un camión que viene de frente…
La mayoría de la gente no se embarca en un viaje serio de autoexploración porque descubres muchas cosas que no te gustan sobre ti mismo. Pero, ahora, la tecnología nos está obligando a hacer esta búsqueda espiritual. Pagaremos caro si no la hacemos porque estamos inmersos en una carrera por ‘hackear’ a la humanidad en general y a ti en particular. Y debes hacer el esfuerzo de estar un paso por delante de tus competidores: de las grandes corporaciones, de los gobiernos. Para ganar, debes conocerte a ti mismo mejor que ellos a ti.
Los ingenieros, a veces, pueden ser muy ingenuos o estar desinformados sobre las consecuencias de lo que hacen. Si dejas que una compañía o un ejército decida cómo rediseñar al ser humano, lo más probable es que potencien las cualidades que a ellos les vienen bien, como la productividad o la disciplina, y desprecien otras, como la sensibilidad y la compasión. Y el resultado será que tendremos gente muy inteligente y disciplinada, pero superficial y espiritualmente pobre. Y esto no va a mejorar al ser humano, sino a degradarlo.
Estamos viendo como surgen nuevas maneras de organizar el mundo a través de la tecnología de vigilancia. Los chinos están probando herramientas para algo que podría convertirse en el peor sistema que ha existido jamás en la historia. Y, además, puede ser exportado a todo el mundo, como un pack. Incluso países que no tienen la tecnología para crear un sistema de vigilancia pueden comprarla a China. Así que el peligro es global. Lo mismo se puede decir del capitalismo de vigilancia que vemos en Estados Unidos y que también se exporta al resto del mundo. Espero que encontremos una tercera vía porque ambos sistemas son muy dañinos no solo para la supervivencia de la democracia, sino para los valores humanos y el desarrollo mismo de las personas.
Es una cuestión de qué tipo de decisiones les dejamos a las máquinas. Y quién controla a estas. Por ejemplo, meto mi dinero en un fondo de pensiones, pero no quiero que ese dinero vaya a parar a empresas que contribuyan al cambio climático. No tengo tiempo para estar mirando dónde invierte ese fondo, pero la inteligencia artificial sí que puede. Me parece bien, porque me está ayudando a cumplir mis objetivos. El potencial para lo bueno está ahí y la tecnología puede mejorar la atención sanitaria, psicológica… El problema es que la mayoría de los datos que se recopilan de cada uno de nosotros se usan para manipularnos. Por ejemplo, se entrena al algoritmo para que identifique a jóvenes con baja autoestima y enviarles anuncios de dietas.
Una de las elecciones más importantes a la hora de diseñar algoritmos es si se crean para que gobiernos y compañías vigilen a la gente o viceversa, para que nosotros los vigilemos. Hoy solo se hace en una dirección. Ellos saben mucho de nosotros y nosotros, casi nada de ellos….