Sociedad
“Los algoritmos pueden intensificar la desigualdad”
"Me llama la atención que publicitemos nuestra vida en un sitio que pertenece a una empresa privada", apunta en esta entrevista al profesor de matemáticas aplicadas David Gómez-Ullate Oteiza, autor junto a David Ríos Insua de 'Big data' (Libros de la Catarata-CSIC).
¿Cuál es el principal riesgo del Big Data?
Cada vez empieza a haber más gente consciente de que hay que entender bien qué implicaciones tiene el Big Data. Todos usamos dispositivos electrónicos, todos usamos redes sociales… y, de alguna manera, nos hemos tragado el anzuelo con el que se crearon, y es el uso que tienen para nosotros. La gente utiliza redes sociales para poner sus fotos, hablar con sus amigos… Pero las empresas no crearon esas redes con ese fin, sino con el fin de recaudar dinero, sobre todo, por publicidad inducida y, en ese sentido, han sido supereficientes. ¿Y la gente te da todos esos datos? Le preguntan a Mark Zucherberg en la película La red social. Sí, sí, me los dan.
¿Entonces estamos vendidos sí o sí?
Ahora va llegando la regulación. Con la entrada en vigor de la Ley de protección de datos y el reglamento general hay cosas que ya no se pueden hacer sin el consentimiento expreso. En la práctica, lo que supone muchas veces es que hay un clic más para aceptar unas condiciones que casi nadie se lee. A mí me llama la atención que publicitemos nuestra vida en un sitio que pertenece a una empresa privada. Pero es difícil de parar ya porque está tan instalado en nuestra sociedad, que es complicado. Tenemos que aprender a convivir con ello y reclamar la regulación para que determinados usos estén controlados.
Recogen en el libro algunos ejemplos en salud. Aplicaciones que, con una foto del lunar, ayudan a diagnosticar de una manera más rápida un cáncer de piel, por ejemplo. ¿Generará más desigualdad? Es decir, ¿incidirá en la mayor privatización de la sanidad?
Creo que son cosas que van en paralelo. Hay una tendencia evidente a hacer negocio de la sanidad, que ya existía desde mucho antes de la irrupción de la ciencia de datos y de la Inteligencia Artificial (IA), y probablemente no vaya a parar. Pero hay una ventaja en el lado de la Administración. Este tipo de algoritmos necesita muchos datos para funcionar: para poder crear una herramienta que sepa clasificar ese tumor en función de la imagen de un lunar, en torno a 200.000 imágenes correctamente catalogadas. Y la mayor parte de esos datos están en posesión de las administraciones públicas. El que tiene los datos es el que tiene la capacidad de desarrollar todo eso. Una vez que se ha desarrollado, la aplicación es relativamente barata.
Potencialmente este tipo de tecnología puede tener efectos positivos para acercar el conocimiento a zonas donde ahora mismo no está llegando y abaratando costes. Pero que existe el riesgo de que haya gente que quiera hacer negocio es evidente.
Yo trabajo con médicos en Andalucía y cada vez son más conscientes de que esos datos tienen muchísimo valor y no firman contratos con empresas sin tener un control muy claro de lo que va a pasar con esos datos.
¿Cómo puede afectar a la banca?
El día que Amazon o Google quieran meterse en el sector bancario van a tener una ventaja competitiva frente a los bancos tradicinales, que es que conocen perfectamente a sus potenciales clientes, sobre todo si utilizan ese tipo de plataformas que mucha gente usa ya. Si Amazon sabe lo que yo estoy comprando puede estimar bastante bien mi capacidad crediticia. De hecho, Amazon tiene ya como parte de su negocio unos servicios financieros básicos, que te permiten pequeños servicios crediticios a traves de su plataforma, pero todavía no han dado el salto grande, y eso podría ocurrir y creo que lo veremos.
Y puede ser letal a la hora de dar una hipoteca…
Antes eran personas las que decidían eso, en un momento dado podían saltarse las reglas y dar un crédito a una persona del barrio que conocen de toda la vida. Había un margen de flexibilidad, había un humano tomando esa decisión, el director de la sucursal. Ahora muchas de esas decisiones las toman algoritmos y el humano lo que hace es ejecutarlas. Es un riesgo importante. Porque hay que tener un control muy claro y una auditoría sobre cómo están hechos esos algoritmos. Podría ocurrir que se discriminase a sectores de la sociedad o el sitio en el que se viva.
Los datos por sí solos no hacen nada.
Exacto. Imagina que en determinada zona de la ciudad la gente tiene un riesgo mayor de no devolver un crédito. Tu modelo basado en datos, como está viendo eso, lo que te dice es que al que venga de esa zona le tienes que poner una prima mayor. Con lo que a esa persona le estás poniendo aún más difícil su situación. Esos modelos corren el riesgo de intensificar la desigualdad y hacer círculos viciosos en una situación ya de por sí difícil. Y eso es un riesgo que está ocurriendo con los algoritmos y la IA.
¿Veremos en España un Cambridge Analytica?
No creo que seamos diferentes. Aquí llega lo mismo que llega a otros sitios. En las últimas campañas electorales hemos visto noticias falsas, cuentas falsas… Todo lo que funciona y se prueba en una campaña en un país se propaga. De hecho, Cambridge Analytica vino a España, contactaron con partidos y les ofrecieron sus servicios, pero al final creo que no los contrataron porque era bastante caro. Existen ya empresas españolas que cogen datos de Facebook para hacer eso que se llama microsegmentación, que es enviar mensajes muy dirigidos al colectivo al que quieres llegar.
El problema es la información. ¿Dónde están las fuentes fiables de la información? Siempre ha habido vinculación de los medios con el poder político, pero había unos límites más o menos claros y si se notaba demasiado se perdía credibilidad. Ahora es muy difícil saber dónde tiene que informarse uno si quiere información fiable. Y la información política explota esto hasta las máximas consecuencias. Esto ya lo estamos viviendo. No descubro nada nuevo.