Sociedad
Privacidad o salud: ¿el nuevo susto o muerte?
La crisis sanitaria provocada por la pandemia COVID-19 ha acelerado la implantación de tecnologías de Inteligencia Artificial para vigilar a la población argumentando que así se frenarán los contagios. Pero ¿cómo nos pueden ayudar exactamente? Y ¿hasta dónde nos dejaríamos vigilar a cambio de una supuesta protección de nuestra salud?
El colapso sanitario, político, social y psicológico que ha provocado la pandemia de la COVID-19 ha desembocado en una lógica y desesperada búsqueda de soluciones para frenar los contagios de un virus del que aún sabemos poco. El supuesto éxito de las medidas de control social adoptadas por China, una opaca dictadura, pero también de países como Singapur y Corea del Sur, con notables diferencias entre ellos, ha tentado a las administraciones europeas a implantar medidas similares.
En el caso español, poco después de que se declarase el estado de alarma el 14 de marzo, colapsaban las líneas telefónicas destinadas a que la ciudadanía pudiera autodiagnosticarse y evitar así la saturación de las salas de urgencia. Fue entonces cuando las comunidades de Madrid y Catalunya, y poco después el Ministerio de Sanidad, ponían en marcha aplicaciones móviles con la misma función: un triaje previo de análisis de riesgo basado en los síntomas. En el caso madrileño, sus programadores tuvieron que hacer importantes modificaciones tras presentarla públicamente porque recogía más datos que los declarados inicialmente. Y en los anuncios públicos de las otras dos app, se dejaba abierta la posibilidad de que en el futuro se habilitase el uso de la geolocalización. Unas propuestas que han servido para relanzar el debate de hasta dónde estamos dispuestos a dejarnos vigilar a cambio de una supuesta protección de nuestra salud. De nuevo, el falso dilema entre libertad y seguridad que se implantó a raíz del 11-S.
“Lo primero que tenemos que preguntarnos cuando un gobierno habla de una nueva app es para qué, porque normalmente se trata de humo, aunque se inviertan muchos recursos y esfuerzos en ellas”, comienza advirtiendo Simona Levi, impulsora de la plataforma Xnet, especializada en democracia en red, derechos digitales y libertad de expresión, además de promotora de 15MparaRato, la iniciativa que logró llevar al vicepresidente del gobierno del PP Rodrigo Rato a los tribunales, donde fue condenado por el uso de las tarjetas black en Bankia y Caja Madrid.
Alarma social
“La pirámide de razonamiento está siendo al revés. La Administración tendría que empezar preguntándose cómo estas aplicaciones podrían mejorar el sistema de rastreo de contagios que existe desde que se estudia la epidemiología hace siglos. El traceo manual que se está realizando en los hospitales, preguntando a los pacientes contagiados con quién han tenido contacto es el más fiable, porque el Bluetooth abarca una horquilla de entre 10 y 250 metros y no distingue, por ejemplo, si hay tabiques de por medio. ¿A cuántas personas se podría alertar entonces si se automatiza esta respuesta? ¿30, 300, 3000 al día? Se podría generar incluso alarma social”, señala Levi.
La ley de conservación de datos relativos a las comunicaciones electrónicas y a las redes públicas de comunicaciones, de 2007, obliga a que las empresas de telecomunicaciones guarden todos los datos sobre nuestras interacciones –llamadas, mensajes, localización, conexiones a wifi, intercambio de archivos por Bluetooth… – durante un año por si fuese requerida para una investigación judicial. Solo puede ser consultada en ese supuesto, y una vez transcurrido ese periodo, ha de ser eliminada. “¿Si ya tienen nuestra geolocalización y si no sabemos qué podrían aportar estas aplicaciones al traceo personal –el que mejor ha funcionado en los países asiáticos, por cierto–, para qué invertir recursos y esfuerzos en ellas? Además ya hay cinco app colgadas que funcionan con Bluetooth, ¿para qué otras nuevas?”, plantea Levi.
Gemma Galdón, analista de políticas públicas especializada en vigilancia y el impacto social, legal y ético de la tecnología, entre otras cuestiones, recuerda que ya existen maneras de recopilar toda esta información sin violar la intimidad de la ciudadanía. “Hay mecanismos de interacción entre teléfonos móviles que podrían enviar un mensaje de alerta a las personas con las que una contagiada ha pasado más de 15 minutos sin que supieran de quién procede el riesgo. Se trataría del rastreo descentralizado que garantiza que los Estados no acceden a la información con datos personalizados. Es el modelo que apoyan tanto el Parlamento Europeo como el supervisor de protección de datos europeo”, explica.
Unos datos que ya tienen empresas como Google, como leemos en El enemigo conoce el sistema, de la periodista especializada en tecnología Marta Peirano. “Entre 2008 y 2010, los coches de Google salieron a fotografiar las calles de más de 30 países […]. Los coches iban capturando todas las señales wifi de todos los edificios por los que pasaban, incluyendo los nombres de las redes (ESSID), las IP, las direcciones MAC de los dispositivos. También se embolsaron gran cantidad de correos privados, contraseñas y todo tipo de transmisiones emitidas por redes abiertas y routers domésticos mal protegidos”. Pero, como explica la experta en soberanía tecnológica, “el dato más valioso sobre una persona no son sus correos personales sino su posición geográfica”. Sabiendo dónde está una persona en cada momento de su vida lo sabremos todo de ella y de su personalidad. Y nuestros terminales le regalan toda esa información a las aplicaciones que tenemos instaladas.
El desprestigio de lo manual
Gemma Galdón cuestiona el tecnooptimismo o tecnosolucionismo por el que, critica, “parece que la tecnología puede solucionar cualquier problema. Hay una sensación de que si lo decide una máquina, yo me quito la responsabilidad de encima. Esta pandemia ha recrudecido esta percepción. Hay cierto desprecio por todo lo que no sea tecnológico, cuando lo que mejor ha funcionado es el seguimiento manual de cada persona contagiada y sus interacciones”, subraya esta experta que asesora a una decena de países sobre políticas de seguridad y privacidad. “En la Administración se trabaja muy poco la privacidad en el uso de la información. Nos encontramos con contratos de compra de softwares en los que ni siquiera se especifica que la empresa vendedora no puede utilizar los datos recopilados”.
Ante las cifras descomunales de la pandemia –más de tres millones de personas infectadas y 220.000 fallecidas en todo el mundo al cierre de esta edición–, el recurso del Big-Data o bases de datos digitales ha emergido como una de las respuestas más lógicas. Al mismo tiempo, en España, donde ya son más de 227.000 los casos oficialmente identificados de COVID-19 y más de 26.600 los muertos a fecha del 12 de mayo, la pandemia ha evidenciado el desastre del sistema público de salud en la recopilación de datos, como reconoció el ministro Pedro Duque en una entrevista en El País. Un problema de registro que no es exclusivo de España.
“No estaríamos en esta situación de desconocimiento si alguien hubiese auditado los sistemas de recogida de datos de los hospitales a nivel autonómico y central. No es un trabajo titánico, pero no se hizo porque cada uno tiene licitaciones diferentes. Hay mucha gente que no ha hecho los deberes en los últimos años. Cuando auditamos contratos públicos de softwares nos encontramos barbaridades: contratos en los que no se recogen los aspectos más básicos, y otros en los que sí, pero luego no instalan correctamente los programas; otros en los que cuando pedimos a la empresa contratada el algoritmo, nos lo niega basándose en derechos de propiedad intelectual”, desembrolla Galdón. “Tanto la ciudadanía como la administración tienen el derecho de saber en función de qué toman esas decisiones los algoritmos. Pero al no tener todo esto bien organizado, llega la COVID-19 y solo se puede frenar confinando a la gente en casa y cargándonos la economía”, añade.
Este no es el único aspecto que preocupa a Galdón sobre la aceleración con que se implantan mecanismos de vigilancia: “La penetración de softwares de grandes multinacionales en un ámbito tan sensible como la educación de los menores ha sido brutal: sus caras están pasando por servidores de empresas americanas sin explicar qué van a hacer con esa información. La infraestructura de la educación pública debería ser pública, en lugar de estos servicios gratuitos de empresas de otros países. Recordemos que cuando no pagas por algo el producto eres tú. Y en este caso, lo que están haciendo es vender los datos de nuestros niños y niñas al mejor postor”.
Las consultas que recibe Galdón estos días son la punta de lanza de los temas sobre ciberseguridad que nos asaltarán en el futuro inmediato. Por ejemplo, empresas preocupadas porque sus trabajadores, ahora confinados en sus hogares, puedan estar compartiendo inconscientemente información sensible de sus clientes con sistemas de escucha como Siri o Alexa durante las llamadas y videoconferencias. O compañías que ahora están buscando softwares para controlar que su personal esté cumpliendo con los horarios “entrando en territorios legales grises. Hay que tener presente que hemos pasado de un 4% a un 88% de teletrabajo del día a la mañana, sin un marco que lo regule”, añade. Un teletrabajo que ahonda en la desigualdad de género, además.
Todo esto en medio del riesgo de lo que Galdón llama un “teatro pandémico. Por ejemplo, la instalación de sistemas para trasladar la imagen de que hacen algo aunque sea inútil, como las cámaras termales para medir supuestamente la fiebre –aunque solo miden la temperatura superficial–, y cuando es solo uno de los síntomas, que ni siquiera tienen los asintomáticos. Eso sí, se ponen en espacios públicos en los que pueden recopilar información e imágenes sensibles”.
Medidas que se evidencian inútiles cuando se recuerda que la Inteligencia Artificial y los algoritmos hacen previsiones con datos históricos, algo que no tenemos de esta pandemia. Por ello, Galdón coincide con Simona Levi en que “es un problema que los gobiernos dediquen tiempo y esfuerzo, precisamente lo que nos falta, a cosas que saben que no funcionarán”.
AL NO PODER ACEPTAR QUE SOMOS LIBRES EN JAULAS, NOS MOVEMOS EN MUNDOS DE PALABRAS QUERIENDO SER LIBRES (Daniel Fernández Abella)
La Marea Blanca, el movimiento de profesionales sanitarios que durante la crisis anterior protestó por los recortes de la sanidad pública, fue ignorada, menospreciada o incluso criminalizada por muchos que hoy aplauden desde el balcón. ¿Cuando todo esto acabe, volverán a acogerse al argumentario de su partido de cabecera y mirarán para otro lado ante el maltrato a la sanidad de todos? ¿O habrán aprendido algo? No sirve de nada llamar héroe a un trabajador que no quiere heroicidad, sino buenas condiciones para cuidar a la población.
(Preguntas para después de una pandemia – CTXT)
———————————————–
No discuto que China no sea una dictadura; pero no olvides, Patricia, que la dictadura más letal es la capitalista a cuya órbita pertenecemos y mira si será peligrosa que han conseguido que le llamemos la democracia.
Breve reflexión de 6 minutos sobre Vigilancia y Big Data:
https://www.youtube.com/watch?v=pf3nKAj-l3I
Espero que sirva para algo.
Interesante. Pero no estoy completamente de acuerdo cuando se dice : «En la Administración se trabaja muy poco la privacidad…», porque creo que sí se hace pero no para cuidarla precisamente, quiero decir que pienso que no es un descuido o falta de interés, si no todo lo contrario.