Big Data: Falsos Dilemas

Los Falsos Dilemas del Big Data y el «Privacy by Design» como Respuesta

La Historia del «Big Data Restaurante»

Imagínese que cena usted en el restaurante “Big Data”, famoso por tener la mejor bodega de vinos de la ciudad.

.- ¿Tomarán vino los señores?

.- ¡Por supuesto!

.- Verán, sólo les podemos ofrecer dos vinos: el mejor es el Vega Sicilia Único: son dos mil floros la botella.

.- Espero que tenga también un desfibrilador. Y a mano.

.- No se preocupe. También tenemos el vino de la casa. Este vino es gratis. Simplemente tiene que pulsar “Acepto” el final de estas 165 páginas de condiciones generales.

.- “Acepto”

La cena estuvo bien, pero el vino de la casa era una porquería.

Uno se puede consolar pensando que por lo menos fue gratis.

Pero no, en realidad el vino no fue gratis.

Ese Vega Sicilia no era una verdadera opción.  El «Big Data» nos la metió doblada con el truco del “falso dilema”.

El Big Data de verdad

El Big Data tendrá tal importancia en nuestras vidas mañana, (lo de hoy no es nada, esto no ha hecho más que empezar) que es necesario empezar a tener un par de cosas claras hoy. Y no las tenemos claras.

Con lo rápido que avanza la tecnología, y lo lento que es el derecho, no podemos aceptar ciertos planteamientos en forma de dilemas artificiosos. En especial, cuando uno de los valores en juego es la privacidad.

Estos falsos dilemas, se suelen presentar en forma de inevitables vasos comunicantes:

  • Privacidad vs Seguridad (por ejemplo, cuanto más escrupuloso es el secreto a las comunicaciones privadas, más difícil es mantener la seguridad de la sociedad que las disfruta).

  • Privacidad vs Utilidad (por ejemplo, cuanto más eficazmente se anonimiza una base de datos personales, menos provecho puede extraerse de su estudio).

  • Privacidad vs Beneficio empresarial (por ejemplo, que si Google, Facebook, Twitter fueran realmente respetuosos con nuestra privacidad, no podrían facilitarnos gratis sus servicios).

Big Data: Falsos Dilemas

Fotografía de Oliviero Toscani

Falsos Dilemas, Falsas Dicotomías

El concepto de “falso dilema” o “falsa dicotomía” fue acuñado hace ya veinte años por Ann Cavoukian, la Doctora afincada en Canadá creadora del estándar “Privacy by Design”.

El Reglamento General de Protección de Datos europeo, ha asumido este estándar a lo largo de su articulado.

Ann Cavoukian defiende la necesidad de superar esos falsos dilemas, en los que sólo se puede favorecer uno de los valores en juego, perjudicando a la vez al otro en la misma medida.

Cavoukian califica este planteamiento como de “suma cero”, y denuncia cómo siempre que la privacidad juega bajo sus reglas, sale invariablemente derrotada.

Eliminatorias a doble partido vs. Selección Nacional 

Uno de los siete principios fundamentales del estándar Privacy by Design consiste en integrar la protección de la privacidad en el mismo diseño (a nivel nuclear, y mucho antes de que empiece siquiera a funcionar) de cualquier tecnología informática, modelo organizativo o ecosistema informático conectado.

La protección de la privacidad coexistirá con la finalidad o funcionalidad de esas tecnologías, modelos o ecosistemas o, en caso contrario, habrá que rediseñarlos, hasta que ambos valores sumen simultáneamente en el resultado final.

El planteamiento de Cavoukian es el de “win-win”, superando el falso dilema de “suma cero”.

«Cavoukian califica este planteamiento como de “suma cero”, y denuncia que siempre que la privacidad juega bajo sus reglas, sale invariablemente derrotada»

Afortunadamente el Reglamento General de Protección de Datos europeo ha acertado en su planteamiento: ha preferido que nuestro equipo sea una combinación de los mejores jugadores disponibles, en vez del equipo que haya conseguido eliminar al resto en sucesivas eliminatorias.

Big Data: Falsos Dilemas

Foto de Oliviero Toscani

Decisiones Automatizadas: el ejemplo de la UCI

El Big Data es una herramienta decisiva para minimizar el error humano en ámbitos en los que el error es relativamente frecuente y tiene consecuencias sustanciales.

En su libro, Steve Lohr apunta a las unidades de cuidados intensivos de los hospitales.

En una UCI de veinte camas, se generan 160.000 datos por segundo.

Los profesionales sanitarios (doctores, enfermeras) pueden llegar a tomar hasta 100 decisiones al día sobre un solo paciente. La mayor parte de las cuales son decisiones rápidas.

Steve Lohr destaca el amplio margen de riesgo para el error en estas decisiones y la utilidad de integrar procesos de inteligencia artificial para reducirlo.

Todo es cierto. Pero también es cierto que, antes de que se autorice la automatización de la mayor parte de esas decisiones que hoy abruman a los médicos, necesitamos recorrer un largo camino y decidir aspectos como por ejemplo, el perímetro de la supervisión humana, la responsabilidad en caso de mal funcionamiento, y un buen plan de contingencias.

Tres cuestiones:

  • Pensemos que un ciberataque DDoS puede perfectamente tener como objetivo una plataforma tecnológica sanitaria.

  • Otro aspecto preocupante es la integración de directrices discriminatorias en sistemas automatizados, que se apliquen sin control o conocimiento de los ciudadanos sometidos a ellas.

    Incluso sin control o conocimiento (por falta de preparación técnica o incluso interés) de la empresa que subcontrate ese sistema automatizado. Aquí un ejemplo muy reciente.

  • Y es también evidente que tendremos que decidir las garantías que merece la privacidad de las personas que ocupan esas veinte camas, y cuyos datos serán registrados, analizados, reanalizados y ordeñados, en el nombre de la salud, el progreso, y probablemente la cuenta de resultados de una o varias empresas.

Este es uno de los falsos dilemas recurrentes del Big Data: parece que las virtudes de la automatización de decisiones, disminuirán con cualquier control humano, o que la automatización del sistema traera consigo invariablemente decisiones frías, perjudiciales para los grupos sociales y económicos más débiles.

“Always Do the Right Thing”

No tiene que ser necesariamente así: “simplemente” hay que hacer las cosas bien.

Idear una solución “win-win” a estas cuestiones no es tarea sencilla. Por supuesto.

Lo que no es aceptable es plantearlas como dilemas o vasos comunicantes, para inmediatamente desahuciar la protección de la privacidad o la cuestión ética en beneficio del progreso tecnológico, como si cualquier otra opción resultara imposible.

El artículo 22 del Reglamento General tiene una o dos cosas que decir en este sentido.

Big Data: Falsos Dilemas

Fotografía de Oliviero Toscani

El Dilema del Consentimiento del Usuario: condiciones generales bíblicas, o insultos telegráficos a la inteligencia

Soy un usuario medio de tecnología. No puedo seguir utilizando Whatsapp sin aceptar la nueva versión de sus condiciones generales (ese rollo de que van a compartir mis datos con Facebook): algo que ni siquiera entiendo bien, ni por qué es tan importante o perjudicial.

Nunca he leido unas condiciones de uso antes de aceptarlas. La vida es demasiado corta.

Pero tengo un amigo abogado que sí las lee, y lo que me dice es que, esencialmente, hay dos tipos de condiciones generales:

  • Las que son demasiado farragosas y descriptivas. Me dice que las entiende él que se dedica a esto, pero que yo no las entendería. (Y que si yo las entendiera, realmente me pensaría dos veces si aceptar o no).

  • Las que son cortitas y simples. Estas las puedes leer sin morir en el intento. Pero parecen escritas para tontos. Y como consecuencia de su sencillez, realmente son insuficientes: no son lo suficientemente expresivas o detalladas como para que el aceptante realmente entienda las consecuencias de pulsar “Acepto”.

Esto es lo que se denomina la “paradoja de la transparencia”. Y es otro falso dilema. Falso e inaceptable.

Podemos discutir cuál sería la mejor forma de conciliar sencillez y especificidad en la información que necesito recibir para otorgar un consentimiento válido. Hagámoslo.

Es evidente de nuevo que la tarea no es fácil. Que el usuario no muestra demasiado interés en conocer las consecuencias que tendrá su consentimiento.

Pero que no le importe no es un problema distinto, es el mismo: no le importa precisamente porque aún no es consciente de todas las consecuencias de pulsar esos botoncitos de “Acepto”.

 «Un acercamiento mucho más respetuoso con los usuarios sería, por ejemplo, que quien utilizara Gmail, Facebook, Twitter o Prisma recibiera el servicio o la aplicación configurado por defecto con la configuración más respetuosa con su privacidad.»

(El principio de “Privacidad por Defecto” es otro de los principios fundamentales del estándar “Privacy by Design”).

Que Google, Facebook, Twitter o Prisma necesitaran recabar de nuevo el consentimiento del usuario para cada nuevo tratamiento de sus datos, con finalidad distinta a la autorizada.

Que la información suministrada al usuario fuera más clara y específica cuanto más intrusiva para su privacidad resultara el nuevo tratamiento. (El «empoderamiento del usuario» es otro más de los principios del Privacy by Design).

Conclusión: sea o no difícil, guste o no, el “Privacy by Design” viene directo hacia nosotros

El estándar Privacy by Design es como un Vega Sicilia: conseguirlo cuesta, pero cuando uno lo prueba, la experiencia no se olvida.

«El usuario-comensal puede estar tranquilo: el Reglamento Europeo ha elegido consagrar la privacidad desde el diseño, el Vega Sicilia de la privacidad.»

Estos tiempos de garrafón que vivimos tienen fecha de caducidad: en mayo del 2018, con la entrada en vigor del Reglamento, sólo se podrá servir Vega Sicilia en la mesa de la privacidad.

El Riesgo de No Hacer Nada

Y al que intente poner vino del malo, con falsos dilemas o no, le esperan sanciones de hasta el 4% de su facturación anual mundial.

Ahora señores, toca ponerse las pilas (y ya estamos tardando).

Buena semana

Jorge García Herrero. Abogado.

Contácteme en jorge.garcia.herrero@gmail.com o en @jgarciaherrero