reconocimiento facial

El reconocimiento facial no tiene buena cara (OjoAlDato)

 

La videovigilancia con finalidad de seguridad lleva implementada en la Estación Méndez Alvaro desde 2016.

El enlace al podcast (a partir del minuto 1:06:00).

Puedes encontrar aquí todos los audios de Ojo al Dato).

 

La Estación Sur como experimento

Estamos hablando de cámaras que captan el rostro de las personas que entran o salen de la estación y, sin lo sepan o puedan evitarlo, son comparados con bases de datos de delincuentes buscados o reincidentes. Si hay una coincidencia o “match”, las fuerzas de seguridad deciden si se les detiene o no.

Parece buena idea ¿no? Renunciar a un poco de privacidad para estar más seguro.

Es el famoso truquito de la balanza en el que siempre sale perdiendo la privacidad.

La trampa siempre es la misma: siempre hay más opciones que no te dicen. Por explicarlo con un ejemplo (es como si te dicen que lo único que puedes comer es tortilla con cebolla o sin cebolla), lo que hace falta es buscarte otro restaurante.

Se trata de no quedarse con la salida más fácil y buscar una solución que permita obtener seguridad Y respeto a la privacidad.

El artículo más detallado hasta la fecha sobre lo de Mendez Alvaro ofrece detalles preocupantes:

  • Ni siquiera los comerciantes que trabajan en tiendas de la estación sabían del uso de esta tecnología;
  • Los operadores de la tecnología consideraban que una posibilidad de coincidencia del 50-60 % era suficientemente segura.
  • Además dicen que su tecnología sigue funcionando con suficiente certeza incluso con la gente llevando mascarillas o con bufandas y gorros en los estadios de futbol (lo que hace pensar que está o estaba en funcionamiento en estadios de fútbol también) y que precisamente porque ahora la gente lleva mascarilla, esta tecnología es mucho más necesaria. What?

 

Esto no va por el RGPD, va por la «Directiva Robocop»

Cuando la finalidad del tratamiento de datos es la prevención o investigación de infracciones penales, no aplica el Reglamento General de Protección de Datos, sino una directiva que se aprobó el mismo día, la Directiva 2016/680.

Fun fact sobre esta directiva: España tendría que haber aprobado una ley en mayo de 2018 para adaptar esta directiva, y como no lo hizo, y sigue sin hacerlo, EL TJUE nos ha impuesto 15 millones de multa y 89.000 euros por cada día que pasa sin aprobarla. La noticia es del 25 de febrero, así que me salen otros tres millones de euros más a día de hoy.

 

Son los riesgos, estúpido!!

Esta tecnología tiene un riesgo enorme, y podríamos estar un mes hablando de esto.

Tres datos:

 

Uno

En Junio de 2020 distintas autoridades de la Union Europea (entre ellas el Parlamento Europeo) propusieron una moratoria de cinco años en el uso de esta tecnología. Hubo una reacción inmediata y empresas como Microsoft, IBM o Amazon anunciaron públicamente que paralizaban la comercialización de sus tecnologías de reconocimiento facial a la policía. Todo ello en el contexto del movimiento Black Lives Matter

Esta tecnología no es exacta para nada, y es especialmente inexacta con cualquier etnia distinta de la blanca, en especial con la población negra, y no hace falta recordar aquí el problemón que tiene EEUU con la policía y la población negra.

La semana pasada 70 catedráticos y expertos españoles firmaron un manifiesto en el mismo sentido. RENFE había publicado en febrero la licitación de un sistema de RF “que debía ser capaz de clasificar a los usuarios por origen étnico, vestimenta o estado de ánimo”. Fin de la cita.

Tras la correspondiente polémica, RENFE retiró el concurso y dijo que había sido un error. Pues sí, y de los gordos.

Pero se pone mejor.

 

Dos

Una compañía llamada ClearView ha descargado todas las imágenes de las principales redes sociales a nivel mundial y ofrece el siguiente servicio a las empresas: tú subes una foto y el sistema de devuelve, como si fuera un buscador más, todas las imágenes disponibles en internet de esa persona, normalmente con su nombre apellidos, dirección de correo electrónico, trabajo, cuenta de twitter, Facebook y linkedin… porque es de ahí de donde han sacado la información.

Todas estas redes sociales han prohibido a esta empresa la descarga y uso de sus imágenes, y le están lloviendo denuncias y demandas, pero da igual: el servicio es tan “útil” y tan “poderoso” que se están forrando. Además, al tener acceso a tantos datos parece que su algoritmo es especialmente eficaz y tienen un porcentaje de acierto muy alto.

Fíjate que Google y Facebook tienen ya la capacidad tecnológica y los datos para ofrecer un servicio como este ¡¡y no lo hacían!!.

Y no son precisamente famosas por respetar nuestra privacidad ni el resto de nuestros derechos.

Facebook por ejemplo, tiene patentado un sistema de reconocimiento facial que permite identificarte cuando estás en una tienda, para enviarte publicidad personalizada a través de aplicaciones de mensajería.

Tres

Y hablando de supermercados, recordemos que Mercadona , empezó a implantar el año pasado unas cámaras de reconocimiento facial que captaban las imágenes de los clientes y las comparaba (por lo visto, porque no lo explicaban muy bien) con fotografías de ladrones habituales del supermercado o personas que habían agredido previamente a los cajeros. De dónde sacaba el súper esas imágenes no lo decían.

Tampoco explicaban por qué de pronto era imprescindible ese sistema de seguridad al que tenías que someterte por narices si querías comprar en la tienda.

La AEPD abrió una inspección y el supermercado interrumpió el tratamiento.

EL mismísimo Presidente del EDPS en un webinar sobre la materia hizo referencia a este caso, en tono “admonitorio”.

Un par de detallines más

Dos cosas más para terminar: una vez que han extraído de una imagen tuya el patrón biométrico de tu cara, se puede utilizar para “proteger tu seguridad” o literalmente para cualquier otra cosa, sin tu conocimiento ni consentimiento.

Además está el efecto “Delorean”, el coche ese guay de “Regreso al futuro”. Una vez que tienen el patrón biométrico de tu carita y la tecnología, pueden analizar todos tus caretos pasados (imágenes, vídeos) que estén registrados por ahí o disponibles online y offline, -con la suficiente resolución- e identificarte en ellas, y ver si participaste en esa manifestación, ibas borracho por esa calle, botaste en ese concierto, le dijiste eso al árbitro, entraste en ese, ejem, local, tomaste café con uhm, ya tú sabes, triunfaste (más o menos) de la cuenta, llegaste a tener esa peazo lorza, te vestiste con eso otro que quieres olvidar, etc…

En dos palabras: cero control sobre tus datos. Sobre tu vida. 

En definitiva, el reconocimiento facial puede ser muuucho más peligroso que tu madre con ese album de fotos viejas y tus amigotes a mano.

Todo ello es perfectamente posible hoy. China está más cerca de lo que crees, pequeño padawan.

Falta saber si nos dejamos.

 

Jorge García Herrero

Delegado de Protección de Datos