RECONOCIMIENTO FACIAL, PRIVACIDAD Y PROTECCIÓN DE DATOS

¿Las tecnologías de reconocimiento facial presentan más riesgos que beneficios? Estamos ante, al menos, dos modelos para la utilización de estas aplicaciones: Europa, con su normativa (RGPD) protectora de la privacidad junto a China y Rusia, con implantaciones que mejoran la seguridad y el acceso a servicios pero también extienden políticas de vigilancia sobre sus ciudadanos. En el reconocimiento facial tenemos otro terreno de gran importancia para los profesionales en privacidad y protección de datos. 

En Europa se presentan controversias complejas cuando se habla de reconocimiento facial, dada la naturaleza protectora de los derechos ciudadanos que muestra el Reglamento General de Protección de Datos (RGPD). Pero el hecho es que numerosas compañías y ciudades de todo el mundo utilizan esta tecnología, habitualmente en sistemas de vigilancia y seguridad.

En la ciudad de Nueva York, por ejemplo, hay 15 mil cámaras conectadas a un sistema de reconocimiento facial del que se vale el Departamento de Policía para localizar a delincuentes buscados o sospechosos de distintos delitos. Otro país donde el reconocimiento facial se implanta aceleradamente es China, siendo incluso obligatorio para algunas operaciones comerciales.

El gran peligro para la privacidad y la protección de datos , en el caso de los dos gigantes económicos, es que esta tecnología puede realizar comparaciones con imágenes del propio individuo identificado, extraídas sin su consentimiento de las redes sociales y de fuentes de diversa índole. Lo anterior sin contar que el reconocimiento puede terminar fortaleciendo el señalamiento a X colectivos vulnerables.

Sin embargo, al interior de nuestras fronteras el RGPD no permite someter a tratamiento los datos biométricos de forma indiscriminada con el fin de generar una completa identificación de una persona, sobre todo si el sistema no contempla adecuadamente todos los principios de protección de datos.

Aunque esta normativa protectora de los datos personales necesariamente convive con iniciativas de seguridad donde participan gobiernos europeos preocupados por la seguridad (tenemos el caso del sistema de reconocimiento facial en estadios de fútbol y otros lugares), es necesaria la debida ponderación (necesidad y proporcionalidad) entre la potencial pérdida de derechos y los beneficios generales para el interés público (relación coste-beneficio inherente al tratamiento de datos personales).

Sin embargo, una muestra de la cultura de protección de datos existente en Europa, por ejemplo, en torno al problema del reconocimiento facial, son los pasados informes de la Agencia Española de Protección de Datos (AEPD). La postura de la autoridad española competente en materia de protección de datos sobre la utilización del reconocimiento facial en el sector bancario no parece ser favorable; básicamente, por ser demasiado intrusiva, recolectar más datos de los estrictamente necesarios y ser algo difuso el consentimiento con relación al tratamiento de datos especialmente protegidos como son los datos biométricos.

A lo anterior sumemos la pasada sentencia de la Audiencia Provincial de Barcelona sobre la utilización de esta tecnología por parte de la red de supermercados Mercadona, la empresa no perseguía un interés público, como la seguridad, sino privado (al intentar identificar a sujetos específicos). Recordemos que en junio pasado el Comité Europeo de Protección de Datos y el Supervisor Europeo de Protección de Datos volvieron a abrir el debate sobre la utilización de tecnologías basadas en Inteligencia Artificial en los espacios públicos, entre otros fines, para implantar sistemas de reconocimiento facial.

RECONOCIMIENTO FACIAL Y PROTECCIÓN DE DATOS

La discusión que tenemos respecto a esta tecnología tiene varios ángulos. En la base tenemos el mismísimo origen de la mayor parte del hardware y software utilizado: China, donde las políticas de privacidad y protección de datos tienen grandes diferencias respecto a Europa. Posteriormente, tenemos los lugares donde estos modelos de vigilancia han visto más profundización. En el caso de la Federación Rusa, 100 mil cámaras en las calles de Moscú reforzaron la vigilancia en el 2020, durante las etapas más duras de la pandemia. La disposición de estas redes de cámaras para el reconocimiento facial permite que sean conectadas a sensores que estiman la temperatura corporal. Como resultado, las autoridades podían obtener una geolocalización de un ciudadano posiblemente contagiado.

Tal vez conviene recordar que estamos hablando de sistemas de Inteligencia Artificial. Es decir, se trata de algoritmos que pasan por varias fases de entrenamiento. Ahora bien, ¿de dónde sale la ingente cantidad de fotografías necesarias para entrenar un sistema de reconocimiento facial que se pretende implantar en una gran ciudad?

En efecto, al parecer los datos salen de un trabajo de rastreo profundo en las redes sociales. En enero del 2020 el diario The New York Times publicó que la compañía Clearview AI había creado una base de datos con 3 mil millones de fotografías extraídas de cuentas en redes sociales de todo el mundo. Estos datos sirvieron para desarrollar una sofisticada aplicación de reconocimiento facial que pronto fue utilizada por la policía del Estado de la Florida, luego por el FBI y luego por el Departamento de Seguridad Nacional de Estados Unidos. El diario estima que unas 600 agencias ligadas a seguridad y mantenimiento del orden público han utilizado esta aplicación, redibujando lo que expertos y especialistas entendían por privacidad y protección de datos.

La medición de los rasgos faciales, desde múltiples fuentes de datos, para generar un modelo en tres dimensiones es un enorme logro tecnológico, no cabe duda. El problema es la seguridad frente a la utilización fraudulenta, el peligro para los derechos fundamentales, etc. Incluso, los científicos de datos de China, el país que lidera estos desarrollos, reconocen uno de los peligros más importantes: el robo de identidades y, cómo no, los errores de identificación (falsos positivos y falsos negativos) que pueden tener consecuencias no deseadas sobre los derechos y libertades de las personas.

Por otra parte, los defensores del reconocimiento facial tienen múltiples argumentos sobre aplicaciones de esta tecnología que no se relacionan con acciones policiales y de control. Tenemos, por ejemplo, la localización de niños o personas desaparecidas, la personalización de servicios y consumos (que paralelamente genera datos susceptibles de ser analizados), la identificación facial puede terminar con otros intercambios de datos, etc.

Un experto o especialista en protección de datos sabrá diferenciar en el reconocimiento facial, o en un tratamiento de datos biométrico, entre conceptos como identificación y autenticación. La biometría es un terreno que en ocasiones implica tener en consideración matices con interrogantes lejos de resolverse de una forma general, sino que a menudo va a requerir del análisis específico de cada caso concreto por parte del profesional de la privacidad. En esta temática, la dicotomía seguridad y mejora de servicios-productos frente a derechos-privacidad se convierte en una de las razones por las que la protección de datos es uno de los grandes sectores profesionales de la actualidad.


Experto, Especialista y Máster en el Reglamento General de Protección de Datos (RGPD) de la UNED y la AEPD: Matrícula abierta

 

Compartir:

Email de información: jglez@cee.uned.es - rhc@agpd.es

Ir arriba