Reconocimiento facial, seguridad y derecho a la privacidad

Ya se han presentado casos donde autoridades han prohibido el uso de inteligencia artificial destinada a la identificación facial, debido a los problemas con la privacidad. Una de las cuestiones neurálgicas recae sobre los profesionales que dominan la normativa sobre protección de datos personales.

La identificación facial no es una tecnología recién llegada, es usada en distintos ámbitos relacionados con la seguridad: operaciones bancarias, apertura de equipos electrónicos, seguridad en la red de transportes o la búsqueda de sospechosos en grandes masas humanas.

Como seguramente recordaremos, se han utilizado aplicaciones en grandes eventos para identificar acosadores y a otros sujetos. Estas acciones encierran un fuerte debate todavía sin resolver. La intención, por parte de organizaciones públicas o privadas, de utilizar reconocimiento facial ha venido generando inquietud entre los expertos en derechos humanos. En esto nos enfrentamos a un dilema de alta carga ideológica, política y jurídica desde los tiempos posteriores al 11-S: ¿Cuál será nuestro límite respecto al recorte de intimidad (por lo tanto, de libertades) en pro de la defensa y la seguridad?

En los EE. UU, Estados como California o Massachusetts ya están experimentando procesos que buscan prohibir o limitar el reconocimiento facial como método de vigilancia por parte de las autoridades locales o federales.

¿QUÉ SE HACE CON EL RECONOCIMIENTO FACIAL?

Ahora bien, los expertos, ingenieros, etc. saben que el desarrollo de la inteligencia artificial no va a detenerse, y generará herramientas que pueden usarse, básicamente, en dos vías: para mejorar nuestras condiciones de vida (lo que puede incluir o no a la seguridad) o para generar preocupación por la transformación de nuestros derechos.

Es decir, sabemos bien que una aplicación de reconocimiento facial en un dispositivo móvil podría resultar útil e incrementar la seguridad, por ejemplo. Pero también es cierto que esa imagen puede quedar almacenada en un servidor y ser objeto de algún tipo de tratamiento automatizado con una finalidad distinta a la conocida por el propio interesado. Sobre lo que se almacena en local y lo que se envía a la nube, este es otro frente que tenemos abierto con relación al desarrollo tecnológico.

La problemática es más bien sencilla: la imagen de nuestro rostro puede estar almacenada en múltiples lugares (debido al amplio uso de vigilancias soportadas en vídeo), los transportes urbanos, los aeropuertos, los bancos, puntos de tránsito fronterizo, museos, edificios públicos, etc. Una solución en inteligencia artificial podría rastrear, combinar y generar una especie de “expediente virtual” sobre nosotros. Esto sería, sencillamente, el fin de la vida privada tal y como la conocemos.

Los expertos en protección de datos personales podrían alertar acerca de las posibilidades del reconocimiento facial para crear perfiles extremadamente precisos sobre nuestros consumos, pertenencias sociales, culturales o políticas, etc. Supongamos que una inteligencia artificial hace uso del reconocimiento facial y logra encontrarnos en un determinado tipo de establecimientos comerciales, entrando o saliendo de asociaciones culturales, organizaciones políticas, deportivas o religiosas, siguiendo rutas determinadas en el metro, los trenes o la red de carreteras. El nivel de profundidad que esa información daría sobre lo que compramos, pensamos o a dónde vamos resultaría de un valor muy importante.

La cuestión giraría, en parte, sobre la posibilidad de aplicar filtros, sesgos o condicionantes a un reconocimiento que podría hacerse masivo e indiscriminado. Por supuesto, estas aplicaciones tienen todavía cierto desarrollo por delante, dado que en el pasado hemos conocido escándalos de distinta gravedad por los errores que el reconocimiento facial continúa cometiendo.

Por nombrar un par de ejemplos, recordemos el “algoritmo racista” de Google o la aplicación de Amazon que confundió a 28 congresistas estadounidenses con sospechosos en las listas de la policía. El caso generó una enérgica protesta de la Unión Estadounidense por las Libertades Civiles (ACLU).

Una parte de los problemas encontrados en los algoritmos es heredada. Es decir, la programación de éstos y la analítica masiva de datos que desempeñan pueden replicar nuestras propias incongruencias, sesgos y fallos como sociedad. Un ejemplo claro, son las dificultades que surgen cuando trabajan con imágenes de personas con distinto color de piel. En el algoritmo de Amazon, un 40% de los fallos fueron con personas de piel negra (que tan solo son el 20% de los 535 congresistas estadounidenses del momento).

Algunos datos afirman que, durante este 2019, el volumen de negocio que alcanzarán en el mundo las tecnologías de reconocimiento facial ascenderá a 1.200 millones de dólares. Son usadas con amplitud en los EE. UU, Suecia y Japón. Este último ya usó masivamente cámaras de reconocimiento facial en el 2018, durante los juegos paraolímpicos. En el 2020 será sede de los Juegos Olímpicos, donde las autoridades proyectan usar software para identificar en tiempo real a posibles terroristas y otros delincuentes entre la muchedumbre.

La “huella facial” es almacenada para operaciones de comparación en algunas tiendas y centros comerciales de los Estados Unidos, con objeto de impedir la entrada a personas con distintos antecedentes, como el hurto. En Suecia se está usando esta tecnología para controlar la asistencia de los niños y niñas a los centros de enseñanza. Y China, un país que viola los derechos humanos a escalas industriales, al parecer, tiene ya 176 millones de cámaras para reconocimiento facial. 

Por supuesto, el reconocimiento facial está siendo introducido en el mercado como una medida de seguridad, para desbloquear un iPhone, por ejemplo. Pero también se recurre a algunos de nuestros grandes temores de estos tiempos, como el cuidado de los niños/as: esta tecnología podría usarse para localizar a un menor perdido por sus padres en una gran ciudad, como Nueva York, Hong Kong o Berlín, mientras están de vacaciones.

La cuestión de la seguridad se profundiza todavía más, nombremos un ejemplo que ha dado de qué hablar: la compañía EverAlbum.com, asentada en Silicon Valley, tiene entre sus clientes importantes a las agencias de seguridad y al Ejército del país. Al parecer, han vendido gran cantidad de imágenes, fotos de personas almacenadas en sus servidores, destinadas a labores de vigilancia y espionaje. Recordemos que EverAlbum.com tiene como producto estrella la creación de álbumes de fotos con los “mejores recuerdos” de sus usuarios, han entregado imágenes a las autoridades para labores de reconocimiento facial, entre otras. En el 2018 se supo, otro caso, que la compañía Vigilant Solutions vendió al Servicio de Inmigración y Control de Aduanas de Estados Unidos imágenes de matrículas de coches sin previa autorización de sus dueños.

RGPD

Y no olvidemos las medidas recientes en Europa, donde el Parlamento ha aprobado la creación de un base de datos biométricos, de la huella dactilar o el rostro de los ciudadanos dentro del territorio de la Unión. Con todo, el escenario europeo es muy distinto, aquí tenemos el Reglamento General de Protección de Datos, que incluye aquellos datos biométricos con capacidad de identificación entre la información personal objeto de protección legal. Su uso está facultado para la investigación de delitos, sin obviar que la cuestión del “consentimiento” tiene un estatus muy importante en esta normativa.

No existen dudas sobre el carácter imparable de estas tecnologías para el reconocimiento facial y sus múltiples usos. Así como de la necesidad, por parte de Administraciones, compañías y organizaciones, de contar con un dominio integral de la normativa que afecta estas acciones, en concreto, del Reglamento Europeo de Protección de Datos.

De los anterior, a su vez, se desprende un segundo y orden nuevo de necesidades: cuadros productivos con formación universitaria en el RGPD. En España existe un Programa Modular destinado a toda la comunidad iberoamericana: el curso de Experto, Especialista y Máster en el RGPD organizado e impartido por la UNED y la Agencia Española de Protección de Datos.      

Compartir:

Email de información: jglez@cee.uned.es - rhc@agpd.es

Ir arriba