Experto, Especialista y Máster en el Reglamento General de Protección de Datos - UNED

Los grandes servicios de Internet, como Google Shopping, por ejemplo, funcionan sobre algoritmos con un gran poder sobre lo que el usuario ve en los primeros resultados de sus búsquedas. Esto los convierte en una herramienta capaz de reorientar sensiblemente nuestro comportamiento como consumidores. Para hacerlo necesitan acumular grandes cantidades de datos.

Continuando con el ejemplo de Google Shopping (un servicio que permite comparar precios y tomar un “atajo” rápido a la compra de productos en la Red), recordemos el sonado caso tratado por el Tribunal de Justicia de la Unión Europea en el 2017, donde los demandantes intentaban defenderse de un cambio en los algoritmos que les envió hasta la tercera página de búsqueda, algo que puede traducirse en una drástica caída de las ventas.

La cuestión es que una compañía de cierto tamaño probablemente tenga los medios para investigar y presentar recursos ante la justicia, que terminen generando algún debate social y académico sobre esos conjuntos de operaciones lógicas que deciden lo que vemos y lo que no.

Pero para el usuario, el ciudadano, la situación es distinta. Cuando éste realiza una consulta y los motores de búsqueda le arrojan un “resumen” ya elaborado y filtrado a partir de resultados mayores, lo que él o ella captan en un primer instante es la solución a un problema. Es decir, el consumidor sólo ve el resultado final de un “conjunto ordenado y finito de operaciones que permite hallar la solución de un problema” (RAE). No tiene ninguna posibilidad de saber si un algoritmo, al ejecutarse en respuesta a unas peticiones, presenta respuestas que han excluido ciertos resultados de antemano.

VIGILAR LAS OPERACIONES MATEMÁTICAS Y LOS DATOS PERSONALES

En la actualidad hay expertos en distintas organizaciones y universidades del mundo ocupándose de un tema que aún no recibe la suficiente atención: la vigilancia y posible manipulación de los algoritmos en Internet por parte de grandes compañías o administraciones.

De ahí que surja una especie de nueva necesidad en todo el tejido social, que involucra a nuestra forma de crear riqueza: monitorear el comportamiento de la Red en relación a los resultados que presentan las búsquedas, lo que concluirá en dispositivos de auditoría aplicada al algoritmo.

Básicamente, entre múltiples escenarios posibles, si pido a un motor de búsqueda información sobre un producto o servicio en una zona concreta, debería poder esperarse cierto equilibrio o “promedio” limpio en relación a los precios cuando obtengo mis resultados. Pero tales soluciones pueden tener un peso humano que altera su matemática intrínseca. En otras palabras, el funcionamiento de un sistema, con alguna facilidad, puede transportar parte de la subjetividad humana (que podría verse comprometida con intereses empresariales o políticas de perfilado).

¿Cómo puede suceder esto? La ejecución de un algoritmo puede afectarse, por ejemplo, en la forma como elige los datos matrices, en cómo se gesta el aprendizaje del sistema (machine learning) o en las pautas que se le proporcionan cuando mide distintos principios (importancia, similaridad, etc.).

En este sentido, recordemos que estos conjuntos de instrucciones sufren varios cambios cada año, en especial aquéllos que dependen de Google. Si alguno de esos cambios viene a modificar los resultados de una misma búsqueda, porque redefine los términos para medir la importancia, entre otros factores, hablaríamos de algo que afecta a empresas, consumidores, comportamientos digitales, uso de la información, etc. Por todo esto es importante su monitorización.

Y lo que tiene relevancia en el mundo empresarial suele tenerla en las instituciones públicas y, en general, las políticas de seguridad. La recolección de datos personales es causa y consecuencia en el funcionamiento de todos los servicios que un Estado pone a disposición de sus ciudadanos. En este sentido, es necesario incorporar la transparencia en todo lo que tiene que ver con resultados matemáticos en base a nuestros datos, lo que guarda gran relación con cómo se administran los servicios, las atenciones, la seguridad, etc.

¿QUIÉN PUEDE VIGILAR LAS DECISIONES AUTOMATIZADAS?

Esta compleja temática sobre los algoritmos (tanto empresariales como públicos), su influencia y el uso de nuestros datos es algo todavía en investigación, nos enfrentamos a problemáticas relativamente nuevas. Por ejemplo, todavía existe debate académico sobre si cualquier ciudadano está en capacidad de pedir informes y contradecir una decisión tomada sobre la ejecución de un algoritmo si considera que éste le afecta, aunque no tenga una prueba judicial.

De igual manera, acciones automatizadas como el trazado de perfiles y otras de gran delicadeza por estar relacionadas con el Reglamento General de Protección de Datos (RGPD), implican cierto orden de obligaciones por parte de los responsables de controlar los datos. Entre las más importantes están los principios de protección de datos por defecto y por diseño: la protección como parte de todo el proceso que lleva al lanzamiento de un producto o servicio. 

Pero implica también un nuevo derecho, el derecho a no ser objeto de decisiones individualizadas basadas únicamente en tratamientos automatizados, tal como se reconoce en el artículo 22 del RGPD. Todo interesado tiene derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado de su información de carácter personal, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar.

Naturalmente, tener en cuenta esos principios cuando se escribe un algoritmo o diseña un sistema hace necesaria la acción y asesoría de expertos en la materia. Con mayor énfasis en los tiempos por venir, al vernos ante la aplicación de un nuevo Reglamento General de Protección de Datos.

Una demanda que viene a ser respondida por la acción formativa puesta en marcha, para toda Iberoamérica, por la UNED y la Agencia Española de Protección de Datos, mediante la convocatoria 2019 del Programa Modular (Experto, Especialista y Máster) en el Reglamento General de Protección de Datos.        

Compartir:

Email de información: jglez@cee.uned.es - rhc@agpd.es

Ir arriba