¿Cuántos puntos de reconocimiento facial dijeron los de Apple que iba a hacer tu iPhone X? 30.000 puntos invisibles, trabajando con infrarrojos y en tres dimensiones. Un algoritmo a prueba de gemelos malvados, pero también de máscaras de nuestra cara o fotografías que intenten pasar por ser nosotros mismos. Ni siquiera dejará de saber quién eres a medida que te haces mayor. Tampoco si te operas la nariz.

Es cierto: cada vez va a ser más difícil que alguien se haga pasar por ti y robarte el móvil. También se va haciendo imposible que la tecnología no sepa quién eres tú en cualquier momento, tanto en las calles como en tu propia casa.

Shanghái o Pekín: pagando con tu cara

De todo esto saben, y mucho, en las grandes áreas metropolitanas de China, el paraíso actual del reconocimiento facial. Sacar dinero del cajero, subir a un avión o entrar en edificios institucionales… ya son muchas las cosas que allí se hacen sin pulsar una tecla o entregar un documento.

Se suman, por un lado, las grabaciones de reconocimiento de los organismos estatales (tales como la realización del pasaporte o las grabaciones de los 176 millones de cámaras públicas funcionando) y por el otro la cesión de información que muchas compañías digitales tienen que hacer de sus datos al gobierno, como consecuencia de vivir en un país particular en cuanto al divorcio entre empresas y estado y unos usuarios que, como hacemos en el resto del planeta, no le dan ninguna importanciaa los términos de servicio de su divertida app de selfies.

Es decir, si eres mayor de 18 años hay unas altísimas posibilidades de que el gobierno ya tenga una identificación de tu rostro. Tu cara es tu pasaporte y está en permanente monitorización. Y eso en el plano institucional, porque de igual forma es ya común que los comercios hagan una selección de sus productos acorde a tus compras.

A crear los agujeros de inseguridad contribuyen también los usuarios: empiezan a verse cámaras de seguridad que se conectan con el móvildesde cualquier lugar para que veas tu casa, tu negocio o a tu gato jugando con el rascador en cualquier momento. Muchas de esas cámaras son un coladero, extremadamente inseguras, y en una versión retorcida de los antiguos Walkie Talkies hay webs que cogen señales aleatorias y te permiten ver lo que ven esas cámaras, cuyos dueños piensan que son seguras (si te apetece aquí puedes ejercitar un poco tu modo Ojo de Diospor distintos comercios y residencias españolas).

Así que sí, Minority Report y Oblong Industries, la empresa a la que consultaron para hacer sus predicciones, supieron ver bien que el día de mañana podrías entrar a H&M mientras una voz selecciona las mejores ofertas para ti, calculando además con sus métricas cómo de vulnerable estás hoy al impacto de sus anuncios (el machine learning técnicamente ya conoce tus emociones). Tom Cruise también se dio cuenta en esa película de lo complicado que es salir de un entorno de hipervigilancia. Eso sí: él sólo tuvo que quitarse los ojos. Para nosotros el cambio de identidad absoluto podría ser imposible.

El sueño de Jeremy Bentham, la pesadilla para los colectivos oprimidos

El problema viene cuando “nosotros” somos un activista, un disidente político o un miembro del colectivo LGBT. En los últimos años se han llevado a cabo dos estudios distintos (uno de ellos por la Universidad de Stanford) para distinguir el rostro de alguien LGBT o cisnormativo en microsegundos. Dicen tener una efectividad de entre el 74 y el 81% de los casos, un nivel de fiabilidad mayor que la experiencia humana y suficiente potente como para que los gobiernos de países que persiguen la diversidad sexual se planteen incorporar sus descubrimientos.

Algo similar ofrecen desde Emotions Research Lab (en una carrera de múltiples competidores), donde están elaborando un sistema de reconocimiento facial para que identifique a personas que lleven sus rostros parcialmente tapados. Es sólo un salto de calidad a la hora de hacer los fichajes, ya que el reconocimiento de los ciudadanos según su rostro ya se ha testado con éxito previamente, como le ocurrió a miles de participantes en el carnaval de Notting Hill.

Como sabemos, tanto en países como Alemania, Gran Bretaña, China, Estados Unidos o Canadá, entre otros, la proliferación de cámaras de vigilancia es completamente vigente y creciente, como demuestran los programas al estilo de Next Generation Identification. El NGI aglutina huellas, distintas biométricas de tu rostro (no sólo cuando te hagas el pasaporte, también almacena fotos a discreción de todo lo que encuentra de ti en Internet), y tu historial clínico y criminal, todos perfectamente sincronizados gracias al trabajo de inteligencia del FBI. Se sabe que tienen ya fichada de una manera u otra (dependiendo de cada individuo habrá más o menos información) a casi la mitad de la población del país.

Supuestamente son medidas en nombre de la seguridad ciudadana, por supuesto. En un partido de la Super Bowl se aplicó el reconocimiento facial a modo experimental para detectar a posibles criminales, y se encontraron a 19 individuos con órdenes de arresto por delitos menores.

Esto se hizo en 2001, cuando la tecnología estaba en pañales, y sin avisar a los asistentes de que serían analizados. Ahora imaginemos el cóctel de vulneraciones que se podría llevar a cabo en la actualidad, con unos sistemas muchísimo más optimizados y un creciente expansión de imágenes de individuos por los agentes de seguridad de la escuela de Joe Arpaio, el sheriff que terminó en la cárcel por defender insistentemente por la acción policial que era lo mismo ser un indocumentado que parecerlo.

Por supuesto este tipo de informaciones, también ha creado múltiplesrespuestas de rechazo. Hay diversos tutoriales para evitar ser reconocido. Algunas funcionan, pero otras muchas, como inclinar la cabeza 15 gradospara que Facebook no te etiquete automáticamente en las fotos de fiesta de tus amigos, acaban por ser derrotados por la progresiva optimización de los sistemas de vigilancia y el sistema deep learning que está permitiendo a los softwares aprender a mirar bajo condiciones desfavorables mejor que el propio ojo humano.

Mil algoritmos velan por tu seguridad

Pero donde no llegue la tecnología también llegarán las normativas. Como pasó con motivo de las revueltas de Occupy Wall Street en el Estado de Nueva York, que prohibió que su uso como manera de sortear las identificaciones. Una ley anti-máscaras que se ha ido extendiendo a todo el territorio estadounidense según el momento en que el Estado se preocupó por ello: en Alabama, por ejemplo, se hizo en los años 20 para dejar expuestos a los miembros del Ku Klux Klan. La Ley Mordaza de 2013 también obligó a los españoles a mostrar su rostro durante una manifestación so pena de 30.000 euros.

Los responsables de ciberseguridad tienen claro que su éxito a la hora de reconocer con mayor precisión a todos los individuos de su sistema (sea este una cadena de supermercados o un estado) depende en buena medida de la cantidad de imágenes y rastros geográficos que pueda ir captando. De ahí que muchos de estos países todavía no hayan incorporado a su sistema de actuación policial las medidas de reconocimiento facial: sus resultados podrían ser tan imprecisos que se convierten en inválidos.

Con FaceID y la inminente consciencia colectiva de la vulnerabilidad bajo la que está nuestra identidad parece claro cuál puede ser uno de los temas de acción más candentes del futuro: nuestro rostro (tanto si lo mostramos como si no, tanto si creemos que es más valiosa la invasión del estado para evitar crímenes como si pensamos que por encima está nuestra libertad de movimientos) ya se ha convertido en un elemento de acción política.