La tecnología de reconocimiento facial es cada vez más sofisticada.

Aumenta el número de empresas que dicen tener sistemas capaces de leer emociones y detectar comportamientos sospechosos, pero ¿qué implica eso para la privacidad y las libertades civiles de las personas?

Aunque lleva décadas funcionando, en los últimos años el progreso ha sido enorme gracias a los avances de la visión computacional y la inteligencia artificial, según los expertos en tecnología.

Ahora, por ejemplo, se utiliza para identificar a personas en las fronteras, desbloquear teléfonos, detectar criminales o validar transacciones bancarias.

Pero algunas compañías tecnológicas dicen que también pueden evaluar nuestro estado emocional.

Microexpresiones

Desde la década de 1970, los psicólogos dicen que pueden detectar emociones ocultas estudiando las microexpresiones (movimientos muy sutiles y gestos nerviosos) en los rostros de personas en fotografías y videos.

Los algoritmos y cámaras de alta definición pueden hacerlo con precisión y rapidez.

«Ya se están usando para fines comerciales», le explica a la BBC Oliver Philippou, experto en videovigilancia que trabaja en la compañía tecnológica británica IHS Markit.

El iPhone X puede ser desbloqueado usando reconocimiento facial.

«Un supermercado podría usarlos en sus pasillos. No para identificar personas, sino para analizar quién entra en términos de edad y género, y también su estado de ánimo. Puede ser útil para el marketing dirigido y para la publicidad por emplazamiento».

La agencia de investigación de mercados Kantar Millward Brown utiliza la tecnología desarrollada por la firma estadounidense Affectiva para analizar cómo reaccionan los consumidores a comerciales de televisión.

Affectiva graba videos de rostros de personas con su permiso y luego «codifica» sus expresiones, fotograma a fotograma, para evaluar su estado de humor.

«Entrevistamos a gente, pero obtenemos muchos más matices observando también sus expresiones. Puedes ver exactamente qué parte de un aviso publicitario funciona bien y qué respuesta emocional desencadena», le dice a la BBC Graham Page, director de oferta e innovación en Kantar Millward Brown.

La tecnología de WeSee se usa para evaluar las emociones de la gente durante entrevistas.

«Comportamientos sospechosos»

Más polémicas son las empresas que ofrecen «detección de emociones» por motivos de seguridad.

La firma británica WeSee, por ejemplo, dice que su tecnología de inteligencia artificial puede detectar comportamientos sospechosos leyendo señales faciales imperceptibles para el ojo no entrenado.

Emociones como la duda o la rabia pueden ocultarse y contrastar con el lenguaje que usa la persona.

WeSee asegura que ha estado trabajando con una organización «de alto perfil» en la aplicación de la ley para analizar a personas que son entrevistadas.

«Usando solamente imágenes de video de baja calidad, nuestra tecnología tiene la capacidad de determinar el estado de ánimo o la intención de un individuo por sus expresiones faciales, postura, gestos y movimiento», le cuenta a la BBC su director ejecutivo, David Fulton.

«En el futuro, las cámaras de video en las estaciones de metro podría usar nuestra tecnología para detectar comportamientos sospechosos y alertar a las autoridades de una potencial amenaza terrorista».

¿Puede la detección de emociones ayudar a hacer más seguros grandes eventos como conciertos o partidos de fútbol?

«Lo mismo podría hacerse con multitudes de personas en eventos como partidos de fútbol y mítines políticos».

Pero Philippou es escéptico en cuanto a la precisión de la detección de emociones.

La controversia

«En lo que respecta a la identificación facial, todavía hay márgenes de error. Las compañías más avanzadas dicen que pueden identificar gente con una precisión de entre el 90 y el 92%».

«A la hora de identificar emociones, el margen de error aumenta significativamente».

Eso preocupa a activistas por la privacidad y porque temen que esta tecnología pueda hacer juicios equivocados o sesgados.

En varios países, las autoridades usan cámaras de vigilancia con reconocimiento facial.

«Imagino que hay algunos casos en los que resulta muy útil, pero las implicaciones de privacidad derivadas de la observación de emociones, el reconocimiento facial y la elaboración de perfiles no tienen precedentes», dice Frederike Kaltheuner, del grupo Privacy International.

El reconocimiento facial ya es de por sí bastante controvertido.

La organización por los derechos humanos Liberty dice que esta tecnología ha generado un gran cantidad de «falsos positivos» en eventos como la final de la Champions League en Cardiff, Reino Unido, el año pasado.

Un residente de esa localidad, Ed Bridges, tomó acciones legales contra las autoridades argumentando que el sistema violó la privacidad de las personas.

Pero cada vez se confía más en ella, dice Patrick Grother, director de pruebas biométricas en el Instituto Nacional de Estándares y Tecnología, una agencia del gobierno estadounidense que investiga cuestiones relacionadas con reconocimiento facial.

En China, la policía usa gafas de reconocimiento facial.

En China, la policía usa gafas de reconocimiento facial.

Él atribuye el reciente progreso tecnológico al desarrollo de «redes neuronales convolucionales», un sistema avanzado de aprendizaje automático que permite una precisión mucho mayor.

«Esos algoritmos hacen que las computadoras puedan analizar imágenes a diferentes escalas y ángulos», explica.

«Puedes identificar caras de forma mucho más precisa, incluso aunque estén parcialmente cubiertas por gafas de sol o cicatrices. La tasa de error se ha reducido hasta diez veces desde 2014, aunque ningún algoritmo es perfecto».

Fulton, de WeSee, dice que su tecnología es simplemente una herramienta para ayudar a la gente a analizar videos de forma más inteligente.

«De momento, podemos detectar un comportamiento sospechoso pero no intencional para evitar que algo malo ocurra. Pero creo que vamos a lograrlo y ya estamos haciendo pruebas».

La policía de Reino Unido usa tecnología de reconocimiento facial automatizada (AFR).

Suena un paso más cerca del concepto de «pre-crimen» de la película de ciencia ficción Minority Report («Sentencia Previa»), en la que criminales potenciales eran arrestados antes incluso de que hubieran cometido sus crímenes.

¿Es otra preocupación más para las organizaciones de libertades civiles?

«La pregunta clave que siempre nos hacemos es: ¿quién está creando esta tecnología y con qué fin?, dice Frederike Kaltheuner, de Privacy International. «¿La están usando para ayudarnos, o para juzgarnos, evaluarnos y controlarnos?»

Referente:https://www.bbc.com/mundo/noticias-44860540

Abrir chat
1
Hola, ¿cómo podemos ayudarte?