Bienvenidos a AboutData.blog de Gold Light Data, donde exploramos lo último en Big Data, IA, ML, Analítica de Negocios e Inteligencia de Negocios. Únete a nosotros para mantenerte informado y empoderado en el dinámico mundo de la tecnología de datos.

El costo que los sistemas de reconocimiento facial podrían tener en nuestra privacidad y humanidad

La inteligencia artificial realmente está en todas partes en nuestras vidas cotidianas, y una de las áreas que ha generado mucha atención es su uso en los sistemas de reconocimiento facial (FRS). Esta controvertida colección de tecnología es una de las más discutidas entre los activistas por la privacidad de datos, los funcionarios gubernamentales y los partidarios de medidas más duras contra el delito.

Se ha escrito suficiente tinta sobre el tema para llenar bibliotecas, pero este artículo tiene como objetivo resumir algunos de los argumentos clave, puntos de vista y información general relacionados con los sistemas de reconocimiento facial y los impactos que pueden tener en nuestra privacidad hoy en día.

¿Qué son los sistemas de reconocimiento facial?

La tecnología detrás de los FRS y quiénes los desarrollan puede ser complicada. Es mejor tener una idea básica de cómo funcionan estos sistemas antes de sumergirse en las preocupaciones éticas y de privacidad relacionadas con su uso.

¿Cómo funcionan los sistemas de reconocimiento facial?

A nivel básico, los sistemas de reconocimiento facial funcionan en un proceso de tres pasos. Primero, el hardware, como una cámara de seguridad o un teléfono inteligente, graba una foto o un video de una persona.

Luego, esa foto o video se envía a un programa de IA, que luego mapea y analiza la geometría de la cara de una persona, como la distancia entre los ojos o los contornos de la cara. La IA también identifica puntos de referencia faciales específicos, como la frente, las órbitas oculares, los ojos o los labios.

Finalmente, todos estos puntos de referencia y mediciones se combinan para crear una firma digital que la IA compara con su base de datos de firmas digitales para ver si hay una coincidencia o para verificar la identidad de alguien. Esa firma digital luego se almacena en la base de datos para futuras referencias.

Casos de uso de los sistemas de reconocimiento facial

Una tecnología como el reconocimiento facial es ampliamente aplicable a una serie de industrias diferentes. Dos de las más obvias son la seguridad ciudadana y la seguridad privada.

Con el software de reconocimiento facial, las agencias de seguridad ciudadana pueden rastrear a sospechosos y delincuentes que tienen la desgracia de ser capturados en cámara, mientras que las empresas de seguridad pueden utilizarlo como parte de sus medidas de control de acceso, verificando las caras de las personas de la misma manera que verifican las identificaciones o las placas de las personas.

El control de acceso en general es el caso de uso más común para el reconocimiento facial hasta ahora. En general, se basa en una base de datos más pequeña (es decir, las personas permitidas dentro de un edificio específico), lo que significa que es menos probable que la IA tenga un positivo falso o un error similar. Además, es un caso de uso tan amplio que casi cualquier industria imaginable podría encontrar una razón para implementar la tecnología.

El reconocimiento facial también es un tema candente en el campo de la educación, especialmente en los Estados Unidos, donde los proveedores ofrecen sistemas de vigilancia por reconocimiento facial como una posible solución a los tiroteos escolares que azotan el país más que cualquier otro. También tiene usos adicionales en plataformas de aula virtual como una forma de controlar la actividad y otras métricas de los estudiantes.

En el sector de la salud, el reconocimiento facial teóricamente se puede combinar con tecnología emergente como el reconocimiento de emociones para obtener una mejor comprensión de los pacientes, como la capacidad de detectar el dolor o controlar su estado de salud. También se puede utilizar durante el proceso de registro como una alternativa sin contacto a los procedimientos de registro tradicionales.

El mundo bancario vio un aumento en la adopción del reconocimiento facial durante la pandemia COVID-19, ya que las instituciones financieras buscaban nuevas formas de verificar de manera segura la identidad de los clientes.

Algunos lugares de trabajo ya utilizan el reconocimiento facial como parte de sus procedimientos de entrada y salida. También se considera una forma de controlar la productividad y la actividad de los empleados, evitando que las personas “duerman en el trabajo”.

Empresas como HireVue estaban desarrollando software que utilizaba el reconocimiento facial para determinar la contratabilidad de los empleados potenciales. Sin embargo, discontinuó la parte de análisis facial de su software en 2021. En un comunicado, la empresa citó las preocupaciones públicas sobre la IA y un creciente desvaloramiento de los componentes visuales de la efectividad del software.

Los minoristas que venden productos restringidos por edad, como bares o tiendas de comestibles con licencias de licor, podrían utilizar el reconocimiento facial para evitar que los clientes menores de edad compren estos productos de manera más efectiva.

¿Quiénes desarrollan los sistemas de reconocimiento facial?

Las personas que desarrollan FRS son las mismas sospechosas habituales que impulsan el avance de otras áreas de investigación tecnológica. Como siempre, los académicos son algunos de los principales contribuyentes a la innovación en reconocimiento facial. El campo se inició en la academia en la década de 1950 por investigadores como Woody Bledsoe.

En un ejemplo moderno, la Universidad China de Hong Kong creó el algoritmo GaussianFace en 2014, que sus investigadores informaron que había superado los niveles de reconocimiento facial humano. El algoritmo obtuvo una precisión del 98,52% en comparación con la precisión del 97,53% del rendimiento humano.

En el mundo empresarial, gigantes tecnológicos como Google, Facebook, Microsoft, IBM y Amazon han sido algunos de los nombres que han liderado la carga.

El reconocimiento facial de Google se utiliza en su aplicación Photos, que infamemente etiquetó una imagen del ingeniero de software Jacky Alciné y su amigo, ambos de raza negra, como “gorilas” en 2015. Para combatir esto, la empresa simplemente bloqueó “gorila” y categorías similares como “chimpanzé” y “mono” en Photos.

Amazon incluso estaba vendiendo su sistema de reconocimiento facial, Rekognition, a agencias de seguridad ciudadana hasta 2020, cuando prohibió el uso del software por parte de la policía. La prohibición sigue en vigor en la actualidad.

Facebook utilizó la tecnología de reconocimiento facial en su plataforma de redes sociales durante gran parte de la vida de la plataforma. Sin embargo, la empresa cerró el software a finales de 2021 como “parte de un movimiento a nivel empresarial para limitar el uso del reconocimiento facial en [sus] productos”.

Además, hay empresas que se especializan en software de reconocimiento facial como Kairos, Clearview AI y Face First que están contribuyendo con su conocimiento y experiencia en el campo.

¿Es esto un problema?

Para responder a la pregunta de “deberíamos preocuparnos por los sistemas de reconocimiento facial”, será mejor examinar algunos de los argumentos que los partidarios y oponentes del reconocimiento facial utilizan comúnmente.

¿Por qué utilizar el reconocimiento facial?

El argumento más común a favor del software de reconocimiento facial es que proporciona más seguridad para todos los involucrados. En casos de uso empresarial, los empleadores pueden gestionar mejor el control de acceso, al mismo tiempo que reducen la posibilidad de que los empleados sean víctimas de robo de identidad.

Los funcionarios de seguridad ciudadana dicen que el uso de FRS puede ayudar a sus habilidades investigativas para asegurarse de atrapar a los delincuentes rápidamente y de manera más precisa. También se puede utilizar para rastrear a las víctimas de tráfico humano, así como a personas que pueden no poder comunicarse, como personas con demencia. Esto, en teoría, podría reducir el número de muertes causadas por la policía en casos involucrando a estas personas.

El tráfico humano y los delitos sexuales son una respuesta común de los defensores de esta tecnología en la seguridad ciudadana. Vermont, el estado con las prohibiciones más estrictas sobre el reconocimiento facial, alivió ligeramente su prohibición para permitir su uso en la investigación de delitos sexuales infantiles.

Para los bancos, el reconocimiento facial podría reducir la probabilidad y frecuencia de fraude. Con datos biométricos como los que requiere el reconocimiento facial, los delincuentes no pueden simplemente robar una contraseña o un PIN y obtener acceso total a todas sus ahorros. Esto iría un largo camino para detener un delito por el cual la FTC recibió 2.8 millones de informes de consumidores en 2021.

Por último, algunos defensores dicen que la tecnología es tan precisa ahora que las inquietudes sobre los positivos y negativos falsos apenas deberían ser una preocupación. Según un informe de 2022 del Instituto Nacional de Normas y Tecnología, los algoritmos de reconocimiento facial de mayor calidad pueden tener una tasa de éxito superior al 99%, dependiendo de las circunstancias.

¿Con una precisión tan buena y usos tan fuertes, el reconocimiento facial podría ser una de las tecnologías más justas y efectivas que podemos usar en la educación, el negocio y la seguridad ciudadana? No tan rápido, dicen los críticos de la tecnología.

¿Por qué prohibir la tecnología de reconocimiento facial?

En primer lugar, la precisión de estos sistemas no es la preocupación principal de muchos críticos de FRS. Ya sea que la tecnología sea precisa o no es secundario.

Aunque la academia es donde se realiza gran parte de la investigación sobre el reconocimiento facial, también es donde se plantean muchas de las preocupaciones y críticas en cuanto al uso de la tecnología en áreas de la vida como la educación o la seguridad ciudadana.

El profesor de derecho y ciencias informáticas de la Universidad Northeastern, Woodrow Hartzog, es uno de los críticos más vocales de la tecnología. En un artículo de 2018, Hartzog dijo: “La mera existencia de los sistemas de reconocimiento facial, que a menudo son invisibles, daña las libertades civiles, porque la gente actuará de manera diferente si sospecha que está siendo vigilada”.

Las preocupaciones sobre la privacidad son numerosas. Como dijo la investigadora en ética de IA, Rosalie A. Waelen, en un artículo de 2022 para AI & Ethics: “[FRS] se espera que sea omnipresente y capaz de inferir una amplia variedad de información sobre una persona”. La información que se supone que debe inferir no es necesariamente información que un individuo esté dispuesto a revelar.

La tecnología de reconocimiento facial ha demostrado dificultades para identificar a individuos de razas, etnias, géneros y edades diversos. Esto, cuando se utiliza por la seguridad ciudadana, puede potencialmente llevar a detenciones falsas, encarcelamientos y otros problemas.

De hecho, ya lo ha hecho. En Detroit, Robert Williams, un hombre negro, fue incorrectamente identificado por el software de reconocimiento facial como ladrón de relojes y falsamente arrestado en 2020. Después de ser detenido durante 30 horas, fue puesto en libertad debido a la falta de pruebas cuando quedó claro que el sospechoso fotografiado y Williams no eran la misma persona.

Esto no fue la única vez que ocurrió en Detroit tampoco. Michael Oliver fue equivocadamente seleccionado por el software de reconocimiento facial como el que lanzó y rompió el teléfono celular de un profesor.

Un caso similar le sucedió a Nijeer Parks a finales de 2019 en Nueva Jersey. Parks fue detenido durante 10 días por supuestamente haber robado caramelos y haber tratado de golpear a la policía con un coche. El reconocimiento facial lo identificó falsamente como el perpetrador, a pesar de que Parks se encontraba a 30 millas del incidente en ese momento.
También hay, en la mente de los críticos, un elemento inherentemente deshumanizante en el software de reconocimiento facial y la forma en que analiza al individuo. Recuerda el mencionado incidente en el que Google Photos etiquetó a Jacky Alciné y a su amigo como “gorilas”. Ni siquiera los reconoció como humanos. Dado que la respuesta de Google a la situación fue eliminar las categorías “gorila” y similares, es discutible que todavía no lo haga.

Finalmente, surge el problema de lo que sucedería si la tecnología tuviera una precisión del 100%. El elemento deshumanizante no desaparece simplemente si Photos puede determinar de repente que una persona de color es, de hecho, una persona de color.

La forma en que estas máquinas nos ven es fundamentalmente diferente a la forma en que nos vemos entre nosotros mismos porque la forma de ver de las máquinas solo va en una dirección. Como dijo Andrea Brighenti, el software de reconocimiento facial “conduce a una forma de ver cualitativamente diferente… [el sujeto] ni siquiera es completamente humano. Inherente en la mirada de un solo sentido es una especie de deshumanización del observado”.

Para que una IA reconozca rostros humanos, se debe enseñar qué es un ser humano, lo que en algunos casos puede llevar a que tome algunas características humanas fuera de su conjunto de datos y las defina como claramente “inhumanas”.

Hacer que la tecnología de reconocimiento facial sea más precisa para detectar personas de color solo realmente sirve para mejorar la vigilancia de la policía y los negocios. Esto significa que, como señalaron los investigadores Nikki Stevens y Os Keyes en su artículo de 2021 para el diario Cultural Studies, “los esfuerzos para aumentar la representación son simplemente esfuerzos para aumentar la capacidad de las entidades comerciales para explotar, rastrear y controlar a las personas de color”.

Final Thoughts

En última instancia, el grado de preocupación que una persona tenga sobre la tecnología de reconocimiento facial depende de la confianza que tenga. ¿Cuánta confianza pone una persona en la policía o Amazon o cualquier persona aleatoria que tenga acceso a este software y al poder que proporciona y que solo lo usará por las razones correctas?

Esta tecnología proporciona a las instituciones poder, y al pensar en dar poder a una organización o institución, una de las primeras cosas a considerar es el potencial de abuso de ese poder. En el caso del reconocimiento facial, especialmente para la aplicación de la ley, ese potencial es bastante grande.

En una entrevista para este artículo, Frederic Lederer, profesor de la Escuela de Derecho William & Mary y director del Centro de Tecnología Legal y de Tribunales, compartió su perspectiva sobre los potenciales abusos que los sistemas de reconocimiento facial podrían facilitar en el sistema legal de Estados Unidos:

“Imaginemos que pasamos información a través de un sistema de reconocimiento facial y que nos da 20 [sospechosos posibles], y hemos clasificado a esas posibles personas en términos de probabilidad. Sabemos con certeza que el sistema es inexacto e incluso en sus mejores circunstancias todavía podría estar completamente equivocado.

Si la policía comienza a usar esto para enfocarse en individuos y realizar investigaciones adecuadas, puedo entender las objeciones sobre privacidad, pero aún así lo considero un uso razonable.”

El problema es que los oficiales de policía y los funcionarios encargados del cumplimiento de la ley son seres humanos. Son seres humanos altamente estresados y sobreexplotados. Y lo poco que sé de la realidad en el campo sugiere que hay una gran tendencia a enfocarse únicamente en el individuo con la mayor probabilidad y optar por detenerlo.

Sin embargo, el profesor Lederer cree que esta es una idea peligrosa:

” … al menos de la forma en que funciona el sistema, puede ser efectivamente imposible para la persona evitar lo que sucede en el sistema hasta que… finalmente haya una condena”.

Lederer explica que la Declaración de Derechos garantiza a las personas el derecho a un “juicio rápido”. Sin embargo, las interpretaciones judiciales han demostrado que las personas detenidas pasarán al menos un año en prisión antes de que los tribunales siquiera piensen en un juicio rápido.

A esto se añade el problema del arreglo de culpabilidad:

“Ahora, y no tengo los números, no es raro que se ofrezca al individuo que está en prisión esperando el juicio lo siguiente: ‘confiese culpa y veremos que se le condene por el tiempo que ya ha pasado en prisión en espera del juicio y puede irse a casa mañana’. Se necesitan muchos nervios de acero para decir ‘no, soy inocente y voy a quedarme aquí todo el tiempo que sea necesario’.

Así que sí, de hecho, arrestamos a la persona equivocada, a menos que haya evidencia dolorosamente obvia de que la persona no es la correcta, es muy probable que tengamos individuos que van a cumplir largos períodos de tiempo a la espera del juicio y una cantidad justa de ellos pueden confesar culpa simplemente para salir del proceso.”

Cuando se comienza a pensar en el error de reconocimiento facial, no se puede ver como algo aislado. Nos tenemos que preguntar: “¿Cómo manejarán esta información las personas reales y en qué medida esto se correlaciona con todo lo demás que sucede?” Y en ese punto, hay algunas preocupaciones muy buenas”.

Como señaló Lederer, estos abusos ya ocurren en el sistema, pero los sistemas de reconocimiento facial podrían agravar estos abusos e incluso aumentarlos. Pueden perpetuar prejuicios y fallas sistémicas preexistentes, y aunque sus beneficios potenciales son atractivos, el potencial daño es demasiado presente y real como para ignorarlo.

De los casos de uso viables de reconocimiento facial que se han explorado, lo más cercano a un caso de uso “seguro” es la verificación de identidad. Sin embargo, hay muchos métodos de verificación de identidad igualmente efectivos, algunos de los cuales utilizan biométricos como las huellas dactilares.

En realidad, es posible que no haya ningún caso de uso “seguro” para la tecnología de reconocimiento facial. Cualquier avance en el campo ayudará inevitablemente a funciones de vigilancia y control que han sido esenciales para la tecnología desde sus inicios.

Por ahora, Lederer dijo que no ha llegado a ninguna conclusión firme sobre si la tecnología debe prohibirse. Pero él y defensores de la privacidad como Hartzog seguirán observando cómo se utiliza.

Tags :

Author: Iván Torres
Author: Iván Torres

Iván Torres actualmente cuenta con una Maestría en Ciencias en Analítica de Negocios e Inteligencia Artificial Aplicada, otorgada por la Universidad de Charleston (West Virginia, USA), también es profesor de Ingeniería y Maestría en la Universidad TecMilenio, y ha contribuido en diferentes proyectos tecnológicos como analista, consultor y líder para empresas de ámbito internacional acumulando más de 15 años de experiencia en los campos de desarrollo de Software, Big Data, analítica de negocio e I.A. Editor de About Data Blog.

Deja un comentario