Sistema de reconocimiento facial de Amazon falla al identificar mujeres con piel más oscura

Un estudio del Instituto Tecnológico de Massachusetts (MIT) reveló que un software de reconocimiento facial de Amazon, utilizado por las autoridades estadounidenses en la frontera con México, se desempeña peor a la hora de identificar a mujeres o personas de piel más oscura.

26 enero 2019 |

Los investigadores del ente, liderados por Joy Buolamwini, llegaron a esta conclusión después de someter el software Rekognition a una serie de pruebas. En particular, descubrieron que el software no cometió errores a la hora de identificar a los hombres con piel más clara. Sin embargo, confundió mujeres con hombres el 19% de las veces, mientras que su margen de error alcanzó el 31% a la hora de identificar a mujeres de piel más oscura, informa el portal The Verge.

La empresa Amazon negó que el estudio pudiera sugerir algo sobre la precisión de la tecnología. De acuerdo con la compañía, los investigadores no probaron la última versión de Rekognition. Además, en la empresa consideran que la prueba de identificación fue realmente un análisis facial (que detecta expresiones y características como vello) y no una identificación (que hace coincidir caras escaneadas con las fotografías), reporta el medio.

Según el portal Hipertextualhoy en día el Rekognition es usado por el Servicio de Inmigración y Control de Aduanas de los Estados Unidos (ICE) y ha sido probado en diversos aeropuertos del país. Además, Aduanas y Protección Fronteriza (CBP) está probando esta tecnología en la frontera con México.

Joy Buolamwini busca concienciar a la sociedad sobre el sesgo que hay  en el software de reconocimiento facial y obligar a las compañías alrededor del mundo  a producir programas más precisos que utilicen sus capacidades éticamente. La investigadora vincula el problema con la así llamada "mirada codificada", informa el portal Business Insider.

"[La mirada codificada] Es la reflexión de prioridades, preferencias y a veces prejuicios de aquellas personas que tienen capacidad para desarrollar las tecnologías", declaró Buolamwini ante el público del Foro Económico Mundial de 2019 en Davos.

Esta investigación no es la única que ha detectado el mal desempeño del software de reconocimiento de Amazon.

En 2018 la Unión Estadounidense por las Libertades Civiles (ACLU, por sus siglas en inglés) condujo una prueba en cuyo transcurso escaneó imágenes de miembros del Congreso. Posteriormente Rekognition hizo coincidir erróneamente estas imágenes con las de los criminales. 

OPINIÓN DE NUESTROS LECTORES

Da tu opinión

Incorrecto intentelo de nuevo
NOTA: Las opiniones sobre las noticias no serán publicadas inmediatamente, quedarán pendientes de validación por parte de un administrador del periódico.

NORMAS DE USO

1. Se debe mantener un lenguaje respetuoso, evitando palabras o contenido abusivo, amenazador u obsceno.

2. www.letrasfinas.com se reserva el derecho a suprimir o editar comentarios.

3. Las opiniones publicadas en este espacio corresponden a las de los usuarios y no a www.letrasfinas.com

4. Al enviar un mensaje el autor del mismo acepta las normas de uso.