Un momento crucial para el reconocimiento facial

El año pasado en nuestro blog vimos en qué estado se encuentra el reconocimiento facial y concluimos que, para sus aplicaciones más controvertidas (en especial la de la vigilancia policial), simplemente no era lo suficientemente preciso. Teniendo en cuenta la tendencia de los algoritmos a exhibir sesgos étnicos y de género, estaba claro que el uso de la tecnología de reconocimiento facial (TRF) necesitaba ser controlado y regulado antes de ser usado en la naturaleza, y especialmente antes de ser usado en espacios públicos.

Desde septiembre, cuando publicamos dicho blog, el mundo se ha puesto patas arriba. Estamos siendo testigos de una pandemia y de una efusión global de ira por el asesinato de George Floyd. Algunos argumentan que los disturbios que estamos viviendo demuestran que necesitamos la TRF más que nunca (aunque, irónicamente, las indispensables mascarillas han presentado sus propios desafíos a la tecnología). Pero de acuerdo con una serie de casos en los que se ha abusado y se ha hecho un uso indebido de la TRF, el debate para su control y regularización sigue en pie. Veamos algunos ejemplos.

A principios de este año, una empresa llamada ClearviewAI comenzó a presumir de que su tecnología estaba siendo utilizada por varias agencias gubernamentales de los EE.UU., incluido el FBI. La compañía había obtenido más de 3 mil millones de imágenes de varias plataformas de medios sociales (Facebook, Venmo, YouTube, etc.) sin el permiso de los usuarios, y luego utilizó ese conjunto de datos para entrenar a su sistema de reconocimiento facial. Este mismo mes, varios gobiernos como el de Canadá han comenzado a investigar las prácticas éticas de la compañía. Esto ha provocado que ClearviewAI ya no ofrezca sus servicios en Canadá. También hay desafíos en la Unión Europea sobre la legalidad de su sistema.

El uso de sistemas de reconocimiento facial como el de ClearviewAI por parte de las autoridades policiales puede tener consecuencias dramáticas. El mes pasado salió a luz la noticia de que Robert Williams, un hombre negro inocente, fue detenido delante de sus hijos y encerrado durante 30 horas. Su arresto se basó en una coincidencia incorrecta del CCTV de un ladrón que había robado un reloj en una tienda. El fiscal se disculpó por el error. Este caso también puso de manifiesto otra identificación previa errónea por parte de la TRF de Michael Oliver, quien fue acusado de robar un teléfono móvil de un coche. Una simple comparación de las imágenes muestra que el ladrón y M. Oliver son personas diferentes. No obstante, fue acusado de un delito grave de robo. Finalmente, el caso fue desestimado tan pronto como llegó al juzgado.

Muchos de los conjuntos de datos subyacentes que se utilizan para entrenar a los sistemas de reconocimiento facial son en sí mismos inherentemente defectuosos. Hasta hace relativamente poco, un popular conjunto de datos llamado «Rostros etiquetados en la naturaleza» consistía en un 83% de rostros blancos y casi un 78% de hombres. Ninguno de esos números es representativo de la población mundial. Otros conjuntos de datos han demostrado tener imágenes etiquetadas con difamaciones despectivas y términos ofensivos, como se evidencia en este artículo publicado a principios de este mes.

Más cerca de casa (literalmente), el sistema de timbre de puerta Ring de Amazon ha sido utilizado por las fuerzas policiales para identificar a los ladrones y, en los bloques de pisos, los sistemas TRF pueden ser utilizados para identificar «comportamientos anormales» en los ascensores.

El entusiasmo por utilizar estos sistemas, incluso cuando son claramente defectuosos, es el principal problema en este momento. Simplemente no se han hecho suficientes comprobaciones para evaluar la precisión y las consideraciones éticas del uso de TRF. Todos deberíamos recordar el viejo dicho de «sólo porque puedas hacerlo, no significa que debas hacerlo».

Tags: Inteligencia Artificial, Reconocimiento facial, Reconocimiento facial