Denúncia da ONG Fight for the Future mostrou à UCLA problemas no uso de uma inteligência artificial disponível no mercado

A Universidade da Califórnia (UCLA) desistiu, no dia 18/2, de usar reconhecimento facial em seu campus. A tecnologia vinha sendo avaliada como ferramenta e segurança, para identificar os frequentadores da universidade. A desistência ocorreu após a ONG Fight for the Future fazer um teste: usou um software disponível no mercado para comparar as faces de 400 integrantes da comunidade universitária (alunos, professores e funcionários) aos rostos de criminosos e contraventores fichados. A análise retornou nada menos que 58 falsos positivos. A maior parte dessas respostas erradas ocorreu na avaliação de rostos de pessoas não-brancas.
Na experiência, a ONG usou um software da Amazon chamado Rekognition. Em um dos casos, a ferramenta afirmou que havia 100% de chance de os rostos comparados serem da mesma pessoa, mas eram apenas dois homens negros de barba, bem diferentes um do outro.
A desistência foi comunicada à ONG pelo vice-reitor administrativo, Michael Beck. Assim, a UCLA se une a um grupo de mais de 50 universidades nos EUA que se compromete a não usar reconhecimento facial, incluindo MIT, Harvard, Brown e Columbia.
Preconceitos raciais são um problema recorrente nos software de reconhecimento facial e nas inteligências artificiais que se propõem a reconhecer pessoas. O reconhecimento de homens de pele clara é muito mais preciso do que os de outros grupos. Isso ficou demonstrado em diversos experimentos, incluindo os do projeto Gender Shades, conduzido desde 2018 pelo MIT Media Lab.