A ‘inteligência artificial’ e o racismo

Diretrizes éticas criadas para regular conteúdos de modelos de linguagem têm se revelado ineficazes

FONTEFolha de São Paulo, por Ana Cristina Rosa
A jornalista Ana Cristina Rosa é Jornalista especializada em comunicação pública e vice-presidente de gestão e parcerias da Associação Brasileira de Comunicação Pública (ABCPública) - Foto: Keiny Andrade/Folhapress

Usar o que se convencionou chamar de “inteligência artificial” (pois não é inteligente) para realizar tarefas diárias é cada vez mais comum. Existem ferramentas que, em geral, facilitam a vida. Contudo, se utilizadas para fomentar estereótipos que impactam negativamente milhões de pessoas, um problema grave está instalado.

Há muito se supunha que a “IA” poderia servir para reproduzir o racismo. Tratei do tema na coluna “Códigos de preconceito”, em 2021. O que era hipótese ganhou ares de certeza com a publicação, pela Universidade Cornell, de um estudo de pesquisadores do Instituto Allen de Inteligência Artificial. O documento revela que “à medida que as ferramentas de ‘IA’ ficam ‘mais inteligentes’, se tornam mais racistas”.

Modelos de linguagem como ChatGPT (da OpenAI) e Gemini (do Google) mantêm estereótipos racistas sobre falantes do inglês vernacular afro-americano (criado por negros) e tendem a descrevê-los como “estúpidos e preguiçosos”. Além disso, a “IA” se mostrou mais propensa a recomendar a pena de morte a réus que usam esse dialeto e a indicar salários e empregos piores aos falantes da linguagem.

Práticas racistas são multifacetadas. Vão de agressões disfarçadas de elogios (negra bonita!) até insultos verbais (macaco!) e violência física. Frente à sofisticação da camuflagem do racismo, diretrizes éticas criadas para regular conteúdos de modelos de linguagem têm se revelado ineficazes.
“Inteligência artificial” não é mágica. São humanos que decidem o que as máquinas fazem. Assim, elas reproduzem crenças sociais e têm servido de instrumento de discriminação, violando princípios, como a igualdade.

É equivocado atribuir a uma ferramenta a responsabilidade por problemas criados por pessoas. Mas
também é evidente que, ao ser desenvolvida com dados analisados por uma perspectiva racista, a “IA” multiplica e até aprofunda desigualdades e injustiças que ameaçam grupos sociais predeterminados.

-+=
Sair da versão mobile