Algoritmos de plataformas e redes sociais ainda precisam de muita discussão para fugir de estereótipos

Enviado por / FonteTilt, por Bruna Souza Cruz

A inteligência artificial já domina várias atividades da nossa vida. Está no aplicativo do banco, no pedido online do mercado, em nossas redes sociais. Mas também pode ser racista, machista e discriminar pessoas por sua religião ou orientação sexual. Segundo alguns pesquisadores da área, isso acontece porque os algoritmos reproduzem as falhas do comportamento social vigente.

Sistemas de reconhecimento facial já foram usados para justificar a prisão de homens negros que, mais tarde, comprovou-se que eram inocentes. Programas de celular e filtros de redes sociais estimulam mudanças em fotos que permitem afinar o nariz e clarear a pele, reforçando estereótipos discriminatórios de beleza.

Um usuário do Google Fotos denunciou em 2015 que a plataforma havia rotulado a foto de um casal negro com a legenda “gorilas”. A empresa afirmou na época que tomaria as medidas necessárias para evitar a repetição de erros como esse. Com o Flickr aconteceu um problema semelhante. No lugar de gorilas, a plataforma rotulou com a palavra “macacos” fotos de pessoas negras.

No caso mais recente, usuários do Twitter denunciaram a plataforma em 2020 por priorizar rostos brancos na exibição de imagens publicadas pelos internautas que também traziam rostos negros. Fotos do ex-presidente Barack Obama e do senador Mitch McConnell foram usadas para provar. A rede social afirmou publicamente que iria investigar o comportamento de seu algoritmo.

“As tecnologias não são neutras porque foram construídas dentro de um contexto social e expostas a ele”, afirma a advogada Ana Carolina Lima, membro do AqualtuneLab, coletivo jurídico que atua dentro das áreas do direito, tecnologia e raça.

A discriminação algorítmica é uma violação de direitos humanos porque ataca o direito à privacidade, o direito à liberdade de expressão e à livre circulação
Ana Carolina Lima

A profissional de relações públicas Luana Daltro, 26 anos, descobriu sua foto publicada entre os primeiros resultados de busca do Google para as palavras “cabelo feio”. Na mesma página, fotos de outras mulheres negras também ilustravam o termo. A foto de Luana foi associada a uma entrevista que ela deu no começo de 2020 a um portal do Rio Grande do Sul, onde mora, sobre o quanto era ruim ver o seu cabelo sendo associado a algo negativo.

Quando eu vi, não acreditei. Comecei a chorar. Estava revivendo minha infância onde eu negava os meus traços por ver os meus cabelos como feios. E é isso o que a sociedade nos ensina
Luana Daltro

Denise Carvalho e Fernanda Carrera, respectivamente pesquisadoras da UFRN (Universidade Federal do Rio Grande do Norte) e da UFRJ (Universidade Federal do Rio de Janeiro), analisaram mais de 2.000 fotos e ilustrações dos bancos de imagens Getty Images, Shutterstock e Stockphotos.

Em um dos estereótipos percebidos, as imagens traziam mulheres negras sozinhas em 14,01% dos resultados, enquanto o número caiu para 9,25% entre as mulheres brancas nas mesmas buscas.

Tecnologias discriminatórias não são feitas de forma consciente geralmente. A falta de diversidade é um dos motivos: homens brancos, héteros e de classes sociais média ou alta são a maioria de funcionários deste setor, segundo levantamento do coletivo Pretalab com a consultoria ThoughtWorks.

O enviesamento de dados é outro agravante. Mais de 2.400 professores, pesquisadores e estudantes fizeram um abaixo-assinado contra um sistema criado nos EUA para descobrir a probabilidade de pessoas cometerem crimes a partir do cruzamento de informações biométricas do rosto e de fichas criminais. Como a tecnologia se alimentou de dados de criminalidade racialmente carregados, ela pode legitimar a violência contra grupos marginalizados.

Para as entrevistadas, promover debates sobre o viés da tecnologia é uma estratégia necessária de enfrentamento para aceitar que esse problema existe e precisa ser combatido.

Estamos tratando de meios digitais muito recentes, mas que envolvem um problema que é antigo. A sociedade brasileira, em seu contexto histórico, foi consolidada sobre as bases do racismo, do patriarcado e do classismo. Não podemos deixar isso de lado
Denise Carvalho, pesquisadora da UFRN

+ sobre o tema

PMs acusados de racismo ainda estão trabalhando

  Alain Lisboa  Corporação espera parecer da...

“Não aguento mais publicar matéria de criança morta”

Artur Voltolini, editor do Favela 247, escreveu artigo lamentando...

Vítimas de racismo relatam o preconceito que dói na pele (e coração)

Ivan levou batida de policias militares e Elizabeth foi...

para lembrar

Babá desiste de levar acusação de discriminação em clube à Justiça

Elaine Pacheco - que só entrou no Caiçaras, na...

Oito corpos são encontrados em Belford Roxo, Baixada Fluminense

Os corpos de oito homens foram encontrados em Belford...

Condenado por corte internacional, Brasil terá de reabrir investigação e indenizar vítimas de chacinas

A Corte Interamericana de Direitos Humanos da OEA (Organização...

Protesto contra racismo mobiliza sindicalistas no Leblon, Rio

Ato foi realizado em frente a supermercado onde gerente...
spot_imgspot_img

‘Redução de homicídios no Brasil não elimina racismo estrutural’, afirma coordenador de Fórum de Segurança

Entre 2013 e 2023, o Brasil teve uma queda de 20,3% no número de homicídios, de acordo com o Atlas da Violência, produzido pelo Fórum...

‘Não aguentava mais a escola’, diz mãe de aluna internada após racismo

A mãe da aluna de 15 anos que foi encontrada desacordada no Colégio Mackenzie (SP), contou ao UOL que a filha segue internada em um hospital psiquiátrico...

Risco de negro ser vítima de homicídio é 2,7 vezes maior no Brasil

Ser uma pessoa negra no Brasil faz você enfrentar um risco 2,7 vezes maior de ser vítima de homicídio do que uma pessoa não negra. A constatação...
-+=
Geledés Instituto da Mulher Negra
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.