“É preciso falar sobre os algoritmos que nos oprimem”

Safiya Noble passou os últimos sete anos a pesquisar situações de injustiça e preconceito criadas por algoritmos. Acabou a publicar um livro.

Por Karla Pequenino Do Publico

A autora descobriu que os motores de busca caracterizavam as mulheres e raparigas negras de forma preconceituosa FOTO: PEDRO CUNHA/ARQUIVO

Foi em 2011 que Safiya Umoja Noble  percebeu que não podia confiar no Google para procurar informação sobre mulheres negras sem ser bombardeada por imagens obscenas e estereótipos. Pior, eram resultados que a filha e as sobrinhas podiam encontrar. “Há uns anos, ‘raparigas negras’, para o Google, era sinónimo de pornografia”, recorda Noble ao PÚBLICO.

Numa manhã, farta de ver as jovens distraídas com a televisão e a deslizar os dedos pelos telemóveis, decidiu interromper a investigação para o doutoramento na área de Ciências da Informação e fazer uma busca sobre actividades e debates para raparigas negras. Noble esperava encontrar histórias sobre mulheres importantes para o movimento da emancipação e liberdade civil nos EUA e no mundo. Em vez disso, encontrou páginas dedicadas a fetiches de homens com mulheres negras, e imagens e linguagem explícita. Tudo na primeira página.

O problema era o mesmo para “meninas”, “mulheres” e “raparigas”, fossem da América Latina ou da Ásia. Na altura, o Google culpou os algoritmos, uma palavra que viria a tornar-se cada vez mais popular em comunicados sobre erros de grandes empresas tecnológicas. Mais tarde, no final de 2012, a empresa actualizou manualmente o algoritmo para dar menos foco à pornografia, mas Noble já tinha percebido que o problema não era um caso isolado

A professora em Estudos Sociais, Étnicos e de Género passou os últimos sete anos a recolher exemplos de como os algoritmos podem oprimir grupos de pessoas. O resultado é o livro Algorithms of Opression (Algoritmos de Opressão, não disponível em português), publicado recentemente.

“As mulheres e as raparigas não têm sorte nos motores de busca, isso é óbvio. O meu objectivo não é mostrar isto, mas desvendar as formas de pensar e o poder que os movem”, explica Noble, que lecciona sobre o tema na Universidade de Annenberg, na Califórnia. “As grandes empresas adoram escrever que não foram as responsáveis, que é o algoritmo. Mas, então, por que é que dependemos dele?”

O livro dá vários exemplos. Nos EUA, pesquisar “crimes de negros contra brancos” ainda leva a páginas extremistas contra a população negra e judeus, mas omite informação de fontes legais que mostram que, estatisticamente, a maioria dos crimes contra brancos nos EUA é cometida por brancos. Pesquisar “gorilas” já foi sinónimo de pesquisar negros, mas pesquisar “estilo académico” mostra maioritariamente homens brancos de fato.

Apesar de alguns motores de busca esconderem resultados relacionados com “pornografia” e “sexo explícito”, este tipo de resultados podem surgir. Mesmo quando a pessoa não o quer. Uma directora de uma escola secundária em Queens, nos EUA, foi despedida quando o ex-marido publicou fotografias privadas da sua vida sexual e o Google não as conseguiu filtrar, remover ou esconder do topo. “Preocupo-me que mulheres sejam automaticamente consideradas ‘raparigas’ e que a identidade é tão facilmente confundida com pornografia na Internet”, escreve Safiya a certa altura. “A indústria pornográfica é poderosa e tem o capital para comprar as palavras-chave – e identidades – que quiser.”

Os algoritmos que discriminam de forma positiva e evitam palavras “problemáticas” não são a excepção ao problema. “A ideologia de ‘não vejo cores’ é perigosa, porque suprime elementos únicos da cultura e da etnia de alguém”, frisa a autora. Nesta tentativa de ver todas as pessoas como iguais, o Yelp (uma plataforma que permite encontrar restaurantes e serviços) dificultou o trabalho de uma cabeleireira negra em Nova Iorque que tentava promover o seu serviço junto de outras mulheres negras. Como é que algoritmos sabem as necessidades das minorias?”, lê-se no capítulo dedicado a este episódio. “Não nos chamamos uns aos outros afro-americanos; a sociedade é que nos chama assim. Nós somos negros.”

São histórias assim que preenchem as páginas do livro de Noble. Apesar de muitas se focarem no Google, Noble diz que não vê o serviço como um vilão. “Precisava de um foco para os meus exemplos. Se tentamos falar de tudo, não falamos de nada e o Google é o motor de busca dominante. Eu também uso o Google… Quando quero encontrar o café ou pastelaria mais próxima, é excelente”, diz Noble. “Mas não devia ser o primeiro passo numa pesquisa sobre notícias ou cultura. Como professora, vejo cada vez mais alunos a depender das primeiras páginas do motor de busca para formar opiniões.”

Algoritmo misterioso

Parte do problema, diz Noble, é que se sabe pouco sobre a lógica do algoritmo do motor de busca. De acordo com o site de marketing Moz, que regista mudanças no algoritmo, a fórmula é alterada entre 500 e 600 vezes por ano. “É impossível ter respostas certas sobre o que influencia estes algoritmos e os humanos que os constroem quando o tema não está sujeito a discussão, excepto quando o criticamos,” diz a autora. “E é preciso falar sobre os algoritmos que nos oprimem.”

Mudar o paradigma é difícil. “É muito fácil dizer que tudo se resolve em Silicon Valley ao contratar indivíduos com características físicas e sociais específicas, mas isso é injusto,” diz Noble sobre a preocupação em pôr mais mulheres e minorias a trabalhar em tecnologia. “Muitas pessoas negras com quem falei em Silicon Valley queixam-se de que são vistas como a solução para os problemas da diversidade.”

Uma das soluções que idealiza é “tirar o poder dos algoritmos” com um motor de busca em que as pessoas podem escolher se querem ver conteúdo filtrado para não mostrar racismo, homofobia, conteúdo pornográfico ou sexista. Ou, pelo contrário, se querem ver tudo. “Dá-se a escolha às pessoas”, defende Noble. “Que tal um modelo de busca super-transparente, em vez do esquema totalmente opaco que o Google usa para temas relacionados com cultura e sociedade?”

Para Noble, é altura de voltar a colocar o poder na mãos de verdadeiras bibliotecas digitais. No futuro, quer explorar formas de a inteligência artificial começar a fazer o mesmo. “Desde que comecei a escrever o livro, a empresa-mãe do Google, a Alphabet, entrou na tecnologia de drones, robôs militares e tecnologias de videovigilância.  [Vendeu entretanto a empresa de robótica militar.] É um perigo para a democracia se continuarmos a deixar sistemas de decisão autónoma, que são injustos e preconceituosos, controlarem as máquinas.”

+ sobre o tema

O racismo derrotado

A eliminação do Grêmio da Copa do Brasil é...

Advogado relata racismo após criança negra pedir sorvete no Leblon

"É por isso que esta gente não vai embora...

Presidente do STF assina nesta quarta-feira (18) norma que institui cotas para negros em concursos

O presidente do Supremo Tribunal Federal (STF), ministro Ricardo...

para lembrar

Em audiência na OEA, Brasil reconhece extermínio da juventude negra em audiência na OEA

Nota da Mamapress Por Marcos Romão, do Mamapress O senhor Breno Costa...

TEMA EM DISCUSSÃO: O STF e o sistema de cotas

Por: FREI DAVID SANTOS Mais de 1600 instituições...

Para comentarista negro da CNN a eleição de Trump tem muito a ver com questão de raça

Boa parte do planeta despertou indignada com a eleição...

Cartas do Pai: “Bala perdida não existe!”

O público alvo das balas perdidas é o preto...
spot_imgspot_img

Justiça para Herus, executado em festa junina no Rio

Não há razão alguma em segurança pública para que Herus Guimarães Mendes, um office boy de 23 anos, pai de uma criança de dois...

Em tempos de cólera, amor

Planejei escrever sobre o amor numa semana mais que óbvia. Eu adoro esta data capitalista-afetiva que é o Dia dos Namorados. Gosto que nossa...

Lula sanciona lei de cotas para negros em concurso e eleva reserva de vagas para 30%

O presidente Lula (PT) sancionou nesta terça-feira (3) a prorrogação da lei de cotas federais, que passa a reservar 30% das vagas para pretos e pardos em concursos...
-+=
Geledés Instituto da Mulher Negra
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.