“É preciso falar sobre os algoritmos que nos oprimem”

Safiya Noble passou os últimos sete anos a pesquisar situações de injustiça e preconceito criadas por algoritmos. Acabou a publicar um livro.

Por Karla Pequenino Do Publico

A autora descobriu que os motores de busca caracterizavam as mulheres e raparigas negras de forma preconceituosa FOTO: PEDRO CUNHA/ARQUIVO

Foi em 2011 que Safiya Umoja Noble  percebeu que não podia confiar no Google para procurar informação sobre mulheres negras sem ser bombardeada por imagens obscenas e estereótipos. Pior, eram resultados que a filha e as sobrinhas podiam encontrar. “Há uns anos, ‘raparigas negras’, para o Google, era sinónimo de pornografia”, recorda Noble ao PÚBLICO.

Numa manhã, farta de ver as jovens distraídas com a televisão e a deslizar os dedos pelos telemóveis, decidiu interromper a investigação para o doutoramento na área de Ciências da Informação e fazer uma busca sobre actividades e debates para raparigas negras. Noble esperava encontrar histórias sobre mulheres importantes para o movimento da emancipação e liberdade civil nos EUA e no mundo. Em vez disso, encontrou páginas dedicadas a fetiches de homens com mulheres negras, e imagens e linguagem explícita. Tudo na primeira página.

O problema era o mesmo para “meninas”, “mulheres” e “raparigas”, fossem da América Latina ou da Ásia. Na altura, o Google culpou os algoritmos, uma palavra que viria a tornar-se cada vez mais popular em comunicados sobre erros de grandes empresas tecnológicas. Mais tarde, no final de 2012, a empresa actualizou manualmente o algoritmo para dar menos foco à pornografia, mas Noble já tinha percebido que o problema não era um caso isolado

A professora em Estudos Sociais, Étnicos e de Género passou os últimos sete anos a recolher exemplos de como os algoritmos podem oprimir grupos de pessoas. O resultado é o livro Algorithms of Opression (Algoritmos de Opressão, não disponível em português), publicado recentemente.

“As mulheres e as raparigas não têm sorte nos motores de busca, isso é óbvio. O meu objectivo não é mostrar isto, mas desvendar as formas de pensar e o poder que os movem”, explica Noble, que lecciona sobre o tema na Universidade de Annenberg, na Califórnia. “As grandes empresas adoram escrever que não foram as responsáveis, que é o algoritmo. Mas, então, por que é que dependemos dele?”

O livro dá vários exemplos. Nos EUA, pesquisar “crimes de negros contra brancos” ainda leva a páginas extremistas contra a população negra e judeus, mas omite informação de fontes legais que mostram que, estatisticamente, a maioria dos crimes contra brancos nos EUA é cometida por brancos. Pesquisar “gorilas” já foi sinónimo de pesquisar negros, mas pesquisar “estilo académico” mostra maioritariamente homens brancos de fato.

Apesar de alguns motores de busca esconderem resultados relacionados com “pornografia” e “sexo explícito”, este tipo de resultados podem surgir. Mesmo quando a pessoa não o quer. Uma directora de uma escola secundária em Queens, nos EUA, foi despedida quando o ex-marido publicou fotografias privadas da sua vida sexual e o Google não as conseguiu filtrar, remover ou esconder do topo. “Preocupo-me que mulheres sejam automaticamente consideradas ‘raparigas’ e que a identidade é tão facilmente confundida com pornografia na Internet”, escreve Safiya a certa altura. “A indústria pornográfica é poderosa e tem o capital para comprar as palavras-chave – e identidades – que quiser.”

Os algoritmos que discriminam de forma positiva e evitam palavras “problemáticas” não são a excepção ao problema. “A ideologia de ‘não vejo cores’ é perigosa, porque suprime elementos únicos da cultura e da etnia de alguém”, frisa a autora. Nesta tentativa de ver todas as pessoas como iguais, o Yelp (uma plataforma que permite encontrar restaurantes e serviços) dificultou o trabalho de uma cabeleireira negra em Nova Iorque que tentava promover o seu serviço junto de outras mulheres negras. Como é que algoritmos sabem as necessidades das minorias?”, lê-se no capítulo dedicado a este episódio. “Não nos chamamos uns aos outros afro-americanos; a sociedade é que nos chama assim. Nós somos negros.”

São histórias assim que preenchem as páginas do livro de Noble. Apesar de muitas se focarem no Google, Noble diz que não vê o serviço como um vilão. “Precisava de um foco para os meus exemplos. Se tentamos falar de tudo, não falamos de nada e o Google é o motor de busca dominante. Eu também uso o Google… Quando quero encontrar o café ou pastelaria mais próxima, é excelente”, diz Noble. “Mas não devia ser o primeiro passo numa pesquisa sobre notícias ou cultura. Como professora, vejo cada vez mais alunos a depender das primeiras páginas do motor de busca para formar opiniões.”

Algoritmo misterioso

Parte do problema, diz Noble, é que se sabe pouco sobre a lógica do algoritmo do motor de busca. De acordo com o site de marketing Moz, que regista mudanças no algoritmo, a fórmula é alterada entre 500 e 600 vezes por ano. “É impossível ter respostas certas sobre o que influencia estes algoritmos e os humanos que os constroem quando o tema não está sujeito a discussão, excepto quando o criticamos,” diz a autora. “E é preciso falar sobre os algoritmos que nos oprimem.”

Mudar o paradigma é difícil. “É muito fácil dizer que tudo se resolve em Silicon Valley ao contratar indivíduos com características físicas e sociais específicas, mas isso é injusto,” diz Noble sobre a preocupação em pôr mais mulheres e minorias a trabalhar em tecnologia. “Muitas pessoas negras com quem falei em Silicon Valley queixam-se de que são vistas como a solução para os problemas da diversidade.”

Uma das soluções que idealiza é “tirar o poder dos algoritmos” com um motor de busca em que as pessoas podem escolher se querem ver conteúdo filtrado para não mostrar racismo, homofobia, conteúdo pornográfico ou sexista. Ou, pelo contrário, se querem ver tudo. “Dá-se a escolha às pessoas”, defende Noble. “Que tal um modelo de busca super-transparente, em vez do esquema totalmente opaco que o Google usa para temas relacionados com cultura e sociedade?”

Para Noble, é altura de voltar a colocar o poder na mãos de verdadeiras bibliotecas digitais. No futuro, quer explorar formas de a inteligência artificial começar a fazer o mesmo. “Desde que comecei a escrever o livro, a empresa-mãe do Google, a Alphabet, entrou na tecnologia de drones, robôs militares e tecnologias de videovigilância.  [Vendeu entretanto a empresa de robótica militar.] É um perigo para a democracia se continuarmos a deixar sistemas de decisão autónoma, que são injustos e preconceituosos, controlarem as máquinas.”

+ sobre o tema

Foi a mobilização intensa da sociedade que manteve Brazão na prisão

Poucos episódios escancararam tanto a política fluminense quanto a...

Selo Sesc lança Relicário: Dona Ivone Lara (ao vivo no Sesc 1999)

No quinto lançamento de Relicário, projeto que resgata áudios...

Em autobiografia, Martinho da Vila relata histórias de vida e de música

"Martinho da Vila" é o título do livro autobiográfico...

para lembrar

“Só lamento que tenha sido em Manchester e não na Bahia”

Internautas denunciaram, na manhã desta terça-feira (23), o perfil...

A Discriminação de Boris Casoy: Isso é uma vergonha

Neste vídeo o apresentador da Band, Boris Casoy declara...

Metade dos casos de racismo acontece onde a vítima trabalha ou mora

Metade dos casos de racismo acontece onde a vítima...

RACISMO NA ITÁLIA: Mais um capítulo do racismo na Itália

O prefeito de Brescia, Adriano Paroli, do PDL, informou...
spot_imgspot_img

Quanto custa a dignidade humana de vítimas em casos de racismo?

Quanto custa a dignidade de uma pessoa? E se essa pessoa for uma mulher jovem? E se for uma mulher idosa com 85 anos...

Unicamp abre grupo de trabalho para criar serviço de acolher e tratar sobre denúncias de racismo

A Unicamp abriu um grupo de trabalho que será responsável por criar um serviço para acolher e fazer tratativas institucionais sobre denúncias de racismo. A equipe...

Peraí, meu rei! Antirracismo também tem limite.

Vídeos de um comediante branco que fortalecem o desvalor humano e o achincalhamento da dignidade de pessoas historicamente discriminadas, violentadas e mortas, foram suspensos...
-+=