“É preciso falar sobre os algoritmos que nos oprimem”

Safiya Noble passou os últimos sete anos a pesquisar situações de injustiça e preconceito criadas por algoritmos. Acabou a publicar um livro.

Por Karla Pequenino Do Publico

A autora descobriu que os motores de busca caracterizavam as mulheres e raparigas negras de forma preconceituosa FOTO: PEDRO CUNHA/ARQUIVO

Foi em 2011 que Safiya Umoja Noble  percebeu que não podia confiar no Google para procurar informação sobre mulheres negras sem ser bombardeada por imagens obscenas e estereótipos. Pior, eram resultados que a filha e as sobrinhas podiam encontrar. “Há uns anos, ‘raparigas negras’, para o Google, era sinónimo de pornografia”, recorda Noble ao PÚBLICO.

Numa manhã, farta de ver as jovens distraídas com a televisão e a deslizar os dedos pelos telemóveis, decidiu interromper a investigação para o doutoramento na área de Ciências da Informação e fazer uma busca sobre actividades e debates para raparigas negras. Noble esperava encontrar histórias sobre mulheres importantes para o movimento da emancipação e liberdade civil nos EUA e no mundo. Em vez disso, encontrou páginas dedicadas a fetiches de homens com mulheres negras, e imagens e linguagem explícita. Tudo na primeira página.

O problema era o mesmo para “meninas”, “mulheres” e “raparigas”, fossem da América Latina ou da Ásia. Na altura, o Google culpou os algoritmos, uma palavra que viria a tornar-se cada vez mais popular em comunicados sobre erros de grandes empresas tecnológicas. Mais tarde, no final de 2012, a empresa actualizou manualmente o algoritmo para dar menos foco à pornografia, mas Noble já tinha percebido que o problema não era um caso isolado

A professora em Estudos Sociais, Étnicos e de Género passou os últimos sete anos a recolher exemplos de como os algoritmos podem oprimir grupos de pessoas. O resultado é o livro Algorithms of Opression (Algoritmos de Opressão, não disponível em português), publicado recentemente.

“As mulheres e as raparigas não têm sorte nos motores de busca, isso é óbvio. O meu objectivo não é mostrar isto, mas desvendar as formas de pensar e o poder que os movem”, explica Noble, que lecciona sobre o tema na Universidade de Annenberg, na Califórnia. “As grandes empresas adoram escrever que não foram as responsáveis, que é o algoritmo. Mas, então, por que é que dependemos dele?”

O livro dá vários exemplos. Nos EUA, pesquisar “crimes de negros contra brancos” ainda leva a páginas extremistas contra a população negra e judeus, mas omite informação de fontes legais que mostram que, estatisticamente, a maioria dos crimes contra brancos nos EUA é cometida por brancos. Pesquisar “gorilas” já foi sinónimo de pesquisar negros, mas pesquisar “estilo académico” mostra maioritariamente homens brancos de fato.

Apesar de alguns motores de busca esconderem resultados relacionados com “pornografia” e “sexo explícito”, este tipo de resultados podem surgir. Mesmo quando a pessoa não o quer. Uma directora de uma escola secundária em Queens, nos EUA, foi despedida quando o ex-marido publicou fotografias privadas da sua vida sexual e o Google não as conseguiu filtrar, remover ou esconder do topo. “Preocupo-me que mulheres sejam automaticamente consideradas ‘raparigas’ e que a identidade é tão facilmente confundida com pornografia na Internet”, escreve Safiya a certa altura. “A indústria pornográfica é poderosa e tem o capital para comprar as palavras-chave – e identidades – que quiser.”

Os algoritmos que discriminam de forma positiva e evitam palavras “problemáticas” não são a excepção ao problema. “A ideologia de ‘não vejo cores’ é perigosa, porque suprime elementos únicos da cultura e da etnia de alguém”, frisa a autora. Nesta tentativa de ver todas as pessoas como iguais, o Yelp (uma plataforma que permite encontrar restaurantes e serviços) dificultou o trabalho de uma cabeleireira negra em Nova Iorque que tentava promover o seu serviço junto de outras mulheres negras. Como é que algoritmos sabem as necessidades das minorias?”, lê-se no capítulo dedicado a este episódio. “Não nos chamamos uns aos outros afro-americanos; a sociedade é que nos chama assim. Nós somos negros.”

São histórias assim que preenchem as páginas do livro de Noble. Apesar de muitas se focarem no Google, Noble diz que não vê o serviço como um vilão. “Precisava de um foco para os meus exemplos. Se tentamos falar de tudo, não falamos de nada e o Google é o motor de busca dominante. Eu também uso o Google… Quando quero encontrar o café ou pastelaria mais próxima, é excelente”, diz Noble. “Mas não devia ser o primeiro passo numa pesquisa sobre notícias ou cultura. Como professora, vejo cada vez mais alunos a depender das primeiras páginas do motor de busca para formar opiniões.”

Algoritmo misterioso

Parte do problema, diz Noble, é que se sabe pouco sobre a lógica do algoritmo do motor de busca. De acordo com o site de marketing Moz, que regista mudanças no algoritmo, a fórmula é alterada entre 500 e 600 vezes por ano. “É impossível ter respostas certas sobre o que influencia estes algoritmos e os humanos que os constroem quando o tema não está sujeito a discussão, excepto quando o criticamos,” diz a autora. “E é preciso falar sobre os algoritmos que nos oprimem.”

Mudar o paradigma é difícil. “É muito fácil dizer que tudo se resolve em Silicon Valley ao contratar indivíduos com características físicas e sociais específicas, mas isso é injusto,” diz Noble sobre a preocupação em pôr mais mulheres e minorias a trabalhar em tecnologia. “Muitas pessoas negras com quem falei em Silicon Valley queixam-se de que são vistas como a solução para os problemas da diversidade.”

Uma das soluções que idealiza é “tirar o poder dos algoritmos” com um motor de busca em que as pessoas podem escolher se querem ver conteúdo filtrado para não mostrar racismo, homofobia, conteúdo pornográfico ou sexista. Ou, pelo contrário, se querem ver tudo. “Dá-se a escolha às pessoas”, defende Noble. “Que tal um modelo de busca super-transparente, em vez do esquema totalmente opaco que o Google usa para temas relacionados com cultura e sociedade?”

Para Noble, é altura de voltar a colocar o poder na mãos de verdadeiras bibliotecas digitais. No futuro, quer explorar formas de a inteligência artificial começar a fazer o mesmo. “Desde que comecei a escrever o livro, a empresa-mãe do Google, a Alphabet, entrou na tecnologia de drones, robôs militares e tecnologias de videovigilância.  [Vendeu entretanto a empresa de robótica militar.] É um perigo para a democracia se continuarmos a deixar sistemas de decisão autónoma, que são injustos e preconceituosos, controlarem as máquinas.”

+ sobre o tema

MPF entra com ação contra Bolsonaro por por declarações ofensivas a negros e quilombolas

Ministério Público Federal entrou nesta segunda-feira com ação civil...

Milhares regressam às ruas em Chicago para protestar contra atuação policial

Milhares de manifestantes impediram a entrada nas lojas em...

Demitido por ser negro não arrumadinho!

Robson de Sá, 24, modelo e cantor nas horas...

ProUni: por sete votos a um, os ministros do STF julgam programa constitucional

O ministro Aloizio Mercadante comemorou, nesta quinta-feira, 3, o...

para lembrar

Senado debate participação dos negros em graduação no exterior

    A Comissão de Direitos Humanos e...

Nomear corretamente a discriminação que adolescentes sofrem é fundamental

Recentemente, fomos impactados pela notícia do suicídio de um adolescente de...

Rodeo racista contra Obama indigna americanos

Um dos espetáculos de rodeo da feira do estado...

O assombro que vaza da simples existência…

Sou dessas pessoas fissuradas pela ideia de cruzar a...
spot_imgspot_img

Movimento negro protocola pedido de convocação de Derrite e Tarcísio na Alesp

A Uneafro protocolou, nesta terça-feira (3), pedidos de convocação do governador Tarcísio de Freitas (Republicanos) e o Secretário de Segurança Pública, Guilherme Derrite, para...

Tarcísio deveria ser responsabilizado por casos de violência da PM

As recentes notícias de violência policial em São Paulo evidenciam o descontrole da segurança pública no estado. Dados do Instituto Sou da Paz apontam...

O horror na PM paulista não são casos isolados

É preciso ir além do horror estomacal que qualquer ser humano privado de sociopatia sente ao ver policiais jogando um homem de uma ponte...
-+=