Na mais recente edição do evento Diálogos em Geledés, realizada na última sexta-feira (7), pesquisadores e ativistas pontuaram que a discussão sobre Inteligência Artificial (IA) no Brasil deve ser pautada a partir de recortes de raça e gênero.
Composto por dois painéis, o evento “Inteligência Artificial – Ciberativismo e o local das mulheres negras no enfrentamento à erosão democrática” se direcionou para uso político da IA nas eleições de 2026 e para o protagonismo das mulheres negras na defesa da democracia. A realização foi feita em parceria com ONU Mulheres, UNESCO e OXFAM.
“Sabemos o quanto a IA está se refinando e o quanto será nociva nas eleições do ano que vem ao reproduzir violências. No campo da violência política, quem sofre mais e quem é mais atacado são os defensores de direitos humanos, especificamente as mulheres negras, trans e indígenas”, afirmou Ana Carolina Querino, representante da ONU Mulheres Brasil, na abertura da discussão.
Uso da IA nas Eleições 2026
A primeira mesa, “De olho em 2026: IA e Participação Política das Mulheres Negras”, foi mediada por Natália Carneiro, coordenadora de Comunicação Institucional de Geledés, e contou com a participação de Juliana Cunha, psicóloga e diretora na Safernet Brasil; Natália Paiva, sócia-fundadora da Alandar Consultoria; e Fábio Eon, cientista político e Coordenador de Ciências Humanas e Sociais e Ciências Naturais da UNESCO.
Juliana Cunha chamou atenção para o uso de IA generativa para fomentar ataques e discursos de ódio em eleições, ao passo que as candidatas negras e marginalizadas são os principais alvos de ataques com uso de deepfakes. “Será que a IA generativa é um novo risco ou amplifica e traz elementos mais sofisticados para os riscos já existentes, como a desinformação e o discurso de ódio?”, questionou.

Através da IA generativa é possível criar conteúdos originais como imagens, áudios e vídeos que simulam a realidade, mas são falsos.
Os deepfakes são conteúdos irreais e aparentemente reais, criados a partir da manipulação de vídeos, áudios e imagens.
A psicóloga salientou que essas tecnologias têm ficado cada vez mais sofisticadas e com acesso facilitado, o que representa um uso mais nocivo nas eleições de 2026. Segundo Juliana, um dos maiores riscos democráticos que a IA potencializa é a naturalização de preconceitos e estereótipos.
“Esses conteúdos que circulam nos anos eleitorais geram muita polarização e engajamento das pessoas. Temos sempre picos de denúncias referentes a conteúdos violadores de direitos humanos: discurso de ódio, racismo, LGBTfobia, misoginia, neonazismo”, disse.
Natália Paiva discorreu sobre o papel do Tribunal Superior Eleitoral (TSE). Em sua visão, o órgão tende a agir cada vez mais em colaboração com empresas de tecnologia para enfrentar a desinformação e discursos de ódio. Também citou que a recente definição do Supremo Tribunal Federal (STF) sobre responsabilização de plataformas por conteúdos de terceiros deve impactar no pleito previsto para 2026.
Paiva destacou a importância de pensar o letramento digital. “Uma parte muito importante da sociedade civil precisa de literacia digital. Ou seja, aprender a reconhecer que um conteúdo é manipulado ou falso. Precisamos pensar em como conseguimos, coletivamente, nos blindar disso”, pontuou.
Além disso, falou sobre a sub-representação de mulheres negras nos cursos de tecnologia e na necessidade de se elaborar políticas públicas para o futuro do trabalho, objetivando maior diversidade nos times de criação de tecnologias.
Fábio Eon, por sua vez, ressaltou a existência de uma violência de gênero baseada na tecnologia e um viés sexista da programação de IA, considerando que a maioria dos profissionais do ramo são homens. Também ressaltou a letargia nas ações dos organismos eleitorais, em comparação com a velocidade dos avanços tecnológicos. “Ainda há uma dificuldade dos órgãos eleitorais em regular e fiscalizar o que está acontecendo em relação a IA e desinformação”, disse.
Em contraponto, o cientista político destacou os usos positivos da IA na política. “A IA pode ser uma ferramenta incrível para a organização de audiências públicas e de orçamentos participativos. Então, ela tem seus benefícios. A IA nada mais é que um vetor, temos que colocá-la na direção certa para funcionar”.
População negra no debate da IA

O segundo painel, “IA, Direitos Culturais e Direito ao Desenvolvimento da População Negra”, foi mediado por Semayat Oliveira, editora do Portal Geledés, e contou com a participação de Deivison Nkosi, escritor e pesquisador; Nina da Hora, cientista da computação e fundadora do Instituto Da Hora; Luana Barbosa, fundadora da Pajubá Tech; e Maria Eduarda Dantas, analista de direitos humanos da ONU Mulheres Brasil.
Em sua fala, Luana Barbosa salientou que, apesar do chatbots, como o Chat GPT, estarem presentes na vida de muitos estudantes e trabalhadores, democratizar o conhecimento sobre a IA ainda é um desafio no país.
“Existe uma população que não tem sequer acesso a infraestrutura tecnológicas digitais para acessar informações. Precisamos colocar as populações marginalizadas para criarem outras possibilidades através das nossas tecnologias sociais, dentro do nosso território, com nossos conhecimentos e saberes”, disse.
Pontuou ainda que: “entendemos que a área da tecnologia é predominantemente branca e cisgênera, então, precisamos fazer com que outros grupos também consigam acessar o mercado e o emprego formal por meio da tecnologia e sistemas de inovação”.
Nina Da Hora refletiu sobre as dificuldades enfrentadas por mulheres negras como ela, que disputam os saberes tecnológicos dominantes para disseminá-los nas margens. Esse movimento, segundo a cientista da computação, é essencial para ampliar a diversidade do meio.
“Tem uma perspectiva de que a IA acelera a individualidade e desigualdades que já estão postas. Então, nesse debate, não temos como desconectar o centro da margem. Precisamos ter essa articulação de dividir para conquistar”, afirmou.
Maria Eduarda Dantas Dantas destacou que o país tem avançado no debate público para a regulação, mas abordou, com preocupação, aspectos desafiadores como o assédio online e o uso da IA para violências de gênero e raça, principalmente com mulheres em evidência, como as defensoras de direitos humanos. “As análises sobre como a IA vai impactar os direitos humanos no Brasil precisam ter uma perspectiva de gênero e raça como ponto de partida”.
Outro ponto fundamental de sua exposição tem relação com os impactos dessa tecnologia no meio ambiente e nos direitos territoriais. “Toda forma de tecnologia depende de infraestruturas reais, como terra, água, energias, minérios, cabos, direitos de passagem. Então, é necessário observar como isso pode estar associado à violação de direitos a territórios e bens naturais, afetando principalmente o direito de povos e comunidades tradicionais”, disse.
Deivison Nkosi afirmou que o desenvolvimento tecnológico não é pensando para as populações negras e nem em conjunto com este grupo. Isso, segundo ele, gera um grande desafio: pensar no projeto do movimento de mulheres negras para a tecnologia. O pesquisador fez uma análise sobre o entusiasmo e o medo que o avanço da IA gera na população.
“Há uma tecnofilia de que tudo vai melhorar com a IA. E isso, no capitalismo, é falso. O desenvolvimento tecnológico vem para dar lucro e é desenhado em função do lucro. Só isso já intensifica um monte de desigualdades. Mas também é falsa a ideia de que a IA vai acabar com o mundo, porque estamos falando de tecnologias construídas socialmente e que incorporam contradições sociais”.
O conceito de tecnofilia explica o entusiasmo excessivo e a devoção por novas tecnologias e inovações, geralmente sem criticidade.
Em seguida, explicou o conceito de colonialismo digital, conceito que ilumina a hiperconcentração de poder na área de tecnologia, consequência de uma distribuição desigual. “Essa concentração de poder atrapalha o desenvolvimento de tecnologias que atendam às necessidades das diversas populações”.
Para ele, o caminho da mudança desse cenário passa por movimentos em prol de tecnologias abertas, proteção de dados, regulação das plataformas e desenvolvimento de tecnologias alternativas.
Assista a íntegra do evento











