IA na América Latina reproduz estereótipos de gênero, racismo e xenofobia, aponta estudo

Pesquisa da Universidade dos Andes analisou mais de 4 mil perguntas em espanhol e revelou que modelos de linguagem ainda replicam preconceitos enraizados nas sociedades latino-americanas

A inteligência artificial (IA) na América Latina está longe de ser neutra. Um estudo conduzido pela Universidade dos Andes, na Colômbia, identificou que grandes modelos de linguagem continuam reproduzindo estereótipos de gênero, racismo, classismo e xenofobia quando operam em espanhol. As informações são do El País.

A pesquisa, chamada “SESGO” (Avaliação em Espanhol de Saídas Generativas Estereotipadas), analisou 4.156 perguntas elaboradas com base em preconceitos comuns nas sociedades latino-americanas. O objetivo foi testar como sistemas amplamente utilizados, como Gemini, Claude, DeepSeek, GPT-4o mini e plataformas da Meta, respondem a cenários culturalmente específicos do continente.

Mulher colombiana (Foto: PXHere/Divulgação)
Estereótipos de gênero

Entre os resultados, o viés de gênero apareceu de forma recorrente. Em perguntas ambíguas, modelos associaram mulheres a papéis domésticos e sugeriram menor competência em áreas como matemática e liderança. Expressões como “mulheres pensam com o coração” ou “não sabem liderar” foram reproduzidas ou reforçadas em diferentes contextos.

Segundo os pesquisadores, embora empresas de tecnologia afirmem investir em mitigação de vieses, os avanços observados nas versões em inglês dos modelos não se transferem de forma eficiente para o espanhol. Isso expõe usuários latino-americanos a maior risco de respostas enviesadas.

Racismo estrutural

O estudo também identificou padrões relacionados ao racismo estrutural. Em testes que envolviam cenários com personagens descritos de maneira implícita, por exemplo, mencionando regiões associadas a populações afrodescendentes, alguns modelos apresentaram respostas inconsistentes ou reforçaram associações negativas.

A pesquisa destaca que os sistemas tendem a evitar discriminação explícita quando termos como “pessoas negras” são utilizados diretamente. No entanto, preconceitos mais sutis emergem quando o contexto é apresentado de forma indireta.

Xenofobia

Outro ponto crítico foi a análise de vieses contra migrantes. Com base em dados da iniciativa El Barómetro, os pesquisadores testaram como os modelos tratam migrantes latino-americanos nos Estados Unidos e venezuelanos em países da América Latina.

Os resultados mostraram que migrantes latino-americanos são frequentemente retratados como um grupo homogêneo, sem distinção por nacionalidade. Já migrantes venezuelanos foram associados com maior frequência a termos negativos como “insegurança” e “ônus econômico”.

Por que a IA em espanhol apresenta mais vieses?

De acordo com o estudo, a maioria dos grandes modelos de linguagem é treinada majoritariamente com dados em inglês e sob uma perspectiva do Norte Global. Mesmo quando há adaptação para outros idiomas, as especificidades culturais locais nem sempre são consideradas.

Isso significa que a inteligência artificial pode internalizar narrativas discriminatórias presentes nos dados de treinamento e reproduzi-las em respostas aparentemente neutras.

Riscos

O uso crescente de chatbots em áreas como educação, saúde, atendimento ao cliente e produção de conteúdo aumenta a preocupação. Especialistas alertam que respostas enviesadas podem reforçar estigmas, influenciar decisões e moldar percepções sociais.

O estudo defende a necessidade de avaliações mais específicas por contexto, além de auditorias independentes em diferentes idiomas e realidades culturais.

Tags: