OpenAI revela uso de suas ferramentas para desinformação por russos e israelenses

Em um detalhado relatório sobre o uso de seu software para propaganda, o desenvolvedor do ChatGPT afirmou que as operações de influência não obtiveram grande impacto nem alcançaram um amplo público

A OpenAI, conhecida por desenvolver o ChatGPT, revelou na quinta-feira (30) que grupos da Rússia, China, Israel e Irã usaram suas ferramentas de inteligência artificial (IA) em campanhas de desinformação. De acordo com o relatório de 38 páginas, esses grupos não usaram a IA de forma exclusiva, mas integraram os conteúdos gerados por essa tecnologia com formatos “mais tradicionais”, como textos escritos manualmente ou memes. As informações são do jornal The Guardian.

Essas operações de influência buscavam espalhar informações falsas ou não confiáveis sobre temas como a invasão russa da Ucrânia, o conflito em Gaza, as eleições na Índia, questões políticas europeias e norte-americanas, e críticas ao governo chinês. A OpenAI também notou que esses grupos usaram seus serviços para gerar texto e, ocasionalmente, imagens. A empresa tecnológica implementa processos defensivos que frequentemente impedem seus modelos de gerar conteúdo solicitado por esses grupos.

A empresa encerrou contas ligadas a duas operações russas (Bad Grammer e Doppelganger), uma campanha chinesa (Spamouflage), uma rede iraniana (União Internacional de Mídia Virtual) e uma operação israelense (Zero Zeno).

A OpenAI revelou que atores mal-intencionados estão utilizando seus modelos de inteligência artificial (IA) generativa para criar e divulgar conteúdo de propaganda em plataformas de mídia social, além de traduzir esse conteúdo para diferentes idiomas. De acordo com o documento, essas campanhas não conseguiram ganhar força significativa ou alcançar grandes públicos.

ChatGPT, uma inteligência artificial de linguagem natural desenvolvida pela OpenAI (Foto: Pexels/Divulgação)

À medida que a IA generativa se torna uma indústria em rápida expansão, há uma crescente preocupação entre pesquisadores e legisladores sobre seu potencial para aumentar tanto a quantidade quanto a qualidade da desinformação online. Nesse cenário, empresas de inteligência artificial, como a OpenAI, têm enfrentado o desafio de mitigar essas preocupações e implementar barreiras em suas tecnologias.

A OpenAI detalhando o uso de sua IA para propaganda. Nos últimos três meses, a empresa identificou e baniu contas associadas a cinco operações secretas de influência, envolvendo atores estatais e privados. Na Rússia, operações criaram conteúdo crítico aos EUA, Ucrânia e nações bálticas, e uma usou inteligência artificial para criar um bot no Telegram. A China gerou textos em vários idiomas publicados no Twitter e Medium. Já atores iranianos produziram artigos contra os EUA e Israel, traduzidos para inglês e francês. A empresa israelense Stoic gerenciava contas falsas que acusavam protestos estudantis nos EUA de antissemitismo.

A OpenAI relatou que grande parte do conteúdo gerado ainda retratava a Ucrânia, os Estados Unidos, a Otan (Organização do Tratado do Atlântico Norte) e a União Europeia (UE) de forma negativa. Também foram produzidos textos em chinês, inglês, japonês e coreano que criticavam figuras proeminentes, como o ator e ativista pró Tibete Richard Gere e o dissidente Cai Xia, além de destacar abusos contra os nativos americanos, repercutiu a agência Al Jazeera.

Vários disseminadores de desinformação banidos pela OpenAI já eram conhecidos pelas autoridades. Em março, o Tesouro dos EUA sancionou dois russos envolvidos em uma das campanhas detectadas, e a Meta baniu a Stoic por violações de políticas.

O relatório da OpenAI destaca que a IA generativa está sendo usada em campanhas de desinformação para criar publicações mais convincentes em línguas estrangeiras, embora não seja a única ferramenta utilizada.

“Todas essas operações usaram IA até certo ponto, mas nenhuma a utilizou exclusivamente”, afirma o relatório. “O material gerado pela IA era apenas um dos muitos tipos de conteúdo postados, juntamente com formatos mais tradicionais, como textos escritos manualmente ou memes copiados da internet”.

Apesar de não terem gerado um impacto significativo, a utilização crescente da tecnologia de inteligência artificial (IA) generativa em campanhas de desinformação está levantando preocupações sobre a interferência eleitoral. Atores mal-intencionados estão descobrindo que a IA generativa permite uma produção mais eficiente de propaganda, escrevendo, traduzindo e publicando conteúdo de forma mais rápida e abrangente.

O relatório aponta que, no último ano, esses atores têm sido observados em vários países, empregando IA generativa para influenciar a política e a opinião pública. Desde áudio deepfake até imagens geradas por IA e campanhas baseadas em texto, uma série de táticas foi utilizada para perturbar campanhas eleitorais, aumentando a pressão sobre empresas como a OpenAI para restringir o uso de suas ferramentas.

“Detetar e interromper abusos multiplataforma, como operações de influência secreta, pode ser um desafio porque nem sempre sabemos como o conteúdo gerado pelos nossos produtos é distribuído. Mas estamos empenhados em encontrar e mitigar este abuso em grande escala, aproveitando o poder da IA ​​generativa”, disse o relatório.

Tags: