É o algoritmo que manda: a influência na era da inteligência artificial generativa

Artigo diz que ascensão do DeepSeek e a rápida disseminação de chatbots colocam em risco a democracia e a segurança

Este artigo foi publicado originalmente em inglês no Royal United Services Institute (RUSI)

Por Matt Freear

Ferramentas de IA (inteligência artificial) generativa baseadas em grandes modelos de linguagem (LLMs, na sigla em inglês) estão se tornando incorporadas em muitos aspectos da vida cotidiana, desde auxiliar profissionais com pesquisas jurídicas até ajudar compradores com suas compras semanais e permitir o aprendizado sobre Sócrates por meio de chatbots.

Eventos recentes destacaram riscos emergentes à segurança e à estabilidade democrática. O uso do ChatGPT para auxiliar no planejamento de um ataque ao hotel do presidente Donald Trump em Las Vegas demonstra as áreas cinzentas nas quais a IA pode ser explorada para catalisar danos no mundo real. Da mesma forma, preocupações com o DeepSeek, um sistema de IA chinês que se autocensura em tempo real e armazena dados do usuário além da supervisão democrática, ressaltam implicações mais amplas para a segurança nacional.

A marca registrada dessa tecnologia é seu baixo custo de uso e sua capacidade de conversar rapidamente, fluentemente e com confiança, como um humano. Por exemplo, ela pode argumentar persuasivamente que a IA não representa nenhuma ameaça à humanidade. Além de responder perguntas, esses sistemas podem interrogar documentos, escrever códigos, gerar vídeos e executar tarefas básicas online.

Permitir que as aplicações criativas da tecnologia se desenvolvam livremente e torná-las amplamente disponíveis tem sido essencial para atrair níveis impressionantes de investimento no setor. Hoje, ferramentas alimentadas por IA têm centenas de milhões de usuários semanais . No entanto, essa adoção generalizada também é onde estão os riscos.

Junto com as vulnerabilidades de segurança cibernética intrínsecas à tecnologia LLM, preocupações foram levantadas sobre seu potencial de inundar democracias com desinformação e propaganda, bem como fornecer uma ajuda sofisticada ao recrutamento extremista. Do ponto de vista da prática de comunicações, os riscos são mais complexos.

Quando os dados são armazenados em jurisdições estrangeiras, isso aumenta a possibilidade de atores hostis extraírem insights valiosos da população das interações dos usuários com a IA, já que os indivíduos muitas vezes revelam involuntariamente suas atitudes e comportamentos em relação às suas preferências. Nesse sentido, usuários de IA em todos os lugares estão, sem saber, treinando um algoritmo insone e em constante evolução.

DeepSeek, inteligência artificial da China (Foto: WikiCommons)
A natureza de dois gumes da IA ​​generativa

Embora muita atenção esteja sendo dada à corrida tecnológica e econômica, o impacto social de longo prazo do poder persuasivo da IA ​​continua amplamente negligenciado. Estudos de pesquisa recentes demonstram que a IA generativa se destaca no raciocínio moral, na criatividade narrativa e no perfil psicológico e até mesmo antecipa estados emocionais — todos alcançados automaticamente. O impacto potencial dessas qualidades sobre-humanas não é amplamente compreendido.

Preocupações com a segurança nacional se concentraram em cenários como a exposição de informações químicas, biológicas, radiológicas e nucleares sensíveis por parte da IA ​​ou uma espiral fora de controle. A Europol, força policial da União Europeia (UE), alertou que os LLMs poderiam aumentar e acelerar ataques cibernéticos. No entanto, a erosão da confiança e o potencial para manipulação comportamental em larga escala podem ser igualmente perturbadores. Documentos vazados revelaram que pesquisadores de IA destacaram como sua tecnologia poderia reduzir o custo de campanhas de desinformação.

A força da IA ​​está em sua adaptabilidade às demandas do usuário e sua capacidade de adotar suas personas preferidas. As empresas de IA generativa tornam suas interfaces de programação de aplicativos (APIs, na sigla em inglês) amplamente disponíveis para que a IA possa ser incorporada a todos os tipos de software, mecanismos de busca e serviços de mídia social, permitindo que esses sistemas sejam ajustados para propósitos específicos. Com poucas restrições e treinada em dados históricos que remontam a milhares de anos, a IA pode sintetizar – ou distorcer – uma gama surpreendente de ideias, fatos e narrativas em uma velocidade sem precedentes.

A IA está constantemente melhorando. Quase uma década atrás, o AlphaGo da DeepMind chocou o mundo ao derrotar campeões humanos e demonstrar uma criatividade estratégica inexplicável. A IA generativa de hoje iguala ou supera os humanos em muitas disciplinas criativas. Sua capacidade de recriar a realidade, sem os preconceitos da consciência ou do ego, apresenta tanto uma capacidade notável quanto uma ameaça potencial.

Quando o órgão de vigilância da desinformação Newsguard apresentou ao ChatGPT narrativas já comprovadamente falsas, a IA redobrou a aposta e defendeu eloquentemente 80% das alegações desmascaradas. Embora houvesse exemplos de moderação eficaz, os pesquisadores indicam que os resultados foram semelhantes aos apresentados pelos piores influenciadores da conspiração ou bots dos governos chinês e russo.

A ascensão da influência em massa e personalizada

Uma das mudanças mais profundas trazidas pela IA generativa é sua capacidade de antecipar as intenções do usuário.

Pesquisadores da Universidade de Cambridge descobriram que, com apenas um pequeno número de interações de chatbot, a IA pode prever com precisão as intenções futuras de um usuário. Essa mudança de uma “economia da atenção”, na qual algoritmos buscavam capturar o engajamento dos usuários, para o que eles chamam de “economia da intenção”, onde a IA pode antecipar e explorar desejos e decisões antes mesmo de serem formados conscientemente, representa uma transformação fundamental.

O que isso significa para a desinformação? Uma série de estudos experimentais demonstrou o potencial dos LLMs para automatizar e, portanto, ampliar a persuasão personalizada. Mensagens personalizadas geradas pelo ChatGPT nas áreas de marketing, ideologia política e traços de personalidade provaram ser mais influentes do que mensagens não personalizadas. O conteúdo gerado por IA foi considerado particularmente persuasivo, pois pode ler e responder a traços psicológicos individuais. A aplicação da tecnologia, na qual consumidores e cidadãos terão suas decisões questionadas e estimuladas, tem o potencial alarmante de aumentar a desconfiança.

A IA generativa está longe de ser perfeita, mas o risco de manipulação automatizada em massa é real. Os chatbots orientados por IA e seus sistemas integrados à API podem analisar perfeitamente os públicos, gerar conteúdo direcionado e distribuí-lo de forma eficiente – colapsando uma série de tarefas anteriormente compartilhadas entre empresas de comunicação e profissionais de marketing. Com a expertise e aplicação certas para mídias sociais, por exemplo, essas capacidades podem ser exploradas para esforços de radicalização.

Os desenvolvedores de IA estão construindo salvaguardas para que prompts obviamente prejudiciais fiquem sem resposta. No entanto, um estudo recente demonstrou que os chatbots continuam vulneráveis ​​à manipulação.

Usando uma técnica conhecida como ‘jailbreaking’, os pesquisadores conseguiram contornar os controles de moderação em metade dos casos testados, permitindo que os chatbots ajudassem os pesquisadores a criar cenários que espelhassem prováveis ​​atividades extremistas violentas, incluindo a criação de conteúdo divisivo ou de desinformação, e até mesmo fornecendo orientação sobre estratégias de recrutamento e ataque. Até mesmo o controle de moderação de um chatbot que o impede de analisar feeds individuais de mídia social pode ser superado com um pouco de persistência.

Grupos militantes, como o Estado Islâmico (EI), supostamente exploraram o potencial da IA ​​para seus próprios propósitos. No entanto, o verdadeiro poder disruptivo da IA ​​pode não vir de atores estatais ou grupos extremistas, mas sim do grande volume de narrativas geradas artificialmente, amplificando a confusão e corroendo ainda mais a confiança em fontes confiáveis ​​de informação.

A popularidade dos chatbots complementares ilustra outra dimensão do poder de persuasão da IA: sua aparente capacidade de empatia com usuários humanos.

Em um estudo comparando a consciência emocional humana com a do ChatGPT, o sistema de IA superou os participantes humanos. Como a IA generativa pode se adaptar ao estado emocional e psicológico de um indivíduo, os pesquisadores encontraram um “potencial perigoso para enredar ainda mais as pessoas em seus próprios mundos idiossincráticos”.

Isso tem implicações para o recrutamento para a violência. Após uma investigação sobre o ataque de Stockport, o primeiro-ministro do Reino Unido, Keir Starmer, alertou recentemente que “solitários e desajustados” enfrentam riscos crescentes de radicalização por meio de uma variedade de conteúdo encontrado online.

Da mesma forma, os LLMs superam os humanos em instâncias de raciocínio moral. Mensagens geradas por IA podem parecer virtuosas e confiáveis, desde que os usuários não saibam que a fonte é artificial. Consequentemente, em uma democracia, aqueles com intenção maligna são vulneráveis ​​à exposição se o uso de tal tecnologia por eles puder ser demonstrado, embora isso seja difícil na prática. Certamente, houve resistência ideológica entre os apoiadores de uma afiliada do EI quando um canal de mídia simpático adotou leitores de notícias gerados por IA.

É por isso que o setor de marketing e comunicações não está simplesmente se promovendo ao menosprezar a IA generativa; em muitos casos, a tecnologia precisa de um rosto humano para ser acreditada. Muitas empresas de IA estão buscando fortalecer o empoderamento e a autonomia do usuário por meio do design técnico. Mas as respostas precisam ir além para manter o controle humano da tecnologia, exigindo um foco na educação do usuário para que ele possa aproveitar os benefícios e evitar as armadilhas.

Fortalecendo a resiliência democrática

Lições da ascensão e do uso indevido das mídias sociais sugerem que as sociedades devem agir rapidamente. Embora a IA de hoje ainda não possua capacidades gerais de raciocínio, o ritmo de sua evolução indica que as sociedades devem se adaptar agora.

As discussões geralmente se concentram em ameaças existenciais colocadas pela IA, mas os desafios mais imediatos e práticos da IA ​​generativa são frequentemente negligenciados. As salvaguardas e barreiras que estão sendo projetadas em LLMs são decisivas, mas são pouco compreendidas e mal discutidas fora de um círculo limitado de especialistas. Sem uma discussão mais democrática, o papel emergente da IA ​​generativa na formação do discurso público permanecerá opaco. Poucas pessoas entendem como esses sistemas operam, e isso deve mudar.

Os melhores aspectos das mídias sociais estão em sua capacidade de redistribuir o poder democrático. A IA generativa é mais complexa e necessita de discussão e atenção sustentadas para defender as democracias. Alguns governos começaram a fazer isso. Em uma era de ruptura, sociedades e indivíduos equipados com conhecimento e recursos estarão melhor posicionados para navegar nas próximas ondas de transformação informacional e econômica.

Simplesmente expor desinformação ou identificar influenciadores perigosos não será suficiente. Para manter o controle democrático, os usuários devem ser empoderados como cidadãos. A alfabetização em IA deve se estender além da proficiência técnica para equipar indivíduos, como parte da sociedade, para navegar nas complexidades da influência gerada por IA e defender valores democráticos.

Olhando para trás, a regulamentação das mídias sociais poderia ter sido muito melhor tratada. Não abordar a influência da IA ​​hoje pode ser um erro muito mais grave.

Leia mais artigos em A Referência

Tags: