Na sexta-feira (30), pesquisadores de inteligência artificial (IA) anunciaram a remoção de mais de dois mil links para imagens de crianças, inclusive brasileiras, de um banco de dados na internet. Elas estavam em um arquivo usado para treinar ferramentas de IA e poderiam servir para gerar deepfakes dos menores de idade, segundo a ONG Human Rights Watch (HRW).
Deepfake é uma técnica que utiliza IA para inserir o rosto, outras partes do corpo ou mesmo a voz de uma pessoa em uma imagem. Assim, gera um conteúdo que, embora falso, seja convincente o bastante para se fazer passar por verdadeiro.
A LAION, uma organização alemã sem fins lucrativos que administra um banco de dados utilizado para treinar ferramentas populares de IA, excluiu de seu acervo imagens de crianças que foram inseridas de forma sigilosa e poderiam ser utilizadas indevidamente para alimentar modelos de inteligência artificial capazes de gerar deepfakes realistas de outras crianças.
A base de dados de pesquisa LAION é um vasto repositório de imagens e legendas online, utilizado por importantes criadores de imagens de IA, como o Stable Diffusion e o Midjourney.
Um relatório de dezembro de 2023 do Observatório da Internet de Stanford revelou a presença de imagens de abuso sexual infantil no conjunto de dados da LAION. Além disso, investigações da HRW descobriram fotos pessoais de crianças brasileiras e australianas inseridas secretamente nesse conjunto de dados.
O uso de fotos reais de crianças permite que modelos de IA criem clones convincentes de qualquer criança. As imagens encontradas no conjunto de dados da LAION incluíam rostos e corpos de 362 crianças australianas e 358 crianças brasileiras, capturados sem consentimento, e foram usadas para treinar modelos de IA que geram deepfakes sexualmente explícitos de outras crianças.
A LAION confirmou que algumas dessas fotos continham informações sensíveis, facilitando a identificação das crianças. A HRW relatou que as fotos identificadas foram removidas da base de dados da organização alemã.
A ação da LAION de remover essas imagens é um avanço significativo, segundo a HRW, pois demonstra que é viável excluir dados pessoais de crianças dos conjuntos de dados de treinamento de IA. Além disso, reconhece a seriedade dos danos causados às crianças quando seus dados são utilizados de forma prejudicial, de maneiras imprevisíveis e difíceis de proteger, devido à natureza dos sistemas de IA.
Neste mês, o governo australiano anunciará se honrará seu compromisso de introduzir a primeira lei desse tipo no país, um Código de Privacidade Infantil. E o Senado do Brasil em breve deliberará sobre uma lei proposta que protege os direitos das crianças online, incluindo sua privacidade de dados.
“Essas são oportunidades raras de proteger significativamente as crianças. Os legisladores devem fazer isso”, disse a HRW.