O problema com a inteligência artificial? Não é artificial ou inteligente

Enquanto o ChatGPT é bom em correspondência de padrões, a mente humana faz muito mais

Este conteúdo foi publicado originalmente em inglês no site do jornal The Guardian

Por Evgeny Morozov*

Elon Musk e o cofundador da Apple, Steve Wozniak, assinaram recentemente uma carta pedindo uma moratória de seis meses no desenvolvimento de sistemas de IA (inteligência artificial). O objetivo é dar à sociedade tempo para se adaptar ao que os signatários descrevem como um “verão da IA”, que eles acreditam que acabará por beneficiar a humanidade, desde que as proteções corretas sejam implementadas. Essas proteções incluem protocolos de segurança rigorosamente auditados.

É uma meta louvável, mas há uma maneira ainda melhor de passar esses seis meses: retirar do debate público o rótulo banal de “inteligência artificial”. O termo pertence ao mesmo lixo da história que inclui “cortina de ferro”, “teoria do dominó” e “momento Sputnik”. Ele sobreviveu ao fim da Guerra Fria por causa de seu fascínio por entusiastas e investidores de ficção científica. Podemos nos dar ao luxo de ferir seus sentimentos.

Na realidade, o que hoje chamamos de “inteligência artificial” não é nem artificial nem inteligente. Os primeiros sistemas de IA eram fortemente dominados por regras e programas, então alguma conversa sobre “artificialidade” era pelo menos justificada. Mas os de hoje, incluindo o favorito de todos, ChatGPT , tiram sua força do trabalho de humanos reais: artistas, músicos, programadores e escritores cuja produção criativa e profissional é agora apropriada em nome de salvar a civilização. Na melhor das hipóteses, isso é “inteligência não artificial”.

ChatGPT extrai sua força do trabalho de humanos reais. Na melhor das hipóteses, isso é inteligência não artificial (Foto: Focal Foto/Flickr)

Quanto à parte de “inteligência”, os imperativos da Guerra Fria que financiaram grande parte do trabalho inicial em IA deixaram uma marca pesada em como a entendemos. Estamos falando sobre o tipo de inteligência que seria útil em uma batalha. Por exemplo, a força da IA ​​moderna está na correspondência de padrões. Não é de surpreender, visto que um dos primeiros usos militares de redes neurais – a tecnologia por trás do ChatGPT – foi localizar navios em fotografias aéreas.

No entanto, muitos críticos apontaram que a inteligência não se trata apenas de correspondência de padrões. Igualmente importante é a capacidade de fazer generalizações. A obra de arte Fountain, de Marcel Duchamp, de 1917, é um excelente exemplo disso. Antes da peça de Duchamp, um mictório era apenas um mictório. Mas, com uma mudança de perspectiva, Duchamp a transformou em obra de arte. Naquele momento, ele estava generalizando sobre arte.

Quando generalizamos, a emoção substitui as classificações arraigadas e aparentemente “racionais” de ideias e objetos do cotidiano. Ele suspende as operações usuais, quase maquínicas, de correspondência de padrões. Não é o tipo de coisa que você quer fazer no meio de uma guerra.

A inteligência humana não é unidimensional. Baseia-se no que o psicanalista chileno do século 20, Ignacio Matte Blanco, chamou de bi-lógica: uma fusão da lógica estática e atemporal do raciocínio formal e a lógica contextual e altamente dinâmica da emoção. O primeiro busca diferenças; o último é rápido em apagá-los. A mente de Marcel Duchamp sabia que o mictório pertencia a um banheiro; seu coração não. A lógica biológica explica como reagrupamos coisas mundanas de maneiras novas e perspicazes. Todos nós fazemos isso – não apenas Duchamp.

A IA nunca chegará lá porque as máquinas não podem ter um sentido (ao invés de mero conhecimento) do passado, presente e futuro; de história, lesão ou nostalgia. Sem isso não há emoção, privando a bi-lógica de um de seus componentes. Assim, as máquinas permanecem presas na lógica formal singular. Então lá vai a parte da “inteligência”.

ChatGPT tem seus usos. É um mecanismo de previsão que também pode funcionar como uma enciclopédia. Quando questionado sobre o que o porta-garrafas, a pá de neve e o mictório têm em comum, respondeu corretamente que são todos objetos do cotidiano que Duchamp transformou em arte.

Mas quando questionado sobre qual dos objetos de hoje Duchamp transformaria em arte, ele sugeriu: smartphones, patinetes eletrônicos e máscaras faciais. Não há nenhum indício de qualquer “inteligência” genuína aqui. É uma máquina estatística bem administrada, mas previsível.

O perigo de continuar a usar o termo “inteligência artificial” é que corre o risco de nos convencer de que o mundo funciona com uma lógica singular: a do racionalismo altamente cognitivo e de sangue frio. Muitos no Vale do Silício já acreditam nisso – e estão ocupados reconstruindo o mundo informado por essa crença.

Mas a razão pela qual ferramentas como o ChatGPT podem fazer qualquer coisa remotamente criativa é porque seus conjuntos de treinamento foram produzidos por seres humanos realmente existentes, com suas emoções complexas, ansiedades e tudo. Se quisermos que essa criatividade persista, também devemos financiar a produção de arte, ficção e história – não apenas data centers e aprendizado de máquina.

Não é para onde as coisas apontam agora. O risco final de não aposentar termos como “inteligência artificial” é que eles tornarão invisível o trabalho criativo da inteligência, ao mesmo tempo em que tornam o mundo mais previsível e estúpido.

Portanto, em vez de passar seis meses auditando os algoritmos enquanto esperamos pelo “verão da IA”, podemos muito bem reler ‘Sonho de uma Noite de Verão’, de Shakespeare. Isso fará muito mais para aumentar a inteligência em nosso mundo.

* Evgeny Morozov é autor de vários livros sobre tecnologia e política

Tags: