O drama da OpenAI explica a propensão humana para assumir riscos

Há menos de um ano, a OpenAI lançou o ChatGPT, provocando debates sobre o impacto potencial na humanidade. Agora, o futuro da empresa até o aniversário do GPT, em 30 de novembro, permanece incerta

Este conteúdo foi publicado originalmente em inglês no site do jornal The Washington Post

Por Megan McArdle*

Ainda não se passou um ano desde que a OpenAI lançou o ChatGPT, gerando um milhão de reflexões sobre se a humanidade havia acabado de assinar sua própria sentença de morte. Agora, é uma questão em aberto se a empresa chegará ao aniversário do GPT, em 30 de novembro, como uma entidade viável, após alguns dias de surpreendente drama corporativo em que o conselho destituiu o presidente-executivo Sam Altman, o presidente Greg Brockman renunciou e virtualmente toda a equipe ameaçou segui-los até seus novos empregos.

Exatamente o que aconteceu permanece obscuro, mas, de modo geral, parece que as pessoas dentro da OpenAI estavam tendo o mesmo debate que o resto de nós: como equilibrar os benefícios potenciais da IA (inteligência artificial) contra os seus riscos, especialmente o “problema de alinhamento” – garantir que as máquinas inteligentes não se tornem inimigas dos interesses humanos.

“A demissão de Altman pelo conselho da OpenAI na sexta-feira”, como relata o Atlantic, “foi o culminar de uma luta pelo poder entre os dois extremos ideológicos da empresa – um grupo nascido do tecno-otimismo do Vale do Silício, energizado pela rápida comercialização; o outro está imerso no medo de que a IA represente um risco existencial para a humanidade e deva ser controlada com extrema cautela”.

ChatGPT (Foto: Focal Foto/Flickr)

Se você leu os artigos de reflexão, conhece as linhas gerais do debate. Junto com mais preocupações sobre as várias maneiras pelas quais a IA poderia prejudicar os usuários, um lado temia que o ChatGPT e seus muitos primos pudessem empurrar a humanidade para uma espécie de pista de trenó digital, terminando em desastre. Seja com as máquinas destruindo seus progenitores humanos ou com os humanos usando as máquinas para fazer isso sozinhos. Uma vez que as coisas começam a acontecer a sério, não há nenhuma maneira real de desacelerar ou sair, então os preocupados queriam que todos se sentassem e pensassem muito antes de fazer algo acontecer muito rápido.

Os céticos acharam tudo isso um pouco exagerado. Por um lado, deixou de fora todas as formas pelas quais a IA poderia salvar a humanidade, fornecendo curas para o envelhecimento ou soluções para o aquecimento global. Muitas pessoas pensaram que levaria anos até que os computadores pudessem possuir algo que se aproximasse da verdadeira consciência, permitindo-nos abordar as questões de segurança à medida que avançamos. Outros ainda duvidavam que máquinas verdadeiramente sencientes estivessem no horizonte; viam o ChatGPT e seus muitos parentes como papagaios eletrônicos ultrassofisticados. Preocupar-se com a possibilidade de tal entidade decidir que quer matar pessoas é como se perguntar se o seu iPhone preferiria passar férias em Creta ou Maiorca no próximo verão.

A OpenAI estava tentando equilibrar segurança e desenvolvimento – um equilíbrio que se tornou mais difícil de manter sob as pressões da comercialização. Foi fundada como uma organização sem fins lucrativos por pessoas que professavam preocupação sincera em levar as coisas de forma segura e lenta. Mas também estava repleta de nerds de IA que desejavam, você sabe, criar IAs incríveis.

Eventualmente, ficou claro que construir produtos como o ChatGPT exigiria mais recursos do que uma organização sem fins lucrativos poderia gerar. Assim, a OpenAI criou um braço com fins lucrativos, mas com uma estrutura corporativa que deixava o conselho da organização sem fins lucrativos com o poder de interromper as operações se as coisas estivessem progredindo rápido demais (ou, se preferir, dava ‘a um punhado de pessoas sem participação financeira na empresa o poder de derrubar o projeto por capricho’).

Na sexta-feira, essas pessoas, num acesso de capricho, removeram Brockman do conselho e demitiram Altman. A medida foi supostamente impulsionada por Ilya Sutskever, cientista-chefe da OpenAI, que, juntamente com outros membros do conselho, entrou repetidamente em conflito com Altman sobre a velocidade do desenvolvimento generativo da IA e a suficiência das precauções de segurança.

Tudo isso foi bastante surpreendente, mas o que aconteceu a seguir foi… bem, nenhum mecanismo de ficção de IA poderia gerar tal cenário. Após uma onda de publicidade negativa e caos geral, a Microsoft anunciou que estava contratando Altman e Brockman para liderar uma nova equipe de pesquisa avançada em IA.

Enquanto isso, a maioria dos funcionários da OpenAI assinou uma carta ameaçando pedir demissão e ingressar com Altman na Microsoft, a menos que o conselho renunciasse e renomeasse Altman como CEO. O principal entre os signatários foi Sutskever, que tuitou na manhã de segunda-feira: “Lamento profundamente minha participação nas ações do conselho. Nunca tive a intenção de prejudicar a OpenAI. Adoro tudo o que construímos juntos e farei o que estiver ao meu alcance para reunificar a empresa”.

Este drama peculiar parece, de alguma forma, muito típico do Vale do Silício, mas também é uma valiosa lição geral sobre estrutura corporativa e cultura. A missão altruísta da organização sem fins lucrativos estava em tensão com a parte lucrativa e geradora de IA – e quando a situação chegou ao ponto crítico, a parte lucrativa prevaleceu. Ah, claro, essa parte pode não sobreviver como OpenAI; pode migrar para a Microsoft. No entanto, uma empresa de software tem poucos ativos tangíveis; seu povo é seu capital. E este capital parece disposto a seguir Altman até onde está o dinheiro.

De forma mais ampla, ainda, isso encapsula perfeitamente o problema de alinhamento da IA, que, no final, também é um problema de alinhamento humano. É por isso que provavelmente não vamos “resolver” o problema, mas esperamos que não seja necessário. A humanidade não pode evitar; continuamos brincando com a tecnologia, independentemente dos perigos, desde que algum hominídeo empreendedor atingiu o primeiro machado de pedra.

Quando os cientistas começaram a mexer com o átomo, havia preocupações reais de que as armas nucleares pudessem incendiar a atmosfera da Terra. No momento em que uma bomba real explodiu, os cientistas tinham certeza de que isso não aconteceria. Mas se as preocupações persistissem, alguém teria se comportado de forma diferente – sabendo que isso poderia significar que outra pessoa venceria a corrida por uma super arma? Era melhor seguir em frente e garantir que, pelo menos, as pessoas certas estivessem no comando.

Agora, considere Sutskever: ele mudou de ideia no fim de semana sobre suas disputas com Altman? O mais provável é que ele simplesmente tenha percebido que, independentemente de suas reservas, não tinha poder para parar o trenó – por isso era melhor juntar-se aos seus amigos a bordo. Goste ou não, todos nós vamos com eles.

*Jornalista, colunista e blogueira norte-americana baseada em Washington

Tags: