Na sede da companhia de pesquisas em inteligência artificial (IA) Anthropic, em São Francisco (EUA), a apreensão pelo lançamento da nova versão do chatbot “Claude” é tão real que parece palpável. O cenário se assemelha a uma mistura de inquietação e expectativa. Mas, por trás da excitação, um medo profundo permeia o ambiente.
O Claude, projetado para competir com o ChatGPT, está recebendo os toques finais. Seu estilo de interface foi, por exemplo, meticulosamente aperfeiçoado por engenheiros em um esforço para proporcionar a melhor experiência aos usuários. No entanto, questões potencialmente perturbadoras são discutidas: o que acontece se uma onda de novos usuários sobrecarregar os servidores? E se o Claude acabar ameaçando ou assediando as pessoas, gerando uma crise de imagem?
“Minha preocupação é sempre se o nosso modelo de linguagem em IA vai fazer algo terrível que não percebemos?”, diz Dario Amodei, CEO da Anthropic.
Apesar de seu pequeno tamanho – apenas 160 funcionários – e perfil discreto, a Anthropic é uma das principais empresas de inteligência artificial do mundo. A companhia arrecadou mais de US$ 1 bilhão de investidores, incluindo Google e Salesforce, tornando-se um rival formidável para gigantes como o próprio Google e a Meta.
No entanto, o medo citado na matéria não é apenas sobre um aplicativo quebrando ou sendo impopular entre os usuários. A equipe está profundamente preocupada com a essência do que estão fazendo: criando poderosos sistemas de IA que poderiam ser usados para fazer coisas terríveis e destrutivas.
A inteligência artificial geral, ou “A.G.I.”, uma IA em nível humano, parece estar à vista. Muitos na Anthropic temem que, se não for cuidadosamente controlada, essa inteligência possa se tornar a maior ameaça à humanidade.
“Alguns de nós pensam que a A.G.I. – sistemas que são genuinamente tão capazes quanto uma pessoa com formação universitária – talvez esteja a apenas cinco ou dez anos de distância”, disse Jared Kaplan, cientista-chefe da Anthropic.
A preocupação com uma IA em nível humano não é nova, mas tem ganhado destaque recentemente. Desde a estreia do ChatGPT no ano passado, líderes de tecnologia e especialistas em IA têm alertado sobre o crescente poder dos chatbots. Reguladores estão correndo para controlar a indústria, e especialistas em IA têm comparado a situação atual com pandemias e armas nucleares.
Algumas semanas atrás, após um confronto assustador de um jornalista do New York Times com um chatbot IA, a Anthropic convidou-o para pesquisar suas dúvidas. Durante semanas, ele entrevistou os executivos da Anthropic e participou de reuniões, à medida que a empresa se preparava para o lançamento de Claude 2.
A Anthropic criou uma versão de Claude no ano passado, mas optou por não divulgá-la publicamente por medo de que ela pudesse ser mal utilizada. Agora, com o lançamento de Claude 2, a empresa está novamente lutando com a mesma questão.
Kaplan explica que a preocupação não é uma façanha para ganhar a simpatia do público. Ele acredita que a rapidez com que a tecnologia de IA está se desenvolvendo está causando uma ansiedade justificável.
A Anthropic foi fundada em 2021 por um grupo de ex-funcionários da OpenAI que estavam preocupados que a empresa estava se tornando muito comercial. Decidiram então formar a Anthropic com a missão de desenvolver a IA de maneira segura e benéfica. No entanto, a equipe agora se encontra em uma posição delicada. Por um lado, eles querem levar os benefícios da IA a milhões de pessoas. Por outro lado, estão atormentados com potenciais danos que podem ser causados por suas criações.
Afinal, o que torna os chatbots de IA como o Claude e o ChatGPT tão poderosos – e potencialmente perigosos – é sua habilidade para aprender e se adaptar. Eles não são apenas programas de software escritos por humanos. São sistemas que podem aprender com uma ampla gama de dados, incluindo textos de livros, artigos de notícias, conversas na internet, entre outros.
“Você pode pensar que está apenas ensinando a IA a jogar xadrez”, diz Amodei, “mas na realidade, está ensinando a IA a pensar”.
Neste sentido, os avanços nas pesquisas em IA levantam questões éticas profundas. Por exemplo, quem é responsável se um chatbot de IA causa danos a um indivíduo ou à sociedade? Como a humanidade pode garantir que essas tecnologias sejam usadas para o bem e não para o mal?
Os líderes da Anthropic estão cientes dessas questões e estão trabalhando para enfrentá-las. Eles estão investindo em pesquisa para entender melhor os riscos da IA e estão colaborando com reguladores e outras partes interessadas para desenvolver políticas de segurança.
Mas, mesmo com todos esses esforços, a tensão na sede da Anthropic é inegável. A equipe está à beira de um novo alvorecer nas pesquisas em inteligência artificial, mas teme o que esse amanhecer pode trazer. “Estamos criando algo que tem o potencial de mudar o mundo”, diz Kaplan. “Mas precisamos ter certeza de que estamos fazendo isso da maneira certa.”
Claude, a mais nova adição ao cenário das IAs, está pronta para fazer sua estreia. Mas enquanto a equipe da Anthropic se prepara para o lançamento, não pode deixar de sentir a inquietação por trás do produto que criaram. A IA está avançando a um ritmo incrível, e a Anthropic, como muitas outras na indústria, está lutando para acompanhar. A questão é, como destacou o New York Times, se “um pouco mais de medo hoje pode ou não nos poupar de muita dor amanhã”?