Em uma iniciativa inusitada, grandes nomes da Inteligência Artificial (IA) preparam um alerta conjunto para a humanidade: a tecnologia que estão desenvolvendo pode vir a representar um risco existencial para a nossa espécie, similar a ameaças como pandemias e conflitos nucleares.
O Center for AI Safety, organização sem fins lucrativos, divulgou uma carta aberta intitulada “Mitigar o risco de extinção da IA deve ser uma prioridade global”. Assinada por mais de 350 executivos, pesquisadores e engenheiros do ramo, a declaração pede um maior cuidado com os avanços da inteligência artificial.
Entre os signatários estão executivos de alto escalão das principais empresas de IA: Sam Altman, CEO da OpenAI; Demis Hassabis, CEO do Google DeepMind; e Dario Amodei, CEO da Anthropic. Também figuram Geoffrey Hinton e Yoshua Bengio, contemplados com o Prêmio Turing e considerados os “padrinhos” da inteligência artificial moderna.
O documento surge em meio a crescentes preocupações sobre os potenciais danos da IA. Avanços recentes em grandes modelos de linguagem, como o utilizado pelo ChatGPT, despertam temores de que a inteligência artificial possa ser usada para disseminar desinformação e propaganda, ou até eliminar milhões de empregos.
Os signatários acreditam que a IA pode se tornar poderosa o suficiente para causar grandes perturbações sociais dentro de alguns anos, a menos que ações sejam tomadas para mitigá-la. Esse posicionamento coloca-os na situação ímpar de argumentar que a tecnologia que eles estão construindo apresenta graves riscos e precisa de maior regulamentação.
Recentemente, Altman, Hassabis e Amodei se reuniram com o presidente norte-americano Joe Biden e a vice-presidente Kamala Harris para discutir a regulamentação das IAs. Eles defenderam a intervenção do governo, além da necessidade de um rigor maior na supervisão de sistemas avançados de inteligência artificial.
Dan Hendrycks, CEO do Center for AI Safety, afirma que a carta aberta representa um “despertar” para alguns líderes da indústria que, até então, apenas expressavam preocupação em privado. Embora alguns céticos considerem a IA ainda muito imatura para representar uma ameaça existencial, outros acreditam que a tecnologia está evoluindo tão rapidamente que já supera o desempenho humano em algumas áreas, dando origem aos temores de uma “inteligência geral artificial” (AGI) iminente.
Em um post recente, executivos da OpenAI propuseram maneiras de gerenciar sistemas poderosos de IA de maneira responsável, incluindo a cooperação entre líderes da indústria, mais pesquisas técnicas e a formação de uma organização internacional de segurança da IA. “Acho que se essa tecnologia der errado, pode dar muito errado”, disse Altman, alertando o subcomitê do Senado. “Queremos trabalhar com o governo para evitar que isso aconteça.”
Em março, mais de 1.000 tecnólogos e pesquisadores assinaram outra carta aberta pedindo uma pausa de seis meses no desenvolvimento dos maiores modelos de IA, preocupados com o que chamam de “uma corrida fora de controle para desenvolver e implantar mentes digitais cada vez mais poderosas”.
A declaração atual, organizada pelo Center for AI Safety, contém apenas 22 palavras – uma escolha intencional para unir especialistas em IA que, embora possam discordar sobre a natureza de riscos específicos ou medidas para evitá-los, compartilham preocupações gerais sobre os poderosos sistemas de IA. “Não queríamos forçar um menu muito grande de 30 intervenções potenciais”, disse Hendrycks. “Quando isso acontece, dilui a mensagem.”
Hendrycks sugere que a carta pode servir como um alerta para a indústria de inteligência artificial e para o público em geral sobre a urgência das questões relacionadas à segurança da IA. Com milhões de pessoas se voltando para os chatbots de inteligência artificial para entretenimento, companheirismo e maior produtividade, a tecnologia subjacente está se aprimorando rapidamente, levando ao aumento da preocupação.
Fontes: Center for AI Safety, The New York Times, The Verge