Em uma iniciativa inusitada, grandes nomes da Inteligência Artificial (IA) preparam um alerta conjunto para a humanidade: a tecnologia que estão desenvolvendo pode vir a representar um risco existencial para a nossa espécie, similar a ameaças como pandemias e conflitos nucleares.
O Center for AI Safety, organização sem fins lucrativos, divulgou uma carta aberta intitulada “Mitigar o risco de extinção da IA deve ser uma prioridade global”. Assinada por mais de 350 executivos, pesquisadores e engenheiros do ramo, a declaração pede um maior cuidado com os avanços da inteligência artificial.
Entre os signatários estão executivos de alto escalão das principais empresas de IA: Sam Altman, CEO da OpenAI; Demis Hassabis, CEO do Google DeepMind; e Dario Amodei, CEO da Anthropic. Também figuram Geoffrey Hinton e Yoshua Bengio, contemplados com o Prêmio Turing e considerados os “padrinhos” da inteligência artificial moderna.
![](https://safezonegames.com/wp-content/uploads/2023/05/WhatsApp-Image-2023-05-30-at-14.08.16-min-1024x615.jpeg)
O documento surge em meio a crescentes preocupações sobre os potenciais danos da IA. Avanços recentes em grandes modelos de linguagem, como o utilizado pelo ChatGPT, despertam temores de que a inteligência artificial possa ser usada para disseminar desinformação e propaganda, ou até eliminar milhões de empregos.
Os signatários acreditam que a IA pode se tornar poderosa o suficiente para causar grandes perturbações sociais dentro de alguns anos, a menos que ações sejam tomadas para mitigá-la. Esse posicionamento coloca-os na situação ímpar de argumentar que a tecnologia que eles estão construindo apresenta graves riscos e precisa de maior regulamentação.
Recentemente, Altman, Hassabis e Amodei se reuniram com o presidente norte-americano Joe Biden e a vice-presidente Kamala Harris para discutir a regulamentação das IAs. Eles defenderam a intervenção do governo, além da necessidade de um rigor maior na supervisão de sistemas avançados de inteligência artificial.
Dan Hendrycks, CEO do Center for AI Safety, afirma que a carta aberta representa um “despertar” para alguns líderes da indústria que, até então, apenas expressavam preocupação em privado. Embora alguns céticos considerem a IA ainda muito imatura para representar uma ameaça existencial, outros acreditam que a tecnologia está evoluindo tão rapidamente que já supera o desempenho humano em algumas áreas, dando origem aos temores de uma “inteligência geral artificial” (AGI) iminente.
![](https://safezonegames.com/wp-content/uploads/2023/05/image-178-1024x615.png)
Em um post recente, executivos da OpenAI propuseram maneiras de gerenciar sistemas poderosos de IA de maneira responsável, incluindo a cooperação entre líderes da indústria, mais pesquisas técnicas e a formação de uma organização internacional de segurança da IA. “Acho que se essa tecnologia der errado, pode dar muito errado”, disse Altman, alertando o subcomitê do Senado. “Queremos trabalhar com o governo para evitar que isso aconteça.”
Em março, mais de 1.000 tecnólogos e pesquisadores assinaram outra carta aberta pedindo uma pausa de seis meses no desenvolvimento dos maiores modelos de IA, preocupados com o que chamam de “uma corrida fora de controle para desenvolver e implantar mentes digitais cada vez mais poderosas”.
A declaração atual, organizada pelo Center for AI Safety, contém apenas 22 palavras – uma escolha intencional para unir especialistas em IA que, embora possam discordar sobre a natureza de riscos específicos ou medidas para evitá-los, compartilham preocupações gerais sobre os poderosos sistemas de IA. “Não queríamos forçar um menu muito grande de 30 intervenções potenciais”, disse Hendrycks. “Quando isso acontece, dilui a mensagem.”
![](https://safezonegames.com/wp-content/uploads/2023/05/image-179-1024x350.png)
Hendrycks sugere que a carta pode servir como um alerta para a indústria de inteligência artificial e para o público em geral sobre a urgência das questões relacionadas à segurança da IA. Com milhões de pessoas se voltando para os chatbots de inteligência artificial para entretenimento, companheirismo e maior produtividade, a tecnologia subjacente está se aprimorando rapidamente, levando ao aumento da preocupação.
Fontes: Center for AI Safety, The New York Times, The Verge