A maré de entusiasmo e perplexidade com o GPT-4, versão mais recente da criação da OpenAI, parece estar cedendo lugar a uma real preocupação com as implicações que a nova tecnologia terá, de fato, para o futuro da humanidade. Poucos dias depois de ganhar notoriedade uma carta pedindo a interrupção nas pesquisas com inteligência artificial (IA) por pelo menos 6 meses, o governo da Itália decidiu proibir completamente o uso do ChatGPT no país, com base na previsão normativa do Regulamento Geral sobre a Proteção de Dados (GDPR).
O GDPR, criado em 2018, é o regulamento do direito europeu sobre privacidade e proteção de dados pessoais, aplicável a todos os indivíduos na União Europeia (EU) e no Espaço Econômico Europeu (EEE). Dentre outras atribuições, compete a este regulamentar a exportação de dados pessoais para fora da UE e do EEE.
A decisão da autoridade italiana estaria fundamentada em dois pontos controversos: o fato do laboratório de pesquisa de inteligência artificial estadunidense responsável pelo ChatGPT não ter permissão oficial para a coleta de dados pessoais dos usuários (ainda que apenas para aprimorar o chatbot), bem como pela eventual exposição de menores de idade à IA da OpenAI, já que o software não possui métodos de verificação se os usuários são, realmente, todos maiores de idade.
O governo da Itália estabeleceu um prazo de 20 dias para a OpenAI se pronunciar e decidir como pretende resolver estas questões. Caso não se manifeste ou resolva os problemas apontados, o laboratório pode ser multado em € 20 milhões (o equivalente, na cotação atual, a US$ 21,7 milhões ou R$ 110,12 milhões). A penalidade pode ser majorada e chegar até a 4% das receitas anuais da empresa.
Em outra ação desfavorável ao GPT-4, que, até o momento, encontra-se livre e praticamente disponível no mundo inteiro, o Centro de Inteligência Artificial e Política Digital (CAIDP, na sigla original em inglês) apresentou uma reclamação à Comissão Federal de Comércio dos Estados Unidos (FTC) na tentativa de impedir o lançamento de poderosos sistemas de inteligência artificial para os consumidores em meio à popularidade de ferramentas como o ChatGPT.
Em uma representação apresentada ao órgão na última quinta-feira, 30, a organização não governamental de pesquisa sobre inteligência artificial descreveu o ChatGPT, turbinado com o GPT-4, como “tendencioso, enganoso e um risco à privacidade e à segurança pública”. Com tantos posicionamentos divergentes, as evidentes discussões sobre o risco no uso de inteligências artificiais sem a necessária regulação tendem a se espalhar por outros países. No caso da Europa, por exemplo, há uma previsão de que outros membros da UE possam seguir a iniciativa italiana. Levando em consideração os potenciais riscos, parecem manifestações saudáveis de apreensão, ainda que eventualmente tardias.