As grandes empresas de tecnologia, incluindo a Apple, estão emitindo alertas sobre possíveis problemas de privacidade relacionados ao uso de Inteligências Artificiais (IAs). A Apple restringiu o uso de duas notáveis IAs: o ChatGPT, da OpenAI; e o Copilot, da Microsoft; conforme relatado pelo The Wall Street Journal. Segundo Mark Gurman, da Bloomberg, o ChatGPT já consta na lista de banimentos da Apple há meses.
Essas preocupações não são exclusivas da gigante da maça. Empresas como Samsung e Verizon, assim como importantes instituições bancárias, incluindo “Bank of America”, “Citi”, “Deutsche Bank”, “Goldman”, “Wells Fargo” e “JPMorgan”, também demonstraram inquietações semelhantes. A preocupação com a possibilidade de vazamento de dados confidenciais é o principal motivo para tais restrições.
Esse temor não é infundado. Em março, um bug no ChatGPT revelou dados de outros usuários. Os gigantes da tecnologia e os principais bancos do mundo estão agora em alerta, visando garantir que os dados confidenciais dos clientes sejam mantidos em segurança.
A tecnologia de IA tem um vasto potencial para uso no atendimento ao cliente, um setor em que as empresas buscam reduzir custos. No entanto, para que o atendimento ao cliente seja eficaz, os clientes precisam fornecer seus dados, muitas vezes privados e confidenciais. Essa necessidade abre questões sobre como as empresas planejam proteger os “bots” de atendimento ao cliente.
O risco não se limita ao setor de atendimento ao cliente. Por exemplo, imagine um cenário em que a Disney decida usar a IA para escrever roteiros dos filmes da Marvel, em vez de depender de equipes humanas. Como a Disney evitaria que detalhes cruciais dos próximos filmes vazassem?
Empresas iniciantes, em geral, não costumam priorizar a segurança dos dados, o que representa um risco significativo, especialmente quando informações sensíveis estão envolvidas. Mesmo a OpenAI aconselha seus usuários a não compartilhar informações sensíveis em suas conversas.
O uso de chatbots de IA também envolve questões intrínsecas de segurança. A computação necessária para suportar a IA pode ser cara, e o uso de computação em nuvem pode implicar que as consultas estão sendo processadas em um servidor remoto, com terceiros sendo responsáveis pela proteção dos dados. Os dados financeiros, em particular, são extremamente sensíveis, o que explica as preocupações dos bancos.
Existem ainda preocupações sobre a espionagem corporativa. Isso, no primeiro momento, pode parecer uma questão da indústria de tecnologia, mas com a expansão do streaming, torna-se um problema relevante para o segmento criativo também.
A privacidade é um assunto delicado no universo tecnológico. Em muitos casos, os usuários trocam sua privacidade por produtos gratuitos. Porém, conforme evidenciado pelo alerta das grandes empresas, talvez seja necessário reconsiderar a utilização de IA, principalmente no que diz respeito aos chatbots.
A primeira possibilidade é que a tendência da Inteligência Artificial acabe sendo uma grande expectativa não cumprida, similar ao que aconteceu com o conceito de metaverso. A segunda possibilidade é que as empresas de IA sejam pressionadas a revisar e definir claramente suas práticas de segurança.
A terceira probabilidade é que todas as empresas que desejam utilizar IAs precisem construir seus próprios modelos proprietários ou, no mínimo, realizar seu próprio processamento de dados. No entanto, esta alternativa parece ser caríssima e difícil de atingir escala.
A quarta possibilidade é que a internet se transforme em um pesadelo de privacidade, onde empresas dos mais diversos setores, como companhias aéreas, cobradores de dívidas e farmácias, vazem regularmente dados de seus clientes.
Em qualquer caso, é difícil prever como cada indivíduo seria afetado por essas possíveis situações. No entanto, se as empresas mais preocupadas com segurança estão limitando o uso de IA, talvez seja um bom indicativo de que o restante de nós também deveria ponderar sobre o assunto.
Fonte: The Verge