Um advogado utilizou um programa de inteligência artificial (IA) em um processo contra a companhia aérea Avianca, e o resultado foi um documento repleto de casos e citações judiciais falsas. O advogado Steven Schwartz, da firma americana Levidow, Levidow & Oberman, admitiu que confiou no ChatGPT, um modelo de IA, para realizar sua pesquisa jurídica, mas descobriu posteriormente que as informações fornecidas pelo programa eram falsas.
O processo teve início quando um cliente, Roberto Mata, processou a Avianca, alegando ter se machucado durante um voo para o Aeroporto Internacional de Nova York, quando um carrinho de metal atingiu seu joelho. Os advogados de Mata contestaram a tentativa da Avianca de rejeitar o caso, apresentando um documento de 10 páginas com citações de várias decisões judiciais relevantes. No entanto, nem os advogados da companhia aérea nem o juiz conseguiram encontrar as decisões mencionadas no documento, pois o ChatGPT havia inventado todas elas.
Schwartz, que possui três décadas de experiência como advogado em Nova York, afirmou que não tinha intenção de enganar o tribunal ou a companhia aérea, e que confiou no ChatGPT sem saber que seu conteúdo poderia ser falso. Ele se disponibilizou para prestar esclarecimentos e afirmou que nunca mais usará o programa sem verificar sua autenticidade.
O juiz Kevin Castel, ao se deparar com o documento repleto de decisões e citações falsas, classificou o caso como uma circunstância sem precedentes e marcou uma audiência para discutir possíveis sanções ao advogado. Especialistas em ética jurídica alertam para a necessidade de verificar as informações fornecidas por softwares de IA, como o ChatGPT, a fim de evitar casos semelhantes no futuro.
Embora a inteligência artificial esteja se expandindo cada vez mais no mundo online, profissões que envolvem conhecimento ainda possuem um certo tempo antes que os robôs assumam o controle. No caso de Mata contra a Avianca Inc., a confiança excessiva em um chatbot resultou em um documento repleto de informações falsas, destacando a importância de uma pesquisa jurídica minuciosa e da verificação das fontes utilizadas.
Os advogados da Avianca suspeitaram que um chatbot estava envolvido quando não conseguiram encontrar os casos citados pelos advogados de Mata. A investigação do juiz Castel revelou que muitas das decisões mencionadas eram falsas, e até mesmo a suposta decisão Varghese continha um número de processo ligado a um caso completamente diferente.
O caso de Roberto Mata versus Avianca Inc. reforça a necessidade de cautela e verificação cuidadosa das informações fornecidas por softwares de inteligência artificial. Enquanto os avanços tecnológicos continuam a moldar o campo jurídico, os profissionais devem estar atentos aos desafios éticos e à confiabilidade das fontes utilizadas. As IAs, como o ChatGPT, têm o potencial de auxiliar os advogados em suas pesquisas, mas é essencial que sejam realizadas verificações rigorosas para garantir a precisão e autenticidade das informações obtidas.
O advogado Steven Schwartz, em sua declaração juramentada, expressou profundo arrependimento por ter confiado cegamente na criação da OpenAI, reconhecendo a necessidade de uma verificação absoluta da autenticidade das informações antes de utilizá-las em futuros processos. Sua experiência serve como um alerta para outros profissionais da área jurídica, destacando a importância de um equilíbrio adequado entre a tecnologia e a responsabilidade profissional.
Vale destacar que a discussão em torno do uso de softwares de IA, como o ChatGPT, está cada vez mais presente entre os advogados. A necessidade de evitar situações semelhantes à descrita neste caso é um tópico amplamente debatido. Especialistas reconhecem que é fundamental compreender as limitações e os riscos associados ao uso dessas ferramentas, bem como desenvolver protocolos de verificação para garantir a validade das informações jurídicas obtidas.