Um caso sem precedentes nos EUA colocou a inteligência artificial (IA) no centro de uma controvérsia jurídica. Segundo o The Wall Street Journal, um juiz federal em Manhattan sancionou dois advogados por apresentarem pesquisas jurídicas falsas geradas pelo ChatGPT, da OpenAI, em um caso de danos pessoais.
A firma Levidow, Levidow & Oberman e dois de seus advogados foram multados em U$ 5.000 por utilizar material gerado por IA em uma apresentação legal. O juiz distrital dos EUA, Kevin Castel, criticou a prática, argumentando que a apresentação de pesquisas falsas desperdiça o tempo do tribunal e do advogado de oposição, prejudica os clientes e “promove o cinismo sobre a profissão jurídica e o sistema judicial americano”.
No processo, como contado em outra oportunidade pelo Safe Zone, o demandante alegou ter sido ferido em um voo. Entretanto, a ação foi julgada improcedente devido à intempestividade. Os advogados que apresentaram a ação, Steven A. Schwartz e Peter LoDuca, usaram o ChatGPT, da OpenAI, para realizar pesquisas e preparar a apresentação.
Este caso levanta questões complexas sobre o uso de ferramentas de IA em processos legais. As firmas de advocacia têm experimentado cada vez mais novas ferramentas de inteligência artificial, mas esta situação ilustra o potencial de armadilhas se essas tecnologias forem utilizadas de forma inadequada ou sem supervisão suficiente.
“Não há nada inerentemente impróprio em usar uma ferramenta confiável de inteligência artificial para assistência”, afirmou Castel em sua decisão. No entanto, ele enfatizou que as regras existentes impõem um papel de guardião aos advogados para garantir a precisão de seus registros.
Este incidente surge após um juiz federal do Texas ter recentemente ordenado que os advogados de seu tribunal não usassem documentos legais dependentes de inteligência artificial. No caso de Nova York, os advogados citaram vários casos inexistentes em apoio aos seus argumentos, um erro que eles atribuíram à ferramenta de IA.
Schwartz, que não está habilitado para praticar no tribunal de Nova York, usou o ChatGPT durante suas pesquisas. LoDuca, por sua vez, foi o advogado de registro do caso. Ambos afirmaram que desconheciam a capacidade da ferramenta de criar casos inexistentes.
Apesar das críticas do tribunal e do advogado de oposição, os advogados insistiram por algum tempo em defender a pesquisa jurídica gerada pela IA. No entanto, durante uma audiência, Castel salientou que muitos dos casos falsos citados eram “jargão jurídico”.
A Levidow, Levidow & Oberman afirmou que iria cumprir a ordem do tribunal, mas discordou de que alguém em sua empresa agiu de má fé. “Continuamos acreditando que, diante do que até mesmo o tribunal reconheceu ser uma situação sem precedentes, cometemos um erro de boa-fé ao não acreditar que uma peça de tecnologia poderia estar inventando casos do nada”, disse a empresa.
Este incidente representa um marco importante no debate sobre o uso da inteligência artificial no campo do direito, e é provável que inspire uma análise mais aprofundada das implicações éticas, práticas e legais do uso da IA em processos judiciais.