Detecção de inteligência artificial na escola: missão (im)possível?

Software de detecção de trapaça revela dificuldades para identificar textos gerados pela IA
inteligência artificial

A detecção de textos gerados por Inteligência Artificial (IA), tarefa que se mostrou cada vez mais difícil para tecnólogos e educadores, enfrenta um desafio adicional. Especialistas alertam que pode ser virtualmente impossível detectar com precisão a autoria de IA, segundo Geoffrey A. Fowler, colunista de tecnologia do The Washington Post.

O Turnitin, gigante no mercado de software educacional, revelou que seu detector de trapaça de IA, executado em mais de 38 milhões de redações de alunos desde abril, apresenta problemas de confiabilidade maiores do que o inicialmente previsto. Embora a empresa esteja realizando ajustes no programa, o cenário atual é preocupante para educadores que precisam distinguir textos originalmente criados por estudantes de aqueles gerados por IA.

Inicialmente, a taxa de falsos positivos (situação em que a escrita real do aluno é sinalizada incorretamente como trapaça) do software era de menos de 1%. Entretanto, de acordo com o Turnitin, em uma análise detalhada de frase por frase, o software sinaliza incorretamente 4% da escrita.

Testes conduzidos por Fowler também identificaram que detecções falsas representam um risco significativo. A análise do software do Turnitin com textos reais de alunos e com redações geradas com o auxílio do ChatGPT indicou que mais da metade das amostras foram identificadas, pelo menos parcialmente, de forma incorreta.

inteligência artificial

Esta situação levanta questões importantes não apenas para educadores, mas também para empresas de segurança cibernética, autoridades eleitorais, jornalistas e qualquer pessoa que precise distinguir entre conteúdo gerado por humanos e por inteligência artificial.

A confiabilidade dos detectores de IA disponíveis atualmente é baixa, de acordo com pesquisa de pré-impressão do professor de ciência da computação Soheil Feizi e colegas da Universidade de Maryland (EUA). Feizi afirmou que esses detectores têm uma alta taxa de falsos positivos e podem ser facilmente enganados, por exemplo, quando a escrita de IA é processada por um software de paráfrase.

Outra preocupação levantada por Feizi é que os detectores de IA possam sinalizar de forma desproporcional o trabalho de alunos para quem o inglês é uma segunda língua. Feizi sugeriu que, para uma maior transparência, a Turnitin deveria publicar os resultados completos de precisão de seu software e permitir que pesquisadores independentes conduzam seus próprios estudos. Ele propõe que a taxa de falsos positivos de um detector de IA usado em alunos deve ser de 0,01% – um valor que, segundo ele, é atualmente impossível de alcançar.

“Não seremos capazes de dizer com segurança se um documento foi escrito por IA – ou parcialmente escrito por IA, ou editado por IA – ou por humanos”, disse Feizi. Ele sugere que o sistema educacional precisa se adaptar para aproveitar os modelos de IA em vez de tentar policiá-los, permitindo que os estudantes aprendam e se beneficiem dessas tecnologias.

O problema de falsos positivos também foi reconhecido por Annie Chechitelli, diretora de produtos da Turnitin. Em um post de blog, Chechitelli afirmou que a empresa está ciente da impossibilidade de eliminar completamente o risco de falsos positivos, dada a natureza da redação e análise de IA.

A diretora ressalta a importância de que os educadores usem a pontuação da IA para iniciar um diálogo significativo com seus alunos em casos de detecção de possíveis trapaças. No entanto, a taxa de erros em documentos que o software considera conter menos de 20% de escrita de IA ainda não foi especificada. Nesses casos, o Turnitin começou a colocar um asterisco ao lado dos resultados para indicar uma menor confiabilidade da pontuação.

O debate sobre a detecção de IA é complexo e tem implicações significativas, especialmente para estudantes que podem enfrentar acusações falsas de trapaça, conforme já publicado em ocasião anterior pela Safe Zone. A situação é ainda mais preocupante, dada a ampla gama de usos potenciais para a IA, de aplicativos educacionais a possíveis aplicações de segurança cibernética e manipulação de informações.

Fonte: The Washington Post