Homem acusado nos EUA por abuso sexual infantil gerado por IA

Primeira acusação federal envolvendo criação de imagens de abuso infantil por inteligência artificial levanta questões legais cruciais

Em um marco sem precedentes, promotores federais dos Estados Unidos lançaram acusações contra um homem do estado americano de Wisconsin, alegando o uso de inteligência artificial (IA) para produzir milhares de imagens explícitas de crianças. Steven Anderegg, 42 anos, residente em Holmen, Wisconsin, enfrenta acusações relacionadas à criação de mais de 13.000 imagens falsas de menores, muitas retratando crianças parcial ou totalmente nuas, em atos sexuais simulados, usando o popular gerador de imagens IA, Stable Diffusion.

De acordo com o Departamento de Justiça dos EUA, este é o primeiro caso documentado envolvendo a geração completa de material de abuso sexual infantil por IA. As imagens, produzidas digitando sequências de texto no gerador de imagens, lançam luz sobre um debate legal há muito esperado sobre a aplicabilidade das leis de obscenidade às criações de IA.

Recentemente, casos similares emergiram, incluindo o uso de IA para criar deepfakes com rostos de crianças em cenas explícitas e a remoção digital de roupas de fotografias reais de menores. Esse fenômeno coincide com o aumento alarmante de conteúdo de pornografia infantil gerado por IA, disseminado pela internet, impulsionado por fóruns clandestinos.

Página principal da stability.ai – Desenvolvedores da Stable Diffusion

Autoridades federais americanas destacam a importância de tratar o CSAM (material de abuso sexual infantil, da tradução em português) gerado por IA como um equivalente ao abuso sexual infantil convencional. Lisa Monaco, vice-procuradora-geral, afirmou em comunicado: “O CSAM gerado por IA ainda é CSAM, e responsabilizaremos aqueles que exploram a IA para criar imagens obscenas, abusivas e cada vez mais fotorrealistas de crianças”.

A estreita relação entre tecnologia e abuso infantil exige uma revisão urgente das leis e regulamentos vigentes. O caso Anderegg levanta questões sobre a responsabilidade das empresas por disponibilizar ferramentas que podem ser usadas para tais fins, mesmo que não diretamente destinadas a isso.

Embora a Stability AI, fabricante do Stable Diffusion, tenha se distanciado do uso indevido de sua tecnologia, o caso reforça a necessidade de uma supervisão mais rigorosa e ética no desenvolvimento e na distribuição de ferramentas de IA.

Com a disseminação crescente de CSAM gerado por IA, a sociedade enfrenta um desafio multifacetado que requer colaboração entre governo, setor privado e sociedade civil para mitigar os danos e proteger os direitos das crianças.

O advogado de Anderegg se recusou a comentar sobre o caso, enquanto a empresa anteriormente associada ao Stable Diffusion, Runway, não respondeu aos pedidos de comentário até o momento. Este caso emblemático promete redefinir os limites legais e éticos da inteligência artificial no contexto do abuso infantil, lançando luz sobre um terreno ainda pouco explorado na jurisprudência moderna.

Fonte: The Washington Post