O avanço da tecnologia de inteligência artificial (IA) tem sido marcado não apenas por inovações incríveis, mas também por questões éticas que emergem. Nesse contexto, uma história recentemente divulgada pelo The Wall Street Journal destaca os custos humanos ocultos na preparação para o lançamento do ChatGPT, desenvolvido pela OpenAI.
Para impedir que o chatbot gerasse declarações ofensivas ou grotescas, a OpenAI contratou trabalhadores de baixa renda no Quênia para limpar o conteúdo tóxico do software. Alex Kairu, um desses trabalhadores, descreveu a experiência como a “pior que já teve trabalhando em uma empresa”.
A OpenAI, empresa por trás do ChatGPT, tem lidado com essas questões há anos. Antes mesmo da criação do ChatGPT, contratou trabalhadores no Quênia para revisar e categorizar milhares de textos obtidos na internet e gerados pela própria IA, muitos deles contendo descrições de violência, assédio e abuso sexual.
Esses textos categorizados foram utilizados para criar um filtro de segurança de inteligência artificial, que seria usado para evitar que o ChatGPT expusesse seus milhões de usuários a conteúdos semelhantes. Entretanto, o trabalho exigiu que os trabalhadores quenianos estivessem expostos a esse tipo de conteúdo durante o processo.
O ChatGPT é construído com base em um grande modelo de linguagem – um software treinado em textos da internet para aprender os padrões da linguagem humana. Este software pode gerar conteúdos tóxicos inspirados nas partes mais obscuras da internet, dada a influência correta.
Embora o potencial desses chatbots de substituir humanos em empregos, desde representantes de atendimento ao cliente a roteiristas, seja evidente, por enquanto, a tecnologia ainda depende de uma forma diferente de trabalho humano.
Trabalhadores humanos, muitas vezes expostos a conteúdos gráficos e traumatizantes, têm sido essenciais para o desenvolvimento e manutenção desses chatbots. A OpenAI contratou mais de 1.000 trabalhadores para este propósito, de acordo com o The Wall Street Journal.
Outras empresas, como a Scale AI, também têm investido em mão de obra humana para revisar e categorizar conteúdo para os sistemas de IA. Estima-se que as empresas gastem anualmente entre milhões e dezenas de milhões de dólares nessa tarefa.
O trabalho de moderação de conteúdo, no entanto, tem um alto custo humano. Kairu, por exemplo, mencionou sentir-se frequentemente doente após as sessões de trabalho devido ao conteúdo gráfico que tinha de revisar. A Sama, a empresa que contratou os trabalhadores quenianos, deu a ele um intervalo de seis meses e está ajudando-o a ver um psicólogo uma vez por semana.
A situação levanta questões sobre a ética de empregar trabalhadores humanos para lidar com o conteúdo tóxico produzido por IA. Jason Kwon, conselheiro geral da OpenAI, reconheceu que o trabalho é valioso para tornar os sistemas da empresa seguros, mas isso não ameniza as implicações do impacto psicológico que esse trabalho pode ter nos trabalhadores envolvidos.
Após as preocupações emergirem em relação à natureza do projeto, a Sama encerrou o contrato com a OpenAI em março de 2022 e desde então abandonou completamente a moderação de conteúdo.
Na sequência desse projeto, a OpenAI anunciou em setembro de 2022 a criação de um Conselho de Revisão de Segurança de IA. Como isso impactará o desenvolvimento de futuras tecnologias de IA da empresa, e, principalmente, a experiência de seus trabalhadores humanos, ainda é algo que está para ser visto.
Fonte: The Wall Street Journal