CNN
—
Menos de seis meses depois que o OpenAI, criador do ChatGPT, revelou uma ferramenta de detecção de IA com potencial para ajudar professores e outros profissionais a detectar trabalhos gerados por IA, a empresa retirou o recurso.
OpenAI silenciosamente desligou o ferramenta na semana passada citando uma “baixa taxa de precisão”, de acordo com uma atualização à postagem original do blog da empresa anunciando o recurso.
“Estamos trabalhando para incorporar o feedback e atualmente pesquisando técnicas de proveniência mais eficazes para o texto”, escreveu a empresa na atualização. A OpenAI disse que também está comprometida em ajudar “os usuários a entender se o conteúdo de áudio ou visual é gerado por IA”.
A notícia pode renovar as preocupações sobre se as empresas por trás de uma nova safra de ferramentas generativas de IA estão equipadas para criar salvaguardas. Ele também vem quando os educadores se preparam para o primeiro ano letivo completo com ferramentas como o ChatGPT disponíveis publicamente.
O aumento repentino do ChatGPT rapidamente levantou alarmes entre alguns educadores no final do ano passado sobre a possibilidade de tornar mais fácil do que nunca para os alunos colarem em trabalhos escritos. Escolas públicas na cidade de Nova York e Seattle proibiram alunos e professores de usar o ChatGPT nas redes e dispositivos do distrito. Alguns educadores agiram com notável velocidade para repensar suas tarefas em resposta ao ChatGPT, mesmo que não estivesse claro o quão difundido era o uso da ferramenta entre os alunos e quão prejudicial poderia realmente ser para o aprendizado.
Diante desse cenário, OpenAI anunciou a ferramenta de detecção de IA em fevereiro para permitir que os usuários verifiquem se um ensaio foi escrito por um ser humano ou por uma IA. O recurso, que funcionava em texto gerado por IA em inglês, era alimentado por um sistema de aprendizado de máquina que recebe uma entrada e a atribui a várias categorias. Depois de colar um corpo de texto, como uma redação escolar, na nova ferramenta, ele forneceu um dos cinco resultados possíveis, variando de “provável gerado por IA” a “muito improvável”.
Mas mesmo no dia do lançamento, a OpenAI admitiu que a ferramenta era “imperfeita” e que os resultados deveriam ser “considerados com cautela”.
“Realmente não recomendamos usar essa ferramenta isoladamente porque sabemos que ela pode estar errada e às vezes estará errada – assim como usar a IA para qualquer tipo de avaliação”, disse Lama Ahmad, diretor de pesquisa de políticas da OpenAI, à CNN na época.
Embora a ferramenta possa fornecer outro ponto de referência, como comparar exemplos anteriores do trabalho e estilo de escrita de um aluno, Ahmad disse que “os professores precisam ter muito cuidado ao incluí-lo nas decisões de desonestidade acadêmica”.
Embora a OpenAI possa estar engavetando sua ferramenta por enquanto, existem algumas alternativas no mercado.
Outras empresas, como a Turnitin, também lançaram ferramentas de detecção de plágio por IA que podem ajudar os professores a identificar quando as tarefas são escritas pela ferramenta. Enquanto isso, o estudante de Princeton, Edward Tuan, introduziu um recurso de detecção de IA semelhante, chamado ZeroGPT.