Nova Iorque
CNN
—
Em sua “avaliação mundial de ameaças” anual, os principais funcionários da inteligência dos EUA alertaram nos últimos anos sobre a ameaça representada pelos chamados deepfakes – vídeos falsos convincentes feitos com inteligência artificial.
“Adversários e concorrentes estratégicos”, alertaram eles em 2019, podem usar essa tecnologia “para criar arquivos de imagem, áudio e vídeo convincentes, mas falsos, para aumentar as campanhas de influência dirigidas contra os Estados Unidos e nossos aliados e parceiros”.
Os cenários não são difíceis de imaginar; um vídeo falso mostrando um político em uma posição comprometedora; áudio falsificado de um líder mundial discutindo informações confidenciais.
A ameaça não parece muito distante. O recente sucesso viral do ChatGPT, um chatbot de IA que pode responder a perguntas e escrever prosa, é um lembrete de quão poderoso esse tipo de tecnologia pode ser.
Mas, apesar dos avisos, não vimos muitos casos notáveis, que saibamos, em que deepfakes foram implantados com sucesso na geopolítica.
Mas há um grupo contra o qual a tecnologia tem sido armada de forma consistente e por vários anos: as mulheres.
Deepfakes têm sido usados para colocar rostos de mulheres, sem seu consentimento, em vídeos pornográficos muitas vezes agressivos. É uma versão depravada da IA na prática humilhante da pornografia de vingança, com vídeos deepfake parecendo tão reais que pode ser difícil para as vítimas femininas negarem que não são realmente elas.
A questão de longa data explodiu à vista do público na semana passada, quando surgiu Atrioc, um streamer de videogame masculino de alto nível na plataforma extremamente popular Twitch, que acessou vídeos deepfake de algumas de suas colegas de streaming do Twitch. ele mais tarde pediu desculpa.
Em meio às consequências, a streamer do Twitch “Sweet Anita” percebeu que existem representações deepfake dela em vídeos pornográficos online.
“É muito, muito surreal se ver fazendo algo que nunca fez”, disse a streamer do Twitch “Sweet Anita” à CNN depois de perceber na semana passada que seu rosto havia sido inserido em vídeos pornográficos sem seu consentimento.
“É como se você assistisse a algo chocante acontecendo consigo mesmo. Tipo, se você assistisse a um vídeo de si mesmo sendo assassinado, ou um vídeo de si mesmo pulando de um penhasco”, disse ela.
Mas o uso profundamente perturbador da tecnologia dessa maneira não é novidade.
De fato, o próprio termo “deepfake” é derivado do nome de usuário de um colaborador anônimo do Reddit que começou a postar vídeos manipulados de celebridades femininas em cenas pornográficas em 2017.
“Desde o início, a pessoa que criou deepfakes estava usando para fazer pornografia de mulheres sem seu consentimento”, disse Samantha Cole, repórter do Vice’s Motherboard, que rastreia deepfakes desde seu início, à CNN.
A comunidade de jogos online é um lugar notoriamente difícil para as mulheres – a campanha de assédio “Gamergate” de 2014 é o exemplo mais proeminente.
Mas as preocupações com o uso de imagens pornográficas não consensuais não são exclusivas dessa comunidade e ameaçam se tornar mais comuns à medida que a tecnologia de inteligência artificial se desenvolve em uma velocidade vertiginosa e a facilidade de criar vídeos deepfake continua a melhorar.
“Estou perplexo com o quão horríveis as pessoas são umas com as outras na Internet de uma forma que eu não acho que elas estariam cara a cara”, disse Hany Farid, professor da Universidade da Califórnia, em Berkeley, e especialista forense digital, disse à CNN.
“Acho que temos que começar a tentar entender, por que essa tecnologia, esse meio, permite e revela aparentemente o pior da natureza humana? E se vamos ter essas tecnologias enraizadas em nossas vidas do jeito que parecem ser, acho que teremos que começar a pensar em como podemos ser seres humanos melhores com esses tipos de dispositivos”, disse ele. .
É parte de um problema sistêmico muito maior.
“É tudo cultura do estupro”, disse Cole, “não sei qual é a solução real além de chegar ao problema fundamental de desrespeito e não consentimento e concordar com a violação do consentimento das mulheres”.
Houve esforços dos legisladores para reprimir a criação de imagens não consensuais, sejam elas geradas por IA ou não. Em Califórniaforam introduzidas leis para tente contrariar o potencial de deepfakes serem usados em uma campanha eleitoral e em pornografia não consensual.
Mas há ceticismo. “Não resolvemos nem os problemas do setor de tecnologia de 10, 20 anos atrás”, disse Farid, apontando que o desenvolvimento da inteligência artificial “está se movendo muito, muito mais rápido do que a revolução tecnológica original”.
“Mova-se rápido e quebre as coisas”, era o lema do fundador do Facebook, Mark Zuckerberg, nos primeiros dias da empresa. À medida que o poder e, na verdade, o perigo de sua plataforma entraram em foco, ele mais tarde mudou o lema para “Mova-se rapidamente com infraestrutura estável”.
Quer tenha sido negligência intencional ou ignorância, o Vale do Silício não estava preparado para o ataque de ódio e desinformação que infeccionou em suas plataformas. As mesmas ferramentas que havia construído para unir as pessoas também foram transformadas em armas para dividir.
E embora tenha havido muita discussão sobre “IA ética”, já que o Google e a Microsoft parecem prestes a entrar em uma corrida armamentista de IA, existe a preocupação de que as coisas possam estar acontecendo muito rapidamente.
“As pessoas que estão desenvolvendo essas tecnologias – os acadêmicos, as pessoas nos laboratórios de pesquisa do Google e do Facebook – devem começar a se perguntar: ‘por que vocês estão desenvolvendo essa tecnologia?’”, sugeriu Farid.
“Se os danos superam os benefícios, você deveria bombardear a Internet com sua tecnologia e divulgá-la e depois sentar e dizer: ‘bem, vamos ver o que acontece a seguir?’”