Nova Iorque
CNN
—
Papa Francisco vestindo um enorme casaco branco. Elon Musk andando de mãos dadas com a CEO rival da GM, Mary Barra. O ex-presidente Donald Trump sendo detido pela polícia de forma dramática.
Nenhuma dessas coisas realmente aconteceu, mas as imagens geradas por IA que as retratam se tornaram virais online na semana passada.
As imagens variavam de obviamente falsas a, em alguns casos, convincentemente reais, e enganaram alguns usuários de mídia social. A modelo e personalidade da TV Chrissy Teigen, por exemplo, tuitou que ela pensou que o casaco do papa era real, dizendo: “não pensei duas vezes. de jeito nenhum vou sobreviver ao futuro da tecnologia.” As imagens também geraram uma série de manchetes, enquanto as organizações de notícias corriam para desmascarar as imagens falsas, especialmente as de Trump, que acabou sendo indiciado por um grande júri de Manhattan na quinta-feira, mas não foi preso.
A situação demonstra uma nova realidade online: o surgimento de uma nova safra de ferramentas de inteligência artificial barulhentas tornou mais barato e fácil do que nunca criar imagens realistas, bem como áudio e vídeos. E essas imagens provavelmente aparecerão com frequência cada vez maior nas redes sociais.
Embora essas ferramentas de IA possam permitir novos meios de expressão da criatividade, a disseminação da mídia gerada por computador também ameaça poluir ainda mais o ecossistema da informação. Isso corre o risco de aumentar os desafios para usuários, organizações de notícias e plataformas de mídia social para examinar o que é real, depois de anos lutando contra a desinformação on-line com recursos visuais muito menos sofisticados. Também há preocupações de que as imagens geradas por IA possam ser usadas para assédio ou para separar ainda mais os usuários da Internet.
“Eu me preocupo que chegue a um ponto em que haverá tanto conteúdo falso e altamente realista on-line que a maioria das pessoas seguirá seus instintos tribais como um guia para o que eles acham que é real, mais do que opiniões realmente informadas com base em evidências verificadas”, disse Henry Ajder, um especialista em mídia sintética que trabalha como consultor para empresas e agências governamentais, incluindo o Conselho Consultivo Europeu da Meta Reality Labs.
As imagens, em comparação com o texto gerado por IA que também proliferou recentemente graças a ferramentas como o ChatGPT, podem ser especialmente poderosas para provocar emoções quando as pessoas as visualizam, disse Claire Leibowicz, chefe de IA e integridade de mídia da Partnership on AI, um grupo industrial sem fins lucrativos. Isso pode tornar mais difícil para as pessoas desacelerar e avaliar se o que estão vendo é real ou falso.
Além do mais, agentes mal-intencionados coordenados podem eventualmente tentar criar conteúdo falso em massa – ou sugerir que o conteúdo real é gerado por computador – para confundir os usuários da Internet e provocar certos comportamentos.
“A paranóia de um Trump iminente … prisão em potencial criou um estudo de caso realmente útil para entender quais são as possíveis implicações, e acho que temos muita sorte de as coisas não terem dado errado”, disse Ben Decker, CEO do grupo de inteligência de ameaças Memetica. . “Porque se mais pessoas tivessem tido essa ideia em massa, de forma coordenada, acho que existe um universo onde poderíamos começar a ver os efeitos online para offline.”
A tecnologia de imagem gerada por computador melhorou rapidamente nos últimos anos, desde a imagem photoshopada de um tubarão nadando em uma rodovia inundada que foi compartilhada repetidamente durante desastres naturais até os sites que há quatro anos começaram a produzir fotos falsas pouco convincentes de inexistentes pessoas.
Muitas das recentes imagens virais geradas por IA foram criadas por uma ferramenta chamada Midjourney, uma plataforma com menos de um ano de idade que permite aos usuários criar imagens com base em prompts de texto curtos. Em seu site, a Midjourney se descreve como “uma pequena equipe autofinanciada”, com apenas 11 funcionários em tempo integral.
Uma olhada superficial em uma página do Facebook popular entre os usuários do Midjourney revela imagens geradas por IA de um Papa Francisco aparentemente embriagado, versões idosas de Elvis e Kurt Cobain, Musk em um traje robótico de Tesla e muitas criações de animais assustadores. E isso é apenas dos últimos dias.
A versão mais recente do Midjourney está disponível apenas para um número seleto de usuários pagos, disse o CEO da Midjourney, David Holz, à CNN em um e-mail na sexta-feira. Midjourney esta semana interrompeu o acesso ao teste gratuito de suas versões anteriores devido a “demanda extraordinária e abuso de teste”, de acordo com uma postagem no Discord de Holz, mas ele disse à CNN que não estava relacionado às imagens virais. O criador das imagens da prisão de Trump também afirmou que foi banido do site.
A página de regras no site Discord da empresa pede aos usuários: “Não use nossas ferramentas para criar imagens que possam inflamar, perturbar ou causar drama. Isso inclui gore e conteúdo adulto.”
“A moderação é difícil e em breve enviaremos sistemas aprimorados”, disse Holz à CNN. “Estamos recebendo muitos comentários e ideias de especialistas e da comunidade e estamos tentando ser realmente atenciosos.”
Na maioria dos casos, os criadores das recentes imagens virais não parecem ter agido de forma malévola. As imagens da prisão de Trump foram criadas pelo fundador do jornal investigativo online Bellingcat, que claramente as rotulou como suas invenções, mesmo que outros usuários de mídia social não fossem tão perspicazes.
Existem esforços de plataformas, empresas de tecnologia de IA e grupos da indústria para melhorar a transparência quando um conteúdo é gerado por um computador.
Plataformas como Facebook e Instagram da Meta, Twitter e YouTube têm políticas que restringem ou proíbem o compartilhamento de mídia manipulada que pode enganar os usuários. Mas, à medida que cresce o uso de tecnologias geradas por IA, até mesmo essas políticas podem ameaçar minar a confiança do usuário. Se, por exemplo, uma imagem falsa passar acidentalmente pelo sistema de detecção de uma plataforma, “isso pode dar falsa confiança às pessoas”, disse Ajder. “Eles dirão: ‘existe um sistema de detecção que diz que é real, então deve ser real’.”
Também estão em andamento soluções técnicas que, por exemplo, marcariam uma imagem gerada por IA ou incluiriam um rótulo transparente nos metadados de uma imagem, para que qualquer pessoa que a visualizasse na Internet soubesse que foi criada por um computador. A Partnership on AI desenvolveu um conjunto de padrões responsáveis práticas para mídia sintética junto com parceiros como O criador do ChatGPT, OpenAI, TikTok, Adobe, Bumble e BBC, que inclui recomendações sobre como divulgar uma imagem gerada por IA e como as empresas podem compartilhar dados sobre essas imagens.
“A ideia é que essas instituições estejam todas comprometidas com a divulgação, consentimento e transparência”, disse Leibowicz.
Um grupo de líderes tecnológicos, incluindo Musk e o cofundador da Apple, Steve Wozniak, escreveu esta semana uma carta aberta pedindo que os laboratórios de inteligência artificial interrompam o treinamento dos sistemas de IA mais poderosos por pelo menos seis meses, citando “riscos profundos para a sociedade e humanidade.” Ainda assim, não está claro se algum laboratório dará esse passo. E como a tecnologia melhora rapidamente e se torna acessível além de um grupo relativamente pequeno de corporações comprometidas com práticas responsáveis, os legisladores podem precisar se envolver, disse Ajder.
“Essa nova era da IA não pode ser mantida nas mãos de algumas grandes empresas enriquecendo com essas ferramentas, precisamos democratizar essa tecnologia”, disse ele. “Ao mesmo tempo, também há preocupações muito reais e legítimas de ter uma abordagem aberta radical em que você apenas abre o código de uma ferramenta ou tem restrições mínimas em seu uso, o que levará a uma escala maciça de danos … e acho que a legislação provavelmente desempenhará um papel em reinar em alguns dos modelos mais radicalmente abertos”.