Como as empresas de tecnologia estão trabalhando para ajudar a detectar imagens geradas por IA

Tecnologia


Nova Iorque
CNN

Por um breve momento no mês passado, uma imagem que pretendia mostrar uma explosão perto do Pentágono se espalhou nas redes sociais, causando pânico e uma onda de vendas no mercado. A imagem, que trazia todas as características de ter sido gerada por IA, foi posteriormente desmascarada pelas autoridades.

Mas de acordo com Jeffrey McGregor, CEO da Truepic, é “verdadeiramente a ponta do iceberg do que está por vir”. Como ele disse, “vamos ver muito mais conteúdo gerado por IA surgindo nas mídias sociais, e simplesmente não estamos preparados para isso”.

A empresa de McGregor está trabalhando para resolver esse problema. A Truepic oferece tecnologia que afirma autenticar a mídia no ponto de criação por meio de sua Truepic Lens. O aplicativo captura dados como data, hora, local e o dispositivo usado para fazer a imagem e aplica uma assinatura digital para verificar se a imagem é orgânica ou se foi manipulada ou gerada por IA.

A Truepic, que tem o apoio da Microsoft, foi fundada em 2015, anos antes do lançamento de ferramentas de geração de imagens com inteligência artificial, como Dall-E e Midjourney. Agora, McGregor diz que a empresa está vendo o interesse de “qualquer pessoa que esteja tomando uma decisão com base em uma foto”, de ONGs a empresas de mídia e seguradoras que procuram confirmar se uma reivindicação é legítima.

“Quando qualquer coisa pode ser falsificada, tudo pode ser falso”, disse McGregor. “Sabendo que a IA generativa atingiu esse ponto crítico em termos de qualidade e acessibilidade, não sabemos mais o que é a realidade quando estamos online.”

Empresas de tecnologia como a Truepic trabalham para combater a desinformação online há anos, mas o surgimento de uma nova safra de ferramentas de IA que podem gerar rapidamente imagens atraentes e trabalhos escritos em resposta às solicitações do usuário acrescentou uma nova urgência a esses esforços. Nos últimos meses, uma imagem gerada por IA do Papa Francisco em uma jaqueta se tornou viral e imagens geradas por IA do ex-presidente Donald Trump sendo preso foram amplamente compartilhadas, pouco antes de ele ser indiciado.

Alguns legisladores agora estão pedindo que as empresas de tecnologia resolvam o problema. Vera Jourova, vice-presidente da Comissão Europeia, pediu na segunda-feira aos signatários do Código de Prática de Desinformação da UE – uma lista que inclui Google, Meta, Microsoft e TikTok – para “colocar em prática tecnologia para reconhecer tal conteúdo e rotular claramente isso aos usuários.”

Um número crescente de startups e grandes empresas de tecnologia, incluindo algumas que estão implantando tecnologia de IA generativa em seus produtos, está tentando implementar padrões e soluções para ajudar as pessoas a determinar se uma imagem ou vídeo é feito com IA. Algumas dessas empresas têm nomes como Reality Defender, que falam dos riscos potenciais do esforço: proteger nosso próprio senso do que é real e do que não é.

Mas como a tecnologia de IA se desenvolve mais rápido do que os humanos conseguem acompanhar, não está claro se essas soluções técnicas serão capazes de resolver totalmente o problema. Até a OpenAI, a empresa por trás do Dall-E e do ChatGPT, admitiu no início deste ano que seu próprio esforço para ajudar a detectar escrita gerada por IA, em vez de imagens, é “imperfeito” e alertou que deve ser “tomado com cautela. ”

“Trata-se de mitigação, não de eliminação”, disse Hany Farid, especialista forense digital e professor da Universidade da Califórnia, Berkeley, à CNN. “Não acho que seja uma causa perdida, mas acho que há muito a ser feito.”

“A esperança”, disse Farid, é chegar a um ponto em que “algum adolescente no porão de seus pais não consiga criar uma imagem e influenciar uma eleição ou movimentar o mercado em meio trilhão de dólares”.

As empresas estão adotando duas abordagens para lidar com o problema.

Uma tática depende do desenvolvimento de programas para identificar imagens como geradas por IA depois de terem sido produzidas e compartilhadas online; o outro se concentra em marcar uma imagem como real ou gerada por IA em sua concepção com uma espécie de assinatura digital.

Reality Defender e Hive Moderation estão trabalhando no primeiro. Com suas plataformas, os usuários podem fazer upload de imagens existentes para serem digitalizadas e, em seguida, receber uma análise instantânea com uma porcentagem indicando a probabilidade de ser real ou gerada por IA com base em uma grande quantidade de dados.

O Reality Defender, que foi lançado antes de “IA generativa” se tornar um chavão e fazia parte do competitivo acelerador de tecnologia do Vale do Silício Y Combinator, diz que usa “deepfake proprietário e tecnologia de impressão digital de conteúdo generativo” para identificar vídeo, áudio e imagens gerados por IA.

Em um exemplo fornecido pela empresa, o Reality Defender destaca uma imagem de um deepfake de Tom Cruise como 53% “suspeito”, dizendo ao usuário que encontrou evidências de que o rosto estava distorcido, “um artefato comum de manipulação de imagem”.

Defender a realidade pode ser um negócio lucrativo se a questão se tornar uma preocupação frequente para empresas e indivíduos. Esses serviços oferecem demonstrações gratuitas limitadas, bem como níveis pagos. A Hive Moderation disse que cobra US$ 1,50 para cada 1.000 imagens, bem como “contratos anuais” que oferecem um desconto. A Realty Defender disse que seus preços podem variar com base em vários fatores, incluindo se o cliente precisa de “quaisquer fatores sob medida que exijam a experiência e assistência de nossa equipe”.

“O risco está dobrando a cada mês”, disse Ben Colman, CEO da Reality Defender, à CNN. “Qualquer um pode fazer isso. Você não precisa de um PhD em ciência da computação. Você não precisa criar servidores na Amazon. Você não precisa saber como escrever ransomware. Qualquer um pode fazer isso apenas pesquisando ‘gerador de rosto falso’ no Google.

Kevin Guo, CEO da Hive Moderation, descreveu isso como “uma corrida armamentista”.

“Temos que continuar olhando para todas as novas maneiras pelas quais as pessoas estão criando esse conteúdo, temos que entendê-lo e adicioná-lo ao nosso conjunto de dados para classificar o futuro”, disse Guo à CNN. “Hoje, com certeza, uma pequena porcentagem do conteúdo é gerada por IA, mas acho que isso vai mudar nos próximos anos.”

Em uma abordagem diferente e preventiva, algumas grandes empresas de tecnologia estão trabalhando para integrar uma espécie de marca d’água às imagens para certificar a mídia como real ou gerada por IA quando são criadas pela primeira vez. Até agora, o esforço foi amplamente impulsionado pela Coalition for Content Provenance and Authenticity, ou C2PA.

O C2PA foi fundado em 2021 para criar uma norma técnica que certifica a origem e o histórico das mídias digitais. Ele combina os esforços da Content Authenticity Initiative (CAI) liderada pela Adobe e do Project Origin, uma iniciativa liderada pela Microsoft e pela BBC que se concentra no combate à desinformação em notícias digitais. Outras empresas envolvidas no C2PA incluem Truepic, Intel e Sony.

Com base nas diretrizes do C2PA, o CAI cria ferramentas de código aberto para empresas criarem credenciais de conteúdo ou os metadados que contêm informações sobre a imagem. Isso “permite que os criadores compartilhem de forma transparente os detalhes de como criaram uma imagem”, de acordo com o site da CAI. “Dessa forma, um usuário final pode acessar o contexto sobre quem, o quê e como a imagem foi alterada – e julgar por si mesmo o quão autêntica é essa imagem.”

“A Adobe não tem um centro de receita em torno disso. Estamos fazendo isso porque achamos que isso tem que existir”, disse Andy Parsons, diretor sênior da CAI, à CNN. “Achamos que é uma contramedida fundamental muito importante contra a desinformação”.

Muitas empresas já estão integrando o padrão C2PA e as ferramentas CAI em seus aplicativos. da Adobe Firefly, uma ferramenta de geração de imagem AI recentemente adicionada ao Photoshop, segue o padrão por meio do recurso Credenciais de conteúdo. Microsoft também anunciou que a arte de IA criada pelo Bing Image Creator e pelo Microsoft Designer terá uma assinatura criptográfica nos próximos meses.

Outras empresas de tecnologia, como o Google, parecem seguir um manual que se baseia um pouco em ambas as abordagens.

Em maio, o Google anunciou uma ferramenta chamada Sobre esta imagem, oferecendo aos usuários a capacidade de ver quando as imagens encontradas em seu site foram originalmente indexadas pelo Google, onde as imagens podem ter aparecido pela primeira vez e onde mais podem ser encontradas online. A empresa de tecnologia também anunciou que toda imagem gerada por IA criada pelo Google carregará uma marcação no arquivo original para “dar contexto” se a imagem for encontrada em outro site ou plataforma.

Enquanto as empresas de tecnologia estão tentando lidar com as preocupações com as imagens geradas por IA e a integridade da mídia digital, especialistas da área enfatizam que essas empresas precisarão trabalhar umas com as outras e com o governo para resolver o problema.

“Vamos precisar da cooperação dos Twitters e Facebooks de todo o mundo para que eles comecem a levar essas coisas mais a sério e parem de promover as coisas falsas e comecem a promover as coisas reais”, disse Farid. “Há uma parte regulatória sobre a qual não conversamos. Há uma parte da educação sobre a qual não falamos.”

Parsons concordou. “Não é uma única empresa ou um único governo ou um único indivíduo na academia que pode tornar isso possível”, disse ele. “Precisamos que todos participem.”

Por enquanto, no entanto, as empresas de tecnologia continuam avançando com a introdução de mais ferramentas de IA no mundo.

Fonte CNN

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *