A FTC deve investigar o OpenAI e bloquear o GPT por comportamento ‘enganoso’, afirma o think tank de IA

Tecnologia



Washington
CNN

Um think tank de política de IA quer que o governo dos EUA investigue o OpenAI e seu popular produto de inteligência artificial GPT, alegando que o viés algorítmico, as preocupações com a privacidade e a tendência da tecnologia de produzir resultados às vezes imprecisos podem violar a lei federal de proteção ao consumidor.

A Comissão Federal de Comércio deve proibir a OpenAI de lançar versões futuras do GPT, disse o Center for AI and Digital Policy (CAIDP) na quinta-feira em uma reclamação da agência, e estabelecer novos regulamentos para o setor de IA em rápido crescimento.

A reclamação procura trazer toda a força dos amplos poderes de proteção ao consumidor da FTC contra o que o CAIDP retratou como um faroeste de experimentação desenfreada em que os consumidores pagam pelas consequências não intencionais do desenvolvimento da IA. E pode ser um teste inicial do apetite do governo dos EUA por regulamentar diretamente a IA, já que autoridades céticas em tecnologia, como a presidente da FTC, Lina Khan, alertaram sobre os perigos do uso descontrolado de dados para fins comerciais e de novas maneiras pelas quais as empresas de tecnologia podem tentar entrincheirar monopólios.

A FTC se recusou a comentar. A OpenAI não respondeu imediatamente a um pedido de comentário.

“Acreditamos que a FTC deve examinar atentamente a OpenAI e a GPT-4”, disse Marc Rotenberg, presidente da CAIDP e antigo defensor da proteção do consumidor em questões de tecnologia.

A reclamação ataca uma série de riscos associados à inteligência artificial generativa, que chamou a atenção do mundo depois que o ChatGPT da OpenAI – alimentado por uma versão anterior do produto GPT – foi lançado ao público no final do ano passado. Todos os dias, os internautas usam o ChatGPT para escrever poesia, criar software e obter respostas a perguntas, tudo em segundos e com sofisticação surpreendente. A Microsoft e o Google começaram a integrar o mesmo tipo de IA em seus produtos de busca, com o Bing da Microsoft rodando na própria tecnologia GPT.

Mas a corrida pelo domínio em um campo aparentemente novo também produziu resultados inquietantes ou simplesmente incorretos, como afirmações confiantes de que 12 de fevereiro de 2023 veio antes de 16 de dezembro de 2022. No jargão da indústria, esses tipos de erros são conhecidos como “alucinações de IA” – e devem ser consideradas violações legalmente exigíveis, argumentou o CAIDP em sua denúncia.

“Muitos dos problemas associados ao GPT-4 são frequentemente descritos como ‘desinformação’, ‘alucinações’ ou ‘invenções’. Mas, para o propósito da FTC, esses resultados devem ser melhor entendidos como ‘engano’”, disse a queixa, referindo-se à ampla autoridade da FTC para processar atos ou práticas comerciais desleais ou enganosas.

A reclamação reconhece que a OpenAI foi franca sobre muitas das limitações de seus algoritmos. Por exemplo, o white paper vinculado ao último lançamento do GPT, GPT-4, explica que o modelo pode “produzir conteúdo sem sentido ou falso em relação a certas fontes”. A OpenAI também faz divulgações semelhantes sobre a possibilidade de ferramentas como o GPT poderem levar a uma ampla discriminação contra minorias ou outros grupos vulneráveis.

Mas, além de argumentar que esses resultados em si podem ser injustos ou enganosos, o CAIDP também alega que a OpenAI violou as diretrizes de IA da FTC ao tentar transferir a responsabilidade por esses riscos para seus clientes que usam a tecnologia.

A reclamação alega que os termos da OpenAI exigem que editores de notícias, bancos, hospitais e outras instituições que implementam o GPT incluam um aviso sobre as limitações da inteligência artificial. Isso não isenta a OpenAI de responsabilidade, de acordo com a denúncia.

Citando um Aviso da FTC de março sobre chatbots, o CAIDP escreveu: “Recentemente [the] A FTC declarou que ‘Apenas alertar seus clientes sobre o uso indevido ou dizer-lhes para fazerem divulgações dificilmente é suficiente para dissuadir os maus atores. Suas medidas de dissuasão devem ser duráveis, recursos integrados e não correções de bugs ou recursos opcionais que terceiros possam minar por meio de modificação ou remoção.’”

A inteligência artificial também tem vastas implicações para a privacidade e segurança cibernética do consumidor, disse o CAIDP, questões que se enquadram perfeitamente na jurisdição da FTC, mas que a agência não estudou em conexão com o funcionamento interno da GPT.

Fonte CNN

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *