Washington
CNN
—
A Federal Trade Commission está investigando a OpenAI por possíveis violações da lei de proteção ao consumidor, buscando registros extensos do criador do ChatGPT sobre o manuseio de dados pessoais, seu potencial para fornecer aos usuários informações imprecisas e seus “riscos de danos aos consumidores, incluindo danos à reputação. ”
A investigação ameaça complicar o relacionamento da OpenAI com os formuladores de políticas, muitos dos quais foram surpreendidos pela tecnologia da empresa e seu CEO, Sam Altman. Também poderia focar mais atenção no papel da OpenAI em um amplo debate sobre a ameaça que a inteligência artificial generativa pode representar para empregos, segurança nacional e democracia.
Em uma demanda investigativa de 20 páginas esta semana, a FTC pediu à OpenAI que respondesse a dezenas de solicitações, desde como obtém os dados que usa para treinar seus grandes modelos de linguagem até descrições da “capacidade do ChatGPT de gerar declarações sobre indivíduos reais que são falsos”. , enganoso ou depreciativo”.
O documento foi relatado pela primeira vez por The Washington Post na quinta-feira, e uma pessoa familiarizada com o assunto confirmou sua autenticidade à CNN. A OpenAI não respondeu imediatamente a um pedido de comentário. A FTC se recusou a comentar.
O pedido de informações, que é considerado uma espécie de intimação administrativa, também busca depoimentos da OpenAI sobre denúncias que recebeu do público, listas de processos em que está envolvida e detalhes de vazamento de dados pelo empresa divulgada em março de 2023 e disse expôs temporariamente os históricos de bate-papo e dados de pagamento dos usuários.
Ele pede descrições de como o OpenAI testa, ajusta e manipula seus algoritmos, particularmente para produzir diferentes respostas ou para responder a riscos, e em diferentes idiomas. A solicitação também pede que a empresa explique quaisquer medidas tomadas para lidar com casos de “alucinação”, um termo da indústria que descreve resultados em que uma IA gera informações falsas.
A investigação da FTC é o exemplo mais claro até agora da regulamentação direta da IA pelo governo dos EUA, enquanto os legisladores do Congresso lutam para acelere em uma indústria em rápida evolução à frente de um empurrão esperado este outono para redigir uma nova legislação que afete o setor. Os esforços dos EUA ficaram em grande parte atrás de outros formuladores de políticas globais. Os legisladores da União Europeia, por exemplo, estão empenhados em finalizar uma legislação histórica que proíbe o uso de IA para policiamento preditivo e aplica restrições a cenários de uso de alto risco.
A investigação da FTC ocorre após repetidas avisos para as empresas não fazerem reivindicações superaquecidas sobre IA ou fazerem mau uso da tecnologia de maneira discriminatória.
Tem dito em postagens no blog e comentários públicos de que as empresas que usam IA serão responsabilizadas por quaisquer práticas injustas e enganosas relacionadas à tecnologia. Como o principal órgão de proteção ao consumidor do país, a FTC tem poderes para processar abusos de privacidade, marketing mentiroso e outros danos.
A presidente da FTC, Lina Khan, argumentou que o atual mandato do Congresso da agência fornece ampla autoridade para a FTC processar usos abusivos de IA. Por exemplo, embora a IA possa ajudar a “turbinar” fraudes e golpes, a FTC já tem um longo histórico de fiscalização contra golpistas, Khan disse aos legisladores em abril.
“Embora essas ferramentas sejam novas, elas não estão isentas das regras existentes, e a FTC aplicará vigorosamente as leis que somos encarregadas de administrar, mesmo neste novo mercado”, escreveu Khan em um comunicado. Artigo de opinião do New York Times o mês seguinte.
Alguns críticos da OpenAI apresentaram anteriormente uma reclamação à FTC alegando que o viés algorítmico, as preocupações com a privacidade e a tendência do ChatGPT de alucinar podem violar a lei de proteção ao consumidor dos EUA.
A OpenAI foi franca sobre algumas das limitações de seus produtos. Por exemplo, o white paper vinculado ao último lançamento do GPT, GPT-4, explica que o modelo pode “produzir conteúdo sem sentido ou falso em relação a certas fontes”. A OpenAI também faz divulgações semelhantes sobre a possibilidade de ferramentas como o GPT poderem levar a uma ampla discriminação contra minorias ou outros grupos vulneráveis.