Nova Iorque
CNN
—
À medida que o setor de tecnologia corre para desenvolver e implantar uma safra de novos e poderosos chatbots de IA, sua adoção generalizada acendeu um novo conjunto de preocupações com a privacidade de dados entre algumas empresas, reguladores e observadores do setor.
Algumas empresas, incluindo JPMorgan Chase
(JPM)reprimiram o uso do ChatGPT pelos funcionários, o chatbot de IA viral que deu início à corrida armamentista de IA da Big Tech, devido a questões de conformidade relacionadas ao uso de software de terceiros pelos funcionários.
Isso só aumentou as preocupações crescentes com a privacidade quando a OpenAI, a empresa por trás do ChatGPT, divulgou que teve que colocar a ferramenta offline temporariamente em 20 de março para corrigir um bug que permitia que alguns usuários vissem as linhas de assunto do histórico de bate-papo de outros usuários.
O mesmo bug, agora corrigido, também possibilitou “alguns usuários verem o nome e sobrenome de outro usuário ativo, endereço de e-mail, endereço de pagamento, os últimos quatro dígitos (somente) de um número de cartão de crédito e data de validade do cartão de crédito, ”OpenAI disse em um postagem no blog.
E na semana passada, os reguladores da Itália emitiram uma proibição temporária do ChatGPT no país, citando preocupações com a privacidade depois que a OpenAI divulgou a violação.
“As considerações de privacidade com algo como o ChatGPT não podem ser exageradas”, disse Mark McCreary, copresidente da prática de privacidade e segurança de dados do escritório de advocacia Fox Rothschild LLP, à CNN. “É como uma caixa preta.”
Com o ChatGPT, lançado ao público no final de novembro, os usuários podem gerar ensaios, histórias e letras de músicas simplesmente digitando prompts.
Desde então, o Google e a Microsoft também lançaram ferramentas de IA, que funcionam da mesma maneira e são alimentadas por grandes modelos de linguagem treinados em vastos tesouros de dados online.
Quando os usuários inserem informações nessas ferramentas, McCreary disse: “Você não sabe como isso será usado”. Isso levanta preocupações particularmente altas para as empresas. À medida que mais e mais funcionários adotam casualmente essas ferramentas para ajudar com e-mails de trabalho ou anotações de reuniões, McCreary disse: “Acho que a oportunidade de os segredos comerciais da empresa serem lançados nessas várias IAs vai aumentar”.
Steve Mills, diretor de ética de IA do Boston Consulting Group, também disse à CNN que a maior preocupação com a privacidade que a maioria das empresas tem em relação a essas ferramentas é a “divulgação inadvertida de informações confidenciais”.
“Você tem todos esses funcionários fazendo coisas que podem parecer muito inócuas, como ‘Ah, posso usar isso para resumir anotações de uma reunião’”, disse Mills. “Mas, ao colar as anotações da reunião no prompt, você de repente, potencialmente, revela um monte de informações confidenciais.”
Se os dados inseridos pelas pessoas estão sendo usados para treinar ainda mais essas ferramentas de IA, como afirmaram muitas das empresas por trás das ferramentas, então você “perdeu o controle desses dados e outra pessoa os possui”, acrescentou Mills.
A OpenAI, empresa apoiada pela Microsoft por trás do ChatGPT, diz em seu política de Privacidade que recolhe todo o tipo de informação pessoal das pessoas que utilizam os seus serviços. Ele diz que pode usar essas informações para melhorar ou analisar seus serviços, realizar pesquisas, se comunicar com os usuários e desenvolver novos programas e serviços, entre outras coisas.
A política de privacidade declara que pode fornecer informações pessoais a terceiros sem aviso prévio ao usuário, a menos que exigido por lei. Se a política de privacidade de mais de 2.000 palavras parece um pouco opaca, provavelmente porque isso se tornou a norma do setor na era da Internet. O OpenAI também possui um Termos de uso documento, que coloca a maior parte do ônus no usuário para tomar as medidas apropriadas ao se envolver com suas ferramentas.
A OpenAI também publicou uma nova postagem no blog na quarta-feira, descrevendo sua abordagem à segurança da IA. “Não usamos dados para vender nossos serviços, publicidade ou criar perfis de pessoas – usamos dados para tornar nossos modelos mais úteis para as pessoas”, disse o estados de postagem de blog. “O ChatGPT, por exemplo, melhora com treinamento adicional sobre as conversas que as pessoas têm com ele.”
do Google política de Privacidadeque inclui sua ferramenta Bard, é igualmente prolixo e tem termos de serviço adicionais para seus usuários de IA generativa. A empresa afirma que, para ajudar a melhorar o Bard e proteger a privacidade dos usuários, “selecionamos um subconjunto de conversas e usamos ferramentas automatizadas para ajudar a remover informações de identificação pessoal”.
“Essas conversas de amostra podem ser revisadas por revisores treinados e mantidas por até 3 anos, separadamente de sua Conta do Google”, afirma a empresa em um comunicado. perguntas frequentes separadas para Bardo. A empresa também adverte: “Não inclua informações que possam ser usadas para identificar você ou outras pessoas em suas conversas com o Bard”. O FAQ também afirma que as conversas do Bard não estão sendo usadas para fins publicitários e “comunicaremos claramente quaisquer mudanças nessa abordagem no futuro”.
O Google também disse à CNN que os usuários podem “optar facilmente por usar o Bard sem salvar suas conversas em sua Conta do Google”. Os usuários do Bard também podem revisar seus prompts ou excluir conversas do Bard via esse link. “Também temos proteções projetadas para impedir que a Bard inclua informações de identificação pessoal em suas respostas”, disse o Google.
“Ainda estamos aprendendo exatamente como tudo isso funciona”, disse Mills à CNN. “Você simplesmente não sabe completamente como as informações são inseridas, se elas são usadas para retreinar esses modelos, como elas se manifestam como saídas em algum momento ou se o fazem.”
Mills acrescentou que às vezes os usuários e desenvolvedores nem percebem os riscos à privacidade que espreitam com as novas tecnologias até que seja tarde demais. Um exemplo que ele citou foram os primeiros recursos de preenchimento automático, alguns dos quais acabaram tendo algumas consequências não intencionais, como preencher um número de previdência social que um usuário começou a digitar – geralmente para alarme e surpresa do usuário.
Por fim, Mills disse: “Minha opinião agora é que você não deve colocar nada nessas ferramentas que não queira presumir que será compartilhado com outras pessoas”.