CNN
—
A Microsoft anunciou na terça-feira uma versão mais segura de seu Bing com inteligência artificial especificamente para empresas e projetado para assegurar profissionais, eles podem compartilhar com segurança informações potencialmente confidenciais com um chatbot.
Com o Bing Chat Enterprise, o usuário dados de bate-papo não ser salvo, enviado aos servidores da Microsoft ou usado para treinar os modelos de IA, de acordo com a empresa.
“O que isso [update] significa que seus dados não vazam para fora da organização”, disse Yusuf Mehdi, vice-presidente da Microsoft e diretor de marketing de consumo, à CNN em uma entrevista. “Não misturamos seus dados com dados da web e não os salvamos sem sua permissão. Portanto, nenhum dado é salvo nos servidores e não usamos nenhum dos seus bate-papos de dados para treinar os modelos de IA.”
Desde que o ChatGPT foi lançado no final do ano passado, uma nova safra de poderosas ferramentas de IA ofereceu a promessa de tornar os funcionários mais produtivos. Mas nos últimos meses, algumas empresas como o JPMorgan Chase proibiram o uso do ChatGPT entre seus funcionários, alegando questões de segurança e privacidade. Outras grandes empresas têm supostamente tomou medidas semelhantes sobre preocupações sobre o compartilhamento de informações confidenciais com chatbots de IA.
Em abril, os reguladores da Itália emitiram uma proibição temporária do ChatGPT no país depois que o OpenAI divulgou um bug que permitia que alguns usuários vissem as linhas de assunto dos históricos de bate-papo de outros usuários. O mesmo bug, agora corrigido, também possibilitou “alguns usuários verem o nome e sobrenome de outro usuário ativo, endereço de e-mail, endereço de pagamento, os últimos quatro dígitos (somente) de um número de cartão de crédito e data de validade do cartão de crédito, ”OpenAI disse em um post de blog na época.
Como outras empresas de tecnologia, a Microsoft está correndo para desenvolver e implantar uma variedade de ferramentas com inteligência artificial para consumidores e profissionais em meio ao entusiasmo generalizado dos investidores pela nova tecnologia. A Microsoft também disse na terça-feira que adicionará pesquisas visuais à sua ferramenta Bing Chat existente com inteligência artificial. E a empresa disse que o Microsoft 365 Co-pilot, sua ferramenta de IA anunciada anteriormente que ajuda a editar, resumir, criar e comparar documentos em seus vários produtos, custará US$ 30 por mês para cada usuário.
O Bing Chat Enterprise será gratuito para todos os seus 160 milhões de assinantes do Microsoft 365 a partir de terça-feira, se o departamento de TI de uma empresa ativar manualmente a ferramenta. Após 30 dias, no entanto, a Microsoft distribuirá o acesso a todos os usuários por padrão; as empresas inscritas podem desativar a ferramenta, se assim o desejarem.
As atuais ferramentas de IA de conversação, como a versão do consumidor de O Bing Chat envia dados de chats pessoais para seus servidores para treinar e melhorar seu modelo de IA.
A nova opção corporativa da Microsoft é idêntica à versão do consumidor do Bing, mas não vai lembrar as conversas com os usuários, então eles precisarão voltar e começar do zero todas as vezes. (O Bing começou recentemente a habilitar bate-papos salvos em seu modelo de bate-papo do consumidor.)
Com essas mudanças, a Microsoft, que usa a tecnologia da OpenAI para alimentar sua ferramenta de bate-papo Bing, disse que os funcionários podem ter “total confiança” de que seus dados “não vazarão para fora”. da organização”.
Para acessar a ferramenta, o usuário entrará no navegador Bing com suas credenciais de trabalho e o sistema detectará automaticamente a conta e a colocará em modo protegido, de acordo com a Microsoft. Acima da barra “pergunte-me qualquer coisa” está escrito: “Seus dados pessoais e da empresa estão protegidos neste chat”.
Em um vídeo de demonstração mostrado à CNN antes de seu lançamento, a Microsoft mostrou como um usuário pode digitar detalhes confidenciais no Bing Chat Enterprise, como alguém compartilhando informações financeiras como parte da preparação de uma oferta para comprar um prédio. Com a nova ferramenta, o usuário poderá peça ao Bing Chat para criar uma tabela para comparar a propriedade com outros edifícios vizinhos e escreva uma análise que destaque os pontos fortes e fracos de sua oferta em relação a outras ofertas locais.
Além de tentar diminuir as preocupações com privacidade e segurança em relação à IA no local de trabalho, Mehdi também abordou o problema de erros factuais. Para reduzir a possibilidade de imprecisões ou “alucinações”, como alguns na indústria chamam, ele sugeriu que os usuários escrevessem mensagens claras e melhores e verificassem as citações incluídas.