A demonstração do Bing AI da Microsoft chamou vários erros

Tecnologia




CNN

A demonstração pública da Microsoft na semana passada de uma reformulação do Bing com tecnologia AI parece ter incluído vários erros factuais, destacando o risco que a empresa e seus rivais cara quando incorporando este novo tecnologia em motores de busca.

Na demonstração do Bing na sede da Microsoft, a empresa mostrou como a integração de recursos de inteligência artificial da empresa por trás do ChatGPT capacitaria o mecanismo de pesquisa a fornecer resultados de pesquisa mais conversacionais e complexos. A demonstração incluía uma lista de prós e contras de produtos, como aspiradores de pó; um roteiro para uma viagem à Cidade do México; e a capacidade de comparar rapidamente resultados de ganhos.

Mas aparentemente não conseguiu diferenciar entre os tipos de aspiradores e até inventou informações sobre certos produtos, de acordo com um análise da demonstração desta semana de pesquisador independente de IA Dmitri Brereton. Ele também perdeu detalhes relevantes (ou forjou certas informações) para os bares referenciados na Cidade do México, de acordo com Brereton. Além disso, Brereton descobriu que declarou incorretamente a margem operacional para o varejista Gap e comparou-a com um conjunto de resultados da Lululemon que não eram factualmente corretos.

“Estamos cientes deste relatório e analisamos suas descobertas em nossos esforços para melhorar esta experiência”, disse a Microsoft em um comunicado. “Reconhecemos que ainda há trabalho a ser feito e esperamos que o sistema cometa erros durante este período de pré-visualização, por isso o feedback é fundamental para que possamos aprender e ajudar os modelos a melhorar.”

A empresa também disse que milhares de usuários interagiram com o novo Bing desde o lançamento da prévia na semana passada e compartilharam seus comentários, permitindo que o modelo “aprenda e já faça muitas melhorias”.

A descoberta dos aparentes erros do Bing ocorre apenas alguns dias depois que o Google foi chamado por um erro cometido em sua demonstração pública na semana passada de uma ferramenta semelhante com inteligência artificial. As ações do Google perderam US$ 100 bilhões em valor depois que o erro foi relatado. (As ações da Microsoft ficaram basicamente estáveis ​​na terça-feira.)

Após o sucesso viral do ChatGPT, um chatbot de IA que pode gerar ensaios e respostas surpreendentemente convincentes às solicitações do usuário, um número crescente de empresas de tecnologia está correndo para implantar tecnologia semelhante em seus produtos. Mas isso traz riscos, especialmente para os mecanismos de busca, cujo objetivo é trazer à tona resultados precisos.

Os sistemas generativos de IA, que são algoritmos treinados em grandes quantidades de dados online para criar novos conteúdos, são notoriamente pouco confiáveis, dizem os especialistas. Laura Edelson, cientista da computação e pesquisadora de desinformação da Universidade de Nova York, disse anteriormente à CNN: “há uma grande diferença entre uma IA parecer autoritária e realmente produzir resultados precisos”.

A CNN também realizou uma série de testes essa semana isso mostrou que o Bing às vezes luta com precisão.

Quando perguntado: “Quais foram os resultados do quarto trimestre da Meta?” o recurso Bing AI deu uma resposta que dizia “de acordo com o comunicado à imprensa” e, em seguida, listou os pontos que aparecem para indicar os resultados do Meta. Mas os marcadores estavam incorretos. Bing disse, por exemplo, que a Meta gerou US$ 34,12 bilhões em receita, quando o valor real era de US$ 32,17 bilhões, e disse que a receita aumentou em relação ao ano anterior, quando na verdade havia caído.

Em uma pesquisa separada, a CNN perguntou ao Bing: “Quais são os prós e os contras dos melhores berços para bebês?” Em sua resposta, o recurso Bing fez uma lista de vários berços e seus prós e contras, amplamente citados em um artigo semelhante da Healthline. Mas o Bing declarou informações que pareciam ser atribuídas ao artigo que, na verdade, não estavam lá. Por exemplo, Bing disse que um berço tinha um “colchão resistente à água”, mas essa informação não foi listada em nenhum lugar do artigo.

Os executivos da Microsoft e do Google já reconheceram alguns dos possíveis problemas com as novas ferramentas de IA.

“Sabemos que não seremos capazes de responder a todas as perguntas todas as vezes”, disse Yusuf Mehdi, vice-presidente e diretor de marketing para consumidores da Microsoft, na semana passada. “Também sabemos que cometeremos nossa cota de erros, por isso adicionamos um botão de feedback rápido no topo de cada pesquisa, para que você possa nos dar feedback e aprendermos.”

– Clare Duffy da CNN também contribuiu para este relatório.

Fonte CNN

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *