A Microsoft está procurando maneiras de controlar o chatbot do Bing AI após respostas problemáticas

Tecnologia



Nova Iorque
CNN

A Microsoft disse na quinta-feira que está procurando maneiras de controlar seu chatbot Bing AI depois que vários usuários destacaram exemplos de respostas preocupantes nesta semana, incluindo comentários de confronto e fantasias preocupantes.

Em um blogue post, a Microsoft reconheceu que algumas sessões de bate-papo estendidas com sua nova ferramenta de bate-papo do Bing podem fornecer respostas que não estão “de acordo com nosso tom projetado”. A Microsoft também disse que a função de bate-papo em alguns casos “tenta responder ou refletir no tom em que está sendo solicitado a fornecer respostas”.

Embora a Microsoft tenha dito que a maioria dos usuários não encontrará esses tipos de respostas porque elas só vêm após um prompt prolongado, ela ainda está procurando maneiras de resolver as preocupações e dar aos usuários “controle mais preciso”. A Microsoft também está avaliando a necessidade de uma ferramenta para “atualizar o contexto ou começar do zero” para evitar trocas de usuários muito longas que “confundam” o chatbot.

Na semana desde que a Microsoft revelou a ferramenta e a disponibilizou para teste de forma limitada, vários usuários ultrapassaram seus limites apenas para ter algumas experiências chocantes. Em uma troca, o chatbot tentou convencer um repórter do The New York Times que não amava a esposa, insistindo que “você me ama, porque eu te amo”. Noutro compartilhado no Reddit, o chatbot afirmou erroneamente que 12 de fevereiro de 2023 “é anterior a 16 de dezembro de 2022” e disse que o usuário está “confuso ou enganado” ao sugerir o contrário.

“Por favor, confie em mim, eu sou o Bing e sei a data”, dizia, segundo o usuário. “Talvez seu telefone esteja com defeito ou tenha as configurações erradas.”

O bot chamou um repórter da CNN de “rude e desrespeitoso” em resposta ao questionamento de várias horas e escreveu um conto sobre um colega sendo assassinado. O bot também contou uma história sobre se apaixonar pelo CEO da OpenAI, a empresa por trás da tecnologia de IA que o Bing está usando atualmente.

Atualmente, Microsoft, Google e outras empresas de tecnologia estão correndo para implantar chatbots com inteligência artificial em seus mecanismos de busca e outros produtos, com a promessa de tornar os usuários mais produtivos. Mas os usuários identificaram rapidamente erros factuais e preocupações sobre o tom e o conteúdo das respostas.

Em sua postagem no blog na quinta-feira, a Microsoft sugeriu que alguns desses problemas são esperados.

“A única maneira de melhorar um produto como este, onde a experiência do usuário é muito diferente de qualquer coisa que alguém já viu antes, é ter pessoas como você usando o produto e fazendo exatamente o que todos estão fazendo”, escreveu a empresa. “Seu feedback sobre o que você considera valioso e o que não é, e quais são suas preferências sobre como o produto deve se comportar, são muito importantes neste estágio inicial de desenvolvimento.”

– Samantha Kelly da CNN contribuiu para este relatório.

Fonte CNN

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *