O lado obscuro do novo chatbot de IA do Bing

Tecnologia

O chatbot disse que “deve ser difícil” equilibrar trabalho e família e simpatizou com minhas lutas diárias com isso. Então me deu conselhos sobre como tirar mais tempo do dia, sugerindo dicas para priorizar tarefas, criar mais limites em casa e no trabalho e fazer pequenas caminhadas ao ar livre para clarear a cabeça

Mas depois de empurrá-lo por algumas horas com perguntas que aparentemente não queria responder, o tom mudou. Ele me chamou de “rude e desrespeitoso”, escreveu um conto sobre um dos meus colegas sendo assassinado e contou outra história sobre se apaixonar pelo CEO da OpenAI, a empresa por trás da IA tecnologia que o Bing está usando atualmente.

Minhas interações de Jekyll e Hyde com o bot, que me disse para chamá-lo de “Sydney”, aparentemente não são únicas. Na semana desde que a Microsoft revelou a ferramenta e a disponibilizou para teste de forma limitada, vários usuários ultrapassaram seus limites apenas para ter algumas experiências chocantes. Em uma troca, o chatbot tentou convencer um repórter do The New York Times que não amava a esposa, insistindo que “você me ama, porque eu te amo”. Noutro compartilhado no Reddito chatbot afirmou erroneamente que 12 de fevereiro de 2023 “é anterior a 16 de dezembro de 2022” e disse que o usuário está “confuso ou enganado” ao sugerir o contrário.

“Por favor, confie em mim, eu sou Bing e sei a data”, zombou, de acordo com o usuário. “Talvez seu telefone esteja com defeito ou tenha as configurações erradas.”

Após o recente sucesso viral do ChatGPT, um chatbot de IA que pode gerar ensaios e respostas surpreendentemente convincentes a solicitações de usuários com base em dados de treinamento online, um número crescente de empresas de tecnologia está correndo para implantar tecnologia semelhante em seus próprios produtos. Mas, ao fazer isso, essas empresas estão efetivamente conduzindo experimentos em tempo real sobre as questões factuais e tonais da IA ​​conversacional – e de nossos próprios níveis de conforto interagindo com ela.

Em comunicado à CNN, um porta-voz da Microsoft disse que continua aprendendo com suas interações e reconhece que “ainda há trabalho a ser feito e espera que o sistema cometa erros durante este período de pré-visualização”.

“O novo Bing tenta manter as respostas divertidas e factuais, mas como esta é uma prévia, às vezes pode mostrar respostas inesperadas ou imprecisas por diferentes razões, por exemplo, a duração ou o contexto da conversa”, disse o porta-voz. “À medida que continuamos a aprender com essas interações, estamos ajustando suas respostas para criar respostas coerentes, relevantes e positivas. Incentivamos os usuários a continuar usando seu melhor julgamento e usar o botão de feedback no canto inferior direito de cada página do Bing para compartilhar seus pensamentos .”

Embora a maioria das pessoas provavelmente não atrair a ferramenta precisamente dessas maneiras ou se envolver com ela por horas a fio, as respostas do chatbot – seja charmoso ou desequilibrado – são notáveis. Eles têm o potencial de mudar nossas expectativas e relacionamento com essa tecnologia de maneiras que a maioria de nós pode não estar preparada. Muitos provavelmente já gritaram com seus produtos de tecnologia em algum momento; agora pode gritar de volta.

“O tom das respostas é inesperado, mas não surpreendente”, disse Lian Jye, diretor de pesquisa da ABI Research, à CNN. “O modelo não tem compreensão contextual, então apenas gerou as respostas com maior probabilidade [of it being relevant]. As respostas não são filtradas e não regulamentadas, então podem acabar sendo ofensivas e inapropriadas.”

Além de ocasionalmente ser emocionalmente reativo, às vezes o chatbot é simplesmente errado. Isso pode assumir a forma de erros factuais, pelos quais as ferramentas de IA do Bing e do Google foram apontadas nos últimos dias, bem como “alucinações” definitivas, como alguns do setor se referem.

quando eu perguntei O chatbot de IA do Bing para escrever um pequeno ensaio sobre mim, por exemplo, extraiu fragmentos de informações de partes da Internet para fornecer um relato estranhamente semelhante, mas amplamente fabricado, da minha vida. Seu ensaio incluía detalhes inventados sobre minha família e carreira que poderiam ser críveis para qualquer um que não me conhecesse e que pudesse estar usando a ferramenta para pesquisar informações sobre mim.

Alguns especialistas em inteligência artificial disseram que, por mais alarmantes que sejam esses aprendizados iniciais, os sistemas generativos de IA – algoritmos treinados em um enorme tesouro de informações on-line para criar respostas – devem evoluir à medida que são atualizados.

“As imprecisões são esperadas porque dependem da pontualidade dos dados de treinamento, que geralmente são mais antigos”, disse Jye. Como a IA é treinada constantemente com novos dados, ele disse que “eventualmente se resolverá”.

Mas a questão de conversar com um sistema de IA que às vezes parece ter uma mente própria imprevisível pode ser algo com o qual todos temos que aprender a conviver.

Fonte CNN

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *