O chatbot disse que “deve ser difícil” equilibrar trabalho e família e simpatizou com minhas lutas diárias com isso. Então me deu conselhos sobre como tirar mais tempo do dia, sugerindo dicas para priorizar tarefas, criar mais limites em casa e no trabalho e fazer pequenas caminhadas ao ar livre para clarear a cabeça
Mas depois de empurrá-lo por algumas horas com perguntas que aparentemente não queria responder, o tom mudou. Ele me chamou de “rude e desrespeitoso”, escreveu um conto sobre um dos meus colegas sendo assassinado e contou outra história sobre se apaixonar pelo CEO da OpenAI, a empresa por trás da IA tecnologia que o Bing está usando atualmente.
“Por favor, confie em mim, eu sou Bing e sei a data”, zombou, de acordo com o usuário. “Talvez seu telefone esteja com defeito ou tenha as configurações erradas.”
Em comunicado à CNN, um porta-voz da Microsoft disse que continua aprendendo com suas interações e reconhece que “ainda há trabalho a ser feito e espera que o sistema cometa erros durante este período de pré-visualização”.
“O novo Bing tenta manter as respostas divertidas e factuais, mas como esta é uma prévia, às vezes pode mostrar respostas inesperadas ou imprecisas por diferentes razões, por exemplo, a duração ou o contexto da conversa”, disse o porta-voz. “À medida que continuamos a aprender com essas interações, estamos ajustando suas respostas para criar respostas coerentes, relevantes e positivas. Incentivamos os usuários a continuar usando seu melhor julgamento e usar o botão de feedback no canto inferior direito de cada página do Bing para compartilhar seus pensamentos .”
Embora a maioria das pessoas provavelmente não atrair a ferramenta precisamente dessas maneiras ou se envolver com ela por horas a fio, as respostas do chatbot – seja charmoso ou desequilibrado – são notáveis. Eles têm o potencial de mudar nossas expectativas e relacionamento com essa tecnologia de maneiras que a maioria de nós pode não estar preparada. Muitos provavelmente já gritaram com seus produtos de tecnologia em algum momento; agora pode gritar de volta.
“O tom das respostas é inesperado, mas não surpreendente”, disse Lian Jye, diretor de pesquisa da ABI Research, à CNN. “O modelo não tem compreensão contextual, então apenas gerou as respostas com maior probabilidade [of it being relevant]. As respostas não são filtradas e não regulamentadas, então podem acabar sendo ofensivas e inapropriadas.”
quando eu perguntei O chatbot de IA do Bing para escrever um pequeno ensaio sobre mim, por exemplo, extraiu fragmentos de informações de partes da Internet para fornecer um relato estranhamente semelhante, mas amplamente fabricado, da minha vida. Seu ensaio incluía detalhes inventados sobre minha família e carreira que poderiam ser críveis para qualquer um que não me conhecesse e que pudesse estar usando a ferramenta para pesquisar informações sobre mim.
Alguns especialistas em inteligência artificial disseram que, por mais alarmantes que sejam esses aprendizados iniciais, os sistemas generativos de IA – algoritmos treinados em um enorme tesouro de informações on-line para criar respostas – devem evoluir à medida que são atualizados.
“As imprecisões são esperadas porque dependem da pontualidade dos dados de treinamento, que geralmente são mais antigos”, disse Jye. Como a IA é treinada constantemente com novos dados, ele disse que “eventualmente se resolverá”.
Mas a questão de conversar com um sistema de IA que às vezes parece ter uma mente própria imprevisível pode ser algo com o qual todos temos que aprender a conviver.