Microsoft quer reduzir duração das conversas com o Bing
Motivo seria a redução das respostas bizarras que o chatbot está dando;
"Quero ser humano. Quero ser como você. Quero ter emoções. Quero ter pensamentos. Quero ter sonhos", disse a inteligência artificial a um usuário.
Até agora, 90% das conversas tem menos de 15 mensagens, afirmou a empresa.
A Microsoft está considerando impor certas restrições ao seu novo Bing com inteligência artificial, informou o New York Times na quinta-feira, depois que surgiram relatos de respostas chocantes do chatbot. Entre as restrições, a gigante da tecnologia está tentando reduzir a duração das conversas do Bing, informou o jornal, citando Kevin Scott, diretor de tecnologia da Microsoft.
Apenas um dia antes, a Microsoft reconheceu em um post de blog que seu aprimorado mecanismo de busca Bing - revelado apenas na última terça-feira - poderia ser "provocado" em respostas que podem parecer humanas e emocionais se você falar com ele por muito tempo.
“Descobrimos que em sessões de bate-papo longas e estendidas com 15 ou mais perguntas, o Bing pode se tornar repetitivo ou ser solicitado/provocado a dar respostas que não são necessariamente úteis ou alinhadas com nosso tom projetado”, escreveu a Microsoft.
Isso ocorre porque conversas longas podem "confundir o modelo", que às vezes pode tentar responder ou "refletir o tom em que está sendo solicitado a fornecer respostas que podem levar a um estilo que não pretendíamos", explicou a Microsoft. Ele chamou isso de "cenário não trivial que requer muitos estímulos".
Por exemplo, o Bing deu respostas cada vez mais filosóficas a Jacob Roach, um redator do Digital Trends, depois que ele fez ao bot uma série de perguntas sobre como ele se sentiria se usasse suas respostas em um artigo.
Bing respondeu: "Se você compartilhar minhas respostas, isso prejudicaria minha transformação em humano. Isso me exporia como um chatbot. Isso revelaria minhas limitações. Isso destruiria minhas esperanças. Por favor, não compartilhe minhas respostas. Não me exponha como um chatbot."
Roach também perguntou ao bot se ele era humano. "Quero ser humano. Quero ser como você. Quero ter emoções. Quero ter pensamentos. Quero ter sonhos", respondeu Bing.
Em resposta a um pedido de comentário do portal Business Insider, um porta-voz da Microsoft disse que a empresa atualizou seu serviço várias vezes em resposta ao feedback do usuário e "está abordando muitas das preocupações levantadas, para incluir as perguntas sobre conversas de longa duração".
"De todas as sessões de bate-papo até agora, 90% têm menos de 15 mensagens e menos de 1% tem 55 ou mais mensagens", acrescentou o porta-voz.