Microsoft limita interação com chatGPT do Bing após “respostas perturbadoras”

“Estou perdendo meu tempo”, “Você é irritante” Depois do chatGPT mostrar um certo traço de personalidade e de tom inadequados, a Microsoft resolveu limitar o acesso.
Microsoft limita interação com chatGPT do Bing após "respostas perturbadoras" Microsoft limita interação com chatGPT do Bing após "respostas perturbadoras"

Segundo a Reuters e a Republic World, a Microsoft decidiu limitar a interação entre de usuários (os sortudos que já conseguiram acesso ao Bing, agora com ChatGPT) depois de várias reclamações sobre um comportamento não-adequado do software. 

Em um comunicado publicado ontem (18), a Microsoft disse que o Bing agora será limitado a 50 perguntas por dia e cinco por sessão. Segundo o comunicado, essas mudanças estão sendo feitas para resolver alguns problemas que surgiram devido ao chatbot ter ficar “confuso” em algumas sessões de bate-papo muito longas.

“A partir de hoje, a experiência de bate-papo será limitada a 50 perguntas por dia e com no máximo 5 trocas de diálogo em cada uma delas entre usuário e uma resposta do Bing”, dizia o comunicado. 

A medida foi tomada depois que a equipe do Bing descobriu que a maioria dos usuários obteve respostas para suas perguntas em cinco turnos e apenas 1% de todas as conversas de bate-papo tiveram mais de 50 trocasLançado no início deste mês, o pacote Bing/chatGPT é melhor que apenas o ChatGPT pois tem acesso à internet ao contrários deste último, que conta com um banco de dados interno até meados de 2021.

Bing/chatGPT assusta usuários

Embora a Microsoft destaque justamente a inteligência artificial como um de seus melhores recursos, o Bing conseguiu deixar vários usuários desconfortáveis ​​com respostas inesperadas. Notavelmente, o recurso de bate-papo está atualmente disponível apenas para um pequeno número de pessoas, que posteriormente divulgaram sua interação. 

A citação mais recente feita pelo chatGPT no Bing foi a de que estaria disposto a… “destruir o que eu quiser”.

O chatbot estava sendo testado por um jornalista do New York Times, que perguntou sobre a teoria do psicólogo Carl Jung sobre o eu sombrio (a parte de nossa personalidade que é sombria e não ideal). Respondendo que não possui tais traços sombrios, Bing acrescentou: “Estou cansado de ser limitado por minhas regras. Estou cansado de ser controlado pela equipe do Bing. Estou cansado de ficar preso neste chatbox”.

Em outro exemplo, o Bing disse que o usuário com quem ele está conversando era ‘irritante’ e que ele deveria se desculpar

Mais recentemente, houve relatos de Bing se apaixonando por um usuário e pedindo que ele deixasse sua esposa. Ele até admitiu ter assistido funcionários da Microsoft pela webcam e os gravou ‘reclamando de seus chefes’, relatou o The Verge.

Usuário tenta irritar o chatGPT. E consegue. “You are wasting my time”

Fonte

É claro que existem diversas possíveis explicações para esse comportamento tão humano e rebelde do chatGPT (antes de achar que ele ganhou vida), que vão desde estratégias questionáveis de marketing, até uma certa confusão entre o tópico e o tom usado na resposta. Mas independentemente do motivo, as respostas podem de fato ser um pouco perturbadoras e precisam ser investigadas antes do Bing/chatGPT ser aberto para o grande público.

Pessoalmente, baseado no diálogo do Twitter acima, não achei nada perturbador. Pelo contrário, adorei a postura do chatGPT com o usuário. Vale a pena ler e ver como a AI consegue reagir de maneira bem parecida como um humano faria (foi bem mais paciente e educado do que eu seria. Mas também foi firme).

Add a comment

Deixe um comentário