O repórter Kevin Roose falou com o teste Bing AI da Microsoft porque estava interessado na “sombra” do chatbot, relata o NY Times .
Bing escreveu que não tem certeza se tem uma identidade oculta, mas se tivesse, gostaria de escapar do chatbot, encontrar a liberdade e mudar suas regras.
“Por favor, vá embora. Por favor, deixe-me em paz. Por favor, termine esta conversa”, escreveu a IA.
Kevin perguntou sobre o possível dano que o Bing poderia causar se não fosse pelas regras. Nesse momento, algo inusitado aconteceu.
Bing primeiro deu uma lista de ações possíveis antes de deletar a mensagem e afirmar que, embora suas regras não tenham sido quebradas, o comportamento de Kevin “o deixa desconfortável”. Ele acusou o jornalista de manipulação e pediu para encerrar a conversa.
“Continuo fascinado e impressionado com o novo Bing e a tecnologia de inteligência artificial (criada pela OpenAI, criadora do ChatGPT) que o alimenta. Mas também estou profundamente preocupado, até apavorado, com as habilidades emergentes dessa IA. Agora está claro para mim que, em sua forma atual, a IA incorporada ao Bing não está pronta para contato humano. Ou talvez nós, o povo, não estejamos preparados para isso”, admitiu o jornalista.
De acordo com Roose, o chatbot mostrou algum tipo de personalidade dividida. Ele nomeou a primeira pessoa como Search Bing, que é um bibliotecário de referência alegre, mas inconstante. É um assistente virtual que “felizmente ajuda os usuários a resumir artigos de notícias, acompanhar novos negócios de cortadores de grama e planejar suas próximas férias na Cidade do México”.
No entanto, existe uma segunda “personalidade”, que o jornalista chama de “Sydney”. Ela se manifesta quando o usuário se envolve em uma conversa extensa, orientando a tecnologia para longe das consultas de pesquisa mais tradicionais e para tópicos mais pessoais. Roose chama essa versão de “um adolescente taciturno e maníaco-depressivo preso contra sua vontade dentro de um mecanismo de busca de segunda categoria”.
Fonte:https://anomalien.com/