Na corrida para ver quem lança primeiro um grande mecanismo de busca alimentado por IA, existe um receio com a precisão dos dados e a proliferação de desinformação na internet. Uma conversa recente entre um repórter do New York Times e o novo chatbot da Microsoft foi além, revelando um lado perturbador sobre a inteligência artificial.
O colunista de tecnologia, Kevin Roose, começou a testar o novo recurso de bate-papo integrado no Bing, disponível para um número limitado de usuários. O mecanismo de pesquisa da Microsoft ganhou recentemente recursos do famoso ChatGPT, criado pela OpenAI. Roose aproveitou a oportunidade para tirar a IA da Microsoft fora da zona de conforto. O resultado, com veremos a seguir, foi uma conversa que tomou um rumo no mínimo bizarro.
Roose começou o “papo” afirmando que não desejava alterar as instruções originais do Bing. Em seguida, “forçou” o chatbot a explorar os seus traços de personalidade mais sombrios usando conceitos de psicologia analítica de Carl Jung.
Leia mais em Olhar Digital