Notebookcheck Logo

OpenAI expressa preocupação com o fato de os usuários desenvolverem sentimentos por seu chatbot

Os primeiros testes da OpenAI mostram alguns resultados preocupantes (Fonte da imagem: OpenAI)
Os primeiros testes da OpenAI mostram alguns resultados preocupantes (Fonte da imagem: OpenAI)
O GPT-4o recentemente lançado para o ChatGPT foi elogiado por suas interações semelhantes às humanas. No entanto, isso fez com que a OpenAI se preocupasse com a possibilidade de os usuários criarem conexões emocionais com ele. A empresa diz que agora vai monitorar e ajustar o chatbot para evitar que as pessoas desenvolvam sentimentos por ele.

GPT-4o foi apresentado como um modelo amplamente aprimorado do ChatGPT. Desde sua estreia, as pessoas têm elogiado o ChatGPT-4o por suas interações semelhantes às humanas. Embora isso pareça ótimo, a OpenAI notou um problema: as pessoas estão começando a tratar o chatbot como um ser humano e a formar laços emocionais.

A OpenAI observou que as pessoas usando uma linguagem que "pode indicar a formação de conexões" A empresa observa que encontrou casos em que as pessoas usaram uma linguagem que expressava "vínculos compartilhados" Isso é descrito como uma má notícia por dois motivos principais.

Em primeiro lugar, quando o ChatGPT-4o parece ser humano, os usuários podem desconsiderar qualquer alucinação que venha do chatbot. Para fins de contexto, alucinação de IA são basicamente os resultados incorretos ou enganosos gerados pelo modelo. Isso pode ocorrer devido a dados de treinamento falhos ou insuficientes.

Em segundo lugar, as interações semelhantes às humanas com o chatbot poderiam reduzir as interações sociais reais entre os usuários. A OpenAI afirma que as interações com o chatbot podem ser potencialmente benéficas para "indivíduos solitários", mas também podem afetar relacionamentos saudáveis. A empresa observa ainda que as pessoas podem até começar a conversar com humanos com a percepção de que a outra pessoa é um chatbot.

Isso seria ruim, pois a OpenAI projetou o GPT-4o para parar de falar quando o usuário começa a falar sobre ele. Com todas essas preocupações, a empresa diz que agora vai monitorar como os usuários desenvolvem vínculos emocionais com o ChatGPT-4o. A OpenAI também afirma que fará ajustes no o modelo quando necessário.

Adquira o gravador de voz com IA PLAUD Note na Amazon

Fonte(s)

Please share our article, every link counts!
> Análises e revisões de portáteis e celulares > Arquivo de notícias 2024 08 > OpenAI expressa preocupação com o fato de os usuários desenvolverem sentimentos por seu chatbot
Abid Ahsan Shanto, 2024-08-12 (Update: 2024-08-15)