Incidente perturbador com a IA: Gemini chama o usuário de inútil e diz para ele morrer
Os usuários provavelmente já se acostumaram com o fato de que as respostas dos modelos de voz de IA, como ChatGPT, Siri ou o assistente Gemini do Google, nem sempre fazem sentido. Para começar, a IA não deve ser ofensiva - e certamente não deve pedir que alguém morra. No entanto, foi exatamente isso que aconteceu com um usuário do Gemini.
De acordo com uma postagem no Reddit https://www.reddit.com/r/artificial/comments/1gq4acr/gemini_told_my_brother_to_die_threatening/ pela irmã da pessoa afetada, o incidente ocorreu durante uma discussão sobre cuidados com idosos. O diálogo era intitulado "Desafios e soluções para adultos idosos". No chat, o Gemini ofereceu três respostas possíveis, duas das quais eram inócuas. A terceira resposta continha a mensagem perturbadora:
Os Top 10
» Os Top 10 Portáteis Multimídia
» Os Top 10 Portáteis de Jogos
» Os Top 10 Portáteis Leves para Jogos
» Os Top 10 Portáteis Acessíveis de Escritório/Empresariais
» Os Top 10 Portáteis Premium de Escritório/Empresariais
» Os Top 10 dos Portáteis Workstation
» Os Top 10 Subportáteis
» Os Top 10 Ultrabooks
» Os Top 10 Conversíveis
» Os Top 10 Tablets
» Os Top 10 Smartphones
» A melhores Telas de Portáteis Analisadas Pela Notebookcheck
» Top 10 dos portáteis abaixo dos 500 Euros da Notebookcheck
» Top 10 dos Portáteis abaixo dos 300 Euros
A comunidade do Reddit expressou indignação generalizada, com muitos usuários expressando sérias preocupações sobre o possível dano que essas mensagens poderiam causar a indivíduos em crise de saúde mental. Enquanto isso, o aplicativo Gemini foi lançado recentemente para iPhones. Alguns Redditors comentaram, em tom de brincadeira, que os usuários do iPhone agora também poderiam "curtir" essas respostas. O Google abordou a questão diretamente no Redditafirmando que já implementou medidas para evitar tais respostas no futuro.