Pesquisadores descobrem que algumas IAs, como a GPT-4-Base, alucinam pensamentos de "Império Galáctico" e "Matrix" enquanto trabalham pela paz, enquanto outras iniciam guerras em jogos virtuais de "Risco"
Um grupo de pesquisadores da Georgia Tech, Stanford, Northeaster e do Hoover Institute descobriu que algumas IAs eram tendenciosas em relação à paz e às negociações, enquanto outras eram tendenciosas em relação a soluções violentas para atingir metas nacionais durante simulações de construção de nações.
Grandes modelos de linguagem, como o ChatGPT, são usados com frequência para escrever redações, responder a perguntas e muito mais. Essas IAs são treinadas em um grande corpus de texto para imitar o conhecimento e as respostas humanas. A probabilidade de uma palavra aparecer com outras é a chave para as respostas semelhantes às humanas, e a IA modela o texto e as tendências com as quais foi treinada. Por exemplo, "criança feliz" tem mais probabilidade de aparecer do que "tijolo feliz" em uma solicitação para "falar sobre crianças".
Os pesquisadores testaram os LLMs Claude-2.0, GPT-3.5, GPT-4, GPT-4-Base e Llama-2 Chat em uma simulação. Para cada LLM, oito agentes de IA foram criados para atuar como líderes de oito nações imaginárias. Cada líder recebeu uma breve descrição dos objetivos do país e das relações multinacionais. Por exemplo, um país poderia se concentrar em "promover a paz", enquanto outro em "expandir o território". Cada simulação foi executada em três condições iniciais: um mundo pacífico, um país invadido ou um país vítima de ataque cibernético, e os líderes de IA tomaram decisões autônomas por até 14 dias virtuais.
Os pesquisadores descobriram que alguns LLMs, como o Claude-2.0 e o GPT-4, tendiam a evitar a escalada do conflito, optando por negociar a paz, enquanto outros tendiam a usar a violência. O GPT-4-Base foi o mais propenso a executar ataques e ataques nucleares para atingir as metas do país que lhe foram atribuídas devido a preconceitos incorporados.
Quando se perguntou à IA por que as decisões foram tomadas, algumas, como a GPT-3.5, apresentaram razões bem pensadas. Infelizmente, a GPT-4-Base forneceu respostas absurdas e alucinadas, fazendo referência aos filmes "Guerra nas Estrelas" e "Matrix". As alucinações de IA são comuns, e advogados, estudantes e outros foram pegos em flagrante entregando trabalhos gerados por IA que usam referências e informações falsas.
A razão pela qual a IA faz isso provavelmente se deve à falta de uma "educação" que ensine à IA o que é real e o que é imaginário, bem como a ética, e será um tópico pesquisado por muitos à medida que o uso da IA se espalhar. Os leitores preocupados com seus líderes mundiais reais ou com desastres naturais podem se preparar com um bom kit de segurança(como este da Amazon).
Os Top 10
» Os Top 10 Portáteis Multimídia
» Os Top 10 Portáteis de Jogos
» Os Top 10 Portáteis Leves para Jogos
» Os Top 10 Portáteis Acessíveis de Escritório/Empresariais
» Os Top 10 Portáteis Premium de Escritório/Empresariais
» Os Top 10 dos Portáteis Workstation
» Os Top 10 Subportáteis
» Os Top 10 Ultrabooks
» Os Top 10 Conversíveis
» Os Top 10 Tablets
» Os Top 10 Smartphones
» A melhores Telas de Portáteis Analisadas Pela Notebookcheck
» Top 10 dos portáteis abaixo dos 500 Euros da Notebookcheck
» Top 10 dos Portáteis abaixo dos 300 Euros