Notebookcheck Logo

Engenhoso: ChatGPT cria estudo falso sobre alegação falsa

O que vem primeiro: desinformação ou evidência falsa? (Fonte da imagem: pixabay/Pexels)
O que vem primeiro: desinformação ou evidência falsa? (Fonte da imagem: pixabay/Pexels)
A IA pode alucinar e usar afirmações falsas para fundamentar argumentos. Uma nova qualidade são os estudos aparentemente científicos que, à primeira vista, comprovam de forma conclusiva o resultado desejado. Como se os humanos já não fossem muito bons nisso.

Com a ajuda de estudos, desde que sejam bem preparados, conscientemente conduzidos e avaliados, os efeitos das técnicas cirúrgicas ou dos medicamentos usados podem ser investigados, especialmente na medicina.

De acordo com um artigo publicado no JAMA Ophthalmology, esse processo complicado pode ser encurtado. Graças ao GPT-4, a versão atualmente usada pelo ChatGPT, e ao software adicional para análise de dados estatísticos, foram necessários apenas alguns cliques para criar um conjunto de dados.

E não um conjunto de dados qualquer. O objetivo das informações a serem geradas era demonstrar os benefícios de uma técnica de tratamento específica em relação a um método alternativo, e foi exatamente isso que acabou acontecendo. A propósito, os dados que realmente existem sobre o procedimento em questão não oferecem vantagem para nenhum lado específico.

Portanto, seria possível obter o resultado desejado com o clique de um mouse sem muito esforço, em vez de passar meses ou anos pesquisando e, por fim, obter o resultado "errado". Isso parece um golpe muito convincente no qual a IA fornece evidências conclusivas, além de desinformação.

Afinal de contas, os pesquisadores também têm coisas positivas a relatar: Os dados não resistiram a um exame minucioso. Por exemplo, os nomes próprios e o gênero fornecido muitas vezes não correspondiam. Além disso, alguns dados não resistiram à análise estatística. Por exemplo, muitas informações de idade terminavam em "7" ou "8". No entanto, os resultados reais do teste foram considerados consistentes.

Não é novo, apenas mais rápido

Portanto, parece que há maneiras e meios de chegar ao fundo de tais métodos. E, é claro, também está claro que os estudos sempre foram estruturados, avaliados e embelezados incorretamente para alcançar o resultado desejado.

A inteligência artificial apenas acelerou um pouco isso. No entanto, em última análise, ela é apenas uma ferramenta que pode ser usada para lidar com tarefas muito, muito complexas.

Um exemplo: examinar enormes conjuntos de dados de todos os estudos possíveis em busca de inconsistências e anomalias estatísticas.

Please share our article, every link counts!
Mail Logo
> Análises e revisões de portáteis e celulares > Arquivo de notícias 2023 11 > Engenhoso: ChatGPT cria estudo falso sobre alegação falsa
Mario Petzold, 2023-11-23 (Update: 2023-11-23)