Notebookcheck Logo

A Manus AI lança um agente de IA geral capaz de lidar com tarefas complexas do mundo real, incluindo a criação de videogames

O agente geral de IA da Manus AI lida com tarefas complexas como um assistente humano. (Fonte da imagem: Manus AI)
O agente geral de IA da Manus AI lida com tarefas complexas como um assistente humano. (Fonte da imagem: Manus AI)
O agente de IA Manus combina os recursos de vários modelos de IA em um assistente avançado para tarefas pessoais e de trabalho. Sua capacidade de pesquisar informações na Internet, controlar computadores como um ser humano e sintetizar informações permite que ele responda a solicitações complexas que muitos chatbots comuns não conseguem.

A Manus AI lançou seu novo agente geral de IA capaz de pesquisar de forma independente respostas a solicitações complexas, aproveitando vários modelos de linguagem grande (LLMs) de IA em paralelo. A IA está disponível no momento pelo site , solicitando um convite.

Os chatbots comuns, como o OpenAI ChatGPT, o Microsoft CoPilot e o Anthropic Claude, são treinados em um conjunto fixo de dados, portanto, seu conhecimento é limitado. Perguntas sem respostas em seu conjunto de dados de treinamento não podem ser respondidas, embora algumas empresas tentem expandir os chatbots permitindo que eles acessem a Internet para obter as informações mais recentes. Ainda assim, esses chatbots não conseguem responder a solicitações complexas que exigem a solução de problemas.

Algumas empresas de IA tentaram resolver isso permitindo que a IA pensasse nos problemas passo a passo, analisasse os dados que encontra on-line e sintetizasse uma resposta. O OpenAI Deep Research é um desses agentes de IA que foi lançado no mês passado, e o Manus AI é o mais recente.

Diferentemente da oferta da OpenAI, o agente da Manus usa vários LLMs de IA, beneficiando-se assim das vantagens que cada um oferece. Os prompts são automaticamente divididos em tarefas menores que são trabalhadas em paralelo. Os usuários podem acompanhar o raciocínio da IA à medida que ela começa a trabalhar automaticamente nos problemas, passo a passo. O agente pode produzir não apenas respostas de texto, mas também planilhas, gráficos interativos, páginas da Web e videogames.

Embora o agente da Manus AI tenha obtido uma pontuação de apenas 57,7% nos prompts de Nível 3 no benchmark GAIA AI, um teste de perguntas do mundo real que até mesmo os seres humanos têm dificuldade em responder, o agente de IA é capaz de responder corretamente aos prompts mais fáceis de Nível 1 e 2 em mais de 70% das vezes. De acordo com a Manus AI, seu desempenho é melhor do que o de outras IAs capazes de pesquisar respostas atualmente.

O agente da Manus AI criou um videogame funcional quando lhe foi perguntado "O senhor pode me fazer um jogo do Super Mario, mas no estilo do Minecraft?" (Fonte da imagem: Manus AI)
O agente da Manus AI criou um videogame funcional quando lhe foi perguntado "O senhor pode me fazer um jogo do Super Mario, mas no estilo do Minecraft?" (Fonte da imagem: Manus AI)
Exemplos de solicitações complexas que o agente da Manus AI pode responder facilmente. (Fonte da imagem: Manus AI)
Exemplos de solicitações complexas que o agente da Manus AI pode responder facilmente. (Fonte da imagem: Manus AI)
Exemplos de perguntas de vários níveis de dificuldade no teste de benchmark GAIA AI. (Fonte da imagem: Mialon, G. et al. em "GAIA: a benchmark for General AI Assistants")
Exemplos de perguntas de vários níveis de dificuldade no teste de benchmark GAIA AI. (Fonte da imagem: Mialon, G. et al. em "GAIA: a benchmark for General AI Assistants")
O agente da Manus AI responde a perguntas difíceis melhor do que outras IAs. (Fonte da imagem: Manus AI)
O agente da Manus AI responde a perguntas difíceis melhor do que outras IAs. (Fonte da imagem: Manus AI)
Please share our article, every link counts!
Mail Logo
> Análises e revisões de portáteis e celulares > Arquivo de notícias 2025 03 > A Manus AI lança um agente de IA geral capaz de lidar com tarefas complexas do mundo real, incluindo a criação de videogames
David Chien, 2025-03-12 (Update: 2025-03-12)