A potência da fintech de Jack Ma aproveitou os chips desenvolvidos internamente da Alibaba e da Huawei para treinar modelos de IA que parecem rivalizar com as GPUs H800 da Nvidia.
De acordo com pessoas com conhecimento do assunto, o Ant Group descobriu uma maneira de treinar modelos de IA em semicondutores fabricados na China, reduzindo os custos em cerca de 20% em comparação com os métodos convencionais.
Os insiders dizem que os resultados do Ant se comparam favoravelmente aos chips H800 da Nvidia Corp., que atualmente não estão disponíveis para empresas chinesas devido aos Controles de exportação dos EUA. Embora a Ant ainda use hardware da Nvidia para alguns de seus trabalhos de IA, a empresa agora está dando mais ênfase aos processadores AMD e às alternativas chinesas para seus modelos mais recentes.
A Ant publicou um artigo de pesquisa este mês afirmando que seus modelos Ling-Plus e Ling-Lite superaram até mesmo a Meta Platforms Inc. em determinados benchmarks. Se essas descobertas se mantiverem, esses sistemas poderão representar um grande avanço para a IA chinesa, reduzindo drasticamente as despesas de treinamento e implantação de serviços de IA.
O documento observa que o uso de hardware de alto desempenho para treinar 1 trilhão de tokens custa aproximadamente 6,35 milhões de yuans (cerca de US$ 880.000). Mas com a abordagem otimizada da empresa - e equipamentos de menor especificação - esse número cai para cerca de 5,1 milhões de yuans (cerca de US$ 700.000). Para aqueles que não estão familiarizados, os tokens são essencialmente as unidades de informação usadas por esses modelos para aprender e produzir resultados.
Olhando para o futuro, a Ant pretende usar esses modelos de IA para aplicações financeiras e de saúde. No início deste ano, ela adquiriu a plataforma on-line chinesa Haodf.com para reforçar seus serviços de IA voltados para a saúde. A Ant também opera um aplicativo de IA de "assistente de vida" chamado Zhixiaobao e uma ferramenta de IA de consultoria financeira chamada Maxiaocai.
Ambos os modelos Ling são de código aberto: O Ling-Lite carrega 16,8 bilhões de parâmetros, enquanto o Ling-Plus pesa 290 bilhões. Embora esses números sejam elevados, eles ainda são menores do que alguns outros modelos importantes de IA - os especialistas estimam que o GPT-4.5 tenha cerca de 1,8 trilhão de parâmetros e o DeepSeek-R1 tenha 671 bilhões.
A Ant reconheceu alguns obstáculos no caminho, especialmente com relação à estabilidade durante o treinamento. O documento de pesquisa observou que pequenas alterações no hardware ou no design do modelo às vezes provocavam grandes picos nas taxas de erro.
Fonte(s)
Bloomberg (em inglês)
Os Top 10
» Os Top 10 Portáteis Multimídia
» Os Top 10 Portáteis de Jogos
» Os Top 10 Portáteis Leves para Jogos
» Os Top 10 Portáteis Acessíveis de Escritório/Empresariais
» Os Top 10 Portáteis Premium de Escritório/Empresariais
» Os Top 10 dos Portáteis Workstation
» Os Top 10 Subportáteis
» Os Top 10 Ultrabooks
» Os Top 10 Conversíveis
» Os Top 10 Tablets
» Os Top 10 Smartphones
» A melhores Telas de Portáteis Analisadas Pela Notebookcheck
» Top 10 dos portáteis abaixo dos 500 Euros da Notebookcheck
» Top 10 dos Portáteis abaixo dos 300 Euros