Samsung completa desenvolvimento para HBM-PIM, a primeira memória de alta largura de banda da indústria com processador AI on-chip
Se olharmos apenas para o desempenho bruto e requisitos de potência, a HBM (High Bandwidth Memory) é a escolha superior à GDDR quando se trata de RAM gráfica. Entretanto, a Nvidia e a AMD ainda não oferecem a HBM em suas GPUs de jogos convencionais e reservam esta opção apenas para placas de computação de alta qualidade que são usadas principalmente em aplicações AI e ambientes HPC. Isto porque a GDDR é mais de 50% mais acessível para implementar a preços de mercado atuais. A Samsung, como um dos maiores produtores da HBM, poderia ajudar a baixar o preço dos chips "regulares" HBM, já que agora se prepara para lançar a arquitetura mais avançada HBM-PIM (processing-in-memory).
Cada novo chip HBM-PIM integra um componente de processamento de IA que essencialmente duplica o desempenho das soluções regulares HBM2 Aquabolt enquanto reduz o consumo de energia em mais de 70%. O processador AI on-chip pode ser programado e adaptado para diversas cargas de trabalho impulsionadas por IA, incluindo treinamento e inferência. Kwangil Park, vice-presidente sênior de Planejamento de Produtos de Memória da Samsung, declarou que a empresa está disposta a colaborar com fornecedores de soluções de IA para o desenvolvimento de aplicações ainda mais avançadas alimentadas por PIM.
Em seu comunicado à imprensa, a Samsung explica como os processadores de IA on-chip podem ajudar a duplicar o desempenho. "A maioria dos sistemas de computação atuais é baseada na arquitetura von Neumann, que usa unidades separadas de processador e memória para realizar milhões de intrincadas tarefas de processamento de dados. Esta abordagem de processamento seqüencial exige que os dados se movam constantemente para frente e para trás, resultando em um gargalo do sistema que diminui o gargalo, especialmente quando se trata de volumes de dados cada vez maiores. Em vez disso, o HBM-PIM traz poder de processamento diretamente para onde os dados são armazenados, colocando um motor de IA otimizado para DRAM dentro de cada banco de memória - uma sub-unidade de armazenamento - permitindo um processamento paralelo e minimizando o movimento de dados"
Outra grande vantagem para a arquitetura HBM-PIM é que ela não requer mudanças de hardware ou software, de modo que não há custos adicionais de integração ou implantação com os sistemas existentes. A Samsung afirma que os chips HBM-PIM são atualmente testados dentro de aceleradores AI pelos principais parceiros de soluções AI e todas as validações devem ser concluídas até o final de 1H2021.
Comprar o cartão de computação AMD Radeon Instinct MI25 na Amazon
Fonte(s)
Os Top 10
» Os Top 10 Portáteis Multimídia
» Os Top 10 Portáteis de Jogos
» Os Top 10 Portáteis Leves para Jogos
» Os Top 10 Portáteis Acessíveis de Escritório/Empresariais
» Os Top 10 Portáteis Premium de Escritório/Empresariais
» Os Top 10 dos Portáteis Workstation
» Os Top 10 Subportáteis
» Os Top 10 Ultrabooks
» Os Top 10 Conversíveis
» Os Top 10 Tablets
» Os Top 10 Smartphones
» A melhores Telas de Portáteis Analisadas Pela Notebookcheck
» Top 10 dos portáteis abaixo dos 500 Euros da Notebookcheck
» Top 10 dos Portáteis abaixo dos 300 Euros