Notebookcheck Logo

Samsung completa desenvolvimento para HBM-PIM, a primeira memória de alta largura de banda da indústria com processador AI on-chip

Os chips HBM-PMI vêm com um processador de IA integrado. (Fonte de imagem: Samsung)
Os chips HBM-PMI vêm com um processador de IA integrado. (Fonte de imagem: Samsung)
Os novos chips HBM-PIM fornecerão mais do dobro do desempenho do sistema das soluções HBM2 atuais e reduzirão o consumo de energia em mais de 70%. A Samsung projetou esta nova arquitetura de memória a fim de acelerar o processamento em larga escala em data centers, sistemas de computação de alto desempenho e aplicações móveis habilitadas para IA.

Se olharmos apenas para o desempenho bruto e requisitos de potência, a HBM (High Bandwidth Memory) é a escolha superior à GDDR quando se trata de RAM gráfica. Entretanto, a Nvidia e a AMD ainda não oferecem a HBM em suas GPUs de jogos convencionais e reservam esta opção apenas para placas de computação de alta qualidade que são usadas principalmente em aplicações AI e ambientes HPC. Isto porque a GDDR é mais de 50% mais acessível para implementar a preços de mercado atuais. A Samsung, como um dos maiores produtores da HBM, poderia ajudar a baixar o preço dos chips "regulares" HBM, já que agora se prepara para lançar a arquitetura mais avançada HBM-PIM (processing-in-memory).

Cada novo chip HBM-PIM integra um componente de processamento de IA que essencialmente duplica o desempenho das soluções regulares HBM2 Aquabolt enquanto reduz o consumo de energia em mais de 70%. O processador AI on-chip pode ser programado e adaptado para diversas cargas de trabalho impulsionadas por IA, incluindo treinamento e inferência. Kwangil Park, vice-presidente sênior de Planejamento de Produtos de Memória da Samsung, declarou que a empresa está disposta a colaborar com fornecedores de soluções de IA para o desenvolvimento de aplicações ainda mais avançadas alimentadas por PIM.

Em seu comunicado à imprensa, a Samsung explica como os processadores de IA on-chip podem ajudar a duplicar o desempenho. "A maioria dos sistemas de computação atuais é baseada na arquitetura von Neumann, que usa unidades separadas de processador e memória para realizar milhões de intrincadas tarefas de processamento de dados. Esta abordagem de processamento seqüencial exige que os dados se movam constantemente para frente e para trás, resultando em um gargalo do sistema que diminui o gargalo, especialmente quando se trata de volumes de dados cada vez maiores. Em vez disso, o HBM-PIM traz poder de processamento diretamente para onde os dados são armazenados, colocando um motor de IA otimizado para DRAM dentro de cada banco de memória - uma sub-unidade de armazenamento - permitindo um processamento paralelo e minimizando o movimento de dados"

Outra grande vantagem para a arquitetura HBM-PIM é que ela não requer mudanças de hardware ou software, de modo que não há custos adicionais de integração ou implantação com os sistemas existentes. A Samsung afirma que os chips HBM-PIM são atualmente testados dentro de aceleradores AI pelos principais parceiros de soluções AI e todas as validações devem ser concluídas até o final de 1H2021.

 

Comprar o cartão de computação AMD Radeon Instinct MI25 na Amazon

Fonte(s)

Please share our article, every link counts!
> Análises e revisões de portáteis e celulares > Arquivo de notícias 2021 02 > Samsung completa desenvolvimento para HBM-PIM, a primeira memória de alta largura de banda da indústria com processador AI on-chip
Bogdan Solca, 2021-02-18 (Update: 2021-02-18)