web statistics
A nova técnica Engram da DeepSeek pode reduzir os custos de memória de IA, ao mesmo tempo que aumenta o poder de raciocínio e alivia a pressão global de DRAM




  • O Engram da DeepSeek separa a memória estática da computação, aumentando a eficiência em grandes modelos de IA
  • O método reduz as necessidades de memória de alta velocidade, permitindo que os modelos DeepSeek usem pesquisas
  • Engram oferece suporte à pré-busca assíncrona em várias GPUs com sobrecarga mínima de desempenho

DeepSeek, em colaboração com a Universidade de Pequim, introduziu um novo método de treinamento chamado Engram, projetado para dissociar o armazenamento de memória dos processos computacionais.

Tradicional grandes modelos de linguagem exigem memória de alta largura de banda para recuperação de conhecimento e computação básica, criando um gargalo tanto no desempenho quanto no custo.



Source link