Samsung HBM-PIN: memorie con potenza di elaborazione!

Samsung ha presentato nella giornata di ieri i suoi ultimi progressi con la tecnologia di elaborazione in memoria (PIM) a Hot Chips 33, una conferenza leader sui semiconduttori in cui ogni anno vengono svelate le innovazioni più importanti di microprocessori e IC.

Le rivelazioni di Samsung includono la prima integrazione riuscita della sua memoria ad alta larghezza di banda abilitata per PIM (HBM-PIM) in un sistema di acceleratore commercializzato, ampliato dalle applicazioni PIM per abbracciare i moduli DRAM e la memoria mobile, accelerando il passaggio alla convergenza di memoria e logica.

Prima integrazione di HBM-PIM in un acceleratore AI: Samsung ha introdotto il primo HBM-PIM a febbraio 2021, per migliorare l’elaborazione dei dati ad alta velocità nei supercomputer e nelle applicazioni di intelligenza artificiale. Da allora l’HBM-PIM è stato testato nell’acceleratore Xilinx Virtex Ultrascale+ (Alveo) AI, dove ha prodotto un guadagno di prestazioni del sistema quasi 2,5 volte e un taglio di oltre il 60% del consumo energetico.


L’Acceleration DIMM (AXDIMM) porta l’elaborazione al modulo DRAM stesso, riducendo al minimo i grandi movimenti dei dati tra la CPU e la DRAM per aumentare l’efficienza energetica dei sistemi acceleratori di intelligenza artificiale. Con un motore AI integrato nel chip buffer, l’AXDIMM può eseguire l’elaborazione parallela di più gradi di memoria invece di accedere a un solo grado alla volta, migliorando notevolmente le prestazioni e l’efficienza del sistema.

Poiché il modulo può mantenere il tradizionale fattore di forma DIMM, l’AXDIMM facilita la sostituzione del drop-in senza richiedere modifiche al sistema. Attualmente in fase di test sui server dei clienti, AXDIMM può offrire circa il doppio delle prestazioni nelle applicazioni di raccomandazione basate sull’intelligenza artificiale e una diminuzione del 40% del consumo energetico a livello di sistema.

La tecnologia di memoria mobile LPDDR5-PIM di Samsung può fornire funzionalità di intelligenza artificiale indipendenti senza connettività del data center. I test di simulazione hanno dimostrato che l’LPDDR5-PIM può più che raddoppiare le prestazioni riducendo il consumo energetico di oltre il 60% quando utilizzato in applicazioni come il riconoscimento vocale, la traduzione e chatbot.