Computer Law
  • Attualità
  • Elettronica
  • Scienza
  • IA
  • Mobilità
  • Economia
No Result
View All Result
AI News
  • Attualità
  • Elettronica
  • Scienza
  • IA
  • Mobilità
  • Economia
No Result
View All Result
Computer Law
No Result
View All Result

ZAM potrebbe sfidare la memoria HBM di Nvidia, questa nuova tecnologia promette prestazioni mai viste nell’AI

ZAM potrebbe sfidare la memoria HBM di Nvidia, questa nuova tecnologia promette prestazioni mai viste nell’AI

Bruno ARANZULLA di Bruno ARANZULLA
14 Maggio 2026
in Attualità, Elettronica, IA
0

I dettagli tecnici della memoria ZAM, presentata come alternativa “anti-HBM”, stanno diventando più concreti: un modulo con impilamento a nove strati, con otto layer DRAM e un layer di controllo, e una capacità che arriva a 9 GB per stack (1,125 GB per ciascun layer DRAM).

La promessa è ambiziosa: avvicinarsi alla banda delle soluzioni di fascia alta e ridurre i colli di bottiglia che oggi frenano molte piattaforme AI. Il contesto è chiaro: la memoria ad alta banda è diventata un elemento determinante per GPU e acceleratori. Nvidia, con la piattaforma Vera Rubin, parla di HBM4 fino a 22 TB/s di banda di memoria. ZAM nasce per mettere pressione a quel modello, puntando su stacking estremo e tecniche di packaging avanzate, ma con compromessi che non vanno ignorati, a partire dalla capacità per stack.

Intel e SAIMEMORY descrivono ZAM con 9 strati e bonding ibrido

La fotografia più nitida di ZAM arriva dalla sua struttura fisica: uno stack alto 9 strati, dove gli 8 layer DRAM sono sormontati da un layer di controllo dedicato alla gestione dei flussi dati. Ogni layer di DRAM contiene circa 1,125 GB, e il totale dichiarato per modulo si ferma a 9 GB. Non è un numero casuale: è la conseguenza diretta di un design che privilegia densità di connessioni e velocità di trasferimento rispetto alla capienza.

Il cuore del progetto è l’uso di tecniche di hybrid bonding e di un impilamento estremamente sottile: tra un layer DRAM e l’altro compare un substrato di silicio di circa 3 micrometri. In pratica si lavora su spessori che, nel mondo industriale, rendono più delicata la resa produttiva e la gestione meccanica. “Quando scendi a pochi micrometri, la sfida non è solo elettrica, è fisica”, sintetizza Marc, ingegnere di packaging avanzato sentito in ambito accademico, sottolineando che il vantaggio prestazionale rischia di costare caro in complessità.

Leia também  Dopo le critiche su Liquid Glass, Apple corregge il tiro con macOS 27 e una novità Safari molto pratica

Un altro dettaglio rilevante riguarda i collegamenti verticali: lo schema tecnico parla di TSV e connessioni a “anelli” metallici, con una logica di distribuzione della corrente e del segnale pensata per sostenere throughput elevati. In alcune descrizioni si cita un ordine di grandezza di circa 13.700 TSV per layer, valore che dà l’idea della densità di interconnessione. È qui che ZAM prova a differenziarsi: non solo stacking, ma stacking con un numero di vie verticali tale da ridurre la distanza effettiva tra compute e memoria.

Capacità 9 GB per stack, banda stimata tra 1,6 e 2,5 TB/s

La capacità è il primo punto che fa discutere: 9 GB per modulo, con 1,125 GB per layer DRAM, è molto meno dei valori associati alle generazioni più recenti di HBM, dove la capacità per singolo stack pu salire parecchio. Questo significa che ZAM, almeno nella prima incarnazione descritta, sembra pensata per scenari in cui conta più alimentare continuamente i core di calcolo che ospitare grandi quantità di parametri “in locale”. Tradotto: ottima per throughput, meno per modelli che vogliono restare il più possibile in memoria vicina al chip.

Sulla banda, il consorzio non ha ancora messo un numero definitivo sul data rate, ma circolano stime legate a precedenti affermazioni di un vantaggio tra 2x e 3x rispetto a HBM3. Se si prende come riferimento un valore di 819 GB/s per HBM3, la proiezione porta a una banda nell’ordine di 1,6-2,5 TB/s per modulo. È un intervallo ampio, e qui arriva la prima critica: senza un valore certificato di velocità e consumi, la parola “HBM-killer” resta più uno slogan tecnico che un dato verificabile.

Leia também  Microsoft prepara un grande aggiornamento di prestazioni per Windows 11, ed Esplora file è finalmente nel mirino

Un’altra stima, più aggressiva, parte da una densità di banda di circa 0,25 Tb/s per mm e porta, per un’area chip indicata di 171 mm, a circa 5,3 TB/s per modulo. Numeri del genere, se confermati in prodotti reali, cambierebbero la conversazione, perché supererebbero persino la velocità per stack attribuita a HBM4 in alcune comparazioni. Ma resta un “se”: in laboratorio si pu mostrare un picco, in produzione si deve garantire stabilità, yield e costi accettabili.

Nvidia Vera Rubin spinge HBM4 a 22 TB/s, ZAM punta a ridurre colli di bottiglia

Il benchmark implicito, oggi, è la piattaforma Nvidia Vera Rubin, dove la stessa Nvidia indica fino a 22 TB/s di banda di memoria HBM4 per GPU. Sono numeri che spiegano perché tutti cercano alternative: con workload AI su contesti lunghi, MoE e inferenza ad alto batch, la banda memoria diventa un acceleratore “invisibile”. Se la memoria non tiene il passo, la GPU resta sotto-utilizzata, e il costo per token sale. ZAM prova a inserirsi proprio in quel punto, promettendo più efficienza e prestazioni.

Il tema non è solo la velocità, ma anche potenza e calore: l’industria sta cercando modi per alleggerire i vincoli energetici delle memorie ad alta banda. Qui entra in gioco la collaborazione tra Intel e SAIMEMORY, con il supporto di partner di ricerca e programmi pubblici giapponesi per la commercializzazione. C’è anche un orizzonte temporale che raffredda gli entusiasmi: si parla di una traiettoria che guarda al 2029 per arrivare a prodotti sul mercato, quindi non è una soluzione per i server AI che si acquistano domani.

Leia também  La Cina lancia LineShine, un supercomputer da 2 exaflops con 47.000 CPU senza alcun chip straniero: una risposta diretta ai controlli americani sui semiconduttori e a El Capitan

C’è poi un’incognita industriale: chi produrrà la DRAM sottostante e su quali nodi. Alcune ricostruzioni ipotizzano un ruolo delle fonderie Intel, ma senza dettagli sul processo. Per i clienti, questo conta quanto la banda: supply chain, volumi e affidabilità decidono la diffusione più delle slide. Marc, dal lato integratori, la mette giù semplice: “Se mi dai 2 TB/s in più ma mi consegni tardi o a prezzo ingestibile, io resto su HBM”. Ed è il punto: ZAM pu diventare una leva competitiva reale solo se prestazioni, capacità e producibilità trovano un equilibrio credibile.

Origine

  • New Details Emerge On ZAM, the HBM-Killer
  • Another HBM Killer Exposed
  • SoftBank, Intel target HBM limits with 9-layer memory
  • Inside the NVIDIA Vera Rubin Platform: Six New Chips, One AI …
  • Here’s a Look at One of the World’s Most Complex AI Systems, the NVIDIA Vera Rubin, Integrating a Million Components
Tags: COMPUTERTECNOLOGIA
Tweet146Condividi234Invia
Bruno ARANZULLA

Bruno ARANZULLA

Bruno Aranzulla é um jornalista tech português especializado em atualidade digital, inteligência artificial, smartphones, ciência aplicada e automóvel conectado. Através da NetParceiro.pt, acompanha as inovações que estão a transformar o quotidiano dos leitores, com uma abordagem clara, acessível e focada nos usos reais. O seu trabalho editorial procura tornar a tecnologia mais compreensível, sem jargão desnecessário nem promessas exageradas. Interessa-se tanto pelos grandes lançamentos das marcas como pelas mudanças mais discretas que alteram a forma como trabalhamos, comunicamos, nos deslocamos e consumimos informação.

Artigos relacionados

Attualità

La Russia ha dimostrato in orbita di poter mettere un satellite a 3 metri da un altro senza incidenti: COSMOS 2581 e 2583 rilanciano il dibattito sulle armi anti-satellite co-orbitali

14 Maggio 2026
Attualità

Questa IA svedese potrebbe prolungare la vita delle batterie elettriche del 23% senza rallentare la ricarica rapida

14 Maggio 2026
Attualità

Google starebbe preparando i Googlebook per sostituire i Chromebook, con Android, Gemini e un’ambizione molto più premium

13 Maggio 2026
Next Post

La Russia ha dimostrato in orbita di poter mettere un satellite a 3 metri da un altro senza incidenti: COSMOS 2581 e 2583 rilanciano il dibattito sulle armi anti-satellite co-orbitali

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Computer Law segue le novità di tecnologia, IA, smartphone, scienza e automotive con una lettura semplice e diretta.
Ogni giorno mettiamo in evidenza le tendenze digitali che stanno cambiando l'Italia e il mondo.

Seguici

Ultimi articoli

Google starebbe preparando i Googlebook per sostituire i Chromebook, con Android, Gemini e un’ambizione molto più premium

13 Maggio 2026

I proprietari di Model Y 4680 constatano che la loro batteria ricarica dal 15 al 20% più lentamente delle LFP in 15 minuti in autostrada: la promessa Tesla della cella 4680 non si conferma nell’uso reale

13 Maggio 2026

La Cina lancia LineShine, un supercomputer da 2 exaflops con 47.000 CPU senza alcun chip straniero: una risposta diretta ai controlli americani sui semiconduttori e a El Capitan

13 Maggio 2026

Artigos populares

  • Google starebbe preparando i Googlebook per sostituire i Chromebook, con Android, Gemini e un’ambizione molto più premium

    586 shares
    Share 234 Tweet 147
  • Gli astronomi hanno appena misurato in diretta la potenza di un getto di buco nero, e la cifra equivale a 10.000 Soli

    585 shares
    Share 234 Tweet 146
  • AMD rompe l’immagine dei Ryzen PRO sobri con chip Zen 5 più potenti e progettati per i professionisti

    585 shares
    Share 234 Tweet 146
  • La Germania vuole usare le auto elettriche parcheggiate per ricaricare interi traghetti grazie al V2G

    585 shares
    Share 234 Tweet 146
  • Chi siamo
  • Redazione
  • Scheda tecnica
  • Termini e Condizioni
  • Politica sui Cookie (UE)
  • Contatti

© 2026 Computer Law — Tutti i diritti riservati.

No Result
View All Result
  • Attualità
  • Elettronica
  • Scienza
  • IA
  • Mobilità
  • Economia

© 2026 Computer Law — Tutti i diritti riservati.