Il mercato dei semiconduttori per l’intelligenza artificiale (IA) sta attraversando una fase di profonda trasformazione con l’avvento della sesta generazione di memorie ad alta larghezza di banda HBM4. Taiwan Semiconductor Manufacturing Company (TSMC), il più grande produttore di chip a contratto al mondo, ha recentemente svelato i suoi ambiziosi piani per entrare nel mercato dell’HBM4, innescando una lotta per la leadership tra i principali attori del settore.
TSMC svela i piani per l’HBM4
Durante il simposio sulla tecnologia europea di TSMC tenutosi ad Amsterdam il 14 maggio scorso, l’azienda ha rivelato per la prima volta i dettagli sulla sua roadmap per l’HBM4. TSMC prevede di utilizzare processi a 12 nanometri (nm) e 5 nm per la produzione dei die di base che saranno utilizzati nell’HBM4, offrendo di fatto la possibilità di personalizzare e fornire HBM4 in base ai requisiti di prestazioni e prezzo dei clienti, dove ovviamente la soluzione a 5nm sarà più costosa ed efficiente.
La tecnologia HBM4 prevede l’impilamento di die di memoria DRAM su un die di base che funge da fondazione, con i componenti interconnessi verticalmente. Fino ad ora, aziende come Samsung Electronics e SK Hynix hanno prodotto tutti i componenti dell’HBM, compreso il die di base.
Tuttavia, con l’introduzione dell’HBM4, il die di base sarà prodotto dalle fonderie utilizzando processi ultra-fini, che consentono di integrare una maggiore funzionalità computazionale.
HBM4 (High Bandwidth Memory 4)
HBM4 (High Bandwidth Memory 4) è la quarta generazione di memorie ad alta larghezza di banda, attesa per il 2025-2026. Le memorie HBM forniscono l’elevata larghezza di banda richiesta per l’addestramento di modelli di IA e per applicazioni di inferenza ad alte prestazioni.
La tecnologia HBM4 promette di raddoppiare le prestazioni rispetto alle memorie HBM2 (le più utilizzate al momento), raggiungendo una larghezza di banda impressionante di 512 GB/s per package. Inoltre, si prevede che l’interfaccia delle memorie HBM4 possa arrivare a 2048 bit, un notevole passo avanti rispetto ai 1024 bit delle HBM2, migliorando ulteriormente le performance per le applicazioni di intelligenza artificiale.
SK Hynix e Samsung sono tra i principali produttori che stanno lavorando per portare sul mercato questa soluzione, fondamentale per soddisfare la crescente richiesta di memoria delle GPU dedicate all’IA. In attesa dell’uscita sul mercato delle HBM4, si continueranno ad usare le HBM2, HBM3 e HBM3e.
Collaborazione tra TSMC, SK Hynix e Nvidia
Un dirigente di TSMC ha riconosciuto la cooperazione con partner chiave sul processo integrato HBM4. TSMC sta anche aggiornando la sua tecnologia di packaging avanzato nota come CoWoS per questo scopo.
L’industria dei semiconduttori prevede che le attuali tecniche di packaging, che collocano i semiconduttori logici come le GPU accanto all’HBM, si evolveranno in una tecnologia più complessa che impila l’HBM sopra le GPU in un assemblaggio verticale tridimensionale entro i prossimi anni. TSMC ha recentemente annunciato una nuova roadmap per la tecnologia di packaging avanzato, assicurandosi una posizione dominante.
TSMC ha ufficialmente dichiarato la collaborazione con SK Hynix e Nvidia, formando un’alleanza tripartita. A partire dall’HBM4, TSMC produrrà i die di base, che SK Hynix acquisirà per impilare la DRAM. SK Hynix ha annunciato che introdurrà l’HBM4 con un anno di anticipo nel 2025. C’è anche una significativa probabilità che TSMC si occupi dei die di base HBM4 di Micron.
Lo sviluppo della tecnologia delle memorie HBM che negli anni scorsi andava a rilento ora va invece a ritmi molto sostenuti, spinta dalle richieste dei datacenter mondiali per esigenze IA.
Kim Gwi-wook, capo del team di tecnologia avanzata HBM della SK Hynix, ha dichiarato all’ International Memory Workshop di TSMC : “Da quando è stata sviluppata la prima generazione di HBM, le generazioni sono state sviluppate ogni due anni, ma da HBM3E, le generazioni cambieranno ogni anno.”
L’impatto sul mercato
Con l’ingresso di TSMC nel mercato di produzione dell’HBM dominato da SK Hynix e Samsung, le dinamiche potrebbero cambiare. Tuttavia, SK Hynix sottolinea che il rapporto con TSMC è di “cooperazione reciproca, non di dipendenza unilaterale”.
Nel frattempo, Samsung prevede di produrre i die di base internamente, perseguendo una strategia chiavi in mano che potrebbe offrire vantaggi in termini di costi ed efficienza. A tal fine, Samsung ha formato una task force a marzo per sviluppare l’HBM di prossima generazione, consolidando le competenze delle sue divisioni di semiconduttori di memoria, fonderia e post-elaborazione.
Conclusioni e considerazioni
HBM4 è una memoria progettata per soddisfare le crescenti esigenze del calcolo ad alte prestazioni come l’intelligenza artificiale, l’apprendimento automatico e l’elaborazione di big data. La maggiore produttività e densità dell’HBM4 consentiranno la realizzazione di sistemi potenti ed efficienti dal punto di vista energetico.
La collaborazione di TSMC con SK Hynix e Nvidia sta ridisegnando le dinamiche del mercato. SK Hynix punta a mantenere la sua leadership attraverso l’alleanza con TSMC, mentre Samsung mira a riconquistare quote di mercato nell’IA con un approccio chiavi in mano.