Samsung e SK Hynix sono attualmente in testa per quanto riguarda la produzione e la fornitura di memoria HBM (High Bandwidth Memory) per le GPU IA. Tuttavia, sia SK Hynix che Samsung stanno avendo difficoltà a tenere il passo con l’esplosiva domanda di memoria HBM3, portando ad una carenza che persisterà per i prossimi 2-3 anni.
HBM3 vanta velocità di elaborazione dati leader del settore di 1,15 terabyte (TB) al secondo ed è ottimizzato per elaborare grandi quantità di dati per applicazioni come l’AI.
La carenza di memoria HBM3
SK Hynix prevede che la carenza di HBM3 durerà fino alla fine del 2025, con una domanda che continuerà a superare l’offerta nonostante gli investimenti per espandere la capacità produttiva.
Il rapido aumento del fabbisogno di GPU per l’IA come le H100 di NVIDIA ha avuto un effetto proporzionale sulla domanda di HBM. Per questo motivo, produttori di memoria come Samsung e SK Hynix hanno colto l’opportunità.
Anche Samsung sta riscontrando una “seria carenza” di memoria HBM3, secondo fonti del settore. L’azienda che sta lottando per soddisfare gli ordini, nonostante il massiccio investimento in nuovi impianti di produzione negli ultimi anni.
HBM3 Icebolt di Samsung è progettato per potenziare i data center, alleggerire i carichi per l’elaborazione ad alte prestazioni e sfruttare il potenziale dell’intelligenza artificiale.
Con 12 stack di DRAM, HBM3 Icebolt porta le prestazioni a un livello completamente nuovo, con velocità di elaborazione fino a 6,4 Gbps e larghezza di banda che raggiunge 819 GB/s.
Entrambe le aziende stanno investendo miliardi di dollari per espandere la capacità, ma la domanda sta crescendo ad un ritmo così rapido da rendere difficile tenere il passo.
Ciò è in parte dovuto al fatto che la progettazione e la costruzione di nuovi impianti richiede tipicamente 2-3 anni, il che significa che l’offerta rimarrà limitata nel breve termine nonostante gli sforzi di espansione.
La memoria HBM3 traina la crescita esplosiva della domanda
L’HBM3 è un componente cruciale nelle richiestissime GPU per l’IA , poiché offrono alte velocità di trasferimento, maggiore larghezza di banda e capacità di memoria aumentate. Quindi, le aziende produttrici hanno dirottato la loro attenzione verso il suo sviluppo.
Tuttavia, la rapida adozione da parte di aziende e centri di ricerca ha portato ad una esplosione della domanda di HBM3 superiore alle attese, contribuendo alla persistente carenza nonostante gli sforzi di espansione della capacità produttiva da parte dei big del settore.
SK Hynix nei risultati del terzo trimestre ha riportato che tutti gli ordini per memoria HBM3 sono stati esauriti per il prossimo anno. La società ritiene che il settore HBM possa aumentare del 60-80% nei prossimi cinque anni. Ad oggi, detiene la quota maggiore nel settore HBM, tuttavia concorrenti come Samsung stanno rapidamente colmando il divario.
HBM3e sarà decisiva per le applicazioni IA di nuova generazione
La memoria HBM3e riveste grande importanza per il futuro del calcolo IA e segnerà una nuova transizione nel settore. Si aspetta che l’HBM3e porti enormi guadagni di prestazioni e farà probabilmente il suo debutto nelle GPU Blackwell di NVIDIA per l’IA insieme alle Instinct MI400 di AMD.
SK Hynix è recentemente riuscita ad assicurarsi ordini da NVIDIA e AMD, oltre a campionare la sua prossima memoria HBM3e a NVIDIA e altri potenziali clienti.
Conclusione
Con ordini esauriti fino al 2025, il futuro sembra luminoso per l’industria HBM man mano che la rivoluzione dell’IA avanza. La rapida adozione dell’IA e del deep learning da parte di aziende e centri di ricerca in tutto il mondo sta trainando una domanda senza precedenti di memorie ad alte prestazioni come l’HBM3, portando a una crescita esplosiva per i principali produttori di memoria come SK Hynix e Samsung.