La corsa ai chip per l’intelligenza artificiale si fa sempre più intensa. MatX, una startup fondata nel 2022 da Reiner Pope e Mike Gunter, entrambi ex ingegneri delle unità TPU di Google, ha annunciato un round Series B da 500 milioni di dollari, con l’obiettivo esplicito di competere direttamente con Nvidia nel segmento degli acceleratori per modelli linguistici di grandi dimensioni.
L’operazione è stata guidata da Jane Street e Situational Awareness, fondo creato dall’ex ricercatore OpenAI Leopold Aschenbrenner, con la partecipazione di Marvell Technology, NFDG, Spark Capital e dei co-fondatori di Stripe Patrick Collison e John Collison.
La notizia arriva in un momento in cui la domanda di hardware per l’addestramento e l’inferenza AI continua a crescere più in fretta dell’offerta, spingendo laboratori e aziende a cercare alternative credibili all’ecosistema Nvidia, che secondo le stime controlla l’80-90% del mercato degli acceleratori per AI training, con ricavi data center pari a 47,5 miliardi di dollari nell’ultimo anno fiscale.
In questo scenario, raccogliere 500 milioni significa assicurarsi accesso a capacità produttiva presso TSMC, oltre a componenti critici come la HBM High Bandwidth Memory. La roadmap indica produzione a partire dal 2027, dopo il completamento del design e il tape-out. È una corsa contro il tempo in un settore dove lead time produttivi, scarsità di memoria e dipendenza da un singolo fornitore influenzano direttamente costi e tempistiche.

MatX one, architettura ibrida tra HBM e SRAM
Il prodotto al centro della strategia di MatX si chiama MatX One, ed è progettato attorno a un’idea precisa: non costringere i clienti a scegliere tra bassa latenza e alta capacità computazionale. Tradizionalmente, i chip AI si specializzano in una delle due direzioni.
MatX propone invece un’architettura ibrida che combina memoria SRAM, ad alta velocità e bassa latenza, tipicamente integrata direttamente nel chip accanto ai circuiti logici, con memoria HBM (High Bandwidth Memory), più lenta ma ad alta capacità, già utilizzata da Nvidia e Google per l’addestramento di grandi modelli.
Nella pratica, MatX One utilizza SRAM per memorizzare i pesi del modello, accelerando il processamento dei prompt, mentre affida all’HBM il caching KV, il meccanismo che permette ai modelli di ridurre i calcoli ripetitivi durante l’inferenza.
Tecnicamente, il chip è basato su quello che l’azienda chiama splittable systolic array: un’architettura che consente di suddividere l’array di calcolo in unità più piccole, adattando la configurazione del chip al tipo di dato elaborato per massimizzare l’efficienza.
MatX sostiene che MatX One supererà Nvidia Rubin Ultra in termini di performance per millimetro quadrato, e che l’obiettivo è offrire prestazioni dieci volte superiori rispetto alle GPU attuali nell’addestramento di LLM. Centinaia di migliaia di questi chip potranno essere collegati in cluster per carichi di lavoro su larga scala.
Come è successo per AMD, resterà però centrale il tema software. Senza integrazione fluida con PyTorch, librerie distribuite mature e toolchain affidabili, anche il miglior silicio rischia di perdere attrattiva. In questo ambito, maturità del compilatore e compatibilità drop-in faranno la differenza più della potenza teorica.
Rischi, concorrenti e tempistiche
La roadmap di MatX prevede la finalizzazione del design del chip entro il 2026, con la produzione affidata a TSMC e le prime spedizioni previste nel 2027. I 500 milioni raccolti serviranno proprio a questo: bloccare slot produttivi, garantirsi l’accesso alle componenti critiche (in particolare la memoria, che oggi è una risorsa scarsa sul mercato dei semiconduttori) e accelerare lo sviluppo senza dipendere da finanziamenti futuri.
Non sarà un percorso privo di ostacoli e la sfida sarà altamente competitiva: nel momento in cui MatX arriverà sul mercato, la baseline tecnologica sarà ulteriormente avanzata, con Nvidia Blackwell, AMD MI300 e i chip proprietari di Google, AWS e Microsoft tutti in campo.
Come ha detto lo stesso CEO Pope, per avere successo bisogna essere competitivi su almeno cinque dimensioni e dominarne almeno una: prestazioni, compatibilità software, affidabilità, scala produttiva, ecosistema.
Tra i concorrenti diretti oltre Nvidia e AMD ci sono anche Intel, Groq, Cerebras, Tenstorrent, SambaNova. Inoltre ci sono anche soluzioni alternativi come Etched e Taalas che puntano su ASIC per l’inferenza.
Se questa promessa verrà mantenuta, il risultato potrebbe essere una maggiore diversificazione dell’offerta hardware AI e una riduzione della dipendenza da un unico fornitore. Altrimenti, resterà uno dei tanti tentativi ambiziosi in un settore in cui capitale, ingegneria e tempismo devono allinearsi quasi alla perfezione.
Karpathy e il problema della cannuccia
A inquadrare la sfida tecnica è Andrej Karpathy — co-fondatore di OpenAI ed ex direttore dell’AI di Tesla — che ha commentato il round dichiarando anche un suo piccolo coinvolgimento nell’operazione. Secondo Karpathy, il problema centrale non è costruire un chip più veloce in assoluto, ma orchestrare nel modo giusto due risorse fisicamente distinte e per natura opposte: la SRAM on-chip, immediata e velocissima ma di capacità ridottissima, e la DRAM off-chip, capiente ma accessibile solo attraverso quella che lui definisce efficacemente una cannuccia molto lunga.
Trovare il bilanciamento ottimale tra questi due pool di memoria è, a suo avviso, il puzzle intellettuale più interessante e con le ricompense più alte del momento, con i 4,6 trilioni di dollari di capitalizzazione Nvidia come metro di riferimento implicito. Il punto critico, e tutt’altro che ovvio, è che il caso d’uso più rilevante per il futuro — l’inferenza in decode su contesti lunghi all’interno di loop agentici stretti — è esattamente quello che oggi nessuno dei due approcci dominanti riesce a gestire in modo soddisfacente: né i design HBM-first alla Nvidia, né quelli SRAM-first alla Cerebras. È precisamente lo spazio che MatX punta a occupare.
Una scommessa con molte incognite
Il mercato degli acceleratori AI è entrato in una fase di forte pressione competitiva. La concentrazione nelle mani di Nvidia, unita alla crescita dei large language models, rende ogni alternativa credibile oggetto di attenzione da parte di investitori e laboratori.
La incognite non sono solo tecniche, ma operative: trasformare una promessa architetturale in un chip affidabile, ben integrato con PyTorch, scalabile in cluster e conveniente sul costo totale di proprietà. Se MatX riuscirà a centrare questi obiettivi entro il 2027, potrebbe ridisegnare l’accesso all’infrastruttura AI, abbassando la barriera d’ingresso per laboratori e startup che oggi non possono permettersi l’ecosistema Nvidia.
C’è un dettaglio che vale la pena sottolineare per capire quanto sia ancora aperto questo mercato: il chip ottimale per i modelli linguistici di grandi dimensioni non esiste ancora. Tutta l’infrastruttura AI che oggi muove un’industria da 4,6 trilioni di dollari si regge fondamentalmente su GPU nate per il gaming e nel tempo adattate — con enorme ingegneria, certo, ma adattate — a un caso d’uso radicalmente diverso. È una situazione paradossale, e proprio per questo il campo rimane aperto. MatX, come altri sfidanti, non sta cercando di battere Nvidia sul suo terreno: sta cercando di costruire il terreno giusto, quello che ancora non esiste.











