Ieri, durante il Microsoft Ignite (Seattle dal 14 al 17 Novembre), Microsoft ha svelato il chip Maia 100 ottimizzato per compiti di intelligenza artificiale (IA) e generativa, e il processore Microsoft Azure Cobalt 100 CPU.
ll Maia 100 è un processore Arm realizzato con il processo a 5 nm di TSMC e ha 105 miliardi di transistor. L’azienda inizierà a utilizzare il chip a partire dal prossimo anno. In questo modo Microsoft vuole entrare al meglio nella competizione IA. In più, limita anche la dipendenza da produttori di processori e hardware IA come Nvidia e AMD.
Microsoft ha presentato anche la CPU Cobalt 100. Si tratta di un processore Arm sviluppato internamente per l’utilizzo nei data center Microsoft Azure. Ha 128 core ed è progettato per utilizzo nell’Arm Neoverse CSS . L’Arm Neoverse Compute Subsystems è una piattaforma hardware progettata da Arm per i data center. Offre una combinazione ottimizzata di processori CPU, acceleratori di intelligenza artificiale, interconnessione, memoria e sicurezza. L’obiettivo di Arm Neoverse CSS è fornire le massime prestazioni ed efficienza per carichi di lavoro di intelligenza artificiale e cloud computing.
Chip Maia 100
I chip Maia 100 inizieranno a essere implementati già all’inizio del prossimo anno nei datacenter di Microsoft. Inizialmente alimenterano i servizi dell’azienda come Microsoft Copilot e Azure OpenAI Service. Si uniranno a una gamma sempre più ampia di prodotti per soddisfare la crescente domanda di potenza di calcolo, scalabile e sostenibile e le esigenze dei clienti desiderosi di sfruttare le ultime novità di intelligenza artificiale in cloud.
“Microsoft sta costruendo l’infrastruttura per supportare l’innovazione nell’IA, e stiamo ripensando ogni aspetto dei nostri datacenter per soddisfare le esigenze dei nostri clienti“, ha dichiarato Scott Guthrie, vicepresidente esecutivo del Cloud + AI Group di Microsoft. “Nella scala in cui operiamo, è importante per noi ottimizzare e integrare ogni livello dello stack di infrastrutture per massimizzare le prestazioni, diversificare la nostra catena di approvvigionamento e offrire ai clienti scelte infrastrutturali“.
Maia 100 progettato per IA
Il nuovo Maia 100 AI Accelerator dell’azienda alimenterà alcuni dei più grandi carichi di lavoro interni di IA in esecuzione su Microsoft Azure. OpenAI sta fornendo feedback e supporto nella realizzazione dei progetti di Microsoft.
“Da quando abbiamo iniziato a collaborare con Microsoft, abbiamo lavorato insieme al co-design dell’infrastruttura IA di Azure a ogni livello per i nostri modelli e le esigenze di formazione senza precedenti“, ha detto Sam Altman, CEO di OpenAI. “Siamo stati entusiasti quando Microsoft ci ha mostrato per la prima volta i loro progetti per il chip Maia, e abbiamo lavorato insieme per perfezionarlo e testarlo con i nostri modelli. L’architettura end-to-end IA di Azure, ora ottimizzata fino al silicio con Maia, e apre la strada per la formazione di modelli più capaci e rende quei modelli più economici per i nostri clienti“.
Il Maia 100 AI Accelerator è stato progettato specificamente per lo stack hardware di Azure, ha detto Brian Harry, un tecnico di Microsoft che guida il team Azure Maia. “Azure Maia è stato progettato specificamente per l’IA e per ottenere il massimo utilizzo assoluto dell’hardware“, ha dichiarato Brian Harry.
La scelta della tecnologia Arm è stata un elemento chiave nell’obiettivo di sostenibilità di Microsoft. Si propone di ottimizzare “prestazioni per watt” in tutti i suoi datacenter, il che significa essenzialmente ottenere più potenza di calcolo per ogni unità di energia consumata.
Cosa è Microsoft Azure
Azure è la soluzione cloud completa di Microsoft che fornisce servizi on-demand per costruire, distribuire e gestire applicazioni in modo flessibile e integrato tramite il proprio data center globale.
Azure utilizza centri dati Microsoft distribuiti in tutto il mondo per fornire questi servizi sia attraverso una console online che tramite API.
I servizi principali includono il computing con Azure Virtual Machines, l’archiviazione con Azure Storage, i database con Azure SQL e Azure Cosmos DB, la rete con Azure Virtual Network, la sicurezza e identità con Azure Active Directory, l’analisi e intelligenza artificiale con Azure Synapse Analytics. Azure supporta la maggior parte dei linguaggi di programmazione, sistemi operativi e framework.
Ottimizzare i servizi sul Cloud con Maia 100
I chip sono i motori del cloud. Comandano miliardi di transistor che elaborano i vasti flussi binari che scorrono attraverso i datacenter. Questo lavoro consente essenzialmente di fare qualsiasi cosa sullo schermo, dall’invio di una email alla generazione di un’immagine in Bing con una semplice frase.
Proprio come costruirsi una casa ti consente di controllare ogni scelta di progettazione e dettaglio, Microsoft vede l’aggiunta di chip di produzione interna come un modo per garantire che ogni elemento sia progettato ad hoc per i carichi di lavoro cloud e IA di Microsoft.
I chip si integreranno su schede server personalizzate, posizionate all’interno di rack su misura che si adatterà facilmente ai datacenter esistenti di Microsoft. L’hardware lavorerà a stretto contatto con il software, co-progettato insieme per sbloccare nuove capacità e opportunità.
Obiettivo finale : Azure
L’obiettivo finale è un sistema hardware Azure che offra massima flessibilità e versatilità e possa essere ottimizzato anche per potenza, prestazioni, sostenibilità o costo, ha detto Rani Borkar, vicepresidente aziendale per Azure Hardware Systems and Infrastructure (AHSI).
“Il software è la nostra forza principale, ma francamente, siamo una società di sistemi. In Microsoft stiamo co-progettando e ottimizzando hardware e software insieme in modo che uno più uno sia maggiore di due“, ha detto Borkar.
Al Microsoft Ignite, l’azienda ha anche annunciato la disponibilità generale di uno di quegli ingredienti chiave: Azure Boost, un sistema che rende storage e networking più veloci spostando questi processi dai server host su hardware e software appositamente progettati.
Collaborazioni con Nvidia e AMD
Per velocizzare il processo, Microsoft per il momento non sarà completamente indipendente dalla collaborazione con alcuni partner. Microsoft ha infatti presentato della macchine virtuali NC H100 v5 costruite con le GPU Tensor Core H100 di NVIDIA, in grado di offrire performance, affidabilità ed efficienza per l’addestramento IA di fascia media e l’inferenza IA generativa.
Il prossimo anno Microsoft aggiungerà anche la nuova GPU Tensor Core H200 di NVIDIA per supportare l’inferenza di modelli più grandi senza aumento della latenza.
L’azienda ha annunciato anche collaborazioni con AMD, con l’aggiunta di GPU AMD Instinct MI300X per ridurre il carico di lavoro di Azure. Le macchine virtuali AMD MI300 sono progettate per accelerare l’elaborazione dei carichi di lavoro IA per l’addestramento di modelli IA di fascia alta e l’inferenza generativa.
Chip Maia 100 e Cobalt 100 : vantaggi
Sviluppando i propri chip per l’Intelligenza Artificiale, Microsoft può ottenere diversi vantaggi competitivi:
- Prestazioni ottimizzate per i specifici carichi di lavoro dell’IA rispetto alle CPU generiche
- Controllo completo sull’architettura e sul design dei chip per integrarli perfettamente con i suoi software e prodotti
- Sostanziale riduzione dei costi nel lungo termine rispetto all’acquisto di chip da terze parti come Nvidia e AMD
- Piena personalizzazione delle funzionalità hardware e differenziazione dell’offerta cloud grazie alle ottimizzazioni hardware
- Rafforzamento della posizione di leader nell’Intelligenza Artificiale
- Sostanziale riduzione di costi energetici grazie all’adozione di processori Arm , rinomati per il loro consumo energetico ridotto.
Grazie ai chip proprietari Microsoft può puntare ad offrire le migliori prestazioni di IA al minor costo nei propri servizi cloud con l’obiettivo di dominare il mercato dell’Intelligenza Artificiale.
Conclusione
L’annuncio dei chip Maia 100 e dei sistemi integrati durante il Microsoft Ignite segna un passo significativo nella strategia di Microsoft per l’innovazione nell’Intelligenza Artificiale. L’azienda, con il Maia 100 AI Accelerator, mira a ottimizzare le prestazioni e la sostenibilità dei propri servizi cloud grazie all’adozione della architettura Arm , riducendo la dipendenza da produttori esterni.
La co-progettazione di hardware e software, insieme alle collaborazioni con partner strategici come OpenAI, NVIDIA e AMD, sottolinea l’impegno di Microsoft nel fornire soluzioni flessibili e all’avanguardia per rispondere alle crescenti esigenze del settore.
L’obiettivo finale di creare un sistema hardware Azure versatile e ottimizzabile riflette la forte determinazione di Microsoft nel dominare il mercato dell’Intelligenza Artificiale, offrendo prestazioni superiori a costi ridotti nei propri servizi cloud. Il futuro ci dirà se questi sostanziali investimenti avranno dato ragione a Microsoft.