La società di intelligenza artificiale cinese MiniMax ha presentato il suo ultimo modello di linguaggio LLM, MiniMax M2. Secondo il responsabile dell’azienda, M2 avrebbe raggiunto progressi notevoli nelle prestazioni, con l’ambizione dichiarata di posizionarsi tra i modelli di punta a livello mondiale.


Non si tratta del solito LLM generico; sin dal progetto iniziale MiniMax è stato pensato per eccellere in due ambiti specifici, la generazione di codice e gli agenti AI. Il precedente MiniMax M1 (rilasciato nel 2024) era un modello che aveva già stupito il settore gestendo contesti fino a un milione di token. M2 è sempre un modello open source (disponibile su HuggingFace) erogato via API e chatbot. I creatori puntano a mettere M2 in competizione nella stessa categoria dei modelli leader come quelli di OpenAI e Anthropic.
Architettura MoE e prestazioni di MiniMax M2
MiniMax M2 adotta un’architettura innovativa di tipo Mixture-of-Experts (MoE); diversa dai modelli “monolitici” tradizionali ma simile a quella usata da Qwen3 Max. In pratica, su un totale di 230 miliardi di parametri, solo circa 10 miliardi vengono attivati per ogni token generato. Il modello è suddiviso in esperti specializzati che entrano in gioco solo quando necessari; in questo modo impiega di volta in volta i componenti più rilevanti per l’uso.


Questo design consente di raggiungere capacità paragonabili a modelli di grandi dimensioni (oltre 200 miliardi di parametri); ma con un costo computazionale molto inferiore per ogni token elaborato e a bassa latenza. La piccola “impronta attiva” per token si traduce in risposte generate più velocemente e con meno risorse; gli sviluppatori di MiniMax parlano di possibili guadagni di velocità del 50% e oltre rispetto a un modello denso di pari dimensioni.
Importante anche il dato sulla finestra di contesto. M2 supporta input fino a ~204 mila token. Una capacità che permette di lavorare su conversazioni e documenti molto estesi. I primi test indipendenti già collocano MiniMax M2 ai vertici dei benchmark di conoscenza composita (matematica, scienze, ragionamento generale). Le premesse tecniche di MiniMax M2 lo rendono un modello tra i più interessanti e potenzialmente performanti attualmente in circolazione; insieme ai già affermati modelli cinesi Kimi K2, DeepSeek, Qwen3 Max e GLM-4.6 di Z.ai.
Ottimizzazione per codice e agenti: il focus di MiniMax M2
A differenza di molti LLM generalisti, questo modello è stato disegnato su misura per performare nella generazione di codice e nella gestione di workflow multi-step tipici degli agenti AI. Gli ingegneri di MiniMax hanno ottimizzato M2 per comprendere ed eseguire istruzioni anche complesse legate al codice. Il modello sa leggere porzioni di codice esistente, generare nuovi snippet, identificare bug e perfino correggerli in automatico seguendo il ciclo “scrivi-compila-testa-correggi”.
Il modello mostra risultati di rilievo in benchmark specialistici di programmazione come SWE-Bench e Terminal-Bench. In questi test ha risolto con successo task di editing multi-file e riparazione di codice con test. Nei test di agentic intelligence (ad esempio BrowseComp e GAIA), il modello ha dimostrato di saper pianificare, recuperare informazioni al bisogno e riprendersi da eventuali errori di esecuzione.


In sostanza, M2 è pensato per essere il motore ideale di applicazioni come assistenti programmatori avanzati, tool autonomi e agenti software che devono compiere serie di azioni affidandosi al ragionamento. MiniMax stessa lo presenta come componente chiave per costruire prodotti basati su agenti. La piattaforma dell’azienda include uno strumento in grado di lavorare con Claude Code; un alternativa a basso costo al modello di Anthropic per la scrittura di codice. Questo focus verticale su coding e agenti rende MiniMax M2 una proposta particolarmente interessante e a basso costo per scenari d’uso professionali.
Disponibilità e accesso: MiniMax API e OpenRouter
Al momento il chatbot MiniMax M2 è accessibile gratuitamente tramite la piattaforma ufficiale MiniMax, previa registrazione. Gli sviluppatori invece possono ottenere un API key sul portale MiniMax. In OpenRouter MiniMax M2 viene indicato con una finestra di contesto massima di 204k token e costo zero al momento (fino al 7 Novembre); segno che la priorità è favorirne l’adozione iniziale.
Dopo il 7 Novembre il prezzo dell’API per il modello sarà di $ 0,30 per milione di token in input e $ 1,20 per milione di token in output; il prezzo è solo l’8% di quello di Claude Sonnet.
MiniMax M2: impatto e scenari futuri nel panorama dell’AI generativa
MiniMax M2 ambisce a ritagliarsi un posto tra i giganti degli LLM. Punta su forza bruta (parametri e performance), specializzazione funzionale e accessibilità economica. MiniMax M2 dimostra ancora una volta come l’innovazione possa arrivare anche da attori emergenti; e non solo dai soliti giganti tech. Questo modello mette sul tavolo un mix di potenza bruta (230 miliardi di parametri totali e contesto da 200k token) e specializzazione funzionale (coding e agenti).
Con l’avanzata dei modelli cinesi, OpenAI, Anthropic e le altre realtà consolidate saranno spinte a reagire; non solo migliorando le prestazioni dei propri modelli, ma forse rivedendo anche le politiche di costo e accesso per non perdere terreno. Per chi lavora con questi sistemi vale la pena seguirli da vicino e magari sperimentarli direttamente. Queste nuove soluzioni potrebbero ridefinire gli strumenti e le best practice del prossimo futuro. Se vuoi testare le capacità del chatbot puoi farlo da questo indirizzo.










