A dicembre 2025, Xiaomi aveva già mosso il primo passo nell’AI generativa con MiMo-V2-Flash: un modello open-source con licenza MIT, 309 miliardi di parametri totali e soli 15 miliardi attivi, disponibile liberamente su HuggingFace e OpenRouter a un prezzo stracciato, ovvero $0,09 per milione di token in input, persino meno di DeepSeek. Un segnale di intenzione più che un prodotto di frontiera: Fuli Luo, il responsabile del team MiMo, lo aveva definito senza mezzi termini “solo il secondo step della nostra roadmap verso l’AGI”. Tre mesi dopo, quel secondo step lascia il posto a qualcosa di molto più serio. Xiaomi lancia MiMo-V2-Pro, modello flagship della serie MiMo-V2, affiancato da MiMo-V2-Omni (multimodale) e MiMo-V2-TTS (sintesi vocale).
Questa volta i pesi non sono pubblici (modello proprietario), i prezzi sono bassi ma non più simbolici e le ambizioni sono di prima linea.
MiMo-V2-Pro non nasce come semplice strumento di conversazione alternativo a GPT, ma come il cervello operativo di sistemi agentici complessi. Guidato ancora da Fuli Luo, veterano del progetto DeepSeek R1, è progettato per comprendere istruzioni articolate, invocare strumenti esterni, gestire flussi di lavoro in più fasi e consegnare risultati validi con un intervento umano minimo. Rispetto al Flash, il Pro ha circa tre volte i parametri totali (1 trilione) e si rivolge principalmente a sviluppatori, team di ingegneria software e organizzazioni che necessitano di orchestrazione AI avanzata per ambienti produttivi.
Dal punto di vista competitivo, il modello si posiziona all’ottavo posto nella classifica globale Artificial Analysis Intelligence Index e al secondo posto tra i modelli cinesi, avvicinandosi alle prestazioni di Claude Opus 4.6 e GPT-5.4 ma con un costo di accesso pari a circa un settimo rispetto ai modelli occidentali.
Un’architettura costruita per task lunghi e complessi
MiMo-V2-Pro adotta un’architettura sparsa che ospita 1 trilione di parametri totali, ma ne attiva solo 42 miliardi per ciascuna inferenza. Questa scelta consente di gestire contesti enormi senza degradare le prestazioni. La finestra di contesto arriva a 1 milione di token, abbastanza per lavorare interi codebase aziendali o documentazioni estese in un’unica sessione.

Il meccanismo di attenzione ibrida opera con un rapporto 7:1 (rispetto al 5:1 del Flash), consentendo al modello di scorrere circa l’85% dei dati in modo leggero, concentrando la computazione densa solo sul 15% più rilevante per il compito in corso. È un compromesso ottimale per i workflow agentici, dove la memoria a lungo termine conta più dell’elaborazione istantanea.
A completare l’architettura c’è un livello Multi-Token Prediction (MTP), che genera più token in parallelo durante le fasi di ragionamento, riducendo la latenza in modo sensibile. Luo ha affermato che queste decisioni strutturali sono state prese con mesi di anticipo, in previsione della velocità con cui l’interesse del mercato si stava spostando verso gli agenti AI.
A supporto dell’intero ciclo di addestramento, Xiaomi ha collaborato con l’Università di Pechino per sviluppare ARL-Tangram, un sistema di gestione delle risorse che ha ridotto i costi computazionali fino al 71%, tagliando anche i tempi di ogni step di addestramento fino a 1,5 volte.
Benchmark di MiMo-V2-Pro
Prima del lancio ufficiale, il modello ha circolato sotto il nome in codice “Hunter Alpha” su OpenRouter, accumulando oltre 1 trilione di token di utilizzo e dominando la classifica giornaliera per più giorni consecutivi. Sulla piattaforma di valutazione Artificial Analysis, MiMo-V2-Pro ha ottenuto un punteggio di 63 nell’Intelligence Agentic Index, collocandosi al terzo posto nel mondo e primo tra i modelli di origine cinese insieme a GLM-5 di Z.ai.

Sul benchmark GDPval-AA, che misura le prestazioni su compiti agentici del mondo reale, il modello ha raggiunto un Elo di 1426, superando competitor cinesi come GLM-5 (1406) e Kimi K2.5 (1283), pur restando distante da Claude Sonnet 4.6 (1633).
Su ClawEval, valutazione specifica per scaffolding agentici come OpenClaw, MiMo-V2-Pro ha segnato 61.5, avvicinandosi a Claude Opus 4.6 (66.3) e superando GPT-5.2 (50.0). Nel dominio del codice, su TerminalBench 2.0 ha raggiunto 86.7, mentre su SWE-bench Verified ha ottenuto 78.
Non meno rilevante è l’efficienza dei token: per completare l’intero Intelligence Index, il modello ha consumato 77 milioni di token in output, contro i 109 milioni di GLM-5 e gli 89 di Kimi K2.5. Il tasso di allucinazione si è attestato al 30%, molto inferiore al 48% del Flash.
Prezzi, disponibilità e promozioni per sviluppatori
MiMo-V2-Pro è disponibile tramite API proprietaria su platform.xiaomimimo.com, con un sistema di prezzi a scaglioni basato sulla lunghezza del contesto.
Per l’integrazione in tool di sviluppo, Xiaomi ha pubblicato documentazione ufficiale per diverse piattaforme, tra cui Claude Code, Kilo Code e Cline. Il modello è già disponibile su OpenRouter. Per chi usa l’IDE OpenCode MiMo-V2-Pro e MiMo-V2-Omni sono a uso gratuito temporaneo.
Per conversazioni fino a 256.000 token, il costo è di $1 per milione di token in input e $3 per milione in output. Per contesti fino a 1 milione di token, i prezzi salgono rispettivamente a $2 e $6. Il caching in lettura è disponibile a $0,20 o $0,40 per milione di token secondo lo scaglione, mentre la scrittura in cache è temporaneamente gratuita, un vantaggio diretto per chi sviluppa agenti che invocano frequentemente prompt lunghi.
In rapporto qualità-prezzo, il modello si colloca in una fascia molto competitiva tra i modelli di livello frontier.
| Modello | Input (per 1M token) | Output (per 1M token) |
|---|---|---|
| DeepSeek-V3.2 | $0.07 | $0.42 |
| MiniMax M2.5 | $0.15 | $1.20 |
| Grok 4.1 Fast | $0.20 | $0.50 |
| MiniMax M2.7 | $0.30 | $1.20 |
| MiMo-V2-Omni | $0.40 | $2.00 |
| Qwen3.5 Plus | $0.40 | $2.40 |
| Qwen3.5 397B A17B | $0.60 | $3.60 |
| Kimi K2.5 | $0.60 | $3.00 |
| GLM-5 | $0.80 | $2.56 |
| MiMo-V2-Pro | $1.00 | $3.00 |
| Gemini 3.1 Pro | $2.00 | $12.00 |
| GPT-5.4 | $2.50 | $15.00 |
| Claude Sonnet 4.6 | $3.00 | $15.00 |
| Grok 4 | $3.00 | $15.00 |
| Claude Opus 4.6 | $5.00 | $25.00 |
| GPT-5.4 Pro | $30.00 | $180.00 |
Xiaomi offrirà una settimana di accesso API gratuito a chi vuole testare il modello in contesti reali. Il supporto per input multimodali (immagini) non è ancora disponibile nel Pro, ma viene coperto dal modello MiMo-V2-Omni del medesimo ecosistema.
MiMo-V2-Pro porta Xiaomi nell’AI di frontiera
Xiaomi, già terzo produttore mondiale di smartphone e protagonista dell’ingresso nel settore automotive con i veicoli elettrici SU7 e YU7, ha costruito un ecosistema hardware-software-integrato che eccelle in scenari che richiedono ragionamento a lungo termine e completamento di workflow articolati.
Chi lavora con agenti AI, automazione di pipeline di sviluppo software o orchestrazione multi-step troverà in questo modello uno strumento costruito esattamente per quello scopo. La finestra da 1 milione di token, abbinata a prezzi sensibilmente inferiori a quelli dei competitor occidentali di pari livello, lo rende interessante anche per architetture RAG su codebase o documentazioni aziendali estese.
Vale la pena sottolineare che, a differenza del MiMo-V2-Flash (open-source con licenza MIT e disponibile su HuggingFace), i pesi del modello Pro non sono pubblicamente disponibili. Questo può costituire un limite per chi necessita di audit interni approfonditi in ambienti ad alta sensibilità. Detto ciò, per team di sviluppo che cercano un equilibrio tra ragionamento avanzato e contenimento dei costi operativi, MiMo-V2-Pro merita una valutazione seria.











