A solo un giorno dalla presentazione del modello Llama 3.1 di Meta e a pochi giorni dal rilascio di Mistral Nemo, la nota società IA francese Mistral ha rilasciato il modello pubblico e aperto Mistral Large 2; il lancio avviene a circa 5 mesi dal rilascio di Mistral Large. Come dire, ci siamo anche noi.
Il modello è già disponibile per essere provato nella chatbot di Mistral e sostituisce Mistral Large. Mistral ha annunciato che da oggi i migliori modelli di Mistral AI incluso il nuovo Large 2 sono ora disponibili anche su Vertex AI, oltre ad Azure AI Studio, Amazon Bedrock e IBM watsonx.ai.
Questa nuova iterazione, che ha 123 miliardi di parametri (123B), si posiziona come un formidabile concorrente nel campo dei modelli di linguaggio di grandi dimensioni. Mistral Large 2 si distingue per la sua capacità di bilanciare prestazioni elevate con un’efficienza computazionale superiore.
La decisione di Mistral AI di rendere il modello “aperto” per usi di ricerca non commerciali, consentendo l’accesso ai pesi del modello, rappresenta un passo significativo verso una maggiore democratizzazione dell’IA. Per le applicazioni commerciali, è necessario ottenere una licenza separata, un approccio che bilancia l’apertura con le esigenze commerciali dell’azienda.
Prestazioni e capacità di Mistral Large 2
Le prestazioni di Mistral Large 2 sono notevoli; soprattutto considerando il suo numero relativamente inferiore di parametri rispetto ad alcuni concorrenti. Nei benchmark di generazione di codice, come HumanEval e MultiPL-E, il modello ha dimostrato risultati notevoli; supera addirittura modelli ben consolidati come Claude 3.5 Sonnet e Claude 3 Opus. La sua capacità di generare codice in oltre 80 linguaggi di programmazione con un alto grado di precisione lo rende uno strumento prezioso per gli sviluppatori.
Nel campo della matematica, Mistral Large 2 si è distinto particolarmente nel benchmark MATH, posizionandosi secondo solo a GPT-4o. Queste prestazioni evidenziano la versatilità del modello e la sua potenziale applicabilità in diversi settori, dalla programmazione all’analisi matematica complessa.
Un altro aspetto particolarmente rilevante è la capacità multilingue di Mistral Large 2; il modello ha mostrato una comprensione approfondita di numerose lingue; supera i modelli precedenti in termini di sfumature grammaticali e contesto culturale.
In particolare, eccelle in inglese, francese, tedesco, spagnolo, italiano, portoghese, olandese, russo, cinese, giapponese, coreano, arabo e hindi. Di seguito sono riportati i risultati prestazionali di Mistral Large 2 sul benchmark MMLU multilingue, rispetto ai precedenti modelli; Mistral Large, Llama 3.1 e Command R+ di Cohere.
Il modello è stato progettato per funzionare su un singolo nodo hardware H100; si ottimizzano così le risorse necessarie per il suo utilizzo. Questa caratteristica lo rende particolarmente attraente per le aziende e i ricercatori che cercano soluzioni IA “aperte” potenti ma gestibili.
Innovazioni tecniche e applicazioni pratiche
Mistral Large 2 introduce diverse innovazioni tecniche che meritano attenzione. Il modello ha una finestra di contesto di 128.000 token, come Llama 3.1. Un significativo aumento rispetto alla versione precedente. Questa caratteristica permette al modello di gestire input più lunghi e complessi; adatto a una vasta gamma di applicazioni, dalla generazione di testo sintetico all’analisi di documenti estesi.
L’enfasi posta da Mistral AI sulla riduzione delle “allucinazioni” del modello è particolarmente rilevante; attraverso un fine-tuning mirato, il modello è stato addestrato a essere più cauto e selettivo nelle sue risposte. Maggiore affidabilità delle informazioni generate.
Inoltre, il nuovo Mistral Large 2 è addestrato a riconoscere quando non riesce a trovare soluzioni o non dispone di informazioni sufficienti per fornire una risposta sicura. Questo impegno per l’accuratezza si riflette nel miglioramento delle prestazioni del modello sui benchmark matematici più diffusi.
Questa caratteristica è cruciale in scenari aziendali dove la precisione delle informazioni è fondamentale. Inoltre, le capacità avanzate di “function calling” e recupero di Mistral Large 2 aprono nuove possibilità per lo sviluppo di applicazioni IA sofisticate; permettono una maggiore integrazione con sistemi esistenti e un’interazione più naturale con altri software.
Implicazioni per l’industria e la ricerca
Il lancio di Mistral Large 2 ha importanti implicazioni per l’industria dell’IA e la comunità di ricerca. La decisione di Mistral AI di rendere il modello accessibile per scopi di ricerca non commerciali potrebbe accelerare l’innovazione nel campo; permette a un maggior numero di ricercatori di esplorare e sviluppare nuove applicazioni basate su modelli linguistici avanzati.
Allo stesso tempo, la necessità di una licenza per usi commerciali offre a Mistral AI un potenziale flusso di entrate per sostenere lo sviluppo futuro. Questo approccio ibrido potrebbe diventare un nuovo standard nell’industria, bilanciando l’apertura della ricerca con la sostenibilità commerciale.
L’impatto di Mistral Large 2 si estende oltre le sue capacità tecniche; rappresenta una sfida diretta ai giganti del settore come OpenAI e Meta, dimostrando che aziende più piccole e agili possono competere ad alti livelli nel campo dell’IA. Questo potrebbe portare a una maggiore diversificazione del mercato e a una competizione più intensa, spingendo ulteriormente l’innovazione nel settore.
Implementazione
Per essere eseguito, il modello richiede un computer con almeno un nodo H100. Come già detto in introduzione per chi non può permettersi di eseguire il modello in locale, può provarlo nella chatbot di Mistral . Purtroppo il chabot non è multimodale, ed è limitato al solo testo.
Se vuoi usarlo più a fondo puoi utilizzare servizi aggregatori di modelli IA; per esempio POE, che lo ha già incluso nei suoi servizi in abbonamento.
Per un uso professionale senza hardware, puoi eseguirlo in modo completo (anche con supporto RAG) in cloud tramite la console Mistral sotto il nome mistral-large-2407. In questo caso dovrai utilizzare dei crediti acquistabili sul sito Mistral. Inoltre tutti i modelli Mistral AI, incluso il nuovo Large 2, sono disponibili anche su Vertex AI, Azure AI Studio, Amazon Bedrock e IBM watsonx.ai.
I pesi per il modello istruito sono disponibili su Mistral e sono ospitati anche su HuggingFace .
Mistral Large 2: conclusioni
Il rilascio di Mistral Large 2 sulla scia di Llama 3.1 segnala un’intensificazione della concorrenza nello spazio dei modelli di linguaggio IA. Le sue prestazioni in aree specializzate come la generazione di codice e la matematica, combinate con un forte supporto multilingue, lo posizionano come un’opzione molto interessante sia per la ricerca, che per potenziali applicazioni commerciali.
La combinazione di prestazioni elevate, efficienza computazionale e approccio “open” rendono Mistral Large 2 un’opzione attraente. Tuttavia, il suo successo a lungo termine dipenderà da vari fattori, tra cui l’adozione da parte della comunità, la continua innovazione e la capacità di Mistral AI di competere con attori più consolidati nel settore.