ll 27 settembre alle 05:44 del mattino Mistral AI da suo account Twitter/X, ha annunciato con un semplice link magnet: il download di una nuova LLM di IA chiamata Mistral 7B da 13,4 GB, open source, disponibile gratuitamente a tutti e con una licenza d’uso molto permissiva, Apache 2.0. In poche ore il post ha superato 1 milione di visualizzazioni …
Mistral AI
Quando una società europea specializzata in intelligenza artificiale generativa raccoglie 105 milioni di dollari solo un mese dopo la sua creazione, il suo primo prodotto suscita molte aspettative e attenzione. Mistral AI, co-fondata da tre francesi, Arthur Mensch, Timothée Lacroix e Guillaume Lample, con Mistral 7B fa entrare l’Europa tra i principali attori dell’IA generativa globale.
A differenza di ChatGPT o Bard, questo modello open source chiamato Mistral 7B è rivolto agli sviluppatori, che potranno utilizzarlo, migliorarlo e commercializzarlo a proprio piacimento. È un modello IA di piccole dimensioni, che conta 7,3 miliardi di parametri, lontano dalle centinaia di miliardi di parametri di un GPT4 di OpenAi o di un PaLM di Google.
Essendo un modello per sviluppatori, per poterlo utilizzare per completare testi, riassumere documenti o rispondere ad alcune domande in forma “chat” come siamo abituati con chatGPT, il modello deve essere installato su una infrastruttura IT, ovvero su un computer locale o su un servizio cloud-based.
Ma, poche ore dopo l’annuncio perplexity.ai ( piattaforma cloud-based per lo sviluppo, hosting e gestione degli assistenti conversazionali ) ha installato una versione testing del modello Mistral 7B.
Quindi per provarlo è sufficiente aprire questo indirizzo e selezionare in basso a destra l’LLM Mistral-7b-instruct . Mentre se usi poe.com potresti trovarlo a breve tra i chatbot disponibili.
Mistral AI è una delle rare aziende europee ad aver deciso di inseguire i colossi americani Meta, Google o OpenAI nella corsa all’intelligenza artificiale generativa, che oltre a competenze specialistiche, richiede una notevole capacità di calcolo per addestrare l’intelligenza artificiale.
La giovane azienda ha raccolto quasi 100 milioni di euro durante l’estate da numerosi investitori, tra cui il proprietario del gruppo Iliad Xavier Niel che martedì ha annunciato di aver acquistato un supercomputer Nvidia dedicato all’intelligenza artificiale.
Mistral AI : Mistral 7B supera Llama 2 di Meta
Mistral AI è particolarmente fiera di avere creato una LLM che supera in prestazioni il modello Llama 2 13B di Meta, e di conseguenza ad oggi è il modello LLM open source più potente al mondo.
Nei benchmark che coprono una vasta gamma di compiti, è stato riscontrato che il modello supera Llama 2 7B e 13B. Ad esempio, nel test Massive Multitask Language Understanding (MMLU), che copre 57 materie tra matematica, storia degli Stati Uniti, informatica e diritto, il nuovo modello ha fornito una precisione del 60,1%, mentre Llama 2 7B e 13B hanno fornito poco più di rispettivamente 44% e 55%.
Allo stesso modo, nei test riguardanti il ragionamento basato sul buon senso e la comprensione della lettura, Mistral 7B ha sovraperformato i due modelli Llama con una precisione rispettivamente del 69% e del 64%. L’unica area in cui Llama 2 13B corrispondeva a Mistral 7B era il test di conoscenza del mondo, che secondo Mistral potrebbe essere dovuto al numero limitato di parametri del modello, che limita la quantità di conoscenza che può comprimere.
“Per tutti i parametri, tutti i modelli sono stati rivalutati con la nostra pipeline di valutazione per un confronto accurato. Mistral 7B supera significativamente Llama 2 13B su tutti i parametri ed è alla pari con Llama 34B (su molti benchmark)“, ha scritto l’azienda in un post sul loro blog.
“L’obiettivo consiste nel dimostrare che possiamo costruire i migliori modelli di intelligenza artificiale, anche se abbiamo meno risorse e parametri“, spiega Arthur Mensch, cofondatore e CEO di Mistral AI. “Abbiamo bisogno di poche risorse per fare molto e possiamo fare molto di più con le stesse risorse“.
Sono necessari 7 miliardi di parametri per ottenere un modello che sia in grado di compiere attività come la traduzione, la sintesi di testo, la generazione di conversazioni o anche la creazione di testi creativi . “Se la maggior parte dei modelli attuali richiedono miliardi di dollari e diverse settimane per essere addestrati, noi siamo riusciti a raggiungere un’efficacia paragonabile in meno di una settimana e con un costo inferiore a 1 milione di dollari“, ha affermato Arthur Mensch.
Nel lavoro di Mistral c’è anche la partecipazione italiana di CINECA/EuroHPC e di Leonardo .
“Siamo grati a CoreWeave per il loro aiuto 24/7 nel gestire il nostro cluster. Ringraziamo il team CINECA/EuroHPC e, in particolare, gli operatori di Leonardo, per le loro risorse e l’assistenza fornita.” ha scritto Mistral AI nel suo blog.
Conclusione
OpenAI ha ricevuto un investimento di 10 miliardi di dollari da Microsoft, che mette le basi per le sue funzioni di IA. Meta sta investendo pesantemente in un’infrastruttura per l’intelligenza artificiale e si sta preparando a lanciare un concorrente di ChatGPT. Google è impegnata con il suo progetto Gemini e Bard e da poco ha rilasciato le sue Bard extensions. La concorrenza tra i leader dell’intelligenza artificiale sta diventando sempre più intensa ed ora c’è anche un progetto europeo.