L’intelligenza artificiale sta vivendo una fase di profonda trasformazione e Meta, la società di Mark Zuckerberg, è in prima linea in questa rivoluzione. Meta qualche ora fa ha presentato il modello IA Llama 3.1. Con il rilascio di Llama 3.1, il più grande modello di IA open source mai creato, Meta vuole ridefinire le regole del gioco e sfidare apertamente colossi come OpenAI, Google e Anthropic.
Con 405 miliardi di parametri, Llama 3.1 rappresenta un salto impressionante nelle capacità dei modelli IA accessibili pubblicamente. Mark Zuckerberg, CEO di Meta, ha espresso una visione audace; rendere Llama 3.1 il fulcro di un ecosistema IA aperto e collaborativo, paragonabile a ciò che Linux ha rappresentato per i sistemi operativi.
Dai benchmark riportati da Meta sembra che il modello aperto Llama 3.1 da 405B (405 miliardi di parametri) sia più efficiente dei migliori modelli chiusi ; OpenAI (GPT4-o) e Anthropic (Claude Sonnet 3.5). Se i benchmark saranno confermati anche nell’utilizzo pratico, sarebbe la prima volta che un modello aperto supera le prestazioni di un modello chiuso/privato.
Meta crede fermamente che l’apertura porti a prodotti migliori e più sicuri; un’innovazione più rapida e un mercato IA più sicuro. In questo articolo esploreremo in dettaglio le caratteristiche, le potenzialità e le implicazioni di questa innovativa famiglia di modelli Llama 3.1.
Le caratteristiche di Llama 3.1
Llama 3.1 rappresenta un significativo passo avanti rispetto alla precedente generazione Llama 3, rilasciata solo pochi mesi fa. Il modello è stato rilasciato in tre versioni open source: 8B, 70B e 405B. Ovvero una versione da 8 miliardi, una da 70 miliardi e una da 405 miliardi di parametri. Supportano per ora otto lingue: inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e thailandese.
I modelli 8B e 70B aggiornati offrono prestazioni migliorate e nuove capacità. Ma è il gigante da 405 miliardi di parametri, in particolare, a proporsi come un vero e proprio game-changer nel panorama dell’IA open source. Secondo Meta, Llama 3.1 405B è il primo modello disponibile apertamente in grado di competere con i migliori modelli di intelligenza artificiale proprietari; in termini di conoscenza generale, governabilità, matematica, utilizzo di strumenti e traduzione multilingue.
Il modello 405B vanta 405 miliardi di parametri; un numero che supera di gran lunga i suoi predecessori open source e si avvicina alle capacità dei modelli proprietari più avanzati. Questa complessità permette a Llama 3.1 di affrontare una vasta gamma di compiti; una precisione e una flessibilità senza precedenti. Il modello 405B è stato addestrato su un dataset di oltre 15 trilioni di token; sono state utilizzate 16.000 GPU NVIDIA H100.
Finestra di contesto 128.000 token
Tutti e tre i modelli hanno una finestra di contesto di 128.000 token, che equivale a processare circa 4 o 5 documenti pdf di piccole/medie dimensioni. Un aumento sostanziale rispetto agli 8.000 token della versione precedente. Questa caratteristica permette ai modelli di gestire e comprendere porzioni di testo molto più ampie; permette di migliorare notevolmente le prestazioni in compiti come la generazione di codice, la sintesi di documenti lunghi e l’analisi di conversazioni estese.
Meta afferma che l’ampliamento della finestra di contesto è stato ottenuto senza compromettere la qualità dei modelli. Anzi, sostiene che le capacità di ragionamento siano state significativamente potenziate.
Una delle innovazioni chiave di Llama 3.1 è l’implementazione di un nuovo tokenizer che codifica il linguaggio in modo molto più efficiente. Inoltre, Meta ha applicato la “grouped query attention”, un metodo per migliorare l’efficienza dell’inferenza del modello.
Prestazioni
Le prestazioni di Llama 3.1 405B sono notevoli; secondo i benchmark forniti da Meta, il modello supera sistemi proprietari più grandi come GPT-4o di OpenAI e Claude 3.5 Sonnet di OpenAI. Anche se c’è da considerare che Anthropic ancora deve rilasciare il suo modello più grande, ovvero Claude Opus 3.5.
In particolare, Llama 3.1 405B ottiene punteggi competitivi o superiori a GPT-4 e Claude 3.5 Sonnet in diversi benchmark standard. Ad esempio, nel test MATH, che valuta la capacità di risolvere problemi matematici complessi, Llama 3.1 405B ha ottenuto un punteggio di 73,8; vicino al 76,6 di GPT-4o e superiore al 71,1 di Claude 3.5 Sonnet.
Nel benchmark MMLU, che copre una vasta gamma di materie accademiche, il modello di Meta ha raggiunto un punteggio di 88,6; praticamente alla pari con GPT-4o (88,7) e leggermente superiore a Claude 3.5 Sonnet (88,3).
Questi risultati, se confermati da valutazioni indipendenti e nell’uso reale, potrebbero rappresentare un punto di svolta per l’IA open source. Llama 3.1 405B dimostrerebbe infatti che è possibile sviluppare modelli aperti con prestazioni paragonabili o superiori ai sistemi proprietari più avanzati.
È importante notare che, nonostante le sue dimensioni, Llama 3.1 405B è ancora più piccolo di alcuni concorrenti; GPT-4, ad esempio, avrebbe circa 1,8 trilioni di parametri. Ciononostante, Meta sostiene che il suo modello possa competere alla pari con questi giganti in una vasta gamma di compiti.
L’impatto di Llama 3.1 sul panorama dell’IA
L’introduzione di Llama 3.1 potrebbe avere un impatto significativo sul panorama dell’IA. Meta sta sfidando direttamente il modello di business delle aziende che offrono modelli IA proprietari, come OpenAI e Anthropic. Rendendo disponibile un modello di tale potenza con una licenza open source, Meta sta democratizzando l’accesso alle tecnologie IA avanzate.
Questa potrebbe accelerare l’innovazione nel campo dell’IA; gli sviluppatori e le aziende avranno accesso a un modello di punta che possono personalizzare e adattare alle loro esigenze specifiche. Ciò potrebbe portare a una proliferazione di applicazioni IA in vari settori, dalla sanità all’istruzione, dalla finanza all’intrattenimento.
Tuttavia, l’approccio open source di Meta solleva anche alcune preoccupazioni. La facilità di accesso a un modello così potente potrebbe aumentare i rischi di uso improprio o abuso dell’IA.
L’impatto di Llama 3.1 si estende anche alla competizione nel mercato dell’IA. Meta sta sfidando direttamente i leader del settore come OpenAI e Google; questa concorrenza potrebbe portare a un’accelerazione dell’innovazione e a una riduzione dei costi per gli utilizzatori finali delle tecnologie IA.
La visione di Meta per il futuro dell’AI
La strategia di Meta con Llama 3.1 va oltre il semplice rilascio di un nuovo modello IA. Zuckerberg ha delineato una visione ambiziosa per il futuro dell’intelligenza artificiale, paragonando l’approccio open source di Meta al successo di Linux nel campo dei sistemi operativi.
Nella newsroom di Meta, Zuckerberg afferma che i modelli IA open source supereranno e miglioreranno più rapidamente rispetto ai modelli proprietari.
Per realizzare questa visione, Meta sta collaborando con oltre due dozzine di aziende; tra cui Microsoft, Amazon, Google e NVIDIA, per aiutare gli sviluppatori a implementare le proprie versioni di Llama 3.1. L’azienda sta anche rilasciando i pesi del modello; questo permette alle aziende di addestrarlo su dati personalizzati e di ottimizzarlo secondo le proprie esigenze.
Meta sta inoltre lavorando allo sviluppo di quello che chiama “Llama Stack“; un’API per strumenti che possono essere utilizzati per perfezionare i modelli Llama, generare dati sintetici e costruire applicazioni “agentiche”. Questa iniziativa mira a creare un ecosistema completo intorno a Llama, facilitando lo sviluppo e l’implementazione di applicazioni IA avanzate.
Implentazioni di Llama 3.1
Le applicazioni potenziali di Llama 3.1 sono vaste e diverse. Il modello è in grado di generare testo, rispondere a domande, analizzare documenti, scrivere codice e persino eseguire ragionamenti matematici complessi. Questa versatilità lo rende adatto a una vasta gamma di settori e casi d’uso.
Meta sta già implementando Llama 3.1 nei suoi prodotti. L’assistente IA di Meta, basato su Llama 3.1, sarà presto disponibile su WhatsApp, Instagram e Facebook.
Sebbene Llama 3.1 8B e 70B possono essere eseguiti in computer locali con generose quantità di RAM (soprattutto per il modello 70B) questo non è praticabile per un utente comune per il modello 405B. Il modello 8B è ideale per chi ha risorse computazionali limitate; eccelle in compiti come il riassunto del testo, la classificazione, l’analisi e la traduzione linguistica a bassa latenza. Il modello 70B è perfetto per la creazione di contenuti, l’IA conversazionale, la comprensione del linguaggio, la ricerca e sviluppo e le applicazioni aziendali.
Il modello 405B richiede invece un super computer aziendale; un pc va ben oltre l’hardware di un computer casalingo o da ufficio. Il modello richiede circa 810 GB di memoria per funzionare alla piena precisione di 16 bit. Per questo Meta ha rilasciato anche una versione quantizzata a 8 bit, che dimezza approssimativamente il fabbisogno di memoria.
Llama 3.1 in cloud
Per gli utenti medi che non hanno un super computer con queste caratteristiche, il chatbot del modello 405B è disponibile su Meta.ai in cloud. Purtroppo il servizio ancora non è disponibile in Europa per questioni normative. Se vuoi provarlo o utilizzarlo a fondo puoi utilizzare servizi aggregatori di modelli IA come Perplexity e POE. Lo hanno già incluso nei loro servizi in abbonamento. Curiosamente questi servizi permettono di accedere al modello Llama 3.1 405B senza limitazioni geografiche.
Se invece cerchi un modo veloce e gratuito per testare rapidamente Llama 3.1 8B e 70B in remoto , la soluzione è Groq.com .
Llama 3.1: conclusioni
L’annuncio di Meta ha suscitato grande interesse nella comunità tech e non solo; rappresenta infatti un tentativo ambizioso di rendere l’IA all’avanguardia accessibile a un pubblico più ampio di sviluppatori e ricercatori. Llama 3.1 non è solo un aggiornamento incrementale; è un salto qualitativo che potrebbe ridefinire gli equilibri nel settore dell’IA generativa.
Tuttavia, questa mossa non è priva di rischi e sfide. Le questioni etiche, di privacy e di sicurezza dovranno essere affrontate in modo proattivo per garantire che lo sviluppo e l’implementazione di questi modelli IA avanzati avvengano in modo responsabile e benefico per la società.
La visione di Zuckerberg di un futuro dell’IA aperto e collaborativo è audace e potenzialmente trasformativa. Se realizzata con successo, potrebbe portare a un’accelerazione senza precedenti nello sviluppo dell’IA; benefici che si estendono oltre il settore tecnologico.
Mark Zuckerberg è confidente che il suo chatbot Meta.ai supererà per numero di utenti qualunque servizio di chatbot entro fine anno; incluso ChatGPT di Open.AI che conta circa cento milioni di utilizzatori.
Vediamo come risponderanno a breve i sistemi proprietari di OpenAI e Anthropic. E attenzione anche al progetto aperto Grok della azienda X.ai, su cui Elon Musk sta investendo milioni di dollari. Considerando l’antipatia e le divergenze ideologiche di Elon Musk nei confronti di Zuckerberg e di Sam Altman (CEO di OpenAI), potrebbero esserci sviluppi interessanti e inattesi.