Mentre molti erano in attesa dell’uscita di GPT-5, ieri a sorpresa OpenAI ha presentato due nuovi modelli linguistici open source: gpt-oss-120b e gpt-oss-20b dove oss è l’acronimo di Open-Source Software. Questi modelli sono disponibili con licenza Apache 2.0; una scelta che apre scenari inediti per chi desidera sfruttare l’intelligenza artificiale in modo diretto, locale e libero da infrastrutture cloud.

Per la prima volta dal rilascio di GPT-2 nel 2019, OpenAI consente l’accesso completo al proprio lavoro in versione open-weight; i modelli si possono scaricare, modificare, ottimizzare ed eseguire su hardware personale. Questo approccio consente di creare soluzioni AI realmente personalizzate, adattabili a specifiche esigenze operative. Il modello da 20 miliardi di parametri può essere avviato su un portatile con 16 GB di RAM; la versione più potente da 120 miliardi, invece, richiede una GPU con 80 GB di memoria, come una Nvidia H100 o simili.
Con questi due modelli, OpenAI si rivolge a sviluppatori, enti di ricerca, piccole aziende e realtà pubbliche; l’idea è quella di garantire autonomia, protezione dei dati e alte performance, anche in assenza di connettività permanente ai server cloud. Si apre così la possibilità di costruire architetture AI distribuite dove ogni nodo può eseguire calcoli in locale; mantenendo il pieno controllo delle informazioni sensibili. Questo aspetto si rivela particolarmente utile per chi lavora in settori come medicina, finanza, amministrazione pubblica o progetti di edge computing. L’efficienza dei 2 nuovi modelli può anche essere provata online a questo indirizzo .

gpt-oss-120b: prestazioni elevate su hardware avanzato
Il gpt-oss-120b raggiunge livelli comparabili a OpenAI o4-mini nelle prove di ragionamento; queste includono sfide logiche, analisi testuali e scenari multi-step ad alta complessità. Grazie alla sua struttura a Mixture-of-Experts, il modello attiva soltanto 5,1 miliardi di parametri per token; questa architettura selettiva riduce l’impatto computazionale pur mantenendo una qualità elevata della generazione.
Può gestire contesti fino a 128.000 token; questa caratteristica lo rende adatto a lavorare su testi lunghi come saggi accademici o manuali tecnici in pdf. Le sue capacità includono un ragionamento strutturato (chain-of-thought), l’integrazione di strumenti esterni e la generazione coerente di codice in vari linguaggi.
Uno degli aspetti più utili è la possibilità di regolare il livello di “ragionamento“; si può scegliere tra modalità bassa, media o alta, a seconda delle risorse disponibili o del tipo di attività. Questo meccanismo permette di bilanciare precisione e velocità, soprattutto nei flussi di lavoro automatizzati.
Chi opera nei settori della robotica, del machine learning applicato o dello sviluppo di software complesso può trarre grandi benefici da questo modello; è stato infatti testato su API complesse, funzionalità agentiche e benchmark di nuova generazione come Tau-Bench. I risultati ottenuti sono simili, in molti casi, a quelli delle versioni chiuse e proprietarie di fascia alta. Questo dimostra come gpt-oss-120b sia una risorsa interessante, adatta anche a progetti professionali e ambienti di ricerca avanzata. A patto di avere un hardware potente con almeno una GPU H100 con 80GB di RAM.
gpt-oss-20b: l’intelligenza su laptop e mini-pc
Il modello gpt-oss-20b (20 miliardi di parametri), pur avendo una dimensione più contenuta rispetto al fratello maggiore, sorprende per la sua reattività e per le capacità avanzate di ragionamento; è uno strumento estremamente agile. Attiva 3,6 miliardi di parametri per token (quindi anche lui con struttura Mixture-of-Experts). Secondo quanto riporta OpenAI è eseguibile su computer portatili dotati di 16 GB di RAM; accessibile anche a chi non dispone di workstation professionali. Per la sua esecuzione puoi usare strumenti come Ollama, LMStudio, Nvidia Chat with RTX o tanti altri.

Durante i test comparativi si colloca tra OpenAI o3-mini e o4-mini nei benchmark legati al reasoning. Può elaborare file complessi come PDF e CSV direttamente in locale; consente inoltre l’uso di API, la generazione di output strutturati e l’esecuzione di codice Python in tempo reale.
E’ ideale per progetti personali, startup in fase iniziale o anche per essere eseguito su dispositivi mobili o workstation di fascia alta. Il modello si adatta perfettamente anche agli ambienti desktop professionali; grazie all’integrazione con strumenti di sviluppo come Visual Studio Code, offre un’esperienza d’uso flessibile e scalabile.
Licenza open e sicurezza ai massimi livelli
Entrambi i modelli sono distribuiti con licenza Apache 2.0, il che permette l’uso anche commerciale, senza limitazioni. OpenAI ha investito tempo in test di sicurezza rigorosi; oltre alle valutazioni standard, ha sottoposto una versione ottimizzata di gpt-oss-120b a un processo antagonista (red teaming) da 500.000 dollari. I risultati sono stati positivi: prestazioni solide anche nelle suite di sicurezza come HealthBench. Questo garantisce che anche ambienti regolamentati, come sanità o pubblica amministrazione, possano integrarli nei propri sistemi.
Inoltre, i modelli sono compatibili con il framework Harmony; è progettato per offrire risposte strutturate e integrazioni fluide in flussi di lavoro agentici. La combinazione tra trasparenza, controllo locale e compatibilità con tool moderni amplia le possibilità per chi desidera costruire sistemi AI affidabili e reattivi su misura.
Modelli in locale e esigenze hardware
La crescita dei modelli open-source eseguibili in locale sta cambiando drasticamente la percezione dell’hardware considerato necessario fino a poco tempo fa. Quelli che venivano definiti “PC AI”, spesso visti come eccessivi o di nicchia, torneranno sotto i riflettori. Sempre più persone iniziano a considerare questi sistemi come una scelta sensata per chi vuole elaborare modelli direttamente sul proprio dispositivo, senza dipendere dal cloud.
Finora, per molte applicazioni professionali su Windows, 16 GB di RAM erano più che sufficienti; oggi, chi intende lavorare localmente con modelli linguistici avanzati guarda con interesse a configurazioni con GPU discrete e RAM di sistema di almeno 64 GB.
Questa tendenza porterà inevitabilmente a una maggiore richiesta di hardware specializzato, soprattutto nei settori creativi, scientifici o di sviluppo software, dove l’autonomia computazionale diventa un vantaggio.
Prospettive future e reazioni della community
Il rilascio dei modelli gpt-oss ha già scatenato un’ondata di discussioni su Reddit; in particolare nei thread di r/OpenAI e r/ChatGPT. Sviluppatori, appassionati e curiosi stanno già condividendo le proprie impressioni. I toni sono per lo più positivi, con una generale sorpresa per la velocità del modello da 20B.
Con schede NVIDIA, come la RTX 3060 o la 4070 Ti il modello 20B gira in locale in modo sufficientemente fluido; è stato testato con task produttivi con domande su PDF, parsing di dati in CSV, scrittura di codice Python e generazione di documenti tecnici. Molti hanno lodato OpenAI per aver finalmente offerto qualcosa che onora il nome “Open”.
La mossa di OpenAI va interpretata anche come una risposta diretta all’espansione dei modelli open cinesi come DeepSeek, Qwen 3, GLM-4.5 , Kimi e alla popolarità crescente dei modelli open source di Grok, LLaMA e Mistral. Con gpt-oss, OpenAI si allinea a un nuovo paradigma di AI decentralizzata, aperta e controllabile direttamente dal creatore del progetto.
Per chi lavora in ambito strettamente professionale, soprattutto con l’arrivo imminente di GPT-5, questi modelli open-source saranno comunque una scelta secondaria; tuttavia offrono un’alternativa per chi cerca indipendenza, controllo dei dati e costi ridotti.