OpenAI rilascia due modelli AI gratuiti che funzionano anche senza internet
OpenAI ha appena compiuto un passo inaspettato. Ha rilasciato due modelli linguistici open source che si possono usare direttamente sul proprio computer, anche senza connessione a internet. Sono completamente gratuiti e utilizzabili anche per scopi commerciali. Una mossa che potrebbe cambiare il modo in cui interagiamo con l’intelligenza artificiale nella quotidianità.
I nuovi modelli si chiamano gpt-oss-120b e gpt-oss-20b. Nonostante i nomi poco accattivanti, portano capacità avanzate di ragionamento e assistenza direttamente sui computer personali. Non servono abbonamenti, API, né accessi a server esterni.
Un ritorno all’open source per OpenAI
Con questo annuncio, OpenAI torna a rilasciare modelli open-weight per la prima volta dopo GPT-2, pubblicato nel 2019. E lo fa con due modelli di fascia alta, pronti per essere scaricati, modificati e utilizzati localmente.
L’arrivo di concorrenti come DeepSeek e altri progetti open sempre più potenti ha probabilmente spinto OpenAI a rispondere con una proposta concreta e accessibile. Così nascono i due modelli gpt-oss, entrambi rilasciati con licenza Apache 2.0.
I due modelli differiscono principalmente per dimensioni e requisiti:
gpt-oss-20b è pensato per l’uso personale. Richiede almeno 16 GB di memoria video (VRAM o unificata) e funziona su Windows, macOS e Linux. È già compatibile con strumenti come Ollama, llama.cpp e Microsoft AI Foundry Local, che offrono interfacce semplici o personalizzabili.
gpt-oss-120b, invece, è pensato per sistemi professionali. Richiede almeno 80 GB di memoria e una workstation con GPU di fascia alta. Offre prestazioni vicine ai modelli GPT-4, ma non è adatto ai computer consumer.
Entrambi i modelli sono già stati integrati da partner come Microsoft, Hugging Face, Snowflake e altri, per essere utilizzati in ambienti locali o integrati in piattaforme professionali.
gpt-oss-20b funziona davvero sul tuo computer
Il modello da 20 miliardi di parametri è il più interessante per l’uso quotidiano. Può funzionare su laptop con Apple Silicon (M1 Pro, M2 Pro e successivi), PC da gaming e workstation leggere. Non è necessario essere sviluppatori esperti per iniziare.
Funziona anche senza connessione a internet. È perfetto per chi vuole maggiore controllo sulla privacy, sperimentare con l’intelligenza artificiale o semplicemente chattare con un modello potente senza limiti.
Tra le opzioni disponibili:
Ollama è un’app gratuita e semplicissima da usare. Su macOS basta installarla, selezionare “gpt-oss:20b” e iniziare a conversare.
Su Windows con GPU NVIDIA (minimo 16 GB VRAM), Ollama è disponibile anche in versione per PC. Altre alternative sono llama.cpp o Microsoft AI Foundry Local per chi cerca più controllo o ambienti professionali.
Gli utenti esperti possono scaricare direttamente i modelli da Hugging Face e integrarli nei propri flussi di lavoro.
Per chi vuole solo dare un’occhiata, c’è anche una versione accessibile da browser, utile per test rapidi ma meno adatta per chi cerca privacy e prestazioni elevate.