gpt-oss-20b è un modello open-weight a 21 miliardi di parametri rilasciato da OpenAI con licenza Apache 2.0. Utilizza un’architettura Mixture-of-Experts (MoE) con 3,6 miliardi di parametri attivi per passaggio in avanti, ottimizzata per un’inferenza a bassa latenza e per la implementabilità su hardware consumer o a singola GPU. Il modello è addestrato nel formato di risposta Harmony di OpenAI e supporta la configurazione del livello di ragionamento, il fine-tuning e le capacità agentiche, tra cui la chiamata di funzioni, l’utilizzo di strumenti e gli output strutturati.






