You Here!
  • Home
  • openai/gpt-oss-120b
gpt-oss-120b è un modello linguistico Mixture-of-Experts (MoE) open-weight a 117 miliardi di parametri, sviluppato da OpenAI e progettato per casi d’uso di produzione ad alto ragionamento, agentici e di uso generale. Attiva 5,1 miliardi di parametri per ogni passaggio in avanti ed è ottimizzato per funzionare su una singola GPU H100 con quantizzazione nativa MXFP4. Il modello supporta una profondità di ragionamento configurabile, l’accesso completo alla catena di pensiero e l’utilizzo di strumenti nativi, tra cui la chiamata di funzioni, la navigazione e la generazione di output strutturato.