inception/mercury-2-20260304
Mercury 2 è un LLM di ragionamento estremamente veloce, nonché il primo LLM di diffusione del ragionamento (dLLM).
Anziché generare token in sequenza, Mercury 2 produce e perfeziona più token in parallelo, raggiungendo oltre 1.000 token/sec su GPU standard. Mercury 2 è oltre 5 volte più veloce dei principali LLM ottimizzati per la velocità come Claude 4.5 Haiku e GPT 5 Mini, a una frazione del costo.
Mercury 2 supporta livelli di ragionamento configurabili, contesto a 128.000 parole, utilizzo di strumenti nativi e output JSON allineato allo schema. Progettato per flussi di lavoro di programmazione in cui la latenza è un fattore critico.
Prev Post inception/mercury
Next Post inception/mercury-coder-small-beta






