inception/mercury-2-20260304

4 Aprile 2026 CopySync Comments Off
Mercury 2 è un LLM di ragionamento estremamente veloce, nonché il primo LLM di diffusione del ragionamento (dLLM). Anziché generare token in sequenza, Mercury 2 produce e perfeziona più token in parallelo, raggiungendo oltre 1.000 token/sec su GPU standard. Mercury 2 è oltre 5 volte più veloce dei principali LLM ottimizzati per la velocità come Claude 4.5 Haiku e GPT 5 Mini, a una frazione del costo. Mercury 2 supporta livelli di ragionamento configurabili, contesto a 128.000 parole, utilizzo di strumenti nativi e output JSON allineato allo schema. Progettato per flussi di lavoro di programmazione in cui la latenza è un fattore critico.