Tecnologie

MiniMax M2.7: la prima AI che si autoevolve da sola

Un'AI che analizza i propri errori, riscrive il suo codice e migliora da sola. MiniMax M2.7 è reale, disponibile adesso, e cambia le regole del gioco nel 2026.

Cosmin-Anton Mihoc
10 min di lettura
MiniMax M2.7: la prima AI che si autoevolve da sola

Indice dei contenuti

Immagina un sistema software che, invece di aspettare il prossimo aggiornamento da parte degli ingegneri, si siede davanti ai propri errori, ne studia le cause, riscrive il codice interno e si rimette al lavoro — da solo, per più di cento iterazioni consecutive. Non è fantascienza. È quello che MiniMax M2.7 ha fatto durante il proprio addestramento, e il risultato è disponibile oggi via API a un prezzo che ha pochi rivali sul mercato.

MiniMax M2.7, rilasciato il 18 marzo 2026, segna un punto di discontinuità nella storia dei modelli linguistici. Non perché sia semplicemente più grande o più veloce del predecessore M2.5 (uscito a febbraio 2026), ma perché introduce un paradigma nuovo: un'intelligenza artificiale che partecipa attivamente alla propria evoluzione. In questo articolo esploriamo nel dettaglio cos'è, come funziona, cosa dicono i benchmark e — soprattutto — cosa significa tutto questo per sviluppatori e aziende.

Cos'è MiniMax M2.7 e perché si parla di autoevoluzione

MiniMax è una startup cinese fondata nel 2021 con una forte tradizione nei modelli multimodali e nella generazione video (Hailuo). Con la serie M2, l'azienda ha consolidato la propria posizione come player di frontiera nel settore degli LLM, costruendo una reputazione solida grazie a modelli open-source efficienti e a un ottimo rapporto prestazioni/costo.

M2.7 è definito dal team stesso come "il primo modello che partecipa profondamente alla propria evoluzione". La frase è più concreta di quanto sembri. Durante la fase di addestramento con reinforcement learning, una versione interna del modello è stata utilizzata per costruire e gestire in autonomia l'intero harness di ricerca: pipeline di dati, ambienti di training, infrastruttura di valutazione, memoria persistente e collaborazione tra team di ricerca diversi.

Il risultato? M2.7 ha gestito autonomamente tra il 30% e il 50% del workflow di sviluppo che prima richiedeva ricercatori umani. Non si tratta di automazione di compiti ripetitivi: il modello analizzava traiettorie di fallimento, pianificava modifiche al codice e le eseguiva in cicli iterativi che hanno superato le 100 iterazioni consecutive, ottenendo un miglioramento del 30% sui set di valutazione interni.

Come funziona il ciclo di auto-miglioramento

Il loop di autoevoluzione di M2.7 segue un processo strutturato in cinque fasi:

  • Analizza le traiettorie di fallimento — identifica perché un task specifico è andato storto
  • Pianifica le modifiche — sviluppa una strategia per correggere il problema sottostante
  • Modifica il codice dello scaffold — riscrive direttamente il codice del proprio agente harness
  • Esegue le valutazioni — testa automaticamente la nuova versione
  • Decide se mantenere o ripristinare — prende una decisione autonoma in base ai risultati ottenuti

In questo processo, M2.7 ha scoperto ottimizzazioni non banali: la ricerca sistematica della combinazione ottimale di parametri di sampling (temperatura, frequency penalty, presence penalty), la progettazione di workflow più specifici (ad esempio, cercare automaticamente pattern di bug simili in altri file dopo una correzione), e l'aggiunta di meccanismi di loop detection allo scaffold dell'agente.

Una precisazione importante, però: questa autoevoluzione avviene durante il training, non durante l'utilizzo da parte dell'utente. Come chiarisce la guida tecnica di Tom's Hardware, M2.7 non apprende in tempo reale dalle conversazioni. Il confine tra training e deployment, tuttavia, si è fatto molto più sottile rispetto ai modelli tradizionali.

Architettura tecnica: Mixture-of-Experts e Lightning Attention

Sotto il cofano, M2.7 è costruito su un'architettura Mixture-of-Experts (MoE) con 230 miliardi di parametri totali, ma con soli circa 10 miliardi di parametri attivi per ogni token generato. Questo approccio lo rende significativamente più efficiente rispetto ai modelli Transformer densi di dimensioni equivalenti.

La seconda innovazione architetturale è il meccanismo di Lightning Attention, che gestisce contesti lunghi con complessità lineare anziché quadratica. Questo si traduce in prestazioni migliori e costi inferiori su task che richiedono finestre di contesto estese — esattamente il tipo di lavoro che caratterizza i workflow agentici avanzati.

Due versioni API: standard e highspeed

MiniMax offre due varianti del modello via API:

  • MiniMax-M2.7 — versione standard, bilanciata tra accuratezza e velocità
  • MiniMax-M2.7-highspeed — stessi risultati, velocità di output del 66% superiore (100 token/s), ideale per assistenti di coding interattivi e pipeline ad alto throughput

Entrambe supportano cache automatica completa senza configurazioni aggiuntive.

Benchmark: dove si posiziona M2.7 nel 2026

I numeri parlano chiaro. Ecco le performance certificate da MiniMax sui principali benchmark di settore:

Benchmark MiniMax M2.7 Riferimento competitivo
SWE-Pro (coding avanzato) 56,22% GPT-5.3-Codex: ~56%
VIBE-Pro (delivery end-to-end) 55,6% Claude Opus 4.6: ~57%
Terminal Bench 2 (engineering systems) 57,0% Top tier
SWE Multilingual 76,5% Leader open-source
MLE Bench Lite (ML competitions 24h) 66,6% medal rate Gemini 3.1: 66,6% | Opus 4.6: 75,7%
GDPval-AA ELO 1495 Il più alto tra i modelli open-source
PinchBench (Kilo) 86,2% GPT-5.4: 86,4% | Claude Opus: ~87,4%

Su PinchBench — un benchmark per task di coding agentico in ambiente reale — M2.7 ha ottenuto il 5° posto assoluto, con un balzo rispetto all'86,2% di M2.5 (82,5%), entrando nel tier dei migliori modelli al mondo. Come nota il team di Kilo AI, il modello tende a leggere in modo estensivo prima di scrivere: analizza file correlati, traccia catene di dipendenze, esamina il contesto circostante. Un approccio che su task complessi produce risultati eccellenti, ma che può consumare più token su problemi semplici.

Se stai già lavorando con Google Gemini 3.1 Pro o con Claude nei tuoi workflow, M2.7 rappresenta un'alternativa concreta da testare.

Agent Teams e OpenRoom: oltre il singolo modello

Una delle funzionalità più interessanti di M2.7 è la capacità di operare in contesti multi-agente. MiniMax ha introdotto il concetto di "Agent Teams": gruppi di agenti AI che collaborano su sfide complesse, come la partecipazione autonoma a competizioni di machine learning o l'ottimizzazione di workflow professionali.

In un test autonomo di 24 ore su 22 competizioni MLE Bench Lite, M2.7 ha ottenuto 9 medaglie d'oro, 5 d'argento e 1 di bronzo, per un medal rate medio del 66,6% su tre prove — risultato che pareggia Gemini 3.1 e si avvicina al benchmark di Opus 4.6 (75,7%).

Per comprendere meglio il contesto degli agenti AI in ambito aziendale, è utile sapere che M2.7 si posiziona come backbone per sistemi multi-agente reali, non solo come strumento di chat avanzato.

OpenRoom: l'interazione AI oltre il testo

MiniMax ha anche rilasciato in open source OpenRoom, una demo interattiva che libera l'interazione con gli agenti AI dai classici stream di testo, collocandola in uno spazio Web GUI dove tutto è cliccabile. I personaggi AI non sono più freddi blocchi di prompt: la conversazione genera feedback visivi in tempo reale, i personaggi interagiscono attivamente con il loro ambiente e mantengono coerenza emotiva e di identità nel tempo. Il progetto è disponibile su GitHub: github.com/MiniMax-AI/OpenRoom.

Quanto costa MiniMax M2.7? Il punto di forza del prezzo

Il pricing è uno dei punti più discussi di M2.7. MiniMax ha mantenuto gli stessi prezzi di M2.5, nonostante le performance significativamente superiori:

  • Input: $0,30 per milione di token
  • Output: $1,20 per milione di token
  • Cache: supporto automatico, nessuna configurazione necessaria

Per dare un ordine di grandezza: a parità di input, M2.7 costa circa 10-12 volte meno di Claude Sonnet sull'input e circa 5-6 volte meno sull'output. Secondo VentureBeat, solo xAI Grok 4.1 Fast è più economico tra i modelli frontier. Per le aziende che necessitano di reasoning avanzato su larga scala, questo si traduce in margini operativi radicalmente diversi.

Disponibile anche via OpenRouter e direttamente tramite MiniMax API Platform, con due modalità di fatturazione: Pay-As-You-Go e Token Plan (con sconto 10% incluso).

Come integrare MiniMax M2.7 nei tuoi workflow

M2.7 è stato progettato per funzionare come backend per gli strumenti di sviluppo che già usi. La compatibilità è ampia:

Claude Code e VS Code

MiniMax espone un endpoint compatibile con lo schema OpenAI, non con l'SDK Anthropic nativo. Per integrarlo in Claude Code, è sufficiente modificare il file di configurazione ~/.claude/settings.json impostando ANTHROPIC_BASE_URL su https://api.minimax.io/anthropic. Gli utenti internazionali usano questo endpoint; gli utenti in Cina usano api.minimaxi.com.

Cursor, Kilo Code, OpenClaw

Tutti e tre supportano MiniMax M2.7 in modo nativo. In Cursor è sufficiente aggiungere il modello dalla sezione Settings → Models. In Kilo Code (estensione VS Code) il setup richiede circa 60 secondi. OpenClaw — un OS per agenti AI open-source — permette di usare M2.7 come motore per agenti che operano su Telegram, WhatsApp, Discord e altri canali.

Vale la pena ricordare che M2.7 ha ottenuto un tasso di aderenza del 97% su 40 skill complesse (>2.000 token), il che lo rende particolarmente affidabile per workflow agentici multi-step dove la coerenza delle istruzioni è critica.

Se hai già lavorato con Claude Code per review e merge automatici, testare M2.7 come motore alternativo è un esperimento che vale il tempo investito.

MiniMax, Anthropic e il caso DeepSeek: il contesto geopolitico

Non si può parlare di MiniMax senza citare la controversia che ha visto l'azienda coinvolta nel caso Anthropic vs DeepSeek sulla distillazione di Claude. MiniMax era tra le aziende citate nell'accusa di aver usato account falsi per raccogliere dati da Claude.

Questa tensione geopolitica non è solo un dettaglio biografico: riflette una corsa all'efficienza nella quale le startup cinesi come MiniMax stanno dimostrando di poter competere — e in alcuni casi superare — i modelli occidentali a una frazione del costo. M2.7 ne è la dimostrazione più concreta: prestazioni da tier-1 a prezzi da tier-3.

Come osserva Rivista AI, comunicare pubblicamente di aver automatizzato la ricerca in RL non è solo marketing: è un segnale strategico che indica al mercato che il gioco sta cambiando livello. Le organizzazioni che adottano modelli in grado di migliorare i propri strumenti potrebbero trovarsi su una curva di iterazione molto più rapida di quelle che si affidano a un perfezionamento statico.

Cosa cambia per sviluppatori e PMI italiane

Per uno sviluppatore full-stack o per una piccola azienda che sta costruendo applicazioni basate su LLM, M2.7 apre scenari concreti:

  • Backend agentico low-cost: costruire un assistente AI per la propria PMI con M2.7 come motore costa una frazione rispetto alle alternative GPT-4 o Claude Sonnet, senza sacrificare le performance di reasoning
  • Integrazione immediata: compatibile con gli strumenti esistenti (Claude Code, Cursor, OpenRouter) senza riscrivere l'infrastruttura
  • Agent Teams per processi aziendali: orchestrare più agenti collaborativi per gestire pipeline di dati, reportistica automatica, o supporto clienti avanzato
  • Coding avanzato: con un 86,2% su PinchBench, è uno strumento serio per assistenza allo sviluppo, debugging e refactoring su codebase complesse

Se stai valutando come strutturare processi di automazione AI per risparmiare ore di lavoro ogni settimana, MiniMax M2.7 è uno degli strumenti più interessanti del momento per il rapporto qualità/prezzo.

Leggi anche

Conclusione: l'autoevoluzione è solo l'inizio

MiniMax M2.7 non è "solo" un altro grande modello linguistico. È il primo segnale concreto e misurabile di un cambio di paradigma: modelli che non aspettano gli ingegneri umani per migliorare, ma partecipano attivamente al proprio ciclo di sviluppo. Il fatto che questo accada con un costo di $0,30 per milione di token — uno dei più bassi tra i frontier model del 2026 — rende la proposta ancora più difficile da ignorare.

Il futuro non sarà fatto di macchine che si riscrivono completamente da sole in un gesto quasi artistico. Sarà fatto di sistemi sempre più efficienti nel correggere i propri errori, ottimizzare le proprie strategie e adattarsi a contesti nuovi — in modo silenzioso, incrementale, inarrestabile. MiniMax M2.7 è il primo passo concreto su questa strada.

Vuoi integrare modelli AI avanzati come M2.7 nella tua azienda o nel tuo progetto? Contattami per una consulenza: costruiamo insieme il workflow giusto per le tue esigenze.

Condividi questo articolo
Hai domande? Contattami

Pronto a dare vita al tuo progetto?

Contattami per discutere della tua idea e ricevere una consulenza gratuita.

Iniziamo insieme