Un modello linguistico come GPT o Claude, fino a non molto tempo fa, si limitava a rispondere a domande o generare testo. Poi sono arrivati i coding agent come Aider e Claude Code, capaci di leggere file, eseguire comandi e modificare codice in autonomia.
Oggi framework come DeerFlow 2.0 orchestrano un intero team di agenti AI che lavorano in parallelo, ciascuno con la propria finestra di contesto, i propri strumenti e un ambiente di esecuzione isolato. Rilasciato da ByteDance a fine febbraio 2026 con licenza MIT, DeerFlow ha raggiunto il primo posto su GitHub Trending in poche ore e oggi conta 89.000 stelle. Il suo nome è l’acronimo di Deep Exploration and Efficient Research Flow e la definizione ufficiale è “SuperAgent harness”: un’infrastruttura runtime che coordina agenti specializzati, gestisce memoria persistente, carica skill modulari ed esegue codice in sandbox Docker isolate.
DeerFlow 2.0 non è un semplice wrapper attorno a un LLM: si tratta di una riscrittura completa della versione 1.x, costruita su LangGraph 1.0 e LangChain, e progettata per task che durano da minuti a ore. Precisiamo subito un punto: DeerFlow non è un IDE. È un framework multi-agente e non assomiglia a Cursor o a VS Code con estensioni come Cline o Multi; non ci scrivi codice al suo interno.
Gli affidi un task in linguaggio naturale e lui lo esegue in background orchestrando sub-agenti, sandbox e skill. Può scrivere codice, ma può anche fare ricerca sul web, generare report, preparare slide, analizzare dati fino a scrivere un intero libro.
In questo articolo vediamo cosa lo rende diverso da qualsiasi altra soluzione, come installarlo e quando conviene usarlo.
Lead agent, sub-agenti e sandbox: come funziona l’architettura a tre livelli
Cosa distingue DeerFlow da un normale chatbot o da un coding agent tradizionale come Claude Code? La risposta sta nella sua architettura a tre attori. Al vertice c’è il lead agent, l’unico componente che vede il quadro completo del task. Riceve la richiesta, la scompone in sottoproblemi, decide quali sub-agenti attivare e infine sintetizza i risultati in un output coerente.
Sotto di lui operano i sub-agenti, istanze specializzate che lavorano in parallelo, ciascuna con la propria finestra di contesto isolata. DeerFlow supporta fino a 3 sub-agenti concorrenti, con un timeout individuale di 15 minuti, e mette a disposizione due tipi predefiniti, general-purpose e bash. Il primo ha accesso a tutti gli strumenti tranne la creazione di altri sub-agenti; il secondo è specializzato nell’esecuzione di comandi shell. Il lead agent non si limita a delegare, ma monitora l’avanzamento, gestisce le dipendenze tra i subtask e riassembla i contributi parziali.
Il terzo livello è la sandbox, il cuore dell’approccio “computer-in-a-box” di DeerFlow. Puoi scegliere tra tre modalità di esecuzione, ovvero locale, diretta sulla macchina host e veloce ma senza isolamento; Docker, la sandbox AIO (Agent-In-One) che contiene un ambiente Linux completo con bash, Python, Node.js e un browser Chromium headless; e Kubernetes, per deployment su larga scala tramite un servizio di provisioner.
La sandbox Docker ha un filesystem persistente montato su /mnt/user-data/ con sottodirectory per upload, workspace e output. L’isolamento di rete blocca le connessioni in entrata verso l’host. Anche se usi DeerFlow completamente in locale con Ollama o LMStudio senza cloud, la sandbox continua a funzionare: ogni azione dell’agente è sempre confinata, ogni file scritto resta nell’ambiente isolato.
La scelta architetturale più interessante è l’uso di LangGraph 1.0 come motore di orchestrazione. Ogni workflow è modellato come un grafo diretto: i nodi sono passi dell’agente, gli archi sono transizioni condizionali basate sull’output dei nodi precedenti. Questo permette loop, diramazioni e sincronizzazioni senza scrivere codice di coordinamento manuale: non devi preoccuparti di gestire stati, code o timeout, perché LangGraph lo fa per te.
Skill progressivo e memoria persistente: il contesto non è più un problema
Uno dei problemi più insidiosi degli agenti AI è la gestione del contesto. Ogni skill, ogni strumento, ogni regola che carichi all’avvio consuma token preziosi nella finestra di contesto del modello, riducendo la capacità di ragionamento su task complessi. DeerFlow affronta questo problema con il progressive skill loading: le skill non vengono caricate tutte all’avvio, ma solo quando servono.
Una skill in DeerFlow è un file Markdown con frontmatter YAML che definisce nome, descrizione, strumenti consentiti e le istruzioni operative. Ecco un esempio minimo di una skill per la ricerca web:
---
name: web-research
description: Esegue ricerche approfondite sul web
allowed-tools:
- web_search
- web_fetch
- read_file
---
Analizza la richiesta, suddividila in query multiple, esegui le ricerche in parallelo. Per ogni risultato, estrai i dati rilevanti e salvali in un file di appunti nella cartella workspace.DeerFlow include skill predefinite per ricerca, report, slide, pagine web e generazione di contenuti, ma la libreria è completamente estensibile. Puoi creare le tue skill nella directory skills/custom/ e vengono caricate automaticamente all’avvio. Il vantaggio è duplice: la finestra di contesto rimane snella perché l’agente vede solo le skill rilevanti per il task corrente, e la qualità dell’output migliora perché il modello non viene distratto da competenze che in quel momento non servono.
La memoria a lungo termine completa il quadro. DeerFlow mantiene due livelli, ovvero una memoria a breve termine che riassume la sessione in corso e una persistente che accumula preferenze, conoscenze e dati personali tra sessioni diverse. I dati restano locali sotto il tuo controllo e il sistema usa aggiornamenti con debounce per minimizzare le chiamate API quando estrae informazioni dalle conversazioni. Dopo qualche sessione, DeerFlow ricorda il tuo stack tecnologico, lo stile di scrittura e i workflow ricorrenti senza che tu abbia configurato nulla.
Da zero al primo task: guida all’installazione con Docker
Mettere in funzione DeerFlow è più semplice di quanto immagini. Il metodo consigliato è via Docker e richiede una manciata di passaggi. Partiamo dal repository ufficiale:
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
make configIl comando make config genera tre file: config.yaml (la configurazione principale), .env (le variabili d’ambiente) e frontend/.env (le variabili per l’interfaccia web). A questo punto devi configurare almeno un modello LLM aprendo config.yaml:
- name: deepseek-v4-flash
display_name: DeepSeek V4 Flash (free via OpenRouter)
use: langchain_openai:ChatOpenAI
model: deepseek/deepseek-v4-flash:free
api_key: $OPENROUTER_API_KEY
base_url: https://openrouter.ai/api/v1
max_tokens: 384000
supports_thinking: true
supports_reasoning_effort: trueDeerFlow supporta qualsiasi provider compatibile con l’API OpenAI o LangChain. L’esempio usa OpenRouter con deepseek/deepseek-v4-flash:free (costo zero, ottimo per test iniziali), ma puoi passare a qualsiasi modello ti serva. Tra le opzioni a pagamento, Claude Opus 4.7 è tra i più capaci per task agentici, mentre Gemini 3.1 Pro di Google DeepMind eccelle nel ragionamento multimodale.
Nel mondo open-source, DeepSeek V4 Pro offre un contesto nativo di 1 milione di token con architettura MoE ottimizzata per orchestrazione. Kimi K2.6 di Moonshot AI è specializzato in long-horizon coding e swarm fino a 300 sub-agenti. Puoi persino combinare più modelli nello stesso config.yaml e lasciare che DeerFlow scelga il più adatto per ogni subtask.
models:
- name: deepseek-v4-flash-free
display_name: DeepSeek V4 Flash (free)
use: langchain_openai:ChatOpenAI
model: deepseek/deepseek-v4-flash:free
api_key: $OPENROUTER_API_KEY
base_url: https://openrouter.ai/api/v1
max_tokens: 384000
supports_thinking: true
supports_reasoning_effort: true
- name: deepseek-v4-pro
display_name: DeepSeek V4 Pro
use: langchain_openai:ChatOpenAI
model: deepseek/deepseek-v4-pro
api_key: $OPENROUTER_API_KEY
base_url: https://openrouter.ai/api/v1
max_tokens: 384000
supports_thinking: true
supports_reasoning_effort: trueCon questa configurazione DeerFlow sceglie automaticamente il modello in base al subtask: userà il modello Deepseek V4 Flash gratuito per operazioni semplici (ricerche, riassunti) e passerà al Pro quando serve ragionamento più profondo.
Dopo aver configurato il modello e inserito le API key nel file .env, inizializza la sandbox:
make docker-init # scarica l'immagine sandbox (~500 MB)
make docker-start # avvia frontend, gateway, langgraph e nginxL’interfaccia web sarà disponibile su http://localhost:2026. Da lì puoi lanciare il tuo primo task: una ricerca approfondita, la generazione di un report o un progetto di codice. Se preferisci interagire da terminale, DeerFlow si integra con Claude Code tramite la skill claude-to-deerflow: invii un task, lo monitori e ricevi il risultato senza mai lasciare la CLI.
Esempi di utilizzo di DeerFlow
Un caso d’uso immediato è la ricerca automatica con sintesi. Lancia un task come “Analizza gli IDE open source, confronta stelle GitHub, licenze e benchmark, e produci un report in formato markdown con grafici” e DeerFlow scompone il lavoro: un sub-agente ricerca CrewAI, un altro AutoGen, un terzo LangGraph. Il lead agent sintetizza, la sandbox esegue script Python per generare i grafici, e il risultato finale include documento, slide e visualizzazioni. Il tutto senza che tu abbia scritto una riga di codice di orchestrazione.
Il coding multi-file è un altro punto di forza. Puoi assegnare a DeerFlow un progetto completo in un folder (composto da più file) con requisiti in linguaggio naturale: i sub-agenti lavorano simultaneamente su backend, frontend e test, ciascuno in una sandbox isolata, e il lead agent verifica la coerenza tra i componenti. Per chi lavora da solo, la possibilità di avere un intero “team AI” che opera in background mentre tu ti concentri sull’architettura è qualcosa che pochi strumenti offrono oggi. L’integrazione con i canali di messaggistica (Telegram, Slack, Feishu) aggiunge un ulteriore livello di praticità: invii un task dallo smartphone e ricevi il risultato completato più tardi, senza dover tenere aperta una sessione.
Per task di scrittura long-form, DeerFlow è sorprendentemente efficace. Immagina di voler scrivere un testo divulgativo sulla storia del calcolo computazionale. Lanci un task come “Scrivi un libro di 12 capitoli sull’evoluzione del calcolo fino all’AI moderna. Ogni capitolo deve includere fonti verificate, analogie pratiche e una bibliografia.” DeerFlow attiva la skill di ricerca web per raccogliere fonti, assegna un sub-agente per ogni capitolo, un altro per la revisione incrociata delle date e dei fatti storici, e un terzo per generare diagrammi ed esempi.
Il lead agent unifica lo stile, verifica la coerenza narrativa e produce un documento pronto per la revisione umana. Non è diverso da come lavorerebbe un team editoriale, se non per il fatto che l’intero processo avviene in ore anziché settimane.
Come si confronta DeerFlow con Claude Code e CrewAI
Per capire dove si colloca DeerFlow, aiuta confrontarlo con gli strumenti già affermati. Claude Code (con sub-agent asincroni e hot reload delle skill) è il riferimento per il coding agentivo: offre un’integrazione profonda con i modelli Anthropic, un sistema di skill e hook maturo, e la possibilità di orchestrare fino a 10 sub-agent. Cursor è invece un IDE classico con AI integrata, ottimo per scrivere codice ma limitato al suo ecosistema. DeerFlow non compete su questi fronti: non è un IDE né un coding agent specializzato, ma un orchestratore generico che può persino includere Claude Code o interfacciarsi con Cursor al suo interno come strumenti.
CrewAI è un altro framework multi-agente open source con supporto nativo al protocollo MCP. La differenza principale è nella filosofia di orchestrazione: CrewAI definisce agenti con ruoli fissi (un “ricercatore”, uno “scrittore”, un “revisore”) che collaborano secondo schemi predefiniti. DeerFlow, invece, usa un lead agent che decide al volo come scomporre il lavoro e quali sub-agenti attivare in base al contesto. Il risultato è più flessibile, ma anche meno deterministico.
Aider già trattato in un articolo precedente, resta un eccellente strumento di pair programming via terminale, specialmente con modelli locali via Ollama. Non ha però un’architettura multi-agente né una sandbox di esecuzione: si concentra sulla modifica del codice sorgente in modo collaborativo. DeerFlow e Aider non sono sostituti l’uno dell’altro, ma strumenti complementari.
Il vero valore differenziante di DeerFlow emerge nei task che richiedono ore di esecuzione autonoma: ricerca multi-fonte, analisi dati, generazione di contenuti complessi, automazione end-to-end. La sua capacità di operare come “assistente in background” tramite messaggistica lo rende praticamente un membro del team che non dorme mai. I modelli più recenti, come DeepSeek V4 e Kimi K2.6, sono stati ottimizzati proprio per questo tipo di orchestrazione agentica, con risultati che iniziano a competere con i migliori modelli closed-source su benchmark come SWE-bench e Terminal-Bench.
Agent AI paralleli con DeerFlow 2.0
Con DeerFlow 2.0 cambia il modo in cui pensiamo agli agenti AI. Non è un modello più grande o un contesto più lungo: è un’infrastruttura completa che permette ai modelli linguistici di agire, collaborare e produrre risultati su scale temporali che vanno da minuti a ore. La combinazione di sandbox Docker obbligatoria, progressive skill loading, memoria persistente e orchestrazione su LangGraph è unica nel panorama open-source e alza l’asticella per tutti i framework concorrenti.
La licenza MIT, la flessibilità nella scelta dei modelli e la possibilità di esecuzione completamente locale lo rendono accessibile tanto al singolo appassionato quanto al team enterprise. Ci sono limiti, certo. La provenienza ByteDance richiede una valutazione attenta per ambienti regolamentati, il limite di 3 sub-agenti concorrenti può essere stretto per task molto complessi.
Tuttavia, per chi ha bisogno di un “braccio destro AI” capace di lavorare in autonomia su problemi articolati, DeerFlow 2.0 è oggi una delle opzioni più interessanti e complete nel panorama open-source.













