Volcano SDK:
Kong e i suoi Agenti
Volcano SDK:
Kong e i suoi Agenti
Nel panorama dello sviluppo di Intelligenza Artificiale, la sfida si è spostata dalla semplice generazione di testo alla creazione di agenti autonomi capaci di compiere azioni concrete nel mondo reale. Questi agenti devono essere in grado di interagire con API, interrogare database, creare documenti, inviare email/notifiche, orchestrare task complessi e così via.
Qui entra in gioco la complessità: come costruire questi sistemi in modo che siano robusti, manutenibili e pronti per un ambiente di produzione reale?
A questa domanda cerca di rispondere Kong, un nome ben noto nel mondo della gestione API, con il rilascio di Volcano SDK: un framework open-source in TypeScript nato da un'esigenza interna: semplificare la creazione di workflow AI multi-step e multi-provider, senza sacrificare le feature necessarie per la produzione.
A differenza di framework più pesanti e onnicomprensivi, l'SDK di Kong si concentra su un obiettivo ben preciso: offrire API snelle e intuitive per concatenare chiamate a diversi modelli linguistici (LLM) e integrarle con strumenti esterni.
I pilastri su cui si basa la sua filosofia sono chiari:
La vera eleganza di Volcano SDK si nota nel codice. Partiamo dal loro esempio, immaginiamo di voler creare un agente che prima determina il segno zodiacale di una data di nascita (usando un tool MCP esterno) e poi scrive un breve oroscopo.
I provider supportati sono: OpenAI, Anthropic, Mistral, Llama, AWS Bedrock, Google Vertex, Azure AI, con la possibilità di creare i propri Custom Provider.
Nel codice alcuni commenti per meglio spiegare dei punti:
import { agent, llmOpenAI, mcp } from "volcano-sdk";
// 1. Definiamo il modello LLM di default
const llm = llmOpenAI({
apiKey: process.env.OPENAI_API_KEY!,
model: "gpt-4o-mini",
});
// 2. Indichiamo l'indirizzo del nostro tool MCP
const astroTool = mcp("http://localhost:3211/mcp");
// 3. Costruiamo il workflow in modo "chainable"
const results = await agent({ llm })
.then({
prompt: "Determine the astrological sign for 1993-07-11.",
mcps: [astroTool] // L'agente scopre e usa il tool automaticamente
})
.then({
// Il contesto (ovvero il segno zodiacale) viene passato in automatico
prompt: "Now write a one-line fortune for that sign."
})
.run();
console.log(results[1].llmOutput);
// Output tipo: "A creative wave is coming; ride it to new professional heights."Come si vede, con poche righe di codice abbiamo creato un workflow a due passaggi che integra un tool esterno e gestisce il contesto tra i passaggi. La complessità di scoprire quale funzione del tool chiamare e come passarle i parametri è gestita in automatico dal framework.
Ovviamente, nessuno strumento è perfetto in ogni scenario. Come partner tecnologico, il nostro ruolo è analizzare le soluzioni con occhio critico e pragmatico. Di seguito alcuni dei punti a favore o su cui fare attenzione nella scelta di questo framework.
Volcano SDK di Kong non va considerato come un sostituto universale a tutte le altre soluzioni, ma è più una (uteriore) soluzione potente, snella e production-grade per un'esigenza sempre più centrale nello sviluppo AI: l'orchestrazione affidabile di agenti multi-provider. La sua semplicità non deve ingannare: sotto il cofano ci sono le funzionalità robuste che servono per passare da un prototipo a un servizio aziendale scalabile.
La scelta del framework giusto dipende sempre dal contesto specifico del progetto, dalle competenze del team e dagli obiettivi di business.
Se state progettando la prossima generazione di applicazioni basate su agenti AI e cercate un partner per navigare la complessità tecnologica, Volcanic Minds è qui per aiutarvi a costruire soluzioni solide, performanti e future-proof.
Per ulteriori informazioni si possono consultare le seguenti risorse:
Data di pubblicazione: 22 ottobre 2025
Ultima revisione: 22 ottobre 2025