La GenAI fa carriera. Non è più composta da un esercito di stagisti. Invece, sta imparando a lavorare. Per questo è arrivato il momento di fare un po’ di chiarezza tra i nuovi paradigmi: agenti o agentici? Dopo aver visto come funziona “il piano di sotto”, cerchiamo di capire cosa fanno le nuove AI.
Dal rispondere al fare
Fino a poco tempo fa, il modello d’uso era semplice: si scriveva qualcosa, il sistema rispondeva. Una conversazione, nel senso più elementare del termine. Quello che sta emergendo adesso è strutturalmente diverso: un ciclo in cui il modello pianifica, esegue azioni, osserva i risultati e corregge il tiro in autonomia, senza che ogni passaggio richieda un intervento umano. Non è più una chat. È un processo.
Il cambiamento interessa due livelli molto diversi tra loro. Da un lato ci sono gli strumenti per sviluppatori: framework come LangGraph o sistemi come Claude Code, che permettono di costruire agenti sofisticati per chi sa programmare. Dall’altro, e qui sta la novità più rilevante per la maggior parte delle persone, ci sono strumenti già usabili senza competenze tecniche. Microsoft Copilot Tasks ad esempio legge in autonomia la mail, estrae una data, aggiorna il calendario e invia una conferma. Zapier e n8n collegano migliaia di applicazioni diverse in flussi automatici. Cowork permette di delegare al computer intere sequenze di operazioni su file e programmi. Non è fantascienza: sono cose già disponibili, anche se con limiti concreti (e probabilmente rischiose in presenza di dati personali, perché possono compiere azioni irreversibili).
L’azienda come metafora
Il punto più interessante non è però cosa fa un singolo agente, ma cosa succede quando ce n’è più d’uno e tutti lavorano insieme. L’architettura multi-agente funziona in modo analogo a un’organizzazione umana ben strutturata: non esiste un unico collaboratore tuttofare, ma ci sono figure specializzate che si occupano ciascuna di un compito preciso.
Un agente legge le fatture in PDF, un altro controlla le scadenze e il terzo fa partire i pagamenti dovuti. Altri ancora si occupano di preparare i report da inviare e rispondono alle email di routine. Ognuno sa fare bene una cosa sola, e questa limitazione non è un difetto: è esattamente il punto. I sistemi multi-agente funzionano quando i compiti sono delimitati, verificabili e ripetibili. Diventano fragili, invece, appena si chiede loro di affrontare processi lunghi, variabili e critici.
L’autonomia, con riserva
Il limite più importante da tenere presente è quello dell’affidabilità. Gli agenti commettono errori, e gli errori nei processi automatici si propagano: una data sbagliata diventa una riunione fissata nel giorno sbagliato, e poi una catena di mail fuori posto. Questo perché gli agenti possono eseguire azioni non valide, fraintendono i risultati intermedi, a volte entrando in loop senza accorgersene. Più un sistema è autonomo, meno è facile controllarlo in tempo reale.
Le soluzioni in corso, come la supervisione umana su certi passaggi critici (human-in-the-loop), i sistemi di verifica incrociata e il monitoraggio continuo dei flussi, aiutano ma non eliminano il problema. L’autonomia reale è ancora limitata: i casi in cui un agente gestisce da solo un processo end-to-end complesso e lo fa in modo affidabile sono ancora pochi. Quel che funziona oggi è più modesto e più utile di quanto la narrazione corrente suggerirebbe: agenti specializzati su compiti precisi, inseriti in flussi di lavoro progettati con attenzione, con un presidio umano sui punti di snodo.
La GenAI non sta diventando più intelligente: sta imparando a stare dentro i processi. E quando succede, il punto non è più cosa sa dire, ma cosa riesce a portare a termine.
Alcune fonti di questo articolo:
- openai.com
- deepmind.com
- research.ibm.com/artificial-intelligence
- ai.google/research
- microsoft.com/en-us/research/theme/ai
- arxiv.org
- stanford.edu/hai
- mit.edu/csail
- bairstanford.org
- fairstanford.org
- nvidia.com/ai
- pytorch.org
- tensorflow.org
- kaggle.com
- syncedreview.com

