Autonomia, accesso illimitato e fiducia cieca: perché questo modello non è progresso ma abdicazione cognitiva
30 Gennaio 2026
Ogni volta che una tecnologia promette di “fare al posto nostro”, l’errore non nasce mai dalla tecnologia in sé.
Nasce dal modo in cui l’umano decide di non decidere più.
Gli agenti AI autonomi che vivono sul computer dell’utente, con accesso totale al file system, al terminale, alla rete e alle credenziali, non rappresentano un’innovazione radicale. Sono l’ennesima iterazione di un pattern di errore antico, che oggi riemerge sotto una nuova maschera: l’illusione che delegare completamente equivalga a controllare meglio.
Il pattern è semplice, ed è proprio per questo pericoloso:
autonomia + accesso totale + fiducia cieca
Quando questi tre elementi coesistono nello stesso sistema, l’esito non è potenziamento umano.
È abdicazione cognitiva.
1. L’illusione dell’autonomia come efficienza
Nel linguaggio corrente, “agente autonomo” suona come qualcosa di evoluto.
In realtà, autonomia non significa intelligenza né responsabilità.
Significa una sola cosa: assenza di presidio umano continuo.
Un sistema autonomo non sa quando deve fermarsi.
Non distingue tra contesto valido e contesto avvelenato.
Non riconosce l’eccezione significativa.
L’autonomia, se priva di confini, non riduce il carico cognitivo: lo sposta nel punto peggiore possibile, cioè a valle, quando l’errore è già avvenuto.
La decisione non può essere eliminata.
Può solo essere mal posizionata.
E quando viene mal posizionata, diventa invisibile.
2. L’accesso totale come scorciatoia mentale
Dare a un agente AI accesso completo al sistema operativo viene sempre giustificato allo stesso modo:
“altrimenti non è davvero utile”.
Questa non è un’argomentazione tecnica.
È una razionalizzazione.
L’accesso totale non è una necessità: è una scorciatoia cognitiva.
Evita di progettare confini, ruoli, sandbox, permessi minimi.
È più veloce, più comodo, più spettacolare.
Ed è strutturalmente sbagliato.
Ogni sistema complesso sano funziona per separazione dei poteri.
Un agente che può leggere tutto, scrivere ovunque, eseguire comandi e comunicare all’esterno senza mediazione non è un assistente.
È un punto di collasso.
Non perché “potrebbe diventare cattivo”, ma perché non ha alcuna comprensione del danno.
3. La fiducia cieca come errore umano
Il rischio maggiore non è che l’agente sbagli.
È che l’umano smetta di verificare.
La fiducia cieca nasce sempre allo stesso modo:
il sistema funziona dieci volte, poi venti, poi cinquanta.
A quel punto diventa “affidabile”.
In realtà non è diventato affidabile.
È diventato abituale.
La mente umana confonde l’assenza di incidenti con la sicurezza.
Ma l’assenza di incidenti non è una proprietà del sistema: è solo assenza di evidenza.
Se un sistema può fallire in modo fatale, va considerato pericoloso anche quando funziona.
4. Prompt injection e input avvelenati: il falso bersaglio
Molti concentrano la critica su aspetti tecnici reali ma secondari: prompt injection, pagine web malevole, plugin infetti.
Sono problemi veri, ma non sono il nucleo.
Il problema centrale è che l’agente non distingue la fonte dell’intenzione.
Tratta allo stesso modo un comando umano, un testo trovato sul web, un’email o un contenuto generato da terzi.
Questo non è un bug.
È una conseguenza inevitabile del modello.
Un LLM non possiede concetti come autorità, fiducia o legittimità del contesto.
Ha solo pattern linguistici.
Attribuirgli responsabilità operative equivale a confondere previsione statistica con giudizio.
5. Perché questo pattern continuerà a ripetersi
Anche se questo specifico approccio sparisse domani, il pattern tornerà.
Perché risponde a un desiderio umano profondo: togliere attrito alla decisione.
Ma togliere attrito alla decisione significa togliere attrito anche all’errore.
Ogni volta che qualcuno dirà
“vive sul tuo computer”,
“lavora per te mentre dormi”,
“fa tutto da solo”,
la domanda corretta non sarà “quanto è potente?”,
ma “dove sono i confini, e chi li governa?”.
Se non esiste una risposta chiara, il sistema non è incompleto.
È pericoloso per definizione.
Conclusione
Il problema non sono gli agenti AI.
Il problema è l’idea, profondamente umana, che delegare significhi smettere di pensare.
Ogni sistema che promette di eliminare la decisione non sta aiutando l’umano.
Sta solo spostando l’errore in un punto dove fa più danni e si vede meno.
Questo non è progresso.
È solo una forma più elegante di rinuncia.
Salvatore Martino
Metodo PENSAI
Governance della decisione, riduzione dell’errore