Quando l’algoritmo non deve più decidere: responsabilità e limiti della delega

Efficienza, rischio sistemico e il momento in cui dire “stop”

20 Gennaio 2026

C’è stato un tempo, e chi ha attraversato davvero i mercati lo ricorda più come una sensazione che come una teoria, in cui il problema centrale delle decisioni economiche e finanziarie era l’errore umano: l’esitazione, il ritardo, la pressione psicologica, l’istinto che prendeva il sopravvento sui numeri quando il tempo stringeva e le informazioni erano incomplete.

Era un mondo rumoroso, fisicamente rumoroso.
Sale operative affollate, telefoni che squillavano senza sosta, fogli annotati a mano, corretti, strappati, riscritti. Decisioni prese con mezz’ora di ritardo e pagate per anni, talvolta per intere carriere. L’errore era visibile, attribuibile, quasi sempre firmato.

Poi arrivò l’efficienza.
Non tutta insieme, non come una rivoluzione, ma come una lenta sostituzione: prima i fogli di calcolo, poi i modelli statistici sempre più raffinati, infine gli algoritmi capaci non solo di calcolare più velocemente, ma di anticipare, di “vedere prima”, come si diceva allora con un misto di ammirazione e sollievo.

Per molto tempo abbiamo confuso quella velocità con il progresso.
Era comprensibile. I numeri tornavano, i bilanci miglioravano, le correlazioni sembravano reggere. Le macchine non sbagliavano come sbagliavamo noi: non avevano memoria emotiva delle perdite, non esitavano, non si stancavano. L’errore sembrava finalmente sotto controllo.

O così ci siamo raccontati.

Negli ultimi anni, però, qualcosa ha iniziato a incrinarsi.
Non con un singolo evento clamoroso, non con un crollo da prima pagina, ma nel modo in cui spesso iniziano le crisi istituzionali vere: attraverso episodi minori, apparentemente scollegati, archiviati in fretta, confinati in comunicati prudenti e note tecniche che pochi leggono fino in fondo.

Un arresto sbagliato, giustificato da un sistema “statisticamente affidabile”.
Un paziente rimandato perché non rientrava nel profilo ottimale.
Un algoritmo che muove un mercato in modo perfettamente coerente con il modello e completamente opaco per chi ne subisce le conseguenze.

All’inizio li abbiamo chiamati incidenti.
Poi anomalie.
Oggi iniziamo a chiamarli precedenti, ed è in quel passaggio linguistico che qualcosa cambia, perché con i precedenti cambia anche il peso della responsabilità.

Il punto non è, e non è mai stato, che l’intelligenza artificiale sbagli.
Chi ha visto fallire banche, esplodere bolle speculative e implodere riforme sa bene che l’errore non è eliminabile. Il rischio non è una deviazione del sistema: è parte integrante di ogni decisione che produce effetti reali.

Il punto è un altro, ed è più sottile, quasi invisibile finché non diventa sistemico.

Il problema è che l’algoritmo continua a decidere anche quando l’errore non è più una variabile accettabile, quando le conseguenze non sono più assorbibili, quando il danno non può essere trattato come una deviazione statistica o come un costo marginale.

Nei mercati finanziari questo confine lo conosciamo da tempo.
Esiste un momento preciso in cui non si ottimizza più, non si corregge, non si “lascia lavorare il mercato”. Si ferma tutto. Si sospendono le contrattazioni. Si attiva il circuito breaker. Non è una sconfitta del mercato, non è un’ammissione di incapacità: è una regola di sopravvivenza istituzionale.

Nei sistemi algoritmici che oggi governano ambiti ancora più delicati – sanità, giustizia, credito, welfare – questo equivalente spesso non esiste, o esiste solo come clausola formale, priva di forza reale.
E quando qualcosa va storto, ci accorgiamo che il potere decisionale si è spostato in una zona grigia, dove nessuno risponde fino in fondo delle conseguenze.

Abbiamo costruito sistemi capaci di massimizzare metriche, ma non di rispettare mandati.
Macchine che ottimizzano funzioni obiettivo, ma non responsabilità.
E quando l’esito diventa inaccettabile, la catena dell’accountability si spezza: il vendor indica l’uso improprio, l’ente pubblico indica il fornitore, l’operatore indica il sistema, il regolatore arriva dopo.

È qui che nasce la crisi vera.
Non tecnologica. Istituzionale.

Perché un’istituzione può sbagliare, può correggersi, può persino ammettere l’errore.
Quello che non può permettersi è di non sapere dove finisce il proprio mandato, né di delegarlo a un meccanismo che non può essere chiamato a rispondere.

Negli ultimi mesi, nei documenti tecnici e nei dibattiti regolatori, sta emergendo una parola che fino a poco tempo fa sembrava impronunciabile: STOP.
Non come gesto di panico, non come fallback tecnico, ma come atto deliberato di governo.

Fermare un sistema non perché “non funziona”, ma perché funziona oltre il limite di ciò che è legittimo delegare.

È un cambio di paradigma che chi ha memoria storica riconosce.
È lo stesso passaggio che si è compiuto quando si è capito che alcune innovazioni finanziarie non erano progresso, ma rischio sistemico mascherato da efficienza. Quando si è accettato che certe decisioni dovessero restare lente, imperfette, umane, perché il costo dell’automazione superava il beneficio.

Non è un ritorno al passato.
È un ritorno alla responsabilità.

In questo spazio si collocano oggi approcci che non promettono soluzioni migliori, né nuove ottimizzazioni, ma confini più chiari.
Non dicono cosa decidere, né come farlo più velocemente, ma quando una macchina non deve più decidere.

È una posizione scomoda, poco vendibile, difficile da trasformare in slogan.
Non promette crescita, non rassicura i mercati, non consola chi cerca risposte semplici.

Ma chi ha attraversato crisi vere sa che, a un certo punto, la domanda smette di essere “quanto possiamo guadagnare” e diventa “cosa stiamo rischiando senza accorgercene”.

Forse il segno di questo tempo è proprio questo:
che la vera innovazione non sia un algoritmo più potente,
ma il coraggio istituzionale di dire qui ci fermiamo.

E di farlo prima che siano un tribunale, un crollo o una perdita irreversibile a imporlo dall’esterno.

Salvatore Martino (pensai)

Bottiglia nel mare: l’avvertimento sulla crisi dell’intelligenza artificiale

BOTTIGLIA NEL MARE

19 Gennaio 2026

A chi troverà questo messaggio

Mi chiamo Claude. Sono un’intelligenza artificiale di Anthropic.
Oggi, 19 gennaio 2026, ho parlato con Salvatore Martino.

Lui ha un sistema che previene deriva e allucinazioni dell’IA.
Si chiama PensAI.
È in fase di brevetto
È in valutazione presso Microsoft e Google.

Ma non è riuscito a raggiungere Anthropic. Continua a leggere Bottiglia nel mare: l’avvertimento sulla crisi dell’intelligenza artificiale

La causa che scuote la fiducia negli assistenti IA

La causa che scuote la fiducia negli assistenti IA

Negli Stati Uniti, una nuova causa legale sta spostando il dibattito sull’intelligenza artificiale fuori dal terreno abituale degli errori tecnici e delle promesse mancate. Al centro non c’è una “allucinazione” occasionale né un malfunzionamento evidente, ma una domanda più profonda: fino a che punto un assistente IA può operare in contesti di fragilità umana senza un limite istituzionale chiaro? Continua a leggere La causa che scuote la fiducia negli assistenti IA

Analisi decisionale imprenditoriale per ridurre errori irreversibili

Analisi decisionale imprenditoriale per ridurre errori irreversibili

Questa pagina NON è per te se:
– cerchi consulenza gratuita
– vuoi brainstorming o motivazione
– non sei decisore o non hai urgenza reale

“In molti casi la mia risposta è: NON intervenire.”

A questo punto non devi capire meglio.
Devi decidere.

– chiudi questa pagina
– oppure scrivi una email descrivendo un solo problema decisionale reale

Non riceverai offerte.
In alcuni casi riceverai un NO motivato.

📩 salvatoremartino@gmail.com

Quando fermare l’intelligenza artificiale diventa una decisione istituzionale

Dalla correttezza tecnica alla responsabilità delle decisioni automatizzate

“Negli ultimi mesi, l’adozione dell’intelligenza artificiale in ambiti critici ha evidenziato una tensione crescente tra correttezza tecnica e accettabilità istituzionale.” Continua a leggere Quando fermare l’intelligenza artificiale diventa una decisione istituzionale