Quando fermare l’intelligenza artificiale diventa una decisione istituzionale
Quando fermare l’intelligenza artificiale diventa una decisione istituzionale — immagine generata dal sistema creativo AI
Saggi

Quando fermare l’intelligenza artificiale diventa una decisione istituzionale

Dalla correttezza tecnica alla responsabilità delle decisioni automatizzate

“Negli ultimi mesi, l’adozione dell’intelligenza artificiale in ambiti critici ha evidenziato una tensione crescente tra correttezza tecnica e accettabilità istituzionale.”

18 Gennaio 2026

Per molto tempo abbiamo raccontato l’intelligenza artificiale come una tecnologia in crescita, imperfetta ma destinata a migliorare. Ogni errore veniva letto come un passaggio intermedio, ogni limite come qualcosa che sarebbe stato superato con modelli più grandi, più dati, più potenza di calcolo. Era una narrazione rassicurante, lineare, quasi inevitabile.

All’inizio del 2026, però, quello schema comincia a non reggere più. Non perché l’IA stia improvvisamente fallendo, ma perché sta facendo esattamente ciò per cui è stata progettata, mostrando allo stesso tempo conseguenze che diventano difficili da difendere sul piano istituzionale, operativo e, in alcuni casi, morale.

Il punto non è l’errore tecnico. È la perdita di legittimità dell’azione.

In settori diversi, il copione tende a ripetersi. Sistemi automatizzati applicano correttamente le regole, producono output coerenti, superano audit tecnici e spiegano il proprio funzionamento. Eppure, a un certo punto, qualcuno decide che non possono continuare a operare nello stesso modo. Non perché siano sbagliati in senso stretto, ma perché il contesto in cui agiscono non è più sostenibile.

Questo è il momento in cui compare lo STOP. Non come interruttore d’emergenza, ma come decisione di governo. Una decisione che non serve a migliorare il sistema, ma a dichiarare che il quadro decisionale entro cui opera non è più accettabile.

In sanità questo passaggio arriva prima che altrove. Qui il danno non è reversibile, non è compensabile, non può essere assorbito nel tempo. Una decisione clinica automatizzata può essere statisticamente difendibile e allo stesso tempo produrre un esito che nessuna spiegazione riesce a rendere accettabile.

Negli ultimi anni, algoritmi per l’allocazione delle cure, il triage, la previsione del rischio o l’approvazione dei trattamenti hanno mostrato proprio questo limite. Funzionano secondo i parametri stabiliti, ma generano esclusioni sistemiche, ritardi critici, danni che emergono solo quando l’adozione diventa su larga scala. A quel punto, la revisione umana non è più un’eccezione: diventa la norma. L’automazione, da promessa di efficienza, si trasforma in un collo di bottiglia.

Il problema non è che questi sistemi “sbaglino troppo”. È che continuano a operare anche quando l’errore non è più una variabile accettabile. In sanità, spiegare perché una decisione è stata presa non equivale a giustificarne l’esito. E quando la responsabilità si frammenta tra medico, struttura, fornitore e algoritmo, la domanda che resta senza risposta è sempre la stessa: chi ha permesso che quella decisione fosse presa?

All’inizio del 2026, questo interrogativo non è più teorico. I segnali sono sparsi, spesso silenziosi: sospensioni temporanee, limiti d’uso sempre più stringenti, ritorno obbligato al controllo umano, rischi che entrano formalmente nei bilanci delle grandi organizzazioni. Non fanno rumore, ma si accumulano.

Anche fuori dalla sanità il quadro non è molto diverso. Sistemi di supporto decisionale che rallentano invece di accelerare, infrastrutture fragili con punti singoli di fallimento, progetti miliardari che non producono i risultati promessi. Non si tratta di una crisi improvvisa, ma di una serie di cedimenti locali che indicano un problema più ampio: l’automazione decisionale ha superato il perimetro entro cui poteva essere governata solo con metriche di performance.

È qui che la probabilità smette di essere una protezione sufficiente. Nei sistemi complessi e interconnessi, stimare quanto è probabile un danno non basta più. La domanda diventa se esiste un percorso plausibile che renda una decisione irreversibile e non compensabile. Quando la risposta è sì, continuare a operare non è più una scelta neutra.

Non siamo ancora al collasso. Ma siamo in quel punto che, guardando indietro, si riconosce sempre come il momento precedente. Quello in cui i sistemi non vengono fermati perché sono mal progettati, ma perché nessuno è più disposto ad assumersi la responsabilità delle loro conseguenze.

Quando questo accade, fermarsi non è una rinuncia al progresso. È il riconoscimento di un limite. Non tecnologico, ma istituzionale.

La vera questione, allora, non è se l’intelligenza artificiale migliorerà ancora. È chi avrà il diritto – e il dovere – di dire che, in certi contesti, continuare non è più la scelta giusta.

Salvatore Martino

Prossimo articolo Nota