La lista dei mestieri intoccabili dall’IA
1.
Circola una lista. La vedo ovunque, da quando ho iniziato a scrivere di decisioni – e forse anche prima, ma non ci facevo caso, perché le liste rassicuranti si notano solo quando hai smesso di crederci. La mettono nei rapporti McKinsey, negli studi OCSE, nelle newsletter dei consulenti che non hanno mai chiuso un albergo alle due di notte con una famiglia stanca fuori dalla porta e nessuna camera libera, eppure parlano come se sapessero. Dicono: questi lavori l’IA non li prenderà. Sanitari, infermieri, ostetriche. Educatori, assistenti sociali, responsabili d’albergo. Coreografi, allenatori, chiropratici. Chef. Risorse umane. Leader. Perché l’empatia, dicono. Perché la creatività. Perché il tocco, la voce, lo sguardo.
È rassicurante. Ed è vera, almeno nella sostanza. Una macchina non può sostituire un’infermiera che tiene la mano a un anziano spaventato, non può sostituire uno chef che assaggia e decide all’ultimo secondo di aggiungere un goccio di limone, non può sostituire un allenatore che guarda un giocatore negli occhi e capisce che oggi non ha bisogno di strategia ma di sentire “io credo in te”. Su questo non ci piove.
Ma più ci penso, più quella lista mi sembra incompleta. Non nel senso che mancano dei mestieri – ne mancano sempre, è il destino di ogni lista – ma nel senso che manca una domanda. La lista dice: questi lavori resteranno agli umani. Non dice: come li faremo, quei lavori, quando l’IA sarà ovunque? Non dice: cosa serve, oltre al titolo e alla divisa, per non farsi svuotare dall’interno?
2.
Perché il problema non è la sostituzione. Quella è una paura vecchia, da primo impatto, da titolo di giornale. Il problema è più sottile, e peggiore. È lo svuotamento.
Prendiamo il responsabile d’albergo. Quello vero, non quello dei manuali. L’IA non può fare il suo lavoro, è chiaro. Ma può rendergli la vita impossibile in altri modi. Può ottimizzare le prenotazioni al millimetro, in modo che ogni overbooking diventi una crisi invece che un’eccezione. Può generare risposte automatiche che il cliente legge e sente subito – anche senza saperlo – il peso della macchina, non l’attenzione di una persona. Può suggerire al cliente che “avrebbe dovuto leggere meglio i termini”, una frase vera, inutile, perfetta, e proprio per questo distrugge qualsiasi relazione umana in tre secondi.
L’IA non ruba il lavoro al responsabile d’albergo. Lo svuota. Gli toglie il contesto, la sorpresa, la necessità di inventare. Gli lascia l’esecuzione. E alla lunga l’esecuzione senza pensiero diventa abitudine, e l’abitudine diventa morte – non una morte drammatica, quella con le campane, ma una morte silenziosa, quella in cui smetti di chiederti perché fai quello che fai.
Lo stesso vale per l’allenatore, se l’IA gli dice già quale giocatore sostituire al settantesimo minuto. Può anche disobbedire, ma disobbedire a un dato – quando il dato è oggettivo, quando il dato dice “questo giocatore ha corso due chilometri in meno” – è difficile. Serve una ragione. Serve una storia. E se non ce l’hai, se non hai un metodo per costruirtela, alla fine obbedisci. Non perché sei debole. Perché sei solo, davanti a un numero che non mentisce mai, e non hai gli strumenti per dire “il numero dice il vero, ma non dice tutto”.
E così, lentamente, smetti di decidere. Smetti di essere il responsabile, l’allenatore, il leader. Diventi un esecutore che firma ciò che la macchina ha già scelto. E la macchina, dal canto suo, non se ne accorge nemmeno. Continua a suggerire. Continua a ottimizzare. Continua a fare il suo lavoro, che non è rubare il tuo, ma offrirti una stampella così comoda che alla fine cammini solo con quella.
3.
Allora forse serve un’altra lista. Non i mestieri che sopravvivono – quelli li abbiamo già. Ma le competenze che servono per non farsi svuotare.
Le ho messe insieme negli anni. Non le ho inventate in un pomeriggio, seduto a una scrivania con un manuale di management. Le ho viste nelle persone che decidevano bene sotto pressione: un caposala che riorganizzava un turno in tre minuti, un direttore artistico che salvava uno spettacolo la sera della prima, un responsabile di produzione che trovava una soluzione quando il fornitore aveva sbagliato tutto. Le ho estratte dai miei errori – e ne ho fatti, eccome, di errori, alcuni dei quali ancora oggi mi svegliano alle tre del mattino. Le ho scritte, cancellate, riscritte, fino a quando non sono diventate sei. Le ho chiamate PENSAI. Il nome è venuto dopo, come vengono i nomi quando una cosa inizia a funzionare e hai bisogno di chiamarla per parlarne con gli altri.
La prima: definire il problema reale, non quello percepito. Sembra banale, e invece è la cosa più difficile. Perché il cliente arrabbiato non è arrabbiato per la camera sbagliata. È arrabbiato perché si sente preso in giro. Perché magari è la terza volta che gli capita. Perché aveva promesso alla figlia la piscina e si ritrova in un parcheggio. La squadra che non gira non ha problemi di tattica. Ha problemi di fiducia – tra i giocatori, o tra loro e l’allenatore, o dentro di loro. Se tratti il sintomo, perdi. Se tratti la causa, a volte vinci. L’IA non sa distinguere. Non perché sia stupida. Perché il problema reale non sta nei dati. Sta nel corpo, nella storia, nella paura.
La seconda: raccogli l’evidenza che conta. Non i dati. I segnali. Un allenatore vede il centravanti che non salta più di testa. La statistica dice calo di rendimento, mettilo in panchina, è razionale. Ma se l’allenatore lo conosce, sa che sua madre è in ospedale, sa che non dorme da tre notti, sa che ha bisogno di restare in campo anche se sbaglia, perché altrimenti dentro si rompe per sempre. Quel sapere non sta in nessun database. Non è una “soft skill”. È durissimo. È solo non quantificabile.
La terza: costruisci una narrativa. Mettere insieme i pezzi in modo che qualcuno li capisca. Una responsabile delle risorse umane che deve promuovere una persona e non un’altra. Se non sa raccontare il perché – se non trova le parole giuste, se si nasconde dietro i numeri – il team la mangia vivo. L’IA scrive rapporti perfetti, con grafici e percentuali e previsioni. Ma non guarda nessuno negli occhi mentre lo dice. Non sente il peso di una frase sbagliata che ti perseguita per mesi.
La quarta: apri gli scenari. Almeno tre. Il mondo non è lineare. Uno chef non prova una ricetta una volta sola. La prova dieci volte, venti. Un po’ più di limone, un po’ meno di sale, un minuto di cottura in più, un’erba fresca invece di quella secca. E se domani non arriva il pesce? E se il cliente è allergico? E se il forno si rompe? L’IA simula scenari con eleganza matematica, calcola probabilità, ottimizza. L’umano assaggia. Con la lingua, con le mani, con quel senso che non si sa come si chiami ma si sa che c’è.
La quinta: agisci. Non aspettare la certezza. Perché non arriva mai. Un medico in pronto soccorso non può dire “aspettiamo altri esami” se il paziente sta peggiorando. Decide con quello che ha, con le informazioni incomplete, con la stanchezza del turno di notte. L’IA non decide mai. Suggerisce. È una differenza che sembra piccola, ma è enorme. Perché chi decide paga – paga con la responsabilità, con le notti insonni, con la possibilità di sbagliare. Chi suggerisce, no.
La sesta: impara. Ogni decisione è un esperimento. Non un successo o un fallimento. Un esperimento. Un coreografo prova una sequenza. La ballerina cade. Non è un errore. È un’informazione. Cambia, riprova, si avvicina. L’IA ottimizza – cerca la soluzione migliore entro i parametri che le hai dato. L’umano inciampa e si rialza. È diverso.
Sono sei passi. Non sono facili. Non sono veloci. Non sono una formula che risolve tutto. Ma sono l’unica cosa che ho trovato, in anni di errori e di notti insonni, per non annegare quando l’acqua si alza.
4.
A un certo punto mi sono chiesto: questo metodo – posso scriverlo in codice?
La domanda suona strana, lo so. Un metodo per decidere, scritto in PHP. Sembra un paradosso, o forse una provocazione. Ma più ci pensavo, più mi sembrava necessario. Perché l’umano da solo, senza struttura, senza vincoli, senza qualcuno che gli dica “aspetta, non hai pensato a questo” – l’umano da solo si perde. Si affida all’intuizione, che a volte funziona e a volte no, senza un modo per sapere quando sta funzionando. Si affida all’autorità, che è pericolosa perché l’autorità non si discute. Si affida all’abitudine, che è la morte della decisione perché l’abitudine non è una scelta, è l’assenza di scelta.
Allora l’ho scritto. Non racconto qui le notti passate a sistemare i pesi, le eccezioni, i controlli, gli hash di integrità. Dirò solo che alla fine è venuto fuori un motore deterministico. Prende una rubrica – cioè un insieme di criteri con i loro pesi, che devono sommare a cento per cento, perché se non sommano non puoi fidarti – e un insieme di opzioni. Le valuta. Le ordina. Restituisce la migliore. E se nessuna supera la soglia, dice “nessun caso”. Fermo. Non si va avanti.
Ma la parte importante non è questa. La parte importante è quello che il codice impone. Impone che i pesi sommino al cento per cento, altrimenti non parte. Impone che ogni opzione abbia un’identità unica, perché le ambiguità uccidono le decisioni. Impone che se un criterio è critico – cioè non compensabile – abbia una soglia assoluta o relativa. Impone che se il rischio è alto, serva un override umano con nome, ruolo, firma, e almeno trenta caratteri di motivazione. Trenta caratteri non sono molti. Sono abbastanza per impedire il gesto automatico.
Impone che ogni decisione sia tracciata, sigillata con un hash, verificabile in qualsiasi momento. Impone che se qualcosa cambia tra una decisione e la successiva – se il motore sceglie un’opzione diversa, o se i punteggi si discostano – venga registrato un drift e, in alcuni casi, venga richiesta una revisione umana.
Non è un algoritmo che decide. È un algoritmo che obbliga a decidere bene. È una differenza sottile, ma è tutto.
E ho scoperto una cosa. Quando il metodo diventa codice, succede qualcosa di strano. Il codice non si stanca. Non dimentica. Non ha preferenze. Non si fa intimidire dal capo, non si fa influenzare dall’ultima riunione, non ha fame né sonno. È una gabbia. E la gabbia, se accettata, libera. Perché l’umano – finalmente – non deve più preoccuparsi di ricordare tutti i passi, di controllare tutte le incoerenze, di verificare tutte le soglie. Può concentrarsi su quello che solo lui sa fare: capire il problema vero, cogliere il segnale, costruire la storia, immaginare scenari, agire, imparare. Il codice fa da scheletro. L’umano fa da carne.
5.
Nel frattempo, l’Europa ha scritto l’AI Act. Regolamento 2024/1689. Non è un documento qualsiasi. È il primo tentativo serio – discutable, migliorabile, ma serio – di dire: le macchine che decidono, o che aiutano a decidere, devono avere delle regole. Ho letto l’AI Act. Articolo per articolo. Non è una lettura piacevole. Ma è una lettura necessaria. Perché dentro ci sono parole come “risk management”, “human oversight”, “transparency”, “record keeping”. Parole che spesso vengono usate come slogan, nei PowerPoint delle consulenze, nei comunicati stampa delle aziende. Nell’AI Act sono obblighi. Con conseguenze.
Allora ho preso il motore che avevo scritto e l’ho allineato. Articolo 9: sistema di gestione del rischio, con valutazione continua, non una tantum. Articolo 10: governance dei dati, con provenienza e affidabilità dichiarate. Articolo 11: documentazione tecnica generata automaticamente, non scritta a mano quando arriva l’ispettore. Articolo 12: tenuta dei registri, un log normativo che non si può modificare. Articolo 13: trasparenza, con breakdown per criterio e punteggio effettivo. Articolo 14: supervisione umana, con override obbligatorio per i casi ad alto rischio e impossibilità di disattivarlo. Articolo 15: accuratezza e robustezza, con fattori di confidenza multipli e integrazione dell’incertezza. Articolo 61: monitoraggio post-market, con log continue e alert.
Ora il codice ha una sezione che si chiama “AI ACT COMPLIANCE MODULES”. Non è un vezzo. Non è greenwashing normativo. È una dichiarazione: questo sistema è costruito perché l’umano sia sempre alla fine della catena. E se l’umano vuole derogare – perché a volte si deve derogare, non viviamo in un mondo perfetto – deve farlo con nome, ruolo, firma, e una motivazione che non sia “perché sì” o “perché ne ho voglia”. Trenta caratteri. Sembrano pochi. In realtà costringono a pensare. Impediscono il gesto automatico, la delega per stanchezza, la resa alla macchina.
6.
Adesso torno alla lista. Quella dei mestieri intoccabili.
Sanitari. Infermieri. Ostetriche.
Educatori. Assistenti sociali. Responsabili d’albergo.
Coreografi. Allenatori. Chiropratici.
Chef. Risorse umane. Leader.
Non sono intoccabili perché l’IA è limitata. L’IA non è limitata in quel senso. Diventa più capace ogni anno, ogni mese, ogni settimana. Sono intoccabili per un’altra ragione. Perché la responsabilità che portano addosso – la responsabilità verso un corpo, una fiducia, un destino – non può essere trasferita a un algoritmo. Non per incapacità tecnica. Per decisione etica. Perché una macchina non può andare a casa la sera con il peso di una scelta sbagliata. E se non può avere quel peso, non può nemmeno prendere quella scelta. Non dovrebbe. È una linea che tracciamo noi, non una proprietà emergente del silicio.
Ma attenzione. Non basta avere il titolo. Non basta indossare la divisa. Non basta essere lì. Bisogna anche saper decidere. E saper decidere – nel 2026, con l’IA che ti sussurra all’orecchio, che ti dice “io farei così”, che ti mostra il dato perfetto, la previsione accurata, la probabilità calcolata al decimale – non è più questione solo di talento o di esperienza. È questione di metodo. Perché il talento da solo si perde, l’esperienza da sola si ripete, e ripetere non è decidere.
Senza metodo, l’umano si perde. Si affida. Deresponsabilizza. Dice “me l’ha detto il computer”. E a quel punto, anche se il lavoro è formalmente ancora suo, nella sostanza non lo è più. È diventato un esecutore. Un firmatario. Un ingranaggio che convalida. Con il metodo – con PENSAI o con qualsiasi altro nome, l’importante è che ci sia – l’umano ha una struttura. Non è solo. Non deve inventare tutto da capo ogni volta. Ma la scelta finale, il giudizio, il coraggio di dire “sì” o “no” anche quando la macchina dice il contrario – quelli restano suoi. E restano umani.
7.
Una notte, in un ospedale che non nomino, ho parlato con un infermiere. Turno di guardia. Le macchine segnavano parametri nella norma. Lui ha insistito per chiamare il medico. “Qualcosa non va”, ha detto. Aveva ragione. Il paziente è andato in terapia intensiva due ore dopo. Se l’infermiere non avesse insistito, sarebbe morto. Non è una frase retorica. È successo davvero.
Gli ho chiesto: come facevi a saperlo?
Mi ha guardato. Ha aspettato qualche secondo. Poi ha detto: “Perché la macchina guarda il paziente. Io guardo la paura negli occhi di chi gli vuole bene.”
Non c’era nessuna metrica per quella paura. Nessun sensore. Nessun dato. Solo uno sguardo. E la scelta di non ignorarlo. L’IA non guarda quella paura. Non perché non possa imparare a riconoscerla – forse un giorno ci arriverà, con abbastanza dati e abbastanza training. Ma anche se la riconoscesse, non le cambierebbe niente. Non è la sua paura. Non può farci niente, con quella paura. Non le cambia la vita, non le tiene svegli la notte, non le fa pensare “potevo fare di più”. A noi, invece, sì. E questa differenza – tra chi subisce le conseguenze e chi no – è il fondamento di tutto.
8.
Forse è questo il punto. La lista dei mestieri intoccabili è vera, ma è incompleta. Manca una riga, in fondo. Una riga piccola, che non si vede. Ci scriverei: “Intoccabili sono quei mestieri in cui l’umano non delega la responsabilità. Non perché non possa. Perché non deve.”
E per non delegare, serve un metodo. Sei passi. O sette. O cinque. Non importa il numero. Importa averli scritti da qualche parte. Nel codice, nella testa, sulla parete dell’ufficio. Purché ci siano. Perché senza, siamo solo macchine che credono di essere umane – ripetiamo schemi, ottimizziamo parametri, massimizziamo funzioni di utilità senza nemmeno accorgercene. Con il metodo, invece, siamo umani che usano le macchine. E la differenza – lo dico piano, perché è una cosa seria – è tutta qui. Non nei dati. Non negli algoritmi. Nella scelta, ogni volta, di non premere quel bottone senza aver prima pensato. Di non dire “me l’ha detto il computer”. Di guardare, invece, la paura negli occhi di chi ci sta davanti.
Salvatore Martino – OfflineMind