L’etica della macchina e la coscienza dell’uomo
Nel cuore dell’era digitale, l’umanità si trova di fronte a una domanda che non è tecnica, ma morale: è etico usare l’intelligenza artificiale?
Non è una questione nuova. Già Seneca, pur parlando di altro, ci ammoniva: “Non è perché le cose sono difficili che non osiamo farle, ma perché non osiamo che sono difficili.” Così oggi, più che affrontare con coraggio i dilemmi della tecnica, preferiamo cullarci nell’entusiasmo acritico o rifugiarci nel sospetto.
Ma la questione merita di essere affrontata con onestà. E con esempi.
L’IA che salva: tra etica e progresso
Ci sono casi in cui l’uso dell’IA appare non solo etico, ma doveroso.
Penso alla sanità. L’algoritmo DeepMind di Google, ad esempio, è stato addestrato per diagnosticare patologie oculari e renali con una precisione superiore a quella umana, anticipando problemi prima ancora che si manifestassero visivamente.
Oppure il progetto AI for Earth di Microsoft, che usa l’intelligenza artificiale per monitorare la deforestazione, proteggere le riserve idriche, prevedere catastrofi ambientali.
Qui, l’IA non sostituisce l’uomo: lo potenzia. Aiuta a vedere più lontano, a decidere più consapevolmente. Il suo uso è etico perché si mette al servizio della vita, con trasparenza e finalità chiaramente dichiarate.
Quando l’IA mente: deepfake e propaganda
Diverso è il caso dell’IA che inganna.
Nel 2023, uno spot elettorale circolato durante le primarie repubblicane negli Stati Uniti mostrava immagini false, create con IA, di un finto attacco alla Casa Bianca e di finti disordini sociali. L’obiettivo? Manipolare le emozioni, non informare.
E ancora: il caso del falso papa in piumino bianco, generato con Midjourney e diventato virale, dimostra quanto poco basti oggi per sospendere il giudizio.
L’etica qui è compromessa: non perché la tecnologia sia cattiva, ma perché viene usata per travestire la menzogna da realtà.
Il lavoro che scompare, o si trasforma?
L’IA può anche minacciare l’etica del lavoro.
Secondo uno studio del World Economic Forum (2023), 83 milioni di posti di lavoro potrebbero essere automatizzati nei prossimi 5 anni, specialmente nei settori di back-office, data entry, assistenza clienti.
Un esempio italiano: la RAI ha recentemente sperimentato la sintesi vocale per automatizzare la lettura dei notiziari radio notturni. Una voce artificiale, precisa ma senz’anima. Dietro, giornalisti in meno e meno opportunità per i giovani cronisti.
È etico questo uso dell’IA?
Solo se accompagnato da misure di riconversione, formazione, protezione. Altrimenti diventa un silenzioso licenziamento di massa.
L’algoritmo che discrimina
Non tutti gli algoritmi sono imparziali.
Nel 2018, il sistema COMPAS, utilizzato negli USA per valutare il rischio di recidiva dei detenuti, è stato accusato di discriminare sistematicamente i neri, assegnando loro punteggi di rischio più alti rispetto ai bianchi per reati simili.
Oppure i sistemi di riconoscimento facciale in Cina, applicati alla sorveglianza di massa, dove minoranze etniche come gli uiguri vengono tracciate con criteri automatici e opachi.
Quando l’IA replica — o amplifica — i pregiudizi umani, l’etica è tradita. Perché si smette di valutare un individuo per ciò che è, e si comincia a giudicarlo secondo un profilo, una probabilità, una media.
L’IA nella scuola e nell’educazione
Anche l’uso nelle scuole solleva domande.
Un professore può usare ChatGPT per preparare un quiz, ma se lo studente lo usa per scrivere un tema intero, stiamo forse rinunciando alla crescita del pensiero critico?
L’etica, in questo caso, non è nella macchina ma nell’intenzione. Non si tratta di vietare l’IA agli studenti, ma di insegnare loro quando e perché usarla. Come una calcolatrice non toglie la necessità di capire l’aritmetica, così l’IA non può sostituire il ragionamento.
Conclusione: la macchina non ha coscienza, noi sì
L’etica dell’IA non è nei codici, ma negli occhi di chi la usa.
Un coltello può tagliare il pane o ferire. Così pure un algoritmo: può suggerire un farmaco o spingere all’autolesionismo (come purtroppo accadde su TikTok, in alcuni tragici casi di minori).
Non chiediamoci solo se possiamo usare l’IA. Chiediamoci se dovremmo. E soprattutto: perché.
Solo così la tecnologia potrà essere davvero alleata dell’uomo, e non suo surrogato.

