La responsabilità resta umana, anche con l’IA
L’intelligenza artificiale nella scrittura entra oggi nei processi editoriali in modo quasi silenzioso. Non sempre come protagonista. A volte come supporto, altre come suggerimento tecnico. Ma entra. E questo modifica la struttura della responsabilità, anche quando non è immediatamente visibile.
Non è particolarmente utile chiedersi se l’intelligenza artificiale scriva bene o male. La qualità è sempre stata variabile, anche tra gli esseri umani. La questione più rilevante riguarda invece la responsabilità dei testi scritti con IA: quando un contenuto viene pubblicato, chi ne risponde davvero?
Si racconta che in redazione, quando Enzo Biagi rileggeva un pezzo prima di mandarlo in stampa, facesse una domanda semplice all’autore: “Se ti citano in tribunale per questa frase, la confermi?”. Non era una minaccia, ma un metodo. Se la risposta esitava, la frase si tagliava. Non per paura, ma per precisione. O forse anche per prudenza, che non coincide con la censura.
Era un modo concreto di ricordare che ogni parola pubblicata esce dalla pagina ed entra nello spazio pubblico. E nello spazio pubblico produce effetti.
Anche Leonardo Sciascia, intervenendo su temi controversi, sapeva che non avrebbe potuto rifugiarsi dietro l’ambiguità. Le sue parole erano nette, talvolta scomode, ma sempre riconducibili a una responsabilità personale. Non perfette. Ma attribuibili.
Oggi un sistema di intelligenza artificiale può generare testi coerenti, riorganizzare argomentazioni, sintetizzare concetti complessi e imitare uno stile. Tuttavia non è un soggetto giuridico. Non possiede responsabilità penale, né reputazione, né identità civile. Può assistere chi scrive, può accelerare il lavoro, certo. Può migliorarne alcuni aspetti tecnici — non tutti.
Se un articolo redatto con l’aiuto dell’IA contiene un’affermazione lesiva o diffamatoria, non sarà l’algoritmo a comparire davanti a un giudice. Sarà la persona che ha deciso di pubblicare. È un punto essenziale: la responsabilità legale dei contenuti generati con IA resta umana.
L’articolo 21 della Costituzione parla di “tutti”. Quel termine riguarda individui, non sistemi automatici. La libertà di espressione è attribuita a chi può essere chiamato a rispondere delle proprie parole. Senza questo legame tra libertà e responsabilità, la parola rischia di trasformarsi in flusso anonimo: circola, si replica, si amplifica. Ma non pesa.
Nelle piattaforme digitali la velocità amplifica questo effetto. Un testo può essere replicato migliaia di volte prima ancora che qualcuno ne contesti il contenuto. Ma la moltiplicazione non elimina l’origine.
Il tema non è opporre passato e presente, né rifiutare l’innovazione tecnologica. La questione riguarda piuttosto la firma nei testi scritti con intelligenza artificiale. Pubblicare implica assumersi la responsabilità, anche quando una parte del lavoro è stata delegata a un sistema automatico.
L’intelligenza artificiale può assistere la scrittura. Può accelerarla. Può migliorarne alcuni aspetti tecnici.
Ma la firma resta una scelta. E la scelta, per ora, appartiene ancora a una persona.