Il tuo browser non supporta JavaScript!
Vai al contenuto della pagina
Innovazione

Intelligenza artificiale e intelligenza editoriale: quale patto per il libro che verrà

di Alessandra Rotondo notizia del 30 gennaio 2026

Che cosa significa, oggi, parlare di intelligenza artificiale nel mondo del libro senza ridurre la discussione a un riflesso condizionato: entusiasmo o allarme, accelerazione o difesa? La tavola rotonda internazionale Intelligenza artificiale e intelligenza editoriale, ospitata alla giornata conclusiva del Seminario della Scuola per Librai Umberto e Elisabetta Mauri, ha provato a tenere insieme le due dimensioni: la trasformazione tecnologica in corso e la specificità culturale, economica e professionale dell’editoria.
 
Coordinato da Stefano Mauri (GeMS e Fondazione Mauri) e moderato da Erin L. Cox (Publishing Perspectives) l’incontro ha riunito alcune delle voci più autorevoli della filiera globale: Brian Murray (HarperCollins), David Shelley (Hachette), James Daunt (Waterstones e Barnes & Noble) e Sonia Draga (Federazione europea degli editori). Ne è emerso un quadro sfaccettato, attraversato da una domanda di fondo: come far coesistere l’intelligenza veloce delle macchine con quella creativa, peculiare, umana, che da sempre struttura il lavoro editoriale?
 
Un’intelligenza editoriale che non si delega
Per Stefano Mauri, il punto di partenza è evitare una contrapposizione astratta. L’editoria è già, per sua natura, un sistema di conoscenza distribuita: una rete di competenze, sensibilità, capacità di osservazione, memoria delle trasformazioni. È questa la sostanza di ciò che è stata definita «intelligenza editoriale».
In questo contesto, l’IA non può essere semplicemente ignorata: «Non posso immaginare un mondo in cui tutti usino l’intelligenza artificiale, tranne gli editori» ha osservato Mauri, insistendo però sulla necessità di un uso consapevole e professionale. L’adozione degli strumenti non è il problema, lo è piuttosto la perdita di controllo, la seduzione dell’automatismo, la possibilità che la tecnologia produca falsità credibili e dunque difficili da individuare.
A questa cautela si lega anche un tema di responsabilità: nella filiera editoriale esiste sempre un soggetto riconoscibile – autore, editore, curatore – chiamato a rispondere di ciò che viene pubblicato. Con l’IA il rischio è che questa catena si faccia più opaca, e che diventi più difficile individuare chi sia responsabile di una produzione inesatta, offensiva o indebita. È uno snodo che il legislatore dovrà necessariamente affrontare.
 
Dati, pirati e legittimità del training
Il confronto ha mostrato con chiarezza che la questione più sensibile non riguarda soltanto l’uso futuro dell’intelligenza artificiale, ma il modo in cui molti modelli sono stati costruiti e alimentati. Sempre Stefano Mauri ha insistito sul tema dell’origine dei dataset e sul rischio che la trasformazione tecnologica si fondi su una violazione strutturale del diritto d’autore.
«Compagnie miliardarie rubano i libri, li hanno presi e non li hanno neanche comprati» ha detto, evocando esplicitamente la pirateria e circuiti come Torrent. Calzante, in proposito, il riferimento al libro di Shoshana Zuboff, Il capitalismo della sorveglianza (Luiss University Press), per descrivere un modello economico fondato sull’estrazione sistematica di dati, informazioni, contenuti prodotti e disseminati da altri, spesso senza consenso né ritorno per chi ne ha la titolarità.
Non si tratta di una battaglia difensiva contro l’innovazione, ma di una questione di legittimità: senza riconoscimento economico e giuridico delle opere, la filiera rischia di trovarsi davanti a un’innovazione costruita sull’erosione del proprio stesso capitale culturale.
 
Verso un mercato dei diritti negoziato
Su questo terreno si è collocato anche Brian Murray, con un’attenzione particolare alla dimensione industriale. Murray ha riconosciuto che il contenzioso legale tra big tech e imprese editoriali è inevitabile, ma ha sottolineato i limiti di una strategia fondata soltanto sulle cause: tempi lunghi, esiti incerti, rischio di paralisi. Da qui l’esigenza di affiancare alla difesa legale un percorso negoziale. «Dobbiamo dimostrare che esiste un mercato per la concessione dei diritti» ha spiegato, indicando nella contrattualistica una possibile via per trasformare un conflitto in un modello sostenibile.
Murray ha poi raccontato l’accordo siglato da HarperCollins con OpenAI per garantirle l’accesso ad alcuni suoi contenuti, con il risultato implicito – oltre alla monetizzazione – di preservarne altri, agendo in un perimetro controllato: opt-in degli autori, accesso alla sola backlist e alla saggistica, limiti stringenti alla riproduzione dei testi (ad esempio non oltre 200 parole consecutive), procedure rapide in caso di violazioni.
L’obiettivo, ha suggerito, non è «cedere» i contenuti, ma stabilire regole di utilizzo e forme di remunerazione che riconoscano il valore economico delle opere in un contesto in cui la tecnologia corre più velocemente della giurisprudenza.
 
Da Google Books a OpenAI, passando per Disney
La discussione, d’altronde, s’inserisce in una genealogia di precedenti che l’editoria conosce bene. Mauri ha ricordato la stagione di Google Books, quando la digitalizzazione massiva dei testi aprì un confronto serrato sul copyright. Oggi, però, la scala è ancora diversa: non si tratta solo di accesso o indicizzazione, ma dell’uso dei libri come materia prima per addestrare sistemi generativi.
Murray ha citato il caso Anthropic come esempio dell’ambiguità giuridica attuale, ribadendo quanto sarà necessario costruire strumenti contrattuali e mercati di licenza più chiari. In questo scenario, ha richiamato in particolare l’attenzione sull’accordo tra Disney e OpenAI, che consente forme di interazione controllata con le property del marchio senza una cessione indiscriminata di nomi, immagini o voci. Un modello che suggerisce come licensing, vincoli e ritorni economici possano costituire una possibile direzione anche per il mondo editoriale.
La riflessione, ha precisato Murray, viene anche dalle economie collaterali che crescono spontaneamente attorno alle storie – dalla fan fiction alle community –, osservando che proprio qui l’IA rischia di amplificare la creazione di valore fuori dalla filiera legittima della proprietà intellettuale, se non si costruiscono forme regolamentate di partecipazione e remunerazione per editori e autori.
 
Il banco di prova dell’Europa
Sul versante europeo, Sonia Draga ha descritto un equilibrio particolarmente fragile. La frammentazione del mercato editoriale continentale – composto in gran parte da vivaci galassie di operatori medi e piccoli – rende più difficile sostenere individualmente un confronto con le piattaforme globali e rafforza la necessità di strumenti comuni e di un enforcement reale.
Draga ha sottolineato che la discussione riguarda anche ciò che è già avvenuto: «Il danno è già stato fatto: tante autrici e autori europei sono già stati copiati». Il percorso – incluso l’AI Act – appare in questo senso come un cantiere da consolidare, soprattutto nella capacità di tradurre i principi in applicazione concreta e in meccanismi di remunerazione.
C’è poi un paradosso interno alla filiera da sottolineare: scrittori, scrittrici, traduttori, traduttrici, illustratori e illustratrici spesso utilizzano strumenti generativi per finalizzare il loro lavoro senza piena consapevolezza delle implicazioni. In questo quadro, ha osservato Draga, non è irrilevante nemmeno la crescita di un self publishing che può diventare ancora più esposto a un uso non regolato dell’IA, in assenza di mediazioni editoriali e di garanzie contrattuali.
L’editrice ha sottolineato anche quanto questa zona grigia sia già visibile nei processi concreti di produzione: raccontando il lavoro su una copertina, ha spiegato che solo ingrandendo la bozza proposta dal grafico di fiducia si è accorta di un dettaglio impossibile – una mano con più dita del normale, tipica allucinazione da AI –, segnale di un uso di strumenti generativi non dichiarato apertamente. È un episodio simbolico che riporta al tema della trasparenza lungo tutta la filiera, sul piano normativo ma anche nelle pratiche quotidiane.
In questo quadro, Draga ha insistito anche su un punto politico più ampio: per l’Europa la sfida non è soltanto dotarsi di norme, ma evitare che la regolazione resti disallineata rispetto alla capacità di incidere davvero sulle pratiche delle piattaforme globali. Il rischio è che il continente si trovi schiacciato tra frammentazione interna e pressione esterna, con strumenti avanzati sul piano dei principi ma ancora deboli sul terreno dell’applicazione e della contrattazione. Per questo, accanto alla tutela del diritto d’autore, diventa decisivo costruire meccanismi condivisi di trasparenza e remunerazione, capaci di dare ossigeno alla filiera e di impedire che il valore generato dalle opere europee venga trasferito altrove senza ritorno.
 
Tra trasparenza e autorialità
Accanto alla dimensione legale ed economica, è emerso un tema culturale: la crescente zona grigia tra uso assistivo e generazione integrale. Brian Murray ha proposto un rovesciamento sul piano della trasparenza: più che etichettare ciò che è prodotto dall’IA, potrebbe diventare centrale certificare ciò che nasce da un atto umano. «I lettori vogliono sapere se dall’altra parte della storia c’è un essere umano» ha osservato: un marchio human-made potrebbe essere garante di autorialità, responsabilità e fiducia.
David Shelley ha ricondotto la questione alla relazione con l’autorialità, notando che, se lui legge un libro, non gli interessa solo il testo in sé, ma anche l’idea di immaginare la persona che lo ha scritto: «Mi piace Sally Rooney e mi piacciono i suoi libri, ma mi piace anche l’idea di vedere e immaginare Sally Rooney e chiedermi come è nata quella storia».
D’altronde, secondo un sondaggio condotto da Hachette, circa il 70% delle persone intervistate dichiarava di non voler leggere libri scritti dall’intelligenza artificiale, percentuale che saliva all’80% nel caso dei libri per ragazzi e ragazze. Tre lettori su quattro chiedevano inoltre trasparenza sull’uso di strumenti generativi.
Shelley ha osservato che questa domanda di riconoscibilità nasce anche da una presenza già visibile sul mercato di prodotti «altri»: contenuti come le bedtime stories, ad esempio, generate automaticamente e accompagnate da voci sintetiche. Prodotti che possono entrare rapidamente nell’offerta perché non gravati dei costi legati al copyright, alla traduzione, all’acquisizione dei diritti di edizione. E, nella maggior parte dei casi, mediamente scadenti.
 
L’impatto ambientale e la sostenibilità della filiera
Shelley ha richiamato anche un aspetto meno discusso nel dibattito pubblico, ma destinato a pesare sempre di più: la dimensione materiale e ambientale dell’intelligenza artificiale. L’adozione di modelli generativi implica infatti infrastrutture, consumo energetico, risorse e costi ecologici che rischiano di essere sottovalutati. In questo senso, la transizione in corso non riguarda soltanto la tutela del diritto d’autore o la trasparenza verso i lettori, ma anche la sostenibilità complessiva di un ecosistema estremamente energivoro.
Da qui il paragone con il cibo organico, biologico, che proviene da una filiera più tracciata, controllata e sostenibile, e intercetta l’interesse di un pubblico disposto a valorizzare queste caratteristiche, anche in termini di spesa. L’epilogo? Shelley richiama l’ipotesi di un mercato in netta biforcazione: da un lato, contenuti prodotti a bassissimo costo, spesso fuori dai processi dell’editoria tradizionale, dalle sue tutele e dalle sue garanzie di qualità; dall’altro, un segmento premium fondato su creatività umana, filiera responsabile e fiducia.
 
La libreria come presidio di fiducia
Dal punto di vista del retail, James Daunt ha riportato la discussione su un terreno molto concreto: in un ecosistema destinato a diventare sempre più saturo di contenuti, la libreria fisica resta uno degli ultimi spazi in cui la mediazione umana non è facilmente sostituibile. «Io posso sicuramente immaginare un mondo in cui tutti usano l’IA, tranne il libraio» ha detto ribaltando l’assunto iniziale di Stefano Mauri e rivendicando il ruolo della selezione e della cura come parte essenziale del lavoro quotidiano di chi è in libreria.
Librai e libraie, ha osservato Daunt, mantengono un’identità fortemente individuale – «un po’ come gatti selvatici» – e, almeno istintivamente, tendono a tenere separati e riconoscibili i prodotti generati dagli strumenti tecnologici. Ha poi aggiunto che, nelle sue librerie, non esistono dispositivi pensati per eliminare la relazione fra cliente e libraio: la mediazione resta centrale, anche mentre l’IA entra in molte attività di back office e di distribuzione.
In questo senso la questione tocca anche la fiducia che lega lettori, librerie ed editori: «C’è un aspetto enorme di fiducia e di reputazione» nel modo in cui l’industria affronterà questa fase, soprattutto nella capacità degli editori di proteggere gli autori e di non lasciare che l’innovazione si traduca in una corsa al ribasso sulla qualità dei contenuti.
 
Governare la transizione, non subirla
In chiusura, Stefano Mauri ha riportato la discussione al punto essenziale: non esiste un futuro editoriale senza un’assunzione di responsabilità. L’IA è uno strumento potente, ma non può diventare un soggetto senza volto. La filiera del libro – case editrici, persone autrici, librai e libraie, e anche istituzioni – dovrà pretendere e stabilire regole, accordi, forme di remunerazione e trasparenza che rendano sostenibile l’ecosistema, evitando che l’innovazione si traduca in un trasferimento unilaterale di valore fuori dal settore.
La tavola rotonda ha mostrato che la partita non si gioca soltanto sul terreno tecnologico, ma su quello della legittimità e della fiducia: nella capacità di riconoscere e compensare le opere che alimentano i modelli, di definire un mercato delle licenze credibile, di distinguere ciò che resta umano in un ecosistema sempre più partecipato da algoritmi e tecnologie. In questo senso, il ruolo dell’Europa – con i suoi strumenti normativi ancora in consolidamento – e quello delle librerie come presìdi di mediazione culturale appaiono centrali.
La sensazione, a Venezia, è che la transizione sia appena cominciata. Ma anche che l’editoria, proprio grazie alla sua intelligenza editoriale, abbia ancora gli strumenti per non subirla: trasformando il conflitto in negoziazione, la difesa in progetto, e la tecnologia in una sfida da governare con lucidità, senza rimozioni né deleghe.

L'autore: Alessandra Rotondo

Dal 2010 mi occupo della creazione di contenuti digitali, dal 2015 lo faccio in AIE dove oggi sono responsabile del contenuto editoriale del Giornale della Libreria, testata web e periodico in carta. Laureata in Relazioni internazionali e specializzata in Comunicazione pubblica alla Luiss Guido Carli di Roma, ho conseguito il master in Editoria di Unimi, AIE e Fondazione Mondadori. Molti dei miei interessi coincidono con i miei ambiti di ricerca e di lavoro: editoria, libri, podcast, narrazioni su più piattaforme e cultura digitale. La mia cosa preferita è il mare.

Guarda tutti gli articoli scritti da Alessandra Rotondo

Inserire il codice per il download.

Inserire il codice per attivare il servizio.