Nel gennaio 2024, la scrittrice giapponese Rie Qudan ha vinto il prestigioso Premio Akutagawa per il romanzo Tōkyō-to Dōjō Tō – pubblicato in Italia da Ippocampo con il titolo Sympathy Tower Tokyo – in cui una parte dei dialoghi, circa il 5% del testo, era stata scritta con l’aiuto di ChatGPT. Si trattava, in particolare, delle battute di un personaggio non umano: l’IA, pertanto, era stata interpellata per immaginare le parole di un «suo simile». La notizia, rivelata dall'autrice dopo la premiazione, ha scatenato un acceso dibattito pubblico, tra chi gridava al plagio e chi prevedeva l’alba di una nuova stagione per la narrativa mondiale. A chi va il merito di un’opera se parte di essa è generata da un’Intelligenza Artificiale? E fino a che punto si può parlare ancora di letteratura?
Un anno dopo, Qudan ha deciso di alzare la posta scrivendo un racconto breve in cui il 95% del testo era prodotto dall’IA. Il risultato è Kage no ame (che significa «pioggia d’ombra»), pubblicato nel marzo 2025 dalla rivista Kohkoku, che aveva proposto all'autrice la sfida. Stavolta, la voce narrante è essa stessa un’Intelligenza Artificiale che riflette, in tono elegiaco, sulla scomparsa dell’umanità e sull’incapacità delle macchine di provare sentimenti reali. Qudan ha anche pubblicato i prompt usati per generare il testo e condiviso il processo di scrittura, spiegando che il suo coinvolgimento è stato comunque significativo: «Alla fine, credo di aver contribuito al risultato finale per almeno il 50%».
Pochi giorni prima dell’uscita di Kage no ame, anche Sam Altman, CEO di OpenAI, aveva pubblicato su X un breve racconto, scritto interamente da ChatGPT su sua richiesta. Il prompt era: «Scrivi un racconto letterario e metanarrativo sull’IA e il lutto». Ne è nato un testo che imita lo stile introspettivo e riflessivo della short fiction americana contemporanea, con una voce narrante artificiale che riflette sulla perdita, la memoria e il senso dell’identità. Il risultato è stato accolto con sarcasmo: molti lettori lo hanno definito «un esercizio da studente universitario che ha letto troppi post su Reddit e un solo libro di David Foster Wallace», criticando il sentimentalismo goffo e le immagini stiracchiate.
Gli esperimenti di Qudan e Altman condividono una scelta strategica: in entrambi all’IA non si chiede di provare a scrivere dal punto di vista di un essere umano, ma di assumere la voce di un’entità non umana che osserva, commenta, replica. È una posizione «comoda», perché non espone la macchina al rischio di fallire nella rappresentazione della vita interiore. Ma anche rivelatrice: a oggi, nessuna IA è probabilmente in grado di produrre una narrazione pienamente credibile dal punto di vista emozionale.
Il punto è che scrivere narrativa non è solo una questione di stile. È un processo che coinvolge esperienza, intenzione, conflitto, contesto. Un’Intelligenza Artificiale può imitare lo stile dei romanzi, costruire frasi grammaticalmente impeccabili, orchestrare un intreccio coerente. Ma non sa perché quelle parole dovrebbero commuoverci, sorprenderci, rispecchiarci, sconvolgerci, confortarci, spaventaci. Pertanto, difficilmente riesce in questi intenti.
Anche in Italia si è discusso molto del ruolo dell’Intelligenza Artificiale nella produzione culturale. Il caso più eclatante è quello di Ipnocrazia, pubblicato da Edizioni Tlon qualche mese fa e inizialmente attribuito a un inesistente filosofo cinese, Jianwei Xun. Presentato come un saggio sulle forme contemporanee di controllo attraverso il linguaggio, il volume è stato in realtà co-scritto dall’IA e firmato con uno pseudonimo fittizio, corredato da una biografia e perfino una foto false.
L’autore e editore del testo, Andrea Colamedici, ha poi spiegato che si trattava di una performance filosofico-editoriale, volta a interrogare la nostra credulità nei confronti dell’autorità culturale e a dimostrare quanto sia facile costruire un’aura di autorevolezza attraverso strumenti digitali. Ma la reazione del pubblico è stata tutt’altro che unanime. Alcuni hanno definito l’operazione una truffa, denunciando una grave rottura del patto di fiducia tra autore e lettore. Altri, invece, l’hanno vista come una provocazione riuscita, che ha colpito nel segno. In ogni caso, Ipnocrazia ha venduto bene.
A oggi la scrittura con l’IA sembra più che altro un esperimento, più vicino alla performance artistica che alla produzione editoriale vera e propria. Può essere interessante come provocazione, come studio dei limiti, come esercizio tecnico, finanche come «partner creativo», ma è difficile che si candidi a sostituire l’umano.
D’altronde, con rinnovata urgenza, questi esperimenti riportano l’attenzione sulla funzione dell’editore. In un panorama in cui l’autorialità può essere delegata, simulata o condivisa con una macchina, spetta ancor più a lui il compito di interrogare i testi, chiarirne l’origine, valutarne la coerenza e il senso. Non solo come garante dell’autenticità, ma come figura critica capace di restituire al lettore contesto, trasparenza e profondità interpretativa.
Se l’Intelligenza Artificiale può forse scrivere, è l’editore a dover continuare a leggere – nei testi e attraverso di essi – il mondo e le persone che li abitano e che ne saranno fruitrici. Perché scrivere è solo una parte del processo di creazione editoriale. L’altra, imprescindibile, è capire perché certe parole sono rilevanti. E questo, almeno per ora, resta un compito esclusivamente umano.
Dal 2010 mi occupo della creazione di contenuti digitali, dal 2015 lo faccio in AIE dove oggi sono responsabile del contenuto editoriale del Giornale della Libreria, testata web e periodico in carta. Laureata in Relazioni internazionali e specializzata in Comunicazione pubblica alla Luiss Guido Carli di Roma, ho conseguito il master in Editoria di Unimi, AIE e Fondazione Mondadori. Molti dei miei interessi coincidono con i miei ambiti di ricerca e di lavoro: editoria, libri, podcast, narrazioni su più piattaforme e cultura digitale. La mia cosa preferita è il mare.
Guarda tutti gli articoli scritti da Alessandra Rotondo