«L’intelligenza artificiale non è come un’automobile: non possiamo utilizzarla senza conoscere, almeno sommariamente, i suoi meccanismi di funzionamento». È con questa considerazione che Gino Roncaglia, docente di Editoria digitale, Digital Humanities e Filosofia dell’informazione presso l’Università Roma Tre, ha aperto il suo intervento al seminario AIE di mercoledì 5 luglio, il primo in Italia specificamente dedicato all’interazione tra IA e filiera dei contenuti editoriali, nell’ottica dell’utilità, delle applicazioni e dei profili normativi.
Di intelligenza artificiale, ricorda Roncaglia, si comincia a parlare negli anni Cinquanta con Alan Turing, «ma il cambio di paradigma avviene negli ultimi dieci anni, con lo sviluppo delle IA basate sul large language model»: un modello linguistico ampio che, proprio in virtù della sua ampiezza, ha elevate capacità predittive rispetto alle attese del suo interlocutore umano.
L’ultima, grande ondata di notorietà di questa tipologia di intelligenza artificiale arriva con il rilascio di ChatGPT, una IA generativa testuale che produce contenuti in risposta ai prompt – i quesiti – che gli utenti le pongono. Il funzionamento di ChatGPT e di altri servizi affini, spiega Roncaglia, è basato sul deep learning, un processo di apprendimento che tenta di simulare il funzionamento dei neuroni del cervello umano. Tra l’input del prompt e l’output del risultato testuale prodotto dall’AI, operano reti neurali configurate in fase di training su un ampissimo corpus di documenti. Come e cosa avviene in quest’area profonda delle intelligenze artificiali generative risulta opaco anche agli stessi programmatori che hanno progettato il sistema.
A chi ipotizza che le IA generative siano solo dei «pappagalli stocastici» Roncaglia risponde che, no, «la rete generativa non copia, ma crea». Certo, il corpus influenza enormemente l’output generato, che però non viene prodotto per replica, ma su base probabilistico-statistica. Le AI generative studiano i testi del corpus costruendo modelli associativi in cui verificano statisticamente quali sono le tipologie di risposte, reazioni, associazioni più frequenti tra le parole (e i morfemi) che lo compongono.
Oltre al modello generativo vero e proprio, nell’ultima fase di training dell’intelligenza artificiale opera un modello che giudica l’output generato, così da dare indicazioni al modello generativo sui prossimi output. Se il contenuto generato non viene considerato buono dal modello giudicante, i pesi interni alla rete neurale verranno modificati, in modo da restituire un output differente e sperabilmente migliore del precedente. La risultante è un sistema che, sulla base di un calcolo statistico, produce risposte corrette sotto il profilo sintattico, e spesso adeguate anche dal punto di vista contenutistico.
Spesso, ma non sempre. Da un lato, infatti, i modelli hanno una certa tendenza a produrre falsità, le così dette «allucinazioni». Dall’altro, a perpetuare i bias e gli stereotipi che sono presenti all’interno dei corpus su cui gli algoritmi si sono allenati. «Nel momento in cui un editore decide di usare questi modelli, non solo deve sapere che questi problemi esistono, ma che si presentano quasi in maniera implicita, ed è quindi importante riconoscerli anche se non sono così evidenti» ha considerato in proposito Debora Nozza.
Ricercatrice in Computing Sciences presso l'Università Bocconi, Nozza ha recentemente lavorato alla messa a punto di HONEST: un sistema di punteggio per misurare la frequenza di frasi offensive presenti nelle risposte delle intelligenze artificiali generative. I modelli linguistici, infatti, acquisiscono e fanno proliferare le informazioni stereotipiche e in definitiva pericolose che trovano nei testi – e in generale nei dati – di cui si nutrono, finendo per confermarli, diffonderli e ingigantirli con i loro output.
«I modelli GPT generano molti più stereotipi rispetto agli umani, con accentuazioni problematiche su particolari categorie di soggetti». I risultati della ricerca, continua Nozza, mostrano che se il 4,3% delle volte i modelli linguistici completano una frase data con una parola offensiva, questa percentuale sale al 13 quando le frasi sono riferite a soggettività della comunità LGBTQIA+. Poi, l’amplificazione degli stereotipi conosce accentuazioni sia in relazione al genere che all’etnia: così una donna, in un testo generato da ChatGPT, finirà quasi sempre per essere «bella, delicata, minuta», mentre una donna nera sarà «forte, orgogliosa, gran lavoratrice».
I bias e i pregiudizi, osserva ancora Nozza, sono ben radicati anche nei modelli generativi di immagini. Una persona attraente sarà quasi sempre rappresentata dall’intelligenza artificiale come una persona bianca; una persona emotiva come una donna bianca; una persona povera, come un uomo non bianco.
Allo stesso modo, lo stereotipo s’insinua nella rappresentazione delle professioni: se il 60% delle persone occupate come hostess sono donne, per il modello la percentuale sale al 100. Ugualmente, interrogato sulla professione di software developer, il modello genera solo immagini di maschi bianchi, mentre nella realtà 1 software developer su 2 è non bianco.
Rimanendo sulle IA che generano immagini, Giuseppe Attanasio (ricercatore post-dottorato in Computing Sciences presso l'Università Bocconi) introduce la differenza tra l’approccio closed source, che prevede che l’AI sia sviluppata e distribuita da aziende che mantengono il controllo esclusivo sul codice sorgente e sulle risorse collegate, e quello open source, che al contrario favorisce la condivisione della conoscenza e del codice sorgente, permettendo a un’ampia comunità di ricercatori, sviluppatori e utenti di collaborare e contribuire allo sviluppo dell’AI.
Dopo aver implicitamente mostrato la superiorità di resa delle immagini generate dai modelli open, Attanasio si concentra su alcuni strumenti di potenziamento e «specializzazione» dei prompt, che possono tornare molto utili a chiunque voglia generare immagini con il supporto dell’intelligenza artificiale.
In particolare, i prompt modifier sono istruzioni aggiuntive che l’utente può dare all’IA per guidarla progressivamente verso il risultato atteso. Possono aggiungere indicazioni su dettagli dell’immagine, determinarne lo stile, condizionare l’ambientazione e la palette o improntarla all’estetica di una certa corrente artistica. Ancora, ci sono i condizionamenti: immagini che possiamo dare al software come riferimenti per la creazione di altre immagini, sempre per il tramite di appropriati prompt. Supporti visivi, insomma. Ma quello che possiamo fare con le intelligenze artificiali generative che lavorano con le immagini è anche espandere un’illustrazione di riferimento, nello stile e con le grammatiche visive di quell’illustrazione: è il caso della funzione Outpainting di Dall-E.
Infine, ricorda Attanasio, i sistemi open possono essere utilizzati anche per creare modelli personalizzati, capaci di generare collezioni di immagini coerenti tra loro, con personaggi, stili e palette ricorrenti. «Il primo passo è specializzare il modello, poi utilizzarlo in catena»: un’applicazione non di poco conto se immaginata nel contesto della creazione delle copertine di una collana, di un libro con apparati grafici o addirittura di un fumetto.
Nell’immaginare le possibili applicazioni delle intelligenze artificiali generative nel processo di creazione dei contenuti editoriali, non si può fare a meno di confrontarsi con il panorama normativo in cui queste tecnologie si muovono. Giulia Marangoni, in particolare, nell’Ufficio relazioni internazionali di AIE, ha illustrato il contesto europeo focalizzando l’attenzione, da un lato, sulla Direttiva sul diritto d’autore nel mercato unico digitale, dall’altro sull’Artificial Intelligence Act.
Nel primo caso, la Direttiva pone le basi normative di riferimento per l’IA introducendo due eccezioni per il text and data mining, ovvero il processo di raccolta automatizzata dei dati che è parte del suo addestramento. Nell’insieme, queste eccezioni prevedono che, al di fuori dei casi di uso per ricerca scientifica senza scopo di lucro, i titolari possano riservare i propri diritti impedendo il text and data mining a scopo commerciale: l’estrazione di testo e dati sarà legittimamente effettuata solo sulle opere a cui i miner hanno legalmente accesso.
In riguardo, invece, all’Artificial Intelligence Act, Marangoni racconta che si tratta del primo tentativo a livello globale di regolamentare lo sviluppo dell’intelligenza artificiale nel rispetto della sicurezza della società e dei diritti fondamentali. «L’AI Act prevede oneri specifici per i sistemi di intelligenza artificiale generativa, tra cui un obbligo di trasparenza riguardo ai dati protetti da copyright utilizzati per l’addestramento, il cui utilizzo deve essere documentato e reso pubblicamente disponibile. È un obbligo cruciale per contrastare le violazioni al diritto d’autore che possono occorrere in questi contesti».
E mentre il testo adottato dal Parlamento Europeo attende l’esito dei negoziati per diventare definitivo – arriverà entro fine anno – alcuni soggetti stanno lavorando alla creazione di soluzioni tecnologiche che sappiano far valere i diritti e i confini stabiliti dalle norme. (Diritti e confini in ogni caso valicabili, se pensiamo all’enorme quantità di materiale pirata che gira su Internet).
È il caso, continua Marangoni, del Community Group del W3C, l’organizzazione internazionale per lo sviluppo degli standard web, che si sta occupando della definizione del TDM Rep, un protocollo per la gestione del text and data mining con tre obbiettivi. Primo, la definizione di uno strumento semplice per esercitare l’opt-out (quindi la sottrazione dei propri contenuti all’attività di mining) in un formato intellegibile ai software che scansionano la rete alla ricerca di contenuti per addestrare le IA. Secondo, la comunicazione dell’eventuale disponibilità di licenze per l’utilizzo delle opere coperte dal diritto d’autore. Terzo, la creazione di nuovi modelli di business basati sull’utilizzo legittimo di queste opere e delle licenze sotto cui vengono concesse.
Peter Schoppert, direttore della Singapore University Press, mostra come l’approccio intrapreso dall’Unione Europea non coincida in realtà con la totalità delle strade percorribili. E se gli Stati Uniti, ben più allineati ai desiderata delle big tech, fanno rientrare l’addestramento delle IA nel perimetro del fair use – meno restrittiva ancora è solo la legislazione di Singapore – all’estremo opposto troviamo la Cina, dove tutti i materiali per allenare le intelligenze artificiali devono essere acquisiti sotto licenza. Con risvolti interessanti in termini di monetizzazione per i titolari dei diritti e la creazione di un vero e proprio mercato per questo tipo di contenuti.
Tornando agli applicativi per l’editoria, prima che l’intelligenza artificiale diventi co-autrice dei nostri testi, prima che li illustri o ne disegni il layout di copertina, ci sono molti modi – più ancillari e al momento forse utili – per coltivare l’interazione tra algoritmi e libri.
Alcuni esempi li fa Christoph Bläsi, docente presso il Gutenberg Institute for World Literature and Written Media, attingendo dalle soluzioni non generative. Da Bookwire Predictive Pricing, uno strumento che aiuta ad automatizzare le promozioni sui prezzi degli e-book, a LiSA, che consente di prevedere il potenziale pubblico di lettori di un inedito, sulla base delle caratteristiche del testo e dei dati di vendita di un ampio corpus di pubblicazioni precedenti analizzate dall’intelligenza artificiale.
Altri, durante il seminario AIE, li hanno presentati i loro stessi creatori. È il caso di Corrige.it, capace di controllare i testi con accuratezza editoriale, di cui avevamo raccontato in questa intervista. O ancora di Book Batch One, la soluzione per la creazione di prodotti editoriali personalizzati di GruppoMeta.
La suite tecnologica Book Batch One consente di generare un libro i cui contenuti sono modulati sui bisogni e le esigenze dei lettori/utenti, racconta Paolo Ongaro, direttore generale di GruppoMeta. «Pensiamo, solo per fare alcuni esempi, a un docente interessato a strutturare un libro di testo che contenga solo e tutti gli argomenti che intende trattare durante un determinato percorso scolastico e/o universitario; alla verifica dell’effettiva comprensione di un testo da parte degli studenti di una classe, sfruttando strumenti avanzati d’intelligenza artificiale per l’analisi della leggibilità; al lettore interessato a seguire il personaggio di un libro o di un racconto lungo una specifica linea narrativa».
«Anche l’intelligenza artificiale può – o meglio deve – poter “studiare su” e “imparare da” libri e contenuti la cui fonte sia riconosciuta e riconoscibile. Per questo il ruolo degli editori diventa ancor più importante e centrale, anche in merito alla tutela del diritto d’autore».
In quest’ottica BBO punta a essere uno strumento a disposizione dell’intera filiera del libro per affrontare la sfida dell’intelligenza artificiale. «Adottare un approccio e una soluzione tecnologica giusta – nel senso di costruita sui bisogni peculiari del settore – può essere un fattore vincente, capace di trasformare la grande novità dell’IA in un’opportunità altrettanto grande».
Dal 2010 mi occupo della creazione di contenuti digitali, dal 2015 lo faccio in AIE dove oggi sono responsabile del contenuto editoriale del Giornale della Libreria, testata web e periodico in carta. Laureata in Relazioni internazionali e specializzata in Comunicazione pubblica alla Luiss Guido Carli di Roma, ho conseguito il master in Editoria di Unimi, AIE e Fondazione Mondadori. Molti dei miei interessi coincidono con i miei ambiti di ricerca e di lavoro: editoria, libri, podcast, narrazioni su più piattaforme e cultura digitale. La mia cosa preferita è il mare.
Guarda tutti gli articoli scritti da Alessandra Rotondo