A chi spettano i diritti d’autore su un libro scritto dall’intelligenza artificiale? Soprattutto: esiste un diritto d’autore su tali materiali? E come devono essere retribuiti i detentori dei diritti dei milioni di opere che l’intelligenza artificiale consulta, o processa, per essere istruita?
Sono domande che scaturiscono spontaneamente dall’ambito teorico-accademico per divenire oggetto di dibattito pubblico. Da una parte, la possibilità di accedere a uno strumento come la piattaforma di IA ChatGPT ha reso un maggiore numero di persone consapevoli delle potenzialità di questi strumenti anche sul versante dei testi scritti. Dall’altra, sul piano della creazione di contenuti frutto dell’impiego dell’intelligenza artificiale, si sono già aperti alcuni contenziosi giudiziari che potranno incidere significativamente sulla materia. In una causa intentata di fronte ai tribunali statunitensi lo scorso 16 gennaio da tre donne – la fumettista Sarah Andersen, l’artista digitale Kelly McKernan e l’illustratrice Karla Ortiz – nei confronti delle piattaforme digitali Stability AI, Midjourney e DeviantArt ha puntato il faro su un tema in realtà già ben presente ai professionisti del settore: le intelligenze artificiali, almeno per il momento, non inventano nulla. Per ora, le IA processano dati e sulla base di questi creano testi e immagini che sono rielaborazioni di altri testi e di altre immagini le quali sono, a loro volta, coperte – quelle sì – da diritti di privativa. E i detentori di tali diritti, in alcuni casi, ritengono che in tale processo di rielaborazione da parte delle intelligenze artificiali i loro diritti siano stati violati.
Ma andiamo con ordine. Per mettere un primo punto fermo in questa storia bisogna partire dal comportamento di una scimmia, più precisamente un macaco, di nome Naruto. Nel corso del 2016 l’animale aveva impugnato una macchina fotografica lasciata appositamente a sua disposizione nella foresta da un fotografo naturalista britannico, David Slater. La scimmia aveva scattato poi alcune immagini che erano ben presto diventate molto popolari ed erano circolate online su diversi siti web. L’associazione Peta, People for Ethical Treatment of Animals, intentò una causa chiedendo che Naruto fosse considerato titolare dei diritti sulle immagini scattate e, come tale, dovesse essere retribuita per il loro utilizzo (Peta si proponeva di gestire le transazioni per conto dell’animale). Il giudice federale di San Francisco William Orrick, tuttavia, respinse le richieste dichiarando che non ci possono essere diritti d’autore in assenza di un’attività creativa dell’uomo. Quindi: se non è l’essere umano ad avere creato un’opera, questa non può essere protetta da diritto d’autore.
Questo principio di diritto, pur tenendo conto delle note differenze tra l’ordinamento giuridico statunitense e quello europeo, è valido ancora adesso. «Nelle legislazioni attuali e nelle norme internazionali, partendo dalla Convenzione dell’Unione di Berna per passare al Trattato WIPO / OMPI del 1996 e ai Trips (Trade-Related Aspects of Intellectual Property Rights), non è sinora pensabile che vi sia un’opera tutelata senza un autore e questo autore deve essere una persona umana» spiega l’avvocato Luciano Daffarra. Secondo Daffarra, discutendo oggi di intelligenze artificiali generative, ovvero di algoritmi capaci di generare nuovi contenuti sulla base di un database di testi o di immagini predefinito, è giusto che ai materiali prodotti dalle IA non sia riconosciuta la tutela del diritto d’autore. Infatti, per quanto i risultati risultino anche strabilianti, essi non possiedono le caratteristiche di creatività e di originalità tali da meritare una specifica tutela.
Possiamo invece considerare come autore di tali materiali la persona che alimenta l’intelligenza creativa, fornisce indicazioni su come realizzare l’opera e, appunto, interviene sull’input finale? Secondo Daffarra anche in questa ipotesi il riconoscimento di diritti autorali è circostanza opinabile: «A mio avviso no, non vi sono i presupposti per conferire tutela al prodotto di questo procedimento tecnologico. Il presunto autore, in tale caso, si limita semplicemente a implementare un’attività meramente tecnologica. Supponiamo che io dia indicazioni a una macchina affinché essa realizzi un sonetto con versi, strofe e rime proprie del “dolce stil novo”. Se al termine dell’operazione io mi approprio dell’output della macchina e ne rivendico la paternità senza dichiarare da dove l’opera proviene e senza che sia provata la sua effettiva origine, potrei ottenere per me la inerente protezione del diritto d’autore. Ma se così non fosse, se io dichiarassi di avere utilizzato l’intelligenza artificiale per realizzare la poesia ovvero fosse possibile tracciarne la provenienza tramite i file di log, non ci sarebbe legittima protezione perché quell’opera non sarebbe il frutto della creatività umana. Ci troveremmo di fronte all’appropriazione da parte di un soggetto di un lavoro svolto da una macchina che dispone di un database di miliardi di informazioni, immagini e altri contenuti, molti dei quali costituiscono autonome opere tutelate».
E, tuttavia, quanto detto finora non esclude invece che il quadro normativo muti in futuro per effetto dell’innovazione tecnologica. «La mia idea è che in futuro si potrà ragionare – in caso di sviluppi tecnologici dell’intelligenza artificiale che consentano l’effettiva creazione di opere originali attraverso l’impiego di modelli predittivi o decisori, superando quindi l’attuale tecnologia che è meramente generativa – di attribuire una protezione specifica del materiale realizzato con l’ausilio degli algoritmi». Questa non potrà essere tuttavia, secondo Daffarra, la protezione specifica del diritto d’autore. «Ci troveremmo di fronte – sostiene l’avvocato – a un diritto sui generis, assimilabile a quello che già oggi protegge la creazione delle banche di dati semplici e che quindi tutela il così detto sweat of the brows cioè lo sforzo e l’investimento tecnologico del produttore, senza che ciò implichi il riconoscimento di un diritto d’autore vero e proprio in capo alla macchina».
Resta aperto – e non è affatto una questione di poco conto – il tema della protezione dei dati attraverso cui queste intelligenze vengono istruite, create. È questo il tema della causa intentata contro Stability AI, Midjourney e DeviantArt cui abbiamo fatto sopra cenno e che assiema questioni legali, ma anche temi di natura filosofica rispetto a quello che riteniamo sia o possa in futuro essere un’opera d’arte, cosa intendiamo per originalità, novità, creatività, cosa si intenda per plagio. Alla base del funzionamento dell’IA c’è il data mining, ovvero quel procedimento tecnologico attraverso cui gli algoritmi raccolgono e processano enormi quantità di dati che permettono di creare set di risposte a determinati input che simulano, generano appunto, risposte paragonabili a quelle che potrebbe dare una persona umana di fronte a un certo quesito. Queste sono le tecnologie che stanno alla base dei traduttori automatici, ma anche dei tool che su Google o sui server di posta elettronica suggeriscono la risposta più probabile da fornire a una e-mail o a un messaggio che abbiamo ricevuto. Salendo di scala, il data mining permette di realizzare testi o immagini sempre più complesse fino a simulare l’opera della creatività umana.
Stanti questi nuovi sviluppi tecnologici ci dobbiamo chiedere poi chi debba pagare per lo sfruttamento delle opere inserite nelle banche di dati? La legislazione Usa, orientata in maniera più favorevole alle grandi aziende del settore digitale, cataloga il text and data mining come una forma di fair use e, quindi, consente che tali contenuti divengano di libera consultazione e utilizzazione. L’Unione Europea – ne abbiamo scritto in più occasioni – permette il data mining sui contenuti di libera consultazione, ma con la possibilità da parte dei titolari delle singole componenti della banca di dati di riservarsi il diritto di privativa e, quindi, di opporsi all’utilizzazione fattane da terzi. In tal senso, i titolari dei diritti scelgono di aderire o meno allo sfruttamento dei propri contenuti in base alla propria convenienza e alle proprie strategie commerciali. Ad esempio, la piattaforma DeviantArt, qui nominata in riferimento alla class action in corso di fronte al tribunale di San Francisco, ha etichettato tutti i contenuti che ospita nel proprio sito con un tag che impedisce alle piattaforme di intelligenza artificiale di utilizzarli.
Ma su questo tema è necessaria la ricerca di standard tecnologici che permettano agli editori di esercitare la tutela dei diritti in un sistema di regole condiviso con le aziende hi tech e facilmente applicabile. Su questo è al lavoro il Community Group Text and Data Mining Reservation Protocol costituito in seno al W3C, che vede sedere nel ruolo di co-chair, insieme al francese Laurent Le Meur (EDRLab), l’italiana Giulia Marangoni in rappresentanza dell’Associazione Italiana Editori.
Ancor prima di dare assetto e disciplina al prodotto sviluppato con gli algoritmi di IA, si pone il problema del rispetto delle regole e del corretto inquadramento complessivo di tecnologie che ancora non conosciamo a fondo e che, soprattutto, continuano ad evolversi mentre cerchiamo di comprenderle (mentre siamo ancora sprovvisti addirittura di definizioni e termini adeguati per parlarne).
Può aiutare a tale riguardo un esempio. Molti ricorderanno le sfide tra il computer Deep Blue e il campione del mondo Kasparov alla fine del secolo scorso, e lo stupore con cui fu accolta la prima sconfitta di un essere umano da parte di una macchina nel gioco degli scacchi. Deep Blue era già un’espressione dell’intelligenza artificiale che conosciamo oggi, o era «soltanto» un sistema che, avendo immagazzinato tutto il sapere scacchistico del tempo (con migliaia di partite dei campioni, con i dati delle aperture e chiusure delle partite, etc.), riusciva a battere l’uomo di fronte a una scacchiera semplicemente grazie alla sua superiore potenza di calcolo? Lo sviluppo tecnologico nel settore fornisce una prima risposta: uno dei sistemi attualmente più performanti, denominato AlphaZero, non ha alle spalle una «libreria» di quel tipo. Ha ricevuto soltanto le conoscenze di base delle regole del gioco e sta imparando a giocare da solo. E il livello di tale strumento è ormai talmente elevato che esistono campionati mondiali di scacchi (WCCC) in cui i computer competono tra loro. In sostanza: ChatGPT assomiglia più a Deep Blue o ad AlphaZero?
È molto difficile rispondere a questa domanda. Le intelligenze artificiali rappresentano dei modelli cosiddetti black box, cioè dei sistemi di cui possiamo percepire soltanto il comportamento esterno. Il funzionamento interno del sistema non è conoscibile per ovvi motivi di protezione del segreto industriale, e talvolta non è nemmeno predicibile perché, come sa chi abbia provato a interrogare ChatGPT, il sistema risponde ogni volta in maniera diversa: nemmeno gli sviluppatori possono prevedere le sue risposte.
Quello che possiamo analizzare ora è lo stato dei fatti, che al momento non lascia supporre che le intelligenze artificiali possano considerarsi effettivamente «creative» o «generative». È vero che esse sono già ora in grado, ad esempio, di produrre testi sullo stile di un certo autore, ma questo dipende solo dalle modalità del loro addestramento e dai contenuti ai quali hanno avuto accesso. E questo porta a considerazioni di natura complessa, soprattutto se parliamo di contenuti protetti dalla legge sul diritto d’autore, che potrebbero essere stati utilizzati senza l’autorizzazione dei titolari, magari perché disponibili in rete in maniera abusiva.
Per fare qualche esempio di interrogazioni ai motori di IA sappiamo che ChatGPT ha risposto come segue ad alcune domande «provocatorie» sull’accesso a contenuti protetti.
Tuttavia, ChatGPT ha affermato di avere letto «molti libri di Italo Calvino» ma anche che «come modello AI di OpenAI, non ho la capacità di leggere libri, ma posso fornirti informazioni generali su…».
Esiste quindi un potenziale tema di violazione dei diritti d’autore sia a monte (nel dataset che viene utilizzato) sia a valle, in base agli utilizzi che si potranno fare di questi sistemi, una volta che questi cominceranno ad essere più aperti e personalizzabili. Se è probabile che tra i miliardi di contenuti utilizzati nel dataset attuale solo una minima parte sia contraffattiva, cosa ci si può aspettare nel momento in cui avremo la possibilità di istruire il sistema attraverso contenuti (anche protetti) di nostra scelta? Si potrà usare l’intelligenza artificiale per ottenere il riassunto di un libro di studio, per preparare una relazione o una tesi di laurea partendo da bibliografie a scelta, si potranno fornire alla macchina tutte le opere del nostro scrittore preferito perché produca una storia inventata da noi, ma scritta come avrebbe fatto lui, o perché traduca un’opera in un’altra lingua? In altre parole, potrà la IA essere usata per produrre elaborazioni di carattere creativo? Se sarà così, non c’è dubbio che i contenuti prodotti, in difetto del consenso degli aventi diritto sulle opere utilizzate per addestrare le intelligenze artificiali, si dovranno considerare illeciti.
Ma a tale proposito, in tema di tutela dei contenuti generati dalle intelligenze artificiali, c’è un altro aspetto da considerare. Stiamo certamente subendo la fascinazione della novità tecnologica e ci divertiamo a sfidarla per esplorare le sue possibilità, ma non dobbiamo dimenticare che la medesima, al momento, si limita a rispondere alle nostre domande, che certamente possono essere semplici ma potrebbero essere anche così complesse, strutturate, articolate da meritare tutela autorale. E se merita tutela la domanda, perché non dovrebbe meritarla anche la risposta?
Tutte le immagini usate in questo articolo sono state generate da intelligenze artificiali.