Accordo Anthropic-autori: fine dell’era “acchiappa tutto” per l’AI?
La class action promossa dagli autori contro Anthropic, l’azienda di AI generativa che ha raggiunto recentemente una valutazione di 183 miliardi, ha portato infine ad un accordo transattivo che, se confermato dal giudice, avrà un enorme impatto sul futuro delle licenze per l’utilizzo di contenuti protetti da copyright.
La transazione, che prevede circa 3000 dollari per ogni libro utilizzato illegalmente nell’addestramento dei modelli, segna la fine dell’approccio “prendi tutto subito poi negozia” e inaugura una nuova era di sviluppo dell’AI basata su licenze legittime.
Il contesto della class action e la valutazione di Anthropic
La transazione di Anthropic è giunta dopo una decisione del giudice, che da un lato forniva una sponda sul concetto di “fair use”, ma dall’altra poneva in capo all’azienda una liability che rischiava potenzialmente di obbligarla a versare ingenti danni per pirateria dopo aver scaricato illegalmente milioni di libri da siti illegali.
La dottrina del fair use e il principio delle modalità di acquisizione
Il “fair use”, come noto, è una dottrina statunitense che consente l’uso limitato di contenuti tutelati dal diritto d’autore senza autorizzazione per scopi come critica, commento o, come è in discussione nei tribunali ora, l’addestramento dell’IA. Un test fondamentale è verificare se il nuovo uso “trasforma” l’opera originale aggiungendo qualcosa di nuovo o servendo uno scopo diverso, piuttosto che semplicemente crearne una copia.
Un primo punto fondamentale che emerge è che l’accordo sembra chiarire un principio importante: le modalità con le quali le aziende di IA acquisiscono i dati è importante tanto quanto ciò che ne fanno.
La strategia difensiva di Anthropic e la decisione di transigere
Dopo che i legali di Anthropic avevano avvertito sia il tribunale distrettuale che la corte d’appello che il rischio di un risarcimento per centinaia di miliardi di dollari rappresentava una “campana a morto” (death knell) che avrebbe spinto un accordo sbilanciato, l’azienda ha tuttavia preferito raggiungere un’intesa nella causa per violazione del copyright intentata da autori i cui libri sarebbero stati piratati per l’addestramento dei suoi modelli. L’accordo, raggiunto questa settimana, potrebbe indicare la strada su come l’industria affronterà le numerose cause simili pendenti in tutto gli Stati Uniti.
Va ricordato che il giudice Alsup ha alzato l’asticella per l’intera industria AI quando ha affermato: “Se Anthropic perderà alla grande, sarà perché ciò che ha fatto è stato altrettanto grande.”
Questo ha attivato immediatamente il bottone rosso dell’allarme per il grado di responsabilità a carico di tutte le aziende di AI che hanno addestrato i propri sistemi senza ottenere un consenso sui contenuti, fino ad giungere a un vero e proprio rischio esistenziale, in caso di sconfitta in tribunale.
I numeri dell’accordo e l’impatto sui modelli di business
Se guardiamo ai numeri dell’accordo transattivo sono sicuramente impressionanti: circa 3.000 dollari per libro per un totale stimato di mezzo milione di titoli. Una cifra che potrebbe diventare il punto di riferimento de facto per le licenze e sta già influenzando i settori della musica, delle immagini e del cinema. Stiamo passando da un dibattito astratto su concetti come fair use ed eccezioni a una questione di modelli di business economici, con le aziende di intelligenza artificiale che devono muovere rapidamente dalla strategia “prendiamo tutto subito poi negoziamo”, a veri accordi di licenza con i titolari dei diritti.
La decisione cruciale del giudice Alsup sui contenuti piratati
L’accordo, come detto, fa seguito alla citata decisione ad interim del giudice William Alsup emessa a giugno che si è rivelata determinante. Il giudice ha stabilito che l’addestramento su libri acquisiti legalmente potrebbe rientrare nel fair use, ma il download e la conservazione di sette milioni di titoli piratati da biblioteche ombra come LibGen e PiLiMi rappresentano, secondo le sue parole, una violazione “intrinsecamente e irrimediabilmente illecita”. La conclusione ha esposto l’azienda a un risarcimento per violazione volontaria che sarebbe potuto arrivare fino a 150.000 dollari per opera, creando una potenziale responsabilità per Anthropic di miliardi di dollari. Secondo il Prof. Edgar Lee, i danni potevano arrivare fino a 1 trilione di dollari, con una probabilità del 60% di superare i 10 miliardi.
L’estensione del benchmark ad altri settori creativi
È evidente che il riferimento di 3.000 dollari per opera non resterà confinato all’editoria. Anthropic ha davanti ancora le cause per copyright da parte di editori musicali, tra cui Universal Music Corp. e Concord Music Group Inc., oltre che da Reddit.
Se le canzoni venissero valutate allo stesso prezzo di 3.000 dollari, un catalogo di un milione di titoli implicherebbe una responsabilità di 3 miliardi di dollari. Per le immagini, dove le librerie di stock contengono decine di milioni di opere, il calcolo arriva a decine o centinaia di miliardi. I titolari dei diritti spingeranno per valutazioni ancora più alte, sottolineando che una traccia musicale di tre minuti o una singola fotografia rappresentano spesso un’opera completa, a differenza di un capitolo di libro.
Non parliamo poi delle cause promosse contro Midjourney dall’industria del cinema. Cause che possono affossare le nascenti aziende di AI.
Il nuovo paradigma economico e le prospettive del mercato
A questo punto è evidente che la logica economica si è ribaltata: pagare in anticipo è più economico che combattere in tribunale.
Il mercato delle licenze di contenuti AI è destinato a crescere e si aprono importanti prospettive per lo sviluppo del settore dei contenuti in un contesto legale, così come avvenuto dopo Napster e le cause sul file sharing musicale.
Le implicazioni per l’industria AI e l’approccio europeo
L’accordo invia un forte monito all’intera industria dell’AI: meglio investire in licenze, come scrivevo qui su Agendadigitale, tempo fa, piuttosto che rischiare cause miliardarie.
L’accordo suggerisce infatti un preferibile un approccio pragmatico alla gestione del rischio piuttosto di una lunga battaglia nei tribunali e consolida i principi stabiliti nella decisione del giudice Alsup: le modalità con le quali le aziende di IA acquisiscono i dati di addestramento è importante tanto quanto ciò che ne fanno. Il quadro giuridico consente ai sistemi di IA di apprendere dalla produzione culturale umana, ma solo attraverso canali legittimi.
La soluzione è chiara ed è peraltro in linea con quanto prevede in Europa l’AI Act: documentare meticolosamente le fonti dei dati e garantirne l’acquisizione legittima. Le aziende che in passato si sono affidate a contenuti piratati o raccolti automaticamente sono incentivate a negoziare accordi di licenza o sviluppare approcci alternativi che daranno forza a quelle proposte di aziende di AI etica.
Il bilanciamento tra diritti degli autori e sviluppo tecnologico
Editori e autori ottengono maggiore potere contrattuale per chiedere compensi, anche se la dottrina del fair use limita la loro capacità di bloccare completamente l’addestramento dell’IA.
È stato scritto che l’accordo di Anthropic “non rappresenta né una vittoria totale né una sconfitta per nessuna delle parti, ma piuttosto un riconoscimento delle complesse realtà che regolano l’IA e la proprietà intellettuale”. Questo è vero e ora vedremo quale impatto avrà sulle cause simili pendenti e costituirà un esempio di fronte al quale le aziende di IA scelgono il negoziato di fronte ad azioni collettive.
Tra i commenti più critici all’accordo vi è quello di Ed Newton-Rex, ex Stability AI, il fondatore di Fairly Trained, un’organizzazione non profit che certifica le aziende di intelligenza artificiale generativa che rispettano i diritti dei creatori.
“Un grosso problema con l’accordo di Anthropic è che non affronta la questione dei dati sintetici. Anthropic deve cancellare i dataset piratati, sì. Ma l’accordo non dice nulla riguardo ai dati sintetici che potrebbero già essere stati creati con modelli precedentemente addestrati sui libri piratati. Anthropic ha dichiarato pubblicamente di usare dati sintetici, e ha persino affermato di pensare di poter costruire un “motore di generazione di dati infinito”. L’accordo prevede un risarcimento economico per gli autori dei libri piratati (positivo), ma non impedisce ad Anthropic di trarre vantaggio da quei libri tramite i dati sintetici (molto negativo)” ha scritto su X.
Torna su Condividi articolo