La corte federale della California apre le porte a una causa collettiva nazionale contro la startup di IA Anthropic, sostenuta da Google e Amazon. L’accusa è di aver violato il copyright, utilizzando milioni di libri piratati per addestrare il suo modello “Claude”.
A tutela del diritto d’autore
Una svolta giudiziaria senza precedenti scuote le fondamenta dell’industria dell’intelligenza artificiale. Negli Stati Uniti, un giudice federale della California Settentrionale ha dato il via libera a una class action su scala nazionale contro Anthropic, una delle startup di IA più promettenti del settore, su cui colossi come Amazon e Google hanno investito miliardi.
Tre autori statunitensi – Andrea Bartz, Charles Graeber e Kirk Wallace Johnson – hanno intentato la causa, che ora potrà rappresentare potenzialmente milioni di scrittori e titolari di diritti. Secondo l’accusa, Anthropic avrebbe utilizzato le loro opere senza permesso per addestrare “Claude”, il suo potente modello linguistico. La decisione del giudice distrettuale William Alsup trasforma così una disputa individuale in una battaglia legale colossale, che potrebbe portare a richieste di risarcimento per miliardi di dollari e stabilire un precedente cruciale per l’intero settore tecnologico.
Al centro del contendere c’è l’accusa, tanto semplice quanto grave, che Anthropic abbia costruito un “business multimiliardario rubando centinaia di migliaia di libri protetti da copyright”.
L’accusa al centro della Class Action contro Anthropic
I dettagli che emergono dagli atti processuali dipingono un quadro preoccupante sulle modalità di raccolta dati. L’accusa sostiene che Anthropic abbia scaricato e utilizzato milioni di opere protette da copyright, reperendole da archivi digitali illegali come Library Genesis (LibGen), notoriamente considerati “biblioteche ombra”.
L’azienda avrebbe poi utilizzato questi testi per “nutrire” l’IA Claude, un processo essenziale che insegna al modello a comprendere, elaborare e generare linguaggio in modo sofisticato e coerente. I legali degli autori hanno fornito prove concrete a sostegno della loro tesi. Hanno dimostrato come Claude, quando riceve le giuste istruzioni, è in grado di riprodurre passaggi dei loro libri con una precisione tale da non lasciare dubbi sulla fonte che Anthropic ha usato per il suo addestramento.
L’implicazione è chiara e pesante: un’azienda dal valore di miliardi di dollari avrebbe basato una parte cruciale del suo sviluppo su un’appropriazione indebita di proprietà intellettuale su vastissima scala. Gli avvocati lo hanno definito un “furto sistematico”, che solleva interrogativi profondi sull’etica che guida l’innovazione tecnologica.
La violazione del Copyright
La strategia difensiva di Anthropic, simile a quella di altre aziende del settore, punta sul principio del “fair use” (uso legittimo).
La tesi della difesa sostiene che l’addestramento di un modello di IA costituisca un “uso trasformativo” dei dati originali, in quanto il sistema non riproduce semplicemente il materiale, ma lo impiega per creare uno strumento nuovo con scopi differenti. Il giudice distrettuale William Alsup ha però emesso una sentenza complessa e destinata a fare giurisprudenza. Se da un lato ha riconosciuto che il processo di training “in sé” può considerarsi trasformativo, dall’altro ha stabilito un confine invalicabile: tale protezione non si estende all’acquisizione illegale del materiale. In parole povere, il giudice ha sentenziato che scaricare milioni di libri piratati per costituire il proprio archivio di dati viola palesemente il copyright, a prescindere da come l’azienda utilizzi poi quei dati.
Questa distinzione è cruciale: separa il “come” si usa il materiale dal “come” lo si è ottenuto. Per Anthropic, la sentenza è una vittoria a metà che lascia però aperta la ferita più grave: aver consapevolmente costruito il proprio patrimonio tecnologico su una base di dati illegale.
Una sentenza che può diventare “miliare” per l’industria tech
La certificazione della class action genera conseguenze immediate e potenzialmente devastanti non solo per Anthropic, ma per l’intero ecosistema dell’IA. Ogni autore o titolare di diritti il cui libro era presente negli archivi pirata che l’azienda ha utilizzato può ora, in teoria, unirsi alla causa. Con sanzioni previste dalla legge statunitense che possono raggiungere i 150.000 dollari per ogni singola opera violata, la cifra totale dei risarcimenti potrebbe facilmente ascendere a miliardi di dollari.
Il “caso Anthropic” è diventato il simbolo della lotta che autori, artisti e creatori di contenuti stanno portando avanti contro un’industria tecnologica che molti percepiscono come predatrice. Organizzazioni come la Authors Guild sostengono da tempo che le aziende potevano percorrere alternative legali, come la stipulazione di contratti di licenza, una strada che avrebbero scientemente evitato per accelerare lo sviluppo e tagliare i costi. La decisione del giudice Alsup rappresenta un monito severo per tutto il settore.
L’intero mondo tech attende il verdetto finale di questo processo come uno spartiacque. La sentenza non deciderà soltanto il destino finanziario di Anthropic, ma traccerà le linee guida legali ed etiche per lo sviluppo dell’intelligenza artificiale del futuro. L’era della raccolta indiscriminata di dati dal web (il cosiddetto “data scraping”) potrebbe essere giunta al capolinea, spingendo il settore verso un modello di business più trasparente e rispettoso della proprietà intellettuale.
© Riproduzione riservata