Image

L’emiciclo del Parlamento europeo a Strasburgo durante una sessione plenaria del 2014

Immagine tratta da Wikipedia. © Diliff CC BY-SA 3.0

Image

L’emiciclo del Parlamento europeo a Strasburgo durante una sessione plenaria del 2014

Immagine tratta da Wikipedia. © Diliff CC BY-SA 3.0

Come Europa e Italia regolano IA e strategia digitale

La ricerca di un delicato equilibrio tra tutela del diritto d’autore e sviluppo tecnologico, e di regolamentazioni applicative

Emiliano Rossi e Valeria Tommasi

Leggi i suoi articoli

Negli ultimi anni, le nuove tecnologie come l’Intelligenza Artificiale (IA, AI in inglese) hanno fatto irruzione nel mondo dell’arte e si sono moltiplicate le opere di «AI Art», facendo sorgere sempre più domande in merito alle regole che devono essere seguite nell’utilizzo di questi strumenti. 

A quasi tre anni da quando la Commissione Europea ha presentato la prima proposta relativa all’introduzione di un quadro normativo condiviso, chiaro e armonizzato per l’IA all’interno dell’Unione Europea (Ue), lo scorso 21 maggio è stato definitivamente approvato dal Consiglio Ue ed è attualmente in corso di pubblicazione nella Gazzetta ufficiale dell’Ue il testo di regolamento, il cosiddetto Artificial Intelligence Act («AI Act»), che entrerà in vigore 20 giorni dopo la pubblicazione stessa e inizierà ad applicarsi nei 24 mesi dopo la data di entrata in vigore con step progressivi.

L’AI Act si inserisce all’interno della più ampia strategia digitale dell’Ue, che vuole favorire l’innovazione tecnologica e la competitività nel settore dell’IA, garantendo al contempo la protezione dei consumatori, dei lavoratori e dei cittadini e il rispetto di quei diritti fondamentali su cui si basa l’ordinamento comunitario. Si può dire che il testo dell’AI Act cerca di stabilire un punto di equilibrio tra queste (talvolta lontane) esigenze, al fine di promuovere uno «sviluppo responsabile» dell’Intelligenza Artificiale.

Per fare ciò, il quadro normativo disegnato dall’AI Act classifica i sistemi di Intelligenza Artificiale sulla base del livello di rischio che presentano in relazione alla sicurezza della società e delle persone e in relazione ai valori e ai principi fondamentali dell’Unione Europea, dividendo gli stessi in quattro categorie di rischio. I sistemi di IA che generano contenuti creativi e artistici dovrebbero generalmente rientrare nella categoria definita «a rischio minimo o trascurabile», ossia quei sistemi utilizzati per fini estetici o ludici, che generalmente lasciano ampio margine di scelta e controllo all’utente che li utilizza e che, pertanto, sono soggetti a regolamentazioni minime. Le altre tre categorie presentano livelli di rischio progressivamente più elevati (da «limitato» a «elevato», a «inaccettabile»), cui conseguono standard di sicurezza, trasparenza e affidabilità via via più stringenti, fino a venire fortemente limitati o addirittura vietati dal legislatore europeo, nel caso dei sistemi a rischio inaccettabile.

Seppur l’AI Act non abbia come focus principale risolvere e disciplinare i numerosi quesiti che sono sorti negli ultimi anni riguardo al delicato rapporto tra l’Intelligenza Artificiale e la proprietà intellettuale, lo stesso riserva una particolare attenzione al tema del diritto d’autore e, soprattutto, ai sistemi di IA generativa in grado di creare una molteplicità di nuovi contenuti complessi (audio, video, immagini, testi ecc.) sfruttando modelli di «deep learning» (l’apprendimento profondo che che guida l’IA, Ndr) addestrati su grandi set di dati e contenuti, spesso coperti da diritti d’autore e diritti connessi di soggetti terzi.

In estrema sintesi, i due principali punti che riguardano il diritto d’autore si trovano nella Sezione II dell’AI Act, dove il regolamento richiama la recente Direttiva Ue n. 790/2019 (coseddetta Direttiva Copyright) e, in particolare, l’Art. 4 che disciplina il tema cruciale dell’estrazione di testo e dati da contenuti terzi, operazione fondamentale per il training dell’IA, che grazie a quei testi e dati imparerà a sua volta a generare nuovi contenuti originali, come è ad esempio il caso di tutti quei sistemi di IA in grado di produrre immagini grazie all’enorme quantità di opere figurative precedentemente incamerate. 

L’AI Act prevede in primo luogo che i fornitori di sistemi di IA debbano garantire (anche attraverso una apposita policy interna) la possibilità per i titolari di diritti d’autore e/o diritti connessi di vietare che i propri materiali e contenuti vengano «estratti» e utilizzati per l’addestramento di sistemi di IA. L’autore ha la possibilità di esercitare tale veto attraverso una «riserva di diritti» che viene definita «opt-out»

Il secondo punto importante in tema di diritto d’autore è la previsione, da parte dell’AI Act, di specifici obblighi in merito alla trasparenza delle fonti: i fornitori di sistemi di IA sono, infatti, tenuti a redigere e mettere a disposizione degli utenti una sintesi sufficientemente dettagliata e precisa dei contenuti utilizzati per l’addestramento dell’IA generativa. E ciò indipendentemente sia dal fatto che i sistemi di IA siano «modelli open source», sia dalla giurisdizione in cui ha luogo tale addestramento, così evitando il possibile insorgere di applicazioni disomogenee tra i diversi Paesi.

Se da una parte tali previsioni intendono garantire una maggiore protezione agli autori, che potranno decidere di limitare l’accesso alle loro «creazioni» e verificare il rispetto di tale loro decisione, oppure chiedere una remunerazione per il loro utilizzo, dall’altra il rischio è certamente quello di frenare (o quantomeno rallentare) lo sviluppo e lo sfruttamento delle potenzialità dei sistemi di IA nell’Unione Europea.

Intanto in Italia

Sulla falsariga dell’AI Act, il 23 aprile scorso in Italia il Consiglio dei Ministri ha approvato il Ddl «Butti», presentato come il primo atto legislativo europeo sull’IA e finalizzato a integrare e completare nel quadro normativo italiano le nuove previsioni europee.

In punto di diritto d’autore, il Ddl prevede al capo IV (e in particolare all’Art. 24) un insieme di norme che dovrebbero introdurre alcune rilevanti modifiche alla Legge sul diritto d’autore (Lda, n. 633/1941).

Una prima rilevante modifica (Art. 1 Lda) consente che siano protette dal diritto d’autore non solo le opere dell’ingegno generate dall’attività creativa umana, ma anche quelle «realizzate con l’ausilio di strumenti di intelligenza artificiale, purché il contributo umano sia creativo, rilevante e dimostrabile». 

Se da una parte tale previsione sembra rispondere alla volontà di cristallizzare una visione antropocentrica dell’IA, dall’altra l’attuale testo desta non poche perplessità in quanto introduce due nuovi criteri (quelli della rilevanza e dimostrabilità del contributo umano) che da una parte lasciano spazio a possibili dubbi interpretativi e dall’altra spostano in capo all’autore l’onere di provare che il proprio contributo sia creativo e «rilevante». Inoltre, in base alla lettera del testo non è dato capire se la rilevanza del contributo (creativo) umano vada valutata da un punto di vista quantitativo oppure qualitativo.

Il secondo punto di interesse del Ddl in materia autoriale riguarda l’introduzione nella Lda del nuovo Art. 70 septies, che riprende la disciplina dell’AI Act sull’estrazione di testo e dati da contenuti terzi per il training dell’IA. Se tale articolo venisse adottato, gli autori che volessero effettuare l’«opt-out» e riservare i diritti sui propri contenuti vietando il loro utilizzo per l’addestramento di sistemi IA, dovrebbero farlo con modalità tali da rendere la loro scelta «machine-readable», ovvero comprensibile ai sistemi di IA, così da permettere a quest’ultimi di bloccare immediatamente e automaticamente l’estrazione di dati, contenuti e informazioni.

Il Ddl «Butti», pertanto, introdurrebbe un esplicito riferimento all’IA nella normativa italiana sul diritto d’autore. Resta tuttavia da vedere se questo porterà a una maggiore chiarezza, da un lato, sull’identificazione degli autori di opere di «AI Art» e sui relativi diritti e, dall’altro, sui diritti degli autori le cui opere vengono utilizzate per l’addestramento dell’IA stessa. Chiaramente, risolvere queste ambiguità sarà essenziale per regolamentare questa relativamente nuova forma di espressione artistica e riconoscere una giusta tutela a tutti i soggetti coinvolti.

Emiliano Rossi e Valeria Tommasi, 27 giugno 2024 | © Riproduzione riservata

Come Europa e Italia regolano IA e strategia digitale | Emiliano Rossi e Valeria Tommasi

Come Europa e Italia regolano IA e strategia digitale | Emiliano Rossi e Valeria Tommasi