“L’AI rappresenta un pericolo per la diversità culturale. L’obiettivo dell’Unione Europea è in primis quello di difendere la democrazia”. Tiene a manifestare la sua preoccupazione Emma Rafowicz, giovanissima europarlamentare francese, nel convegno organizzato sulla A.I. dal Parlamento Europeo alla 75° Berlinale. Una festa del cinema ma anche un importante centro di dibattito su temi legati all’evoluzione delle tecnologie e delle arti.
Anche gli altri relatori, esprimendo l’insicurezza generata dallo scenario politico internazionale, notano come il problema delle AI sia in primo luogo etico ma, di riflesso, anche pratico, specialmente nei settori delle professioni creative. Il punto è che, ad oggi, dal punto di vista normativo non vi è ancora una disciplina del diritto d’autore da applicare all’intelligenza artificiale. A livello comunitario, il Regolamento UE n. 1689/2024 (cd. AI Act) recentemente entrato in vigore, si occupa per lo più di definire gli utilizzi consentiti, lavorando sulla sicurezza dell’individuo contro traffici illeciti di dati, deep fake, alterazioni dell’identità.
All’art. 1, l’AI Act dispone che “Lo scopo del presente regolamento è migliorare il funzionamento del mercato interno e promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea, compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente, contro gli effetti nocivi dei sistemi di IA nell’Unione, e promuovendo l’innovazione”.
Il Regolamento identifica all’art. 4 le pratiche vietate, che consistono nell’immissione sul mercato di sistemi di AI che pregiudichino le scelte dell’individuo, condizionandone le decisioni, o che favoriscano comportamenti pregiudizievoli nei confronti di determinate comunità sociali o gruppi di persone.
Ciò in quanto veniva riscontrata, in alcuni sistemi AI, l’insorgenza dei cosiddetti bias (termine mutuato dalla Psicologia), veri e propri atteggiamenti ideologici adottati delle macchine nei confronti degli utenti. Qual è il motivo di queste inclinazioni?
I sistemi AI autogenerativi sono fondati sui cd. Large Language Models (LLM), modelli linguistici pensati per essere compresi da un grande numero di utenti e fornire così risposte e scambi interattivi in maniera immediata. Per farlo, elaborano informazioni caricate dagli stessi utenti o comunque dai deployers che programmano gli algoritmi di riferimento. Le informazioni fornite alla macchina, frutto delle esperienze reali, possono adottare in modo inconsapevole degli atteggiamenti stereotipati. Ecco allora l’insorgere di bias linguistici (predominanza delle opinioni legate a un determinato modello linguistico ad es. quello inglese), bias razziali, politici o religiosi.

Assente, per ora, una disciplina sulla proprietà intellettuale che regoli l’utilizzo delle AI nei settori creativi. Pensiamo alle professioni legate alla grafica, per cui un’immagine può essere generata a partire da contenuti già esistenti e magari tutelati sotto il profilo del diritto d’autore. Come fare per impedire questa dinamica di appropriazione? Parere del nostro Studio è che si debba agire su due fronti, uno tecnico, l’altro normativo. Data la velocità incontrollabile con cui evolvono questo tipo di tecnologie, sarebbe opportuno sviluppare dei limiti o comunque dei territori consentiti all’interno dei quali l’AI possa ricercare i contenuti da rielaborare e che restituirà all’utente. Identificare quindi, tramite gli stessi strumenti di programmazione, dei contenuti autorizzati e dei “luoghi” specifici da cui poterli prelevare. Contestualmente, occorrerebbe predisporre un sistema giuridico di riferimento volto a regolamentare i vari utilizzi.
Lo Studio Legale Dandi fornisce assistenza legale in Tutela Diritto D'Autore, Diritto Cinematografico e Diritto di Internet. Dai un'occhiata ai nostri servizi oppure contattaci!