[l’intervista] AI, “sfida affascinante perchè pericolosa. Il Garante ha bloccato ChatGpt prima che fosse troppo tardi”
A colloquio con Giulio Enea Vigevani, costituzionalista e direttore della rivista Medialaws. "Ci sono questioni facilmente risolvibili. Altre più complesse: quale la base giuridica per una raccolta dati così massiccia?”. Urgente che i garanti dei 27 trovino un compromesso regolatorio comune. Il ruolo dell’Italia in questo caso “apripista”
“Siamo in una fase interessante e affascinante perché pericolosa. Molti sociologi e informatici dicono che questa sarà la più grande rivoluzione dopo l’avvento di internet. Solo che avrà tempi molto più brevi, 2-3 anni al massimo. Quindi, tutto sommato, è un bene che il Garante sia intervenuto subito”. Parliamo di intelligenza artificiale (AI) e dello stop che il Garante della privacy ha voluto imporre in Italia a ChatGpt, il servizio di Ai messo sul mercato dalla società americana Open Ai. Il 31 marzo il Garante ha ravvisato violazioni sull’uso dei dati personali, ha dato venti giorni di tempo alla società per comunicare le misure adottate altrimenti si profila una multa fino a 20 milioni di euro. Ne parliamo con il professor Giulio Enea Vigevani, professore di Diritto Costituzionale all’università Milano Bicocca, giurista, avvocato cassazionista, direttore della Rivista scientifica MediaLaws e membro dei comitati scientifici di varie riviste e collane.
Come giudica il blocco operato dal Garante della privacy su ChatGPT, il software che offre il servizio di intelligenza artificiale?
“All’inizio ero un po’ perplesso perchè il provvedimento è oggettivamente molto forte. Poi leggendo il testo e le reazioni di Open AI mi sono convinto che non sia per nulla campato per aria. Il garante segnala un problema serio e fa alcuni rilievi. Alcuni sono facilmente rimediabili e credo sia possibile un accordo in tempi brevi. Mi riferisco ad un’informativa seria sulla privacy, ai filtri per l’accesso dei minori. Open Ai ha avuto un enorme successo in tempi brevi, si è ritrovato a maneggiare uno strumento molto potente che arriva in tutte le case. Su altri aspetti invece la questione è molto complessa e io stesso vedo un punto di attrito forte. ChatGpt difficilmente può avere la base giuridica che giustifica la enorme raccolta di dati personali, che è il motore stesso della sua attività. Nella logica della normativa europea è difficile giustificare questo uso per le finalità di ChatGpt. Però è anche vero che senza la quantità abnorme di dati, il modello e gli algoritmi non possono funzionare. Occorre quindi stabilire a che titolo Chat Gpt giustifichi la raccolta dati e il loro uso. Questo è il nodo più difficile da sciogliere e dovrà essere contrattato dai garanti e dai regolatori europei. Non c’è dubbio che qui serve il consenso che è la base della raccolta dei dati personali”.
Il consenso, quindi, e la correttezza nella raccolta dei dati. Oltre che esplicitare uso e finalità. Altri nodi complessi?
“I problemi stanno venendo fuori. Il Washington Post di ieri aveva un articolo molto interessante: un professore di diritto Usa si è trovato all’interno di una lista di persone che avevano molestato studenti. Un fatto mai avvenuto e creato in base all’elaborazione di Chat Gpt. C’è quindi un tema di dati sbagliati e tutela reputazionale. E questo si può ben capire quanto sia pericoloso”.
ChatGpt è quindi pericolosa?
“Può esserlo. Serve un sistema che abbia qualche regolazione. Altrimenti il diritto ad utilizzare ChatGpt diventa tiranno, schiaccia tutti gli altri. Invece è necessario poter consentire in tempi brevi la cancellazione e l’aggiornamento dei dati, il diritto all’oblio, faticose conquiste di questi anni”.
L’Authority è intervenuta su Chatgpt ma non, ad esempio, sul motore di ricerca Bing che usa e offre Chatgpt a chiunque sceglie questo motore di ricerca. Due pesi e due misure?
“Probabilmente Bing è un po’ più attento agli aspetti formali, parliamo di una multinazionale più abituata ad adempiere agli obblighi sulla privacy. Il Garante ha iniziato da Chatgpt perché è una situazione palese di violazione. Può darsi che seguano altri provvedimenti”.
Assomiglia un po’ a colpirne uno per educarne cento. E’ realmente possibile bloccare le piattaforme che offrono il servizio di intelligenza artificiale? E’ già successo in altri paesi?
“Sicuramente ci sono milioni di smanettatori che possono facilmente aggirare il blocco e usare Chatgpt. Il provvedimento del Garante comunque funziona perché colpisce l’utente medio. Non mi risultano provvedimenti analoghi in altre democrazie. Tuttavia, so di numerosi casi in cui autorità straniere si stanno muovendo. C’è un coordinamento tra i paesi europei per pensare ad una strategia comune. L’Italia ha aperto il dossier, fa da apripista. Il punto di caduta è il dialogo e il confronto serrato su questi temi tra i 27 garanti europei e la Commissione”.
Open Ai ha messo in rete anche Dall-E servizio di intelligenza artificiale che crea immagini come il Papa con il piumino bianco Moncler o Trump con le manette. Su questo servizio però non sono intervenuti. Ancora una volta due pesi e due misure?
“In questo caso l’uso dell’AI non tocca la privacy. Qui il tema è la disinformazione attraverso la manipolazione dell’immagine. Il deepfake nasce per i ricatti sessuali. Però più che violazione della privacy siamo ai comportamenti criminali, a reati come l’estorsione, al diritto penale in senso stretto. Caso diverso sono le immagini artefatte il cui obiettivo è disinformare per condizionare ad esempio un messaggio elettorale. Non dimentichiamo che la manipolazione dell’immagine può avere anche profili legittimi. Sono stato un consumatore della satira di Cuore e i fotomontaggi erano una costante. Insomma, tema anche questo molto complesso, con molti aspetti ma che non coinvolge in particolare la privacy. Al massimo il diritto violato è quello della tutela reputazionale ma insomma, chi deve intervenire è il giudice. Caso per caso. In fondo Dall E è come fosse una macchina da scrivere. Il vero o il falso dipendono da chi scrive. Non chiudo la macchina ma sanziono chi scrive”.
E chi rimuove il contenuto non veritiero?
“Questo è un tema molto scivoloso e con implicazioni delicate. Da un punto di vita tecnico siamo attrezzati. Ma sul piano giuridico e costituzionale è una scelta difficile. Chi lo deve decidere? Un giudice terzo e imparziale. Non certo il potere politico. Così come non si può fare censura preventiva. Sarebbe un danno peggiore. Si è anche detto: lo facciano le piattaforme che veicolano i contenuti e quindi devono anche controllare. In questo caso avremmo il doppio ruolo di controllore-controllato. Come dicevo, un problema complicato e difficile da risolvere perché si rischia di scardinare due secoli di principi, il diritto di espressione e di critica”
Di fatto centinaia di migliaia di italiani che si stavano abituando ad utilizzare Chat GPT non possono più fare ciò che nel resto del mondo è invece lecito. In passato la timidezza delle autorità di garanzia italiane è stata una costante che ci ha lasciato in balia dei grandi operatori a cominciare da Google. Come valuta questa solerzia?
“I Garanti sono spesso molto solerti. Specie quello della privacy. In questo caso è stato ultra solerte: il presidente ha agito d’urgenza e da solo. Questo mi ha lasciato sul momento molto perplesso. Poi informandomi ho capito che invece c’è stata condivisione con i componenti del collegio e con altri esperti. Il problema, come dicevo, esiste. E si è deciso di agire prima che diventasse troppo tardi”.
In che senso?
“Guardiamo la vicenda delle tv private in Italia. Sono nate nella totale illegalità. Eppure tanto la Corte Costituzionale che i giudici ordinari che dovevano spegnere il segnale non sono mai riusciti a farlo pur affermando che era illegale. E sapete perchè? Perchè non si poteva più fare a meno di Dallas. Un po’ come spegnere Google. Chi mai potrebbe farlo oggi? Poiché la prospettiva è che ChatGpt diventi come Google, meglio intervenire subito, seppur in modo un po’ traumatico, per le necessarie correzioni”.
Un cittadino italiano che volesse accedere ai servizi di Chat GPT comunque, cedendo autonomamente e volontariamente i propri dati, come potrebbe fare?
"Non è che io cedo i miei dati a Chat Gpt è lui che se li trova in giro per il web. Senza avere il mio permesso. La logica di Chat è quella di pescare nell’oceano di dati che trova sulla rete per fare una storia, un racconto, un profilo. È diverso da Facebook che infatti chiede l’autorizzazione al trattamento dei dati. La logica iniziale di Facebook è sempre stato il consenso”.
Questo provvedimento mette l’Italia a rischio isolamento sull’innovazione?
“Se il blocco dovesse proseguire per sei mesi, un anno, è evidente che ci sarebbe un danno per l’Italia. Ma non credo che succederà questo. Credo invece che a livello europeo ci sarà in tempi brevissimi un accordo complessivo che adeguerà questi sistemi alle fondamentali regole europee. Poi però c’è il rischio che l’Europa, più sensibile e attenta al tema privacy, resti indietro ad esempio rispetto agli Stati Uniti. Insomma, le moderne democrazie occidentali dovranno per forza trovare un compromesso nell’uso dell’AI".
Nel mondo della comunicazione, dell’innovazione digitale, del business digitale, tutto è interconnesso. Agire legittimamente per limitare l’uso dei dati personali ha di fatto conseguenze economiche enormi. Non è venuto il momento che le tre più importanti autorità di regolamentazione, la Privacy, l’Agcom, l’Antitrust, agiscano di concerto su queste materie così complesse?
“Certo che sì, il dialogo è necessario. E’ un’ipotesi su cui lavorare”.
Esiste una legislazione sull’intelligenza artificiale?
“E’ già in parte regolamentata dal Gdpr (il Regolamento europeo sui dati personali). I principi e le regole generali valgono per tutte le forme di manifestazione del pensiero o diffusione di dati e pensiero. C’è un regolamento all’esame dell’Unione europeo da circa un anno e mezzo. Il criterio base è evitare che le decisioni siano prese solo dall’AI e che comunque l’ultima parola spetti sempre all’uomo. Non so se fatti come questi possano accelerare una decisione. Il rischio in questi casi è sempre quello di una regolazione superata dai fatti. Il legislatore è sempre più lento della tecnologia. Anche con Chat Gpt, se ci pensiamo bene”.