Tiscali.it
SEGUICI
cominandpartners

Svelare l'invisibile: come identificare i contenuti creati dall'Intelligenza artificiale. Le soluzioni sul mercato

Ricercatori, aziende e organizzazioni stanno investendo attivamente nello sviluppo di strumenti di rilevamento dell'IA più sofisticati.

Comin&Partnersdi Comin&Partners   
Svelare l'invisibile: come identificare i contenuti creati dall'Intelligenza artificiale. Le soluzioni sul mercato
Shutterstock

Ve lo ricordate, era l’inizio dell'anno scorso, quando è apparso sui social media un video che sembrava mostrare il presidente dell'Ucraina arrendersi di fronte all’invasione della Russia. Il video ha subito fatto il giro del mondo scatenando scalpore e confusione. Molte, fin da allora, le preoccupazioni riguardo l’avanzamento della tecnologia IA (Intelligenza Artificiale), e alla sua capacità di creare video e contenuti tratti da scene mai esistite.

Dopo un anno, siamo ancora al punto di partenza, quello di capire quando un contenuto è vero, o meno. E mai come in questo inizio del 2023, il tema dell’IA è in prima linea grazie alla scesa in campo di azienda private pronte a vendere e liberalizzare l’utilizzo di questa tecnologia.

Andiamo con ordine, partendo da una premessa: l'IA generativa è disponibile per chiunque ed è sempre più capace di influenzare l’opinione pubblica con testi, audio, immagini e video che sembrano concepiti e catturati da esseri umani. Le infinite possibilità date dall’IA hanno scatenato preoccupazioni per la disinformazione, le conseguenze sul mondo del lavoro in termini di posti di lavoro, la discriminazione e la privacy. Il problema è subito diventato anche un'opportunità di business. Più di una dozzina le aziende che ora offrono strumenti per identificare se qualcosa è stato creato con l'intelligenza artificiale. La domanda sorge spontanea: è possibile identificare ciò che è vero, per davvero?

Vero o non vero: questo il dilemma

L'identificazione accurata dei contenuti prodotti dall'IA rappresenta una sfida significativa per una molteplicità di attori e organizzazioni complesse, governative e non. Al momento, la strada per un rilevamento infallibile, è ancora lunga. Gli algoritmi di IA imitano sempre più il comportamento umano, producendo contenuti che è difficile distinguere da quelli generati dall'uomo. I modelli di IA hanno talvolta dei funzionamenti molto opachi, come le reti neurali profonde, che rendono ancora più difficile comprendere i processi che generano i contenuti. Questa mancanza di trasparenza ostacola lo sviluppo di sistemi di rilevamento robusti, portando a potenziali falsi positivi o falsi negativi: in altre parole, nel definire come vero ciò che vero non è. Una corsa contro il tempo, e senza esclusione di colpi, quella tra IA e sistemi per capire quando l’IA è stata utilizzata: mentre i metodi di rilevamento migliorano, i sistemi di IA si evolvono per aggirarli, rendendo necessario un continuo perfezionamento e adattamento dei sistemi di riconoscimento.

Le soluzioni sul mercato

Secondo la società di ricerche di mercato Grand View Research, il settore complessivo legato all’utilizzo dell'intelligenza artificiale generativa dovrebbe superare i 109 miliardi di dollari entro il 2030, con una crescita media del 35,6% all'anno. Dati che trovano riscontro in molte testimonianze, anche da parte di aziende private. Dopo mesi dalla creazione da parte di uno studente dell'Università di Princeton, l’azienda GPTZero sostiene che più di un milione di persone hanno utilizzato il suo programma per individuare il testo generato dal computer. Un’altra azienda del settore, Reality Defender, è stata una delle 414 aziende scelte tra 17.000 domande per essere finanziate dall'acceleratore di start-up Y Combinator quest'inverno (fonte The New York Times, 2023).

CopyLeaks, un altro dei “detective” contro l’utilizzo di IA, ha raccolto 7,75 milioni di dollari l'anno scorso, per espandere i suoi servizi antiplagio per scuole e università, al fine di individuare l'intelligenza artificiale nei lavori degli studenti. Sentinel, i cui fondatori si sono specializzati in cybersicurezza e guerra informatica per la Royal Navy britannica e l'Organizzazione del Trattato dell'Atlantico del Nord, ha chiuso nel 2020 un capitale iniziale da 1,5 milioni di dollari, sostenuto in parte da uno degli ingegneri fondatori di Skype, per aiutare a proteggere le democrazie da deepfakes e altri media sintetici dannosi (fonte The New York Times, 2023). 

E l’elenco è ancora lungo: FakeCatcher di Intel sostiene di essere in grado di identificare i video deepfake con una precisione del 96%, in parte analizzando i pixel alla ricerca di sottili segni di flusso sanguigno nei volti umani. OpenAI, che ha dato il via al boom legato all’utilizzo dell'IA quando ha rilasciato il suo strumento ChatGPT alla fine dello scorso anno, sta lavorando a servizi di rilevamento “contro” (ma la parola va presa, per l’appunto, tra virgolette) la sua stessa intelligenza artificiale. L'azienda ha lanciato a gennaio uno strumento gratuito che aiuta a distinguere il testo composto da un essere umano da quello scritto dall'intelligenza artificiale. OpenAI ha sottolineato che lo strumento, pur rappresentando un miglioramento rispetto alle versioni precedenti, non è ancora "completamente affidabile". Lo strumento ha identificato correttamente il 26% del testo generato artificialmente, ma ha erroneamente segnalato come generato dal computer il 9% del testo scritto da esseri umani (fonte sito web OpenAI, 2023).

Quali sono i rischi?

Nel tentativo di riconoscere i contenuti prodotti dall'IA è necessario evitare alcune insidie e approcci talvolta inefficaci. I sistemi di riconoscimento che utilizzano criteri fissi o regole predefinite, possono faticare a tenere il passo con la rapida evoluzione dei contenuti generati dall'IA. La loro inflessibilità li rende vulnerabili all'elusione attraverso l'adattamento o tecniche sofisticate. In maniera simile, affidarsi esclusivamente a indizi “di superficie”, come errori grammaticali, refusi o immagini di bassa qualità, può portare a identificare, in modo sommario, ciò che è originato dalla AI, da ciò che invece non è.

I modelli di intelligenza artificiale sono in continuo miglioramento e possono generare contenuti di alta qualità linguistica e visiva, rendendo le caratteristiche superficiali insufficienti per un rilevamento affidabile. Il riconoscimento dei contenuti generati dall'IA non deve trascurare la possibilità di un coinvolgimento umano nella creazione dei contenuti. Gli esseri umani possono contribuire a perfezionare, curare o modificare i contenuti generati dall'IA, confondendo i confini tra produzione umana e IA. Un approccio completo di analisi, per verificare quel che è da quel che non è un prodotto dell’IA, dovrebbe considerare sia i fattori umani che quelli legati all'IA.

Tutto quanto sopra è di ostacolo nel determinare i contenuti “artificiali” da quelli che non lo sono. In ambito educativo, strumenti di rilevamento del plagio come TurnItIn sono stati infatti accusati di classificare in modo impreciso i saggi scritti dagli studenti come generati da chatbot. Al momento, gli strumenti di rilevamento sono intrinsecamente in ritardo rispetto alla tecnologia generativa che cercano di rilevare. Nel momento in cui un sistema di difesa è in grado di riconoscere il lavoro di un nuovo chatbot o di un generatore di immagini, come Google Bard o Midjourney, gli sviluppatori sono già in grado di proporre una nuova iterazione in grado di eludere la difesa.

Prospettive per il futuro

La Content Authenticity Initiative, un consorzio di 1.000 aziende e organizzazioni americane, si è attivato per rendere trasparente la tecnologia generativa fin dall'inizio (Piuttosto che ricostruire l'origine di un'immagine o di un video in un secondo momento del suo ciclo di vita). Il gruppo sta cercando di stabilire standard che applichino credenziali tracciabili al lavoro digitale fin dal momento della creazione. Delle tracce, se così possiamo dire, che rendano evidente sempre quello che è stato creato dall’IA. La scorsa settimana Adobe (ndr azienda leader nei programmi di grafica, fotoritocco e non solo) ha dichiarato che la propria tecnologia generativa Firefly sarà integrata in Google Bard, dove apporrà "etichette nutrizionali" ai contenuti prodotti, tra cui la data di realizzazione di un'immagine e gli strumenti digitali utilizzati per crearla.

Jeff Sakasegawa, architetto responsabile di trust and safety presso Persona, un'azienda che aiuta a verificare identità, gusti e attitudini al consumo dei consumatori, ha affermato in un’intervista, che le sfide poste dall'intelligenza artificiale sono solo all'inizio. "L'onda sta prendendo slancio" ha detto: "si sta dirigendo verso la riva. Non credo che si sia ancora schiantata". 

Conclusione: un trend da monitorare

Nonostante gli ostacoli, sono molti i passi in avanti nel miglioramento del riconoscimento dei contenuti dell'IA. Ricercatori, aziende e organizzazioni stanno investendo attivamente nello sviluppo di strumenti di rilevamento dell'IA più sofisticati. Iniziative come la Content Authenticity Initiative, che mira a stabilire credenziali tracciabili per il lavoro digitale, dimostrano gli sforzi per combattere l'impatto negativo dei contenuti generati dall'IA. La collaborazione tra gli operatori del settore può portare all’introduzione di standard per il riconoscimento dei contenuti. Anche se la battaglia tra i sistemi di riconoscimento dei contenuti e i generatori di IA continuerà, la vigilanza sui fenomeni di mistificazione e disinformazione e il continuo adattamento delle tecniche di rilevamento sono essenziali per rimanere al passo con l'evoluzione delle capacità di questa nuova tecnologia dal potenziale ancora ignoto.

Comin&Partnersdi Comin&Partners   

I più recenti

Boom del turismo 2023 in Italia: la Puglia protagonista con il Salone Nautico e la sostenibilità marina
Boom del turismo 2023 in Italia: la Puglia protagonista con il Salone Nautico e la sostenibilità marina
La crescita delle energie rinnovabili nel 2023 promette nuovi record e una svolta verso un futuro sostenibile
La crescita delle energie rinnovabili nel 2023 promette nuovi record e una svolta verso un futuro sostenibile
God Save the King: l’impatto mediatico dell’incoronazione di Re Carlo III
God Save the King: l’impatto mediatico dell’incoronazione di Re Carlo III
Le fiere sono ancora uno strumento di business building utile alle aziende? Scopriamolo
Le fiere sono ancora uno strumento di business building utile alle aziende? Scopriamolo

Le Rubriche

Alberto Flores d'Arcais

Giornalista. Nato a Roma l’11 Febbraio 1951, laureato in filosofia, ha iniziato...

Alessandro Spaventa

Accanto alla carriera da consulente e dirigente d’azienda ha sempre coltivato l...

Claudia Fusani

Vivo a Roma ma il cuore resta a Firenze dove sono nata, cresciuta e mi sono...

Carlo Di Cicco

Giornalista e scrittore, è stato vice direttore dell'Osservatore Romano sino al...

Claudio Cordova

31 anni, è fondatore e direttore del quotidiano online di Reggio Calabria Il...

Massimiliano Lussana

Nato a Bergamo 49 anni fa, studia e si laurea in diritto parlamentare a Milano...

Stefano Loffredo

Cagliaritano, laureato in Economia e commercio con Dottorato di ricerca in...

Antonella A. G. Loi

Giornalista per passione e professione. Comincio presto con tante collaborazioni...

Lidia Ginestra Giuffrida

Lidia Ginestra Giuffrida giornalista freelance, sono laureata in cooperazione...

Carlo Ferraioli

Mi sono sempre speso nella scrittura e nell'organizzazione di comunicati stampa...

Alice Bellante

Laureata in Scienze Politiche e Relazioni Internazionali alla LUISS Guido Carli...

Giuseppe Alberto Falci

Caltanissetta 1983, scrivo di politica per il Corriere della Sera e per il...

Michael Pontrelli

Giornalista professionista ha iniziato a lavorare nei nuovi media digitali nel...