Svelare l'invisibile: come identificare i contenuti creati dall'Intelligenza artificiale. Le soluzioni sul mercato

Ricercatori, aziende e organizzazioni stanno investendo attivamente nello sviluppo di strumenti di rilevamento dell'IA più sofisticati.

Svelare l'invisibile: come identificare i contenuti creati dall'Intelligenza artificiale. Le soluzioni sul mercato
Shutterstock

Ve lo ricordate, era l’inizio dell'anno scorso, quando è apparso sui social media un video che sembrava mostrare il presidente dell'Ucraina arrendersi di fronte all’invasione della Russia. Il video ha subito fatto il giro del mondo scatenando scalpore e confusione. Molte, fin da allora, le preoccupazioni riguardo l’avanzamento della tecnologia IA (Intelligenza Artificiale), e alla sua capacità di creare video e contenuti tratti da scene mai esistite.

Dopo un anno, siamo ancora al punto di partenza, quello di capire quando un contenuto è vero, o meno. E mai come in questo inizio del 2023, il tema dell’IA è in prima linea grazie alla scesa in campo di azienda private pronte a vendere e liberalizzare l’utilizzo di questa tecnologia.

Andiamo con ordine, partendo da una premessa: l'IA generativa è disponibile per chiunque ed è sempre più capace di influenzare l’opinione pubblica con testi, audio, immagini e video che sembrano concepiti e catturati da esseri umani. Le infinite possibilità date dall’IA hanno scatenato preoccupazioni per la disinformazione, le conseguenze sul mondo del lavoro in termini di posti di lavoro, la discriminazione e la privacy. Il problema è subito diventato anche un'opportunità di business. Più di una dozzina le aziende che ora offrono strumenti per identificare se qualcosa è stato creato con l'intelligenza artificiale. La domanda sorge spontanea: è possibile identificare ciò che è vero, per davvero?

Vero o non vero: questo il dilemma

L'identificazione accurata dei contenuti prodotti dall'IA rappresenta una sfida significativa per una molteplicità di attori e organizzazioni complesse, governative e non. Al momento, la strada per un rilevamento infallibile, è ancora lunga. Gli algoritmi di IA imitano sempre più il comportamento umano, producendo contenuti che è difficile distinguere da quelli generati dall'uomo. I modelli di IA hanno talvolta dei funzionamenti molto opachi, come le reti neurali profonde, che rendono ancora più difficile comprendere i processi che generano i contenuti. Questa mancanza di trasparenza ostacola lo sviluppo di sistemi di rilevamento robusti, portando a potenziali falsi positivi o falsi negativi: in altre parole, nel definire come vero ciò che vero non è. Una corsa contro il tempo, e senza esclusione di colpi, quella tra IA e sistemi per capire quando l’IA è stata utilizzata: mentre i metodi di rilevamento migliorano, i sistemi di IA si evolvono per aggirarli, rendendo necessario un continuo perfezionamento e adattamento dei sistemi di riconoscimento.

Le soluzioni sul mercato

Secondo la società di ricerche di mercato Grand View Research, il settore complessivo legato all’utilizzo dell'intelligenza artificiale generativa dovrebbe superare i 109 miliardi di dollari entro il 2030, con una crescita media del 35,6% all'anno. Dati che trovano riscontro in molte testimonianze, anche da parte di aziende private. Dopo mesi dalla creazione da parte di uno studente dell'Università di Princeton, l’azienda GPTZero sostiene che più di un milione di persone hanno utilizzato il suo programma per individuare il testo generato dal computer. Un’altra azienda del settore, Reality Defender, è stata una delle 414 aziende scelte tra 17.000 domande per essere finanziate dall'acceleratore di start-up Y Combinator quest'inverno (fonte The New York Times, 2023).

CopyLeaks, un altro dei “detective” contro l’utilizzo di IA, ha raccolto 7,75 milioni di dollari l'anno scorso, per espandere i suoi servizi antiplagio per scuole e università, al fine di individuare l'intelligenza artificiale nei lavori degli studenti. Sentinel, i cui fondatori si sono specializzati in cybersicurezza e guerra informatica per la Royal Navy britannica e l'Organizzazione del Trattato dell'Atlantico del Nord, ha chiuso nel 2020 un capitale iniziale da 1,5 milioni di dollari, sostenuto in parte da uno degli ingegneri fondatori di Skype, per aiutare a proteggere le democrazie da deepfakes e altri media sintetici dannosi (fonte The New York Times, 2023). 

E l’elenco è ancora lungo: FakeCatcher di Intel sostiene di essere in grado di identificare i video deepfake con una precisione del 96%, in parte analizzando i pixel alla ricerca di sottili segni di flusso sanguigno nei volti umani. OpenAI, che ha dato il via al boom legato all’utilizzo dell'IA quando ha rilasciato il suo strumento ChatGPT alla fine dello scorso anno, sta lavorando a servizi di rilevamento “contro” (ma la parola va presa, per l’appunto, tra virgolette) la sua stessa intelligenza artificiale. L'azienda ha lanciato a gennaio uno strumento gratuito che aiuta a distinguere il testo composto da un essere umano da quello scritto dall'intelligenza artificiale. OpenAI ha sottolineato che lo strumento, pur rappresentando un miglioramento rispetto alle versioni precedenti, non è ancora "completamente affidabile". Lo strumento ha identificato correttamente il 26% del testo generato artificialmente, ma ha erroneamente segnalato come generato dal computer il 9% del testo scritto da esseri umani (fonte sito web OpenAI, 2023).

Quali sono i rischi?

Nel tentativo di riconoscere i contenuti prodotti dall'IA è necessario evitare alcune insidie e approcci talvolta inefficaci. I sistemi di riconoscimento che utilizzano criteri fissi o regole predefinite, possono faticare a tenere il passo con la rapida evoluzione dei contenuti generati dall'IA. La loro inflessibilità li rende vulnerabili all'elusione attraverso l'adattamento o tecniche sofisticate. In maniera simile, affidarsi esclusivamente a indizi “di superficie”, come errori grammaticali, refusi o immagini di bassa qualità, può portare a identificare, in modo sommario, ciò che è originato dalla AI, da ciò che invece non è.

I modelli di intelligenza artificiale sono in continuo miglioramento e possono generare contenuti di alta qualità linguistica e visiva, rendendo le caratteristiche superficiali insufficienti per un rilevamento affidabile. Il riconoscimento dei contenuti generati dall'IA non deve trascurare la possibilità di un coinvolgimento umano nella creazione dei contenuti. Gli esseri umani possono contribuire a perfezionare, curare o modificare i contenuti generati dall'IA, confondendo i confini tra produzione umana e IA. Un approccio completo di analisi, per verificare quel che è da quel che non è un prodotto dell’IA, dovrebbe considerare sia i fattori umani che quelli legati all'IA.

Tutto quanto sopra è di ostacolo nel determinare i contenuti “artificiali” da quelli che non lo sono. In ambito educativo, strumenti di rilevamento del plagio come TurnItIn sono stati infatti accusati di classificare in modo impreciso i saggi scritti dagli studenti come generati da chatbot. Al momento, gli strumenti di rilevamento sono intrinsecamente in ritardo rispetto alla tecnologia generativa che cercano di rilevare. Nel momento in cui un sistema di difesa è in grado di riconoscere il lavoro di un nuovo chatbot o di un generatore di immagini, come Google Bard o Midjourney, gli sviluppatori sono già in grado di proporre una nuova iterazione in grado di eludere la difesa.

Prospettive per il futuro

La Content Authenticity Initiative, un consorzio di 1.000 aziende e organizzazioni americane, si è attivato per rendere trasparente la tecnologia generativa fin dall'inizio (Piuttosto che ricostruire l'origine di un'immagine o di un video in un secondo momento del suo ciclo di vita). Il gruppo sta cercando di stabilire standard che applichino credenziali tracciabili al lavoro digitale fin dal momento della creazione. Delle tracce, se così possiamo dire, che rendano evidente sempre quello che è stato creato dall’IA. La scorsa settimana Adobe (ndr azienda leader nei programmi di grafica, fotoritocco e non solo) ha dichiarato che la propria tecnologia generativa Firefly sarà integrata in Google Bard, dove apporrà "etichette nutrizionali" ai contenuti prodotti, tra cui la data di realizzazione di un'immagine e gli strumenti digitali utilizzati per crearla.

Jeff Sakasegawa, architetto responsabile di trust and safety presso Persona, un'azienda che aiuta a verificare identità, gusti e attitudini al consumo dei consumatori, ha affermato in un’intervista, che le sfide poste dall'intelligenza artificiale sono solo all'inizio. "L'onda sta prendendo slancio" ha detto: "si sta dirigendo verso la riva. Non credo che si sia ancora schiantata". 

Conclusione: un trend da monitorare

Nonostante gli ostacoli, sono molti i passi in avanti nel miglioramento del riconoscimento dei contenuti dell'IA. Ricercatori, aziende e organizzazioni stanno investendo attivamente nello sviluppo di strumenti di rilevamento dell'IA più sofisticati. Iniziative come la Content Authenticity Initiative, che mira a stabilire credenziali tracciabili per il lavoro digitale, dimostrano gli sforzi per combattere l'impatto negativo dei contenuti generati dall'IA. La collaborazione tra gli operatori del settore può portare all’introduzione di standard per il riconoscimento dei contenuti. Anche se la battaglia tra i sistemi di riconoscimento dei contenuti e i generatori di IA continuerà, la vigilanza sui fenomeni di mistificazione e disinformazione e il continuo adattamento delle tecniche di rilevamento sono essenziali per rimanere al passo con l'evoluzione delle capacità di questa nuova tecnologia dal potenziale ancora ignoto.