Cosa sono i Deepfake?  Come individuare audio e video AI falsi

Notizia

CasaCasa / Notizia / Cosa sono i Deepfake? Come individuare audio e video AI falsi

Aug 31, 2023

Cosa sono i Deepfake? Come individuare audio e video AI falsi

I computer sono diventati sempre più bravi a simulare la realtà. I media generati dall'intelligenza artificiale (AI) hanno fatto notizia, in particolare i video progettati per imitare qualcuno,

I computer sono diventati sempre più bravi a simulare la realtà. I media generati dall'intelligenza artificiale (AI) hanno fatto notizia, in particolare i video progettati per imitare qualcuno, facendo sembrare che stiano dicendo o facendo qualcosa che non stanno dicendo.

Uno streamer di Twitch è stato catturato su un sito web noto per aver realizzato pornografia dei suoi coetanei generata dall'intelligenza artificiale. Un gruppo di studenti di New York ha realizzato un video in cui il preside pronunciava commenti razzisti e minacciava gli studenti. In Venezuela, i video generati vengono utilizzati per diffondere propaganda politica.

In tutti e tre i casi, il video generato dall'intelligenza artificiale è stato realizzato con l'obiettivo di convincerti che qualcuno ha fatto qualcosa che in realtà non ha mai fatto. Esiste una parola per questo tipo di contenuti: Deepfakes.

I deepfake utilizzano l'intelligenza artificiale per generare video o audio completamente nuovi, con l'obiettivo finale di ritrarre qualcosa che non è realmente accaduto nella realtà.

Il termine "deepfake" deriva dalla tecnologia sottostante, ovvero gli algoritmi di deep learning, che imparano da soli a risolvere problemi con grandi quantità di dati e possono essere utilizzati per creare contenuti falsi di persone reali.

"Un deepfake sarebbe un filmato generato da un computer che è stato addestrato attraverso innumerevoli immagini esistenti", ha affermato Cristina López, analista senior di Graphika, una società che ricerca il flusso di informazioni attraverso le reti digitali.

I deepfake non sono semplicemente immagini false o fuorvianti. Il papa generato dall'intelligenza artificiale con un piumino, o le scene false dell'arresto di Donald Trump che circolavano poco prima della sua incriminazione, sono generati dall'intelligenza artificiale, ma non sono deepfake. (Immagini come queste, se combinate con informazioni fuorvianti, vengono comunemente chiamate "shallowfake".) Ciò che distingue un deepfake è l'elemento dell'input umano.

Quando si tratta di deepfake, l'utente può decidere solo alla fine del processo di generazione se ciò che è stato creato è ciò che desidera oppure no; al di fuori della personalizzazione dei dati di addestramento e del dire "sì" o "no" a ciò che il computer genera dopo il fatto, non hanno alcuna voce in capitolo su come il computer sceglie di realizzarlo.

Nota: Le tecnologie assistite da computer come Photoshop e CGI sono comunemente utilizzate per creare contenuti multimediali, ma la differenza è che gli esseri umani sono coinvolti in ogni fase del processo, salvo sviluppi recenti come lo strumento generativo Firefly di Adobe. "Abbiamo molta assistenza da parte dell'intelligenza artificiale con la CGI, ma alla fine c'è un essere umano con un punto di vista umano che controlla quale sarà il risultato", ha detto López.

Esistono diversi metodi per creare deepfake, ma il più comune si basa sull’uso di reti neurali profonde che impiegano una tecnica di scambio di volti. Occorre innanzitutto un video target da utilizzare come base del deepfake e poi una raccolta di videoclip della persona che si vuole inserire nel target.

I video possono essere completamente indipendenti; l'obiettivo potrebbe essere una clip di un film di Hollywood, ad esempio, e i video della persona che desideri inserire nel film potrebbero essere clip casuali scaricati da YouTube.

Il programma indovina l'aspetto di una persona da più angolazioni e condizioni, quindi mappa quella persona sull'altra persona nel video di destinazione trovando caratteristiche comuni.

Al mix si aggiunge un altro tipo di machine learning, noto come Generative Adversarial Networks (GAN), che rileva e migliora eventuali difetti nel deepfake in più round, rendendo più difficile per i rilevatori di deepfake decodificarli.

Sebbene il processo sia complesso, il software è piuttosto accessibile. Diverse app semplificano la generazione di deepfake anche per i principianti, come l'app cinese Zao, DeepFace Lab, FakeApp e Face Swap, e una grande quantità di software deepfake può essere trovata su GitHub, una comunità di sviluppo open source.

La tecnologia Deepfake è stata storicamente utilizzata per scopi illeciti, inclusa la generazione di pornografia non consensuale. L'FBI ha rilasciato un annuncio di servizio pubblico nel giugno 2023 avvertendo il pubblico sui pericoli dell'intelligenza artificiale generativa e su come viene utilizzata per la "creazione di contenuti espliciti", la "sextortion" e le "molestie".