L’iniziativa Deepfake Detection Challenge (DFDC), nata nel mese di settembre dai più grandi colossi della tecnologia e dei social network per combattere il fenomeno deepfake, punterà a creare strumenti open source che potranno essere sfruttati liberamente da società, organizzazioni media e di sicurezza nonché da governi.

La partnership ha coinvolto, oltre a Google e Facebook, anche Microsoft, il New York Times, l’Università di Oxford, il Mit di Boston, l’Università di Berkeley in California e l’Università Federico II di Napoli.

Google ha realizzato migliaia di deepfake con attori consapevoli di imitare personaggi pubblici per questo scopo, con la finalità di creare una banca dati – che verrà ampliata ancora in collaborazione con Jigsaw – per aiutare i ricercatori ad identificare e ad impedire la diffusione di questi video falsi.

Facebook, il cui fondatore Mark Zuckerberg è stato a sua volta vittima di un deepfake, sta creando tantissimi video falsi destinati ad arricchire un data base (pronto il prossimo dicembre) sul quale poi si darà proprio vita alla sfida Deepfake Detection Challenge.

Anche Amazon Web Services è entrata ufficialmente a far parte della Deepfake Detection Challenge sia come partner tecnico sia come membro del comitato che supervisionerà questa iniziativa. Offrirà, infatti, i propri esperti di machine learning per il supporto tecnico e un credito Amazon Web Services ai team che necessitano di spazio cloud per le sperimentazioni.

Per paradosso, quindi, al momento i più grandi produttori di deepfake sono Google e Facebook ed il modo migliore di combatterli sembra proprio essere quello di agire allo stesso modo dando in pasto tonnellate di dati agli strumenti di analisi per comprendere come funzionano gli algoritmi, le intelligenze artificiali e i sistemi per falsificare i video.


LE ORIGINI

Il termine deepfake – che indica la confluenza tra deep learning e fakes = video che puntano ad ingannare, disinformare – viene coniato nel 2017 quando l’Università di Washington pubblica una sorta di tutorial sulla realizzazione di un deepfake dedicato all’ex presidente degli Stati Uniti Barack Obama.

Questa tecnica, già molto conosciuta al cinema dove, grazie ai software di face swap e di lip sync, recitano attori scomparsi da anni e in cui gli animali parlano con un sincronismo perfetto labbra-voce, si è rapidamente diffusa sui social e, anche se in Italia se ne è parlato solo di recente, in realtà il dibattito è molto acceso negli Stati Uniti già da inizio anno.

Questi video falsi possono creare turbolenze e profondi cambiamenti in molti settori: ci sono già state grosse truffe sui mercati finanziari, ad esempio, con ordini di transazioni da milioni di dollari, dati per telefono e accettati da sistemi di riconoscimento vocale.

Sui social, specie nell’est asiatico, sono stati pubblicati deepfake di importanti influencer, con milioni di visualizzazioni e correlati introiti pubblicitari. Si prevede che le campagne elettorali saranno certamente perturbate dal massiccio utilizzo di deepfake per combattere gli avversari e così anche l’informazione tout court potrebbe cadere nel tranello delle fake news. Ma il pericolo maggiore deriva sicuramente dal revenge porn.


deepfake


I PROVVEDIMENTI

Una soluzione valutata dal Congresso americano è quella di contenere il rischio di questa tecnologia con almeno 3 proposte di legge tra cui la più significativa porta il nome “Deep Fakes Accountability Act” e che prevede l’apposizione di una marcatura sui documenti per dichiarare la natura di “falso” della creazione.

Anche i social network potrebbero essere costretti da un’apposita legislazione ad individuare video fasulli e quindi avvertire l’utente. Si comincia, inoltre, a pensare a sanzioni e pene più severe nel caso in cui la gravità del messaggio sia superiore e ci sia chiaramente un intento denigratorio verso una persona.

Lo Stato di New York ha presentato una norma che paragona coloro che diffondono video o immagini falsi per scopo ingannevole a truffatori e lo Stato della Virginia ha introdotto un emendamento alla legge sul contrasto del revenge porn, introdotta già nel 2014, per punire chi diffonde immagini e video di persone falsamente riprese in atti sessuali.

Alcune istituzioni come il Governo inglese stanno, invece, muovendo i primi passi verso leggi che però possono presentare a loro volta potenziali limiti verso la censura.

L’Europa non è da meno, nel mese di aprile sono state pubblicate le “linee guida etiche per un’intelligenza artificiale affidabile”. Il documento, elaborato secondo 7 requisiti specifici, prevede che i sistemi di deep learning debbano essere “rispettosi della legge e dei valori etici ed in equilibrio con l’ambiente sociale”.

Le norme da sole purtroppo non bastano, è quanto mai urgente e necessario un nuovo approccio etico che garantisca imparzialità e trasparenza nella prevenzione delle discriminazioni degli algoritmi d’intelligenza artificiale. Importante, inoltre, è migliorare la sensibilità sulla protezione dei dati personali e sulla privacy.


PRIVACY & SICUREZZA

Nexsys Solutions è sempre pronta ad aiutarvi, anche in materia di Sicurezza & Privacy, Consulenza GDPR, Sicurezza informatica, Ethical Hacking ecc…

Non esitare a contattarci, professionalità e serietà ti aspettano!

X