Un nuovo sistema per creare video manipolati ultrarealistici

Fake video sempre pi realistici grazie ad un nuovo software

Arriva un nuovo metodo di contraffazione dei video. Come se se ne sentisse il bisogno
Fake video sempre pi realistici grazie ad un nuovo software FASTWEB S.p.A.

I cosiddetti deepfakes, ovvero video falsi ultrarealistici, manipolati utilizzando software dei apprendimento automatico, stanno diventando sempre più convincenti. E i ricercatori continuano a sviluppare nuovi metodi per crearne sempre di nuovi. Il metodo più recente arriva dai ricercatori della Carnegie Mellon University, che hanno trovato un modo per trasferire automaticamente lo "stile" di una persona su un'altra.

"Ad esempio, lo stile di Barack Obama può essere trasformato in quello di Donald Trump", hanno scritto i ricercatori nella descrizione di un video presente su YouTube che evidenzia il risultato di questo metodo. Il filmato eccolo qui:

Il video mostra le espressioni facciali di John Oliver trasferite sia a Stephen Colbert che ad una rana animata, da Martin Luther King a Obama e da Obama a Trump.

Il primo esempio - da Oliver a Colbert - è lontano dal concetto di video manipolato più realistico a disposizione. Sembra infatti a bassa risoluzione, con alcune caratteristiche del viso che sfumano in certi punti. È quasi come se si stesse cercando di riprodurre un'intervista da Internet ma si ha una connessione wifi incredibilmente debole. Gli altri esempi (escludendo la rana) sono certamente più convincenti, mostrando il deepfake che rispecchia l'espressione facciale e i movimenti della bocca del soggetto originale.

I ricercatori descrivono il processo in un documento come un "approccio incentrato sui dati". Come altri metodi di sviluppo dei deepfake, questo utilizza l'intelligenza artificiale. Il documento non si occupa esclusivamente di tradurre lo stile parlante e i movimenti facciali da un essere umano a un altro, ma include anche esempi con fiori che sbocciano, albe e tramonti, e nuvole e vento. Per i deepfake "da-persona-a-persona", i ricercatori citano esempi di come alcune caratteristiche possono essere trasferite, tra cui "la fossetta di John Oliver mentre sorride, la forma della bocca caratteristica di Donald Trump e le linee della bocca e il sorriso di Stephen Colbert". Il team ha utilizzato i video disponibili al pubblico per sviluppare questi deepfakes.

È facile immaginare come queste tecniche potrebbero essere applicate in modo meno innocuo. L'esempio di John Oliver e della rana dei cartoni animati, ad esempio, indica uno strumento potenzialmente utile quando si tratta di sviluppare animazioni realistiche e antropomorfiche. L'attualità ci insegna che ci sono spesso gravi conseguenze alla proliferazione di deepfakes sempre più realistici, prodotti da persone malintenzionate con strumenti che li rendono sempre più economici e facili da creare. Col tempo, potrebbero diventare abbastanza convincenti da ingannare il pubblico e servire da strumento nefasto per la propaganda politica.

12 settembre 2018

Fonte: gizmodo.com
Condividi
Ebook
Sicurezza in Rete: ne sai abbastanza?
Strumenti utili, suggerimenti pratici e tutto quello che devi assolutamente sapere per proteggere davvero i tuoi dispositivi e i tuoi dati personali quando sei connesso
scarica l'ebook
ChiudiChiudi Questo sito usa cookies di profilazione, propri e di terzi, per adeguare la pubblicità alle tue preferenze.
Clicca qui per maggiori informazioni o per conoscere come negare il consenso. Se chiudi questo banner o accedi ad altri elementi della pagina acconsenti all'uso dei cookies.

Iscriviti alla
newsletter del
Digital Magazine di
Fastweb

Riceverai ogni settimana le notizie più interessanti sul mondo della tecnologia!
Iscriviti

Grazie per esserti iscritto!

Abbiamo inviato una mail all'indirizzo che hai indicato: per completare l'iscrizione alla newsletter del Digital Magazine di FASTWEB clicca sul link all'interno della mail