Fastweb

Come riconoscere video fatti con deep fake

Leonardo, il robot che cammina, salta e vola Smartphone & Gadget #robot #intelligenza artificiale Leonardo, il robot che cammina, salta e vola Un ulteriore passo avanti nella robotica
ISCRIVITI alla Newsletter
Inserendo l'indirizzo email autorizzi Fastweb all'invio di newsletter editoriali. Se non desideri più ricevere la newsletter, è sufficiente cliccare sul link presente in calce alle mail per richiederne la cancellazione. Condizioni di utilizzo.
Come riconoscere video fatti con deep fake FASTWEB S.p.A.
Video intelligenza artificiale
Web & Digital
Sfruttando algoritmi di intelligenza artificiale e machine learning, uno sviluppatore è stato in grado di creare falsi video con celebrità. Ecco come riconoscerli

Le potenzialità dell'intelligenza artificiale e degli algoritmi di apprendimento automatico profondo vanno ben oltre le sempre più diffuse applicazioni nella domotica e nell'elettronica di consumo. Oggi queste tecnologie possono essere utilizzate anche per creare e diffondere fake news e, persino, fake video. Ossia, dei video creati ad arte affinché chi li guardi abbia l'impressione che un personaggio più o meno famoso stia dicendo qualcosa che, in realtà, non ha mai detto e probabilmente neanche penserebbe mai di dire.

Si chiamano deep fake e sono un fenomeno molto pericoloso perché riconoscere questi video falsi non è affatto facile. Inizialmente si sono diffusi su Reddit ed erano, nella stragrande maggioranza dei casi, dei video porno: l'ideatore degli algoritmi era in grado di sovrapporre volti e visi di personaggi celebri a quelli di attrici e attori a luci rosse, diffondendo così in Rete dei falsi video hot. Ma, come vedremo tra poco, si tratta solo dell'inizio.

Fake news

Cosa sono i deep fake, i video contraffatti che possono rovinarti la reputazione

Un esempio molto efficace di questa nuova tecnologia al servizio delle bufale e delle manipolazioni l'ha fornita, per metterci in guardia, Jordan Peele, attore, regista e sceneggiatore americano che ha vinto l'Oscar per il film Scappa-Get Out. Peele ha realizzato un video fake in cui ha fatto dire all'ex presidente degli Stati Uniti Barack Obama che stiamo entrando nell'era in cui i nostri nemici possono far sembrare che "chiunque abbia detto qualunque cosa in un qualunque momento". Poi Obama pronuncia delle parole offensive nei confronti dell'attuale presidente americano, il suo successore Donald Trump. Un video che, ovviamente, Barack Obama non ha mai girato, come non ha mai pronunciato quelle parole.

Il video non è perfetto: osservandolo con attenzione si notano dei saltellamenti nell'immagine e la sincronizzazione tra il parlato e le labbra di Obama non è sempre precisissima. Tuttavia, a guardarlo in fretta e magari da uno schermo piccolo come quello di uno smartphone è molto difficile accorgersi della manomissione. La tecnologia, inoltre, migliora di giorno in giorno e non manca molto al momento in cui, come afferma il falso Obama, i nostri nemici potranno realmente farci dire qualunque cosa per danneggiare la nostra immagine, senza che chi guarda il video abbia molte possibilità di accorgersi che si tratta di un fake. Oggi per creare un video fake credibile servono decine di ore di calcolo, ma non ci vorrà molto affinché si possa ottenere un ottimo risultato con uno smartphone di fascia alta in pochi minuti o addirittura secondi.

Falso video con Barack Obama

Software per creare video deep fake

Il software usato da Peele per creare il falso video di Obama si chiama FakeApp, è gratuito ed è stato usato anche per inserire il volto di celebrità come Jessica Alba o Daisy Ridley in scene di film pornografici o la faccia dell'attore Nic Cage in scene di film che non ha mai girato, come Indiana Jones. La startup Lyrebird AI ha mostrato un altro video con un falso Barack Obama, molto difficile da riconoscere come un fake. Un altro software che crea video con una tecnologia simile è Face2Face, sviluppato da un team di programmatori tedeschi. La nota software house Adobe, invece, lavora allo sviluppo di una sorta di Photoshop per l'audio.

Insomma, le tecnologie per manipolare il volto e la voce di chiunque sono già molte e molto efficaci e si rischia seriamente quella che è stata già definita una "Infocalypse", l'Apocalisse dell'informazione in cui ognuno di noi può diventare oggetto delle fake news e, di conseguenza, vittima di un ricatto.

Come riconoscere i video manipolati (e difendersi)

Per fortuna la stessa tecnologia si può usare anche per gli scopi opposti: riconoscere i video fake. Quel che l'occhio non vede e le orecchie non sentono in questi video sono i dati che vi stanno dietro, dentro al file manipolato, ed esistono già software che sono in grado di cercare dentro i bit dei file video le tracce di una eventuale manomissione. Un esempio è XceptionNet, programma sviluppato da un team di ricercatori della Technische Universität München (l'Università Tecnica di Monaco) proprio per cercare nei file video le tracce di una manipolazione.

Alcuni fotogrammi del video con Obama

Per testare l'efficacia di questo software nel rilevare i fake, e per confrontarla con la capacità degli umani di riconoscere le video bufale, i ricercatori tedeschi hanno creato oltre 1.000 video falsi con facce e voci non originali. Questo grande database di video fake è stato usato per "insegnare" all'algoritmo come è fatto un video falso e in cosa differisce da uno non manipolato. Poi hanno chiesto al software e a un campione di esseri umani di analizzare altri video e di riconoscere quelli falsi. Gli umani hanno hanno riconosciuto il 50% dei video falsi, XceptionNet ne ha azzeccati tra l'87 e il 98% mostrandosi molto più efficiente degli umani quando i video erano molto compressi. I video falsi con una elevata compressione sono i più pericolosi perché mostrano più artefatti audio e video di quelli meno compressi, rendendo più difficile all'occhio e alle orecchie umani riconoscere un eventuale manipolazione. Ma XceptionNet guarda i dati, non un salto nel labiale.

Altri team di ingegneri e programmatori stanno lavorando a programmi simili ad XceptionNet e i software per riconoscere i video fake diventeranno sempre di più. Tuttavia, si tratta dell'ennesimo inseguimento tra guardie e ladri, sempre più simile a quello tra virus e antivirus. Ma oggi, con le tecnologie moderne, le guardie devono correre sempre di più per contrastare gli ultimi algoritmi in grado di rovinarci la reputazione e di esporci a ricatti ed estorsioni.

28 dicembre 2018

copyright CULTUR-E

Ti piace
questo
articolo?
Iscriviti alla nostra Newsletter

Riceverai settimanalmente le notizie più
interessanti sul mondo della tecnologia!

Inserendo l'indirizzo email autorizzi Fastweb all'invio di newsletter editoriali. Se non desideri più ricevere la newsletter, è sufficiente cliccare sul link presente in calce alle mail per richiederne la cancellazione. Condizioni di utilizzo.
TAGS: #intelligenza artificiale #fake video #deep fake #porno

© Fastweb SpA 2019 - P.IVA 12878470157
ChiudiChiudi Questo sito usa cookies di profilazione, propri e di terzi, per adeguare la pubblicità alle tue preferenze.
Clicca qui per maggiori informazioni o per conoscere come negare il consenso. Se chiudi questo banner o accedi ad altri elementi della pagina acconsenti all'uso dei cookies.