Fastweb

Creare deepfake diventa sempre più facile con il machine learning

Empath Smartphone & Gadget #intelligenza artificiale Empath, l'intelligenza artificiale che rileva le emozioni dal tono di voce Già utilizzata nei coll centerm si pensa che questa soluzione posso trovare applicazione nei videogiochi, nei robot e persino nei veicoli
ISCRIVITI alla Newsletter
Inserendo l'indirizzo email autorizzi Fastweb all'invio di newsletter editoriali. Se non desideri più ricevere la newsletter, è sufficiente cliccare sul link presente in calce alle mail per richiederne la cancellazione. Condizioni di utilizzo.
Creare deepfake diventa sempre più facile con il machine learning FASTWEB S.p.A.
deepfake
Web & Digital
Grazie all'intelligenza artificiale nasce un nuovo sistema per la creazione di video falsi con persone vere

Abbiamo già visto diversi esempi, in passato, di tecnologia deepfake, quella che consente di creare video fasulli con personaggi reali, ai quali è possibile far dire qualsiasi cosa si vuole. Nell'ultimo esempio di questa tecnologia, i ricercatori hanno mostrato un nuovo software che utilizza l'apprendimento automatico per consentire agli utenti di modificare la trascrizione del testo di un video per aggiungere, eliminare o modificare le parole che escono dalla bocca di qualcuno.

Il lavoro è stato svolto da scienziati della Stanford University, Max Planck Institute for Informatics, Princeton University e Adobe Research, e dimostra che la nostra capacità di modificare ciò che la gente dice nei video e creare falsi realistici sta diventando ogni giorno più facile. È possibile vedere una serie di esempi di output del sistema nel video qui in basso, inclusa una versione modificata di una famosa citazione di Apocalypse Now, con la frase "Adoro l'odore del napalm al mattino" modificata in "Adoro l'odore del toast francese al mattino."

Si tratta ancora di una tecnologia in fase di ricerca e non è disponibile come software di consumo, ma probabilmente non ci vorrà molto tempo prima che servizi simili diventino pubblici. Adobe, ad esempio, ha già condiviso i dettagli sul software prototipo denominato VoCo, che consente agli utenti di modificare le registrazioni vocali con la stessa facilità con cui si scattano le foto e che è stato utilizzato in questa ricerca.

Per creare i video falsi, gli scienziati combinano una serie di tecniche. In primo luogo, eseguono la scansione del video di destinazione per isolare i fonemi parlati dal soggetto. Quindi abbinano questi fonemi ai corrispondenti espressioni facciali che accompagnano ogni suono. Infine, creano un modello 3D della metà inferiore del volto del soggetto utilizzando il video di destinazione. Quando qualcuno modifica una trascrizione testuale del video, il software combina tutti questi dati raccolti - i fonemi, i visi e il modello di faccia 3D - per costruire nuove riprese che corrispondano all'input del testo. Questo viene quindi incollato sul video sorgente per creare il risultato finale.

Nei test in cui sono stati mostrati i video falsi a un gruppo di 138 volontari, circa il 60% dei partecipanti ha creduto che le modifiche fossero reali. Potrebbe sembrare una percentuale piuttosto bassa, ma solo l'80% di quello stesso gruppo riteneva che anche il filmato originale e inedito fosse reale. (I ricercatori osservano che ciò potrebbe essere dovuto al fatto che alle persone era stato detto che le loro risposte venivano utilizzate per uno studio sul video editing, il che significa che erano in qualche modo predisposti a cercare falsi).

Come sempre, però, è importante ricordare che ci sono dei limiti a quello che questa tecnologia può fare.

Questi algoritmi funzionano solo per video in cui a parlare è un volto in primo piano, e richiedono circa 40 minuti di dati di input. Il discorso modificato, inoltre, non sembra che possa differire troppo dal materiale di partenza, e nei loro falsi di migliore qualità, i ricercatori hanno chiesto ai soggetti di registrare un nuovo audio per abbinare i cambiamenti, usando poi l'intelligenza artificiale per generare il video (questo perché i file audio fasulli sono spesso scadenti, sebbene anche questa tecnologia stia migliorando).

I ricercatori hanno inoltre notato che non è ancora possibile cambiare lo stato d'animo o il tono della voce di chi parla, in quanto ciò porterebbe a "risultati inquietanti". E che qualsiasi movimento rapido del viso o se qualcuno agita le mani mentre parla, elimina l'algoritmo completamente.

Quindi, la tecnologia non è perfetta ma questi tipi di limitazioni sono sempre presenti nelle prime fasi di ricerca ed è quasi garantito che saranno superati nel tempo. Ciò significa che la società, in generale, dovrà presto cimentarsi con il concetto alla base di questa ricerca: l'arrivo di software che consenta a chiunque di modificare ciò che la gente dice nei video senza formazione tecnica.

I potenziali danni di questa tecnologia sono estremamente preoccupanti, e i ricercatori in questo campo sono spesso criticati per non aver considerato il potenziale uso improprio del loro lavoro. Gli scienziati coinvolti in questo particolare progetto dicono però di aver preso in considerazione questi problemi. In un post del blog che accompagna il lavoro, questi scrivono: "Sebbene i metodi di manipolazione di immagini e video siano vecchi quanto i media stessi, i rischi di abuso aumentano quando applicati a una modalità di comunicazione che a volte viene considerata come una prova autorevole di pensieri e intenti. Riconosciamo che alcuni malintenzionati potrebbero usare tali tecnologie per falsificare le dichiarazioni personali e calunniare individui di spicco".

Ma il rimedio che i ricercatori suggeriscono è difficilmente confortante. Dicono che per evitare confusione, il video modificato con AI deve essere presentato chiaramente come tale, sia attraverso l'uso di watermark che attraverso il contesto. Ma le filigrane vengono facilmente rimosse e una perdita di contesto è uno dei tratti distintivi dei media online. I falsi non hanno bisogno di essere impeccabili per avere un impatto. Un sacco di articoli falsi o fake news possono essere facilmente smentiti con una ricerca di pochi minuti, ma ciò non impedisce la loro diffusione, specialmente nelle comunità che vogliono credere a tali bugie che si adattano ai loro preconcetti.

I ricercatori osservano che una tecnologia come questa ha molti vantaggi. Sarebbe di grande aiuto per l'industria cinematografica e televisiva, permettendo loro di correggere le riprese sbagliate senzar egistrazioni ulteriori e creare doppioni senza soluzione di continuità di attori che parlano lingue diverse.

Ma questi benefici sembrano sottodimensionati rispetto al potenziale danno. Sebbene ci sia una buona argomentazione per sostenere che la propaganda del deepfake non è una minaccia come molti credono, i progressi fatti in ricerche come questa sono ancora profondamente preoccupanti. Bisogna innanzi tutto allenarsi a riconoscere i deepfake!

11 guigno 2019

Fonte: theverge.com

Ti piace
questo
articolo?
Iscriviti alla nostra Newsletter

Riceverai settimanalmente le notizie più
interessanti sul mondo della tecnologia!

Inserendo l'indirizzo email autorizzi Fastweb all'invio di newsletter editoriali. Se non desideri più ricevere la newsletter, è sufficiente cliccare sul link presente in calce alle mail per richiederne la cancellazione. Condizioni di utilizzo.
TAGS: #fake news #intelligenza artificiale #machinelearning

© Fastweb SpA 2019 - P.IVA 12878470157
ChiudiChiudi Questo sito usa cookies di profilazione, propri e di terzi, per adeguare la pubblicità alle tue preferenze.
Clicca qui per maggiori informazioni o per conoscere come negare il consenso. Se chiudi questo banner o accedi ad altri elementi della pagina acconsenti all'uso dei cookies.