login LOGIN
CHIUDI chiudi
Il mio profilo

mostra
Hai dimenticato la password?
Inserisci l'indirizzo email di registrazione per reimpostare la password.
Segui le istruzioni che ti abbiamo inviato per posta elettronica.

Deepfake e cybercrime, scenari futuri

Ascolta l'articolo

La tecnologia dei video deepfake è arrivata ad una tale evoluzione che, presto, non potremo fidarci realmente di nessuno

deepfake

I video e gli audio deepfake sono ormai una realtà da diversi anni e sul Web da tempo circolano diversi esempi molto credibili: sono diventati famosi quelli di Barack Obama, Tom Cruise, della Regina Elisabetta II, Vladimir Putin e di Linda Carter, l'indimenticabile prima Wonder Woman.

Il termine deepfake non è altro che l'unione tra "deep" e "fake": il primo termine si riferisce agli algoritmi di deep learning usato per generare il secondo, il fake, il video o l'audio falso

Grazie ad una potenza di calcolo sempre più elevata, ad un costo sempre più basso, creare materiale multimediale deepfake è sempre più facile ed economico e, per questo, il fenomeno è sempre più pericoloso: quando un fake diventa economico, infatti, i criminali del Web iniziano a usarlo in massa come strumento per mettere a segno truffe.

A causa dei deepfake, infatti, il phishing potrebbe fare un salto di qualità incredibile. Sta per nascere, in altre parole, il "deepphishing" e non è affatto una buona notizia anche perché molti dei nostri comportamenti quotidiani sul Web non faranno altro che alimentare e rendere ancora più economico questo fenomeno.

Come funzionano i deepfake

 

Con il termine deepfake si intende solitamente un filmato digitale che viene manipolato al computer per applicare un volto noto sul corpo di un'altra persona, di solito un attore. Grazie agli algoritmi, infatti, è possibile applicare una maschera digitale al volto dell'attore, affinché le cose che fa e che dice nel video sembrino essere state fatte e dette dalla persona imitata, cioè dalla maschera.

Il deep learning, uno dei campi di apprendimento automatico dell'intelligenza artificiale utilizza algoritmi specializzati e molti dati per addestrare reti neurali artificiali per raggiungere tale obiettivo. E' possibile usare sistemi simili per modificare anche i dati audio, quindi non solo possiamo vedere un personaggio famoso che fa cose che non ha mai fatto, ma anche sentirgli dire cose che non ha mai detto con una voce che assomiglia moltissimo alla sua.

Per ottenere questo risultato è necessario addestrare gli algoritmi, dandogli in pasto una gran quantità di materiale audio e video. Più gliene diamo e più sarà credibile il risultato finale. Certamente, però, tutto è reso più facile se il viso dell'attore ha una conformazione simile a quella del personaggio che si vuole simulare e se le due voci si assomigliano (o se l'attore è un buon imitatore).

Ma, somiglianze a parte, è la quantità di dati elaborati a fare la differenza e, per i personaggi famosi, di dati ce ne sono moltissimi: un noto politico sarà spesso al telegiornale, un attore va in video per mestiere.

E poi c'è la gente comune, che non va al telegiornale e che non gira film a Hollywood. Ma che usa i social.

Deepfake per tutti

Chiunque può diventare il volto di un deepfake, se l'autore del fake è in grado di raccogliere abbastanza dati audio e video. Dopo aver letto queste parole, provate a contare quanti video selfie avete pubblicato su Instagram, Facebook e TikTok negli ultimi dodici mesi e scoprirete che anche voi potreste probabilmente diventare vittima di un deepfake.

I video pubblicati sui social, infatti, sono ottimi per addestrare gli algoritmi: il volto è ben in vista, molto probabilmente è anche ben illuminato e molto spesso c'è anche dell'audio. L'autore del video selfie spesso fa delle espressioni con il volto, cosa che permette agli algoritmi di imparare come si muovono i suoi muscoli facciali.

Insomma, video del genere sono un ottimo punto di partenza per un cybercriminale che vuole impossessarsi della nostra identità e se sono molti il lavoro è ancor più facile.

Cosa si rischia

 

Ci si potrebbe chiedere per quale motivo un criminale dovrebbe investire tempo e denaro (in capacità di calcolo) per creare un video in cui noi facciamo e diciamo cose che non abbiamo mai fatto e mai detto. La domanda è lecita fino a quando di tempo e denaro ne servono molti, ma se il deepfake diventa economico allora cambia tutto.

Il rischio, grave e assolutamente credibile, è che vengano creati dei video falsi in cui noi chiediamo ad amici e parenti del denaro per bisogno. Tali video potrebbero essere inviati tramite il nostro profilo WhatsApp hackerato, sotto forma di videomessaggi ai dieci contatti più stretti, amici e parenti, e probabilmente qualcuno potrebbe anche cascarci.

Un altro rischio, forse ancor più grave, è il ricatto a sfondo sessuale: con sistemi analoghi a quelli già illustrati è possibile inserire un volto in un filmato pornografico e ricattare una persona. Tale persona non ha mai girato quei video, ma avrebbe grosse difficoltà a spiegarlo agli altri e potrebbe preferire cedere al ricatto e pagare: è già successo con diverse celebrità, potrebbe succedere a chiunque.

Poi c'è l'incubo più grande, che per fortuna è ancora lontano (ma forse non ancora per molto) dal diventare realtà: il deepfake in tempo reale. Ci arriva una videochiamata dal numero di un amico e, quando rispondiamo, crediamo che di parlare con lui e di vedere lui, ma lui non è.

I Tech-Quiz di Mister Plus

0/ 0
Risposte corrette
0' 0"
Tempo impiegato
Vai alla classifica

Per fare qualcosa del genere, però, serve ancora una enorme potenza di calcolo.

Come difendersi

 

Come già accennato, gli algoritmi hanno fame di dati: più gliene diamo e più apprendono in fretta. Per tutelarsi dai deepfake, quindi, il primo passo è quello di non regalare ai cybercriminali audio e video che ci raffigurano. Difficile dirlo nell'epoca dei social e, soprattutto, dei video brevi, ma ogni secondo di video che pubblichiamo potrebbe un giorno essere usato contro di noi.

Poi c'è l'altro lato della medaglia: il caso in cui noi non siamo l'oggetto del fake, ma della truffa. Cioè quando riceviamo un video fake che rappresenta un nostro conoscente in cui ci viene chiesto del denaro o di fare qualcosa. In casi del genere difendersi è difficile, perché è difficile riconoscere il falso.

Di sicuro, però, prima di pagare anche somme minime è il caso di fare due o tre passaggi con la persona che vediamo nel video, usando più canali di comunicazione: difficilmente gli hacker saranno riusciti a prendere possesso contemporaneamente di numero di telefono, profilo WhatsApp, profilo Facebook, email di qualcuno, quindi se c'è ancora un canale tramite il quale possiamo comunicare con la reale persona che vediamo nel video, allora in un modo o nell'altro riusciremo a farlo.

A cura di Cultur-e
Addestramento IA non consentito: É assolutamente vietato l’utilizzo del contenuto di questa pubblicazione, in qualsiasi forma o modalità, per addestrare sistemi e piattaforme di intelligenza artificiale generativa. I contenuti sono coperti da copyright.
Fda
Prompt engineering
Immagine principale del blocco
Prompt engineering
Fda gratis svg
Come interrogare le intelligenze artificiali
Iscriviti al corso gratuito

Iscriviti
all'area personale

Per ricevere Newsletter, scaricare eBook, creare playlist vocali e accedere ai corsi della Fastweb Digital Academy a te dedicati.