In Breve (TL;DR)
- I modelli Sora 2 di OpenAI e Veo 3 di Google generano video iper-realistici che stimolano la creatività, ma aumentano il rischio di deepfake, sollevando preoccupazioni etiche e morali, soprattutto per l’uso dell’immagine di personaggi defunti.
- Nonostante l’uso di watermark e metadati da parte delle aziende, i contenuti manipolati possono alimentare truffe e disinformazione; per questo è essenziale sviluppare consapevolezza critica e usare strumenti AI per riconoscere i deepfake.
La generazione video con l’intelligenza artificiale ha fatto, negli ultimi mesi, passi da gigante. Sora 2 e Veo 3, i modelli di punta di OpenAI e Google, hanno reso possibile la realizzazione di contenuti iper-realistici, con audio sincronizzato, a volte indistinguibili dalla realtà. Tutto ciò ha permesso agli utenti di divertirsi e di dare sfogo alla propria creatività, ma ha anche sollevato molte questioni etiche e morali e, soprattutto, ha incrementato il rischio deepfake.
Aumentano le possibilità di espressione, ma è richiesta anche una maggiore attenzione per la sicurezza. OpenAI e Google si impegnano ad inserire sistemi di protezione, come watermark visibili e invisibili, ma non sempre è sufficiente.
Per poter essere utenti consapevoli, occorre conoscere non solo i vantaggi della generazione video con l’AI, indubbiamente presenti, ma anche i pericoli e i rischi. Scopriamoli.
Deepfake delle star defunte, i familiari sollevano la questione morale
Partiamo dalle questioni etiche e morali, sollevate questa volta dai familiari di star defunte. Dopo il lancio di Sora 2, finito direttamente al primo posto della classifica dell’app store di Apple, il web si è popolato di contenuti con protagonisti star del passato. L’AI sta “riportando” in vita le celebrità più apprezzate, come Aretha Franklin e Marylin Monroe.
Tutte queste star, nei video, si accingono ad eseguire azioni normali e contemporanee, ma non solo. In alcuni casi i protagonisti sono personaggi storici, creando dei video manipolati in cui pronunciano discorsi mai esistiti o fanno affermazioni non veritiere.
Qui si apre una doppia questione: quella legale e morale. I video che riguardano persone defunte hanno sollevato le polemiche di alcuni familiari, preoccupati per la tutela dell’immagine dei loro cari. In tal caso, OpenAI ha risposto che quella sollevata è un tema lecito e presto fornirà nuovi strumenti di tutela.
L’altra questione, invece, riguarda la diffusione della disinformazione. I video riescono a confondere anche gli occhi più attenti; pertanto, la possibilità che le frasi manipolate vengano considerate reali è concreta.
Deepfake iper-realistici, il rischio per gli utenti
Il problema non è esclusivamente morale. La disinformazione è solo la punta dell’iceberg quando si parla di rischi derivanti dai deepfake, soprattutto se generati con modelli AI che forniscono risultati iper-realistici. Aumenta il pericolo di truffe e manipolazioni politiche, di estorsione e tanto altro ancora.
Google, OpenAI e le altre realtà stanno cercando di frenare i rischi, attraverso segnali invisibili, come watermark e metadati, e segnali visibili, come la filigrana. Non sempre, però, è sufficiente, poiché la loro rimozione non è estremamente complicata.
Cadere in trappole e manipolazioni è, perciò, sempre più semplice. L’utente deve sviluppare un forte spirito critico. Anche l’AI, però, può offrire supporto: sono sempre di più i sistemi AI che consentono di individuare i deepfake e limitarne i pericoli.
Per saperne di più: Intelligenza Artificiale: cos'è e cosa può fare per noi
Domande frequenti (FAQ)
-
Come la generazione video con l'intelligenza artificiale ha fatto passi da gigante?Sora 2 e Veo 3, i modelli di punta di OpenAI e Google, hanno reso possibile la realizzazione di contenuti iper-realistici, con audio sincronizzato, a volte indistinguibili dalla realtà.
-
Quali sono le questioni etiche e morali sollevate dalla generazione video con l'AI?La generazione video con l'AI ha sollevato questioni etiche e morali legate all'incremento del rischio deepfake e alla necessità di maggiore attenzione per la sicurezza.
-
Quali sono i pericoli e i rischi legati alla generazione video con l'intelligenza artificiale?I pericoli e i rischi includono deepfake delle star defunte, questioni legali e morali, diffusione della disinformazione, rischi per gli utenti come truffe e manipolazioni politiche.
-
Quali sono le preoccupazioni dei familiari di star defunte riguardo ai video generati con l'AI?I familiari di star defunte sono preoccupati per la tutela dell'immagine dei loro cari, poiché i video generati con l'AI possono riportare in vita le celebrità defunte e creare situazioni non veritiere.
-
Come vengono affrontati i rischi dei deepfake iper-realistici da parte di Google e OpenAI?Google, OpenAI e altre realtà cercano di frenare i rischi dei deepfake attraverso segnali invisibili come watermark e metadati, e segnali visibili come la filigrana, ma la rimozione di tali segnali può essere complicata.