login LOGIN
CHIUDI chiudi
Il mio profilo

mostra
Hai dimenticato la password?
Inserisci l'indirizzo email di registrazione per reimpostare la password.
Segui le istruzioni che ti abbiamo inviato per posta elettronica.

Sora 2, OpenAI introduce nuove misure di sicurezza anti-deepfake

Ascolta l'articolo

Sora 2 è stato rilasciato solo da pochi giorni, ma il modello è già fonte di grandi entusiasmi e profonde critiche: OpenAI interviene con misure di sicurezza

Sora Tada Images / Shutterstock.com

In Breve (TL;DR)

  • OpenAI ha introdotto nuove misure di sicurezza per Sora 2, il suo modello AI per la generazione di video, in risposta alle critiche sul rischio di deepfake. Gli utenti potranno limitare l’uso del proprio alter ego AI in contenuti sensibili come politica o temi delicati.
  • Nonostante gli aggiornamenti, il rischio di utilizzo improprio dell’AI resta. OpenAI si impegna a rafforzare i sistemi di protezione e a fornire strumenti più avanzati per prevenire abusi e tutelare la sicurezza degli utenti.

Negli scorsi giorni OpenAI ha acceso l'entusiasmo degli utenti del web, rilasciando un nuovo modello AI per la generazione di video. Si tratta di Sora 2, evoluzione del già famoso Sora, che arriva insieme ad una nuova applicazione simile a TikTok. Un’app, attualmente disponibile solo per i possessori di iPhone e in specifici mercati, che non solo permette la creazione di contenuti AI, ma anche la loro condivisione in un feed che mira a sfidare i principali social network.

Oltre all’entusiasmo e alla curiosità, dettati soprattutto dalle grandi capacità di Sora 2 di creare video realistici, sono sorte anche preoccupazioni e critiche. Sora può creare delle versioni AI dell’utente. Lo ha dimostrato Sam Altman, CEO di OpenAI, nella diretta streaming di presentazione, realizzata attraverso il suo alter-ego AI.

I più critici di questa nuova tecnologia temono che Sora 2 possa diventare una fonte di disinformazione o, nel peggiore dei casi, un mezzo per ledere gli altri utenti attraverso l’utilizzo di loro deepfake. Preoccupazioni che OpenAI ha deciso di non sottovalutare e a cui ha risposto con un nuovo immediato aggiornamento che porta con sé nuovi strumenti di sicurezza anti-deepfake.

Cosa cambia con le misure di sicurezza anti-deepfake di OpenAI per Sora 2

In pochi giorni di funzionamento, Sora 2 e la relativa app per la generazione e condivisione dei video AI hanno dimostrato tutte le loro potenzialità e limiti. Gli utenti si sono cimentati nella creazione di contenuti, a volte ottenendo risultati discutibili, ma nella maggior parte dei casi dando vita video straordinariamente realistici.

L’app permette di creare dei brevi video, solo 10 secondi, che contengono anche audio o voce sincronizzati. Insomma, se ben realizzati, si tratta di video che possono facilmente apparire credibili, soprattutto ad un occhio meno attento.

Per questo le nuove misure di sicurezza di OpenAI per Sora 2 risultano indispensabili. Stando a quanto riportato da Bill Peebles, a capo del team di sviluppo di Sora, da ora si potrà limitare la diffusione e creazione di versioni AI di se stessi.

In altre parole, gli utenti potranno scegliere in quali tipologie di video il proprio alter-ego AI non deve comparire. Ad esempio, quelli che affrontano temi politici o delicati o in cui vengono pronunciate determinate parole. È un modo per limitare la diffusione di deepfake realizzati con l’obiettivo di danneggiare.

OpenAI mira a maggiori restrizioni, ma il rischio deepfake non scompare

È bene essere consapevoli che, nonostante l’impegno di OpenAI, il rischio deepfake non scompare. L’intelligenza artificiale generativa è un ottimo strumento a supporto della creatività e della produttività, ma se usato da malintenzionati può ancora essere rischiosa.

OpenAI, consapevole dell’intento di alcuni utenti di eludere i sistemi di sicurezza dei modelli AI, ad esempio cercando di rimuovere i watermark, ha dichiarato il suo impegno a migliorare ulteriormente i sistemi di sicurezza. Aumenteranno le restrizioni, che saranno sempre più solide, e saranno offerti agli utenti sempre più strumenti per avere il massimo controllo.

Per saperne di più: Intelligenza Artificiale: cos'è e cosa può fare per noi

Domande frequenti (FAQ)

  • Come funziona Sora 2 e la relativa app per la generazione e condivisione dei video AI?
    Sora 2 è un nuovo modello AI per la generazione di video, accompagnato da un'app simile a TikTok. Gli utenti possono creare brevi video realistici di 10 secondi con audio sincronizzato.
  • Quali sono le principali preoccupazioni riguardo a Sora 2 e la creazione di deepfake?
    Alcuni temono che Sora 2 possa essere utilizzato per creare deepfake dannosi o per diffondere disinformazione, utilizzando versioni AI degli utenti.
  • Quali sono le nuove misure di sicurezza anti-deepfake introdotte da OpenAI per Sora 2?
    OpenAI ha introdotto nuovi strumenti di sicurezza che permettono agli utenti di limitare la creazione e la diffusione di versioni AI di se stessi, ad esempio evitando di comparire in video su temi delicati.
  • Cosa fa OpenAI per contrastare il rischio di deepfake nonostante le nuove misure di sicurezza?
    OpenAI si impegna a migliorare costantemente i sistemi di sicurezza per contrastare il rischio di deepfake. Verranno aumentate le restrizioni e offerti agli utenti più strumenti di controllo.
A cura di Cultur-e
Addestramento IA non consentito: É assolutamente vietato l’utilizzo del contenuto di questa pubblicazione, in qualsiasi forma o modalità, per addestrare sistemi e piattaforme di intelligenza artificiale generativa. I contenuti sono coperti da copyright.
Intelligenza Astrale
Intelligenza Astrale
Immagine principale del blocco
Intelligenza Astrale
Fda gratis svg
L’oroscopo di Fastweb Plus generato con l’Intelligenza Artificiale
Leggi l’oroscopo gratuito

Iscriviti
all'area personale

Per ricevere Newsletter, scaricare eBook, creare playlist vocali e accedere ai corsi della Fastweb Digital Academy a te dedicati.