login LOGIN
CHIUDI chiudi
Il mio profilo

mostra
Hai dimenticato la password?
Inserisci l'indirizzo email di registrazione per reimpostare la password.
Segui le istruzioni che ti abbiamo inviato per posta elettronica.

Mythos usato senza autorizzazione, cosa significa per la sicurezza AI

Ascolta l'articolo

Mythos di Anthropic è stato reso accessibile per errore a un gruppo non autorizzato. Ecco cosa è successo e che cosa significa per la sicurezza dei sistemi AI

Claude Mythos gguy/Shutterstock

In Breve (TL;DR)

  • Un gruppo non autorizzato ha utilizzato il modello sperimentale Claude Mythos per circa due settimane, probabilmente a causa di una vulnerabilità interna e non di un attacco hacker.
  • Il caso evidenzia l’importanza di rafforzare i sistemi di controllo e accesso ai modelli AI, soprattutto in fase di sviluppo, per evitare usi impropri e garantire maggiore sicurezza.

Secondo alcune indiscrezioni condivise da Bloomberg, un gruppo di utenti non autorizzati è riuscito ad accedere a Claude Mythos, il nuovo modello sperimentale di Anthropic (non ancora destinato al pubblico), reso disponibile su un forum privato su Discord.

La notizia ha scosso l’interno settore dell'intelligenza artificiale sollevando interrogativi sull’accaduto e, naturalmente, sui sistemi di sicurezza aziendali che dovrebbero evitare situazioni del genere. Da parte sua Anthropic sta ancora cercando di fare luce sulla questione, ciò che è certo, però, è che un modello AI ancora in fase di sviluppo sia rimasto a disposizione di utenti ignoti per ben due settimane.

Come è stato possibile accedere Mythos di Anthropic

Stando alle informazioni a disposizione, l’accesso non autorizzato a Mythos non sarebbe stato frutto di un attacco hacker, ma piuttosto di una vulnerabilità nelle procedure di accesso ai server dell'azienda. Pare, infatti, che soggetti non autorizzati, sfruttando credenziali o canali di comunicazione interni rimasti parzialmente esposti, siano riusciti ad accedere al codice del modello, utilizzandolo liberamente per diverso tempo prima che Anthropic si accorgesse dalla cosa e corresse ai ripari.

Per chi non lo sapesse, al momento Mythos non è un prodotto finito, ma sarebbe più un ramo di sviluppo avanzato, che l’azienda sta utilizzando per creare questo “rivoluzionario modello AI” in grado, addirittura, di identificare e correggere vulnerabilità informatiche.

Questo accesso non autorizzato, solleva diversi interrogativi, soprattutto per quel che riguarda la sicurezza interna di Anthropic che solo poche settimane fa era finita sotto i riflettori per un “errore umano” che ha portato alla condivisione dell’intero codice sorgente di Claude.

Dopo aver chiuso l’accesso a Mythos, l’azienda vuole vederci chiaro e capire se questa violazione sia frutto di un errore o se, invece, di una qualche vulnerabilità che non è stata individuata.

Cosa insegna il caso Mythos e quali rischi per la sicurezza AI

Il caso Mythos rappresenta a tutti gli effetti un campanello d’allarme per l'intera industria dellintelligenza artificiale. Man mano che i modelli diventano più potenti (e potenzialmente pericolosi se privi di filtri), la loro protezione dovrebbe diventare una priorità di sicurezza nazionale.

Secondo gli esperti, infatti, non basta proteggere l’ecosistema aziendale ma occorre, anzi, un controllo continuo su chi può richiamare le API, soprattutto se riguardano modelli in fase di addestramento.

Oltretutto, bisogna anche considerare che il rilascio non autorizzato di strumenti non ancora completati può portare a rischi di bias estremi o alla rimozione dei cosiddetti paletti etici per utilizzi illeciti.

Per tale motivo, in futuro, sarà necessario riscrivere gli standard di crittografia e monitoraggio degli accessi, optando magari per un sistema più “stringente”, come quello per i segreti militari o industriali di alto livello. Solo così sarà possibile bloccare sul nascere future violazioni, come quella di Mythos, tenendo al sicuro il lavoro degli sviluppatori da occhi indiscreti.

Per saperne di più:

Cos'è Mythos di Anthropic?

Mythos è un modello di intelligenza artificiale in fase di test da parte di Anthropic, emerso da un leak interno e poi confermato ufficialmente dall'azienda. Non è ancora disponibile al pubblico.

Domande frequenti (FAQ)

  • Come è stato possibile accedere a Mythos di Anthropic?
    Stando alle informazioni a disposizione, l’accesso non autorizzato a Mythos non sarebbe stato frutto di un attacco hacker, ma piuttosto di una vulnerabilità nelle procedure di accesso ai server dell'azienda.
  • Quali sono le possibili conseguenze del rilascio non autorizzato di modelli AI in fase di sviluppo?
    Il rilascio non autorizzato di strumenti non ancora completati può portare a rischi di bias estremi o alla rimozione dei paletti etici per utilizzi illeciti, rappresentando una minaccia per la sicurezza e l'etica nell'ambito dell'intelligenza artificiale.
  • Cosa insegna il caso Mythos e quali rischi per la sicurezza AI?
    Il caso Mythos rappresenta a tutti gli effetti un campanello d’allarme per l'intera industria dell’intelligenza artificiale. Man mano che i modelli diventano più potenti, la loro protezione dovrebbe diventare una priorità di sicurezza nazionale.
A cura di Cultur-e
Addestramento IA non consentito: É assolutamente vietato l’utilizzo del contenuto di questa pubblicazione, in qualsiasi forma o modalità, per addestrare sistemi e piattaforme di intelligenza artificiale generativa. I contenuti sono coperti da copyright.
Egg Hunt
Egg hunt
Egg hunt
Egg hunt
Fda gratis svg
Decifra la parola nascosta
gioca ora gratuito

Iscriviti
all'area personale

Per ricevere Newsletter, scaricare eBook, creare playlist vocali e accedere ai corsi della Fastweb Digital Academy a te dedicati.