In Breve (TL;DR)
- Un gruppo non autorizzato ha utilizzato il modello sperimentale Claude Mythos per circa due settimane, probabilmente a causa di una vulnerabilità interna e non di un attacco hacker.
- Il caso evidenzia l’importanza di rafforzare i sistemi di controllo e accesso ai modelli AI, soprattutto in fase di sviluppo, per evitare usi impropri e garantire maggiore sicurezza.
Secondo alcune indiscrezioni condivise da Bloomberg, un gruppo di utenti non autorizzati è riuscito ad accedere a Claude Mythos, il nuovo modello sperimentale di Anthropic (non ancora destinato al pubblico), reso disponibile su un forum privato su Discord.
La notizia ha scosso l’interno settore dell'intelligenza artificiale sollevando interrogativi sull’accaduto e, naturalmente, sui sistemi di sicurezza aziendali che dovrebbero evitare situazioni del genere. Da parte sua Anthropic sta ancora cercando di fare luce sulla questione, ciò che è certo, però, è che un modello AI ancora in fase di sviluppo sia rimasto a disposizione di utenti ignoti per ben due settimane.
Come è stato possibile accedere Mythos di Anthropic
Stando alle informazioni a disposizione, l’accesso non autorizzato a Mythos non sarebbe stato frutto di un attacco hacker, ma piuttosto di una vulnerabilità nelle procedure di accesso ai server dell'azienda. Pare, infatti, che soggetti non autorizzati, sfruttando credenziali o canali di comunicazione interni rimasti parzialmente esposti, siano riusciti ad accedere al codice del modello, utilizzandolo liberamente per diverso tempo prima che Anthropic si accorgesse dalla cosa e corresse ai ripari.
Per chi non lo sapesse, al momento Mythos non è un prodotto finito, ma sarebbe più un ramo di sviluppo avanzato, che l’azienda sta utilizzando per creare questo “rivoluzionario modello AI” in grado, addirittura, di identificare e correggere vulnerabilità informatiche.
Questo accesso non autorizzato, solleva diversi interrogativi, soprattutto per quel che riguarda la sicurezza interna di Anthropic che solo poche settimane fa era finita sotto i riflettori per un “errore umano” che ha portato alla condivisione dell’intero codice sorgente di Claude.
Dopo aver chiuso l’accesso a Mythos, l’azienda vuole vederci chiaro e capire se questa violazione sia frutto di un errore o se, invece, di una qualche vulnerabilità che non è stata individuata.
Cosa insegna il caso Mythos e quali rischi per la sicurezza AI
Il caso Mythos rappresenta a tutti gli effetti un campanello d’allarme per l'intera industria dell’intelligenza artificiale. Man mano che i modelli diventano più potenti (e potenzialmente pericolosi se privi di filtri), la loro protezione dovrebbe diventare una priorità di sicurezza nazionale.
Secondo gli esperti, infatti, non basta proteggere l’ecosistema aziendale ma occorre, anzi, un controllo continuo su chi può richiamare le API, soprattutto se riguardano modelli in fase di addestramento.
Oltretutto, bisogna anche considerare che il rilascio non autorizzato di strumenti non ancora completati può portare a rischi di bias estremi o alla rimozione dei cosiddetti paletti etici per utilizzi illeciti.
Per tale motivo, in futuro, sarà necessario riscrivere gli standard di crittografia e monitoraggio degli accessi, optando magari per un sistema più “stringente”, come quello per i segreti militari o industriali di alto livello. Solo così sarà possibile bloccare sul nascere future violazioni, come quella di Mythos, tenendo al sicuro il lavoro degli sviluppatori da occhi indiscreti.
Per saperne di più:
- Claude AI, guida completa al chatbot di Anthropic
- Sicurezza informatica: guida alla navigazione sicura sul web
Domande frequenti (FAQ)
-
Come è stato possibile accedere a Mythos di Anthropic?Stando alle informazioni a disposizione, l’accesso non autorizzato a Mythos non sarebbe stato frutto di un attacco hacker, ma piuttosto di una vulnerabilità nelle procedure di accesso ai server dell'azienda.
-
Quali sono le possibili conseguenze del rilascio non autorizzato di modelli AI in fase di sviluppo?Il rilascio non autorizzato di strumenti non ancora completati può portare a rischi di bias estremi o alla rimozione dei paletti etici per utilizzi illeciti, rappresentando una minaccia per la sicurezza e l'etica nell'ambito dell'intelligenza artificiale.
-
Cosa insegna il caso Mythos e quali rischi per la sicurezza AI?Il caso Mythos rappresenta a tutti gli effetti un campanello d’allarme per l'intera industria dell’intelligenza artificiale. Man mano che i modelli diventano più potenti, la loro protezione dovrebbe diventare una priorità di sicurezza nazionale.



