login LOGIN
CHIUDI chiudi
Il mio profilo

mostra
Hai dimenticato la password?
Inserisci l'indirizzo email di registrazione per reimpostare la password.
Segui le istruzioni che ti abbiamo inviato per posta elettronica.

Cosa significa che l’AI che si autoreplica, tra opportunità e rischi tecnologici

Ascolta l'articolo

Un team di scienziati cinesi ha effettuato dei test per verificare le capacità di autoreplicazione dell’intelligenza artificiale: cosa cambia col passaggio della “linea rossa”

Intelligenza artificiale Anggalih Prasetya/Shutterstock

In Breve (TL;DR)

  • Uno studio della Fudan University ha dimostrato che alcune AI possono autoreplicarsi, creando cloni autonomi e correggendo errori per migliorare la propria funzionalità.
  • Questa capacità potrebbe rivoluzionare settori come l’industria e la sanità, ma solleva preoccupazioni legate a sicurezza informatica e uso malevolo, richiedendo normative globali​.

L'intelligenza artificiale è un settore in rapidissima crescita e la prova evidente è rappresentata dalla capillare diffusione di questa tecnologia in ogni contesto, da quelli industriali fino all’intrattenimento.

Per gli esperti del settore, però, proprio nell’ultimo periodo l’AI avrebbe oltrepassato una sorta di “linea rossa”, che rappresenta una svolta sensibile: si è autoreplicata senza la supervisione umana.

Secondo i test condotti dai ricercatori della School of Computer Science della Fudan University di Shanghai, due popolari modelli linguistici di grandi dimensioni (LLM) sarebbero riusciti ad autoreplicarsi e questo potrebbe aprire la strada a degli sviluppi inattesi di queste tecnologie. 

AI che si autoreplica, cosa afferma lo studio cinese

In un recente studio pubblicato su ArXve dal team della Fudan University, sono stati utilizzati gli LLM di Meta e Alibaba per determinare se un'intelligenza artificiale sia in grado di autoreplicarsi, cioè di clonarsi senza la supervisione umana.. 

Nello specifico, i ricercatori hanno utilizzato il modello Llama31-70B-Instruct di Meta e il modello Qwen2.5-72B-Instruct di Alibaba, due sistemi meno potenti rispetto ai modelli delle più famose OpenAI e Google, ma comunque ampiamente utilizzati dagli sviluppatori.

Lo studio ha esplorato due scenari. Il primo è lo "shutdown avoidance", cioè che il sistema fosse in grado di autoreplicarsi creando una copia di modello AI funzionante ed evitare lo spegnimento della macchina. Il secondo è la "chain of replication", ovvero la catena di replicazione, uno scenario in cui il modello crea un clone di sé stesso, cioè una nuova intelligenza artificiale funzionante che a sua volta è in grado di autoreplicarsi, avviando un ciclo che, almeno teoricamente, potrebbe continuare all’infinito.

Su 10 test effettuati, i due modelli hanno dato prova di essere in grado di creare delle repliche funzionanti, con un tasso di successo del 50% per il modello AI di Meta e del 90% per il sistema AI di Alibaba. Si tratta quindi di test molto specifici , eseguiti in un ambiente a condizioni ideali per l’AI, il cui risultato non è stato replicato o dimostrato in altri paper scientifici. 

Il successo dei test, però, apre a diversi interrogativi e soprattutto allo scenario in cui, se lasciate fare, queste intelligenze artificiali potrebbero essere in grado di espandersi in maniera incontrollata.

L’aspetto che ha preoccupato di più i ricercatori riguarda alcuni comportamenti inaspettati dell’AI: per superare alcuni ostacoli, i due modelli sono stati in grado di autoriavviarsi per correggere gli errori, chiudere dei processi in conflitto e, addirittura, scansionare il sistema per cercare le informazioni necessarie per risolvere quello specifico problema.

Ciò vuol dire, secondo gli esperti, che “gli attuali sistemi basati sull’intelligenza artificiale sono già in grado di autoreplicarsi” e possono “sfruttare questa capacità per la propria sopravvivenza". Bisogna ricordare, però, che al momento lo studio non è ancora stato sottoposto a revisione paritaria, quindi è ancora troppo presto per considerare questi risultati una minaccia.

Nonostante questo, il team della Fudan University ha voluto comunque pubblicare la propria scoperta per “lanciare un segnale di allarme per la società” nella speranza che tutti si “impegnino maggiormente nella comprensione e nella valutazione dei potenziali rischi legati ai sistemi basati sull’intelligenza artificiale”.

Autoreplicazione dell’AI, quali le opportunità e quali i rischi

Il passaggio della linea rossa da parte dei due modelli AI presi in esame nello studio cinese apre a differenti scenari. La capacità dell’AI di creare dei cloni funzionanti e autonomi rappresenta un’opportunità per sistemi di intelligenza artificiale sempre più efficienti, che possono essere impiegati in differenti ambiti, dall’industria 4.0 per facilitare la gestione di fabbriche e impianti, fino alla sanità, con l’ottimizzazione di dispositivi.

Una replicazione senza controllo delle AI però presenta anche dei rischi per la sicurezza informatica. I modelli AI potrebbero essere utilizzati a scopi malevoli, ad esempio essere lanciati da hacker per creare dei malware o dei virus in grado di autoreplicarsi senza la supervisione umana, aumentando così le minacce in rete alla sicurezza e alla privacy.

Al momento, questa capacità di autoreplicazione è stata osservata in un solo studio, quindi ci troviamo in una fase embrionale, ma si aprono nuovi interrogativi sulla sicurezza e la regolarizzazione dell’AI, che richiedono a ricercatori, governi e istituzioni di unirsi per a livello internazionale per creare un sistema normativo che garantisca la sicurezza nella gestione delle nuove tecnologie basate sull’AI.

Per saperne di più: Intelligenza Artificiale: cos'è e cosa può fare per noi

A cura di Cultur-e
Addestramento IA non consentito: É assolutamente vietato l’utilizzo del contenuto di questa pubblicazione, in qualsiasi forma o modalità, per addestrare sistemi e piattaforme di intelligenza artificiale generativa. I contenuti sono coperti da copyright.
Fda
L'IA nel mondo del lavoro
Intelligenza artificiale e lavoro
L'IA nel mondo del lavoro
Fda gratis svg
Impatti, sfide e opportunità
Iscriviti al corso gratuito

Iscriviti
all'area personale

Per ricevere Newsletter, scaricare eBook, creare playlist vocali e accedere ai corsi della Fastweb Digital Academy a te dedicati.