login LOGIN
CHIUDI chiudi
Il mio profilo

mostra
Hai dimenticato la password?
Inserisci l'indirizzo email di registrazione per reimpostare la password.
Segui le istruzioni che ti abbiamo inviato per posta elettronica.

DeepSeek ha copiato Claude? Perché Anthropic accusa l’azienda cinese

Anthropic accusa DeepSeek e altre aziende cinesi di aver usato la distillazione AI per replicare Claude. Ecco cos’è la tecnica e perché fa discutere

Modello AI Claude Azulblue / Shutterstock.com

In Breve (TL;DR)

  • Anthropic accusa DeepSeek, MiniMax e Moonshot di aver usato la distillazione AI per replicare parte delle capacità del modello Claude attraverso milioni di interazioni.
  • La distillazione è una tecnica legittima per addestrare modelli più piccoli, ma può diventare controversa se usata per acquisire tecnologie avanzate senza svilupparle autonomamente.

La competizione globale sull’intelligenza artificiale entra in una nuova fase. Anthropic, società statunitense che sviluppa il modello Claude, accusa alcune aziende cinesi di aver utilizzato tecniche di distillazione per replicare parte delle capacità del proprio sistema.

Nel mirino finiscono DeepSeek, MiniMax e Moonshot. Secondo Anthropic, queste aziende avrebbero interagito su larga scala con Claude per migliorare i propri modelli, sfruttando una pratica che, pur essendo legittima in sé, può diventare controversa quando coinvolge tecnologie proprietarie.

Ma cosa significa davvero “distillazione AI” e perché il tema è diventato così sensibile? Facciamo chiarezza.

Cos’è la distillazione AI

La distillazione è una tecnica ampiamente utilizzata nel machine learning. In termini semplici, consiste nell’addestrare un modello più piccolo, spesso più economico e leggero, usando le risposte generate da un modello più potente.

Il modello avanzato funge da insegnante, mentre quello più semplice impara a imitarne il comportamento. Il risultato è un sistema che conserva parte delle capacità dell’originale, ma con costi computazionali inferiori.

Si tratta di una pratica considerata legittima nel settore. Tuttavia, quando viene applicata su larga scala per replicare funzionalità sviluppate da un altro laboratorio senza autorizzazione, il confine tra ottimizzazione e appropriazione diventa meno chiaro.

Secondo Anthropic, la distillazione può consentire di acquisire capacità avanzate in tempi molto più rapidi rispetto allo sviluppo indipendente, riducendo significativamente i costi di ricerca e addestramento.

Le accuse contro DeepSeek e le altre aziende

Anthropic sostiene che DeepSeek, MiniMax e Moonshot abbiano avviato campagne massicce di interazione con Claude. L’azienda parla di milioni di scambi con il modello e della creazione di migliaia di account per condurre queste attività.

Nel caso di DeepSeek, l’interesse si sarebbe concentrato in particolare sulle capacità di ragionamento del sistema. Secondo quanto dichiarato, alcune richieste avrebbero riguardato anche la generazione di risposte alternative su temi politicamente sensibili.

MiniMax e Moonshot avrebbero registrato un numero ancora più elevato di interazioni complessive. Le accuse si inseriscono in un contesto più ampio di tensione tra laboratori statunitensi e aziende cinesi nel settore dell’intelligenza artificiale di frontiera.

Perché la distillazione mina la sicurezza digitale

Il punto sollevato da Anthropic non riguarda solo la concorrenza commerciale. L’azienda sostiene che un modello distillato in modo improprio potrebbe non ereditare i sistemi di sicurezza implementati nell’originale.

In altre parole, replicare capacità avanzate senza replicare anche le barriere di controllo potrebbe generare strumenti meno regolati. Questo aspetto assume un peso particolare in un momento in cui l’AI è considerata una tecnologia strategica, con implicazioni economiche, militari e geopolitiche.

Il dibattito si collega anche alle restrizioni sull’accesso ai chip avanzati necessari per addestrare modelli di ultima generazione. Limitare l’hardware potrebbe ridurre la possibilità di sviluppare sistemi complessi o di replicarli tramite distillazione su larga scala.

La vicenda mostra come la competizione sull’AI non si giochi soltanto sulla qualità dei modelli, ma anche sulle modalità con cui queste tecnologie vengono sviluppate, replicate e protette. La distillazione, da tecnica di ottimizzazione, diventa così uno dei nodi centrali nello scontro globale sull’intelligenza artificiale.

Per saperne di più:

Claude usato per truffe e furto di dati, Anthropic corre ai ripari

Anthropic ha presentato un report in cui analizza gli usi malevoli che sono stati fatti della sua AI attraverso Claude e corre ai ripari con nuove strategie

Domande frequenti (FAQ)

  • Cos'è la distillazione AI?
    La distillazione AI è una tecnica nel machine learning che addestra un modello più piccolo usando le risposte di un modello più potente per imitarne il comportamento, riducendo i costi computazionali.
  • Perché la distillazione AI è diventata sensibile?
    La distillazione AI è diventata sensibile quando viene usata su larga scala per replicare funzionalità di un altro modello senza autorizzazione, sollevando questioni di ottimizzazione e appropriazione.
  • Quali sono le accuse contro DeepSeek e altre aziende?
    DeepSeek, MiniMax e Moonshot sono accusate da Anthropic di interagire massicciamente con il modello Claude per replicarne le capacità, con particolare interesse sul ragionamento e la generazione di risposte su temi sensibili.
A cura di Cultur-e
Addestramento IA non consentito: É assolutamente vietato l’utilizzo del contenuto di questa pubblicazione, in qualsiasi forma o modalità, per addestrare sistemi e piattaforme di intelligenza artificiale generativa. I contenuti sono coperti da copyright.
TecnologicaMente
Che tipo di partner digitale sei?
Immagine principale del blocco
Che tipo di partner digitale sei?
Fda gratis svg
Scopri come vivi le relazioni nell’era delle chat, delle emoji e delle videochiamate
Fai il test gratuito

Iscriviti
all'area personale

Per ricevere Newsletter, scaricare eBook, creare playlist vocali e accedere ai corsi della Fastweb Digital Academy a te dedicati.