login LOGIN
CHIUDI chiudi
Il mio profilo

mostra
Hai dimenticato la password?
Inserisci l'indirizzo email di registrazione per reimpostare la password.
Segui le istruzioni che ti abbiamo inviato per posta elettronica.

L’AI di Claude usata per furto dati e truffe, Anthropic corre ai ripari

Ascolta l'articolo

Anthropic ha presentato un report in cui analizza gli usi malevoli che sono stati fatti della sua AI attraverso Claude e corre ai ripari con nuove strategie

Claude miss.cabul / Shutterstock.com

In Breve (TL;DR)

  • La sicurezza dei sistemi AI è una sfida importante per le aziende, resa più difficile dai cyber criminali che cercano di sfruttare l'AI per fini malevoli.
  • Anthropic ha condotto una ricerca su Claude per prevenire truffe e furto di dati, rivelando un utilizzo improprio dell'AI per influenzare gli utenti e diffondere malware.

La sicurezza dei sistemi AI è uno dei principali obiettivi che le aziende che si occupano di intelligenza artificiale vogliono raggiungere. Rappresenta anche una grande sfida, resa ancora più ardua dai cyber criminali che provano a sfruttare l’AI per raggiungere più facilmente i loro scopi malevoli e per ingannare gli utenti del web con maggiore semplicità. Anthropic, azienda di rilevante importanza, consapevole dei rischi derivanti dalla sua AI e in particolar modo da Claude, ha deciso di tutelare al massimo delle sue possibilità gli utenti.

Lo ha fatto conducendo una importante ricerca su Claude e analizzando tutti i modi in cui l’AI è stata utilizzata per scopi inappropriati. I risultati possono rivelarsi preoccupanti, ma l’azienda si è detta pronta ad intervenire, con misure di sicurezza sempre più elevate ed efficaci.

Scopriamo come Claude viene utilizzato per truffare gli utenti del web (e non solo) e quali sono gli strumenti attivati da Anthropic per aumentare il livello di sicurezza e rendere sempre più difficile l’agire dei cyber criminali.

Claude usato per truffe e furto di dati, lo rivela Anthropic

Anthopic, con lo scopo di trovare modi efficaci per prevenire l’azione di criminali e utenti con intenti malevoli, ha condotto una ricerca su Claude e rivelato i risultati in un report.

Nonostante l’alto livello delle misure di sicurezza adottate, qualcuno è riuscito ad aggirarle e ad utilizzare i modelli AI di Anthropic in modo improprio. In particolare, è stato rivelato che i modelli AI sono stati utilizzati per influenzare gli utenti, non solo generando contenuti, ma anche per realizzare dei bot in grado di commentare, mettere like e ripostare sui social media in presenza di determinati elementi. Campagne che sono riuscite a raggiungere più di 10 mila account, in diverse lingue e Paesi.

L’AI è stata anche usata per generare malware anche senza avere nessun tipo di competenza, per identificare nomi utenti e password, per migliorare il contenuto delle truffe alle persone in cerca di lavoro, 

Anthropic non è in grado di stabilire quanto questi tentativi abbiano avuto successo, ma è consapevole dell’elevato livello di rischio; pertanto, ha deciso di migliorare il suo livello di sicurezza e cercare di prevenire questa tipologia di azioni.

Le azioni intraprese da Anthropic per rendere Claude e i suoi modelli AI più sicuri

Anthropic continuerà ad utilizzare per Claude approcci già esistenti, come un l’analisi degli input potenzialmente dannosi. Attraverso lo studio, però, l’azienda è anche riuscita a captare nuove minacce e a capire come i malintenzionati provano a sfruttare l’AI generativa.

Tutti gli account che si rendono protagonisti di violazione rischiano di essere bannati. Inoltre, si mira ad intensificare i metodi di rilevamento, integrando i casi di studio individuati attraverso la ricerca e avendo, così, un maggior controllo. In questo modo, sarà più semplice prevenire e rivelare rapidamente l’uso improprio dei modelli di intelligenza artificiale dell’azienda.

Per saperne di più: Intelligenza Artificiale: cos'è e cosa può fare per noi

Domande frequenti (FAQ)

  • Come Anthropic protegge gli utenti dai cyber criminali che sfruttano Claude per truffe e furto di dati?
    Anthropic ha condotto una ricerca su Claude per individuare utilizzi impropri dell'AI e ha implementato misure di sicurezza più elevate per contrastare i criminali.
  • Quali sono stati i risultati della ricerca condotta da Anthropic su Claude riguardo all'utilizzo improprio dell'AI?
    I modelli AI di Anthropic sono stati utilizzati per influenzare gli utenti e generare malware, mettendo a rischio la sicurezza online.
  • In che modo Anthropic prevede di prevenire e rivelare rapidamente l'uso improprio dei modelli di intelligenza artificiale?
    Anthropic continuerà a analizzare gli input potenzialmente dannosi per Claude e intensificherà i controlli per individuare tempestivamente utilizzi impropri dell'AI.
A cura di Cultur-e
Addestramento IA non consentito: É assolutamente vietato l’utilizzo del contenuto di questa pubblicazione, in qualsiasi forma o modalità, per addestrare sistemi e piattaforme di intelligenza artificiale generativa. I contenuti sono coperti da copyright.
Whatsapp
Segui le ultime notizie sul nostro canale Whatsapp
Immagine principale del blocco
Segui le ultime notizie sul nostro canale Whatsapp
Fda gratis svg
Iscriviti al canale gratuito

Iscriviti
all'area personale

Per ricevere Newsletter, scaricare eBook, creare playlist vocali e accedere ai corsi della Fastweb Digital Academy a te dedicati.