In Breve (TL;DR)
- L'Intelligenza artificiale da un lato migliora la capacità di rilevare anomalie e automatizzare la protezione, dall'altro porta ad attacchi informatici più difficili da individuare.
- A livello difensivo, l'AI viene usata per analizzare enormi quantità di dati, identificare nuove varianti di malware e supportare gli specialisti nell'anticipare le minacce.
- L'AI generativa sta rendendo gli attacchi di phishing e le truffe molto più efficaci, consentendo ai criminali di creare testi e contenuti estremamente convincenti e personalizzati.
- Gli esperti chiedono una maggiore consapevolezza digitale, nuove regole sull’uso dell’AI e una collaborazione tra governi e aziende per contenere i rischi, senza frenare l'innovazione.
L’intelligenza artificiale sta rivoluzionando il panorama digitale, portando benefici incredibili ma anche mettendo gli utenti davanti a sfide senza precedenti, come quelle che riguardano la sicurezza informatica.
Se da un lato, l’AI migliora la capacità di rilevare attacchi e anomalie, automatizzando processi di protezione tramite l’analisi di enormi quantità di dati in tempo reale, dall’altro, apre ad attacchi informatici più avanzati e difficili da individuare.
Questa evoluzione impone un cambio di rotta nel panorama della cybersecurity: non basta più reagire agli attacchi, ma occorre sviluppare sistemi di difesa basati sull’AI, in grado di anticipare le minacce. Allo stesso tempo, diventa cruciale formare gli utenti e le aziende, aumentando la consapevolezza sui rischi e sulle strategie per mitigarli.
Vediamo in che modo l’intelligenza artificiale sta rivoluzionando il settore della sicurezza informatica e come stanno cambiando i principali strumenti di difesa.
L'Intelligenza Artificiale ci aiuterà a migliorare la nostra Sicurezza Informatica

Smile Studio APShutterstock
La sicurezza informatica è sempre più centrale nell’attuale panorama tecnologico e per rispondere alle sfide del futuro le aziende stanno investendo in tecnologie avanzate come l'intelligenza artificiale, il machine learning e il deep learning.
L'AI migliora l'efficacia degli antivirus e supporta i ricercatori nella lotta contro le minacce. I moderni algoritmi sono in grado di analizzare enormi quantità di dati relativi a nuove minacce online, come virus e attacchi hacker e identificare rapidamente nuove varianti di malware, proteggere gli utenti da vulnerabilità appena scoperte e addirittura automatizzare il lavoro di analisi delle minacce in rete.
L'AI può diventare uno strumento per migliorare la sicurezza informatica, rilevando le minacce in tempo reale e agendo proattivamente per difendere i sistemi informatici
Il machine learning può creare una "logica standard" per rilevare minacce in base alla struttura o al comportamento di un file, bloccando rapidamente attacchi su larga scala.
Nonostante il crescente ruolo dell'IA nel settore della sicurezza informatica, bisogna ricordare che il lavoro dei ricercatori umani non è a rischio perché, per ora, molti attacchi informatici possono essere bloccati solo con l'esperienza e l'intuito umano.
L'AI e il machine learning sono strumenti potenti, ma per ora agiscono come un complemento essenziale per il lavoro degli specialisti, non come un sostituto.
Per approfondimenti: L'Intelligenza Artificiale ci aiuterà a migliorare la nostra Sicurezza Informatica
Google Gemini e la sicurezza

jackpress/Shutterstock
Vista la crescente diffusione di chatbot AI, vale la pena analizzare in che modo questi strumenti possono rivoluzionare il settore sicurezza informatica.
Google Gemini, ad esempio, è un vero e proprio alleato per la sicurezza informatica. Le sue funzionalità includono: analisi in tempo reale delle minacce, con la possibilità di connettersi ai database di Mandiant (società di Google specializzata in cybersecurity) e Virus Total per aggiornarsi costantemente sulle minacce più recenti, analizzare il comportamento degli hacker e rilevare codici dannosi.
Non bisogna, inoltre, dimenticare che l’AI può automatizzare compiti ripetitivi e a rischio di errore, facilitando il monitoraggio delle attività sospette e fornendo consigli utili sulla cyber security anche agli utenti meno esperti.
Dall’altra parte vale la pena analizzare anche in che modo Google Gemini gestisce la sicurezza dei dati degli utenti.
Ad esempio, il chatbot raccoglie dati personali (nome, email, numero di telefono), finanziari, professionali e tecnici (indirizzi IP, informazioni sul dispositivo) che vengono usati "scopi aziendali e commerciali", come migliorare il servizio, prevenire frodi, ottimizzare l'assistenza clienti e promuovere prodotti.
Le conversazioni possono essere conservate per un massimo di 72 ore anche dopo essere state chiuse, e possono essere usate per estrarre feedback utili a migliorare il servizio.
È importante sapere anche che la crittografia lato client non è compatibile con Gemini, ciò significa che l'IA non può accedere a file criptati su servizi come Gmail o Drive.
Per approfondimenti:

Koshiro K/Shutterstock
Google userà Gemini Nano per proteggere gli utenti dallo scam
Di recente, inoltre, Google ha annunciato nuove funzionalità di sicurezza informatica per Chrome (sia desktop e mobile) basate sul modello Gemini Nano. L'obiettivo è offrire una protezione più intelligente e dinamica contro le minacce online in continua evoluzione.
La principale innovazione è l'approccio "AI on-device" con l’AI che analizza i contenuti sospetti direttamente sul dispositivo dell'utente, senza inviare dati ai server remoti.
Questo garantisce tempi di risposta molto più rapidi e una maggiore tutela della privacy dell'utente, in quanto i dati non lasciano il dispositivo.
Questa tecnologia permette a Google di offrire una Protezione Avanzata in grado di rilevare e bloccare in modo proattivo anche le truffe più recenti e sofisticate, anche quelle non ancora catalogate nei database tradizionali.
Con Gemini Nano gli utenti Chrome saranno protetti da un nuovo strumento AI che può intercettare e bloccare le minacce in tempo reale, incluse le truffe informatiche
Oltre a questo, su Chrome per Android, il sistema di machine learning è in grado di intercettare e bloccare in tempo reale le notifiche sospette che potrebbero contenere spam, link dannosi o tentativi di phishing.
Intanto Big G sta già usando l'intelligenza artificiale per monitorare e filtrare i risultati delle ricerche web, bloccando i contenuti fraudolenti prima ancora che l'utente li visualizzi.
Per approfondimenti:

aileenchik/Shutterstock
- Google userà Gemini Nano per proteggere gli utenti dallo scam
- Che cosa sono e cosa fanno i bad bot, gli spam bot e i social media bot
Chat GPT e sicurezza informatica
ChatGPT sta dimostrando tutto il potenziale dell'intelligenza artificiale anche nel settore della sicurezza informatica e, al pari di Gemini, può essere di grande aiuto per proteggere gli utenti in rete.
Tuttavia, a sollevare preoccupazioni è il suo possibile utilizzo nel mondo del crimine informatico con la sua grande facilità d'uso che potrebbe dare una grande mano ai malintenzionati digitali nella creazione di truffe e campagne fraudolente.
I truffatori, ad esempio, potrebbero usare il chatbot di OpenAI per creare email di phishing su larga scala con l'IA che può generare rapidamente testi persuasivi e personalizzati, rendendo gli attacchi più difficili da individuare.
Oltre a questo un malintenzionato senza competenze di programmazione potrebbe chiedere a ChatGPT di creare un malware da zero, aumentando la potenziale minaccia.
Nonostante questi rischi, gli esperti sono cautamente ottimisti sull’avvento dell’AI nel settore della cyber security che, allo stesso modo, può diventare anche un'arma per contrastare le minacce informatiche.
Inoltre i moderni sistemi di sicurezza sono in grado di rilevare e neutralizzare i codici maligni scritti da bot e non bisogna nemmeno dimenticare che, nonostante le grandi potenzialità di questo strumento, i contenuti generati dall’AI presentano ancora delle imprecisioni che non li rendono ancora in grado di mettere in pratica attacchi hacker con la stessa efficienza dell’essere umano.
Per approfondimenti:

gguy/Shutterstock
Microsoft Security Copilot, l’intelligenza artificiale al servizio della sicurezza
A causa della velocità e complessità degli attacchi informatici, sempre più aziende faticano a tenere il passo; Microsoft per rispondere a questa sfida ha sviluppato Security Copilot, un assistente basato su GPT-4 per affiancare e aiutare i professionisti della cybersecurity.
Security Copilot offre ai team di sicurezza informatica una visione completa dei loro sistemi e la capacità di agire rapidamente su vasta scala. L'assistente è alimentato dell'enorme database di minacce di Microsoft ed è in grado di ridurre drasticamente il tempo necessario per identificare e rispondere agli incidenti e di rilevare le minacce in tempo reale e aiutare i team a prevedere le mosse dei criminali informatici.
Anche Microsoft sta usando l'AI per proteggere i suoi utenti, integrando all'interno di Windows 11 Security Copilot, l'assistente AI pensato specificatamente per la cyber security
Oltretutto, questo tool si integra alla perfezione con gli altri prodotti di sicurezza di Microsoft e, in futuro, anche con quelli di terze parti, per semplificare la gestione della difesa.
Inoltre, Security Copilot garantisce l’apprendimento continuo, imparando dalle preferenze degli utenti per suggerisce le migliori azioni per risolvere eventuali problemi di sicurezza.
In più permette ai nuovi membri del team di acquisire competenze più velocemente, aiutando a colmare la carenza globale di esperti qualificati.
Lato sicurezza questo strumento funziona nell'infrastruttura di Azure, garantendo un'esperienza sicura e conforme alle normative sulla privacy con le varie interazioni che non vengono usate per addestrare i modelli di IA.

McLittle Stock/Shutterstock
- Per approfondimenti:
- Microsoft Security Copilot, l’intelligenza artificiale al servizio della sicurezza
- Microsoft Copilot: come funziona e come sta trasformando la produttività
Come cambiano i captcha con l’AI e perché è importante per la sicurezza
I CAPTCHA, acronimo di Completely Automated Public Turing test to tell Computers and Humans Apart, sono test utilizzati per distinguere gli esseri umani dai software automatici e vengono utilizzati per proteggere gli account online da attacchi che tentano di indovinare le password.
Inizialmente, i CAPTCHA consistevano nel riconoscere e trascrivere sequenze di lettere o numeri. Tuttavia, con l'evoluzione dell'intelligenza artificiale, questi test sono diventati sempre più complessi e ciò è dovuto al fatto che i bot hanno imparato a superare facilmente le prove di riconoscimento visivo, spingendo i creatori di CAPTCHA a inventare sfide più elaborate, come identificare elementi in un'immagine, ruotare immagini fino a una certa angolazione o risolvere problemi logici.
L'AI rappresenta, dunque, una minaccia per i vecchi CAPTCHA, ma allo stesso tempo stimola la creazione di test più sofisticati per garantire che questo filtro di sicurezza continui a funzionare efficacemente.
Per approfondimenti: Come cambiano i captcha con l'AI e perché è importante per la sicurezza
PassGAN, l’AI che può crackare qualsiasi password in pochi minuti

Summit Art Creations/Shutterstock
Con la crescita e lo sviluppo dell'intelligenza artificiale, in molti si stanno interrogando anche sui suoi possibili utilizzi dannosi.
Uno degli esempi più emblematici in questo senso è PassGAN (acronimo di "Password Generative Adversarial Network"), un software che utilizza il deep learning per generare potenziali password basate sui modelli di quelle più comunemente usate.
Nonostante la sua potenziale minaccia, PassGAN non è così preoccupante come sembra; esistono infatti cracker di password non basati su intelligenza artificiale che sono molto più efficienti e i risultati ottenuti da questo software si riferiscono a password deboli, come quelle composte da soli numeri o con un massimo di sette caratteri.
Ciò vuol dire, essenzialmente, che l’AI non è ancora una minaccia tangibile per le password, soprattutto se queste sono composte da molti caratteri e includono lettere maiuscole e minuscole, numeri e simboli.
Per approfondimenti: PassGAN, l’AI che può crackare qualsiasi password in pochi minuti
L’AI e i bambini online, consigli per un parental control efficace

Roman Samborskyi/Shutterstock
Intelligenza artificiale e parental control stanno “collaborando” per creare un ambiente online più sicuro per i bambini.
Il futuro di questo approccio è rappresentato da tool AI che fungono da assistenti, filtrando i contenuti inappropriati senza creare la sensazione di un controllo invasivo.
Un esempio concreto è l'app Angel AI che nasce con l’obiettivo di creare un'esperienza Internet su misura per i bambini, non solo bloccando contenuti pericolosi, ma anche interagendo costantemente con i genitori e i piccoli utenti.
L'AI può tenere al sicuro i più piccoli dai pericoli del web, potenziando il parental control in modo che i genitori possano gestire totalmente la vita digitale dei loro figli
Per prima cosa l’app verifica che le richieste dei bambini siano appropriate per la loro età, impostata durante la configurazione.
Naturalmente, i genitori ricevono notifiche in tempo reale su argomenti specifici, permettendo loro di intervenire e rispondere se necessario a dubbi su temi complessi, come quelli legati all'autostima o all'aspetto fisico.
Inoltre, gli adulti possono bloccare o sbloccare argomenti, accompagnando così i figli nel loro percorso di crescita senza imporre limiti rigidi.
L'obiettivo di Angel AI è garantire la sicurezza online dei bambini, creando al contempo un'esperienza online che rispetti la loro libertà e le loro esigenze.
Per approfondimenti:

tadamichi/Shutterstock
- L’AI e i bambini online, consigli per un parental control efficace
- Come attivare il parental control su smartphone e computer
Phishing più pericoloso con l'AI, cosa cambia
L'intelligenza artificiale sta rendendo gli attacchi di phishing molto più efficaci.
Secondo il National Cyber Security Center (NCSC), infatti, nei prossimi anni le persone avranno sempre più difficoltà a identificare questi messaggi truffa, perché l'IA generativa è in grado di creare testi, audio e immagini estremamente convincenti.
Questo, naturalmente, sta già allertando gli esperti di sicurezza informatica che prevedono una rapida diffusione del problema a livello globale.
Gli attacchi di phishing, spesso collegati a ransomware, sono destinati ad aumentare esponenzialmente e a colpire non solo gli utenti comuni, ma anche istituzioni e autorità statali.
La disponibilità di strumenti AI ha abbassato la soglia di accesso alla criminalità informatica, attirando sempre più "dilettanti" che cercano di fare soldi facilmente.
Nonostante questi pericoli, l'intelligenza artificiale può anche diventare uno strumento fondamentale per combattere la cybercriminalità, aiutando a identificare e bloccare le minacce in modo più mirato ed efficace.
Per affrontare la situazione, è necessaria una maggiore consapevolezza da parte degli utenti, l'adozione di un sistema di leggi che regolamenti l'uso dell'AI e una risposta concreta da parte dei governi, che dovranno implementare nuove misure di sicurezza senza limitare il potenziale benefico di questa tecnologia.
Per approfondimenti:
- Phishing più pericoloso con l'AI, cosa cambia
- Cos'è il Phishing e come evitarlo
- Come difendersi da un'e-mail phishing
Domande frequenti (FAQ)
-
In che modo l'intelligenza artificiale sta rivoluzionando il settore della sicurezza informatica?L'intelligenza artificiale migliora la capacità di rilevare attacchi e anomalie, automatizzando processi di protezione tramite l'analisi di enormi quantità di dati in tempo reale.
-
Quali sono le funzionalità di Microsoft Security Copilot per la sicurezza informatica?Microsoft Security Copilot offre una visione completa dei sistemi di sicurezza informatica, riduce il tempo per identificare e rispondere agli incidenti, rileva minacce in tempo reale e aiuta a prevedere le mosse dei criminali informatici.
-
Quali sono le funzionalità di Google Gemini per la sicurezza informatica?Google Gemini offre analisi in tempo reale delle minacce, connessione ai database di Mandiant e Virus Total, analisi del comportamento degli hacker e rilevamento di codici dannosi.
-
In che modo ChatGPT può essere utilizzato per la sicurezza informatica?ChatGPT può essere utilizzato per proteggere gli utenti in rete, ma presenta rischi di utilizzo nel crimine informatico, come la creazione di truffe e campagne fraudolente.



