Di questi tempi si sente molto spesso parlare di intelligenza artificiale. Anche di AI applicata alla cybersecurity. La maggiore spinta attualmente consiste nell'utilizzo dell'AI per identificare minacce che non si erano mai viste prima: attraverso l'immediata identificazione, grazie all'utilizzo di algoritmi più o meno sofisticati, di attività insolite, picchi di traffico? tutte avvisaglie di un probabile attacco in corso. L'utilizzo dell'intelligenza artificiale per eseguire test di auto-penetrazione nel tentativo di far emergere le vulnerabilità è il passo successivo. L'orchestrazione delle funzionalità di risanamento tramite le funzionalità AI richiederà più tempo per essere implementata, ma diversi analisti si dicono certi del fatto che non si è poi tanto lontani?

 

Cybersecurity automatizzata? Sì, grazie

Per quelli che hanno il compito di gestire, archiviare e proteggere le informazioni, è difficile immaginare un'automazione diffusa e generalizzata per alcuni ruoli chiave come l'esperto di sicurezza.  Negli ultimi anni, gran parte della paura legata alla perdita di posti di lavoro a causa della progressiva sostituzione del personale con robot e software si è concentrata principalmente sulla produzione, e per una buona ragione. La Federazione Internazionale di Robotica afferma che l'industria automobilistica è "il cliente più importante" per i robot industriali, in quanto acquista quasi il 40% della produzione globale dei robot.  Gartner, però, in uno studio recente giunge alla conclusione che "la tecnologia può cambiare qualsiasi occupazione". L'apprensione sulla progressiva sostituzione dei lavoratori con macchine e robot in campi lontani dalla produzione fisica sta crescendo in virtù degli enormi progressi compiuti dalle tecnologie di intelligenza artificiale (AI). In molti hanno espresso la preoccupazione che le mansioni impiegatizie (quelle in capo ai cosiddetti colletti bianchi, i "white collar") siano a rischio. Jonathan Rosenberg di Google, Stephen Hawking, Elon Musk di Tesla sono tutti d'accordo nel concludere che i lavori d'ufficio saranno presto a rischio e l'analista McKinsey riferisce che la fattibilità tecnica dell'automazione nella raccolta ed elaborazione dei dati è rispettivamente del 64% e del 69%, quindi parecchio elevata.

 

L'AI per la cybersecurity

Se si digita la parola "AI" abbinata a "cybersecurity" su un qualsiasi motore di ricerca, si verrà letteralmente inondati di previsioni sull'uso dell'apprendimento automatico e dell'intelligenza artificiale come deterrente da un lato, e come efficace metodo per prendere il sopravvento sugli hacker dall'altro.  Cresce, infatti, la superficie di possibile esposizione agli attacchi cyber in azienda, perché si dilata il perimetro dell'organizzazione. Non più confinato tra le mura dell'ufficio, oggi il nuovo perimetro è l'identità digitale dell'individuo/smart worker o dell'oggetto/sensore connesso in ottica IoT. All'aumento della superficie di attacco si somma la crescita degli aggressori, compresi alcuni stati ben finanziati, ed ecco spiegato perché l'intelligenza artificiale è un'arma benvenuta nella lotta agli hacker.

L'utilizzo dell'AI negli attacchi informatici

Come ogni tecnologia, anche l'intelligenza artificiale può essere usata in modo proficuo o in modo deleterio. Secondo l'autorevole Harvard Business Review, l'aumento degli attacchi informatici abilitati all'IA causerà un'esplosione nella penetrazione dei network e nei furti di dati personali e una diffusione a livello epidemico di virus informatici intelligenti. Ecco che, allora, nascono nuove preoccupazioni intorno all'AI e ai suoi possibili utilizzi impropri, sconvenienti o addirittura malevoli. Uno sviluppatore potrebbe, per esempio, introdurre, volontariamente o meno, un difetto per trasformare i sistemi di difesa in un doppio agente, esponendo i dati a possibili compromissioni e offrendo un meccanismo di controllo di back-door agli hacker. E gli scenari dell'IA che si rivolta contro i suoi stessi creatori e sostenitori purtroppo non è cosa da libro di fantascienza ma una preoccupazione reale.

 

Si potrà delegare l'AI a un service provider?

Oltre all'automazione, c'è la questione della spinta verso l'esternalizzazione delle attività di sicurezza ai MSSP (Managed Security Service Provider), che in futuro appare una strada segnata visto che la sicurezza interna all'azienda sarà sempre più appannaggio di complessi software AI. L'analista Anton Chuvakin di Gartner, in un post pubblicato di recente, giunge alla conclusione che "se pensi di poter fare bene la sicurezza senza il personale di sicurezza, rimarrai deluso e, probabilmente, violato".  Lo stesso analista prosegue, però, la sua analisi sostenendo che, data la complessa evoluzione delle cyberminacce in corso, il ricorso ai fornitori esterni di servizi di sicurezza gestita diviene necessario ed è, anzi, auspicabile per garantirsi quella potenza di fuoco (possibilità di accedere a patch e aggiornamenti in tempo reale, così come ad analisi sull'andamento di virus e malware?) e quell'expertise tecnica necessaria per far fronte a uno scenario che muta in continuazione, molto più velocemente di quanto il personale interno all'azienda e il software in uso non siano in grado di gestire con efficacia. I MSSP che saranno in grado di sfruttare l'AI come moltiplicatore della propria potenza di fuoco saranno in grado di offrire servizi migliori a costi inferiori, si dice convinto Chuvakin.

 

Conclusioni

Che ci piaccia o no, l'automazione giocherà un ruolo sempre più importante nella sicurezza IT. Come tutti gli automatismi, determinerà una maggiore produttività che ridurrà la necessità di alcuni dipendenti ma aumenterà la richiesta per i profili professionali di alto livello. Con tutta probabilità, sostiene l'analista di Gartner, ogni azienda in futuro avrà la necessità di contemplare un "esperto di sicurezza AI" al proprio interno.

 

13 dicembre 2017