La digitalizzazione degli ambienti industriali genera ecosistemi ad alta densità di informazione, e la capacità di sfruttare al meglio questa enorme quantità di dati è centrale nei moderni approcci strategici. Strategie che ricevono un'ulteriore accelerazione dalle tecnologie di ultima generazione, che sfruttano l'intelligenza delle macchine per abilitare automatismi particolarmente efficaci negli ambienti industriali. È una tendenza sottolineata a più riprese dagli analisti, IDC e Gartner in testa. L'impiego sistematico di insight (intuizioni) e predizioni sviluppate attraverso piattaforme di Big Data e algoritmi di autoapprendimento, intelligenza artificiale/AI, cognitive, e machine learning avanzato (AML) è fondamentale per supportare, in particolare, le trasformazioni indotte dall'Internet of Things (IoT).

Già a partire dal 2018, IDC prevede che il 75% degli sviluppatori includerà meccanismi cognitive, di machine learning o intelligenza artificiale in almeno un'applicazione aziendale. Queste applicazioni verranno impiegate insieme a una nuova classe di macchinari smart, programmati o programmabili non più solo per eseguire un insieme di azioni definite da appositi algoritmi, ma per capire, imparare, predire, e (con l'AML) adattarsi in modo autonomo e cambiare il comportamento futuro senza (o con un limitato) intervento umano. Secondo un recente report diffuso proprio da IDC, il mercato dell'intelligenza artificiale e cognitiva è destinato a raggiungere un giro d'affari di ben 12,5 miliardi di dollari nel 2017, con un incremento del 59,3% rispetto al 2016: trend che rimarrà pressoché costante fino al 2020, quando i ricavi sorpasseranno quota 46 miliardi. La quota maggiore (4,5 miliardi) sarà appannaggio delle applicazioni cognitive, vale a dire le soluzioni dotate di funzionalità di apprendimento automatico e capaci di formulare raccomandazioni o previsioni. Per quanto riguarda i mercati verticali, attualmente un quarto della spesa è legato al mondo finance e alle assicurazioni, ma nei prossimi anni è previsto un grosso progresso anche per la pubblica sicurezza, la sanità e il retail.

Come cambia il data center

Ovviamente, questa tendenza non può non avere riflessi sul data center. I macchinari e i sensori connessi in ottica IoT generano enormi quantità di dati – di attivazione, di funzionamento, di stato, di posizione, di avaria? – che devono essere raccolti e rielaborati in tempo reale. Questo flusso continuo di record si riversa sul data center e, se non supportato da un'adeguata capacità di elaborazione e da una connettività all'altezza, finisce per generare criticità e colli di bottiglia. Generalmente, infatti, negli ambienti IoT industriali, i dati generati dai sensori vengono inviati al cloud privato o pubblico dell'azienda oppure al suo CED on premise per poi essere rielaborati. Tuttavia, questo approccio presenta due inconvenienti. La connettività ad alte prestazioni è piuttosto costosa e molto spesso si finisce per ingolfare la rete WAN con un quantitativo enorme di dati, occupando banda in modo inefficiente e moltiplicando i punti di possibile vulnerabilità.

I dati generati dai sensori, poi, assicurano il massimo vantaggio se possono essere utilizzati proprio lì dove si generano, sul perimetro (edge) della rete. Iniziano, quindi, a farsi strada nuovi approcci analitici, che permettono di operare una prima scrematura dei record prodotti di continuo dagli endpoint IoT, selezionando solo quelli più rilevanti (edge analytics) da inviare al data center, per operare successivamente le rielaborazioni del caso, risparmiando banda e riducendo l'esposizione ai rischi. Si tratta di strategie utili a supportare in modo più efficace rispetto al passato i meccanismi di auto-apprendimento e intelligenza artificiale dei macchinari e delle attrezzature connesse, che saranno così in grado di attivare in tempo reale funzionalità di auto-diagnostica, manutenzione predittiva, gestione ottimizzata del parco macchine e dell'energia. Per far questo, però, occorre disporre di connettività e di un'infrastruttura cloud adeguata al compito, che sia sufficientemente flessibile per supportare le funzionalità di analisi in tempo reale su grandi quantitativi di dati ma che sia, al contempo, anche economicamente conveniente, sgravando il responsabile del data center dall'onere di acquistare nuovi e costosi server e capacità storage on premise. Una scelta di questo tipo si giustifica, poi, per il fatto che gli analisti, Gartner soprattutto, prevedono per l'immediato futuro un "effetto proliferazione" dei macchinari intelligenti, con uno spostamento da un modello di intelligenza di tipo "stand alone" (della singola macchina) a un modello "collaborativo" in cui diverse attrezzature smart ottimizzano il lavoro e la produttività non più solo a livello individuale ma dell'intera fabbrica, il cosiddetto "shop floor".

 

24 maggio 2017