Le applicazioni di gestione di grandi quantità di dati (i cosiddetti Big Data analytics) stanno vivendo un momento di profonda transizione. La diffusione dell'Internet of Things – con i miliardi di dati destrutturati che vengono generati quotidianamente da sensori e oggetti intelligenti –, l'inclusione dei social network nelle strategie di marketing, la proliferazione delle App mobile sono solo alcuni dei fenomeni che "premono" sulle infrastrutture di supporto agli analytics. I data center tradizionali non sono più in grado di supportare in modo adeguato le necessità crescenti di capacità computazionale, storage e reti causati da questa "esplosione" dei dati rielaborati quotidianamente in azienda per indirizzare le strategie. Oggi quindi il cloud si posiziona in modo trasversale rispetto a tutte le direttrici della digital transformation, mettendo a disposizione delle organizzazioni un vero e proprio substrato abilitante dei nuovi modelli di creazione del valore. L'elemento che accomuna tutte le tecnologie citate è la centralità del dato, dagli strumenti orientati alla raccolta, fino al suo utilizzo in contesti di supporto decisionale tradizionale o in algoritmi automatici in grado di autoapprendere. Seguendo questa prospettiva, è possibile ricavare una spesa cloud dedicata a questa area che in Italia, secondo i dati dell'ultimo Osservatorio Cloud e ICT as a Service del Politecnico di Milano, ammonta a circa 160 milioni di euro, per un peso complessivo di poco inferiore al 17% della spesa in Public & Hybrid Cloud totale.

Nello studio "Navigating the complexity of Big Data transformation", l'analista Forrester fotografa l'evoluzione in corso in azienda sul fronte delle analytics. La ricerca, condotta su un campione di 314 senior manager, IT manager e data analytics leader di grandi e grandissime aziende statunitensi ed europee, mette in luce come il percorso di trasformazione delle tecnologie legate ai Big Data non sia affatto semplice e, ormai pare assodato, punti dritto al cloud.
La gestione dei database legacy e delle appliance di data warehouse sta diventando davvero troppo onerosa. Appare, poi, difficilmente adattabile alla necessità di una maggior agilità operativa che le organizzazioni moderne rincorrono. Inoltre, la gestione on premise delle analytics spesso risulta troppo rigida e incapace di garantire quel supporto ai dati non strutturati che è, oggi, fondamentale per sostenere la digital transformation. La risposta più naturale è, quindi, secondo i rispondenti al sondaggio di Forrester, la nuvola: il 64% degli interpellati ammette di aver già spostato lo stack tecnologico delle applicazioni di decision making nel cloud mentre il 23% sostiene di aver pianificato questo passaggio entro i prossimi 12 mesi. I benefici dei Big Data nel cloud più frequentemente citati dal campione sono la riduzione dei costi dell'IT, i vantaggi competitivi legati alla maggior rapidità dei processi decisionali, l'abilità di sviluppare nuovi insight, la facilità d'integrazione e il time-to-market rapido delle nuove offerte destinate al cliente finale.

Le sfide della "cloudificazione" dei Big Data

I limiti e le remore più frequentemente citate come freno alla conversione al cloud degli ambienti di Big Data analytics sono legate alla complessità dell'integrazione dei dati (citata nel 66% dei casi); alla sicurezza e alla privacy dei dati nella nuvola, che rappresenta ancora una preoccupazione per il 61% degli interpellati; ai vincoli legati agli investimenti in sistemi legacy, citati dal 64%, e alla carenza di skill specifici (con riguardo in particolare alle componenti infrastrutturali), citata dal 67% degli intervistati. Gli analisti di Forrester, però, sostengono che si tratta di limiti facilmente superabili e, anzi, trasformabili in opportunità attraverso un semplice approccio in quattro mosse:

  • Integrazione dati
    Se l'azienda ha un ecosistema di dati e informazioni particolarmente complesso, non tutti gli approcci cloud o le tecnologie Big Data sono in grado di assicurare un'integrazione dati fluida e indolore. Risulta fondamentale, quindi, analizzare bene e in dettaglio l'ambiente di Big Data analytics prima di compiere la scelta. Questo ridurrà il rischio di creare sistemi incompatibili o disgiunti l'uno dall'altro.
     
  • Sicurezza
    Se l'azienda tratta dati proprietari e confidenziali, o se deve ottemperare a particolari obblighi di conformità a normative che promuovono una tutela della privacy più restrittiva, la scelta di una soluzione di cloud privato single tenant, con una rete altamente performante e personalizzata e dati opportunamente crittografati, potrebbe essere quella ideale. Va però ribadito che il cloud pubblico non è sinonimo di scarsa sicurezza. I grandi service provider nazionali e internazionali forniscono soluzioni di autenticazione cloud native e offrono opzioni che includono la cifratura a livello di dischi, oltre a un rigoroso sistema gestione degli accessi/autorizzazione. Le tecnologie di protezione dei dati nel cloud stanno rapidamente maturando e sono già diversi i casi di grandi organizzazioni sottoposte a vincoli stringenti in materia di tutela della privacy che hanno ottenuto benefici consistenti sfruttando le tecnologie di Big Data nel cloud pubblico.
     
  • Evoluzione del legacy
    La transizione da un'infrastruttura legacy a un ambiente cloud prevede, a grandi linee, una di queste tre opzioni:
    1) Lift and shift: si concretizza nello spostamento dei carichi di lavoro verso un'infrastruttura cloud/as a service. Questo permette di ottimizzare le funzionalità di elaborazione dati, storage e gestione delle reti ottenendo così i benefici di un'infrastruttura scalabile senza dover perdere tempo in attività di ricodifica e conversione delle applicazioni.
    2) Decommissioning: in questo caso, l'azienda decide di mantenere i dati sui sistemi legacy e di inviare, invece, al cloud i soli dati che si generano ex novo, senza che si renda quindi necessaria alcuna attività di migrazione. Le nuove funzionalità delle piattaforme di gestione dei Big Data saranno, in linea di massima, già ottimizzate per gli ambienti cloud (cloud-ready).
    3) Data transformation: questa opzione implica una completa modernizzazione delle applicazioni data driven e analitiche e rappresenta la scelta ideale nel caso di software che si trovino a fine vita e debbano, quindi, essere dismessi a breve. Esempi di questo tipo di scelta sono la migrazione dal mainframe, dagli AS/400 e da altri sistemi di gestione dei database relazionali più datati verso le tecnologie di ultima generazione come Hadoop, Hive o HBase.
     
  • Acquisizione degli skill
    L'implementazione delle tecnologie legate ai Big Data richiede la disponibilità, in azienda, di diverse professionalità – sviluppatori, amministratori di sistema, cloud architect, data scientist, solo per citarne alcune? La richiesta di questi esperti supera ampiamente l'offerta, così molte aziende oggi si rivolgono direttamente al proprio personale interno perché segua una formazione specifica che conduca allo sviluppo di queste competenze chiave. L'alternativa è di rivolgersi a service provider che offrano questo tipo di servizio in una modalità "chiavi in mano" più che attraverso costosi contratti di consulenza "a consumo".

 

8 novembre 2017