Il contesto competitivo attuale è davvero molto dinamico. Per affermarsi sul mercato, un'azienda deve essere in grado di prendere decisioni in modo tempestivo. E questo non è sempre facile, visto che negli ultimi anni la quantità di dati di cui tenere conto è cresciuta in modo esponenziale: dati prodotti da documenti e transazioni digitali, immagini e record non strutturati come video, post e Tweet, allarmi provenienti da sensori e macchinari IoT? Un quantitativo enorme di dati – si parla a questo proposito di Big Data – che indirizzano le scelte tattiche di marketing, produzione e distribuzione, ma anche le strategie di lungo termine. Informazioni che non sono più legate solo all'osservazione dei consuntivi ma che sempre più spesso tengono conto di percezioni e sentiment condivisi sui social, predizioni e insight ricavati dall'applicazione di algoritmi matematici ai record che transitano nei sistemi informativi aziendali.

 

Le 5V dei Big Data

Si parla di Big Data per riferirsi alla mole crescente di informazioni prodotte dalla digitalizzazione del business: flussi di record generati dai sensori e oggetti IoT, dalle transazioni online, dalle vendite e dai social media, dai sistemi IT che gestiscono la produzione, le operation e i clienti. Ma quali sono le caratteristiche dei Big Data? È Douglas Laney, analista di Meta Group, a identificarle nel lontano 2001, descrivendole sulla base di un modello a tre dimensioni (3V): Volume, Velocità e Varietà. Negli anni scorsi, però, il paradigma di Laney ha mostrato i suoi limiti e oggi è stato ampliato, per includere altre due caratteristiche fondamentali dei Big Data, ovvero Variabilità e Veridicità (5V).

Tecnologie e trend delle Big Data Analitycs

La proliferazione delle App mobile e dei social, la gestione del cliente omnicanale, gli approcci di Industria 4.0 e IoT sono solo alcune delle tendenze che spingono le aziende a potenziare le Big Data Analytics, ovvero l'analisi di grandi quantità di dati.
Nel 2018, secondo i dati dell'Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano, il mercato delle Big Data Analytics in Italia è cresciuto del 26% arrivando a sfiorare gli 1,4 miliardi di euro in valore (1,393 miliardi). Quasi la metà (il 45%) della spesa e? appannaggio dei software (database e applicazioni per acquisire, rielaborare, analizzare e visualizzare i dati), il 34% dei servizi (system integration, consulenza, revisione dei processi) e il 21% delle infrastrutture (server, storage e capacità di calcolo addizionali, da impiegare per attività di analisi). Sono i ricercatori del Polimi a individuare quali sono i principali trend che ridisegnano lo scenario delle Big Data Analytics. Eccoli:

  • Non solo Hadoop
    La piattaforma opensource Hadoop si è affermata come standard tecnologico de facto per le Big Data Analytics. Oggi, però, l'ecosistema "open" si sta progressivamente arricchendo di nuove tecnologie, capaci di gestire al meglio le esigenze di Machine Learning e analisi in tempo reale (Real Time Analytics). Spark, per esempio, è un framework per il calcolo distribuito in cluster ottimizzato per gli algoritmi di autoapprendimento e Kafka è un sistema di stream processing ad alta velocità e bassa latenza per la gestione di feed di dati in tempo reale.

  • Hybrid Cloud, Edge e Fog Computing
    La possibilità di connettere gli ambienti Cloud privati con i sistemi di Cloud pubblico permette di limitare i movimenti di dati ed eseguire le analisi proprio laddove i dati sono acquisiti – nel perimetro della fabbrica intelligente o del punto vendita, per esempio. I benefici? Maggior agilità operativa, costi ridotti e gestione ottimizzata dei requisiti legali (compliance) in materia di confidenzialità dei dati e privacy.

  • Fast Data e Real Time Analytics per sostenere gli approcci data driven
    Cancellato dal dizionario informatico il termine "batch", oggi le aziende ragionano non più solo in termini di Big Data ma piuttosto di Fast Data: dati rilevati con frequenza, sempre aggiornati, che permettono di prendere decisioni o innescare automatismi in real time. Come avviene nei casi in cui le analisi prescrittive sono usate per prevenire le frodi finanziarie, anticipare i comportamenti del cliente omnicanale, tradurre in pratica gli approcci di Industria 4.0 e servitization.

  • Machine Learning e AI per la Data Monetization
    Oggi è possibile pensare al dato come a una vera e propria risorsa di business. L'applicazione di algoritmi di AI e Machine Learning ai record acquisiti permette di supportare i processi decisionali e strategici in modo più efficace rispetto al passato. È possibile estrarre maggior valore dai dati, anticipare i bisogni inespressi dei clienti, ottimizzare trasporti e logistica, identificare nuovi settori e nuovi mercati geografici di potenziale interesse per l'azienda. In questo senso, è possibile realizzare una vera e propria Data Monetization.

 

Big Data Analytics nel Cloud per accelerare il decision making

Il boom delle Big Data Analytics è legato a doppio filo alla diffusione del Cloud. La nuvola, infatti, consente alle aziende di disporre di potenza di calcolo e spazio storage illimitati con formule flessibili, on demand e pay-per-use. Un'agilità operativa che è condizione essenziale per sostenere al meglio i progetti di Big Data Analytics. Iniziative che nella maggior parte dei casi hanno una forte valenza strategica, legata alla diffusione di nuovi modelli di business dirompenti. Modelli che hanno nelle offerte personalizzate e As-a-Service i principali elementi di differenziazione per l'azienda: il controllo dei dati, e la capacità di saper estrarre valore tangibile dai questi dati, è a conti fatti la principale fonte di vantaggio competitivo per le organizzazioni moderne.
I vantaggi delle applicazioni di Big Data Analytics sono indiscutibili e si sommano a quelli legati all'utilizzo del Cloud come infrastruttura abilitante. Ecco i principali.

Data processing rapido

In azienda aumenta la quantità di dati non strutturati, rilevati e conservati spesso senza uno schema preciso. Allarmi lanciati da sensori, oggetti IoT e macchinari connessi, interazioni social come post, video, tweet o immagini? Record che non possono essere ricondotti a categorie di dati specifiche e che, proprio per questo motivo, risultano difficilmente classificabili secondo i canoni tradizionali. Oggi esistono diversi strumenti e servizi software che aiutano l'organizzazione a gestire al meglio i record non strutturati, che possono svolgere un ruolo centrale nell'indirizzare i processi di marketing e le decisioni strategiche. Il Cloud permette di accedere a queste tecnologie in tempi brevi – si ragiona in termini di ore e non più di mesi, come avveniva in passato.

Scalabilità verticale e orizzontale

Il Cloud garantisce l'accesso a risorse on demand virtualmente illimitate, facilmente espandibili nel momento stesso in cui le condizioni lo richiedono. È possibile, poi, sfruttare la nuvola per eseguire applicazioni di storage a oggetti e garantirsi così le migliori prestazioni nelle attività di interrogazione dati senza dover investire in costoso hardware aggiuntivo.

Time-to-market ridotto

Il fattore "tempo" si rivela essenziale non solo per sostenere le decisioni più tattiche, ma anche per orientare le strategie di lungo periodo. Insight e previsioni sulla domanda e il mercato oggi si fondano su basi dati sempre più articolate e complesse, che contemplano metriche e KPI, statistiche e proiezioni, sentiment e opinioni. Con l'aiuto del Cloud e delle Big Data Analytics, l'azienda potrà guadagnare in competitività facendo leva su processi decisionali più accurati e rapidi.

Real Time Analytics

Il Cloud assicura alle organizzazioni la capacità di analizzare i dati laddove si generano, quindi sul perimetro dell'azienda – nella fabbrica intelligente, per esempio, o nel punto vendita – per abilitare le strategie di Industry 4.0 o smart retail.

 

23 ottobre 2019