Quali sono i trend tecnologici che impatteranno sul data storage nel corso dei prossimi mesi? A stilare la classifica è, per il quattordicesimo anno consecutivo, l'analista TechTarget. Vediamo in dettaglio quali sono le 6 tecnologie che i CIO dovranno monitorare.

Cloud-to-cloud backup

L'adeguata protezione dei dati nel cloud rappresenta una delle criticità primarie che le aziende hanno dovuto affrontare nell'ultimo quinquennio. Il cosiddetto cloud-to-cloud (C2C) backup rappresenta una risposta a questa problematica, perché consente di copiare i dati da un'infrastruttura storage in cloud a un'altra. Secondo gli analisti di TechTarget, questo tipo di servizi farà registrare un'importante crescita nel corso dei prossimi anni, come dimostrano i continui sforzi dei vendor per arricchire di nuove funzionalità i sistemi attraverso cui vengono erogati i servizi cloud di questo tipo. L'esperto di storage Brien Posey sostiene che "il cloud-to-cloud backup si diffonderà nel 2018, mano a mano che i servizi cloud matureranno e diverranno più economici e più pratici". Il cloud-to-cloud backup, suggeriscono gli analisti di TechTarget, sarà in futuro un servizio indispensabile per la protezione dei dati generati e in uso dalle applicazioni SaaS (Software as a Service), perché sarà l'elemento grazie al quale le imprese potranno garantire la continuità di servizio e prevenire la perdita dei dati.

Container

Accelerata dalle tecnologie della cosiddetta "containerizzazione", che permette ai microservizi applicativi di accedere e consumare direttamente le risorse storage necessarie, la virtualizzazione dei container ha iniziato a farsi strada nell'ambito del data storage di classe enterprise già nel corso del 2016. "Pensiamo che nel corso dei prossimi mesi entrerà a pieno titolo nella lista delle soluzioni hot di data storage – evidenzia l'analista di TechTarget – quale tecnologia avanzata in grado di rispondere ad alcune criticità chiave per le imprese, come le esigenze legate alla data protection o alla portabilità dei dati da un sistema all'altro".
 

High-capacity flash

Così come avvenne per i più tradizionali dischi rigidi, oggi la competizione tra i vendor sul fronte dei Solid State Drive (SSD, ovvero dischi allo stato solido) si gioca sui livelli di capacità e di alta densità dei sistemi, cioè su chi riesce a "stipare" più memorie flash all'interno di un drive di dimensioni standard. Russ Fellows, Senior Partner e Analista di Evaluator Group, pensa che il 2017 segnerà un punto di svolta: "Quando la densità delle memorie flash cresce a una velocità come quella attuale e, contemporaneamente, i prezzi degli SSD scendono, acquistare la tecnologia più avanzata e performante diventa l'unica scelta intelligente. Entro il 2020 probabilmente i dischi tradizionali saranno del tutto morti", si spinge a ipotizzare Fellows.

 

Nonvolatile Memory Express (NVMe)

La bassissima latenza e le elevate performance della Nonvolatile Memory Express (NVMe) la rendono una delle tecnologie di data storage più innovative del momento. Secondo Jeff Janukowicz, Research Vice President di IDC, "i modelli server architetturali sempre più orientati all'ibrido e agli array all-flash storage che sfruttano la tecnologia NVMe dovrebbero più che raddoppiare il loro mercato nel corso del 2017, sia grazie all'abbassamento dei prezzi di accesso alla tecnologia sia per via dello sviluppo crescente dell'ecosistema dei vendor e dei partner". "Benché l'espansione di questo tipo di tecnologie sia ancora nella fase embrionale – aggiunge Eric Burgener, Research Director di IDCsi iniziano già a intravedere le loro possibili applicazioni, legate all'analisi dei dati in real-time e ai Big Data analytics. Si tratta solo di alcuni dei numerosi esempi di workload applicativi che potrebbero trarre vantaggi enormi, in termini di performance e affidabilità, dai sistemi NVMe".
 

Software-defined storage

Sulla definizione dello storage software-defined c'è tutt'oggi molta confusione, scrivono gli autori di TechTarget. Uno degli errori più comuni riguarda l'idea che il termine si riferisca a soluzioni software per la gestione degli ambienti storage virtualizzati. Ma questo è solo uno degli ambiti nei quali un sistema software-defined può generare vantaggi? "Per poter essere definita software-defined storage, infatti, una soluzione deve permettere agli utenti di allocare e condividere le risorse in modo dinamico attraverso qualsiasi carico di lavoro, anche se l'infrastruttura storage non è virtualizzata", spiega Posey. Marc Staimer, analista della società di consulenza Dragon Slayer Consulting, poi, ha indicato le quattro categorie di base del software-defined storage: hypervisor-based, hyper-converged infrastructure (Hci), storage virtualization e storage scale-out object. Ed è in queste categorie che nel corso dei prossimi mesi si giocherà la battaglia tra i principali operatori del mercato.

32-Gig Fibre Channel

La maggior parte delle tecnologie storage funziona con rete di connettività Ethernet, anche le architetture più avanzate, iperconvergenti e cloud based. Tuttavia, secondo gli esperti, la rapida ascesa dell'all-flash storage porterà con sé lo sviluppo di soluzioni più performanti anche dal punto di vista della connettività: "La connessione in fibra a 16 GBPS (Gigabit al secondo – ndr), così come la 40 Gigabit Ethernet, risulteranno inadatte e insufficienti a sostenere la nuova generazione di storage solid-state, tecnologie che andranno a supportare workload sempre più complessi per i quali sono richiesti livelli di affidabilità e prestazioni ancor più elevate. Motivo per cui già nel 2017 inizieremo a vedere nuovi sistemi storage equipaggiati con switch 32-Gig Fibre Channel", prevede Posey.

 

30 agosto 2017