Le reti odierne sono sempre più "stressate". Aumenta in modo esponenziale il traffico IP e, soprattutto, la condivisione e lo streaming di contenuti "ricchi", ad alto consumo di banda (i cosiddetti "bandwidth hungry") come video 360°, file sharing, cloud computing, realtà virtuale e gaming online. Queste nuove abitudini impongono di rivedere i criteri attraverso cui vengono progettate e realizzate le reti di nuova generazione, sia fisse che mobili, alla ricerca di migliori performance. Ecco perché si parla di NGAN (Next Generation Access Network) a banda ultralarga. Ma come si progettano le reti di nuova generazione? E quali sono i parametri che devono essere ottimizzati per migliorare l'esperienza utente?

 

Bit Rate, Throughput, Round Trip Time e Packet Loss

Occorre, anzitutto, sottolineare la differenza tra Bit Rate (BT, ovvero il rapporto velocità di trasmissione/banda disponibile) e Throughput (TH, la velocità di scambio dati tra le applicazioni). Il TH, a causa delle architetture di rete attuali, può essere anche di molto inferiore rispetto al BT. Generalmente, i fornitori di servizi di connettività e accesso Internet come Telco e Internet Service Provider pubblicizzano sulle proprie offerte il Bit Rate come parametro distintivo, mentre i KPI dei fornitori di contenuti (content provider) tendono a mettere in evidenza il Throughput e il tempo di download delle pagine Web.

Il TH è una misura della qualità delle reti che dipende dal Bit Rate ma che, in genere, è inferiore a quest'ultimo. Il suo valore è, infatti, limitato dal tempo necessario per trasferire i pacchetti da e verso una sorgente e una destinazione (Round Trip Time). Quest'ultimo, poi, dipende dal ritardo di propagazione (per le connessioni in fibra ottica si stima una media di 5 millisecondi per ciascun chilometro coperto), dalla lunghezza delle code (router, server?) e dalla percentuale di pacchetti persi nel transito tra le varie reti (il cosiddetto PL, Packet Loss). Agire sulla banda disponibile senza ridurre il Round Trip Time e il Packet Loss spesso è uno sforzo inutile ai fini del miglioramento del Throughput e, di conseguenza, della QoS/QoE (Qualità del Servizio/Qualità dell'Esperienza) percepita dall'utente.

Latenza

Per migliorare la qualità del servizio si deve operare a più livelli: aumentare il Bit Rate (ampiezza di banda), ridurre latenza e Packet Loss, e separare i servizi applicativi dai servizi di rete/connettività. Per la rete fissa è necessario, quindi, portare la fibra ottica (che permette elevatissime larghezze di banda) il più vicino possibile all'utente finale, minimizzando o annullando il tratto in rame per l'accesso, realizzando architetture FTTH/FTTU (Fiber to the Home/Unit), FTTB/DP (Fiber to the Building/Distribution Point) o FTTC (Fiber to the Cabinet).

Diversi, poi, sono gli interventi che permettono di ridurre la latenza e migliorare il PL. Le "piattaforme telco cloud (function caching)" permettono di eseguire le funzioni di rete e quelle applicative più vicino all'end user (ovvero ai confini, il cosiddetto "edge" della rete), riducendo Round Trip Time e in parte anche Packet Loss. La distribuzione del cloud consente di realizzare la Network Function Virtualization (NFV), le reti software defined (SDN) e altre funzionalità necessarie per "avvicinare la rete all'utente". Le tecnologie SDN e NFV sono in grado di rivoluzionare le architetture di rete degli operatori, abilitando lo sviluppo di nuovi servizi in misura molto più veloce e con costi significativamente più bassi rispetto al passato. NFV si basa sul principio di separazione tra un livello hardware di tipo "data center", semplificato e standardizzato, e uno relativo al software applicativo, che implementa le funzioni necessarie per le attività di rete di un operatore (routing e servizi IP, funzioni di accesso...). SDN, invece, è una forma di astrazione dell'hardware di rete che permette di separare il livello di trasporto IP dal quello del controllo routing, sfruttando un protocollo chiamato OpenFlow che consente allo strato di controllo di interoperare con i dispositivi di produttori differenti.

Un'altra strada spesso battuta è l'uso di "acceleratori di protocollo", che dividono la connessione tra sorgente e destinazione in più connessioni a minore Round Trip Time, con impatto generalmente favorevole sull'RTT complessivo.

Ancora, le "piattaforme di front end optimization" tendono a minimizzare il numero di messaggi scambiati tra sorgente e destinazione all'avvio di ciascuna sessione, riducendo il tempo di download.

Infine, il "transparent caching" agisce in modo intelligente, utilizzando funzionalità di machine/self learning per selezionare i contenuti più prevedibilmente richiesti, sulla base delle inclinazioni e comportamento degli utenti, e memorizzarli in un data center situato in prossimità degli utenti finali, per renderli immediatamente disponibili su richiesta degli stessi.

 

17 ottobre 2017