L’utilizzo di Internet mobile è più importante della copertura di rete, sottolinea il rapporto GSMA

PARERE DEGLI OSPITI: Le esperienze digitali nuove ed emergenti sottolineano l’importanza di comprendere e ottimizzare il modo in cui il traffico arriva e proviene da un utente finale.

Negli ultimi due anni sono successe molte cose che hanno messo collettivamente sulla mappa la latenza, e in particolare la latenza bassa e ultrabassa.

La latenza, ovvero il ritardo tra il momento in cui il pacchetto lascia la sorgente di streaming e quando arriva a un dispositivo, assume molte forme, le più comuni sono il ritardo, i frame persi, il buffering e con quella qualità del contenuto ridotta.

Per essere chiari, la latenza era già un argomento di interesse per alcune coorti di utenti.

{posizione di caricamento stephen08}

Dal lato dei consumatori, ciò include giocatori, spettatori di video on-demand ad altissima definizione come gli sport dal vivo e utenti regionali e remoti con connettività satellitare.

Sul lato aziendale, la latenza potrebbe essere un problema per i casi d’uso in tempo reale, come il trading ad alta frequenza o algoritmico, o per la raccolta di dati in località “periferiche” remote come siti minerari e piattaforme del gas.

Tuttavia, la latenza è stata davvero portata al mainstream durante la rivoluzione del lavoro da casa. Ciò ha portato a nuove metriche per comprendere le complicate reti interconnesse utilizzate per inviare e ricevere il traffico degli utenti e, in particolare, in che modo le diverse ore del giorno influiscono sulla latenza.

La latenza e il suo impatto sulle applicazioni web è anche una misura regolare sotto sorveglianza da parte della Commissione australiana per la concorrenza e i consumatori.

La cosa da capire sulla latenza è che non è importante solo per le prestazioni delle applicazioni oggi, ma anche per quelle di domani.

In particolare, un obiettivo degli ingegneri di rete e degli utenti finali è avere connessioni a Internet a bassa o, eventualmente, a bassissima latenza. Come osserva PwC Australia, ciò sta già accadendo in una certa misura grazie alla crescente impronta delle reti 5G.

La verità è che le connessioni a latenza ultrabassa dovranno diventare ancora più pervasive per l’era del metaverso. È probabile che le connessioni ad alte prestazioni siano cruciali per un’ampia partecipazione in ambienti che dipendono fortemente dall’interazione in tempo reale.

Qualsiasi ritardo di prestazioni tra gli utenti non solo sarebbe molto evidente, ma minerebbe anche la promessa dell’esperienza.

Se la latenza si intromette in tali esperienze, i clienti si rivolgeranno ad altri fornitori, guarderanno eventi diversi o interagiranno con altre persone e aziende. Il vero vantaggio della latenza ultra-bassa, quindi, è che i contenuti, le esperienze utente e i dati vengono forniti quasi in tempo reale, formando la base per esperienze utente migliori e abilitando nuovi modelli di business.

Che aspetto ha la latenza

Ai fini di questo pezzo, spiegherò la latenza, le sue sfide e opportunità, in gran parte in termini di consumo.

La pipeline del contenuto dalla creazione alla trasmissione fino all’eventuale ricezione da parte del dispositivo del consumatore richiede elaborazione, larghezza di banda e tempo.

Spesso possono essere necessari fino a 10 secondi prima che un evento live venga visualizzato su un dispositivo consumer.

Mentre l’emittente via cavo HD media sperimenta da 4 a 5 secondi di latenza, circa un quarto delle reti di contenuti è sfidato da 10-45 secondi di latenza.

Senza lo standard attuale, in genere, la consegna a bassa latenza significa che il video viene consegnato allo schermo di un consumatore meno di 4-5 secondi dopo l’azione dal vivo, mentre la latenza ultra bassa è inferiore.

La cosiddetta latenza “da vetro a vetro”, dall’obiettivo della fotocamera allo schermo dello spettatore, è spesso di circa 20 secondi, mentre i contenuti della TV via cavo ad alta definizione sono il punto di riferimento per la bassa latenza, a circa 5 secondi di latenza.

Ridurre la latenza

Esistono molte cause di latenza nelle reti di trasmissione e distribuzione. Il semplice atto di codificare un flusso video (in diretta) in pacchetti da inviare su una rete introduce ritardi nel flusso video. Aggiungi a ciò la consegna attraverso una varietà di reti di terze parti al dispositivo dell’utente finale e la latenza si allunga. Inoltre, protocolli diversi hanno punti di forza e di debolezza diversi e la considerazione principale potrebbe non essere sempre quella di ridurre la latenza.

La latenza può essere ridotta ottimizzando il flusso di lavoro di codifica per un’elaborazione più rapida. Tuttavia, ciò causerà inefficienze – e costi più elevati – altrove. Pacchetti di rete e segmenti video più piccoli comportano un sovraccarico e una larghezza di banda inferiore, ma riducono la latenza, mentre i segmenti più grandi aumentano la larghezza di banda e l’efficienza complessive a scapito di un’esperienza in tempo reale.

Il flusso di lavoro di acquisizione e codifica dei media è un buon posto per cercare opportunità per ridurre la latenza. Un flusso di lavoro ben ottimizzato può fornire rapidamente segmenti video codificati, ma concentrarsi sulla riduzione al minimo dei tempi di elaborazione non è l’unico obiettivo. Dedicare più tempo all’elaborazione può spesso produrre flussi di dati più compatti, riducendo la latenza complessiva della rete. Pertanto, esiste un equilibrio tra efficienza di elaborazione ed efficienza di trasporto di rete e gli editori di contenuti devono trovare il giusto equilibrio.

Sebbene la creazione di un metodo efficiente di registrazione, codifica e trasmissione iniziale del contenuto possa aiutare a rimuovere le inefficienze e la latenza dalle prime fasi del processo, gran parte della latenza effettiva si verifica durante la consegna. Ridurre al minimo o ridurre la latenza di consegna richiede pianificazione e ottimizzazione, ma anche l’accettazione di compromessi tra latenza e costi.

Le aziende di contenuti devono trovare soluzioni sia per il front-end del sistema che per i componenti di distribuzione della rete per ottenere le latenze più basse possibili.

.

Leave a Comment

Your email address will not be published. Required fields are marked *