Non forzare le tue applicazioni IT nell’edge computing

Per valutare in modo appropriato gli strumenti e le applicazioni perimetrali, i professionisti IT devono esaminare ciò che distingue l’edge computing da altri tipi di elaborazione. L’edge fornisce attività di elaborazione da qualche parte vicino al punto di attività. Questo va contro le tendenze moderne per consolidare quella potenza di calcolo nel data center o nel cloud per creare un’economia positiva su larga scala.

La giustificazione per l’eliminazione del principio di concentrazione standard è la latenza. L’edge computing si rivolge a missioni in tempo reale, in cui l’applicazione deve essere strettamente collegata a eventi e azioni del mondo reale, ecco perché deve essere vicina.

Il termine più critico nelle applicazioni edge è ciclo di controllo — il flusso di lavoro dal punto in cui un evento in tempo reale segnala la necessità di un’azione, fino alla determinazione dell’azione corretta da intraprendere, e torna agli elementi di controllo che eseguono i passaggi necessari. Questo ciclo si sincronizza con un processo, come una catena di montaggio o un magazzino, in cui è fondamentale che non vi sia alcun ritardo tra l’evento e la reazione di controllo. Il ciclo di controllo deve essere breve e introdurre la minore latenza possibile. Il posizionamento dei bordi svolge parte di tale attività, in parte tramite l’ottimizzazione della rete e in parte mediante la combinazione di progettazione dell’applicazione e selezione degli strumenti.

Bilanciare la latenza con l’urgenza

Le applicazioni tradizionali, le applicazioni transazionali, sono quasi sempre vincolate dal tempo di reazione umano o dall’attività del database in termini di prestazioni e tempo di risposta. Le applicazioni in tempo reale dell’edge computing non hanno tali vincoli. Le prestazioni delle connessioni di rete e delle applicazioni edge determinano il tempo di risposta; tutto ciò che introduce latenza nel sistema deve essere ottimizzato, altrimenti la missione dell’applicazione è a rischio.

Questo è un cambiamento importante nel modo in cui gli sviluppatori pensano alle applicazioni. La suddivisione di applicazioni monolitiche di grandi dimensioni in dozzine di microservizi, l’utilizzo di una rete di servizi per lo scambio di messaggi e strategie di progettazione di applicazioni moderne simili potrebbe rivelarsi fatale in un’applicazione in tempo reale.

Le pratiche applicative e gli strumenti appropriati per l’edge computing riflettono il fatto che è probabile che l’edge sia posizionato in un rack, o in una stanza, vicino ai processi controllati, piuttosto che in un data center o nel cloud. Le piattaforme edge non sono progettate per l’elaborazione generica, quindi i sistemi operativi e il middleware tradizionali non sono ottimali. Il controllo integrato o il middleware specifico per il sistema operativo e il processo in tempo reale costituiscono la base per il sistema Common Edge. L’hardware è solitamente specializzato, quindi l’edge è diverso dal data center o dal cloud.

Rapporti sull’adozione al limite

La necessità di un hosting point-of-activity rende probabile che una determinata edge location non possa essere sottoposta a backup da alcuna risorsa situata altrove senza introdurre una latenza maggiore di quella che l’attività può accettare. Questo semplice fatto riduce significativamente i vantaggi della virtualizzazione, in qualsiasi forma. E al posto di una maggiore disponibilità attraverso una rapida ridistribuzione in caso di guasto o ridimensionamento in caso di un cambiamento significativo nella dimensione del carico, il sistema perimetrale deve fare affidamento sulla ridondanza per migliorare la disponibilità ed essere progettato per i picchi di carico anziché per la scalabilità. Ciò ha una grande influenza sugli strumenti e sulle piattaforme utilizzate.

Il bordo è, in un certo senso, un’isola.

I container, che facilitano sia la portabilità del software che il ridimensionamento e la ridistribuzione facili, sono meno preziosi all’edge e possono generare latenza non necessaria o proibitiva. Anche gli strumenti di orchestrazione come Kubernetes sono ridondanti quando non ci sono contenitori da distribuire né pool di risorse su cui distribuirli.

Altre applicazioni si stanno spostando verso l’edge?

Il bordo è, in un certo senso, un’isola. Aspettati di progettare programmi in modo diverso per il funzionamento edge, ma i linguaggi di programmazione tradizionali funzionano se il software della piattaforma li supporta.

Le applicazioni perimetrali monitorano il ciclo di controllo e applicano un budget di latenza, ma le applicazioni perimetrali richiedono manutenzione e gestione in parallelo con le applicazioni cloud e data center. Le strategie dei contenitori potrebbero non essere applicabili, per non parlare di utili, dove non sono presenti contenitori o pool di risorse. Gli strumenti di monitoraggio specifici per i sistemi operativi edge sono più efficaci nella gestione della latenza nei loop di controllo edge, ma il monitoraggio del budget di latenza attraverso una transazione completa può richiedere l’integrazione dei dati da più origini.

Laddove le aziende desiderano orchestrazione e automazione nell’intero flusso dell’infrastruttura IoT, dall’edge attraverso il cloud al data center, esistono versioni di Kubernetes progettate per supportare i cluster bare metal. Questi si combinano con strumenti Kubernetes multidominio, come Anthos o Istio, per unificare le operazioni. In alternativa, le aziende potrebbero utilizzare uno strumento DevOps non incentrato sui contenitori, come Ansible, Chef o Puppet. Tuttavia, poiché è probabile che le applicazioni perimetrali siano meno dinamiche delle applicazioni cloud, potrebbe essere più semplice gestirle separatamente con gli strumenti del sistema operativo disponibili.

Il bordo non sta prendendo il sopravvento

Un passaggio generalizzato all’edge computing è tutt’altro che certo. Sebbene i processi della GUI Web siano sempre più sensibili alla latenza, supportano comunque i tempi di reazione umana e sono così strettamente collegati a Internet e ai servizi di cloud pubblico che è improbabile che la maggior parte si sposti all’edge.

Le applicazioni IoT sono la fonte principale di edge computing. Le applicazioni industriali, manifatturiere e di trasporto che giustificherebbero più facilmente il vantaggio sono una piccola parte dell’inventario delle applicazioni della maggior parte delle imprese. Il vantaggio è diverso e probabilmente sarà impegnativo in termini di strumenti e pratiche, ma non è così grande o in crescita così veloce da interrompere le operazioni IT. Pensa all’edge computing come a un’estensione dell’attività in tempo reale piuttosto che come a un altro luogo in cui ospitare le applicazioni.

Leave a Comment

Your email address will not be published. Required fields are marked *