Networking e Aquila di Google, più le cose cambiano…

Il mondo è pieno di protocolli di rete, i modi in cui le apparecchiature elettroniche ei computer comunicano. Un grande uso di questi protocolli si può trovare nei data center, soprattutto tra le hyperscale come Google e Amazon.

Il collegamento di tutti i server all’interno di un data center è un’operazione di rete ad alta intensità e per decenni questi operatori hanno utilizzato i protocolli di comunicazione più comuni come Ethernet per collegare fisicamente tutti quei server e switch. (Sì, ce ne sono molti altri ancora in uso, ma Ethernet costituisce la maggior parte di ciò di cui stiamo parlando). Ethernet è in circolazione da molto tempo perché è altamente flessibile, scalabile e tutti gli altri vantaggi. Ma come per tutte le cose nella tecnologia, ha i suoi limiti.

Nota dell’editore:
L’autore ospite Jonathan Goldberg è il fondatore di D2D Advisory, una società di consulenza multifunzionale. Jonathan ha sviluppato strategie di crescita e alleanze per aziende dei settori mobile, networking, gaming e software.

All’inizio di quest’anno, Google ha presentato il suo nuovo protocollo di rete chiamato Aquila in cui sembra concentrarsi su una grande limitazione di Ethernet: la latenza nella rete o ritardi causati dalla quantità di tempo necessaria per spostare le cose su una rete Ethernet. Certo, stiamo misurando la latenza in milionesimi di secondo (microsecondi, μs), ma alla scala di cui stiamo parlando questi ritardi si sommano.

Nelle parole di Google:

Stiamo assistendo a una nuova impasse nel data center in cui i progressi nell’elaborazione distribuita sono sempre più limitati dalla mancanza di prevedibilità delle prestazioni e isolamento nelle reti di data center multi-tenant. Differenza di prestazioni di due o tre ordini di grandezza in ciò che i progettisti di tessuti di rete mirano e ciò che le applicazioni possono aspettarsi e programmare non è raro, limitando gravemente il ritmo dell’innovazione nei sistemi distribuiti basati su cluster di livello superiore

Analizzando questo denso documento, due domande si sono distinte per noi.

Innanzitutto, quali applicazioni sta creando Google che sono così complicate da richiedere questa soluzione. Google è famoso per i suoi sforzi per commercializzare soluzioni di calcolo distribuito. Hanno inventato molti degli strumenti e dei concetti più comuni per suddividere problemi informatici grandi e complessi in compiti piccoli e discreti che possono essere eseguiti in parallelo. Ma qui stanno cercando di centralizzare tutto questo.

Invece di attività discrete, Google sta invece costruendo applicazioni strettamente collegate e interdipendenti, tanto da dover condividere i dati in modo tale che i microsecondi impantanino il tutto di “due o tre ordini di grandezza”.

La risposta è probabilmente “reti neurali AI”, che è un modo elegante per dire moltiplicazione di matrici. Il collo di bottiglia che devono affrontare molti sistemi di intelligenza artificiale è che quando si calcolano modelli massicci, le diverse fasi della matematica si influenzano a vicenda: un calcolo richiede la soluzione a un altro calcolo prima di poter essere completato.

Scava nei travagli delle startup di chip di intelligenza artificiale e di molti dei loro fondatori su questo tipo di problemi. Google deve disporre di modelli così grandi che queste interdipendenze diventino colli di bottiglia che possono essere risolti solo su scala di data center. Un probabile candidato qui è che Google ha bisogno di qualcosa del genere per addestrare modelli di guida autonoma, che devono tenere conto di un numero enorme di variabili interdipendenti. Ad esempio, quell’oggetto su Lidar è uguale a quello che sta vedendo la telecamera, quanto è lontano e quanto tempo prima che ci schiantiamo contro di esso?

È anche possibile che Google stia lavorando ad altri calcoli molto intensi. Il documento discute ripetutamente dell’High Performance Computing (HPC), che è in genere il regno dei supercomputer che simulano il tempo e le reazioni nucleari. Vale la pena pensare a cosa sta lavorando Google qui perché probabilmente sarà molto importante da qualche parte in futuro.

Detto questo, un secondo fattore che ci ha colpito in questo articolo è il senso di estrema ironia.

Abbiamo trovato questo paragrafo in particolare molto divertente (che sicuramente dice di più sul nostro senso dell’umorismo che su qualsiasi altra cosa):

Le differenze principali in queste impostazioni più specializzate relative agli ambienti di data center di produzione includono: i) la possibilità di assumere implementazioni a tenant singolo o almeno la condivisione dello spazio anziché la condivisione del tempo; ii) riduzione delle preoccupazioni relative alla gestione dei guasti; e iii) la volontà di assumere tecnologie di rete incompatibili con le versioni precedenti, inclusi i formati wire.

Il punto qui è che Google voleva che Aquila fornisse percorsi di rete dedicati per un singolo utente, per fornire la consegna garantita di un messaggio e per supportare i protocolli di comunicazione più vecchi. C’è, ovviamente, un insieme di tecnologie di rete che già lo fanno: le chiamiamo commutazione di circuitoe sono stati utilizzati dagli operatori di telecomunicazioni per oltre cento anni.

Sappiamo che l’Aquila è molto diversa. Ma vale la pena riflettere su quanto la tecnologia sia un pendolo. La commutazione di circuito ha lasciato il posto alla commutazione di pacchetto Internet in molti decenni di transizione dolorosi ed estenuanti. E ora che siamo al punto in cui i protocolli Internet alimentano praticamente ogni rete di telecomunicazioni, lo stato dell’arte sta tornando alla consegna deterministica con canali dedicati.

Il punto non è che Google sia regressivo, semplicemente che la tecnologia ha dei compromessi e applicazioni diverse richiedono soluzioni diverse. Ricorda che la prossima volta che qualcuno intraprende una guerra santa per un protocollo o un altro.

Google non è il solo a cercare qualcosa di simile. Il cambio di pacchetto in generale e Internet in particolare hanno alcune serie limitazioni. Ci sono dozzine di gruppi nel mondo che cercano di affrontare queste limitazioni. Questi gruppi vanno da pionieri di Internet come il professor Tim Berners-Lee e la sua iniziativa Solid a New IP di Huawei (una visione leggermente diversa di questo).

Questi progetti hanno ovviamente obiettivi molto diversi, ma tutti soffrono del problema di superare una base installata a livello mondiale. Al contrario, Google non sta cercando di cambiare il mondo, ma solo una sua parte.

Leave a Comment

Your email address will not be published. Required fields are marked *