Kubernetes diventa grande e piccolo al KubeCon

(Fonte immagine: Pepperdata)

La comunità di Kubernetes è scesa a Detroit, nel Michigan, questa settimana per la conferenza annuale KubeCon, che si terrà in concomitanza con il CloudNativeCon. Alcuni dei fornitori che hanno fatto notizia alla fiera includevano AWS, che è diventato grande con un servizio Kubernetes in batch per carichi di lavoro ad alto volume, e Red Hat, che è diventato piccolo con la sua nuova versione leggera di Kubernetes per dispositivi edge.

Kubernetes (noto anche come K8S) sta diventando lo standard di fatto per l’esecuzione dei carichi di lavoro dei container. Questo è importante per le persone che creano e distribuiscono big data, analisi avanzate e applicazioni di intelligenza artificiale, poiché Kubernetes può ridurre gran parte del trambusto legato al ridimensionamento di queste applicazioni alle rare altezze richieste.

Ma con l’aumento della popolarità di Kubernetes, i clienti desiderano utilizzarlo sempre più per distribuire pacchetti di codice standardizzati in esecuzione sull’edge. Questa è stata l’essenza del nuovo Device Edge di Red Hat, un runtime Kubernetes leggero progettato per piccoli dispositivi come robot, gateway IoT e sistemi POS nei punti vendita.

Red Hat afferma che la sua offerta Device Edge consente agli utenti di distribuire container su computer che sono la metà delle dimensioni che ci si aspetterebbe tradizionalmente da una distribuzione K8S tradizionale. Ciò offre il potenziale per risparmi sostanziali sull’infrastruttura, afferma l’azienda.

Lockheed Martin utilizza MicroShift per le app AI nel suo nuovo Stalker Unmanned Aircraft System (UAS)

Device Edge si basa su MicroShift, che Red Hat chiama “un sapore sperimentale di OpenShift/Kubernetes ottimizzato per il dispositivo edge”. MicroShift “si rivolge alla nicchia tra dispositivi perimetrali Linux autonomi e minimi e cluster perimetrali OpenShift/Kubernetes a tutti gli effetti”, afferma l’azienda.

La nuova offerta potrebbe aiutare l’industria della difesa a costruire dispositivi AI più intelligenti e più piccoli, secondo Justin Taylor, vicepresidente dell’IA presso Lockheed Martin. “La capacità delle piccole piattaforme militari di gestire grandi carichi di lavoro di intelligenza artificiale aumenterà la loro capacità sul campo, garantendo che i nostri militari possano stare al passo con le minacce in evoluzione”, afferma Taylor in un comunicato stampa di Red Hat.

Dall’altro lato dello spettro K8S c’è il nuovo pianificatore di carichi di lavoro batch per il servizio cloud di AWS. Soprannominata AWS Batch per Amazon Elastic Kubernetes Service (Amazon EKS), la nuova offerta è progettata per semplificare la configurazione e la gestione di carichi di lavoro batch su larga scala e ad alta intensità di calcolo.

Mentre K8S è stato spesso utilizzato per semplificare la configurazione e la distribuzione di applicazioni complesse costituite da molti microservizi, ci sono anche casi d’uso per K8S che coinvolgono un numero minore di lavori molto più grandi, secondo Steve Roberts, un sostenitore degli sviluppatori senior di AWS.

AWS Batch elimina la confusione dalle distribuzioni K8S per i carichi di lavoro batch su EC2

“Quando in precedenza ho preso in considerazione Kubernetes, sembrava essere incentrato sulla gestione e l’hosting di carichi di lavoro di microservizi”, ha scritto oggi Roberts in un post sul blog. “Sono stato quindi sorpreso di scoprire che Kubernetes è utilizzato anche da alcuni clienti per eseguire carichi di lavoro batch su larga scala e ad alta intensità di calcolo”.

Tuttavia, la configurazione e l’ottimizzazione di un cluster K8S per l’esecuzione di un carico di lavoro batch di grandi dimensioni richiede molto lavoro, scrive Roberts. Questo è ciò che ha dato origine al rilascio di AWS Batch per Amazon EKS.

La nuova offerta è un servizio gestito per eseguire carichi di lavoro batch di grandi dimensioni su cluster Amazon EC2, scrive Roberts. “AWS Batch fornisce uno scheduler che controlla ed esegue lavori batch ad alto volume, insieme a un componente di orchestrazione che valuta quando, dove e come posizionare i lavori inviati a una coda”, scrive. “Non c’è bisogno che tu, come utente, coordini nessuno di questi lavori: devi semplicemente inviare una richiesta di lavoro nella coda.”

AWS Batch gestisce tutti i dettagli cruenti coinvolti con l’esecuzione di un cluster K8S su larga scala, inclusi accodamento dei lavori, monitoraggio delle dipendenze, tentativi, definizione delle priorità, invio pos e provisioning delle risorse di calcolo per le istanze EC2 ed EC2 Spot.

“Come servizio gestito, AWS Batch per Amazon EKS ti consente di ridurre le tue spese operative e di gestione e concentrarti invece sui requisiti aziendali”, scrive Roberts.

Articoli correlati:

Kubernetes è sopravvalutato?

L’adozione di Kubernetes è diffusa per i Big Data, ma il monitoraggio e l’ottimizzazione sono problemi, risultati di sondaggi

AIOps e la rivoluzione di Kubernetes

Leave a Comment

Your email address will not be published. Required fields are marked *