Unreal Engine 5 potenzia la realtà virtuale per il simulatore di volo con tuta alare

Intrepidi individui nel corso della storia hanno tentato di conquistare i cieli usando di tutto, dagli aerei a pedali ai jet pack a razzo.

Probabilmente il più vicino che un essere umano sia mai arrivato al volo non assistito meccanicamente, tuttavia, è il BASE jumping con tuta alare, noto anche come volo con tuta alare.

Questo sport altamente pericoloso e tecnicamente difficile prevede il BASE jumping da un punto più alto mentre è vestito con una tuta con maniche a fettuccia che consente a chi lo indossa di scivolare piuttosto che cadere liberamente.

Richiedendo anni di esperienza nel paracadutismo e nel BASE jumping – e con un tasso di mortalità di uno su 500 salti – il BASE jumping con tuta alare è un’attività che, fino ad ora, è stata al di là della portata del 99,9% della popolazione.

JUMP è il primo simulatore di tuta alare iperreale al mondo, che combina una tuta alare reale, un casco per realtà virtuale e un mix di sospensioni, effetti del vento e stimolazione multisensoriale iperreale.

È il frutto dell’ingegno dell’amministratore delegato e fondatore James Jensen, che faceva parte del team che ha creato The VOID, una delle prime società di simulazione VR ambulante.

Jensen ha assemblato una squadra e tra il 2019 e il 2021 hanno costruito un prototipo di simulatore. Ciò ha portato a una struttura di lavoro a Bluffdale, nello Utah, che ora è operativa da più di quattro mesi e ha trasportato più di 5.000 persone. “Non ho mai fatto paracadutismo o BASE jump”, dice Jensen. “Mi affido ai miei atleti professionisti per dirmi che questo è reale: hanno detto che è circa l’85%. Stiamo spingendo per il 100%”.

JUMP porta il volantino in paesaggi 3D iper-dettagliati di alcuni dei BASE jump più mozzafiato del mondo, incluso Notch Peak negli Stati Uniti. Per raggiungere questo obiettivo, il team JUMP ha pilotato un elicottero equipaggiato con fotocamere di alta gamma, trascorrendo due giorni a catturare migliaia di immagini ad altissima risoluzione del paesaggio sottostante.

Le immagini sono state elaborate utilizzando l’ultima versione dello strumento di fotogrammetria RealityCapture che consente di creare modelli 3D ultra-realistici da set di immagini e/o scansioni laser.

La ricostruzione delle 58.000 immagini catturate ha richiesto cinque supercomputer. Il team ha anche utilizzato informazioni precise da giroscopi e altri sensori per creare un registro di volo personalizzato ad alta precisione. Il risultato è stato un modello digitale incredibilmente dettagliato dell’ambiente di oltre otto miliardi di poligoni su 10 miglia quadrate.

Il passo successivo è stato portare l’enorme set di dati in Unreal Engine 5. “Ci è voluto un po’ di supporto dal team di RealityCapture, ma alla fine abbiamo sviluppato alcuni nuovi strumenti che ci hanno aiutato a sminuzzare questi enormi set di dati e ad assegnare le texture e i materiali appropriati, ” dice Jensen.

Il team ha sfruttato Nanite, il sistema di geometria micro-poligonale virtualizzata di Unreal Engine 5 per gestire l’importazione e la replica della mesh multimilionaria mantenendo un frame rate in tempo reale senza alcuna perdita di fedeltà evidente.

Per l’illuminazione e le ombre, il team ha sfruttato la potenza di Lumen, un sistema di illuminazione globale completamente dinamico in Unreal Engine 5 che consente all’illuminazione indiretta di adattarsi al volo ai cambiamenti dell’illuminazione diretta o della geometria.

“Poiché stiamo cercando il fotorealismo totale, ci stiamo appoggiando fortemente a Nanite e Lumen per dare vita alle nostre scene”, afferma Jensen. “Attualmente disponiamo del più grande set di dati in Nanite con otto miliardi di poligoni: più di 700 parti e 16.000 trame per parte”.

Jensen spiega che funzionalità come queste sono il motivo per cui JUMP ha utilizzato Unreal Engine per creare l’esperienza. “Unreal Engine è semplicemente leader del settore nelle simulazioni in tempo reale ad alta risoluzione”, afferma.

“Vedere le cose che facevo nella produzione video che richiedevano giorni, persino settimane e mesi per essere renderizzate ora, accadono tutte in tempo reale è incredibile. Il conteggio dei poligoni è sempre stato un collo di bottiglia e l’illuminazione globale con Lumen: è strabiliante vedere in tempo reale”.

Il team JUMP ha riempito l’ambiente virtuale con arbusti, alberi, erba e altri oggetti di Quixel Megascans, una libreria di scansioni che offre superfici piastrellabili scansionate in 3D fotorealistiche, trame, vegetazione e altre risorse CG ad alta fedeltà incluse in Unreal Engine 5.

Hanno anche sviluppato il loro motore fisico, FLIGHT, che gestisce tutte le configurazioni e la fisica sia per il mondo fisico che per quello digitale. Blender e Maya sono stati usati per l’arte 3D.

Il risultato è un maestoso mondo virtuale abbastanza realistico da indurre i viaggiatori a credere di trovarsi sul precipizio di un dislivello di 1.200 m.

Ma per creare la sensazione completamente immersiva del volo reale, ciò che si vede nelle cuffie VR deve essere combinato con una vera tuta alare, un sistema di sospensione, effetti del vento e stimolazione multisensoriale.

“Gli effetti fisici sono essenziali per essere in grado di imitare la realtà”, afferma Jensen. “Quando puoi sincronizzare le sensazioni fisiche con immagini e audio, vai in un’altra dimensione nelle simulazioni di realtà virtuale”.

L’effetto tattile della simulazione viene attivato da eventi nell’ambiente virtuale. “Abbiamo scritto un codice personalizzato all’interno di Unreal Engine appositamente per i momenti all’interno dell’esperienza di salto BASE della tuta alare che avvia segnali per l’odore, la velocità del vento, gli effetti scenici tattili, gli effetti sonori e gli oggetti fisici”, spiega Jensen.

I dettagli che forniscono un vero senso di presenza includono il riempimento della tuta alare con aria compressa. Una volta che un aviatore salta dalla scogliera, la sua tuta alare si gonfia in pochi secondi, mentre un ventilatore soffia il vento a un ritmo sempre crescente per aggiungere realismo all’esperienza.

Per ora, JUMP è un’esperienza basata sulla posizione, ma Jensen allude a un futuro in cui una versione del sistema potrebbe funzionare nelle case di tutto il mondo.

“Il simulatore e la tecnologia JUMP sono le basi per una vera mobilità completa all’interno di qualsiasi metaverso”, afferma. “Attraverso alcuni anni di intrattenimento basato sulla posizione, otterremo inevitabilmente un prodotto di mobilità in realtà virtuale perfetto per l’uso domestico”.

Leave a Comment

Your email address will not be published. Required fields are marked *