Unreal Engine 5: la tech demo grava sulla GPU non più di Fortnite
Un ingegnere di Epic Games ha rivelato un dettaglio molto importante circa la Tech Demo di Unreal Engine 5 che ha lasciato tutti a bocca aperta. Il software, in futuro, sarà ancora più determinante dell'hardware per il dettaglio visivo
di Rosario Grasso pubblicata il 02 Luglio 2020, alle 09:01 nel canale VideogamesEpic
51 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoprovo a vedere, aspettavo con curiosita la beta dell'UE5 per leggere il change log, ( quelli delle DX normalmente li salto e aspetto di leggerli direttamente una volta integrati nell'engine ); credevo fosse un loro sistema, ma se hanno stravolto il mesh shader allora il loro Nanite sara solo loro nome dato per gestirlo.
thx della info
thx della info
devono pur fare pubblicita al loro motore non è bello da dire faremo quello che potranno fare tutti
L'ABC sono il culling delle mesh fuori scena e dei poligoni "che non si affacciano verso la camera", l'eliminazioni di sub mesh in base all'occlusione data da altre mesh è qualcosa che per ora si può fare, ma a manina, dato che la maggior parte dei motori non lo consente ancora in modo automatico.
Per di più, l'UE5 gestisce i LOD automatici e "culla" anche i poligoni a vista, ma più piccoli di un pixel (cosa che non accade coi LOD manuali: hai i tuoi livelli e quelli renderizzi (esclusi quelli che non si affacciano verso la camera).
Che poi porti ad un reale incremento fantasmagorico delle prestazioni (come paventato) o meno, è un altro discorso, ma ciò che fa è diverso da ciò a cui ci hanno abituati finora.
Per di più, l'UE5 gestisce i LOD automatici e "culla" anche i poligoni a vista, ma più piccoli di un pixel (cosa che non accade coi LOD manuali: hai i tuoi livelli e quelli renderizzi (esclusi quelli che non si affacciano verso la camera).
Che poi porti ad un reale incremento fantasmagorico delle prestazioni (come paventato) o meno, è un altro discorso, ma ciò che fa è diverso da ciò a cui ci hanno abituati finora.
ma al dila di quello, la vera novita è che sgravera di molto il lavoro; se manterranno quello sbandierato sara una gran cosa.
in pratica si sta arrivando ad un workflow lineare dal software di modellazione al game engine, senza riadattamenti di sorta.
io commentavo una news per i fatti miei... il "maloox" sinceramente pare doverlo prendere chi attacca un utente (che manco ti ha quotato) vista la reazione "nervosetta"...ma anche senza arrivare a quello basta mettere in ignore (attivamente o non, si può saltare a piè pari anche senza..).
PS: Il mio presunto "petulato" (che anche fosse, non mi pare infranga alcuna regola della netiquette) se così lo ritieni, mi pare comunque contraccambiato da chi si sente in dovere di citarmi
Se tu importi un modello da 20 milioni di poligoni lo shader mesh si occupa di escludere i 10 milioni "dietro" non visibili ma gli altri 10 milioni te li becchi tutti, comprese le texture in 8K; l'UE5 dovrebbe automaticamente ridurli in base alla distanza.
lo shader mesh era gia stato mostrato 1 anno e mezzo fa ma applicato assieme al LOD.
https://www.tomshw.it/hardware/amd-...re-sul-mercato/
EDIT: hanno detto questo:
"he starting point is the same, but the execution in games is different. Models are authored at that same very high quality with millions of polygons per model, but no lower quality models with bespoke normal maps are created for in-game usage. In Nanite, the geometric detail of that high quality model is scaled up and down in real time. Higher detail does not have to be filled in with a baked out normal map - the previous way game models were made. "
lo dicono espressamente che avviene un processo di degradazione in ral-time in base alla distanza; la demo caricava direttamente gli asset provenienti da Quixel e da Zbrush, tutto a massima con texture a 4K e 8K
in pratica si sta arrivando ad un workflow lineare dal software di modellazione al game engine, senza riadattamenti di sorta.
Il mesh shading, quello implementato da Nvidia in Turing che dovrebbe essere il riferimento delle DX12, non è una semplice funzione fissa che rimuove i poligoni.
E' proprio la capacità degli shader di manipolare i vertici delle mesh e alterarli in tempo reale.
Praticamente sarà possibile elaborare completamente la geometria usando gli shader e non più solo tramite la CPU. Dopo i pixel ora è arrivato il momento dei poligoni a liberarsi delle unità a funzione fissa.
La libertà di modifica alla geometria permette non solo di rimuovere i poligoni considerati inutili (fuori scena, nascosti o troppo piccoli) ma anche di alterarne la forma e replicare le geometrie già modificate a costo zero (serve solo una rototraslazione per mesh o sottomesh = meshlet, come le ha soprannominate Nvidia).
Significa che i movimenti possono essere resi meglio con i calcoli della GPU in real time, che il numero di poligoni a video potrà incrementare a dismisura e sopratutto che tutto il lavoro che la GPU fa sulla mesh non deve essere rifatto nuovamente al frame successivo ma può essere messo via e riutilizzato a costo zero. Meno passaggi di dati da CPU a GPU, meno calcoli per la CPU.
Ovviamente ora tutto il lavoro è in mano agli sviluppatori, dato che non c''è più l'HW a funzione fissa a fare tutto automaticamente. La riduzione del LOD è una delle possibilità offerte dal nuovo mesh shading.
Le potenzialità di questa tecnologia sono moltissime. Tutto dipende da come hanno implementato la cosa in AMD, comunque. Se hanno finalmente messo abbastanza potenza per gestire la geometria come si deve avremo una nuova era non più basata solo su texture ultra pompate (come il remaster di Crysis).
Rimango dell'idea che Nvidia con il Polymorphic Engine a livello di SM era ed è tuttora anni luce avanti a AMD che ha il geometry engine a livello di Shader Engine, raggruppamento di CU. Potenza e scalabilità sono garantite con la scelta di Nvidia mentre abbiamo visto quanta fatica ha fatto AMD, con addirittura la presentazione del primitive shading (non il mesh shading di Turing) realizzato su Vega non funzionate. Roba da non credere.
in pratica si sta arrivando ad un workflow lineare dal software di modellazione al game engine, senza riadattamenti di sorta.
Esatto
Arriveremo ad avere una qualità del rendering finale simile alla cg del cinema
Già ora con questo ue5 in qualche scorcio non sembra di avere a che fare con il classico VG ma con un film
Mi sono letto , per quello che ci capisco, come funziona questa tecnologia Nanite ed e' stata pensata per portare il fotorealismo a video.
Patetico marketing.
Probabilmente una piu attenta lettura della tecnologia Nanite, una lettura ai post degli utenti qui sopra (che sono conoscitori dell'argomento) ti farebbe capire il vero significato del tanto odiato numeretto, ovvero il millequattrocentoquarantpi.
Invece una piu consapevole conoscenza del mondo delle console ti farebbe capire che in questo ecosistema non esistono "target" come i 60 freimalsecondo.
Quelli esistono soloesoltanto nel mondo PC perche te lo crei te abbassando i dettagli o cambiando GPU.
Quelli esistono soloesoltanto nel mondo PC perche te lo crei te abbassando i dettagli o cambiando GPU.
La potenza non basta mai, aldilà dell'ottimizzazione o di nuove tecniche di rendering.
Caro il nostro Adapter ...
Certo che sono scalati internamente, ma stai leggendo questa discussione?
Se vuoi capire come funziona il processo che porta asset in alta definizione sulle schermo in 4k ti consiglio questa lettura.
https://www.eurogamer.net/articles/...h-demo-analysis
basta please. Che pesantezza.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".