AMD FidelityFX sulle nuove Xbox per migliorare la grafica dei giochi next-gen

AMD FidelityFX sulle nuove Xbox per migliorare la grafica dei giochi next-gen

AMD ha annunciato la disponibilità per gli sviluppatori di titoli Xbox di alcuni effetti FidelityFX selezionati tramite il Game Development Kit (GDK) di Xbox Series X|S. Si parte con Contrast Adaptive Sharpening (CAS), Variable Shading (VRS) e Raytraced Shadow Denoiser.

di pubblicata il , alle 12:41 nel canale Videogames
XboxMicrosoftAMDRadeonRDNA
 

AMD ha annunciato l'arrivo della famiglia di effetti FidelityFX sulle console Xbox Series X|S di Microsoft. In un certo senso, la casa madre di Ryzen e Radeon risponde al recente annuncio dell'integrazione di Nvidia DLSS in Unity. L'approdo di questi effetti sulle console della casa di Redmond era semplicemente una questione di tempo, infatti AMD sta portando avanti lo sviluppo di queste tecnologie seguendo direttrici chiare: devono essere open source, facilmente modificabili, altamente ottimizzate e cross-platform.

Il fatto che AMD costituisca con un SoC formato da core Zen 2 e GPU RDNA 2 (seppur personalizzati) l'architettura su cui si fondano le console di nuova generazione, non solo di Microsoft ma anche di Sony, le consente di diffondere le proprie tecnologie a una più vasta platea di sviluppatori, con riflessi benefici anche per il mondo PC.

L'adozione della suite AMD FidelityFX tra gli sviluppatori vede al momento la presenza di varie tecnologie in oltre 40 giochi PC dal 2019 a oggi. L'arrivo su Xbox implica l'integrazione di questi effetti all'interno del Game Development Kit di Xbox Series X|S con cui gli sviluppatori creano i titoli che vediamo sulle console next-gen e che arrivano, spesso e volentieri, anche su PC.

Tra le tecnologie della suite con cui gli sviluppatori possono sperimentare troviamo Contrast Adaptive Sharpening (CAS), Variable Shading (VRS) e Raytraced Shadow Denoiser. CAS consente di rendere più nitida un'immagine e, opzionalmente, può anche scalarla; il VRS permette di riprodurre con maggiore qualità aree specifiche di una schermata (quella su cui sono puntati gli occhi), per ridurla invece in altre che possiamo definire "secondarie". L'obiettivo è garantire un'immagine di grande qualità ma al tempo stesso mantenere un frame rate elevato. Un approfondimento lo trovate a questo indirizzo.

Infine, Shadow Denoiser permette di ripulire i compute shader, rimuovendo artefatti nel rendering di riflessi e ombre per un'immagine che risulti migliore. Tutto questo in attesa di FidelityFX Super Resolution, la risposta di AMD al DLSS di Nvidia. Questa tecnologia, in arrivo su PC "entro l'anno", sbarcherà anche sulle nuove console per garantire migliori prestazioni anche con il ray tracing, preservando al tempo stesso la qualità d'immagine.

7 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
CrapaDiLegno21 Aprile 2021, 15:01 #1
Un mero post processing come si è fatto fino a ieri non ha speranza contro il DLSS.

AMD ancora a rincorrere sta.. ma finché il suo target è fare GPU per console dal prezzo stracciato non potrà mai mettere quello che serve per fare vera innovazione.
L'innovazione costa (e non solo in silicio) e i clienti di AMD non vogliono spendere. Per loro meglio il classico post processing alla sharpen mask di Photoshop. E via, anche per i prossimi 4 o 5 anni la solita solfa tutta texture e niente effetti luce o geometria seria.
demonsmaycry8421 Aprile 2021, 19:14 #2
che poi tra le altre cose è tutta roba che nvidia riesce a far girare lo stesso ed anche meglio non dando nessun valore aggiunto alle schede AMD.
Non mi stupisce che sony non gli interessi pubblicizzare queste ficia che hanno già presente o che stanno implementando nei loro dev kit...marketing su qualche filtro 2d e funzione dx12 standard nulla di nuovo sotto il sole...vediamo se le nuove dx con il nuovo SM introdurranno qualcosa di interessante
CrapaDiLegno21 Aprile 2021, 22:03 #3
Mah, senza HW che supporti le complessità di calcolo, qualsiasi nuova feature fatta con gli shader general purpose rimane roba di poco valore aggiunto.

Chissà se le future console saranno ancora degli anemici cloni di PC portatili di generazione vecchia o se qualcuno vorrà ritornare a fare innovazione usando tecnologia moderna con cose nuove e magari non ancora presenti sul mercato per gli altri...
O se il piattume mentale di questi bambinetti che giocano a Fortnite con il pad ha asfaltato del tutto l'ipotesi di miglioramenti generazionali...

Intanto vediamo se qualcuno in questo giro si degna di usare il geometry shader....
Max Power22 Aprile 2021, 01:24 #4
Completamente contrario ai commenti qui sopra.

Il DLSS non è un miracolo che migliora tutto a prescindere (lasciamo le réclame ai boccaloni).

E non vedo dove sia il problema raggiungere dei risultati utilizzando gli shader che diversamente si "gratterebbero".

FidelityFX è tanta roba, basta informarsi (https://gpuopen.com/effects/)

CrapaDiLegno22 Aprile 2021, 13:17 #5
Originariamente inviato da: Max Power
Completamente contrario ai commenti qui sopra.

Il DLSS non è un miracolo che migliora tutto a prescindere (lasciamo le réclame ai boccaloni).

E non vedo dove sia il problema raggiungere dei risultati utilizzando gli shader che diversamente si "gratterebbero".

FidelityFX è tanta roba, basta informarsi (https://gpuopen.com/effects/)


No, il DLSS non è un miracolo ma è tecnologia che va oltre quella deterministica usata fino a ieri con i risultati che tutti conosciamo. Non è nulla di magico (anche se credo che qui qualcuno lo pensi senza aver capito cosa fa per davvero pensando che sia un normale scaler come spesso leggo), ma serve HW specializzato per farlo funzionare e servirebbe HW specializzato per qualunque altro algoritmo simile, HW che AMD non ha.

Non è che AMD è altrettanto una maga Merlina che tira fuori cose che non si sino fatte fino a ieri, eh. E le deve fare in real time.
Ma il suo HW è sempre quello, se non te ne sei accorto. Non ci sono unità che aiutino a fare cose che non si potevano già fare nel 2012, quindi 4 algoritmi ottimizzati per i suoi attuali shader faranno ancora meno miracoli di quelli che già fa il DLSS da qualche anno.

Poi, non so se sai come funziona una GPU, ma da quello che hai scritto dubito. Gli shader non stanno a grattarsi per nulla in nessun momento, dato che processano continuamente i dati del frame da visualizzare (e anche quelli successivi) e appena uno è finito, ripartono i calcoli per quello successivo. Questo se stai realmente sfruttando la GPU e non stai usando una 6900XT a 1.8GHz per giocare a 1080p e 30FPS con una manciata di poligoni.
Se introduci uno step ulteriore di post processing significa che il calcolo del frame successivo ritarderà e quindi avrai meno tempo per finirlo (se vuoi un certo frame rate definito, se vuoi lo stuttering allora cosa fa il post processing e per quanto lo faccia non ha importanza).

Fatto sta che alla fine ricorrerà, come previsto, al VRS (funzionalità delle DX12 e già presente in Turing, giusto per dire, ma che per ora non ha usato nessuno) per ridurre la qualità dello shading là dove non serve e recuperare FPS. Sarà questo il metodo per aumentare il framerate, altro che filtri di post processing "che aumentano la qualità dell'immagine scalata" (che non si può se i dati non ce li hai e senza un algoritmo DL che gira, non puoi aggiungere i dati mancanti come fa il DLSS).

Solite dichiarazioni di marketing di AMD con i risultati di effetti fatti ancora con algoritmi deterministici basati su trucchi raster per bluffare sulla qualità d'immagine che saranno esaltati dai suoi fanboy senza pensare che la concorrenza potrebbe fare benissimo lo stesso, ma usa invece una tecnologia più avanzata (che diventerà la summa massima dell'innovazione solo quando AMD la copierà a modo suo, ma visto che starà sulle console, sarà "lo standard" e quindi il meglio).
Max Power23 Aprile 2021, 01:06 #6
Originariamente inviato da: CrapaDiLegno
No, il DLSS non è un miracolo ma è tecnologia che va oltre quella deterministica usata fino a ieri con i risultati che tutti conosciamo. Non è nulla di magico (anche se credo che qui qualcuno lo pensi senza aver capito cosa fa per davvero pensando che sia un normale scaler come spesso leggo), ma serve HW specializzato per farlo funzionare e servirebbe HW specializzato per qualunque altro algoritmo simile, HW che AMD non ha.


La programmabilità shader permette di fare tante cose e dicerto non stiamo parlando di parti a bassa efficenza...bisogna vedere quanto incide la capacità di calcolo dei tensor core che sono in rapporto medio di ca. 1/10 rispetto ai cuda core: spazio sul die che viene negato agli shader o altro.


Originariamente inviato da: CrapaDiLegno
Non è che AMD è altrettanto una maga Merlina che tira fuori cose che non si sino fatte fino a ieri, eh. E le deve fare in real time.
Ma il suo HW è sempre quello, se non te ne sei accorto. Non ci sono unità che aiutino a fare cose che non si potevano già fare nel 2012, quindi 4 algoritmi ottimizzati per i suoi attuali shader faranno ancora meno miracoli di quelli che già fa il DLSS da qualche anno.


Il DLSS 1.0 è una fetecchia, peggiorava tutto, le cose sono diventate quelle che vediamo oggi col DLSS 2.0, che ha giusto un anno.

Ma fa i due è uscito il FidelityFx, e visto quello che sta succendedo ultimamente, su tutte le feature che propone AMD.... che per la scelta di sviluppo, che condivido pienamete, la sorgente è open.
Ma questo permette ai furbetti della casa verde di dire che ce l'hanno anche loro (sì certo, il giorno dopo però...dopo aver dato un'occhiata ai sorgenti).


Originariamente inviato da: CrapaDiLegno
Poi, non so se sai come funziona una GPU, ma da quello che hai scritto dubito. Gli shader non stanno a grattarsi per nulla in nessun momento, dato che processano continuamente i dati del frame da visualizzare (e anche quelli successivi) e appena uno è finito, ripartono i calcoli per quello successivo. Questo se stai realmente sfruttando la GPU e non stai usando una 6900XT a 1.8GHz per giocare a 1080p e 30FPS con una manciata di poligoni.
Se introduci uno step ulteriore di post processing significa che il calcolo del frame successivo ritarderà e quindi avrai meno tempo per finirlo (se vuoi un certo frame rate definito, se vuoi lo stuttering allora cosa fa il post processing e per quanto lo faccia non ha importanza).


Il linea teorica.
Nella realtà non ci può essere un equilibrio perfetto fra i calcoli delle geometrie rispetto all'applicazione delle texture, agli effetti su di essi ecc.. ecc..
Quindi si fanno delle scelte di compromesso. Ogni applicazione/titolo va da sè.


Originariamente inviato da: CrapaDiLegno
Fatto sta che alla fine ricorrerà, come previsto, al VRS (funzionalità delle DX12 e già presente in Turing, giusto per dire, ma che per ora non ha usato nessuno) per ridurre la qualità dello shading là dove non serve e recuperare FPS. Sarà questo il metodo per aumentare il framerate, altro che filtri di post processing "che aumentano la qualità dell'immagine scalata" (che non si può se i dati non ce li hai e senza un algoritmo DL che gira, non puoi aggiungere i dati mancanti come fa il DLSS).


Il VRS applicato esiste già: il primo è stato GRID5 ( https://gpuopen.com/fidelityfx-variable-shading/ )

Questi invece sono stati introdotti con i driver 21.4.1 abilitando Radeon Boost:

Rise, Shadow of the Tomb Raider, Borderlands 3, Metro Exodus, Fortnite, Cyberpunk 2077, Resident Evil 3, COD Modern Warfare 2019

Che sulla serie 6000 utilizza anche il VRS. Mentre con le altre gestisce solo la dinamica di risoluzione.


Originariamente inviato da: CrapaDiLegno
Solite dichiarazioni di marketing di AMD con i risultati di effetti fatti ancora con algoritmi deterministici basati su trucchi raster per bluffare sulla qualità d'immagine che saranno esaltati dai suoi fanboy senza pensare che la concorrenza potrebbe fare benissimo lo stesso, ma usa invece una tecnologia più avanzata (che diventerà la summa massima dell'innovazione solo quando AMD la copierà a modo suo, ma visto che starà sulle console, sarà "lo standard" e quindi il meglio).



Certo, metti il DLSS in "performace mode" e si vede tutto benissimo...
Balle.
La vera realtà è che si tratta di "barbatrucchi" che in linea di massima lavorano sul contrasto per andare ad evitare calcolo dove ce' nè poco ed è poco avvertibile ad occhio.
Che poi vadano a gestire la dinamica di risoluzione o filtri aggiuntivi, quello è un extra. FFX CAS e DLSS lavorano in modo abbastanza simile.
Ma evitiamo le fesserie in stile "venditori di pentole" con "i supecomputer-che-analizzano-le-immagini-e-poi-la riportano-nel-driver." Sono supercazzole per boccaloni.

C'è già stata la storia dell'hardware dedicato col G-Sync...monitor costosi, royalties ecc ecc...
Poi esce il Freesync (che è una "estensione" di VESA) e senza costi e hardware dedicato, ottieno lo stessi risultato.
Stessa storia per l'RTX Voice...a detta di Nvidia tensor core assolutamente necessari...certo, cambi un parametro e va sulle GTX tranquillo come una pasqua.


Abbi pazienza, ma sono vent'anni che ce l'ho, diciamo sullo "stomaco", per non dire altro.

3DMark2001, il famoso benchmark era un riferimento, il riferimento. Ultimo benchmark che abbia avuto veramente un senso basato su un "vero" mtore grafico, in "vere" situazioni. Questo bench era in gradi di cambiare il destino "commerciale" di una scheda.

Sta di fatto che in quel momento la competizione stava sulla 8500 (uscita prima) e la 4200 sulla stessa fascia di prezzo più o meno.

La 4200 era più veloce di circa il 10%, poco più di 10.000 punti a 1024x768. Tuttavia si scoprì poco dopo che alcune versioni dei driver Nvidia disattivavano il filtro trilineare (all'insaputa dell'utente) così il benchmark veniva falsato.
Io, che all'epoca lavoravo in negozio, ho avuto modo di provare con mano entrambe le schede con frequenzea referece. E con i driver non "falsati" il risultato era l'opposto.
Comunicai la cosa a toms'hardware che all'epoca era tedesco, mi rispose il direttore che non aveva intezione di rimettere mano ai risutati e che andava bene così...A mio avviso per motivi commerciali...
Da allora sono diventati tonts'hardware. Che ha fatto la figura di M all'uopo alla casa verde, un po più marrone, questa volta.
calabar23 Aprile 2021, 13:14 #7
@CrapaDiLegno
Premesso che anche io trovo che il DLSS sia una tecnologia sorprendente e una grande evoluzione per il futuro, soprattutto in quegli ambiti come la VR che necessitano di risoluzione elevate e alti frame rate e credo che AMD dovrà necessariamente proporre una soluzione altrettanto valida. E che oggi non averla è un handicap significativo.
Difatti mi è parso strano che AMD stia pensando di abbandonare DirectML (con cui dicevano di aver ottenuto ottimi risultati) per l'implementazione del suo Super Resolution, dicendo che non è l'unico modo per ottenere quel risultato (parole loro) e che sceglieranno quella che si rivelerà migliore (per il loro hardware, per lo meno).

Ci sono però diverse cose contestabili in quanto hai scritto.

Partiamo dalla conclusione, non ha senso dire che AMD "bluffa" sulla qualità d'immagine, quello che conterà sarà il risultato, se sarà buono brava AMD, se non lo sarà, beh...
Del resto ha forse più senso dire che il DLSS "bluffa", dato che di fatto "inventa", seppure lo faccia di norma piuttosto bene, i dettagli mancanti. Ma come dicevo, alla fine è il risultato che conta.

Altro punto, il fatto che occorra hardware dedicato. L'hardware dedicato come sai è di norma più efficiente nello svolgere le operazioni per cui è stato realizzato, ma anche meno flessibile. Si tratta cioè di "investire" in un hardware che se non utilizzi per quello per cui è pensato rimane a girarsi i pollici.
Quando è conveniente, quindi? Quando eseguire quelle funzioni ha un impatto elevato sulle risorse del chip e quando tale funzionalità viene usata abbastanza spesso.
AMD non ha hardware dedicato all'intelligenza artificiale sulle sue schede, ma tali calcoli possono essere eseguiti in modo abbastanza efficace sulle unità generiche (che, per quanto generiche, sono realizzate per poter comunque fare in modo efficiente quel genere di calcolo).
Ovviamente se usate per fare tali calcoli non possono essere usate per altro.
A fare da discriminante a questo punto sono due fattori: quanto pesano sulla GPU i calcoli relativi a questo Super Resolution e se la GPU ha risorse di calcolo in eccesso nel suo utilizzo tipico.
Se l'impatto di questi calcoli fosse ridotto e se le GPU AMD avessero shader power in eccesso, il problema sarebbe marginale.
Come ben sai infatti il bilanciamento tra le varie risorse di calcolo della GPU è una scelta architetturale e non è raro avere shader power in eccesso (il collo di bottiglia, cioè, sta altrove).
Per esempio a questo giro sembra proprio che sia l'architettura nVidia ad essere sbilanciata in questo senso, con tanto shader power, che come si vede dai benchmark è molto utile in diversi software da workstation che si appoggiano sulla GPU, piuttosto che nei giochi.
AMD invece a questo giro non sembra abbia puntato su questo, quindi temo che non abbia poi tanta potenza di calcolo generico in eccesso, e questo potrebbe essere un limite per il Super Resolution.

Infine, il VRS (o tecnologia equivalente) è una funzionalità utilissima e non ha molto a che fare con il nostro discorso. Prima verrà adottata (da tutti, non mi riferisco solo ad AMD) meglio sarà, dato che permette di ottenere risultati di ottimo livello risparmiando risorse di calcolo.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^