3DMark Port Royal è il primo benchmark sul Ray Tracing

Futuremark ha rilasciato un nuovo test per il Deep Learning Super Sampling (DLSS) NVIDIA al benchmark 3DMark Port Royal, il primo benchmark sul Ray Tracing
di Rosario Grasso pubblicata il 05 Febbraio 2019, alle 20:01 nel canale VideogamesFuturemark3DMarkNVIDIAGeForceRTX
40 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - inforicordo i test di FFV e non era così, con DLSS si vedeva peggio, in questo bench invece con DLSS è perfetto e TAA tutto sfuocato.
Cose come pozzanghere, laghi etc vengono realizzate da quasi un ventennio in maniera estremamente semplice: renderizzando la scena "riflettendo" sul piano di riflessione il punto di vista del giocatore, e poi usando il risultato sulla superficie stessa. Tecnica molto semplice, ma che funziona solo in alcuni casi specifici (come, appunto, grandi superfici piane).
Il fatto stesso che vengano comunemente usati almeno 3 tipi diversi di algoritmi per riprodurre i fenomeni di riflessione e che, nonostante questo, sia comunque impossibile coprire anche casi d'uso molto comuni nelle scene reali la dice lunga sulla necessitá di introdurre nuove tecniche.
Tramite RT c'é (sostanzialmente) un solo modo, e pure molto semplice: rifletti il raggio e sparalo nuovamente nella scena. Copri il 100% dei casi (estendendo il concetto hai anche le riflessioni "sfumate"
>>Gli sviluppatori hanno a disposizione da 10 anni opencl e da 7 anni le dx12
Personalmente sono convinto che si potesse implementare RT nei giochi giá prima di RTX. Se Brigade 3 (cercatelo su youtube) ha potuto renderizzare in path tracing una scena intera con hw di anni e anni fa, di sicuro si poteva fare qualcosa anche senza RTX.
Credo che la vera "rivoluzione" non sia tanto quello, infatti, ma il supporto esplicito da parte di DirectX (da una parte) e il sistema di denoising (dall'altra).
Quando qualcuno chiede certe cifre mi aspetto e pretendo dei risultati, e subito.
Voglio essere trattato da cliente, non come una mucca da mungere.
Intendi iva esclusa, vero ?
La realtà.
https://youtu.be/66e_pvVlRMU
https://youtu.be/HdGciJvAiBA
Semplicemente ancora non hai capito la differenza.. ma va bene cosí.
sinceramente anch'io non l'ho capita, cioè capisco che la tecnica è differente ma il risultato no e li troviamo in giochi vecchi e che girano bene.
puoi spiegarti?
Cose come pozzanghere, laghi etc vengono realizzate da quasi un ventennio in maniera estremamente semplice: renderizzando la scena "riflettendo" sul piano di riflessione il punto di vista del giocatore, e poi usando il risultato sulla superficie stessa. Tecnica molto semplice, ma che funziona solo in alcuni casi specifici (come, appunto, grandi superfici piane).
Il fatto stesso che vengano comunemente usati almeno 3 tipi diversi di algoritmi per riprodurre i fenomeni di riflessione e che, nonostante questo, sia comunque impossibile coprire anche casi d'uso molto comuni nelle scene reali la dice lunga sulla necessitá di introdurre nuove tecniche.
Tramite RT c'é (sostanzialmente) un solo modo, e pure molto semplice: rifletti il raggio e sparalo nuovamente nella scena. Copri il 100% dei casi (estendendo il concetto hai anche le riflessioni "sfumate"
>>Gli sviluppatori hanno a disposizione da 10 anni opencl e da 7 anni le dx12
Personalmente sono convinto che si potesse implementare RT nei giochi giá prima di RTX. Se Brigade 3 (cercatelo su youtube) ha potuto renderizzare in path tracing una scena intera con hw di anni e anni fa, di sicuro si poteva fare qualcosa anche senza RTX.
Credo che la vera "rivoluzione" non sia tanto quello, infatti, ma il supporto esplicito da parte di DirectX (da una parte) e il sistema di denoising (dall'altra).
Il quanti raggi sparare ti da la risoluzione? troppo pochi quindi troppo sgranato e troppo lavoro per il denoise dopo?
puoi spiegarti?
Sinceramente non l'ha capita manco lui, a schermo si vedono le stesse cose, ma se accidia ha detto che è "greatest leap since 2006" deve essere così per forza perchè accidia non mente.
Cose come pozzanghere, laghi etc vengono realizzate da quasi un ventennio in maniera estremamente semplice: renderizzando la scena "riflettendo" sul piano di riflessione il punto di vista del giocatore, e poi usando il risultato sulla superficie stessa. Tecnica molto semplice, ma che funziona solo in alcuni casi specifici (come, appunto, grandi superfici piane).
Il fatto stesso che vengano comunemente usati almeno 3 tipi diversi di algoritmi per riprodurre i fenomeni di riflessione e che, nonostante questo, sia comunque impossibile coprire anche casi d'uso molto comuni nelle scene reali la dice lunga sulla necessitá di introdurre nuove tecniche.
Tramite RT c'é (sostanzialmente) un solo modo, e pure molto semplice: rifletti il raggio e sparalo nuovamente nella scena. Copri il 100% dei casi (estendendo il concetto hai anche le riflessioni "sfumate"
>>Gli sviluppatori hanno a disposizione da 10 anni opencl e da 7 anni le dx12
Personalmente sono convinto che si potesse implementare RT nei giochi giá prima di RTX. Se Brigade 3 (cercatelo su youtube) ha potuto renderizzare in path tracing una scena intera con hw di anni e anni fa, di sicuro si poteva fare qualcosa anche senza RTX.
Credo che la vera "rivoluzione" non sia tanto quello, infatti, ma il supporto esplicito da parte di DirectX (da una parte) e il sistema di denoising (dall'altra).
Quindi devo pagare 1400€ per giocare in fullhd, vedere le stesse cose ma far sbattere meno i programmatori?
Che innovazione!
Si ma di raytracing l'approccio di nvidia avrà il nome e qualche tecnica, perché il raytracing vero e proprio è un'altra cosa, è fotorealistico.
Poi se uno deve credere che dentro la scheda c'è un sole artificiale che illumina tutto realmente grazie a complicatissimi calcoli che solo huang sa e che solo le unità dedicate possono fare in the world, è un altro discorso. Non è niente che non si possa fare con le tecniche attuali, che tra l'altro sono utilizzate per il 10% causa retrocompatibilità con le miliardi di maxwell da 80 euro nel globo.
Il lavoro degli sviluppatori dovrebbe essere del tipo "accendiamo la lampadina lì che rimbalza ovunque grazie al fantastico compilatore(?) che fa tutto lui", guarda di giochi preconfezionati ce ne sono abbastanza, partendo da unity fino ad arrivare alla spazzatura ue4.
Ottima sintesi.
Quello che invidia chiama "raytracing" è un render ibrido dove il 99% è raster e lo 1% raytracing sgranato ripulito in qualche modo dai tensor.
Costo economico x2, costo prestazionale x2, resa a video 1%.
Venghino siori!
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".