GTA 5 con grafica fotorealistica? Sì, merito di Intel e dell'intelligenza artificiale

Intel, per ora solo a fini di studio, sta usando una rete neurale convoluzionale per cambiare i connotati a GTA V e renderne l'aspetto grafico più vicino a quello reale. Il risultato è molto interessante e l'approccio sembra potersi integrare con l'hardware e le tecnologie attuali.
di Manolo De Agostini pubblicata il 13 Maggio 2021, alle 07:40 nel canale VideogamesGrand Theft AutoRockstar GamesIntelIntelligenza Artificiale
38 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoPascal ha le stesse istruzioni, quindi va diretta anche di INT4? Stesse ha un significato solo, eh...
Poi continui a vederla sempre a modo tuo, parli del RT sulle vecchie come se fosse realmente usabile con dettagli e risoluzioni paragonabili. Ma de che!
Non è che è Nvidia che le ha rese compatibili tanto per far venire la voglia di passare oltre? Ma no, ci mancherebbe.
Sul RT divaghi portando il discorso dove non serviva alla discussione, ma la voglia era troppa, eh...
Quello che fa l'esperto partendo sparando cazzate come quella che citavo, non sono io. Inutile divagare altrove per poi intorbidire le acque per farle sembrare profonde. Azz, sapevi di Pascal, ma RDNA-2 sull'AI doveva andare in emulazione. Ti sei informato dopo credendo che cambiasse qualcosa, o semplicemente con AMD sparli sempre a vanvera per partito preso?
Sull'effettiva utilità, niente, eh... Sei tu che hai parlato di possibilità strozzata dal fatto che le ALU di AMD non faranno solo quello, poi ti sorprendi se ti rispondo contestualemente? Io il filo lo seguo, mica che no...
Chi ha parlato di copiare? Lo vedi che la testa ti porta a buttarla in solo modo? Se un approccio si dimostra conveniente col tempo, perché non lo dovrebbero usare? Magari Nvidia ha usato quel metodo per avere subito prestazioni di livello, chi razzo lo ha negato? Il tuo parlare sa di infantile, questa è l'impressione che mi dai, e non credo di essere più un solitario...
Toni simili te li sei cercati fin dall'inizio, ora l'hai dimostrato con gli interessi.
Se pensi di migliorare cercando di buttarla a coppe sul personale, mi sa che hai scelto l'interlocutore sbagliato.
PS: Ah, dimenticavo: Il topic di quello che diceva che i tensor sono superflui? Occhio che la rischi grossa, buonuomo.
GI è una parte delle capacità del ray tracing, non è la sua caratteristica di base.
In un programma per modellare e renderizzare scende architettoniche magari basta per aumentare il realismo dell'immagine finale, ma ray tracing è molta altra roba.
Chiameresti Global Illumination l'algoritmo che ti permette di calcolare la rifrazione di una corpo trasparente?
Chiameresti Global Illumination l'algoritmo che permette di calcolare hightlights, riflessioni e ombre, caustiche e iridiscenze? Interferenze e anche DoF?
Global Illumination è la dicitura "povera" di qualcosa che è molto di più. Serve a voi architetti per non farvi andare il cervello in pappa con paroloni che vi spaventerebbero.
Da che è nato, si chiama Ray-tracing e ci sono programmi che lo calcolano prima di avere i programmi di modellazione e prima che il PC avesse anche più di 16 colori.
Infatti le applicazioni di modellazione sono nate su Amiga con Read4D e Imagine, poi LightWave e Cinema 4D. Ai tempi il PC non aveva ancora il mouse. E là si chiamava ray tracing.
Non sono un architetto, poi i riflessi e le caustiche i software di render oggi te la fanno sia senza GI si RT, poi ti cito wiki, sicuramente sono più esperti di me.
Ray tracing:
"Il ray tracing è una tecnica generale di geometria ottica che si basa sul calcolo del percorso fatto dalla luce, seguendone i raggi attraverso l'interazione con le superfici."
[...] Nel contesto degli algoritmi di illuminazione globale, come il photon mapping ed il Metropolis light transport, il ray tracing è solo uno dei tool usati per calcolare il trasferimento di luce tra le superfici.
Illuminazione globale:
" [...] Radiosity, ray tracing, beam tracing, cone tracing, path tracing, metropolis light transport, ambient occlusion, e photon mapping sono esempi di algoritmi usati nel campo dell'illuminazione globale; alcuni possono essere combinati tra loro per ottenere risultati più rapidi, ma comunque accurati."
Quindi alle tue domande "Chiameresti Global Illumination l'algoritmo che ti permette di calcolare la rifrazione di una corpo trasparente?
Chiameresti Global Illumination l'algoritmo che permette di calcolare hightlights, riflessioni e ombre, caustiche e iridiscenze? Interferenze e anche DoF?" a tua sorpresa la risposta è si, e perchè? Perchè la GI è un insieme più ricco di algoritmi che collaborano, il RT è sicuramente uno dei più importanti, ma è uno dei tanti.
in più ti aggiungo una chicca: la profondità di campo (DoF) spesso è ottenuta "solo" in post produzione sfruttando le mappe di profondità, così il render 3d è più leggero e permette in secondo luogo di effettuare il focus sul punto desiderato, ma come si fa ad accorgersene vedendo il frame finale? semplice, non puoi.
Ed appunto in ultimo luogo dato che hai citato Cinema4D, li settando il motore di render su fisico, puoi avere il DoF senza utilizzare nè la GI nè RT (che appunto non ha nemmeno una sua voce)
Emulazione?
Non sai di cosa stai parlando ovviamente.
Il problema sono solo le prestazioni.
Senza tensor non vai da nessuna parte. E infatti AMD non sta andando da nessuna parte con la IA.
Nè su GPU nè su CPU, dove non ha proprio nulla.
Rischio grosso? Sono minacciato?
Mi devo preoccupare?
Dai che anche questo mese ti sei portato a casa la pagnotta e vedrai che AMD ti versa l'obolo.
Ray tracing:
"Il ray tracing è una tecnica generale di geometria ottica che si basa sul calcolo del percorso fatto dalla luce, seguendone i raggi attraverso l'interazione con le superfici."
[...] Nel contesto degli algoritmi di illuminazione globale, come il photon mapping ed il Metropolis light transport, il ray tracing è solo uno dei tool usati per calcolare il trasferimento di luce tra le superfici.
Illuminazione globale:
" [...] Radiosity, ray tracing, beam tracing, cone tracing, path tracing, metropolis light transport, ambient occlusion, e photon mapping sono esempi di algoritmi usati nel campo dell'illuminazione globale; alcuni possono essere combinati tra loro per ottenere risultati più rapidi, ma comunque accurati."
Quindi alle tue domande "Chiameresti Global Illumination l'algoritmo che ti permette di calcolare la rifrazione di una corpo trasparente?
Chiameresti Global Illumination l'algoritmo che permette di calcolare hightlights, riflessioni e ombre, caustiche e iridiscenze? Interferenze e anche DoF?" a tua sorpresa la risposta è si, e perchè? Perchè la GI è un insieme più ricco di algoritmi che collaborano, il RT è sicuramente uno dei più importanti, ma è uno dei tanti.
in più ti aggiungo una chicca: la profondità di campo (DoF) spesso è ottenuta "solo" in post produzione sfruttando le mappe di profondità, così il render 3d è più leggero e permette in secondo luogo di effettuare il focus sul punto desiderato, ma come si fa ad accorgersene vedendo il frame finale? semplice, non puoi.
Ed appunto in ultimo luogo dato che hai citato Cinema4D, li settando il motore di render su fisico, puoi avere il DoF senza utilizzare nè la GI nè RT (che appunto non ha nemmeno una sua voce)
Non confondiamo le cose.
La Global Illumination è una cosa, ed è un "effetto" della scena (uno dei tanti), il raytracing è una tecnica.
Con il ray tracing puoi calcolare la GI. Nessuno ha detto che la GI la puoi calcolare solo con il ray tracing.
Ma con il ray tracing puoi calcolare anche altre cose che non sono GI. Tipo simulare le caratteristiche di una lente. O creare caustiche. O il DoF.
Si possono calcolare in altra maniera?
Ovvio, e si può anche approssimarle con tecniche meno impegnative, ma questo cosa c'entra? Anche la GI si fa in mille modi, e infatti finora la si è calcolata senza alcun algoritmo computazionale pesante. I risultati sono però quello che sono quando li si confronta con quelli che si ottengono con un algoritmo come il ray tracing. Calcoli la GI con raytracing e radiosity? Superbo, risultati spettacolari, peccato che ci voglia 10x il tempo.
E non c'entra nulla con il resto degli effetti che il raytracing può calcolare oltre alla GI.
Quindi GI è una cosa (calcolabile in molte maniere) e il ray tracing è un'altra cosa, ovvero una tecnica (o più tecniche perché è implementabile in molti modi) che calcola (o più precisamente simula) il comportamento della luce, qualsiasi cosa essa faccia, anche non illuminare una scena o essere limitato solo a un particolare effetto/zona.
Con il raytracing si possono anche calcolare semplici texture che poi sono applicate con la normale tecnica raster.
Quindi la cosa più generale è la tecnica che permette di fare le cose, poi viene il particolare effetto che vuoi ottenere.
Se faccio un simulatore di lenti ottiche non chiamerò di certo l'algoritmo di calcolo "Global Illumination". Anche se sto usando tecniche di raytracing e calcolando come si muove la luce.
Il raytracing è una tecnica che può essere usato anche per mille altre cose, non solo illuminazione, comunque. Tipo calcolare lo spazio visible da una certa angolazione. Ovvero posso calcolare precisamente quello che una persona vede o meno quando è in certa posizione e guarda in una certa direzione. In generale quali superifici vengono colpite da un raggio tracciato.
Non escono i valori della luminosità di un pixel, ma una bella mappa di 1/0 che dice vedo/non vedo, colpito/non colpito. Sempre tecnica raytracing rimane.
Che è poi il calcolo che viene bene accelerato dagli RT core.
Quindi chiamare il raytracing semplicemente Global Illumination lo limita un po' al solo effetto che uno vuole calcolare. Ma c'è molto di più dietro.
E calcolare un effetto con altre tecniche meno precise è proprio quello che l'uso del raytracing vorrebbe evitare: l'approssimazione eccessiva. Approssimazione che c'è sempre (perché non puoi pretendere di tirare miliardi di raggi in tempo reale) ma può comunque aumentare la precisione rispetto a insiemi pre-calcolati che non possono di natura comprendere tutti i casi possibili.
Ecco perché si è introdotto il raytracing nei motori dei giochi per fare, oltre alla GI, anche il calcolo delle ombre precise e delle riflessioni (sempre speculari perché quelle diffuse necessitano mooolta più potenza di calcolo) e l'ambient occlusion.
Possibile arriveranno anche altri effetti, come le trasparenze che con il raster classico è un bel problema da ottenere, le caustiche dell'acqua, le luci volumetriche (oggi solo simulate tramite voxel che però non possono tenere conto dell'esatta provenienza di tutte le luci magari dinamiche della scena) e se la potenza aumenta anche magari applicarlo per quanto detto prima riguardo al calcolo della reale parte visibile di un personaggio (così magari la si smette di fare script dove i giocatori gestiti dal PC imbrogliano usando altri metodi per determinare cosa vedono o meno e quindi capaci di colpirti a un km di distanza una volta che ti hanno individuato, mentre prima a 1 metro non ti scorgevano nemmeno).
Tutto questo è calcolabile tramite ray tracing, e metterlo sotto la dicitura "Global Illumination" che è un effetto importante e ricade sugli altri senza dubbio, è un po' limitativo.
Per la questione Cinama4D è evidente che la scelta è quella di dare il nome agli effetti indipendentemente dall'algoritmo utilizzato per realizzarli, esattamente come la questione Global Illumination vs raytracing.
Emulazione?
Non sai di cosa stai parlando ovviamente.
Il problema sono solo le prestazioni.
Senza tensor non vai da nessuna parte. E infatti AMD non sta andando da nessuna parte con la IA.
Nè su GPU nè su CPU, dove non ha proprio nulla.
AMD non fa nulla direttamente, le INT4 erano dappertutto, e tu non spari razzate.
Eh, sì, per te è sicuro che AMD e MS si gratteranno a perdere, che con quelle possibilità non ci fai niente di utile ecc... Solo perché ti conviene pensarlo, o hai qualche dato, esempio, esperimento... qualsiasi cosa che non sia fuffa, insomma.
Mi devo preoccupare?
Dai che anche questo mese ti sei portato a casa la pagnotta e vedrai che AMD ti versa l'obolo.
Comportamento puerile tale da sotterrarsi. Per me è grosso, dopo, se la faccia te la sei già giocata: Rischi solo la conferma.
In quel contesto il ray tracing entrava in quel modo. Il resto è indiretto, e per farlo non è indispensabile usare la sola tecnica Ray tracing che rientra nell'insieme. Anche se ci calcoli i rimbalzi dell'audio, da dove parti...? Tra l'altro è il RT ad essere approssimativo, in quella lista ci sono metodi unbiased, ben superiori al RT, che da come la metti pare l'asse imprescindibile.
Chissà perché tendi ad amplificare il RT, chissà...
L' illuminazione globale piu' che approssimata in passato era immagino precalcolata e non proprio dinamica. Sul discorso fotorealismo imho una piu' accurata illuminazione globale rende molto di piu' di eventuali scopi altri come rifrazioni o effetti comunque importanti ma che non sò se metterei sullo stesso piano di importanza della GI.
https://www.youtube.com/watch?v=5XYLagdL8eA
una roba del genere su vg a 60fps a chi serve?
l'intelligenza artificiale che aiuta a definire e percepire meglio il "mondo 3d" la trovo molto interessante perché può sopperire alla mancanza di dettaglio.
qualunque nome vogliate dargli
avere un gioco fotorealistico con pupazzi non deve proprio rendere benissimo, quando avremo risolto questa cosa si vedranno giochi totalmente fotorealistici.
su una scatoletta del 2013 puoi avere questa grafica del resto
https://www.youtube.com/watch?v=4vABPJ9GF8M
quello è sicuramente uno dei problemi (a proposito di "umana" aggiungerei il discorso capelli, barba ecc).
Ma ben più rilevanti direi acqua (uno dei giochi migliori in tal senso è Sea of Thieves, peccato che lì l'acqua sia molto bella ma non altrettanto realistica) e soprattutto il fuoco
Se si parla della sola grafica i passi da gigante sono stati fatti ma spesso in un ottica di giochi fantascientifici o storici o comunque non legato a contesti "reali". Dal momento che si parla di contesti in movimento basta solo il rendering di un personaggio che cammina per far cadere il castello di carte. Il cervello umano (fortunatamente) ancora capisce automaticamente cosa e' reale e cosa non lo e' a meno che non si parli di immagini renderizzate statiche per cui forse puo' venire qualche dubbio al limite.
Ma se si pensa al solo viso umano, ci sono 36 muscoli facciali ed e' difficile immaginare un rendering di un personaggio che riesca ad usarli tutti per il solo volto con la variabilita' e tutte le miriadi di sfumature che il volto umano fa nella normalità di qualsiasi azione. Per non parlare poi degli occhi. Se poi si passa al realismo dell'ambiente circostante come detto sopra un conto e' "credere" al realismo di una cosa di fantascienza, un conto una cosa che esiste e abituati a vedere. La sola acqua nel rendering aveva fatto passo da gigante con l'introduzione del Pixel Shading a suo tempo ma ancora oggi e' difficile immaginare un acqua renderizzata davvero realistica.
Ma poi c'e' tutto il contesto dei titoli che ormai sono troppo esagerati nelle ambizioni e non puntano a realismo quanto a sorprendere. Realistico puo' essere il rendering di una abitazione senza altro che il punto di vista in prima persona un po' come alcune tech demo. Bisognerebbe riconsiderare che "la storia" deve essere in un contesto realistico prima che tutta la immane complessità del rendering di quell' ambiente.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".