GTA 5 con grafica fotorealistica? Sì, merito di Intel e dell'intelligenza artificiale

GTA 5 con grafica fotorealistica? Sì, merito di Intel e dell'intelligenza artificiale

Intel, per ora solo a fini di studio, sta usando una rete neurale convoluzionale per cambiare i connotati a GTA V e renderne l'aspetto grafico più vicino a quello reale. Il risultato è molto interessante e l'approccio sembra potersi integrare con l'hardware e le tecnologie attuali.

di pubblicata il , alle 07:40 nel canale Videogames
Grand Theft AutoRockstar GamesIntelIntelligenza Artificiale
 
38 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Zappz13 Maggio 2021, 10:07 #11
Originariamente inviato da: Pino90
no, è molto di più di un "color grader" avanzato. Vengono modificate focali, geometrie, riflessi, emissioni di luce etc.

Guarda le immagini qui: https://intel-isl.github.io/PhotorealismEnhancement/

Ad esempio sull'ultima si nota che l'erba cambia proprio geometria, la texture dell'asfalto è molto più realistica nella versione "IA" anche in fatto di rappresentazione delle buche etc.


Va a modificare un po' troppo le immagini, basta guardare le montagne che diventano ricoperte di vegetazione. Sicuramente in un video fa l'effetto wow, ma nel gioco andrà a creare troppi artefatti e glitch. Resta cmq un esempio impressionante, anche solo per come riesce a cambiare l'illuminazione.
CrapaDiLegno13 Maggio 2021, 10:37 #12
Originariamente inviato da: 386DX40
Che il fotorealismo sia sempre stato un auspicato traguardo e' senza dubbio. Quello che mi lascia dubbioso e' la necessità di una AI rispetto ad un gioco riprogrammato sulla base di un nuovo engine, nuove funzionalità hardware, etc..
E sul fotorealismo imho ogni epoca ha avuto il proprio "fotorealismo" ogni gioco all' apice della sua tecnologia nella propria epoca era rivoluzionario. La prima volta che giocai a Wolfeinstein3D la parte grafica simil-3D era talmente incredibile che rimasi spiazzato. Per molti altri giochi successivi per esempio non ebbi le stesse sensazioni pur anni luce avanti tecnicamente.
Oggigiorno si parla tanto di ray-tracing. Vent'anni fa lo ricordavo quando veniva chiamato "Global illumination" che forse e' meno "cool" come nome ma ad ogni modo si e' gia' ad un livello per cui forse non importa tanto concentrare poche migliorie se poi il setup di gioco resta sempre lo stesso e tutt'altro che "realistico".
Per dire che il VR puo' e spero sia davvero quel salto che farebbe sembrare "realistico" persino Doom del 1993 proprio per come rivoluziona il concetto di ambiente circostante che diventa il gioco stesso, isolandosi completamente dall' esterno.
"Poco importa" la risoluzione dei display o la qualità dell' illuminazione se poi il gioco per l'appassionato del "realismo" lo si gioca appunto sul divano e sul solito TV di casa.

Il ray tracing non è mai stato solo "Global Illumination" da nessuna parte.
La global illumination è solo una parte delle caratteristiche della luce presente in una scena.
Il ray tracing si è sempre caratterizzato per essere un simulatore completo della luce, per cui anche tutti gli altri effetti sono calcolati tramite esso, non solo la GI.

Il problema principale è che fino ad oggi per l'utente il miglioramento delle immagini veniva solo attraverso l'aumento di risoluzione. 512p, 720p, 1080p, 2160p (o 4K)... ma l'immagine è sempre stata la stessa, quella sintetica, con lo stesso numero (infimo) di poligoni e con effetti luce completamente finti.
Mai si sono posti la domanda: ma come è che sulla vecchia TV CRT con la risoluzione 512p le immagini dei film erano comunque realistiche?
Poi hanno scoperto il fullHD e i BluRay, ma anche lì non si sono posti la domanda: ma guarda che scene realistiche in Jurrasik Park/Avatar/serie infinita di film con tecniche di raytracing applicate.
No, bisogna giocare n 4K "tutto maxato" per avere qualità grafica. E se il PC/GPU/motore non che la fa a raggiungere i 60FPS... schifezza, schifezza, schifezza, no ottimizzazione, ma come è possible nel 20xx non riuscire a giocare in 4K a 60FPS... e roba del genere.
La qualità dell'immagine fa nulla, il gioco DEVE ANDARE IN 4K@60FPS e BASTA! Tutto maxxato, ovviamente, sia che questo implichi che venga calcolato anche il modello della formica che stai schiacciando con il personaggio virtuale, oppure che pompi solo le texture lasciando i modelli geometrici quelli della XBOX360. Se non va a 60FPS, schifezza.

Oggi il raytracing (ibrido, ma sempre meno man mano che la potenza di calcolo aumenta e con il raster più di un tot non si può andare nel simulare certi effetti reali) permette di avere una qualità grafica superiore, ma alcune fette di utenza ancora a criticare: non vedo la differenza, anzi era meglio quando la luce era fintissima che manco nei fumetti, preferisco i 150FPS piuttosto che le ombre e i riflessi reali, e roba del genere.

Purtroppo non è che "ogni periodo ha avuto il suo fotorealismo" (quello uno è non si scappa), il fatto è che ogni periodo ha avuto la sua ondata di utenti più o meno capaci di comprendere cosa stava accadendo.
Con il tempo anche i più duri di comprendonio hanno capito i miglioramenti e non hanno più sostenuto certe sciocchezze (ricordo i tempi di Voodoo con Glide a 16 bit e TNT a 32bit.. eh, ma le Glide sono più veloci,.. peccato che il cielo nei giochi sembrava un arcobaleno invece che una cosa uniforme, e parlo da possessore della Voodoo3.. quanto mai ).

Oggi il fotorealismo non è ottenibile per semplice e puro calcolo della pipeline di rendering. Non ce la si fa. E di più lo sarà fintanto che buona parte del silicio presente sulle GPU sarà ancora dedicato a fare roba raster.
Ecco perché si ricorre ad "aiuti esterni" come la AI per sistemare le cose secondo modelli precalcolati.
L'idea non è comunque malsana, quello che conta è il risultato finale, e se 10 anni fa bastava creare una cube map o un voxel per simulare un particolare effetto, oggi per avere qualità superiore è necessario passare a qualcosa con potenza di fuoco maggiore. Sempre simulazione/riduzione/semplificazione si sta facendo. Ma a livelli di complessità differenti.

Ovvio che sotto serve il ferro che sia in grado di fare tutto ciò. Ma finché si crea e vende HW in monopolio per le console da gioco senza tale capacità, l'avanzamento di questo tipo di qualità sarà sempre rallentato.
D4N!3L313 Maggio 2021, 10:42 #13
Da quello che ho capito l'IA confronta in tempo reale l'immagine renderizzata con un campione di immagini reali e cerca sempre le foto più simili a quello che vede in quel preciso istante.

Fatto ciò va a modificare l'immagine applicando tutta una serie di filtri/modifiche per replicare quello che vede nelle immagini reali.

Detto ovviamente in modo molto semplicistico.
kamon13 Maggio 2021, 10:57 #14
Originariamente inviato da: TorettoMilano
sinceramente la sensazione personale è che il fotorealismo sia pronto da tempo per oggetti/ambienti e il problema rimane principalmente uno: la pelle umana.
avere un gioco fotorealistico con pupazzi non deve proprio rendere benissimo, quando avremo risolto questa cosa si vedranno giochi totalmente fotorealistici.
su una scatoletta del 2013 puoi avere questa grafica del resto
https://www.youtube.com/watch?v=4vABPJ9GF8M


Io direi ancora di più i capelli, ancora non si trova una quadra tra il "gommoso" e l'effetto "subacqueo" con il movimento dei capelli che non segue bene i movimenti del corpo, ma li rende come se non avessero alcun peso o elasticità. Davvero orrendo da vedere.
CrapaDiLegno13 Maggio 2021, 10:58 #15
Originariamente inviato da: D4N!3L3
Da quello che ho capito l'IA confronta in tempo reale l'immagine renderizzata con un campione di immagini reali e cerca sempre le foto più simili a quello che vede in quel preciso istante.

Fatto ciò va a modificare l'immagine applicando tutta una serie di filtri/modifiche per replicare quello che vede nelle immagini reali.

Detto ovviamente in modo molto semplicistico.

La ricerca, scelta e comparazione delle immagini viene fatta durante la fase di training del modello, non in fase di inferenza che è solo l'applicazione "delle regole calcolate a priori dal modello" (detto in egual modo in termini semplicistici).
Durante il calcolo in real time non avresti il tempo per fare tutto quello che hai detto, e non avresti certo a disposizione il database di milioni di immagini da cui attingere.
Max_R13 Maggio 2021, 11:05 #16
Originariamente inviato da: matsnake86
Tutto bellissimo....
Peccato che della grafica non te ne fai una sega se il gioco è una noia mortale.
Non è il caso dei gta fortunatamente, ma ad ogni modo per quanto mi riguarda la grafica diventa di secondo piano rispetto a gameplay ed immersione.
Certo anche l'occhio vuole la sua parte, ma si possono fare videogiochi belli senza dover ricorrere alle tecniche di ultima generazione.
Nintendo è maestra in questo.


Hanno sperimentato con un gioco che ha un nome forte per un po' di pubblicità extra
Devo dire comunque che non ho mai adorato nemmeno io GTA
Divertito con il primo, il secondo ed il terzo, poi giocati gli altri in periodo di scazzo
Il quinto non l'avevo preso in grande considerazione ma siccome era oltre un anno che i miei amici volevano mi unissi a loro nel multi alla fine ho ceduto
Con loro è divertentissimo ed ho superato in steam il conteggio di qualsiasi altro gioco in circa un mese
Miglior gioco di sempre? Assolutamente no
Ma come multiplayer è vario e l'esperienza è molto buona
386DX4013 Maggio 2021, 11:13 #17
Originariamente inviato da: CrapaDiLegno
Il ray tracing non è mai stato solo "Global Illumination" da nessuna parte.
La global illumination è solo una parte delle caratteristiche della luce presente in una scena.
Il ray tracing si è sempre caratterizzato per essere un simulatore completo della luce, per cui anche tutti gli altri effetti sono calcolati tramite esso, non solo la GI.

Il problema principale è che fino ad oggi per l'utente il miglioramento delle immagini veniva solo attraverso l'aumento di risoluzione. 512p, 720p, 1080p, 2160p (o 4K)... ma l'immagine è sempre stata la stessa, quella sintetica, con lo stesso numero (infimo) di poligoni e con effetti luce completamente finti.
Mai si sono posti la domanda: ma come è che sulla vecchia TV CRT con la risoluzione 512p le immagini dei film erano comunque realistiche?
Poi hanno scoperto il fullHD e i BluRay, ma anche lì non si sono posti la domanda: ma guarda che scene realistiche in Jurrasik Park/Avatar/serie infinita di film con tecniche di raytracing applicate.
No, bisogna giocare n 4K "tutto maxato" per avere qualità grafica. E se il PC/GPU/motore non che la fa a raggiungere i 60FPS... schifezza, schifezza, schifezza, no ottimizzazione, ma come è possible nel 20xx non riuscire a giocare in 4K a 60FPS... e roba del genere.
La qualità dell'immagine fa nulla, il gioco DEVE ANDARE IN 4K@60FPS e BASTA! Tutto maxxato, ovviamente, sia che questo implichi che venga calcolato anche il modello della formica che stai schiacciando con il personaggio virtuale, oppure che pompi solo le texture lasciando i modelli geometrici quelli della XBOX360. Se non va a 60FPS, schifezza.

Oggi il raytracing (ibrido, ma sempre meno man mano che la potenza di calcolo aumenta e con il raster più di un tot non si può andare nel simulare certi effetti reali) permette di avere una qualità grafica superiore, ma alcune fette di utenza ancora a criticare: non vedo la differenza, anzi era meglio quando la luce era fintissima che manco nei fumetti, preferisco i 150FPS piuttosto che le ombre e i riflessi reali, e roba del genere.

Purtroppo non è che "ogni periodo ha avuto il suo fotorealismo" (quello uno è non si scappa), il fatto è che ogni periodo ha avuto la sua ondata di utenti più o meno capaci di comprendere cosa stava accadendo.
Con il tempo anche i più duri di comprendonio hanno capito i miglioramenti e non hanno più sostenuto certe sciocchezze (ricordo i tempi di Voodoo con Glide a 16 bit e TNT a 32bit.. eh, ma le Glide sono più veloci,.. peccato che il cielo nei giochi sembrava un arcobaleno invece che una cosa uniforme, e parlo da possessore della Voodoo3.. quanto mai ).

Oggi il fotorealismo non è ottenibile per semplice e puro calcolo della pipeline di rendering. Non ce la si fa. E di più lo sarà fintanto che buona parte del silicio presente sulle GPU sarà ancora dedicato a fare roba raster.
Ecco perché si ricorre ad "aiuti esterni" come la AI per sistemare le cose secondo modelli precalcolati.
L'idea non è comunque malsana, quello che conta è il risultato finale, e se 10 anni fa bastava creare una cube map o un voxel per simulare un particolare effetto, oggi per avere qualità superiore è necessario passare a qualcosa con potenza di fuoco maggiore. Sempre simulazione/riduzione/semplificazione si sta facendo. Ma a livelli di complessità differenti.

Ovvio che sotto serve il ferro che sia in grado di fare tutto ciò. Ma finché si crea e vende HW in monopolio per le console da gioco senza tale capacità, l'avanzamento di questo tipo di qualità sarà sempre rallentato.


Per quel che ricordo da 3DStudio Max la Global illumination la consideravo davvero quella tecnica che lungi dall'essere allora (ai tempi dei primi Pentium IV) calcolabile in tempo reale, avrebbe permesso quel salto piu' lungo verso un fotorealismo. Una stanza bianca con una finestra e un punto luce esterno attraverso la suddetta tecnica di illuminazione globale risulta piuttosto e anche piu' "realistica" di ambienti con piu' poligoni, dimensioni delle texture, effetti di bump mapping, anti-aliasing o quant'altro IMHO. Immagino che con ray tracing si intendano anche altre logiche nella illuminazione ma IMHO opinione personale gia' solo l'illuminazione globale mai stata possibile in tempo reale fino forse ad oggigiorno, puo' davvero permettere quel salto in piu' ma non basta chiaro.

Sul fatto che oggigiorno si parla piu' di risoluzione o frame rate a prescindere dalle singole tecniche sono d' accordo e sono d'accordissimo sul discorso dei monitor CRT. Ma quando dicevo che ogni epoca (tra virgolette) "ha avuto il proprio fotorealismo" intendevo che alla fine si parla del delta di percezione che c'e' tra cio' che siamo abituati a vedere prima a confronto con il massimo che puo' essere renderizzato oggi.
Il cervello (se vuole proprio) riconosce comunque cio' che (sa' gia') non e' realistico dalla simulazione di uno spazio tridimensionale. Quella curva di miglioramento forse tende ad appiattirsi all' infinito; ma oggigiorno il livello e' gia' tale da pensare di "ingannare" il cervello ma come accennavo basta poco per far cadere tutto. In primis appunto il setup di gioco per cui solo il VR puo' essere la giusta direzione. In secundis a meno che non si parli di giochi di simulazione in cui c'e' tutto tranne che esseri viventi, basta il rendering di una faccia umana magari non statica e tanti saluti al fotorealismo. Ma col tempo ho capito che non e' poi cosi' importante a prescindere dall' esercizio tecnico per sè.

Imho se si parla di fotorealismo come sola grafica non si considera invece l'importanza del "realismo" nel suo insieme fatto di sensazioni a cui partecipano molti altri fattori che comunque contribuiscono al realismo (es. la fisica, il contesto in-game, i suoni). Un esempio e' il fattore "spavento". Un gioco degli anni 90 puo' ancora suscitare spavento pur magari renderizzato attraverso il set delle Directx6? Certo che si e in tal modo si puo' definire "realistico" a suo modo perche' suscita nel giocatore un emozione reale se il contesto del gioco non e' appunto surreale (es. fantascienza o cose simili).

EDIT: aggiungo, sulla Voodoo3 sono d'accordo ma va tutto contestualizzato storicamente e se ne discute spesso anche tra grandi appassionati di hardware retro'. La Voodoo3 con i suoi "22bit interni" era l'esempio di un prodotto che era probabilmente nato piu' come "di transizione" per prendere tempo che non come chip "next generation". Nell' epoca in cui e' uscito avrebbe ancora avuto un po' di senso (se per prendere tempo) considerando che effetivamente al lancio risultava essere una scheda veloce con il supporto totale alle API dell' epoca ma con tutti i punti discutibili ormai vecchiotti delle precedenti versioni. Ma la scelta di farsi le schede in proprio in un periodo in cui "mesi" contavano come "anni" e la concorrenza era gia' in parte avanti, fu un passo probabilmente sbagliato e interviste in tal merito ne hanno discusso con le persone che ci hanno lavorato e le opinioni parevano convergere su questo punto. Il Voodoo3 IMHO era un brand troppo prezioso da un punto di vista marketing per essere usato su una sorta di Banshee II per cui sia quel chip (l' Avenger) sia il VSA-100 non avrebbero mai dovuto vedere la luce per puntare tutto su una nuova GPU come ormai era chiaro tutti stessero facendo, Nvidia e S3 in primis. E possibilmente senza il nome Voodoo che ormai era di fatto "consumato" dall' esperienza del Voodoo3 che dignitosamente aveva pero' giocato in difensiva.
Ma in quel settore spesso una scelta che magari fa perdere un treno non e' detto che permette poi di prendere il prossimo. E le cose sono andate come sono andate. Le api Glide erano gia' da lasciare indietro appena accorti che le Directx e OpenGL avevano gia' ormai superato ogni aspettativa.
D4N!3L313 Maggio 2021, 11:21 #18
Originariamente inviato da: CrapaDiLegno
La ricerca, scelta e comparazione delle immagini viene fatta durante la fase di training del modello, non in fase di inferenza che è solo l'applicazione "delle regole calcolate a priori dal modello" (detto in egual modo in termini semplicistici).
Durante il calcolo in real time non avresti il tempo per fare tutto quello che hai detto, e non avresti certo a disposizione il database di milioni di immagini da cui attingere.


L'ho guardato molto velocemente, grazie del chiarimento.

In effetti mi pareva strano facesse in real-time tutti quei calcoli ma visto che fanno vedere molto poco ho pensato a situazioni create ad-hoc.
al13513 Maggio 2021, 12:51 #19
Originariamente inviato da: Techie
Una moda forse no, ma una tech preview al momento direi di sì - il ray-tracing dico, non questo.
Questo... per i risultati che ottiene e l'assenza di artefatti macroscopici devo dire che mi stupisce abbastanza (caveat: ho guardato il video sul cell).
L'AI (o sistemi esperti o quello che vi pare) ha avuto uno sviluppo realmente folle in un tempo di un paio d'anni solamente... siamo già a gradi di maturità impressionanti per quanto mi riguarda. Magari non saremo ancora alla perfezione, ma il rateo di progresso fa ben sperare, e per applicazioni in tantissimi campi diversi.


si, ma nell'articolo originale menziona chiaramente la necessità di avere a disposizione la tecnologia raytracing per poter ottenere questi risultati. poi che al momento sia ancora "non completa" è solo per un limite di calcolo delle macchine
386DX4013 Maggio 2021, 13:46 #20
I primi giochi in 3D non facevano imho pietà e tutto sommato se si guarda a quelli textured senza accelerazione in hardware sono durati poco e comunque hanno segnato per sempre il mondo videoludico. L'esempio su tutti e' Quake. Nella versione originale quella software rendered era un salto tecnologico imparagonabile. I giochi in 3D se si intende poligonali di fine anni 80 / anni 90 erano comunque impressionanti per l' epoca sebbene senza texture ma il vero salto da tutti riconosciuto fu quello textured di Quake tutt'altro che ininfluente. Se invece si prende come riferimento la prima PlayStation beh, aveva i suoi limiti ma per quel che poteva spiazzò il mercato comunque. I PC cominciavano ad avere chip con features anche migliori sebbene troppo lenti e con pochi titoli per poter davvero sfondare.
Poi arrivato Quake e successivamente GLQuake tanti saluti alle console.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^