Cerny spiega come la grafica di PS4 si evolverà nel corso del tempo

Cerny spiega come la grafica di PS4 si evolverà nel corso del tempo

Il GPU Computing permetterà agli sviluppatori di migliorare la simulazione dei mondi di gioco senza un impatto negativo sulla grafica.

di pubblicata il , alle 15:01 nel canale Videogames
 

Mark Cerny, il responsabile principale dell'architettura hardware di PlayStation 4, ha spiegato la sua prospettiva sull'evoluzione della grafica dei giochi per la nuova console Sony nel corso dei vari anni del ciclo vitale. Ha ammesso che i primi titoli "non useranno l'intero set di funzionalità messe a disposizione dall'hardware", ma che successivamente si avvarranno del GPU Computing per offrire significativi miglioramenti nella simulazione dei mondi di gioco.

Killzone Shadow Fall

"Nel primo anno, la maggior parte dei titoli non sfrutterà tale ricchezza di opzioni", ha detto Cerny a Ign. "Saranno ugualmente grandi titoli, ma sfrutteranno solo gli elementi di base del sistema come l'ampia bandwidth della memoria".

"Negli anni 3 o 4 verrà sfruttato pianemente il GPGPU [General-Purpose computing on Graphics Processing Units], vale a dire che la GPU verrà usata per molte cose che non sono direttamente legate alla grafica", spiega Cerny. "Mi riferisco alla fisica, alla simulazione, al rilevamento delle collisioni o al ray casting per l'audio, tra le altre cose".

Secondo Cerny, inoltre, utilizzare in questo modo la GPU non avrà un impatto netto sulle prestazioni. Ecco perché: "Per l'elaborazione di ogni singolo frame, che solitamente richiede un trentesimo di secondo, non tutti i moduli della GPU vengono completamente sfruttati. Ad esempio, la generazione delle Shadow map non impiega pienamente le ALU [le unità aritmetiche e logiche], e quindi questa capacità di elaborazione non sfruttata può essere impiegata per altre attività".

"Quindi, con ogni probabilità, nella seconda parte del ciclo vitale, quando gli sviluppatori si saranno presi il tempo che serve per studiare l'architettura, si potrà migliorare la qualità della simulazione senza compromessi sulla qualità delle immagini".

PlayStation 4, secondo le informazioni finora rilevate, batte, anche se di poco, la rivale Xbox One in termini di specifiche tecniche, principalmente per via della maggiore velocità della memoria. PS4 offre, infatti, 8 GB di RAM GDDR5, mentre la rivale dispone di 8 GB di tipo GDDR3. In termini di GPU, entrambe le console sono basate sull'architettura Radeon GCN, che dovrebbe smaltire 768 operazioni per ciclo di clock nel caso di Xbox One. Questa GPU è infatti dotata di 12 unità di calcolo ognuna in grado di gestire 64 operazioni per ciclo di clock. Nel caso di PlayStation 4, invece, la GPU è in configurazione a 18 unità di calcolo, e questo dovrebbe permettere di ottenere il 50% in più di potenza di elaborazione: si torna così a parlare dei fatidici 1,2 TFLOP di Xbox One contro i 1.84 TFLOPS di PS4, che hanno già alimentato un'enorme mole di commenti. Altri dettagli tecnici si trovano qui.

Nelle scorse settimane Cerny aveva anche detto che PS4 sarà facile da programmare come la PlayStation originale.

20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
PaulGuru23 Luglio 2013, 15:32 #1
Sono allibito, già trovano delle scuse.

GPGPU da quando aumenta "notevolmente" l'efficienza assoluta ? Sicuramente un bel passo avanti lo faranno ma dando una misura più precisa ad esempio dubito che la potenza di calcolo pratica arrivi a raddoppiare.

Inoltre se già fanno fatica ora a piazzare un misero MSAA4x o un FXAA completo che già con alcuni titoli NON E' SUFFICIENTE e oltretutto manco sono in Full HD nativi, come si può pensare di usare la GPU per altre cose ? Ok nelle scene dove non è utilizzata del tutto ma questo periodo dove i giochi non la sfrutteranno appieno quanto durerà ?

Parlano di anni 3 e 4 ....... e i rimanenti dal 5 al 10 ?
Paganetor23 Luglio 2013, 15:33 #2
mi fanno morire...
pl[U]s.NOXx23 Luglio 2013, 15:56 #3
notevole suicidio di marketing. 8/10

Vul23 Luglio 2013, 16:00 #4
Io non vedo nessuna scusa, anzi, mi sembra che il discorso che fanno regga.

Stanno semplicemente dicendo che all'aumentare della comprensione della macchina da parte degli sviluppatori potranno sfruttare meglio la macchina. Non stanno dicendo che la potenza aumenterà solo che gli sviluppatori comprendendo meglio le meccaniche del sistema sapranno di cosa abusare e cosa limitare.

Per il resto il discorso già l'AA è a malapena notabile a 1920 su un monitor da pc da 23" a distanze di mezzo metro.

Sinceramente dell'AA su un televisore alla distanza di 32 pollici mi interessa meno di niente ed è ridicolo affermare di notarla, visto che a 1 metro serve un monitor da almeno 40" per apprezzare un full hd e a 32 (il mio) ad un metro e mezzo i benefici del full hd sono a malapena notabili (ergo, a parità di qualità di sorgente video a più di un metro e mezzo su un 32 pollici non sai dire se un immagine è full hd o hd).

Quindi onestamente l'aa è proprio l'ultima delle mie preoccupazioni considerando che a res alte è già a malapena notabile su un monitor da pc a distanze ravvicinate.

Ma poi la fonte del fatto che ci siano giochi per PS4 non in full hd e senza AA? Vorrei proprio leggerla considerando che hanno potenza paragonabile ad un pc di fascia medio-alta attuale e saranno molto più efficienti.

No perchè io con un pc di fascia media di 3 anni fa, con 570, i5 2400 e 8gb di ram pagato 600 euro all'epoca, ancora oggi devo trovare il gioco che risulti ingiocabile in full hd e filtri attivi e raramente devo fare compromessi, mi sembra ridicolo pensare che dovranno farne su console molto più potenti del mio sistema che riescono ad ottimizzare tutte le risorse.
uforob23 Luglio 2013, 16:23 #5
Originariamente inviato da: PaulGuru
Inoltre se già fanno fatica ora a piazzare un misero MSAA4x o un FXAA completo che già con alcuni titoli NON E' SUFFICIENTE e oltretutto manco sono in Full HD nativi, come si può pensare di usare la GPU per altre cose ? Ok nelle scene dove non è utilizzata del tutto ma questo periodo dove i giochi non la sfrutteranno appieno quanto durerà ?

Parlano di anni 3 e 4 ....... e i rimanenti dal 5 al 10 ?


Quel fanno "fatica" e "manco sono in Full HD" nativi immagino si riferisca alla Playstation 3 o comunque alla generazione attuale, hai per caso partecipato allo sviluppo di qualche gioco PS4 per dire che ci saranno all'inizio le stesse difficoltà su PS4?
Inoltre se leggi bene, viene detto che dopo un po' si potrà usare l GPU per migliorare la SIMULAZIONE (si intende la fisica), probabilmente il fatto che la grafica migliorerà gradualmente non è stato detto perché si ritiene scontato... (o a voler essere maligni che l'architettura della PS4 e così semplice e simile a un PC che sarà sfruttata al massimo fin da subito e quindi non ci sarà nessun miglioramento) ma comunque il discorso qui è diverso, non riguarda la grafica ma la GPU e il suo uso per la simulazione fisica, il fatto che sarà la GPU a migliorarlo che è il componente usato anche per la grafica è secondario.
appleroof23 Luglio 2013, 16:27 #6
Anche io non vedo nulla di strano in queste dichiarazioni, ma addirittura ci vedo al contrario delle banalità: è esattamente quanto è accaduto con l'attuale gen di console dove i titoli odierni spremono molto di più l'hw, ormai conosciuto benissimo, rispetto ai primi titoli.

Piuttosto il fatto che le nuove console presentino cpu x86 e gpu già sul mercato da tempo mi fa ben sperare che l'intervallo per sfruttarle bene sia più breve rispetto a quanto accaduto con le attuali console.

Ovviamente queste speranze per quanto mi riguarda sono legate a quella principale, ossia vedere giochi che anche su pc siano in grado di mostrare un salto evolutivo finalmente significativo in termini non solo di grafica, ma fisica etc etc, e che questo accada non più tardi che tra un paio di annetti (da qui ad un anno/anno e mezzo infatti non mi aspetto chissà cosa, per i motivi detti)
ice_v23 Luglio 2013, 16:47 #7
Originariamente inviato da: appleroof
Anche io non vedo nulla di strano in queste dichiarazioni, ma addirittura ci vedo al contrario delle banalità: è esattamente quanto è accaduto con l'attuale gen di console dove i titoli odierni spremono molto di più l'hw, ormai conosciuto benissimo, rispetto ai primi titoli.

Piuttosto il fatto che le nuove console presentino cpu x86 e gpu già sul mercato da tempo mi fa ben sperare che l'intervallo per sfruttarle bene sia più breve rispetto a quanto accaduto con le attuali console.

Ovviamente queste speranze per quanto mi riguarda sono legate a quella principale, ossia vedere giochi che anche su pc siano in grado di mostrare un salto evolutivo finalmente significativo in termini non solo di grafica, ma fisica etc etc, e che questo accada non più tardi che tra un paio di annetti (da qui ad un anno/anno e mezzo infatti non mi aspetto chissà cosa, per i motivi detti)


A me proprio per il fatto che è x86 non mi aspetto grandi ottimizzazioni come è accaduto finora sul parco console che sono PowerPC o comunque architetture RISC, ove vale la filosofia: "chip piccoli ed economici però, mesi su mesi e camicie sudate per tirare fuori roba decente".

Su x86 vale quasi il contrario: chip grandi, con tanti transistor/potenza...ergo meno lavoro per i devs...non per niente vale la seguente:

Link ad immagine (click per visualizzarla)
giubox36023 Luglio 2013, 16:48 #8
Beh..detto così sembra quasi che dicano..la Xbox one fa schi*o e la PS4 un pò meno schi*o! ma in realtà lo sappiamo tutti quello che girerà su queste scatolette reggerà il confronto con i pc moderni statene tranquilli...alla fine anche crysis 3 è gestito tranquillamente da una 7870 in full HD al max dei dettagli...per un AA 2 x ci vuole una 7950...e per un msaa 8x ci vuole una GTX690..alla fine il doppio della potenza solo per l'AA...l'inportante è che finalmente inizino a sfruttare l'abbondante memoria e la generosità delle DX 11...che sarebbe anche ora!!

P.S. cmq tra le due ce la più lungo Sony a sto giro..e sa la tira di meno perchè costa meno...mi dispiace l'ho detto!:P
Bluknigth23 Luglio 2013, 17:00 #9

FUSION

Secondo me questi sono i primi veri sistemi fusion di AMD.
E probabilmente ottimizzare il software comporterà agli sviluppatori un periodo di apprendistato.

Ci sta che i primi titoli saranno scritti come se fossero scritti per PC, non sfruttando quindi il potenziale della macchina appieno, ma magari a 70/80%.

Credo che imparare a sfuttare questi sistemi potrebbe dare una spinta anche ai giochi per PC, dove a mio parere troppo spesso l'ottimizzazione lascia il tempo che trova,tanto dopo sei mesi uscirà una scheda che farà girare il gioco a 60fps..

Io ricordo un Grand prix 3 che se non sbaglio è uscito al tempo dei primi Pentium due e con un P3 450 ancora faceva fatica con tutti i dettagli attivati...

Qui invece l'HW è quello e c'è sempre qualcuno che si inventa qualcosa per sfruttarlo meglio degli altri.
Obrigado23 Luglio 2013, 19:41 #10
vedo dai primi 2/3 commenti che la gente non sa leggere...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^