PlayStation 5 introvabile? Risparmiate per PS5 Pro, avrà due GPU

PlayStation 5 introvabile? Risparmiate per PS5 Pro, avrà due GPU

Secondo le ultime indiscrezioni, PS5 Pro sarebbe già nei piani di Sony: la prossima console mid-gen proporrà un sistema "scalabile" con doppia GPU, con l'obiettivo di garantire prestazioni grafiche superiori e feature aggiuntive. Il brevetto depositato dall'azienda risale al 2019.

di pubblicata il , alle 14:01 nel canale Videogames
Playstation
 
74 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Tedturb010 Dicembre 2020, 19:20 #61
Originariamente inviato da: mmorselli
I supercomputer usano questa scorciatoia moltiplicata decine di migliaia di volte. Tutto dipende da quanto è parallelizzabile il problema. Nel gaming non bisogna scordare che pure la CPU spesso fa un gran lavoro per costruire la scena che poi la GPU deve calcolare, e mentre il compito della GPU è altamente parallelizzabile, quello della CPU spesso non lo è, perché c'è un rapporto causa-effetto negli eventi dove l'input di una procedura è l'output di quella precedente.

Il mio sogno multi GPU rimane sempre in ambito VR, dove una scheda calcola la scena per un occhio, e una scheda lo calcola per l'altro.


Bello spreco.. Tutta la geometria processata due volte.
Molto meglio se venissero "messe in cascata" con una gpu che fa il vertex shading e poi magari due che fanno fragment shading e ROPs, una per occhio.
Peccato che cosi la memoria locale andrebbe a farsi friggere.
Se pero venisse sviluppata una GPU ad-hoc per il VR, con piu potenza di rastering, e i vertex shader che girano una sola volta semplicemente moltiplicando due volte..
mmorselli10 Dicembre 2020, 20:25 #62
Originariamente inviato da: Tedturb0
Bello spreco.. Tutta la geometria processata due volte.


Pure l'automobile con un solo passeggero è uno spreco, ma questo non ci impedisce di usarla per andare al lavoro. L'efficienza è importante, ma il risultato lo è di più.

Se pero venisse sviluppata una GPU ad-hoc per il VR, con piu potenza di rastering, e i vertex shader che girano una sola volta semplicemente moltiplicando due volte..


Esiste da tempo il single pass stereo, e tecnologie specifiche per la VR che espandono il concetto, ma un conto sono le tecnologie che nVidia presenta sulla carta, ben altra cosa è l'applicazione pratica, che richiede driver perfetti, procedure ben documentate e programmatori skillati.

https://developer.nvidia.com/vrworks

C'è pure il VR SLI, mai mostrato funzionante su nessun gioco, e ora tolto da tutte le nuova schede video a parte la RTX 3090
tuttodigitale11 Dicembre 2020, 23:27 #63
Originariamente inviato da: Spoiker
E' appena uscita e già parlano della versione pro…
si vede che arranca da subito in confronto ai pc…

cyberpunk mi sembra di capire giri meglio su pc e a dettagli migliori…

in passato quando usciva una consolle i primi anni era superiore al pc, poi si equiparavano e negli ultimi anni il pc la superava.. (diciamo segmento temporale di 2 anni (2+2+2)

Ora invece non ce la fa fin da subito…

qualcuno mi dirà che fra un anno ci saranno giochi ottimizzati a dovere, ma secondo me questa generazione di consolle non grida al miracolo

A me pare che questo non sia mai accaduto.
Considerando solo il "recente" passato, io ricordo la non eccelsa grafica di Dreamcast al debutto, e al dir poco imbarazzante RR di PS2, che è riuscita solo verso il 2003/2004 ad avere una grafica paragonabile a quella dei giochi PC del 2000 (ma comunque con risoluzione assai più bassa).
Idem PS3 (ricordo che per PC era uscito Crysis...che anche con parametri non maxati era decisamente superiore grafica anche alle più recenti, scattose, produzioni).
Ma il punto è, ieri come oggi, il costo d'acquisto della console è di gran lunga inferiore a quella di un PC. E si badi bene che oggi per le attività base l'acquisto di un PC non è neppure necessario, visto che si può benissimo convivere con HW con dieci anni sul groppone (cosa impensabile qualche anno fa) riciclato da un parente o altro.

Ad essere onesti, va considerato che la XBOX X ha una GPU con la bellezza di 52CU.....e ricordo che una delle migliori soluzioni per il rapporto prezzo prestazioni è una scheda da 36 CU da 350 euro, fascia di prezzo che considero ancora quelle appartenenti alle soluzioni di fascia medio alta....e la gpu della xbox X gli è nettamente superiore.

le altre schede, sono in realtà indisponibili per la massa...i che la ps5/xbox non abbia la potenza di schede dal costo reale di 900 euro (ma non molto distante.... ), quando si trovano, è pacifico .
amd-novello12 Dicembre 2020, 00:12 #64
Originariamente inviato da: tuttodigitale
A me pare


concordo su tutto. ma uno non può godersi il pc con l'ultima gpu se non parla male anche delle console. sembra inevitabile.
mmorselli12 Dicembre 2020, 00:36 #65
Originariamente inviato da: amd-novello
concordo su tutto. ma uno non può godersi il pc con l'ultima gpu se non parla male anche delle console. sembra inevitabile.


E anche se uno ne parla male? Non si può parlare male di un oggetto?

Non è che se dico che le console sono scarse sto implicitamente dicendo che pure chi le usa è scarso.

Sono solo considerazioni tecniche, ci arriva chiunque a capire che le console hanno ben più di una ragione di esistere a prescindere dalle specifiche tecniche.
tuttodigitale12 Dicembre 2020, 10:16 #66
Originariamente inviato da: 386DX40
Ci credo sebbene a prescindere dal fine specifico (che fosse il rendering alternato dei frames una volta o l' anti-aliasing o in questo caso la global illumination) vedo le soluzioni multi-gpu per quanto tecnicamente "interessanti", concettualmente sintomo di una "scorciatoia" verso un risultato che proprio tecnicamente non e' possibile con una singola gpu e il risultato difficilmente e' il DOPPIO se non in casi specifici e a volte come nel passato delle home console (basti appunto pensare alla complicata Saturn) creando problemi di ottimizzazione o nel caso classico piu' consumi e quindi con la necessità di design "da salotto" significheranno calore da dissipare.
Di certo vedrei comunque piu' sensata una piu' realistica illuminazione globale che la solita rincorsa alla risoluzione o al frame rate.


mi pare un pò semplicistico dire che il problema del saturn erano le 2 GPU trascurando il fatto che queste erano eterogenee..

tutta questa impossibilità di sfruttare quasi totalmente la potenza a disposizione, francamente non la vedo...come è stato postato, i benchmark parlano da soli, la scalabilità è ottima.
Inoltre quella dei maggiori consumi (cosa non scontata) è ampiamente compensato dal fatto che le GPU sono fisicamente separate favorendo una migliore propagazione del calore.


Originariamente inviato da: mmorselli
Ma infatti se c'è un lato positivo nel multi GPU è proprio questo. C'è gente che i soldi per comprare sistemi sovradimensionati li ha, cosa facciamo per loro? Creiamo una scheda video da 5000 euro? Non si può, perché la richiesta sarebbe troppo bassa per consentire la produzione industriale. Comprare due GPU top di gamma al contrario è un'operazione commerciale semplice sia per chi compra che per chi vende.

No solo. Guardiamo le ultime news.

1)molti notebook Intel avranno la gpu dedicata, che si affiancherà a quella integrata, probabilmente per risparmiare sul quantitativo di ram lp ddr4x necessario per avere le prestazioni attese.
2) la sempre maggior diffusione di APU Ryzen con gpu dedicata
3) chip di dimensioni da fascia alta (500mmq circa) sembrano andare incontro a problemi di produzione non trascurabile.
4) le app windows x64 sono compatibili con ARM. l'HW di uno smartphone è assolutamente insufficiente anche per applicazioni ludiche native....una soluzione semplice ed efficace è proprio quella di raddoppiare le risorse HW per la gpu.


gli utenti interessati da questo approccio è potenzialmente enorme.
386DX4012 Dicembre 2020, 11:17 #67
Originariamente inviato da: tuttodigitale
mi pare un pò semplicistico dire che il problema del saturn erano le 2 GPU trascurando il fatto che queste erano eterogenee..

tutta questa impossibilità di sfruttare quasi totalmente la potenza a disposizione, francamente non la vedo...come è stato postato, i benchmark parlano da soli, la scalabilità è ottima.
Inoltre quella dei maggiori consumi (cosa non scontata) è ampiamente compensato dal fatto che le GPU sono fisicamente separate favorendo una migliore propagazione del calore.


Beh non volevo andare off topic ma la storia delle home console (ma in parte anche su PC) ha dimostrato che la frammentazione dgli ICs non e' sempre stata un successo a parte gli arcade ove appunto vi era sviluppato software molto specifico per quelle complicate e specifiche architetture fatte di piu' cpu e vari chip per la grafica 2D (o 3D) di allora.
E infatti la casa madre del Saturn aveva da tempo questa propensione tecnica derivante forse proprio dall'esperienza arcade.. non e' che il Saturn sia ricordato dagli sviluppatori come una console facile da programmare per quel che ricordo... due cpu SuperH2 piu' un co-processore 68000, due chip grafici VDP1 e VDP2 (giustappunto differenti nelle loro funzioni) ma che alla fine non permise un facile salto che la next generation di allora si aspettava nel mondo poligonale. Poi intendiamoci, la considero una delle piu' interessanti console proprio per questa complessità ma ricordo le interviste e discussioni sullo sviluppo e mi pare non fossero proprio rose e fiori. I titoli epici comunque non mancarono. Quake sul Saturn fu un miracolo... ma persino Doom mi sembra ricordare ebbe problemi ad essere programmato bene su un hardware che "tecnicamente" avrebbe dovuto mangiarselo a colazione.


Il PCB da Wikipedia https://it.wikipedia.org/wiki/Sega_Saturn :

Link ad immagine (click per visualizzarla)

Circa il multi-gpu, il fatto che siano separate non significa che il calore prodotto in console cosi' sottili e compatte non finisca comunque ad accumularsi con tutto il resto a meno di non usare versioni con processi produttivi futuri ma chi lo sà.. in ogni caso imho il multi chip aveva piu' senso nel Saturn appunto perche' forse pensavano che una tale offerta di hardware avrebbe fatto fiorire chissa' quante idee negli sviluppatori per sfruttare quella impressionante mole di transistor. Ma credo poche software house riuscirono a trovare un modo per spremerla. Uguale si puo' dire per il Mega Drive e 32X, Mega Drive + Mega CD etc...
cdimauro12 Dicembre 2020, 15:48 #68
Originariamente inviato da: Spoiker
Hai preso il punto di quello che dicevo io…
i pc all'uscita delle nuove consolle sono stati sempre indietro poi hanno recuperato…
con questa generazione non è così…

Anche con la precedente. E in quella ancora prima Nintendo aveva tirato i remi in barca, riciclando paro paro l'hardware del GameCube per la Wii (che è un GC col 50% di clock e 64MB di RAM in più.
Originariamente inviato da: 386DX40
Infatti non escludo che anche con APU o processori comunque commerciali possano essere spremuti titoli eccellenti. Personalmente ormai non sono molto interessato a "titoli specifici" per cui cambiare home console "apposta" ma il lato tecnico di un processore custom ha sempre quel che di "particolare" da dare un valore aggiunto.

Ormai è un ricordo, visto che viene riciclato hardware del PC, con poche personalizzazioni.

Nintendo, poi, ha riciclato paro paro l'hardware della Shield di nVidia per la Switch, depotenziandolo...
Basti pensare appunto alla cpu della PS3

Cell non era hardware custom. Infatti nacque dall'unione di Sony, IBM e Toshiba, che lo usarono poi ognuno per i propri progetti (console, server, TV et similia).
o in generale alla X360

La CPU della XBox 360 era derivata dalla parte PowerPC di Cell, ma in versione 3 core (anziché uno) e con alcune rilevanti personalizzazioni (unità SIMD con 128 registri, e possibilità di eseguire il lock delle linee di cache della CPU).

La GPU era ancora più custom, e introduceva parecchie innovazioni, alcune delle quali (non tutte) sarebbero arrivate nelle successive GPU (aveva persino alcuni elementi di GPU DirectX 10).
Originariamente inviato da: mmorselli
Euro Truck Simulator e American Truck Simulator... Più realistico di così, tiri giù il finestrino e metti fuori il braccio (in VR) ascoltando radio locali...

Quando leggo queste cose mi inebrio. Ma tanto so già che la VR arriverà a breve anche a casa mia (causa figli ), anche se non ai livelli di quella che hai artigianalmente realizzato tu.
Originariamente inviato da: mmorselli
Secondo me il suo tempo verrà invece, è tutta una questione di banda. Il gaming 3D sta andando in direzione del Ray Tracing, che si presta bene a scalare su soluzioni multi-gpu. Mentre la qualità grafica può crescere all'infinito ci sono cose come risoluzione e framerate che non hanno bisogno di farlo, per quanto alto un tetto c'è. Oggi il multi GPU non funziona perché si scontra con i limiti di framerate.

Il ray tracing scala quasi linearmente col numero di core, per cui è certamente possibile avere anche sistemi multi CPU/GPU. Il suo problema è che al momento è offerto in versione ibrida col rastering, anche perché altrimenti (versione "pura" sarebbe troppo pesante.

In generale comunque la qualità non potrà scalare all'infinito, visto che fra un po' di anni diremo addio alla legge di Moore.
Originariamente inviato da: tuttodigitale
A me pare che questo non sia mai accaduto.
Considerando solo il "recente" passato, io ricordo la non eccelsa grafica di Dreamcast al debutto, e al dir poco imbarazzante RR di PS2, che è riuscita solo verso il 2003/2004 ad avere una grafica paragonabile a quella dei giochi PC del 2000 (ma comunque con risoluzione assai più bassa).
Idem PS3 (ricordo che per PC era uscito Crysis...che anche con parametri non maxati era decisamente superiore grafica anche alle più recenti, scattose, produzioni).

Si parlava innovazione tecnologica (hardware) delle console. Inclusa la potenza di calcolo che offrivano.

Poi che i primi titoli delle console fossero acerbi e non le sfruttavano come si deve è un altro paio di maniche.
Originariamente inviato da: 386DX40
Beh non volevo andare off topic ma la storia delle home console (ma in parte anche su PC) ha dimostrato che la frammentazione dgli ICs non e' sempre stata un successo a parte gli arcade ove appunto vi era sviluppato software molto specifico per quelle complicate e specifiche architetture fatte di piu' cpu e vari chip per la grafica 2D (o 3D) di allora.
E infatti la casa madre del Saturn aveva da tempo questa propensione tecnica derivante forse proprio dall'esperienza arcade.. non e' che il Saturn sia ricordato dagli sviluppatori come una console facile da programmare per quel che ricordo... due cpu SuperH2 piu' un co-processore 68000, due chip grafici VDP1 e VDP2 (giustappunto differenti nelle loro funzioni) ma che alla fine non permise un facile salto che la next generation di allora si aspettava nel mondo poligonale. Poi intendiamoci, la considero una delle piu' interessanti console proprio per questa complessità ma ricordo le interviste e discussioni sullo sviluppo e mi pare non fossero proprio rose e fiori. I titoli epici comunque non mancarono. Quake sul Saturn fu un miracolo... ma persino Doom mi sembra ricordare ebbe problemi ad essere programmato bene su un hardware che "tecnicamente" avrebbe dovuto mangiarselo a colazione.


Il PCB da Wikipedia https://it.wikipedia.org/wiki/Sega_Saturn :

Link ad immagine (click per visualizzarla)

Circa il multi-gpu, il fatto che siano separate non significa che il calore prodotto in console cosi' sottili e compatte non finisca comunque ad accumularsi con tutto il resto a meno di non usare versioni con processi produttivi futuri ma chi lo sà.. in ogni caso imho il multi chip aveva piu' senso nel Saturn appunto perche' forse pensavano che una tale offerta di hardware avrebbe fatto fiorire chissa' quante idee negli sviluppatori per sfruttare quella impressionante mole di transistor. Ma credo poche software house riuscirono a trovare un modo per spremerla. Uguale si puo' dire per il Mega Drive e 32X, Mega Drive + Mega CD etc...

Il problema del Saturn non erano le due VPU, che avevano compiti diversi, ma le CPU: riuscire a sfruttarle, all'epoca, era molto difficile, abituati come si era a usare una CPU per tutto.

Perfino adesso il multi-core/threading è difficile da implementare (sempre che sia possibile).
386DX4012 Dicembre 2020, 16:29 #69
Originariamente inviato da: cdimauro
Anche con la precedente. E in quella ancora prima Nintendo aveva tirato i remi in barca, riciclando paro paro l'hardware del GameCube per la Wii (che è un GC col 50% di clock e 64MB di RAM in più.

Ormai è un ricordo, visto che viene riciclato hardware del PC, con poche personalizzazioni.

Nintendo, poi, ha riciclato paro paro l'hardware della Shield di nVidia per la Switch, depotenziandolo...

Cell non era hardware custom. Infatti nacque dall'unione di Sony, IBM e Toshiba, che lo usarono poi ognuno per i propri progetti (console, server, TV et similia).

La CPU della XBox 360 era derivata dalla parte PowerPC di Cell, ma in versione 3 core (anziché uno) e con alcune rilevanti personalizzazioni (unità SIMD con 128 registri, e possibilità di eseguire il lock delle linee di cache della CPU).

La GPU era ancora più custom, e introduceva parecchie innovazioni, alcune delle quali (non tutte) sarebbero arrivate nelle successive GPU (aveva persino alcuni elementi di GPU DirectX 10).

Quando leggo queste cose mi inebrio. Ma tanto so già che la VR arriverà a breve anche a casa mia (causa figli ), anche se non ai livelli di quella che hai artigianalmente realizzato tu.

Il ray tracing scala quasi linearmente col numero di core, per cui è certamente possibile avere anche sistemi multi CPU/GPU. Il suo problema è che al momento è offerto in versione ibrida col rastering, anche perché altrimenti (versione "pura" sarebbe troppo pesante.

In generale comunque la qualità non potrà scalare all'infinito, visto che fra un po' di anni diremo addio alla legge di Moore.

Si parlava innovazione tecnologica (hardware) delle console. Inclusa la potenza di calcolo che offrivano.

Poi che i primi titoli delle console fossero acerbi e non le sfruttavano come si deve è un altro paio di maniche.

Il problema del Saturn non erano le due VPU, che avevano compiti diversi, ma le CPU: riuscire a sfruttarle, all'epoca, era molto difficile, abituati come si era a usare una CPU per tutto.

Perfino adesso il multi-core/threading è difficile da implementare (sempre che sia possibile).


Infatti intendevo che PS3 e X360 per quanto magari non avessero hardware custom nella definizione anni '90 di chip costruiti proprio a porte chiuse internamente all' azienda stessa, non avessero proprio hardware "commerciali" o molto di nicchia e customizzati. L' X360 fu impressionante per cosa sia riuscita a renderizzare nella lunghissima vita che ha avuto (almeno concettualmente ne ho cambiate diverse per i problemi hw dei led-rossi) e appunto se non ricordo male a parte la GPU di PS3, erano tutti hardware piuttosto particolari lontani abbastanza dal mondo PC.

Sul Saturn, mi sembra ricordare che il dual cpu fu un problema ma anche casi in cui il doppio VDP quando tutte le funzioni erano necessarie (2D sprite e fondali e 3D e magari "fisica" o altre logiche legate alla cpu etc..) far funzionare tutto contemporaneamente al suo meglio era difficile. Non a caso Quake credo sia considerato il canto del cigno delle sue capacità, mentre mi sembra ricordare recensioni che dicevano quanto difficile fu il compromesso per far girare Doom e infatti mi pare ben lontano da essere un porting soddisfacente sebbene la potenza hardware ci sarebbe stata tutta.
Poi vero che Doom e' un caso particolare visto l' engine praticamente quasi nessuna console di allora riusciva ad avere le caratteristiche di forza bruta sulla cpu principalmente quando invece tutte avevano chip custom dedicati a logiche di giochi 2D standard (platform etc..). E infatti anche quella considerata la migliore versione delle console anni 90, quella della Playstation era pur basata sulle mappe light del Jaguar se non ricordo male sebbene con qualche features interessante in piu' sull' illuminazione e una colonna sonora innovativa. Sebbene comunque resta l'unica u una delle uniche console ad aver portato il gioco sulle tv a frame rate accettabili. Il 486DX4-100 e il Pentium ridono ancora adesso.
pavobros15 Dicembre 2020, 18:19 #70
molto bene, prima rtx3080 quando si troveranno! mannaggia a loro!! e poi ps5pro

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^