PlayStation 5: le specifiche definitive sul sito ufficiale
Sul sito ufficiale giapponese di Sony PlayStation sono apparse le specifiche definitive dell'attesa console, la cui presentazione si fa sempre più imminente
di Rosario Grasso pubblicata il 06 Febbraio 2020, alle 18:01 nel canale VideogamesSonyPlaystation
231 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoE anche se fosse speso e volentieri la cpu rimarrebbe comunque poco sfruttata perchè VGA limited, quindi anzichè occupare al 20-30% un tot numero di cores, puoi ottimizzarlo per saturarne la metà, ma l'altra rimarrebbe scarica, quindi a che pro farlo ?
CPU come quelle che verranno usate sulle prossime console per quanto prestanti siano, saranno comunque destinate ad invecchiare e a diventare obsolete rispetto a quanto avrà il mondo desktop, torneranno quindi a fare da tappo.
Corretto, ma non dare per scontato nemmeno che i consumi aumentino linearmente con l'aumentare della frequenza. Questo per dire che 8 core a bassa frequenza facilmente consumano meno di 4 ad alta frequenza. Come già ribadito tante volte questi sono calcoli che avranno già fatto gli ingegneri di AMD, Sony e Microsoft. Se ancora hai dei dubbi iscriviti a ingegneria
Ma l'asticella si sta spostando anche lì: è solo una questione di tempo
Non subito, per via della cross-gen promessa da Microsoft per i primi 2 anni (ma non è detto che gli esterni debbano adeguarsi... Certo, l'installato fa gola a tutti) e del tempo necessario a capire come sfruttare bene il disponibile, ma è chiaro che CPU stagionate non saranno più efficaci come adesso.
Già si sentono dichiarazioni degli addetti sull'importanza del frame rate (prima non caotava quasi una cippa...), con picchi che arrivano ad ipotizzare un nuovo GT a 120 o addirittura 240fps. Diciamo che il frame rate è la cosa che possono aumentare senza sforzi. Vedremo cosa si inventeranno quelli più originali...
Con le nuove console, tutta la catena vanterà processori decenti, cosa che stimolerà automaticamente approcci "anomali".
Magari sarà pure il caso di finirla con ricicli di basso livello su Switch...
Per adesso, anche se su PC non si sfrutta bene... Mi accontento di giocare fluidamente a giochi che su console stentano a mantenere i 30fps.
La finiranno pure con i 30fps instabili che però non inficiano tipici delle recensioni consolare? Scritto anche nella rece di Control su PS4, che all'uscita scendeva fino a 10fps nelle situazioni concitate, ossia dove servirebbe poter mirare meglio. Mi sa che per inficiare aspettano che si fermi come la materia quando arriva allo zero assoluto...
Tutto ciò che si avvicina ai 60 FPS va benissimo.
Tutto ciò che si avvicina ai 60 FPS va benissimo.
Comunque, soprattutto mouse alla mano, per sentire la differenza da 60 a 100Hz non credo serva un fenomeno. Dopo, il vero discorso dovrebbe essere incentrato sul genere di gioco. Ad esempio, FPS, picchiaduro e giochi di guida beneficiano di una frequenza alta, fosse solo per la diminuizione dell'input lag. Non è un caso che in questi generi si cerchi di arrivare almeno a 60fps, le forzature a 30 sono cattive abitudini dettate dai limiti delle console, bisogna dirlo.
L'ottima risposta ai comandi di Killer Instinct Su XBox One l'hanno lodata in molti. Beh, forse alcuni non sapevano che il motore del gioco gira a 90fps...
Ah, manca il discorso VR, dove alti frame rate sono necessari anche per non farsi male, ma non è il caso di allargarlo...
Non funziona così, a meno che non sei in grado di dimostralo, come ho chiesto prima con la formulazione di quel teorema.
Questo è già più condivisibile, ma l'hai detto dopo, quando hai cercato di correggere il tiro.
Il ray tracing, data la sua natura estremamente parallelizzabile e scalabile, è e rimarrà appannaggio delle GPU.
No, come già detto, le personalizzazioni ormai sono ridottissime: le console sono diventate dei PC.
AOTS è una delle rarissime eccezioni, che è quasi più un benchmark che altro, inoltre AOTS non è un gioco che vedrà mai le console, come ho già detto, avrà sicuramente un motore pensato dalla radice per fare quello che fa, e inoltre la sua struttura permette quella sorta di parallelizzazione, parliamoci chiaro, un RTS del genere non c'entra proprio niente con un classico gioco action/rpg che può essere un blockbuster su console, per forza di cose lì al processore sarà richiesto meno...
Io da dimostrare non ho nulla, ci sono tutti i benchmark che volete su internet di quello che dico, e inoltre anche se non ero tenuto, ne ho postati un paio in uno dei post, dove si vede chiaramente l'inesistenza di differenza in un gioco, in quel caso FarCry 5.
L'ho detto dopo, ma non era per correggere il tiro, se per voi sfruttare un core significa utilizzarlo al 1-10% siete fuori strada completamente, visto che poi ce ne sono altri 2/3 che lavorano a percentuali maggiori, quindi non il caso di AOTS.
Ne sono consapevole che attualmente il Ray Tracing è esclusivamente appannaggio delle GPU, però si rumoreggiava qualche tempo fa che AMD stesse sviluppando una sorta di "Tensor Cores" inclusi nella prossima architettura CPU, ora mi pare chiaro che rimane un rumor, ma vista la situazione, potrebbe anche essere che nelle prossime console ci si troverà un assaggio di quella tecnologia, e spiegherebbe in buona parte il discorso dell'utilizzo di core aggiuntivi, altrimenti sarà come dite voi, si saranno voluti tener larghi per eventuali giochi, ma io onestamente continuo a vederla come qualcosa di lontano, per tanti motivi, ed alcuni sono in questo post, poco sopra.
Corretto, ma non dare per scontato nemmeno che i consumi aumentino linearmente con l'aumentare della frequenza. Questo per dire che 8 core a bassa frequenza facilmente consumano meno di 4 ad alta frequenza. Come già ribadito tante volte questi sono calcoli che avranno già fatto gli ingegneri di AMD, Sony e Microsoft. Se ancora hai dei dubbi iscriviti a ingegneria
Nono, è chiaro, magari non linearmente, ma comunque aumentano. Comunque non è che gli ingegneri di AMD Sony e Microsoft siano infallibili, e che lavorano seguendo buonsenso e nient'altro, sicuramente la scelta è dettata anche da costi e tempi di produzione, evidentemente usare un die del genere gli costa meno soldi, e meno tempo (quindi soldi)
Scusa, ma di cosa stai parlando? Codice precompilato? Il codice dei giochi è sempre compilato, a parte eventuali parti di scripting per roba come IA.
E due: ma che stai a dire?
I giochi moderni per PC riescono ad autocalibrarsi in base all'hardware in dotazione, e quelli per le console, il cui hardware è identico (a parte le varianti "pro", non dovrebbe essere in grado di fare almeno altrettanto?!?
Hai appena esposto uno dei motivi per cui ha senso partire con hardware sovradimensionato per le console.
Roba che, comunque, si è sempre fatto diciamo fino all'epoca di PS2 et similia, perché già con la generazione di XBox360 & co. i produttori di console hanno cominciato a tirare i remi in barca.
Non subito, per via della cross-gen promessa da Microsoft per i primi 2 anni (ma non è detto che gli esterni debbano adeguarsi... Certo, l'installato fa gola a tutti) e del tempo necessario a capire come sfruttare bene il disponibile, ma è chiaro che CPU stagionate non saranno più efficaci come adesso.
Già si sentono dichiarazioni degli addetti sull'importanza del frame rate (prima non caotava quasi una cippa...), con picchi che arrivano ad ipotizzare un nuovo GT a 120 o addirittura 240fps. Diciamo che il frame rate è la cosa che possono aumentare senza sforzi. Vedremo cosa si inventeranno quelli più originali...
Con le nuove console, tutta la catena vanterà processori decenti, cosa che stimolerà automaticamente approcci "anomali".
Magari sarà pure il caso di finirla con ricicli di basso livello su Switch...
Per adesso, anche se su PC non si sfrutta bene... Mi accontento di giocare fluidamente a giochi che su console stentano a mantenere i 30fps.
La finiranno pure con i 30fps instabili che però non inficiano tipici delle recensioni consolare? Scritto anche nella rece di Control su PS4, che all'uscita scendeva fino a 10fps nelle situazioni concitate, ossia dove servirebbe poter mirare meglio. Mi sa che per inficiare aspettano che si fermi come la materia quando arriva allo zero assoluto...
Concordo su tutto, ma sfortunatamente per avere frame rate elevati sulle console è necessario, di conseguenza, avere delle GPU mostruosamente dotate (anche in funzione del fatto che restano uguali per almeno 3 anni) oltre a CPU in grado di generare parecchie scene, e ormai la vedo molto difficile.
Da questo punto di vista, come dicevo prima, i produttori delle console hanno ormai tirato i remi in barca, buttandosi sul risparmio.
Sulla Switch... un solo commento: l'ultima console Nintendo dotata di hardware adeguato (nonché atteso) è stata il GameCube...
Tutto ciò che si avvicina ai 60 FPS va benissimo.
E' chiaro che dipenda anche dai giochi.
In un'avventura puoi anche avere frame rate scarsissimi e nessuno se ne accorgerebbe. In un gioco di guida o un FPS il discorso cambia radicalmente.
Io da dimostrare non ho nulla, ci sono tutti i benchmark che volete su internet di quello che dico, e inoltre anche se non ero tenuto, ne ho postati un paio in uno dei post, dove si vede chiaramente l'inesistenza di differenza in un gioco, in quel caso FarCry 5.
L'ho detto dopo, ma non era per correggere il tiro, se per voi sfruttare un core significa utilizzarlo al 1-10% siete fuori strada completamente, visto che poi ce ne sono altri 2/3 che lavorano a percentuali maggiori, quindi non il caso di AOTS.
Premesso che ciò che è stato fatto con AOTS si può benissimo fare anche con altri giochi (gli sviluppatori di AOTS non sono unici bravi e capaci), era stato postato anche questo:
[INDENT]I]"Così dicevano i Naughty Dog...e chissà come mi fido un pochino di più:
https://cdn3.dualshockers.com/wp-content/uploads/2014/03/NDPS4_3.jpg
Qui l'articolo completo:
https://www.dualshockers.com/naughty-dog-explains-ps4s-cpu-memory-and-more-in-detail-and-how-they-can-make-them-run-really-fast/
E se torniamo indietro I guerrilla parallelizzavano su tutti i core della Ps3 ( ) con la Cpu di Ps4 in confronto deve essere un giochetto."[/I][/INDENT]
E ha perfettamente ragione, visto che parallelizzare su PS4 (che, come detto, è sostanzialmente un PC) è di gran lunga più facile che farlo sulla PS3.
Basti vedere i grafici riportati, infatti, per vedere l'ottimo lavoro che hanno fatto.
Non vedo perché non possano continuare a fare lo stesso anche sulle prossime console, e perché gli altri sviluppatori non possano fare altrettanto...
Mah. Roba del genere andrebbe meglio integrata in una GPU.
Comunque parleremmo in ogni caso di coprocessori / unità di elaborazione dedicata: roba che è già dentro le CPU (ma NON dentro i core) da un bel pezzo.
Vedi sopra.
Poi è chiaro che i core in più possono essere usati anche per scaricare un po' di lavoro alla GPU, se fosse necessario (com'è stato fatto nella PS3, che era dotata di una GPU abbastanza scarsa rispetto alla concorrenza).
Anzi, roba del genere è di gran lunga più semplice da realizzare lato CPU rispetto alla GPU.
Tranquillo che i core in più verranno sfruttati. Tempo permettendo.
No, guarda che ha perfettamente ragione: a frequenze più basse i consumi sono nettamente minori.
Se non ricordo male la potenza scala linearmente con la frequenza, mentre scala col quadrato rispetto alla tensione.
Quindi in teoria l'aumento o la diminuzione della frequenza inciderebbe proporzionalmente. In realtà più aumenti la frequenza e più serve aumentare la tensione affinché il chip possa funzionare a quella frequenza. E quindi i consumi esplodono.
Ecco perché chip con molti più core, ma a frequenze più basse, consumano di gran lunga meno rispetto a chip con pochi core ma che lavorano a frequenze più elevate. Ovviamente a parità di prestazioni.
La corsa alle frequenze ha avuto uno stop ai primi anni del millennio, e non a caso. Da allora si è dovuto, purtroppo, cominciare a scalare sui core per salire con le prestazioni. E non ci si può fare niente.
Chi lo fa invece non fa altro che distribuire il numero di threads più omogeneamente sul numero di cores a disposizione senza tener conto del differente carico di ogni cores. E' il rendering infatti da cui deriva il maggior carico ed è sempre definito in un thread unico sulla totalità dei giochi o quasi, quindi si finisce per avere 1-2 cores carichi e i restanti a carico lieve o moderato.
Un ottimizzazione ideale dovrebbe invece prevedere la divisione dell'area di rendering a seconda dei cores a disposizione e del loro carico in quello specifico scenario, e cumulare i restanti threads.
Roba che, comunque, si è sempre fatto diciamo fino all'epoca di PS2 et similia, perché già con la generazione di XBox360 & co. i produttori di console hanno cominciato a tirare i remi in barca.
Questo avrebbe ancora più senso con 16 thread a disposizione.
Chi lo fa invece non fa altro che distribuire il numero di threads più omogeneamente sul numero di cores a disposizione senza tener conto del differente carico di ogni cores. E' il rendering infatti da cui deriva il maggior carico ed è sempre definito in un thread unico sulla totalità dei giochi o quasi, quindi si finisce per avere 1-2 cores carichi e i restanti a carico lieve o moderato.
Un ottimizzazione ideale dovrebbe invece prevedere la divisione dell'area di rendering a seconda dei cores a disposizione e del loro carico in quello specifico scenario, e cumulare i restanti threads.
Ma sei sicuro che fanno così nei videogiochi moderni? Mi sembrerebbe più intelligente suddividere il lavoro in un numero relativamente elevato di "task" da dare in pasto ad un thread pool. Ovviamente ho semplificato parecchio, ma non mi sembra una cosa impossibile.
In ogni caso i motori grafici più utilizzati si contano sulle dita di una mano, quindi una volta che vengono adattati quelli ne beneficiano automaticamente il 90% del giochi.
Ma infatti ho parlato, non a caso, di giochi moderni. E' quello che mi aspetto ormai, e ciò che riscontro (non io, che non gioco da anni ormai, ma quando installo dei giochi ai miei figli sul loro PC Skylake i3 con scheda grafica integrata).
Un ottimizzazione ideale dovrebbe invece prevedere la divisione dell'area di rendering a seconda dei cores a disposizione e del loro carico in quello specifico scenario, e cumulare i restanti threads.
Infatti non funziona così. Vedi sotto.
Mi pare ovvio, ma:
1) non sovradimensionarlo lo farebbe diventare obsoleto molto più velocemente;
2) ormai le console (aka PC) ci hanno abituato a un refresh a metà del loro arco di vita.
Questo avrebbe ancora più senso con 16 thread a disposizione.
Sì, è fattibile, e rientra in ciò a cui mi riferivo (ma il concetto era più generico e ampio) quando ho parlato dei vantaggi di poter spalmare task su più core (che comporta, per l'appunto, un miglioramento delle latenze delle operazioni).
In ogni caso i motori grafici più utilizzati si contano sulle dita di una mano, quindi una volta che vengono adattati quelli ne beneficiano automaticamente il 90% del giochi.
Infatti è così che si fa. Basti vedere il link di cui sopra in cui i Naughty Dog mostrano come hanno spremuto per bene i tanti core a disposizione.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".