PlayStation 5 e frequenze variabili, Mark Cerny spiega come funzionano
Nelle scorse settimane Sony ha annunciato che la CPU e la GPU di PS5 funzionano in base a un sistema di frequenze variabili, una novità per l'ambito delle console. Ciò ha sollevato parecchi dubbi e polemiche: il lead system architect Mark Cerny ha spiegato più in profondità come funziona la tecnologia.
di Manolo De Agostini pubblicata il 03 Aprile 2020, alle 08:21 nel canale VideogamesSonyPlaystation
57 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoperchè forse c'è qualcosa di Custom?
Quindi è un epic fail lato tecnico.
Lato commerciale ovviamente venderà anche se le frequenze venissero tagliate della metà.
da tempo immemore le cpu non stanno al max il 100% del tempo.
perchè nelle console moderne è così?
Quello a cui vi riferite voi sono le frequenze di boosting (turboosting o come le volete chiamare), che come giustamente dite sono tenute solo per qualche secondo o frazioni di secondo in determinati frangenti per accelerare certe operazioni. Sony non ha dichiarato quali sono le frequenze di partenza, ma ha solo detto che le frequenze possono arrivare a 3.5 ghz per la cpu e 2.23 ghz per la gpu ed è presumibile che queste siano frequenze di boosting. Per inciso le frequenze di boosting delle schede video odierne con tanto di sistema di dissipazione dedicato, se non erro, non arrivano mai a 2.23 ghz (la RTX 2080 super arriva a 1.8 ghz circa in boosting ma parte da una frequenza di 1.65 ghz) quindi a mio modo di vedere da non esperto totale di hardware, trovo implausibile che quelle frequenze siano raggiunte spesso quando si videogioca, quindi le frequenze saranno per forza di cose inferiori la maggior parte del tempo. Quelle specifiche di Sony sono una stra-mega cazzata ai miei occhi.
EDIT: Anche perchè una RX 5500 XT in boosting ha 1.8 ghz come la RTX 2080 super, ma la prima rispetto alla seconda fa cagare, a dimostrazione che questo dato è da prendere con le pinze ed i guanti.
Ovviamente non è "gratuito", per farlo c'è un investimento in progettazione e l'uso di una parte della superficie del die per logica di controllo e sensori.
Se l'hanno fatto hanno probabilmente pensato che potesse avere una miglior efficacia rispetto alle frequenze fisse. E non si tratta certo di qualcosa tirato fuori dopo aver conosciuto i numeri della XboX, un sistema del genere è pensato dall'inizio, quando si progetta il chip.
Questa cosa non la comprendo. Se un software utilizza per una certa percentuale la cpu e per un'altra percentuale la gpu cosa devi bilanciare? Il software (in questo caso il videogioco) utilizzerà le risorse di cui ha bisogno sfruttando di più la cpu o la gpu, le frequenze salgono ed aumentano le temperature. Se riesci a dissipare il calore che si viene a creare riuscendo a mantenerti in un range di frequenze elevate, evitando la protezione termica, le prestazioni migliorano, se sei costretto ad abbassare le frequenze le prestazioni si degradano (come avviene nell'esempio che ho fatto sui notebook che condividono con le console spazi angusti). L'inghippo qui è il fatto che come ho detto, Sony ha comunicato molto probabilmente le frequenze di boosting, andando poi a fare un discorso sulle frequenze variabili che a me convince poco.
Magari sbaglio io e non ho capito come questo sistema possa essere un vantaggio per le prestazioni nei videogiochi.
In base a quel che è scritto nell'articolo, in condizioni normali la consolle dovrebbe essere in grado di tenere le frequenze massime o frequenze non molto lontane da queste.
Ovviamente la veridicità di queste affermazioni la potremo constatare in seguito.
Per quanto riguarda il passaggio che dici di non capire, provo a farti un esempio terra terra.
Poniamo che un certo gioco debba renderizzare una scena particolarmente complessa in cui c'è un uso molto elevato della CPU (per fisica, IA, ecc...). Lo sviluppatore si rende conto che il collo di bottiglia è la CPU e decide di dare tutto il budget termico a questa, riducendo la frequenza della GPU ma ottenendo un frame-rate più elevato.
Ovviamente è possibile anche il contrario: in scene in cui la CPU è sottoutilizzata posso usare parte del suo budget termico per far funzionare la GPU sempre alla massima frequenza.
Con frequenze fisse questo non sarebbe possibile.
Insomma, la coperta è corta e questo è un tentativo di allungarla un po'.
Con frequenze fisse questo non sarebbe possibile.
Insomma, la coperta è corta e questo è un tentativo di allungarla un po'.
In base a quel che è scritto nell'articolo, in condizioni normali la consolle dovrebbe essere in grado di tenere le frequenze massime o frequenze non molto lontane da queste.
Ovviamente la veridicità di queste affermazioni la potremo constatare in seguito.
Per quanto riguarda il passaggio che dici di non capire, provo a farti un esempio terra terra.
Poniamo che un certo gioco debba renderizzare una scena particolarmente complessa in cui c'è un uso molto elevato della CPU (per fisica, IA, ecc...). Lo sviluppatore si rende conto che il collo di bottiglia è la CPU e decide di dare tutto il budget termico a questa, riducendo la frequenza della GPU ma ottenendo un frame-rate più elevato.
Ovviamente è possibile anche il contrario: in scene in cui la CPU è sottoutilizzata posso usare parte del suo budget termico per far funzionare la GPU sempre alla massima frequenza.
Con frequenze fisse questo non sarebbe possibile.
Insomma, la coperta è corta e questo è un tentativo di allungarla un po'.
Ma guarda che non funziona cosi, secondo quello che è la mia conoscenza dell'argomento. Anche se hai uno scenario che utilizza di più la gpu se abbassi le frequenze della cpu avrai comunque un calo delle performance. Ciò spiega perchè un Razer Blade pro 17 con un i7 9750h e RTX 2070 Max-Q si comporta meglio rispetto ad un Asus Scar III con i7 9750h e RTX 2070 sulla carta migliore. Vedere per credere queste video analisi:
Razer Blade pro 17: https://www.youtube.com/watch?v=X2ALQIfWdhE
Asus Scar III: https://www.youtube.com/watch?v=G5nZuMj3ey0
Il secondo abbassa le frequenze (nemmeno con Undervolt e cooling pad arriva alle frequenze dell i7 presente nel Razer Blade) con la conseguenza che perde il confronto con il primo che invece mantiene le frequenze elevate e quindi performance migliori, nonostante dovrebbe stare dietro sulla carta (nel video del razer blade a partire dal minuto 15:00 vedi il confronto sulle performance tra i 2 ed altri laptop con specifiche simili). E' per questo che a mio modo di vedere "bilanciare" o "aggiustare le coperte" non ha molto senso.
Attenzione che c'è una grande differenza tra la situazione che descrivi e quella di cui stiamo parlando: tu parli di macchine che tagliano le frequenze in base all'utilizzo, per la PS5 invece si parla di dare la possibilità agli sviluppatori, quando adattano un gioco su questa consolle, di decidere come distribuire questo budget di potenza in base alle esigenze.
Ho capito, ma rimane il fatto che abbassare le frequenze porta svantaggi, non vantaggi. Ci sono videogiochi che sfruttano più la cpu, ma comunque è controproducente abbassare le frequenze della gpu o viceversa.
https://www.notebookcheck.net/A-per...s.286486.0.html
per la cronaca non si puo' giocare di undervolt con una console perchè ogni chip è storia a sè. Servono voltaggi e frequenze massime costanti e un sistema di dissipazione dimensionato per supportare tali valori a tempo indeterminato. Fine.
Esatto. Tral'altro Sony deve ancora spiegarci come intende dissipare tutto il calore che si verrà a produrre. Come ho detto le frequenze che Sony dichiara per la gpu sono cosi alte che nessuna scheda video moderna le raggiunge e stiamo parlando di modelli con dissipazione spesso con 2 o 3 ventole e vapor chamber. Questo a meno che non siano frequenze di boosting e quindi fuffa se non in casi specifici.
Ma qui non si tratta solo di abbassare, ma di scegliere cosa abbassare e come. Lo sviluppatore può scegliere tra i due mali quello minore, in base alla specifica situazione.
Che sia un vantaggio mi pare evidente, quale sia la portata di questo vantaggio è naturalmente da verificare, ma dubito che abbiano investito tempo e silicio su una cosa che non ha alcuna utilità reale.
Se queste frequenze sono così alte credo lo potremmo giudicare con l'uscita delle nuove schede per PC che useranno la stessa architettura e lo stesso processo produttivo. Farlo ora direi che è prematuro.
Ad ogni modo non credo che Sony si sentirà tenuta a spiegare alcunché, a meno che ovviamente non ne tragga un vantaggio di marketing (vedi i nuovi portatili da gioco asus pubblicizzati per l'uso del "liquid metal"... se hai la soluzione di qualità la pubblicizzi!).
Così è volere la botte piena e la moglie ubriaca.
Vuoi le frequenze costanti? Ok, è la scelta che hanno fatto con XboX, sicuramente è più semplice da implementare e forse richiede meno lavoro per chi sviluppa.
Vuoi frequenze più alte? Beh, la coperta è corta, se vuoi raggiungere certe frequenze devi magari dall'altra parte sacrificare qualcosa.
Che sia un vantaggio mi pare evidente, quale sia la portata di questo vantaggio è naturalmente da verificare, ma dubito che abbiano investito tempo e silicio su una cosa che non ha alcuna utilità reale.
Allora mettiamoci nei panni di questi sviluppatori. Mettiamo caso ho un videogioco "gpu heavy" che necessita la gpu alle frequenze massime di 2.23 ghz (ammesso che sia possibile utilizzarle per lunghi periodi) e che sia costretto ad abbassare le frequenze della cpu... A me sembra uno scenario terribilmente simile ai casi in cui si verifica il thermal throttling (vedi esempi fatti in precedenza). Io vantaggi non ne vedo se non uno sbattimento in più per gli sviluppatori. Tral'altro se scrivo un software ci saranno parti di esso che impegneranno di più la gpu, altre più la cpu... Ho già il controllo delle risorse disponibili. A me sembra, purtroppo che questa soluzione sia stata adottata più che per ipotetici vantaggi nei videogiochi, per problemi termici e di fatto son stati vaghi su questo ambito ed anche sul form factor della console e tante altre cose. Se non volevano creare il dubbio ed essere chiari, perchè non mostrare la loro soluzione ma solo supercazzole su frequenze variabili e SSD sulla carta interessante, ma con ancora tutto da dimostrare?
Ad ogni modo non credo che Sony si sentirà tenuta a spiegare alcunché, a meno che ovviamente non ne tragga un vantaggio di marketing (vedi i nuovi portatili da gioco asus pubblicizzati per l'uso del "liquid metal"... se hai la soluzione di qualità la pubblicizzi!).
Microsoft e Sony utilizzano entrambe l'architettura RDNA 2, eppure la prima presenta una architettura con più cu (52) e frequenze inferiori, mentre la seconda con meno cu (36) e frequenze in teoria più alte. E' un pò come dire che una 2060 overcloccata va come una 2080 ti (o scegli le varianti AMD che più ti aggradano), cosa ovviamente non vera come non è vero che una RX 5500 XT con un boost clock di 1845 mhz vada quanto una RX 5600 XT con boost clock di soli 1560 mhz... E' chiaro che se sali con le frequenze devi poi stare attento alle temperature, ma su come Sony vuole curare questo aspetto non sappiamo nulla, ne se il form factor permetta un riciclo dell'aria ottimale.
Quelle sono schede video con dissipazione dedicata, le versioni console saranno più simili alle rispettive versioni mobile delle gpu per notebook e quindi saranno soggette a spazi angusti e probabili temperature elevate se non tenute sotto controllo. Sono proprio curioso di vedere la soluzione proposta da Sony e se questi famigerati 2.23 ghz serviranno a qualcosa o sono solo un palliattivo per non sfigurare nei confronti della concorrenza (tral'altro missione non compiuta perchè ha sfigurato lo stesso).
Ai posteri l'ardua sentenza.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".