Ubisoft: l'obiettivo è avere i 60 fps su PC per The Crew

Ubisoft interviene sul dibattito sulle prestazioni del suo nuovo gioco di guida su mondo persistente online, dopo che si era diffusa la voce che sarebbe stato bloccato a 30 fps su PC.
di Rosario Grasso pubblicata il 27 Agosto 2014, alle 11:01 nel canale VideogamesUbisoft
47 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoLe cpu multi core da quanto ci sono? Sono sfruttate? Mah
Come ottimizzazione le console hanno ancora la loro. Poi calcola che sono uscite da poco. Due o tre anni ci sono sempre voluti.
Questa degli FPS è una di quelle cose che la gente stenta a capire del tutto, il problema maggiore per l'occhio umano è lo sbalzo e la variazione di framerate.
Se tu di picco hai 200fps ma poi in alcuni tratti scendi a 30, è una cosa che l'occhio percepisce maggiormente rispetto ad avere 30fps costanti.
Nessuno si è mai lamentato del framerate dei film (PAL 25fps)..
Come ti ha già spiegato qualcuno, nei film i 24fps funzionano per tutta una serie di ragioni, tra cui la shutter speed usata in fase di ripresa, perché il video venga poi riprodotto correttamente .. e son stati scelti non perché sia il limite oltre il quale l'occhio umano non vede più la differenza (non so come questa leggenda metropolitana continui a sopravvivere e prosperare ancora nel 2014).. ma esattamente per il motivo opposto: ovverosia che SOTTO quella soglia (i 24fps) l'occhio umano medio non percepisce più la successione di immagini come un filmato.. ma inizia a vedere le singole fotografie che la compongono. Per cui, visti i limiti tecnologici dell'epoca, venne fissata questa soglia MINIMA.. che tutto è tranne che ottimale, e che è perdurata fino ai giorni nostri ma che inizia ad essere limitante (oggi in digitale nessuno gira più a 24 FPS, infatti)
Sul pc le differenze si vedono eccome tra i 30 e i 60 fps.. un gioco a 30 fps tutto risulta tranne che fluido, pure se i 30 fps fossero assolutamente costanti.
A 60 fps la fluidità inizia ad essere accettabile.. ma chi ha avuto un buon monitor CRT in passato (di quelli a 100 hz o più
O si ha un sistema che permette 60 fissi o meglio tenerlo spento.
Il Vsync non è stato inventato per aumentare la fluidità dei fotogrammi ma per ridurre un altro problema del rendering realtime su PC: il tearing.
Il dispositivo di visualizzazione (monitor) ha una certa frequenza di lavoro, espressa in hertz, che determina il tempo che il dispositivo impiega a costruire una singola immagine. In genere nei monitor LCD "normali" è 60hz, che significa che in un secondo l'immagine su schermo sarà "rinfrescata" 60 volte, ovverosia una volta ogni 1/60 di secondo.
Se la scheda video del PC (nel caso "ottimale", in cui la CPU non fa da collo di bottiglia) genera le immagini con una frequenza diversa da quella del dispositivo di visualizzazione e ad esso non è sincronizzata, alcuni "quadri" (immagine visualizzata sul monitor) saranno composti da pezzi di fotogrammi consecutivi , saranno insomma "tagliati in due" (o più parti), con visualizzato un pezzo del fotogramma precedente e un pezzo di quello successivo.
Il Vsync è stato inventato per sincronizzare ciò che esce renderizzato dalla scheda video con la frequenza usata del dispositivo di visualizzazione ed evitare dunque la visualizzazione di questi "quadri" spezzati in due o più parti ..
e funziona bene (a livello di fluidità
Se però la capacità di rendering della GPU non è costante e scende spesso sotto il numero di HZ del dispositivo di visualizzazione.. ecco che iniziano altri problemi .. tra cui quello odioso del famigerato stuttering.
Comunque il Vsync, tecnicamente, non "scala" niente.. non fa altro che sincronizzare il numero di quadri generati dalla GPU con quelli visualizzati dal dispositivo (monitor).. per potergli "servire" (se è pronta, altrimenti permane il fotogramma precedente) un'immagine completa renderizzata dalla gpu ogni 1/HZ di secondo.
Non è tecnicamente esatto: il Vsync è semplicemente la SINCRONIZZAZIONE del numero di fotogrammi generati dalla GPU con la frequenza di lavoro del dispositivo di visualizzazione.
Le cpu multi core da quanto ci sono? Sono sfruttate? Mah
Come ottimizzazione le console hanno ancora la loro. Poi calcola che sono uscite da poco. Due o tre anni ci sono sempre voluti.
Si certo come no, ma fra 2 - 3 anni i giochi saranno anche più pesanti.
Se le cose gli andranno bene manterranno questo attuale standard di qualità anche con i titoli next gen e basta.
Dopo diventeranno obsolete come sempre e si tirerà avanti così ancora per mezzo decennio almeno.
non credo; attivando il vsync, il carico della scheda video si riduce un po' , e la riduzione di carcio/potenza assorbita e' piu' elevata per i vecchi giochi.
E' probabile che quando si terminato il rendering del prossimo frame da visualizzare, la gpu venga messa in attesa finche' tale frame non viene utilizzato.
Tronando in topic; bloccare il framerate sarebbe un bel problema per chi gioca in 3d; per avere 60fps per occhio il mio pc deve renderizzarne 120 al secondo (la posizione della camera viene spostata alternativamente ad ogni frame renderizzato) , bloccarlo a 30 per me significherebbe giocare a 15.
Se le cose gli andranno bene manterranno questo attuale standard di qualità anche con i titoli next gen e basta.
Dopo diventeranno obsolete come sempre e si tirerà avanti così ancora per mezzo decennio almeno.
Si infatti nelle previous gen sono obsoleti i giochi dell' ultima serie.
Se azzeccassi almeno una previsione...
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".