Ubisoft: l'obiettivo è avere i 60 fps su PC per The Crew

Ubisoft: l'obiettivo è avere i 60 fps su PC per The Crew

Ubisoft interviene sul dibattito sulle prestazioni del suo nuovo gioco di guida su mondo persistente online, dopo che si era diffusa la voce che sarebbe stato bloccato a 30 fps su PC.

di pubblicata il , alle 11:01 nel canale Videogames
Ubisoft
 
47 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
PaulGuru27 Agosto 2014, 11:56 #11
Originariamente inviato da: Bivvoz
Avevo capito anche io così, ma non ne comprendevo il senso... cioè se non hai un hw fisso non puoi garantire 60fps, su cosa lo garantivano su un i3 con la grafica integrata o su un i7 con una vga da 500 euro?

Un generico PC di fascia alta ......, giusto anche per avere un riferimento indicativo per noi, come fecero con Crysis 2.
Ma a quanto pare Ubisoft è sempre Ubisoft, pensavo fosse la volta buona che si smentissero e invece si fan sempre riconoscere.
WarDuck27 Agosto 2014, 12:00 #12
Originariamente inviato da: Dave83
Guarda, ho giocato per anni a un gioco dove avevo anche 200+ FPS e credimi che la differenza tra 30 FPS fissi e 60 FPS fissi, in certi tipi di gioco, è lampante.
Se poi mi paragoni ancora gli FPS dei film con quelli dei videogames proprio non ci siamo!


Invece sono la stessa identica cosa (Framerate Per Second).

La differenza sostanziale è che nel caso dei film leggi da una traccia già generata. Esattamente come nei film di animazione il rendering è già stato fatto (o vedi scattare Cars? ).

Nel caso del game hai l'interazione ed il fatto che il rendering viene compiuto in tempo reale, con tutte le problematiche del caso.

Puoi ad esempio giocare più volte lo stesso gioco, ma le scene di cui fare il render difficilmente saranno esattamente uguali alla volta precedente (illuminazione, posizione della camera del giocatore...).

Ci sono una serie di variabili in più che rendono il rendering in tempo reale non banale.

Proprio queste variabili influenzano il framerate, se la scena fosse sempre esattamente la stessa sapresti che con quella macchina e quell'hardware hai quella curva di FPS (con piccole oscillazioni naturalmente).

Tipicamente quello che conta maggiormente negli scenari in tempo reale è il worst case, ovvero il caso peggiore, perché sai che alla peggio avrai quel framerate.

Dopodiché le differenze di cui parli spesso dipendono dal fatto che gli input dell'utente dipendono dalla generazione del frame, e hai l'effetto che a 30fps il giocatore si muova più lentamente rispetto ai 60fps.

E' una cosa che si può notare sui vecchi Counter-Strike ad esempio. A 60fps il mouse era come se laggasse (non la grafica quindi, ma l'input).
gd350turbo27 Agosto 2014, 12:02 #13
Ma se fosse per me, vi do una zappa in mano e se volete mangiare, via a zappare la terra fino a sera !
Altrochè fare giochi !
Buffoni che non siete altro...
60 fps ?
Need for speed rivals è lockato a 30 fps ed usa circa un 20-30% delle risorse del mio pc !
Slockandolo a 75 le tempistiche del gioco vengono sballate e risulta inusabile...
Esempio di programmazione effettuata da un branco di scimmie urlatrici a cui è stata messa una tastiera davanti !

Ma del resto fate bene a fare così, finchè ci sarà una fila enorme di persone che non vede l'ora di darvi dei soldi, tanti soldi, per un gioco che non si sa come sarà e quando uscirà !
-Vale-27 Agosto 2014, 12:05 #14
Originariamente inviato da: Bivvoz
I film hanno il motion blur però... o dico una fesseria? (può essere)




i film è un discorso diverso , nel 90% dei casi quello che vediamo è interlacciato , quindi 50 o 60 semiquadri , senza considerare che le produzioni se girate a 24p devono essere modificate per stare in sincro con standard a 50i o 60i americano (che poi è 59 circa)
Dave8327 Agosto 2014, 12:25 #15
Originariamente inviato da: WarDuck
Invece sono la stessa identica cosa (Framerate Per Second).

La differenza sostanziale è che nel caso dei film leggi da una traccia già generata. Esattamente come nei film di animazione il rendering è già stato fatto (o vedi scattare Cars? ).

Nel caso del game hai l'interazione ed il fatto che il rendering viene compiuto in tempo reale, con tutte le problematiche del caso.

Puoi ad esempio giocare più volte lo stesso gioco, ma le scene di cui fare il render difficilmente saranno esattamente uguali alla volta precedente (illuminazione, posizione della camera del giocatore...).

Ci sono una serie di variabili in più che rendono il rendering in tempo reale non banale.

Proprio queste variabili influenzano il framerate, se la scena fosse sempre esattamente la stessa sapresti che con quella macchina e quell'hardware hai quella curva di FPS (con piccole oscillazioni naturalmente).

Tipicamente quello che conta maggiormente negli scenari in tempo reale è il worst case, ovvero il caso peggiore, perché sai che alla peggio avrai quel framerate.

Dopodiché le differenze di cui parli spesso dipendono dal fatto che gli input dell'utente dipendono dalla generazione del frame, e hai l'effetto che a 30fps il giocatore si muova più lentamente rispetto ai 60fps.

E' una cosa che si può notare sui vecchi Counter-Strike ad esempio. A 60fps il mouse era come se laggasse (non la grafica quindi, ma l'input).


Non hai capito il concetto.
Gli FPS nei film sono generati con un effetto (un utente qui ha detto Motion Blur, non ci metto la mano sul fuoco ma può essere) che rende un FPS di un film molto diverso da uno di un videogioco.
Non me ne intendo di film, ma avevo letto qualcosa a riguardo anni fa quando si discuteva della faccenda, e senza quell'effetto avresti non pochi fastidi a guardare una pellicola a 25FPS.

La differenza tra 30FPS e 60FPS non la noti solo nel lag dell'input, ma anche nel video. Ovviamente se giochi a WOW magari non la noti, ma fidati che in giochi come CS la cosa era evidente.
Ci ho giocato per anni a CS/CSS e fidati che notavi la differenza tra 30 FPS fissi e 60 fissi, anche solo a fare lo spettatore.
Inoltre, notavo la differenza solo in termini di giocabilità tra 60 e 100, ovviamente sempre fissi.

Per quanto riguarda l'effetto di cui parli che sembrava che il mouse laggasse, capitava solo con il vecchio CS1.6 e con FPS > 100, ho giocato per anni con il comando fps_max o max_fps a 100. Da CSS in poi potevi giocare tranquillamente anche a 300FPS

Dimmi che non noti differenze: http://www.30vs60fps.com/
Una vecchia discussione al riguardo: http://forum.multiplayer.it/showthr...-cose-in-chiaro
PaulGuru27 Agosto 2014, 12:50 #16
Originariamente inviato da: WarDuck
Mah, se fossero in grado di garantire la generazione di 30fps COSTANTI (ergo minimi) non ci sarebbero problemi di sorta.

Questa degli FPS è una di quelle cose che la gente stenta a capire del tutto, il problema maggiore per l'occhio umano è lo sbalzo e la variazione di framerate.

Se tu di picco hai 200fps ma poi in alcuni tratti scendi a 30, è una cosa che l'occhio percepisce maggiormente rispetto ad avere 30fps costanti.

Nessuno si è mai lamentato del framerate dei film (PAL 25fps).

La differenza sostanziale rispetto ai film è che nei giochi devi generare la scena in real-time (questo complica le cose, perché naturalmente l'interazione col mondo circostante va messa in conto), quindi dipende tutto dal sistema in uso.

Il punto è che per garantire 30fps costanti devi avere hardware adeguato, ed immagino sia più semplice ottimizzare il gioco per l'architettura di una console (1 gpu).


Eccone un altro della serie "oltre i 30fps è fluido e non noti differenze"
Ma smettiamola di dire cavolate ! E smettiamola di rosikare.

Fra l'altro mantenere i 30fps fissi è facilissimo, devi proprio avere un HW veramente scarso per non farcela, io è da anni che non vedo numeri così bassi a fraps a parte durante i lag.

30fps fissi su PC fanno VOMITARE !
devilred27 Agosto 2014, 12:52 #17
Originariamente inviato da: max8472
Sono d'accordo... il problema è che le console attuali sono x86 e hanno una GPU AMD "graphic core next", alla fine. Voglio dire, il lavoro di ottimizzazione è ben più semplice che per la generazione precedente, eppure vedo, stranamente solo Ubisoft, che hanno problemi Forse che non hanno voglia di sbattersi più di tanto per un branco di pirati (parole loro di qualche tempo fa)?


se non hai voglia di lavorare per il branco di pirati ti togli dai maroni e fai spazio a chi ne ha voglia.
giubox36027 Agosto 2014, 12:56 #18
il problema è che queste nuove console dovevano dare respiro al mondo Pc smettendo di riproporre porting castrati come nella scorsa generazione...ma vedo che la situazione è addirittura peggiorata...basti pensare all'imminente uscita su PC di titoli come dead rising 3 e ryse, che immagino che su pc gireranno con più effetti grafici anche in 4k agilmente per i possessori di schede top come le amd 290 o le gtx 780
niky8927 Agosto 2014, 13:01 #19
Per chi ha citato i film: a me pare la differenza ci sia http://www.red.com/learn/red-101/high-frame-rate-video
xBonus27 Agosto 2014, 13:13 #20
Ragazzi, non so se lo avete capito, ma la differenza principale tra i 24 FPS di un film e i 24 FPS di un videogioco, è che OGNI FRAME DEL FILM DURA 1/24 di secondo. I frames durano tutti lo stesso tempo! Mentre nei frames di un videogioco (o rendering in real time in generale) ogni frame viene generato in un lasso di tempo diverso, è questo che crea una discordanza tra la fluidità di un film e quella di un videogame a pari FPS.

Se per esempio dividessimo 24 frames di un videogame fisso a 24 fps, anche se 23 dei frame vengono generati in (numero a caso) 15 millisecondi, ma l'ultimo viene generato in 30, l'occhio umano avrà una sensazione di stuttering.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^