Insomniac Games e l'inutilità dei 60fps

Ratchet & Clank: A Spasso nel Tempo sarà probabilmente l'ultimo gioco di Insomniac con questo frame rate.
di Rosario Grasso pubblicata il 30 Ottobre 2009, alle 14:30 nel canale VideogamesRatchet & Clank: A Spasso nel Tempo sarà probabilmente l'ultimo gioco di Insomniac con questo frame rate.
di Rosario Grasso pubblicata il 30 Ottobre 2009, alle 14:30 nel canale Videogames
188 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoInnanzitutto distinguiamo i due scenari:
1) CINEMA.
I film realizzati con dispositivi di acquisizione analogica (telecamere non digitali) sono caratterizzati da un motion blur naturale causato dall'impressione di uno stesso fotogramma con più immagini reali aventi una frequenza maggiore della capacità d'acquisizione della telecamera (25fps). Ad esempio, se con una vecchia telecamera analogica riprendo il passaggio di un'auto, e poi andassi a vedere i singoli fotogrammi, vedrei delle singole immagini sfocate (sfocatura ad effetto vento), ma rivedendo a 25fps tutta la sequenza, la vedrei nitida e fluida, come se il framerate fosse doppio.
I film realizzati con dispositivi di acquisizione "digitale" a 25fps, spesso si vedono scattare nelle sequenze veloci, perché non c'è più il motion blur naturale. La soluzione sarebbe quella di acquisire a 50fps e, tramite un apposito algoritmo, interpolare due fotogrammi in modo da ottenerne uno con motion blur artificiale ed un fps ridotto a 25fps, più economico da trasmettere. Non so se esistono telecamere digitali che facciano anche questo. Fatto sta che molti nuovi film e telefilm spesso li vedo scattare nelle scene concitate.
2) VIDEOGIOCO.
Nel videogioco il motion blur normalmente non è presente, quindi l'utente riesce a notare la mancanza di qualcosa fra un frame e l'altro a 30fps, ma solo nelle scene più veloci, ovviamente, tipo rotazioni rapide della visuale in uno sparatutto. A 60fps il motion blur non è necessario, in quanto le immagini scorrono con una velocità paragonabile alla frequenza con cui l'occhio riesce a percepire.
Fatto?
Bene, chi di voi riesce a vedere il nero inter frame?
Nessuno. (Se qualcuno ci riesce batte i colibrì e le mosche).
Ma guarda che non c'è nessuno inter-frame nero.
Il fotogramma persiste fino a che non è il momento di cambiarlo.
Quello succedeva nelle prime pellicole, e il fotogramma nero si notava; anche se ovviamente non vedevi il nero completo.
Attenzione, la retina è abbastanza "lenta" a [U]cancellare[/U] le immagini, ma NON a imprimerle. Per questo direi che basta a presentargliele che sono subito impresse!
Quindi il framerate più è alto, e più è vicino alla realtà; non c'è niente da fare.
Poi ovvio, ci sarà il limite oltre il quale nessuno riesce a vedere oltre... e non sò quale sia. E in effetti questo valore dipende dalla scena.
Ma io penso che il framerate deve essere sempre il più alto possibile. Dire che "bastano tot FPS", è solo un modo di semplificare e risparmiare potenza di calcolo; ma di certo non giova alla realisticità.
Di certo, io penso che con il tipo di scene che oggi troviamo in molti giochi, ma anche molti film, 30 FPS non bastano assolutamente.
Tornando un attimo al discorso dell'immagine che permane nella retina, se ci pensate 1 attimo, si forma un blur-motion; e quindi torniamo a bomba.
Quello che dico io, è che preferisco che questo si crei nella retina (perchè così è abituato il cervello con la realtà
Se provate a passare la mano moolto velocemente davanti ai vostri occhi, mica la vedete a scatti; questo nonostante che l'occhio/cervello veda un numero limitato di FPS.
Semmai la vedete "mossa", "sdoppiata". In pratica con l'effetto blur.
Inoltre poi se parliamo di videogiochi, il blur-motion nemmeno c'è perchè oltre che appesantire i calcoli, introdurrebbe un inevitabile latenza (dato che è un effetto di post-produzione e non può essere calcolato in parallelo al resto della grafica 3D).
Ho detto la mia, anche se qualcuno già l'aveva spiegato, forse anche meglio... ma forse un altro tipo di spiegazione può essere utile.
Ma quindi questa Insomniac, che poi non ho mai sentito
No nn sbagli, meglio togliere quelle porcherie digitali...la mia tv x esempio lo disabilita in automatico. Cmq esistono anche monitor lcd che accettano segnali 120hz nativi...
Innanzitutto distinguiamo i due scenari:
1) CINEMA.
I film realizzati con dispositivi di acquisizione analogica (telecamere non digitali) sono caratterizzati da un motion blur naturale causato dall'impressione di uno stesso fotogramma con più immagini reali aventi una frequenza maggiore della capacità d'acquisizione della telecamera (25fps). Ad esempio, se con una vecchia telecamera analogica riprendo il passaggio di un'auto, e poi andassi a vedere i singoli fotogrammi, vedrei delle singole immagini sfocate (sfocatura ad effetto vento), ma rivedendo a 25fps tutta la sequenza, la vedrei nitida e fluida, come se il framerate fosse doppio.
I film realizzati con dispositivi di acquisizione "digitale" a 25fps, spesso si vedono scattare nelle sequenze veloci, perché non c'è più il motion blur naturale. La soluzione sarebbe quella di acquisire a 50fps e, tramite un apposito algoritmo, interpolare due fotogrammi in modo da ottenerne uno con motion blur artificiale ed un fps ridotto a 25fps, più economico da trasmettere. Non so se esistono telecamere digitali che facciano anche questo. Fatto sta che molti nuovi film e telefilm spesso li vedo scattare nelle scene concitate.
2) VIDEOGIOCO.
Nel videogioco il motion blur normalmente non è presente, quindi l'utente riesce a notare la mancanza di qualcosa fra un frame e l'altro a 30fps, ma solo nelle scene più veloci, ovviamente, tipo rotazioni rapide della visuale in uno sparatutto. A 60fps il motion blur non è necessario, in quanto le immagini scorrono con una velocità paragonabile alla frequenza con cui l'occhio riesce a percepire.
quoto la parte del cinema, infatti i blue-ray girati a 24fps scattano nelle scene veloci, e panoramicie...
...meno invece la parte dei videogiochi. Primo xké ormai il motion blur è disponibile come opzione in molti giochi, poi xké i rallentamenti si notano anche nelle scene lente.
Ciao
C'è gente che lavora nel campo, gioca con il pc da più di 10 anni, ha studiato biologia e fisica all'univerisità.
Spiegare perchè l'occhio umano non percepisce più di 30 fps non è certo una cosa da niente, che si può sintetizzare in poche righe, sopratutto considerando poi che non tutti partono dalle medesime basi di conoscenza della biologia dell'occhio e della fisica.
La cosa è resa ancora più difficile se degli "pseudoprogamer" ti danno contro pretendendo di avere ragione!
Forse hai più non è ancora chiara la differenza fra "framerate percepiti" e "percezione dell'accelerazione e del rallentamento delle scene" nei videogames, dovuto a un aumento e a un calo del framerate.. se i giochi fossero come le pellicole con un frame costante tutta questa discussione dei 120 fps non sussisterebbe!
Ti sbagli di grosso: un frame rate BASSO ma costante NON GARANTISCE assolutamente dall'assenza di scattosità.
L'errore tuo e di tanti "scienziati" qui è parlare (appunto) di biologia, fisiologia, fisica.. belle ed utili scienze ma che nell'analisi del framerate dei videogiochi non c'entrano granchè.
Qui al massimo conterebbe saperne di strumenti ottici come telecamere e cineprese ed avere una discreta conoscenza del funzionamento dei monitor e di altri dispositivi video.
Al di là della biologia e del funzionamento dell'occhio e dei cavolo di frame che l'occhio può o meno percepire (elemento del tutto irrilevante) e semplificando all'osso (visto che le variabili in gioco sono tantissime) se tra la periferica di visualizzazione e il materiale visualizzato ad un determinato numero di frames al secondo c'è una mancanza di sincronia (traduzione: sono serviti dal pc meno frames di quanti la periferica di visualizzazione ne visualizza nell'unità di tempo) il filmato scatta (stuttering) o è affetto da tearing (ovverosia sono visualizzate aree di un'altro frame sovrapposte al frame corrente).
Un'altra leggenda metropolitana da sfatare è citare il cinema e i suoi 24 fps come esempio di quanto sia vero il discorso che "oltre quel numero non serve a niente!"
Anche questo argomento è stato trattato un milione di volte; l'ho provato a spiegare in tutte le maniere: ANCHE IL CINEMA ha i problemi di potenziale SCATTOSITA' DELL'IMMAGINE legati al basso framerate.
Si sappia infatti che un'operatore cinematografico esperto quando fa le riprese è consapevole di doversi attenere a certe regole, perchè se, tanto per fare un esempio, egli facesse un "panning" troppo veloce con un "tempo" molto basso (tradotto: assenza di blurring ottico nella sequenza) il video risulterebbe scattoso e inguardabile anche se girato con una cinepresa da più di 100mila dollari.
A 24 fps i film sono fluidi perchè girati con regole ferree e con la consapevolezza dei limiti fisici degli strumenti ottici e dei dispositivi di riproduzione video.
Ed è per queste ragioni che non si vedrà mai, in un film, una scena movimentatissima e veloce perfettamente a fuoco.. ed è per tutto questo che un videogioco, che il blurring non ce l'ha, risulterà scattoso anche a frame rate più che doppi rispetto al cinema nelle situazioni in cui si fanno movimenti molto rapidi (perchè si va "fuori sincrono" con la periferica di visualizzazione).
Inoltre si tenga presente che spesso è IL MONITOR LCD l'elemento della catena che, introducendo del blurring a causa delle intrinsece limitazioni tecniche, smorza un pò - entro certi limiti - l'eventuale scattosità presente: ma guardate il tutto su un CRT a 100 hz e persino un cieco si accorgerebbe che tra 100 fps e 50 c'è un'abisso di differenza.
PS: C'è da dire comunque che, nozioni tecniche a parte, chiunque giochi agli FPS con un monitor DEGNO DI TALE NOME sa PER ESPERIENZA DIRETTA che tra 100 fps e 40-50 fps c'è una ENORME differenza nella fluidità delle immagini (non parliamo di 30 o meno dove i giochi hanno tearing e stuttering a nastro)..
L'errore tuo e di tanti "scienziati" qui è parlare (appunto) di biologia, fisiologia, fisica.. belle ed utili scienze ma che nell'analisi del framerate dei videogiochi non c'entrano granchè.
Qui al massimo conterebbe saperne di strumenti ottici come telecamere e cineprese ed avere una discreta conoscenza del funzionamento dei monitor e di altri dispositivi video.
Al di là della biologia e del funzionamento dell'occhio e dei cavolo di frame che l'occhio può o meno percepire (elemento del tutto irrilevante) e semplificando all'osso (visto che le variabili in gioco sono tantissime) se tra la periferica di visualizzazione e il materiale visualizzato ad un determinato numero di frames al secondo c'è una mancanza di sincronia (traduzione: sono serviti dal pc meno frames di quanti la periferica di visualizzazione ne visualizza nell'unità di tempo) il filmato scatta (stuttering) o è affetto da tearing (ovverosia sono visualizzate aree di un'altro frame sovrapposte al frame corrente).
Un'altra leggenda metropolitana da sfatare è citare il cinema e i suoi 24 fps come esempio di quanto sia vero il discorso che "oltre quel numero non serve a niente!"
Anche questo argomento è stato trattato un milione di volte; l'ho provato a spiegare in tutte le maniere: ANCHE IL CINEMA ha i problemi di potenziale SCATTOSITA' DELL'IMMAGINE legati al basso framerate.
Si sappia infatti che un'operatore cinematografico esperto quando fa le riprese è consapevole di doversi attenere a certe regole, perchè se, tanto per fare un esempio, egli facesse un "panning" troppo veloce con un "tempo" molto basso (tradotto: assenza di blurring ottico nella sequenza) il video risulterebbe scattoso e inguardabile anche se girato con una cinepresa da più di 100mila dollari.
A 24 fps i film sono fluidi perchè girati con regole ferree e con la consapevolezza dei limiti fisici degli strumenti ottici e dei dispositivi di riproduzione video.
Ed è per queste ragioni che non si vedrà mai, in un film, una scena movimentatissima e veloce perfettamente a fuoco.. ed è per tutto questo che un videogioco, che il blurring non ce l'ha, risulterà scattoso anche a frame rate più che doppi rispetto al cinema nelle situazioni in cui si fanno movimenti molto rapidi (perchè si va "fuori sincrono" con la periferica di visualizzazione).
Inoltre si tenga presente che spesso è IL MONITOR LCD l'elemento della catena che, introducendo del blurring a causa delle intrinsece limitazioni tecniche, smorza un pò - entro certi limiti - l'eventuale scattosità presente: ma guardate il tutto su un CRT a 100 hz e persino un cieco si accorgerebbe che tra 100 fps e 50 c'è un'abisso di differenza.
PS: C'è da dire comunque che, nozioni tecniche a parte, chiunque giochi agli FPS con un monitor DEGNO DI TALE NOME sa PER ESPERIENZA DIRETTA che tra 100 fps e 40-50 fps c'è una ENORME differenza nella fluidità delle immagini (non parliamo di 30 o meno dove i giochi hanno tearing e stuttering a nastro)..
Se usi un monitor a 60Hz (ed i veri esperti ti spiegheranno che gli Hz sono sinonimo di qualità solo nei foglietti dei negozi che vendono tv) non puoi accorgerti di alcuna differenza sopra i 60fps, semplicemente perchè lo schermo mostrerà soltanto 60 frame dei 100 prodotti.
Non si possono paragonare video precalcolati e prerenderizzati come i films, dove non c'è un imput attivo, con un videogame che prevede molti input contemporanei e quindi è costretto a basarsi su quest'ultimi per renderizzare una scena che per forza di cose varierà al variare degli imput.
Detto questo ci si rende conto che se non ci fosse un imput variabile attivo come l'uomo un qualsiasi video o gioco non avrebbe un riferimento oggettivo poichè il primo elemento, l'imput, noi, è mancante. Per questo un film ( dove manca l'imput e il successivo output atteso) non cambia tra 30 e 60 e viceversa. Ovviamente per il gioco abbiamo abbandanti imput da considerare.
Quindi la "fluidità percepita" del gioco deve essere direttamente proporzionale alla velocità con cui noi mandiamo vari imput, per esempio la velocità con cui cambiamo inquadratura con il mouse in un FPS. A questo punto ci rendiamo conto che non stiamo più parlando di fluidità ma di reattività del gioco, quindi al cambio del grandezza fisica che consideriamo, la reattività, cambia eccome alzare gli fps in output, poichè avviciniamo sempre di più allo zero il tempo che intercorre tra imput e output.
Questo per spiegare che in realtà la percezione 60 30 non ha nulla a che vedere con le capacità fisiologiche dell'occhi umano, ma con il sistema di riferimento che si utilizza per valutare un determinato output.
Spero di essere stato chiaro
a parte che iNput si scrive con la N.. il tuo discorso è sostanzialmente corretto: il gioco inizia a "scattare" quando il pc non riesce più a fornire al dispositivo di visualizzazione un numero di frames sufficienti a coprire l'entità del movimento che si compie..
E' questo il motivo per cui il discorso di chi dice che 30 FPS costanti non danno scattosità è falso: se sto fermo immobile sono strasufficienti.. ma se giro la testa o muovo due passi ad un certo punto l'immagine inevitabilmente scatta (a patto di non avere un acquario come monitor)..
Più il monitor è di qualità ed ha frequenze elevate e più questa soglia viene costantemente superata, rendendo la scattosità sempre più evidente.
Sì.. leggi la mia risposta ad un altro post. Comunque l'avevo scritto che il monitor spesso è l'elemento più rilevante della catena, per cui è facile che uno che gioca con un LCD da 80 euro con trumotion/supersmooth/rendilimmaginepiùfiga attivati non si accorga sul serio della differenza tra 30 e 60 fps.
[e quando parlo di 100hz.. mi riferisco ai bei CRT tanto diffusi un tempo..]
...meno invece la parte dei videogiochi. Primo xké ormai il motion blur è disponibile come opzione in molti giochi, poi xké i rallentamenti si notano anche nelle scene lente.
Se noti dei rallentamenti nelle scene lente, vuol dire che lì il framerate è sceso al di sotto dei 30fps, essendo che, in una sequenza in movimento non rapido, ma a 25 o 30fps costanti, è impossibile vederla andare a scatti. Alternativamente è possibile che, sebbene lo scenario sotto si muova lentamente, ci siano molti personaggi su schermo che si muovano molto velocemente, dando quindi la sensazione globale di non fluidità.
Certamente dire "contenuti i movimenti del soggetto" riferito alle pellicole sarà poco tecnico, ma non è errato.
Guardati una scena di qualsiasi film e fai un fermo immagine mentre c'è molto movimento o scene iperveloci: noterai un sacco di blur, cioè tutte le cose che si muovono sono sfocate, con una sfocatura proporzionale al loro movimento, e lasciano una scia..
E' logico che il fotogramma sarà sempre una singola immagine statica (una fotografia), ma quel blur "registra" (per i limiti ottici del dispositivo) il movimento di un oggetto "troppo rapido"
Questo è l'effetto "scia" di si parlava.. o quei "movimenti del soggetto" contenuti nella pellicola del post da te citato.
Assolutamente falso: devi avere un monitor pessimo o troppi automatismi attivi per non notare alcuna scattosità a 30 fps costanti, è un valore oggettivamente troppo basso.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".