Insomniac Games e l'inutilità dei 60fps

Ratchet & Clank: A Spasso nel Tempo sarà probabilmente l'ultimo gioco di Insomniac con questo frame rate.
di Rosario Grasso pubblicata il 30 Ottobre 2009, alle 14:30 nel canale VideogamesRatchet & Clank: A Spasso nel Tempo sarà probabilmente l'ultimo gioco di Insomniac con questo frame rate.
di Rosario Grasso pubblicata il 30 Ottobre 2009, alle 14:30 nel canale Videogames
188 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoQuando ci sono trasmissioni fatte in progressive (25p, ultimamente se ne vedono, soprattutto perchè registrate in hd) ci si accorge della scattosità rispetto a quelle calssiche in 50i. Pertanto l'occhio nota la mancanza di fluidità. Oltre la soglia dei 50 fps però non ci sono differenze.
Invece, i 25p visualizzati su schermi LCD non danno quella grande impressione di scattosità rispetto ai CRT.
http://gaming.ngi.it/showthread.php?t=50218 scritto dall'utente Nereid, mi permetto di sottolineare soltanto alcune che secondo me (sottolineo, secondo me) sn più "significative" (giusto per farle balzare all'occhio subito
Stanco di sentire gente che afferma, contro l'evidenza e il buon senso, che sopra i 30 fps "non si notano differenze", mi accingo a demolire tale affermazione, spero una volta per tutte, anche con l'aiuto di mio cognato che fa l'oculista (grazie per il ripasso di come e' fatto l'occhio).
La prima premessa d'obbligo e' che ritengo che le persone che affermano questo siano state tratte in inganno da come funzionano le proiezioni dei film nei cinematografi (24 - 25 fps).
Il punto cruciale e' proprio questo, la sostanziale differenza che esiste tra assistere alla proiezione di un film (TV o cinema che sia) ed usare un videogame, data la struttura dell'occhio.
Ma andiamo con ordine.
LA STRUTTURA DELL'OCCHIO
L'occhio non e' altro che un'antenna (avete capito bene, e' proprio una antenna) in grado di decodificare grazie alla sua complessa struttura quelle onde elettromagnetiche che noi chiamiamo "luce visibile" (ma teoricamente potrebbero esistere occhi per vedere a infrarossi, o i raggi X, o gli ultravioletti, o persino i suoni...) grazie a due componenti fondamentali, coni e bastoncelli, che visualizzano sulla corteccia cerebrale quanto da loro analizzato.
I coni sono di tre tipi specializzati per verde, rosso e blu, mentre i bastoncelli (molto piu' sensibili) si occupano della focalizzazione e dell'intensita' della luce "tradotta".
I bastoncelli sono molto piu' fitti agli estremi della retina e questo spiega l'effetto della visione periferica (quando guardate le stelle fioche direttamente non le vedete, se mettete a fuoco un punto vicino invece le scorgete ai bordi del vostro campo visivo).
Infine la cosa piu' importante: il nostro occhio e' ANALOGICO ovvero traduce un flusso continuo di informazioni, non impulsi o "frame" alla volta.
I LIMITI DELL'OCCHIO
Sento gia' i primi mugugni
"Ma come mai allora in certe situazioni non si distinguono i contenuti mentre in altri si' se l'occhio ha una capacita' infinita?" direte voi fans dei 30 fps.
Ora ci arriviamo.
Il "limite" non e' dell'occhio ma del cervello e come infatti vedremo puo' variare da persona a persona (ma non e' comunque 30 fps
Per consentirci di vivere nel mondo reale dandoci la possibilita' di percepire la posizione e il moto degli oggetti (cosa MOLTO piu' importante che distinguere i contenuti, per ovvie ragioni) anche in situazioni particolari (ad esempio, quando ci muoviamo ad alte velocita') il nostro cervello applica alla vista un effetto (che spesso si vede nei demos della "scena"
Questo effetto non e' altro che la traduzione visiva del movimento (che e' una cosa ANALOGICA e quindi infinita... ricordate il paradosso di Zenone?
E che centra questo coi videogames direte voi? Ora arriviamo al punto
DIFFERENZE TRA CINEMA E VIDEOGAMES: OVVERO, IL BLUR
Analizziamo il cinema.
Al cinema siamo in un ambiente buio e osserviamo passivamente una proiezione altamente luminosa riflessa da uno schermo sul nostro occhio. La situazione fa si che i bastoncelli siano superstimolati a scapito dei coni (che distinguono i particolari) e che l'effetto di blur succitato sia amplificato dalla maggiore persistenza delle immagini sulla retina.
Inoltre, ci sono altre 2 cose importanti da notare.
Ogni fotogramma viene proiettato e percepito istantaneamente e non rasterizzato una o piu' volte come nel caso di un monitor CRT.
E seconda e piu' importante cosa, la visione ci appare fluida perche' i fotogrammi CONTENGONO l'informazione di blur!! Se infatti osservate un fotogramma fermo di una scena concitata o di un film di animazione, noterete distintamente questo effetto.
Questo fa si che il film venga percepito esattamente come una situazione reale, anche se bidimensionale.
I piu' intelligenti di voi hanno forse capito dove voglio ora andare a parare
Vediamo infatti il nostro bel quakko 2 (o quello che preferite).
Al contrario del film, il videogame genera immagini dove ogni oggetto occupa una posizione ESATTA... ovvero niente blur. Non mette il blur per due ragioni: la prima puramente tecnica (ci vorrebbero troppi calcoli) e la seconda e' che se lo facesse succederebbe quello che forse alcuni di voi hanno provato se tentano di giocare a un first person shooter su uno schermo LCD, ovvero la visione appare molto piu' fluida (e qui si vi bastano 30 fps!) ma vi risulterebbe molto piu' difficile mirare e sparare.
Il fatto di usare immagini ESATTE e non con blur fa si che il cervello
percepisca come "meglio" quei flussi che piu' si avvicinano alla visione del mondo reale (che e' analogica...) ovvero quei flussi che hanno FPS maggiori e che quindi danno all'occhio (ovvero al cervello!) la sensazione di essere immerso in una situazione reale.
L'errore di fondo e' appunto ragionare sul contenuto e non sulla percezione del movimento!!
NON NE SIETE CONVINTI?
Fatti vostri
Scherzi a parte, il limite oltre il quale non si puo' dire la differenza esiste anche per questo ragionamento, ma e' ben piu' alto dei tanto paventati 30-40; oscilla tra i 75 e i 120-130 (!) a seconda della sensibilita' personale.
Per i San Tommasi basta fare questa prova: settate il monitor a 60 hertz e fissatene il centro per un po'. Noterete flicker e vi si affatichera' la vista.
Ora settatelo ad 85. La cosa non si ripete. Se gia' il buon senso non vi dice che c'e' una differenza percepita dall'occhio, rileggetevi bene quanto detto prima :P
Volete verificare che i bastoncelli sono di piu' ai bordi e quindi la vostra vista e' piu' sensibile "in periferia"?
Mettete il monitor a 75 hertz (un valore in genere di soglia) e guardatelo prima direttamente, poi con la visione periferica.
Se il vostro limite si aggira attorno a quella cifra, guardandolo direttamente lo noterete stabile mentre con la visione periferica lo vedrete flickerare!
Questo metodo puo' essere ovviamente usato per scoprire la vostra sensibilita' ripetendo il giochetto aumentando via via il refresh.
NOTA CONCLUSIVA
Non ce l'ho assolutamente con chi pensa che 30-40 fps siano abbastanza. Quella e' un'opinione e come tale la rispetto.
Ma sappiate che la percezione visiva e' appunto sensibile a variazioni anche fino a 150 fps, questi sono i fatti.
Ringrazio mio cognato Marco per la consulenza.
Infine una mia nota di colore dedotta da questo ragionamento.
E' probabile che una delle caratteristiche dei quaker migliori sia una BASSA sensibilita', ovvero che a parita' di FPS la loro percezione sia migliore, e quindi migliori le loro reazioni e la loro capacita' di mirare con precisione...
Meditate gente meditate e... alla prox!
Nereid[SD]
E' ovvio, che se devo riprendere un oggetto che si muove 60 metri al secondo, ed uso una ripresa a 30fps.. mi perdo il 50% delle immagini rispetto ad una ripresa a 60fps. Per cui quest'ultima risulterà + fluida, e la situazione migliora per lo stesso motivo usando una ripresa a 120fps.
perfettamente giusto è questa la questione!, io posso anche usare una ripresa a una velocità realmente troppo alta e quindi teoricamente inutile ma se questultima ha registrato piu informazioni e quindi fa in modo che il cervcallo debba usare meno tecniche di interpolazione e di blur per elaborare l'immagine ottero un immagine piu lineare.
il cinema per sua natura usa il progressive
i dvd sono progressive
i blu ray idem
credo anche il digitale terrestre sia p
Il DT dipende..
In SD è ancora interlacciato. Spesso per eventi sportivi sul satellite usano 1080i perché fornisce migliore rapprentazione del movimento utilizzando la banda del 720p che è lo standard per film, telefilm, e altri show..
se ho detto boiate sul framerate dei vg chiedo perdono avevo gli zebedei girati per il "film" che va avanti e in dietro e ho scritto senza pensare.
se la scena è in movimento a me l'immagine "stoppata" nn appare affatto nitida! Poi vorrei sapere come fa una videocamera a catturare instantaneamente senza "scie" una scena in rapido movimento! Oppure prova a usare il multiscatto di una macchina fotografica, ci sn quelle che riescono a fare 25 scatti al secondo (o anche di più
Cmq ho postato poco fa l'intervento di un utente di un altro forum che spiega meglio cosa citanto l'effetto blur (per l'appunto), se tu riesci a spiegarmela meglio te ne sn grato se no io continuo a pensare così
Ora, se io programmatore ho come limite impostomi dal capo-progetto il non dover mai andare al di sotto dei 60fps, è ovvio che dovrò scendere a compromessi con la qualità grafica raggiungibile (minor numero di poligoni, minor numero di effetti post-processing, ecc.). Se a 30fps riesco ad ottenere un risultato grafico nettamente migliore, probabilmente il mio gioco venderà anche di più di uno più fluido, ma meno bello graficamente.
Questa è la sostanza del loro discorso. Tuttavia, io non sono d'accordo, perché se è vero che 30fps per molte tipologie di giochi sono sufficienti, è altrettanto vero che per altre sono un po' riduttivi. Ad esempio, un gioco di guida a 30fps lo percepisci decisamente meno 'realistico' rispetto ad uno che gira a 60fps. Analogamente, un First Person Shooter, a 30fps mostra un po' di scatti (che ad alcuni danno molto fastidio) durante le rotazioni orizzontali veloci della visuale, cosa che non accade a 60fps. A 25fps ancora peggio.
Tuttavia, un gioco di ruolo, un gioco di combattimento, un adventure, uno strategico, sparatutto in terza persona e tanti altri generi, riescono ad essere godibilissimi anche a 30fps.
Morale della favola: 30fps in alcuni generi sono sufficienti, in altri no.
con che monitor?
si infatti, oltre i 60 fps dei monitor comuni, i fotogrammi in piu vanno "persi" o si sovrastano a quelli precedenti, si nota con rapidi movimenti della camera, l'immagine viene tagliata verticalmente
Di solito non gioco guardando lo schermo con la coda dell'occhio (dove sono presenti in maggior parte i bastoncelli) quindi in genere quando vedo un gioco che scatta anche se il framerate e' 30 e' perche' molti oggetti non possono essere disegnati per piccoli spostamenti.
Comunque mi ricordo quando andai, dopo anni, al cinema a vedere LOTR che dissi: ma che diav... scatta e si vede sfuocato... probabilmente per me 24 fps sono pochi e la sfocatura non era quella della lente ma il compositing nelle immagini per il motion blur
:lol:
Se non sbaglio una delle differenze è che il frame di un gioco è un'immagine statica, mentre il frame di una pellicola riporta comunque il movimento del soggetto, se sbaglio correggimi pure.
qualche pagina dietro qualcuno ha detto che nei frame delle pellicole sono "contenuti i movimenti del soggetto" ecco altra idiozia
Se noti ho detto di correggermi pure, non di darmi dell'idiota, grazie.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".