Insomniac Games e l'inutilità dei 60fps

Ratchet & Clank: A Spasso nel Tempo sarà probabilmente l'ultimo gioco di Insomniac con questo frame rate.
di Rosario Grasso pubblicata il 30 Ottobre 2009, alle 14:30 nel canale VideogamesRatchet & Clank: A Spasso nel Tempo sarà probabilmente l'ultimo gioco di Insomniac con questo frame rate.
di Rosario Grasso pubblicata il 30 Ottobre 2009, alle 14:30 nel canale Videogames
188 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoPer chi fa i paragoni tra film dvd/cinema/tv e video giochi (o comunque applicazioni al computer)
http://gaming.ngi.it/showthread.php?t=50218
[SIZE="5"]Leggete attentamente[/SIZE] e cominciate a ragionare con la [SIZE="5"]vostra[/SIZE] vista e il [SIZE="5"]vostro[/SIZE] cervello non con quelli degli altri ^^
(cosa che comunque vale in ogni campo, non solo in quello di fps giochi e membri vari)
Per chi fa i paragoni tra film dvd/cinema/tv e video giochi (o comunque applicazioni al computer)
http://gaming.ngi.it/showthread.php?t=50218
[SIZE="5"]Leggete attentamente[/SIZE] e cominciate a ragionare con la [SIZE="5"]vostra[/SIZE] vista e il [SIZE="5"]vostro[/SIZE] cervello non con quelli degli altri ^^
(cosa che comunque vale in ogni campo, non solo in quello di fps giochi e membri vari)
inutile, io ho addirittura postato qui l'intervento completo ma alcuni sembrano proprio nn notarlo
a me le spiegazioni sembrano convincenti ma magari sta dicendo anche lui delle boiate
Il problema è nell'architettura di rendering che non cerca di "inscatolare" i frames in una griglia temporale ma cerca di renderizzarne il più possibile e di buttarli nel frame buffer. 25 frames sincronizzati alla perfezione sono sufficienti, ma nei videogiochi non saranno MAI sincronizzati..
Ecco...questa è la spiegazione che mi piace di più per chi nota la diminuzione del frame rate anche in scene che renderizzano comunque oltre 40-50 fps.
Sinceramente non so quale sia il limite minimo o se c'entri o meno il motion blur, ma sono sicuro che il motivo per cui notate i rallentamenti sia questo.
Il jitter in una sequenza di frame è la differenza fra il tempo medio fra due frame ed il tempo massimo fra l'arrivo di due frame successivi all'interno del periodo di osservazione.
Dt(i) = t(i+1) - t(i) è l'intervallo di tempo fra due frame successivi
/Dt = Somma(Dt(i)) / T è l'intervallo di tempo medio nel periodo T
framerate = 1 / /Dt
Il Jitter massimo valutato nell'intervallo T è la differenza fra l'intervallo di arrivo massimo e quello medio:
Jitter = Max(Dt(i)) - /Dt
Cerco di fare un esempio. Un gioco gira a 60 fps fissi tranne in una scena in cui rallenta a 45. Come mai rallenta a 45 ? Perché il motore di rendering del gioco non ce la fa a generare il numero frame generato precedentemente e per questo, nonostante le risorse siano impegnate al massimo, il rendering viene rallentato.
In questo momento, visto l'alto impegno del motore di rendering, il ritardo fra la presentazione di un frame e quella del successivo continua a variare pesantemente. Perché si vede scattare ? Perché nei due frame con Jitter massimo si scende sotto la soglia di fluidità dell'animazione. Cioè 1 / Max(Dt(i)) è minore del frame rate per il quale il nostro occhio riesce a fondere una sequenza di immagini come se fosse un'animazione.
La misura del frame rate non è istantanea, ma è mediata su un determinato intervallo di tempo. In teoria, con una misurazione istantanea, cioè determinando il frame rate istantaneo come l'inverso della differenza di arrivo dei soli due ultimi frame, vedremmo il frame rate istantaneo scendere al di sotto di quella fatidica soglia che corrisponde alla non fluidità dell'animazione.
Quale sia tecnicamente questa soglia però lo ignoro, ma aggiungo che in teoria un gioco può scattare anche se il frame rate medio è di 100 Hz, dipende dal Jitter.
a me le spiegazioni sembrano convincenti ma magari sta dicendo anche lui delle boiate
Ah lol non l'avevo visto, forse perchè lurkavo dalla pagina dell'articolo.
Beh che ci si può fare, non c'è peggior sordo...
Mi ricordo solo dei video con un orco e un arcere, un altro con un drago.
Il nome aveva Project come una delle parole ma non ricordo nient'altro :v
Mi ricordo solo dei video con un orco e un arcere, un altro con un drago.
Il nome aveva Project come una delle parole ma non ricordo nient'altro :v
Project Offset: http://www.projectoffset.com/
La software house è stata acquisita dalla Intel
Mi ricordo solo dei video con un orco e un arcere, un altro con un drago.
Il nome aveva Project come una delle parole ma non ricordo nient'altro :v
crysis applica il blur anche agli oggetti, si nota tipo con i pugni del giocatore, o lanciando barili, ma solo in dx10 mi sembra
Sono stato poco chiaro nella prima frase che ho detto:"un essere umano medio non è in grado di notare differenze tra una sequenza di immagini a 23fps e una a 60fps", dovevo dire con più correttezza:"un essere umano medio è in grado di percepire con fluidità una sequenza di immagini a 23fps".
Cerco di fare un po' di chiarezza. Partiamo da queste tre ipotesi:
- il tempo medio di permanenza dell'immagine sulla retina è di circa 1/60 di secondo, questo implica che il singolo recettore della retina "perde le immagini in più";
- da test fatti 30 immagini al secondo sono più che sufficienti per vedere una immagine in modo continuo (è il nostro cervello che si comporta in questo modo);
- la retina è composta da molti recettori.
Ora la mia affermazione è:"30 fps sono sufficienti perché un gioco venga percepito da tutti come fluido e senza scatti". Questo non vuol dire che non vengano viste le differenze con 60 fps o 85fps.
Occorre tenere in considerazione queste due cose:
- il limite fisico è di 60fps per ogni singolo recettore;
- il cervello "interpola" l'immagine da migliaia di recettori.
Fermo restando che ogni singolo recettore perde ogni informazioni visiva al di sopra dei 60Hz questo non vuol dire che avere una informazione a frequenza maggiore non porti dei vantaggi e questo è dovuto al fatto che ci sono più recettori che percepiscono l'immagine in momenti diversi. Diciamo che maggiore è la frequenza del flusso video e migliore è l'"interpolazione" che il cervello riesce a fare e, di conseguenza, la resa complessiva di una scena.
Infine occorre fare altre due precisazioni:
- il limite fisico oltre il quale non si notano più differenze dipende dal tipo di immagine, dall'ambiente nel quale la si guarda e dal singolo individuo;
- ricordate che i monitor (soprattutto gli LCD) hanno un limite nella velocità di aggiornamento dei cristalli e che sebbene la scheda video possa elaborare oltre 100fps, di solito non è possibile visualizzarne più di un certo numero (che dipende dal tempo di risposta dei cristalli nell'LCD e dalla frequenza di aggiornamento nei monitor CRT ... il fatto che esistano LCD a 200Hz non significa che questi visualizzino 200 immagini al secondo ... ma lasciamo chiusa questa parentesi).
Dalla mia esperienza di videogiocatore posso dire che 75-80 fps garantiscono una giocabilità oltre la quale è difficile andare. Qualcuno potrà dire che è 100, qualcuno che è 60 (sempre riferito al frame rate minimo) ... la diatriba rimarrà sempre aperta visto che si parla di parametri soggettivi per certi aspetti.
Spero di aver fatto un po' di chiarezza
La software house è stata acquisita dalla Intel
che la intel entri nel mondo del gaming?
Dati aggiornati al 1998 dicono questo (fonte: E.R. Kandel, Principi di Neuroscienze):
La risoluzione temporale dei coni della fovea (la cosiddetta "
Ricapitolando, nell'occhio, a una risoluzione spaziale ottimale (un micron se non erro) corrisponde una risoluzione temporale di 55 Hz (55 FPS).
Questo non vuol dire, però, che non possiamo percepire un'immagine che duri meno di 1/55... Entro un certo limite (magari anche 1/120 di sec come dice Nereid), a causa della desincronizzazione inevitabile tra recettori attivati più o meno a lungo in precedenza, avremo dei coni (e dei bastoncelli) disponibili per un'attivazione quando altri ancora non lo saranno... Di qui, si deduce il beneficio di avere più di 55 immagini al secondo, per essere sicuri di aggiornare sempre TUTTI i recettori ogni volta che questi possono essere aggiornati...
La dimostrazione di questo è che il testi di Nereid col monitor va benissimo per dimostrare che si può discernere un flickerio anche a 75 Hz, perché il monitor stimola solo una (grossa) parte dei recettori..
Se per il test usate una particolare apparecchiatura, ad esempio una lampadina molto potente e a fascio concentrato, Andando oltre i 55 impulsi al secondo la vedrete fissa.. .Questo perché stavolta avrete reclutato davvero tutti i recettori disponibili, e li avrete stimolati al massimo della loro sensibilità...
Concludendo, 55 Hz/FPS sono più che sufficienti, ma per un videogioco più ce n'è meglio è
P.S.: Ah, dimenticavo, ma che è sta storia che il "mondo" ha immagini blurrate e il computer no? NESSUNO DEI DUE le ha blurrate, il blur è un artefatto causato proprio dalla "scarsa" risoluzione temporale della retina. Come ha detto Nereid, i furboni che inventarono il cinema sfruttarono proprio quest'effetto inevitabile per far credere alla retina (prima ancora che al cervello) che le immagini scorressero in maniera continua!
Ma, d'altra parte, non è vero che sono solo i bastoncelli ad essere attivati al cinema? La prova? I bastoncelli non percepiscono le variazioni di lunghezza d'onde della luce visible (er colore, 'nzomma), quindi magari per vedere Casablanca vanno pure bene, ma per il resto sarebbero un po' limitanti
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".