G-Sync: da Nvidia una soluzione ai problemi di Stutter, Lag e Tearing

G-Sync: da Nvidia una soluzione ai problemi di Stutter, Lag e Tearing

In questo articolo riepiloghiamo tutte le novità annunciate da Nvidia all'evento The Way It’s Meant To Be Played tenutosi la scorsa settimana a Montreal. Si parla, quindi, di G-Sync, ma anche di GameStream, Shadowplay, Flex, GI Works e Flame Works. All'interno trovate anche un'intervista esclusiva a John Carmack.

di pubblicato il nel canale Videogames
NVIDIA
 
136 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
TwinDeagle25 Ottobre 2013, 23:06 #41
Originariamente inviato da: Bivvoz
Se la scheda video genera 30 frame al secondo c'è poco da fare.
Ma con il vsync normale se la scheda genera 55 frame per secondo a schermo ne vedrai 30 perché aspetta sempre il refresh del monitor per cambiare fotogramma e se il fotogramma non è pronto resta quello vecchio.
In questo modo se il fotogramma non è pronto è il monitor ad attendere che il fotogramma sia pronto.
Così se la scheda genera 55 fps vedi 55fps e non 30.


a ok, lo stavo confondendo con il micro-stuttering, è per questo che non riuscivo a capire come poteva eliminare il problema. Grazie della risposta

Originariamente inviato da: mirkonorroz
Non capisco una cosa pero' (tra le tante): se un frame n+1 ci mette un bel po' ad essere renderizzato il frame n rimane a schermo fino alla fine del rendering dell'n+1? Cioe' a me sembra un po' strano che elimini anche lo stuttering.


Era quello che mi chiedevo anche io, ed infatti non va ad eliminare quel tipo di stuttering (micro-stuttering), ma elimina quello causato dalla "selezione" dei fotogrammi fatta dal vsinc. Se una scheda genera, come l'esempio fatto da bivvoz, 55 fps, questa frequenza non è multipla di quella che viene inviata allo schermo. Ne segue che quando è il momento di inviare il fotogramma al monitor, può succedere che quel fotogramma è già stato creato, o deve essere ancora creato e quindi un fotogramma rimane a video per più tempo. Almeno questo è quello che ho capito xD
PaulGuru25 Ottobre 2013, 23:39 #42
Originariamente inviato da: appleroof
È chiarissimo, cosa c'è da spiegare? Si attacca una soluzione proprietaria perchè è di un'azienda che sta antipatica (!) e se ne difende un'altra perché la fa una azienda amata (!).
La circostanza che il gsync lo paghi sul monitor mentre mantle non lo paghi tu (apparentemente) non cambia una virgola del fatto che se critichi una soluzione proprietaria lo fai sempre, con l'aggravante, per quanto ne penso io, che il gsync se uno vuole lo compra e ne gode senza nulla togliere ad altri, mantle POTENZIALMENTE impatta negativamente sull'intero mondo del gaming pc, volente o nolente.

Se hai voglia di approfondire il mio punto di vista qui trovi i miei post sull'argomento http://hwupgrade.it/forum/showthrea...900&page=12

Fermo restando che qui criticavo quell'utente che attaccava il gsync con argomentazioni a mio modo di vedere assolutamente pretestuose.

Quoto.

Spostano le argomentazioni in base a cosa gli fa più comodo, quindi la critica è sul fatto che si paga o sul fatto che è proprietaria ?
Perchè se è su un piano economico posso anche capire ma se è sull'altro piano anche Mantle è proprietario e nessuno si è lamentato.
Mantle poi sull'effettiva funzionalità sono proprio curioso di vedere che miglioramenti porterà e se ne porterà, visto che prima di tutto è solo un pacchetto software, secondo è da vedere in quante SH decideranno di implementarlo ed abbinare le parole supporto e ATI è come abbinare piatti d'alta cucina a mcdonald.

Questo GSynch invece implica una parte hardware e agirà fuori dall'applicativo a meno che qualcuno quì non voglia insinuare che quella scheda non sia interamente finta.

75$ ? Si e no 60€, il prezzo di un bel videogioco in versione DVD, oh dio è proprio uno scandalo allora ! Di certo non è per gli utenti di basse pretese.
CraigMarduk26 Ottobre 2013, 03:01 #43
Originariamente inviato da: pincapobianco
350 eur di differenza per prestazioni identiche se non superiori della 290x sono tante nei giochi testati da hwupgrade la 290x è superiore alla Titan in Far Cry 3, Tomb Raider, Metro Last Light, Grid 2. E' leggermente inferiore solo in Bioshock Infinite e Crysis 3. In 4 giochi su 6 la 290x la fa da padrona ad un prezzo che è quasi la metà della Titan


Uh, certo, e ti alza la temperatura interna del case di 20 gradi provocando tutta una serie di fantastici freeze e shutdown nel bel mezzo di una sessione di gioco, salvo buttare lo schifoso dissi reference nel pattume e metterla sotto liquido, il che richiede competenze tecniche specifiche e un costo aggiuntivo. La Titan costa decisamente di più ma ha un dissi reference talmente efficiente che non solo è stabilissima, ma la overclocchi tranquillamente con quello, e con margini di overclock anche interessanti. Non insulto la tua intelligenza andandoti a spiegare che in conseguenza dell'overclock la 290x, che tra l'altro in overclock fa pietà, mangia la polvere.
A me la nuova scheda AMD pare come tutte le Radeon che ho usato in passato: scalda come un forno, instabile, drivers penosi, ottima nei benchmark ma FPS minimi mediocri e fluttuazioni anche notevoli nel framerate, supera le prestazioni delle geffo a effetti spenti ma con effetti maxati soffre molto. In poche parole, fantastica sulla carta, ma nell'uso reale non altrettanto.
E' un'ottima scheda per rapporto prezzo-prestazioni, ma se non guardiamo al prezzo la Titan la prende a bastonate nei denti in lungo e in largo. La cosa migliore della scheda AMD è che probabilmente farà scendere il prezzo della Titan.
rockroll26 Ottobre 2013, 05:35 #44
Originariamente inviato da: PaulGuru
Ma stiamo scherzando ? ad oggi giorno se non hai un frame rate fisso e sincronizzato si nota la differenza in termini di fluidità da quando smette di esserlo, io se non gioco a 60 fissi per me non è più così liscio, senza vsynch anche a frames alto ma soprattutto se è poco più basso noto di brutto la differenza, è ballerino e non c'è sincronia fra un frame e l'altro, con questa tecnologia permetterebbe di adattare la funzionalità di Vsynch al frame rate.

Il fatto che abbia hardware dedicato vuol dire che non è la solita solfa via software che funziona a metà o che non funziona proprio, vuol dire che è qualcosa di serio e che forse risolverà quel grosso fastidio che affligge molti puristi.

Ed è piuttosto logorante il fatto che questa tecnologia debba essere screditata perchè proprietaria, semmai bisognerebbe sperare che anche AMD sappia replicare.

Per il discorso dell'attaccarlo alla TV, non è roba per consolari, il gaming pc lo attacchi al monitor e anche se fosse il kit han detto che sarà fornito in stand alone.


Stiamo scherzando? forse si. Qualcuno ha detto che siamo tutti ubriachi: senza voler offendere messuno, comincio a pensarlo.

Ma è mai possibile che per far "giocare" la gente bisogna arrivare a questi limiti estremi, degni di miglior causa?

Mi rivolgo a te, che appari il più integralista dei puristi (oltre che il più partigiano pro Nvidia), ma vale per tutti i malati di gioco estremo.
Ma non è che stiamo perdendo il senso stesso del significato di "gioco", confondendo improbabili e surreali effetti grafici in ultra HD ultraFPS (se no che giocatori professionisti saremmo?) con la logica e l'interoperabilità del gioco stesso, che dovrebbe essere alla base del piacere, pur non primario, di svagarsi interagendo con games computerizzate, per raggiungere il quale basta ed avanza una grafica vettoriale stilizzata?

Sono capitato qui per curiosità, attratto da terminologie srane come Stutter, Lag, Tearing ed altre a piacere, che niente dovrebbero avere a che fare con la logica operativa di un game piacevole a giocarsi (forse lo chiamate "giocablità" e magari entusiasmante, e mi sono ritrovato in mezzo a cultori ad oltranza di un mondo che se spinto a questi livelli a mio avviso più vuoto e assurdo non può essere. Ma vi rendete conto che state dedicando il vostro tempo e ancor peggio le vostre aspirazioni ai dei mattoni, dei macigni sempre più ponderosi, che richiedendo potenze di calcolo fine e sé stesso di migliaia di volte superiori a quanto è bastato per farci arrivare sulla Luna 44 anni or sono..., e per che cosa... per giocare...

Mi sento fuoti posto, sono un pesce fuor d'acqua, sparatemi pure addosso, me lo sarò meritato, del resto se questo ramo del consumismo informatico muove tanto interesse e tanti interessi (come del resto in altri campi droga, prostituzione, giochi d'azzardo...), evidentemente sono io a non aver capito una cippa, non solo del gioco ma della vita intera.

O non si tratterà per caso di involuzione? Sarebbero queste "le magnifiche sorti e progressive" dell'umanità cui alludeva il Leopardi?

Mettetemi al rogo, lo accetto, ma almeno ho avuto il piacere di dire quello che da tempo volevo dire e forse non volevate sentirvi dire.

I miei me lo dicevano che il gioco è un brutto vizio, ma per fortuna ne sono guarito dopo qualche nottate su Apple Invaders, che almeno era divertente...
sintopatataelettronica26 Ottobre 2013, 06:26 #45
L'idea sarebbe anche interessante.. è l'implementazione che non lo è affatto.

E ' troppo costosa e macchinosa per quello che offre, le cose che funzionano alla fine solo quelle semplici (e magari "open"..)

Qualcuno ha scritto in qualche post che è una soluzione riservata ai gamers incalliti, che "cambiano scheda video come le mutande" : beh.. proprio per questo fatto mi sembra che la soluzione NVidia non possa avere tutta questa appetibilità, in quanto sei costretto ad investire denaro in un monitor dedicato (riducendo la scelta di monitor a tua disposizione a modelli specifici) che poi se ritorni ad ATI/AMD (i gamers incalliti guardano le prestazioni, non la marca.. quelli che guardano la marca sono i fanboys ) non sfrutterai nemmeno più.

E tutta questa complicazione per avere cosa ? Uno strumento che ti permette di risolvere una minima parte dei problemi esistenti.. in giochi comunque in cui il framerate garantito dalla tua gpu non scenda sotto una certa soglia, perché voglio vedere alla fine che beneficio avresti in fluidità se con un gioco che ha un framerate minimo di 25 fps il g-sync ti abbassasse il refresh del monitor a 25 hz per 3 o 4 frames

Niente tearing, certo: ma il gioco non risulterebbe fluido comunque..

Per cui credo sarà un bel floppone.. che (come altre "invenzioni rivoluzionarie" analoghe) finirà solo nella casa di qualche "maniaco" ..
Malek8626 Ottobre 2013, 09:05 #46
Mi pare di capire che il motivo principale di questa tecnologia è l'eliminazione del judder, che perfino il Triple Buffering (per quanto molto utile) non può risolvere quando si scende sotto i 60fps.

Siccome la frequenza di aggiornamento del monitor è fissa a 60hz, se la scheda video genera diciamo 50fps, ciò che il TB fa è riusare un buffer quando quello successivo non è ancora pronto, e il risultato è che 1 frame su 6 sta su schermo il doppio del tempo rispetto agli altri. A seconda della persona che guarda, questa differenza si può notare oppure no.

Con il Gsync in teoria non dovrebbe accadere, visto che il refresh del monitor viene adattato ai frame generati. Naturalmente questa tecnologia serve solo a quelli che notano problemi anche col TB. Presumo comunque che complessivamente la qualità visiva sarebbe migliore per tutti, magari impercettibilmente. Quelli che l'hanno provato a DF sono rimasti decisamente sorpresi, dicono.

Anche se mi chiedo come facciano a risolvere la questione del lag. Presumo che l'adattamente del refresh del monitor non sia assolutamente istantaneo. Inoltre, avendo un refresh minimo di 40hz, un gioco che va a meno di 40fps dovrebbe comunque usare un qualche tipo di Vsync.

Comunque... dovevo immaginarlo che adesso AMD e Nvidia si faranno battaglia a suon di tecnologie proprietarie.
PaulGuru26 Ottobre 2013, 10:26 #47
Originariamente inviato da: rockroll
Stiamo scherzando? forse si. Qualcuno ha detto che siamo tutti ubriachi: senza voler offendere messuno, comincio a pensarlo.

Ma è mai possibile che per far "giocare" la gente bisogna arrivare a questi limiti estremi, degni di miglior causa?

Mi rivolgo a te, che appari il più integralista dei puristi (oltre che il più partigiano pro Nvidia), ma vale per tutti i malati di gioco estremo.
Ma non è che stiamo perdendo il senso stesso del significato di "gioco", confondendo improbabili e surreali effetti grafici in ultra HD ultraFPS (se no che giocatori professionisti saremmo?) con la logica e l'interoperabilità del gioco stesso, che dovrebbe essere alla base del piacere, pur non primario, di svagarsi interagendo con games computerizzate, per raggiungere il quale basta ed avanza una grafica vettoriale stilizzata?

Sono capitato qui per curiosità, attratto da terminologie srane come Stutter, Lag, Tearing ed altre a piacere, che niente dovrebbero avere a che fare con la logica operativa di un game piacevole a giocarsi (forse lo chiamate "giocablità" e magari entusiasmante, e mi sono ritrovato in mezzo a cultori ad oltranza di un mondo che se spinto a questi livelli a mio avviso più vuoto e assurdo non può essere. Ma vi rendete conto che state dedicando il vostro tempo e ancor peggio le vostre aspirazioni ai dei mattoni, dei macigni sempre più ponderosi, che richiedendo potenze di calcolo fine e sé stesso di migliaia di volte superiori a quanto è bastato per farci arrivare sulla Luna 44 anni or sono..., e per che cosa... per giocare...

Mi sento fuoti posto, sono un pesce fuor d'acqua, sparatemi pure addosso, me lo sarò meritato, del resto se questo ramo del consumismo informatico muove tanto interesse e tanti interessi (come del resto in altri campi droga, prostituzione, giochi d'azzardo...), evidentemente sono io a non aver capito una cippa, non solo del gioco ma della vita intera.

O non si tratterà per caso di involuzione? Sarebbero queste "le magnifiche sorti e progressive" dell'umanità cui alludeva il Leopardi?

Mettetemi al rogo, lo accetto, ma almeno ho avuto il piacere di dire quello che da tempo volevo dire e forse non volevate sentirvi dire.

I miei me lo dicevano che il gioco è un brutto vizio, ma per fortuna ne sono guarito dopo qualche nottate su Apple Invaders, che almeno era divertente...

Non è un discorso estremo, è un discorso da buon gamers, e nemmeno così tanto esigente visto che gioco sempre con configurazioni single GPU con modelli di fascia non-enthusiast e per il momento con monitors da 60Hz, mentre un estremo come lo definisci tu ha almeno un multi-GPU e gioca con 120-144fps fissi.

Ti rendi conto che stai dando al alcuni utenti degli ubriachi e ossessionati solo perchè sei un utente dalle basse pretese ? E stai discutendo in un thread relativo ad un prodotto dedicato ai puristi ?

Non tutti hanno la stessa percezione e sensibilità, io giocare sotto certi limiti non sono in grado perchè ho pesanti fastidi tali da compromettere tutto il gameplay del gioco, così come giocare senza filtri uguale, se tu non noti niente di tutto questo buon per te, si vede che non ha mai visto la qualità nella tua vita, beata l'ignoranza.
Boscagoo26 Ottobre 2013, 10:43 #48
Molto interessante, bisogna vedere anche il costo. Se non è eccessivamente esagerato, potrebbe diventare alla portata di molti...
Hulk910326 Ottobre 2013, 11:07 #49
Da pro AMD mi vien da dire che la soluzione non è affatto male, anzi è molto interessante però, perchè c'è un bel però: sono assolutamente contro tutte ste cose proprietarie del ciufolo (e nvidia ne ha troppe) e poi scusate ma se vorrei sfruttare questo G-Sync devo per forza di cose comprare una vga top gamma nvidia e IL monitor che m'imporranno loro??

Io credo che sono completamente partiti di testa.

Imho anche se l'idea di eliminare stutter, lag e tutte quelle cose oscene mi tocca SICURAMENTE non mi affiderò a questa tecnologia, avessero fatto una soluzione hardware integrata nelle vga o software ci poteva ancora ancora stare ma questa è una mossa di MARKETING bella e buona (come è successo per Titan, ovvero rifilarti uno scarto delle Quadro a 1000 euro) per rifilarti un loro prodotto e farci soldi AGGIUNTIVI alle vga che vendono.

Sempre più contento di essere passato all'altra sponda.
PaulGuru26 Ottobre 2013, 12:32 #50
Originariamente inviato da: Hulk9103
Da pro AMD mi vien da dire che la soluzione non è affatto male, anzi è molto interessante però, perchè c'è un bel però: sono assolutamente contro tutte ste cose proprietarie del ciufolo (e nvidia ne ha troppe) e poi scusate ma se vorrei sfruttare questo G-Sync devo per forza di cose comprare una vga top gamma nvidia e IL monitor che m'imporranno loro??

Io credo che sono completamente partiti di testa.

Imho anche se l'idea di eliminare stutter, lag e tutte quelle cose oscene mi tocca SICURAMENTE non mi affiderò a questa tecnologia, avessero fatto una soluzione hardware integrata nelle vga o software ci poteva ancora ancora stare ma questa è una mossa di MARKETING bella e buona (come è successo per Titan, ovvero rifilarti uno scarto delle Quadro a 1000 euro) per rifilarti un loro prodotto e farci soldi AGGIUNTIVI alle vga che vendono.

Sempre più contento di essere passato all'altra sponda.

Tecnologia compatibile con "tutte le GTX".
Il kit sarà disponibile anche in stand alone quindi lo potrai usare anche su altri monitor.
Il fatto che sia proprietaria che cosa vuol dire scusa ? Cioè la sviluppano loro e la dovrebbero consegnare pure ad ATI ?
Nvidia ha troppe tecnologie proprietarie ? Anche se fosse ? Se compri Nvidia le avrai tutte quante mica una alla volta.

http://www.youtube.com/watch?v=UIkOUncshSk

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^