Cyberpunk 2077 è il punto di riferimento per la grafica su PC?
Abbiamo provato il nuovo gioco di ruolo d'azione di CD Projekt RED con 8 differenti schede video, andando alla ricerca delle peculiarità tecniche e grafiche. Nell'articolo trovate tutte le opzioni grafiche più rilevanti, un video e altri approfondimenti: circa 50 test a tre differenti risoluzioni, più i test solo RTX no DLSS, sulla CPU e sulla RAM.
di Pasquale Fusco, Rosario Grasso, Manolo De Agostini pubblicato il 17 Dicembre 2020 nel canale VideogamesNVIDIAGeForceAMDRadeonCD Projekt RedBandai Namco
195 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoMa allora i giochi di due anni fa sono diventati brutti perché hanno una grafica inferiore? [U]Pensate a giocare[/U]!
In particolare invece riguardo a CP2077 abbiamo capito tutti che CDP ha fatto una caxxata: hanno gestito male le tempistiche, lo sviluppo e il marketing.
E l'ultima perla l'hanno tirata fuori dicendo che avrebbero rimborsato i clienti insoddisfatti senza interpellare Sony e Microsoft.
Ora noi possiamo scegliere: fissarci con il fatto che non gira bene in 4k quindi il gioco fa schifo oppure giocarlo come abbiamo sempre giocato prima godendoci tantissimi videogiochi del passato e giocarlo in FullHD o a 2k o con meno filtri.
Un bel gioco è bello anche senza ray tracing secondo me, che oltretutto non si nota quasi la differenza, anzi, in game non se ne accorge nessuno.
"SIE (Sony Interactive Entertainment) si impegna a fornire un alto livello di
soddisfazione dei consumatori, motivo per cui offriamo un rimborso finanziario
completo a tutti i giocatori che hanno acquistato Cyberpunk 2077 tramite il
PlayStation Store", afferma il comunicato.
-
Numerosi giocatori si sono lamentati di arresti anomali e problemi di compatibilità
riscontrati nel gioco. Uno dei revisori ha lamentato un attacco epilettico.
-
l'ho letto su un sito finanziato dallo stato russo quindi
lo classificate come fake.
Si ma le considerazioni le rapporto al titolo
Ma infatti.
Te ne accorgi particolarmente con le foto statiche,con e senza Rt,ma è difficile riscontrarlo in gioco.
Comunque,le lamentele che si leggono,sono le stesse di quando uscii Crysis all'epoca e che non esisteva un hardware adeguato per farlo girare adeguatamente.
Ma è normale...
Quello che non mi convince,come scritto sopra,è l'utilizzo "sfrenato" del Rt,che oltre ad essere a tratti irrealistico (tutte le strade sono lucide e bagnate ) porta ad un crollo drastico degli fps (come passando dal full hd al 4K o quasi) e che ti costringe ad utilizzare il Dlss che peggiora vistosamente la qualità grafica se si dispone di pannello 4K.
Principalmente perchè è da due anni in circolazione e ammazza decisamente le prestazioni.
E' ancora agli arbori,non sempre viene implementato bene (anzi,è raro che viene implementato con coerenza e realismo) e,ripeto,è da due anni che stà sulla piazza.
Credo che che si poteva anche ovviare diversamente,puntando sulla rasterizzazione classica,introducendo migliorie nei giochi ed effetti tesi al realismo,senza voler puntare su una tecnologia che ruota intorno ai tensor core,con tanto di marketing ed effetti speciali che attirano la massa... (mia personale opinione).
Nello specifico ambito*
Il 2K e 1080P sono risoluzioni che appartengono al giurassico e poco importa che la maggioranza delle persone giochino ancora a tali risoluzioni.
Con Cp non ci si puó appellare alla preferenza della fluiditá nel gioco a scapito della risoluzione ( 2K a 120 fps) perchè è un mattone in stile Crysis o the Witcher 3 dei bei tempi.
Se implementato male,ben venga un corno!
Ma hai visto le differenze in confronto al 4k nativo?
Funziona benissimo... come in Death Standing,vero?
Urge la 3070 :P
Su monitor 27"/32" [U]giocando[/U] (e non fermandosi a guardare un dettaglio a 20cm dal monitor) vorrei vederti in un test alla cieca a dire che le differenze sono troppo evidenti.
4790K qui, a 4.6ghz all core. Con una 1080Ti in UHD bisogna scendere a troppi compromessi con i settaggi e comunque si fa fatica a stare sopra i 40fps, in QHD si gioca benone. Stasera ti do altre info volendo.
Addirittura qualcuno ha un pc baracca tipo il mio o un poco meglio e sta lì ad arrangiare
Mi chiedo ma l ha pagato davvero quel gioco..?
Che allora con questa filosofia tanto vale la PS5 che con 400 euro lo fai girare.
Hai ragionissimo.
Però considera che sono molti che giocano con Tv da 55"-65" e le differenze,purtroppo,le notano passando da 2k a 4K.
Io,ad esempio,gioco con un 82" Qled
Al momento stò tamponando con 1080Ti,quindi niente Rt e Dlss e in 4K sono costretto a giocare con impostazioni medie in stile consolle a 30 fps
Risultato?
Temporaneamente abbandonato e lo riprendo ad Aprile quando le 3080 saranno reperibili
Dlss su performance che dovrebbe partire dalla risoluzione 1080P scalando in 4K.
E visto che il Dlss di Cp fa quasi schifo (anche un bambino se ne accorgerebbe delle differenze tra performance e 4k nativo) lo vedo come un grande compromesso.
A stò punto meglio disattivare il 'Rt e andare direttamente di rasterizzazione con la 3090 in 4K piuttosto che affidarsi al supersampling non all'altezza di giochi come Death Standing..
E parliamo di una scheda grafica che costa sotto i 2000 euro
Non a 200 fps ma almeno a 60 fps che sono il minimo sindacale per la fluidità
A me l'Rt non convince sotto molti aspetti.
Principalmente perchè è da due anni in circolazione e ammazza decisamente le prestazioni.
E' ancora agli arbori,non sempre viene implementato bene (anzi,è raro che viene implementato con coerenza e realismo) e,ripeto,è da due anni che stà sulla piazza.
Credo che che si poteva anche ovviare diversamente,puntando sulla rasterizzazione classica,introducendo migliorie nei giochi ed effetti tesi al realismo,senza voler puntare su una tecnologia che ruota intorno ai tensor core,con tanto di marketing ed effetti speciali che attirano la massa... (mia personale opinione).
Concordo pienamente con quello che dici, chiaramente i 200FPS era provocatorio perche' se riesci a giocare tutto maxato in 4k a 60fps sarebbe un traguardo non indifferente.
Ora personalmente se puntavano su una rasterizzazione classica + migliorie+ ottimizzazione avrebbero avuto secondo me un successo grafico senza pari visto il gioco...... MA come faceva poi nvidia a giustificare i costi delle GPU con tecnologia RT ????
E' proprio questo quello che oramai rovina un po' tutto, e quello che ho sempre odiato e' il fatto che i giochi siano sponsorizzati da quella casa piuttosto che da quell'altra. Questo metodo ha rovinato il mondo videoludico che e' diventato oramai talmente grosso e costoso che basta un titolo su 10 fatto male per mandare a zampe per aria una Software h.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".