Vampyr: da NVIDIA i requisiti di sistema estesi della versione PC

Vampyr: da NVIDIA i requisiti di sistema estesi della versione PC

Il nuovo action RPG di DONTNOD Entertainment è in arrivo su PC, PlayStation 4 e Xbox One il prossimo 5 giugno

di pubblicata il , alle 18:01 nel canale Videogames
NVIDIA
 
62 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
nickname8811 Maggio 2018, 10:19 #21
Originariamente inviato da: lucusta
forse rideranno i fanboys delle AMD quando nvidia presenterà (finalmente) una VERA architettura DX12 proof senza ricorrere al massiccio uso dei driver e lasciare per strada il 10% minimo delle prestazioni.


Originariamente inviato da: lucusta
no, vanno solo meno, perchè caricano ancora di più del normale il lavoro sui driver, visto che fanno tutto in software.
e se già oggi i processori annaspano, figurati a fagli fare un lavoro ancora più elevato sul thread principale cosa ne esce fuori.

si dovrebbe poi andare a guardare, a quel punto, la famigerata efficienza delle pascal (come ancora riporti in firma).

Ma dove li tiri fuori sti argomenti ?
Le solite allucinazioni senza uno straccio di prova come tuo solito.
lucusta11 Maggio 2018, 10:40 #22
Originariamente inviato da: johnp1983
O sembra che le DX12 offrano chissà quale boost grafico


se parli di grafica per le Dx12, credo che non hai compreso a cosa servano.
distribuiscono meglio il lavoro su più cores, riuscendo a sfruttare in modo più opportuno i multicore.
finchè però ci sono aziende che continuano a far gestire l'uso fine delle risorse della GPU ai drivers (nello specifico lo scheduling software), visto che questi operano soprattutto su un solo ed unico thread, agli sviluppatori non dai molte alternative e useranno le Dx12 per come è il panorama del mercato, ossia alla stregua delle DX11.3, senza cercare di omogenizzare il carico dei thread sui multicore.
d'altra parte, distribuendo opportunamente il carico su più cores, hai anche la possibilità di sfruttare a fondo GPU molto complesse aumentando il livello grafico, pechè non soffrirai più del limite della massima frequenza che può fornire il core che regge il thread principale...

è il cane che si morde la coda, in pratica.

non puoi aumentare il livello grafico perchè le CPU non ce la farebbero;
non puoi sfruttare librerie che distribuiscono meglio i carichi perchè il 70% del mercato usa GPU che scaricano troppo lavoro sulla CPU.
risultato?
anche con soluzioni GPU medie ti ritrovi la CPU al limite con pochi cores usati, sia con A che con B, perchè il gioco dev'essere usato per come dice A, anche se B potrebbe farlo da anni.

...e poi leggi sui forum i soliti che dicono che le nvidia sono la migliore tecnologia sul mercato...
(forse di questo mercato tecnologicamente e forzatamente fermo da 10 anni... a no... ora c'è il meme real time ray tracing, da poter fare solo con una scheda da 3000 euro per 2 effetti in croce!)
lucusta11 Maggio 2018, 10:40 #23
Originariamente inviato da: nickname88
Ma dove li tiri fuori sti argomenti ?
Le solite allucinazioni senza uno straccio di prova come tuo solito.


dai grafici di utilizzo delle CPU (quelli che raramente ti mostrano per singolo core logico).
lucusta11 Maggio 2018, 10:42 #24
Originariamente inviato da: thresher3253
Fino a quando quasi la metà degli utenti continuerà a usare hardware dx11 (fonte: Steam) ce le terremo ancora per molti anni.


è questa la realtà dei fatti.
nessuno sviluppa per soluzioni poco usate (anche se sia AMD che Intel sono DX12 proof da un bel pezzo).
nickname8811 Maggio 2018, 10:45 #25
Originariamente inviato da: lucusta
dai grafici di utilizzo delle CPU (quelli che raramente ti mostrano per singolo core logico).

L'utilizzo CPU ti fu già mostrato con varia video confronti.
E misurare la differenza nella scalabilità delle VGA da 1080p a 4K non centra una beata mazza.

Quando avrai altro di concreto ( ossia nell'atto pratico ) fra le mani a parte teorie complottistiche e dicerie di Thg faccelo sapere .... Eh no bollare come "falsi" ogni video che confuta quello che tu dici non è una giustificazione.
lucusta11 Maggio 2018, 10:49 #26
Originariamente inviato da: gridracedriver
lucusta, ma perché ti ostini a fare ragionamenti e discorsi seri? lascia perdere, fai come gyammy anche tu.

contano le barrette colore dei benchmark, il come lo si raggiunge e perché non importa


perchè ne meni 3, ne salvi 10.
bagnino8911 Maggio 2018, 10:49 #27
Originariamente inviato da: lucusta
no, vanno solo meno, perchè caricano ancora di più del normale il lavoro sui driver, visto che fanno tutto in software.
e se già oggi i processori annaspano, figurati a fagli fare un lavoro ancora più elevato sul thread principale cosa ne esce fuori.

si dovrebbe poi andare a guardare, a quel punto, la famigerata efficienza delle pascal (come ancora riporti in firma).


Ma vanno meno dove...

In quei rari giochi dove è possibile selezionare sia DX 11 che 12 (es. Rise of the Tomb Raider) le Nvidia vanno allo stesso modo.

Sul tuo concetto di efficienza, meglio non commentare...

Comunque ti ribadisco che anche chi usa GPU AMD potenti deve avere CPU adeguate, altrimenti annaspano pure loro.

Originariamente inviato da: nickname88
Ma dove li tiri fuori sti argomenti ?
Le solite allucinazioni senza uno straccio di prova come tuo solito.


Esatto, parole a vanvera quando i benchmark/test raccontano tutt'altro.

La verità è che le DX 12 sono state un fail, punto. Quasi peggio delle DX 10.

Originariamente inviato da: gridracedriver
lucusta, ma perché ti ostini a fare ragionamenti e discorsi seri? lascia perdere, fai come gyammy anche tu.

contano le barrette colore dei benchmark, il come lo si raggiunge e perché non importa


Ah beh, se lui fa discorsi e ragionamenti seri, siamo veramente apposto.

Il come si raggiunge e perché sarebbe interessante da sapere, certo, ma non è come pensano i soliti fanboy AMD (più che altro: denigratori seriali di Nvidia) che vedono tutto un complotto, colori finti, supercompressioni, filtri non applicati, driver che regalano i FPS, ecc.

La verità è una sola: l'architettura Nvidia degli ultimi anni è superiore, fine della storia.
lucusta11 Maggio 2018, 10:52 #28
Originariamente inviato da: nickname88
L'utilizzo CPU ti fu già mostrato con varia video confronti.
E misurare la differenza nella scalabilità delle VGA da 1080p a 4K non centra una beata mazza.

Quando avrai altro di concreto ( ossia nell'atto pratico ) fra le mani a parte teorie complottistiche e dicerie di Thg faccelo sapere .... Eh no bollare come "falsi" ogni video che confuta quello che tu dici non è una giustificazione.


ehm... quando l'hai fatto ti son state date risposte ben precise, ma non le hai volute ascoltare.
i processori possono essere usati in molti modi, ma il modo più sbagliato per usare un octacore è usarlo con le DX11 (un pò meglio sulle Dx11.3, ma non così tanto).
ricordati che se porti esempi devi portare anche la contro prova: anche stesso screening con una soluzione diversa, ossia con AMD.

... e scusa se bollo falsi i soliti video che porti del solito tizio...
lucusta11 Maggio 2018, 10:56 #29
Originariamente inviato da: bagnino89
Rise of the Tomb Raider

Rise of Tomb Raider?
hahahahahahahahah
ma bell'intelligentone, pensaci un attimo:
tu credi realmente che gli sviluppatori abbiano scritto ROTR sia in DX11 che in DX12 o piuttosto lo hanno fatto in DX12 tier 1 con retrocompatibilità 11?

e le DX12 tier 1 non sono altro che un modo diverso per chiamare le DX11.3.

qui parliamo di AC; è quello che serve per distribuire il carico sui core, non una sigla.

Originariamente inviato da: bagnino89
Esatto, parole a vanvera quando i benchmark/test raccontano tutt'altro.

mostrano, non raccontano.

semmai raccontano di una storia ormai conclamata: AC non è usato nei giochi perchè se viene usato le nvidia collassano nelle prestazioni.
scrivere 2 volte lo stesso identico gioco per DX12 con AC e per le nvidia?
ma chi li paga?
(a già... di solito li paga nvidia!).

ed a posto si scrive A separato da POSTO, non devi mica mettere qualcosa su qualche altra cosa...
nickname8811 Maggio 2018, 10:58 #30
Originariamente inviato da: lucusta
ehm... quando l'hai fatto ti son state date risposte ben precise, ma non le hai volute ascoltare.
e scusa se bollo falsi i soliti video che porti del solito tizio

Io ho ottenuto solo una risposta nonostante fonti differenti postate.

Ossia "sono tutte false e servono a spingere la vendita di Nvidia".

Il solito tizio ? Mi pare di averti portato 4 fonti differenti
Dove per altro continuano a mancare le prove che siano false, che ovviamente come al solito non hai.


i processori possono essere usati in molti modi, ma il modo più sbagliato per usare un octacore è usarlo con le DX11 (un pò meglio sulle Dx11.3, ma non così tanto).
ricordati che se porti esempi devi portare anche la contro prova: anche stesso screening con una soluzione diversa, ossia con AMD.
In molti modi ?

Controprova de che ? Sei tu che stai avanzando ipotesi, mica io, sei tu che devi portare prove.
Ah quindi adesso è colpa delle DX11 ? E le prove do stanno ?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^