Specifiche Nintendo Switch: Tegra con architettura Maxwell e non Pascal

Specifiche Nintendo Switch: Tegra con architettura Maxwell e non Pascal

Nintendo non ha ancora comunicato le specifiche ufficiali della console prevista per marzo, ma GamesBeat ha raccolto delle interessanti segnalazioni in proposito.

di pubblicata il , alle 12:31 nel canale Videogames
NintendoSwitchNVIDIATegra
 
38 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Goofy Goober15 Dicembre 2016, 22:17 #31
Originariamente inviato da: Ton90maz
A parte che non possono staccarsi ma se dovessero farlo cosa pensi che uscirà? The Witcher orientale? Finirebbero su smartfogn o tornerebbero ai jrpg low budget della namco bandai...


magari li compra MS o Sony e finalmente esce uno Xenoblade con le collisioni reali e non i mostri trasparenti, magari con una simulazione fisica e ambiente interattivo

sognare è bello
P3pPoS8315 Dicembre 2016, 22:20 #32
Originariamente inviato da: TheDarkAngel
Ah si possono anche salutare tutti con 500gflops in fp32, non mi interessa più giocare in wireframe nel 2017, basta, gli anti grafica tornino a giocare con il mame che ha già dato tutto


Da una parte è vero, ma dall'altra la gente è stufa di giochi fotocopia, di giochi AAA con 50gb di patch al day one. Per non parlare delle console potenziate e relativi giochi che hanno problemi sulle barbon edition.

Insomma ci vorrebbe un cambio di rotta generale.


Bye
TheDarkAngel15 Dicembre 2016, 23:48 #33
Originariamente inviato da: P3pPoS83
Da una parte è vero, ma dall'altra la gente è stufa di giochi fotocopia, di giochi AAA con 50gb di patch al day one. Per non parlare delle console potenziate e relativi giochi che hanno problemi sulle barbon edition.

Insomma ci vorrebbe un cambio di rotta generale.


Bye


Così stufa che vendono sempre in crescita
Si può essere stufi di alcune serializzazioni oscene come cod, ma i titoli aaa la fanno da padrone e gli indie, tranne alcuni che puntano su uno stile isometrico oldstyle, sono ben lontani dal non essere curati graficamente.
Ton90maz16 Dicembre 2016, 00:32 #34
Originariamente inviato da: Goofy Goober
magari li compra MS o Sony e finalmente esce uno Xenoblade con le collisioni reali e non i mostri trasparenti, magari con una simulazione fisica e ambiente interattivo

sognare è bello


Proprio Microsoft e Sony, vedi quanti Xenogiochi ti fanno


Se c'è una cosa buona fatta dagli sdentati negli ultimi anni è stata l'acquisizione di Monolith (avvenuto tra l'altro il modo collaterale, forse manco li volevano).
lunaticgate16 Dicembre 2016, 01:55 #35
Ma dico io, la tecnologia c'è per fare grandi giochi a livello di grafica e di trama ed interazione, non prendiamoci in giro con queste campagne nostalgiche, lo dice uno che ha 40 anni suonati e che giocava con il NES e Megadrive quando gran parte di voi non era ancora nato!
kamon16 Dicembre 2016, 13:16 #36
Originariamente inviato da: Ton90maz
Proprio Microsoft e Sony, vedi quanti Xenogiochi ti fanno


Se c'è una cosa buona fatta dagli sdentati negli ultimi anni è stata l'acquisizione di Monolith (avvenuto tra l'altro il modo collaterale, forse manco li volevano).


...Gli sdentati?
!fazz16 Dicembre 2016, 14:05 #37
Originariamente inviato da: al135
è una fottutissima miniconsole e se non ha pascal gridano al flop. grafica grafica grafica (che sfido a vedere la differenza su pochi pollici di schermo) , intanto non ne sapete un cazzo di contenuti, di gaming e di sfida. adios.


moderiamo il linguaggio, ammonizione
lucusta17 Dicembre 2016, 20:20 #38
Originariamente inviato da: MadMax of Nine
Lato potenza i chip sono molto buoni, io ho sia lo Shield TV che Tablet e con entrambi ci si può fare streaming 4K 60Hz in super fluidità, magari il problema sta nella banda, perchè per usare Geforce Now o streaming da Game Stream servono almeno 10 Mega per 1080p e almeno 50-60 per i 4K.


ed in tutto questo la potenza computazionale del chip dove starebbe?
è un thin-client, un desktop remoto, un monitor dislocato; puoi ottenere la stessa identica cosa con un chippetto grande la metà, visto che il 99% del lavoro grafico è fatto da un server remoto, e l'1% che rimane al chip da un ASIC a metrica fissa per multimedia streming.

4K a 60Hz.... neanche se fosse tutto schermo nero, a momenti.

"Quando Switch si ritroverà nella sua docking station riceverà l'alimentazione sufficiente per consentire al chip Tegra di operare a frequenze superiori rispetto a quelle delle versioni oggi disponibili sul mercato. Quindi, Switch sarà in grado di gestire giochi con grafica superiore rispetto ai consueti titoli mobile, ma rimarrà sensibilmente inferiore in fatto di capacità di elaborazione rispetto all'originale PS4."

questo passo è discutibile.
a mio avviso non ci sono le condizioni per pensare ne all'uso di Pascal, ne ad un die shrink di X1 dai 20nm ai 16nm finfet.
il processo da 20nm è perfettamente in linea con quello da 16nm finfet come occupazione di area per transistor (il back end è pratcamente il medesimo), quindi non porterebbe a maggior rese per wafer, mentre il consumo che si otterrebbe con l'architettura Maxwell rispetto a Pascal, per quelle specifiche frequenze (circa 1Ghz) non porterebbero a massivi risparmi, anzi... Pascal non ha l'indentico IPC di Maxwell; per aggiungere la possibilità di avere code piu' numerose per essere sfruttate adeguatamente in DX12 (2 invece che 1) sono stati introdotti passaggi intermedi, che generano cicli non prettamente computativi; l'architettura Pascal perde il 3% di IPC su Maxwell, ma in toto guadagna per l'uso di frequenze maggiori e la possibilità di nn perdere eccessivamente con codice DX12.
già la soluzione dentro X1 non è lo stesso maxwell che si trova nelle schede da gioco, ma è quello che si puo' ritrovare nelle schede PRO.
la console, come il tablet shield, funzionano con grafica a 16 bit, perchè questa base è usata in tutti i giochi per tablet e cellulari ; maxwell PRO e pascal PRO possono computare a 16 bit con il raddoppio delle prestazioni rispetto a 32 bit; le architetture da gioco PC, invece, sono prettamente 32 bit (e ne viene impedito l'uso in emulazione 32=16 con l'ultimo codice Cuda), quindi non si avrebbe nessun vantaggio nell'usare i 16 bit emulati (raddoppio IPC, spazio in memoria, banda della memoria).
nell'X1 c'e' un'architettura maxwell PRO proprio per questo.

l'ultima considerazione riguarda l'implementazione nell'apparecchio:
non sussiste un vero problema di dissipazione (anche se 15W non sono pochi da smaltire), ma di autonomia.
lo shield si permette meno di 2 ore di autonomia in mobilità giocando e sfruttando il chip (che non è la stessa cosa di quello che avviene con la shield TV e la computazione remota).
quindi se questa console deve usare il chip per l'intera elaborazione del gioco, 2 ore sono decisamente poche.
abbassando la frequenza del chip a 3/4 si riesce ad ottenere circa 3 ore senza subire troppe ripercussioni sul gameplay, vista la bassa risoluzione del monitor (720p), mentre in dock si puo' sfruttare l'intera potenza del chip per avere una maggiore produzione di frame.

quindi è X1, ne piu' ne meno.
la differenza sostanziale dipende dal fatto se nintendo voglia o meno usare la tecnologia di streaming del gioco, per migliorare autonomia e giocabilità, ossia la tecnologia dello shield TV.
penso a questo perche' ho letto che è richiesta la connessione per giocare.. puo' essere solo per una questione di protezione dalla pirateria, o anche per questa modalità elaborativa (che consente protezioni ancora maggiori).

d'altronde se uno streaming in FHD@60hz richiede 10Mbit, come accennato da qualcuno, uno da 720p richiederebbe 4 Mbit, e forse anche meno se si usano codec migliori e non si pretende una ottimale accuratezza dei colori (riduzione della profondità del colore).

la questione è che non è conveniente mettere Parker perchè:
non è affatto piu' piccolo (la differenza sostanziale è che i cuda core GP10B sono progettati per 64bit, i GM20B lo fanno in aggregazione perdendo pero' il rateo 2:1 sui 32 bit, e quindi, normalizzato per la dimensione del gate del processo produttivo, Pascal PRO è sensibilmente più grosso di un pari Maxwell PRO).
non consuma meno;
ha sensibili miglioramenti prestazionali solo se si possono sfruttare utilizzando una frequenza maggiore, cosa che non porta piu' a bassi consumi/calore;
costa decisamente di piu';
per ora nvidia su TMSC non ha nè disponibilità di wafer nè di spazio operativo sulle linee da 16nm, diversamente faceva chip che avrebbero reso molto piu' guadagno, le pascal (e usare le FAB samsung costerebbe troppo per una linea di prodotti dal successo incognito).

quindi, per entrambe le due aziende, è piu' facile che abbiano scelto la strada meno rischiosa o comunque quella che non prevede ingenti capitali d'ingegnerizzazione HW; X1 è in produzione da metà dell'anno scorso (ed è anche un progetto poco sfruttato da nvidia, sul quale non è riuscita a produrre un grosso guadagno).

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^