Specifiche Nintendo Switch: Tegra con architettura Maxwell e non Pascal
Nintendo non ha ancora comunicato le specifiche ufficiali della console prevista per marzo, ma GamesBeat ha raccolto delle interessanti segnalazioni in proposito.
di Rosario Grasso pubblicata il 15 Dicembre 2016, alle 12:31 nel canale VideogamesNintendoSwitchNVIDIATegra
38 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infomagari li compra MS o Sony e finalmente esce uno Xenoblade con le collisioni reali e non i mostri trasparenti, magari con una simulazione fisica e ambiente interattivo
sognare è bello
Da una parte è vero, ma dall'altra la gente è stufa di giochi fotocopia, di giochi AAA con 50gb di patch al day one. Per non parlare delle console potenziate e relativi giochi che hanno problemi sulle barbon edition.
Insomma ci vorrebbe un cambio di rotta generale.
Bye
Insomma ci vorrebbe un cambio di rotta generale.
Bye
Così stufa che vendono sempre in crescita
Si può essere stufi di alcune serializzazioni oscene come cod, ma i titoli aaa la fanno da padrone e gli indie, tranne alcuni che puntano su uno stile isometrico oldstyle, sono ben lontani dal non essere curati graficamente.
sognare è bello
Proprio Microsoft e Sony, vedi quanti Xenogiochi ti fanno
Se c'è una cosa buona fatta dagli sdentati negli ultimi anni è stata l'acquisizione di Monolith (avvenuto tra l'altro il modo collaterale, forse manco li volevano).
Se c'è una cosa buona fatta dagli sdentati negli ultimi anni è stata l'acquisizione di Monolith (avvenuto tra l'altro il modo collaterale, forse manco li volevano).
...Gli sdentati?
moderiamo il linguaggio, ammonizione
ed in tutto questo la potenza computazionale del chip dove starebbe?
è un thin-client, un desktop remoto, un monitor dislocato; puoi ottenere la stessa identica cosa con un chippetto grande la metà, visto che il 99% del lavoro grafico è fatto da un server remoto, e l'1% che rimane al chip da un ASIC a metrica fissa per multimedia streming.
4K a 60Hz.... neanche se fosse tutto schermo nero, a momenti.
"Quando Switch si ritroverà nella sua docking station riceverà l'alimentazione sufficiente per consentire al chip Tegra di operare a frequenze superiori rispetto a quelle delle versioni oggi disponibili sul mercato. Quindi, Switch sarà in grado di gestire giochi con grafica superiore rispetto ai consueti titoli mobile, ma rimarrà sensibilmente inferiore in fatto di capacità di elaborazione rispetto all'originale PS4."
questo passo è discutibile.
a mio avviso non ci sono le condizioni per pensare ne all'uso di Pascal, ne ad un die shrink di X1 dai 20nm ai 16nm finfet.
il processo da 20nm è perfettamente in linea con quello da 16nm finfet come occupazione di area per transistor (il back end è pratcamente il medesimo), quindi non porterebbe a maggior rese per wafer, mentre il consumo che si otterrebbe con l'architettura Maxwell rispetto a Pascal, per quelle specifiche frequenze (circa 1Ghz) non porterebbero a massivi risparmi, anzi... Pascal non ha l'indentico IPC di Maxwell; per aggiungere la possibilità di avere code piu' numerose per essere sfruttate adeguatamente in DX12 (2 invece che 1) sono stati introdotti passaggi intermedi, che generano cicli non prettamente computativi; l'architettura Pascal perde il 3% di IPC su Maxwell, ma in toto guadagna per l'uso di frequenze maggiori e la possibilità di nn perdere eccessivamente con codice DX12.
già la soluzione dentro X1 non è lo stesso maxwell che si trova nelle schede da gioco, ma è quello che si puo' ritrovare nelle schede PRO.
la console, come il tablet shield, funzionano con grafica a 16 bit, perchè questa base è usata in tutti i giochi per tablet e cellulari ; maxwell PRO e pascal PRO possono computare a 16 bit con il raddoppio delle prestazioni rispetto a 32 bit; le architetture da gioco PC, invece, sono prettamente 32 bit (e ne viene impedito l'uso in emulazione 32=16 con l'ultimo codice Cuda), quindi non si avrebbe nessun vantaggio nell'usare i 16 bit emulati (raddoppio IPC, spazio in memoria, banda della memoria).
nell'X1 c'e' un'architettura maxwell PRO proprio per questo.
l'ultima considerazione riguarda l'implementazione nell'apparecchio:
non sussiste un vero problema di dissipazione (anche se 15W non sono pochi da smaltire), ma di autonomia.
lo shield si permette meno di 2 ore di autonomia in mobilità giocando e sfruttando il chip (che non è la stessa cosa di quello che avviene con la shield TV e la computazione remota).
quindi se questa console deve usare il chip per l'intera elaborazione del gioco, 2 ore sono decisamente poche.
abbassando la frequenza del chip a 3/4 si riesce ad ottenere circa 3 ore senza subire troppe ripercussioni sul gameplay, vista la bassa risoluzione del monitor (720p), mentre in dock si puo' sfruttare l'intera potenza del chip per avere una maggiore produzione di frame.
quindi è X1, ne piu' ne meno.
la differenza sostanziale dipende dal fatto se nintendo voglia o meno usare la tecnologia di streaming del gioco, per migliorare autonomia e giocabilità, ossia la tecnologia dello shield TV.
penso a questo perche' ho letto che è richiesta la connessione per giocare.. puo' essere solo per una questione di protezione dalla pirateria, o anche per questa modalità elaborativa (che consente protezioni ancora maggiori).
d'altronde se uno streaming in FHD@60hz richiede 10Mbit, come accennato da qualcuno, uno da 720p richiederebbe 4 Mbit, e forse anche meno se si usano codec migliori e non si pretende una ottimale accuratezza dei colori (riduzione della profondità del colore).
la questione è che non è conveniente mettere Parker perchè:
non è affatto piu' piccolo (la differenza sostanziale è che i cuda core GP10B sono progettati per 64bit, i GM20B lo fanno in aggregazione perdendo pero' il rateo 2:1 sui 32 bit, e quindi, normalizzato per la dimensione del gate del processo produttivo, Pascal PRO è sensibilmente più grosso di un pari Maxwell PRO).
non consuma meno;
ha sensibili miglioramenti prestazionali solo se si possono sfruttare utilizzando una frequenza maggiore, cosa che non porta piu' a bassi consumi/calore;
costa decisamente di piu';
per ora nvidia su TMSC non ha nè disponibilità di wafer nè di spazio operativo sulle linee da 16nm, diversamente faceva chip che avrebbero reso molto piu' guadagno, le pascal (e usare le FAB samsung costerebbe troppo per una linea di prodotti dal successo incognito).
quindi, per entrambe le due aziende, è piu' facile che abbiano scelto la strada meno rischiosa o comunque quella che non prevede ingenti capitali d'ingegnerizzazione HW; X1 è in produzione da metà dell'anno scorso (ed è anche un progetto poco sfruttato da nvidia, sul quale non è riuscita a produrre un grosso guadagno).
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".