Xbox One Slim a fine anno, modello più potente solo nel 2017

Xbox One Slim a fine anno, modello più potente solo nel 2017

Secondo i rumors Microsoft avrebbe in programma di lanciare anche una versione con hardware potenziato nel 2017.

di pubblicata il , alle 08:25 nel canale Videogames
MicrosoftXbox
 
59 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
cdimauro26 Maggio 2016, 21:16 #51
Originariamente inviato da: PaulGuru
La CPU Cell PS3 è stata un fail.

In che senso? Perché a livello di potenza di calcolo non c'era nessuna CPU che poteva competere.

Poi che ci fossero problemi per sfruttarla è un altro paio di maniche.
La Xbox360 aveva gli shader unificati, su PC non sono usciti assieme perchè erano ancora in fase di produzione ma già c'era il G80.

No, come ti è stato detto non c'era niente. Inoltre la GPU della XBox360 aveva persino delle funzionalità di hardware tessellation che sarebbero state introdotte soltanto con le DirectX11 su PC.
Originariamente inviato da: DjLode
Diciamo che con le potenze delle console attuale è complicato (tocca scendere di risoluzione), con il doppio di potenza disponibile... si sta stretti. Con potenze attorno alle quattro volte come si vocifera (per XB1) ci si potrebbe stare ampiamente. Ovviamente con una risoluzione solo Full HD, per i 4K siamo ancora molto lontani con le attuali gpu appena uscite, quindi non c'è neanche da pensarci.

Col nuovo hardware il FullHD a 60FPS sarà finalmente abbordabile. Pure con modelli poligonali un po' migliorati, se le voci che circolano saranno confermate.
Originariamente inviato da: DjLode
Questo non lo so, probabilmente portare avanti due progetti (l'XGpu e la Gpu a shader unificati) era troppo dispendioso e sono arrivati tardi...

Lo penso anch'io, ma è stato anche molto comodo per Ati, perché ha potuto riciclare ricerca & sviluppo fatti per la GPU della XBox360, per le nuove GPU per PC.
Originariamente inviato da: kamon
Mah, questo lo vedremo... In passato ci sono stati casi di macchine con meno forza bruta ma che grazie ad un hardware specifico per certe feature erano molto avvantaggiate rispetto ad altre che in teoria erano più potenti... Tipo chip dedicati per per lo scrolling o il super fx di super nintendo oppure... Bho, al momento non mi viene in mente altro .

Non ci sarà nulla del genere: ormai si va avanti a colpi di più shader core, e frequenze più elevate (se/quando possibile).
Originariamente inviato da: ambaradan74
Finalmente qualcuno che la pensa come me.

Io l'ho sempre detto, la Ps4 ha portato, nel momento in cui e' uscita, la migliore APU possibile.

Veramente tuttodigitale non ha detto nulla del genere.
In proporzione e' un progetto fatto molto meglio rispetto ai vecchi hardware model, che hanno portato poi altri problemi, ovvero perdite economiche, console bruciate e difficolta estreme nella programmazione.

Ha parlato della sola GPU, e peraltro soltanto di quella della PS3.
Sony da questo punto di vista e' cresciuta parecchio.

E' regredita, semmai, visti i risultati.
Originariamente inviato da: ambaradan74
Ci riprovo

L'Xbox 360 e' uscita a Novembre 2005, l'XBOX ONE a Novembre 2013
La Ps3 e' uscita nel Novembre 2006, la Ps4 nel Novembre 2013

Quindi , come ho detto prima, non sono 10 ma neanche 4/5.
Sono 7/8 anni.

Sì, 8 e 7 anni rispettivamente.
Se la NEO uscisse a primavera 2017 dimezzerebbero i tempi rispetto a prima.

Perché così le console diventeranno a tutti gli effetti dei PC: cambio di hardware dopo pochi anni.
Originariamente inviato da: NODREAMS
Comunque, spero che Microsoft faccia uscire una console di nuova concezione, con GPU, RAM e CPU nuova capaci di garandire magari giochi a 2K e 60fps poi upscalati a 4K

FullHD a 60FPS dovrebbero essere tranquillamente gestibili. Non so 2K, visto che ci sono un bel po' di pixel in più da processare.
e con inoltre un emulazione totale dei giochi di Xbox One e 360 anch'essi migliorati via emulazione dandogli maggiore risoluzione e filtri AA.

Lato GPU non ci sarebbe alcun problema. Al momento il collo di bottiglia è rappresentato dalla CPU, che tante volte non è sufficiente per garantire una certa fluidità.

Solo che se aumenteranno soltanto di qualche decina di punti percentuali la frequenza dei core della CPU, le problematiche non saranno risolte, ma soltanto leggermente migliorate.
Originariamente inviato da: ambaradan74
Devi usarne 2, uno sulla CPU e uno sulla GPU.
Il case lo devi ridisegnare in funzione di immettere l'aria e di estrarla.
Poi le ventole devi metterle buone, se no fa casino.

Certamente. Infatti anche la Wii U fa casino, pur avendo hardware ben inferiore.
Gia la 360 era venduta in perdita..

Ne abbiamo già parlato: di circa $100 all'introduzione, ma dopo appena un anno Microsoft guadagnava circa $75 per ogni console venduta.
Originariamente inviato da: tuttodigitale
C'è anche da dire che R580 delle x1900, aveva una potenza, seppur più difficile da sfruttare, enormemente superiore...550Gflops contro i 200 e spicci di xenos.
E anche la complessità, non era certo paragonabile:
384 milioni vs 220milioni..(molto meglio di PS3 sia chiaro, che è uscita con colpevole ritardo).

Xenos aveva anche 10MB di eDRAM, più un bel po' di milioni di transistor per un po' di logica "tipo ROP".
Imho in quegli anni ha pagato anche la scelta di nvidia, di avere frequenze di clock maggiore per gli shader. Vantaggio, annullato con il passaggio ai 55nm..
Imho, più che demeriti di ATI (un disegno unificato dx10, è per sua natura meno efficiente di quello dx9 con shader dedicati con codice legacy), credo che sia stata nvidia a piazzare il colpo..

Non credo, visto che tanti sviluppatori sono stati costretti a utilizzare Cell per scaricargli un po' di effetti di postprocessing, per cercare di scaricare un po' di calcoli dalla GPU, che aveva già il suo bel da fare.
Vi ricordo anche MS, aveva ancora bisogno di farsi un nome tra i consolari....il prezzo del modello base era di 299 euro....estremamente competitivo

Sì, ma non perdeva nemmeno tanto: vedi sopra.

E' Sony con la PS3 che s'è svenata, visto che ha voluto strafare, con l'integrazione dell'inutilissimo lettore BluRay in pompa magna, che le è costato un occhio della testa, ma soprattutto il ritardo di un anno per i problemi di approvvigionamento dei pick-up del laser.
Originariamente inviato da: tuttodigitale
non tutta è colpa della gpu di ATI..
avevano anche un mostro di CPU, un tri-core da 3,2GHz..

No, Xenon era "una carretta", citando testualmente lo sviluppatore di Fable 2, che è stato utente di questo forum. Se cerchi quelli dell'utente fek, ci sono un sacco di commenti che ha scritto all'epoca, e in cui si è lamentato della scarsa potenza di calcolo della CPU della XBox360.

Per la GPU il discorso era, invece, molto diverso, ma affermava che per sfruttarla adeguatamente bisognava cambiare il modo di programmarla, rispetto a una tradizionale GPU per PC. Anche questo l'ha scritto qui, da qualche parte.
cdimauro26 Maggio 2016, 21:47 #52
Originariamente inviato da: ambaradan74
Se non ricordo male fek, che scriveva anche su multi player, parlava male anche del cell.

Sì.
Potente per certi tipi di calcoli ma osceno per altri, tipo vado a sprazzi, qualcosa legato a istruzioni in order o robe così.

Esattamente, ma anche la CPU della XBox360 era in-order.
Mi pare parlasse male anche della edram della 360, tipo che era difficile farci stare la res completa e infatti alcuni giochi erano a risoluzione inferiore per poi essere scalata. Bo.

Sì, servivano 3 passaggi per renderizzare a 720p@30FPS con AA 4x, se non ricordo male.
In pratica stiamo dicendo che le vecchie console facevano schifo, difficili da programmare , costose, bollenti ecc., in pratica un compromesso un po' su tutto.

Come sempre, ma meglio delle precedenti console.

Forse a parte la prima XBox, che fra quelle vecchie è la più semplice da programmare. Ma c'è da dire che era anche di gran lunga più costosa.
La filosofia adottata da ps4 e one in poi é migliore, c'è poco da discutere.

Mi permetto di dissentire, e ho già ampiamente spiegato il perché.
Prezzo la lancio basso, facile da programmare, potenza giusta e ciclo vitale medio.

La XBox360 costava soltanto $100 in più, ma... a Microsoft, e non agli utenti.

Poi c'è da dire che la XBoxOne ricalca un po' quello che è stato fatto con la XBox360, avendo anche lei memoria embedded, e dunque costringendo i programmatori a fare i salti mortali per spremerla per bene.
tuttodigitale26 Maggio 2016, 21:51 #53
Originariamente inviato da: cdimauro
Xenos aveva anche 10MB di eDRAM, più un bel po' di milioni di transistor per un po' di logica "tipo ROP".

la edram non la considero, pechè è semplicemente un modo per risparmiare, sulle ram e sul pcb..se no cosa si fa, misuriamo anche le dimensioni totale dei chips montati su r580?

Originariamente inviato da: cdimauro
Non credo, visto che tanti sviluppatori sono stati costretti a utilizzare Cell per scaricargli un po' di effetti di postprocessing, per cercare di scaricare un po' di calcoli dalla GPU, che aveva già il suo bel da fare.

forse hai equivocato. Tu parli di PS3, e quindi di g70/1, che era un bel pò più lento con filtri attivi di r580.

Originariamente inviato da: cdimauro
No, Xenon era "una carretta", citando testualmente lo sviluppatore di Fable 2, che è stato utente di questo forum. .

Su questo sono d'accordo, il mostro era riferito al consumo. Era affamato di energia.
Il modello Falcon (90nm GPU, 80nm edram e 65nm CPU) assorbiva 120W contro i 175W del modello originale...
cdimauro26 Maggio 2016, 22:03 #54
Originariamente inviato da: tuttodigitale
la edram non la considero, pechè è semplicemente un modo per risparmiare, sulle ram e sul pcb..se no cosa si fa, misuriamo anche le dimensioni totale dei chips montati su r580?

Quindi non consideri nemmeno l'ESRAM della XBoxOne? Se fai il conteggio dei transistor del SoC, togli quelli per questo componente?

Comunque l'eDRAM nella GPU della XBox360 serviva come framebuffer & zbuffer (se non ricordo male), ed era necessario per il rendering della scena assieme alla logica di cui sopra (che gestiva ROP, AA, e HDR).

Si tratta di un componente che fa parte della GPU, anche se è staccato (poi integrato nella versione singolo chip, e infine singolo SoC), ed è ben diverso dalla normale RAM (infatti c'è anche un bel po' di logica).
tuttodigitale26 Maggio 2016, 22:31 #55
Originariamente inviato da: cdimauro
Quindi non consideri nemmeno l'ESRAM della XBoxOne? Se fai il conteggio dei transistor del SoC, togli quelli per questo componente?

si...lo sai meglio di me che la ESRAM è una soluzione di ripiego, a basso costo, rispetto ad una soluzione basata sulle gddr5.
cdimauro26 Maggio 2016, 22:35 #56
OK, da questo punto di vista hai perfettamente ragione.

Ma l'eDRAM della XBox360 non serviva solo a quello, visto che c'era anche la logica delle ROP + AA + HDR. Xenos è nato per lavorare in un certo modo, molto diverso dalle normali GPU.
tuttodigitale26 Maggio 2016, 23:07 #57
Originariamente inviato da: cdimauro
OK, da questo punto di vista hai perfettamente ragione.

Ma l'eDRAM della XBox360 non serviva solo a quello, visto che c'era anche la logica delle ROP

di questo fatto ne ero all'oscuro.

Originariamente inviato da: ambaradan74
Finalmente qualcuno che la pensa come me.

Io l'ho sempre detto, la Ps4 ha portato, nel momento in cui e' uscita, la migliore APU possibile.

ho detto un qualcosa di poco diverso....
se si dà contro alla ps4 lato GPU, non si può non trascurare il fatto che la ps3, la regina delle console della passata generazione, era messa peggio, con un HW, che per chi se lo fosse dimenticato, che non era neppure in grado di usare la combinazione HDR+AA..
Per tale motivo, non ha senso dire che le console di questa generazione sono nate vecchie...quando a differenza, sempre della ps3, sono tecnologicamente all'avanguardia.

PS parlo della ps3, perchè tra le 2 pare che abbia riscosso un maggior successo, o almeno questa è la mia sensazione

Originariamente inviato da: ambaradan74
In proporzione e' un progetto fatto molto meglio rispetto ai vecchi hardware model, che hanno portato poi altri problemi, ovvero perdite economiche, console bruciate e difficolta estreme nella programmazione.


Non voglio sminuire il ragionamento...ma 175W alla presa, sono circa 150W tra CPU, GPU e edram, potenze facilmente dissipabili (beh, dipende anche dalle dimensioni del chassis) .
sul cell, in effetti pare essere stato davvero un buco nell'acqua..
cdimauro26 Maggio 2016, 23:24 #58
La XBox360 ha avuto più successo rispetto alla PS3, e ha avuto la miglior GPU. Infatti era persino normale che i giochi per questa console avessero HDR e AA, visto che erano quasi gratis (grazie a eDRAM + logica di cui sopra).

Cell è stato un fallimento perché era difficile da programmare. Inoltre veniva spacciato come la rivoluzione che avrebbe seppellito il PC e i suoi processori, mentre si vedeva subito (tranne per chi non capiva una mazza di architetture. E in questo forum ce ne sono stati diversi) che non fosse un processore general-purpose.
OttoVon27 Maggio 2016, 15:32 #59
Originariamente inviato da: GoFoxes
Mi sembra molto strano.


Giuro.
Ora non so come venga implementato il timing, può essere che tra 60fps e 120fps poi non cambi nulla. Risulterebbe ingiocabile.
Un altro titolo può essere DS2, se lo giochi a 60fps le armi dimezzano la loro durata. Perché hanno vincolato diverse cose ai 30fps.

Terraria bloccato a 40fps, contro i pillars lunari si sblocca fino a 60fps.
Diventa un altro gioco.

Esempi non mancano.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^