La CPU di PlayStation 3 impiegata seriamente con Folding@home

La CPU di PlayStation 3 impiegata seriamente con Folding@home

Folding@home è un programma medico realizzato dall'Università di Stanford per lo studio del folding delle proteine.

di pubblicata il , alle 16:01 nel canale Videogames
PlaystationSony
 
195 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
darkins20 Marzo 2007, 00:03 #171
ho perso il filo del discorso al delirio della 5° pagina...

spero che il messaggio passi cmq.... [COLOR="Red"][U][B][SIZE="7"]calcolate per la ricerca[/SIZE][/B][/U][/COLOR]... che sia un pentium 100 o un console poco importa!!!
ivano44420 Marzo 2007, 00:08 #172
azz..si impara molto a leggere questo forum

ho perso il filo del discorso al delirio della 5° pagina...

spero che il messaggio passi cmq.... calcolate per la ricerca... che sia un pentium 100 o un console poco importa!!!



giusto...ma non con la ps3,io la compro per giocare e dopo 600 euro pretendo di farlo
darkins20 Marzo 2007, 09:31 #173
Originariamente inviato da: ivano444
giusto...ma non con la ps3,io la compro per giocare e dopo 600 euro pretendo di farlo




il pc io lo pago molto di piu' e la cpu non la sfrutto mai al 100%... non sarebbe il caso di eliminare lo spreco?
bonzuccio20 Marzo 2007, 11:01 #174
Originariamente inviato da: Window Vista
Secondo me, il CELL può fare di +, ma per adesso non ci sono i tool adatti, forse tra 1 anno e passa si vedrà uno spiraglio di luce

Che ne dici Yossarian???


Ti rispondo hio sperando che queste slide siano il fulcro di ulteriore discussione
con i nostri supertecnici leggermente vga-centrici

Edge tools

sono in versione beta

leggetele attentamente, eccole li le potenzialità del cell che si interfaccia con rsx (non male per una ppe senza OoO che deve pure comandare 7 dsp)

Link ad immagine (click per visualizzarla)
Di questo si parlava

Detto questo la notizia dell'utilizzo del Cell in ambiti diversi da quelli che è un blade server o un mainframe (ricordo la discussione in cui più di qualcuno parlava delle spe del cell come semplici dsp che sono gli stessi che qui parlano del cell come ne carne ne pesce) ma si utilizza anche in amiti quali mondo gaming di una console e nello specifico nel calcolo distribuito di un progetto importante come il folding@home,
non è che si tratta di una cpu (ho detto UNA cpu dai) di tipo gp e allo stesso tempo ultra specializzata?
Ho come l'impressione che tutto questo crei un certo scompiglio tra i tecnici abituati a un preciso modo di programmare e di utilizzare le risorse di architetture prettamente desktop quali quelle che ci troviamo sulle scrivanie.. a volte sotto la tv se si parla di xbox che è un pc in piccolo ah ma ci sono le esclusive, quanti soldi si spendono a volte invece di fare innovazione eh.
Qui si parla di una console che apre scenari diversi a quelli classici di vga che consumano 200W e processori perfettamente inutilizzati,
leggasi anche l'enfasi con cui si parla di cell che non fa rendering ma può aiutare (a questo punto si è giunti molto in la nella discussione) nella ia (male ovviamente causa branching prediction non proprio ad alti livelli), nella fisica e per ultimo nel calcolo dei poligoni.. e invece sta li il punto focale.
Bene farebbe sony a ingigantire le potenzialità del Cell, secondo me (qualora lo facesse) non lo fa abbastanza.
Questa è politica ed è importante e rileggendo la discussione dall'inizio sicuramente non sono il più bravo a farla
mi infastidisce il modo di bollare qualcosa che in molti ritengono giustamente innovativo con luoghi comuni che stranamente vengono da chi non dovrebbero venire additando gli altri di fare del cell la panacea e quant'altro.. cell è cell chi ha voglia di lavorarci ci lavori
ringrazio yoss per le delucidazioni tecniche, ho appreso concetti nuovi e criteri per pesare le architetture.. oltre che a infiniti suggerimenti di studio vista la complessità del tema.. ma continuo a pensare che se non hai a che fare direttamente con queste cose difficilmente non avrò bisogno ancora di delucidazioni
yossarian20 Marzo 2007, 15:20 #175
Originariamente inviato da: bonzuccio

Detto questo la notizia dell'utilizzo del Cell in ambiti diversi da quelli che è un blade server o un mainframe (ricordo la discussione in cui più di qualcuno parlava delle spe del cell come semplici dsp che sono gli stessi che qui parlano del cell come ne carne ne pesce) ma si utilizza anche in amiti quali mondo gaming di una console e nello specifico nel calcolo distribuito di un progetto importante come il folding@home,
non è che si tratta di una cpu (ho detto UNA cpu dai) di tipo gp e allo stesso tempo ultra specializzata?


anche per la serei X1x00 di ATi esiste un client folding@home, come ne esiste uno per la serie 8 di NV e anche per le cpu multicore di tipo x86; questo non dimostra niente; la serie X1x00, le 8x00 e anche R500 sono in grado di far girare alcuni task di tipo gp più velocemente (anche di molto) rispetto alle stesse cpu). Non mi pare che questo abbia sconvolto qualcuno

Originariamente inviato da: bonzuccio
non è che si tratta di una cpu (ho detto UNA cpu dai) di tipo gp e allo stesso tempo ultra specializzata?


la fisica teorica può incrociare la strada della filosofia, quella della tecnologia no, nel modo più assoluto. Un dispositivo o è altamente specializzato oppure no; non può essere altamente specializzato a fare tutto ugualnmete bene (e comunque dispositivi "tuttologi" non ne conosco )

Originariamente inviato da: bonzuccio
Bene farebbe sony a ingigantire le potenzialità del Cell, secondo me (qualora lo facesse) non lo fa abbastanza.


A me pare che Sony sia, invece, molto brava a pubblicizzare anche quello che non c'è (tipo i famosi 2 Tflops di potenza di calcolo della ps3 ). Stai tranquillo che tutto quello che c'è da ingigantire Sony l'ha già fatto

Originariamente inviato da: bonzuccio

Questa è politica ed è importante e rileggendo la discussione dall'inizio sicuramente non sono il più bravo a farla
mi infastidisce il modo di bollare qualcosa che in molti ritengono giustamente innovativo con luoghi comuni che stranamente vengono da chi non dovrebbero venire additando gli altri di fare del cell la panacea e quant'altro.. cell è cell chi ha voglia di lavorarci ci lavori


hai detto bene: cell è cell, con i suoi pregi e i suoi difetti i suoi punti di forza e i suoi limiti, non è il santo graal

Per il resto, quanto hai riportato sono informazioni ben note, per buona parte dalla presentazion del cell, il restante agli addetti a i lavori (e comunque da tempo). Questo non sposta di una virgola le considerazioni già fatte: il cell fa bene diverse cose; altre ha la potenzialità per farle meglio (questo non significa che non se ne conoscano i limiti teorici che non potranno mai essere superati nella realtà. Per altre presenta, invece, dei notevoli limiti che, in virtù della sua architettura non possono essere superati.

Quello che si legge nelle presentazioni è tutto bello; il problema è metter in pratica certi proponimenti: ad esempio, nelle slide che hai postato, c'è scritto che il sistema è bilanciato in modo che RSX non debba attendere i dati dal cell: alla luce del fatto che conosco la criticità del trasferimento dati all'interno del cell e della gestione degli accessi alle risorse di sistema, permettimi di vare dei dubbi al riguardo: Sicuramente nel caso ideale potrà essere così, ma quente volte ci so trova nella situazione ideale?

In quanto alla definizione ppe + dsp, nella realtà gli elementi senza cui il cell non potrebbe funzionare sono essenzialmente il ppe e l'arbiter dell'eib (mentre può benissimo fare a meno dei spe (altra dimostrazione che non possono essere considerati cpu neppure all'interno del sottosistema cell). Inoltre, molti dsp hanno caratteristiche tali da permettere di assimilarli a cpu (cosa che i spe non hanno). Quindi non userei il termine dsp (che altro non sono che processori di segnali digitali), in maniera dispregiativa

p.s. tra l'altro, a leggere certi interventi, pare che il cell sia un oggetto misterioso, un continente da scoprire. Visione romantica ma maolto lontana dalla realtà. Quando si fa un progetto, di solito (qualche eccezione c'è sempre ), si parte da un'idea ben precisa di ciò che serve e di come lo si vuole realizzare. Questo significa che si possono incontrare difficoltà a mettere in pratica alcune idee teoriche, persino che, in alcuni casi, un porgetto vada al di là delle aspettative più rosee; ma non esiste che si progetta qualcosa senza conoscerne le potenzialità e i limiti (come dire:" ok, abbiamo per le mani questo coso, adesso vediamo cosa possiamo farci" )
bonzuccio20 Marzo 2007, 16:24 #176
E fortuna che sony non ha detto che i 2T Flops erano solo del cell

Sul fatto che i dsp possono essere molto complessi è appurato
ma le spu sono processori gp essendo che hanno istruzioni gp, la p vorrà pur dire qualcosa e la s sta per synergic quindi lavorano e si scambiano i dati assieme.
Poi parlano con la memoria centrale quindi cell è un multiprocessore con una cpu e 7 unità specializzate in determinati compiti ma pur sempre processori gp

E' un ottoprocessore

Quindi stando a quello che avevi detto
cell + rsx = xenos in determinati casi
cell + rsx < xenos in altri casi in cui ci sono colli di bottiglia dovuti a latenze e al fatto che sono sempre elementi separati (malgrado la memoria condivisa sia velocissima)
Ora quello che mi chiedo, visto che sto benedetto Cell dovranno sfruttarlo per non fare magre figure con chi FINALMENTE sfrutterà la ati di xbox a shader unificati, è se visto che lo useranno e pagheranno qualcosa in termini di latenze già che ci sono non fanno lavorare cell nello stesso momento in cui generano poligoni anche per la fisica prendendo due piccioni con una fava.
Cioè le esplosioni non soffriranno di scattosità varie e avremo una scena in cui il realismo sarà determinato oltre che dalla qualità delle texture e dal numero di poligoni anche dal fatto che tutto si muove secondo principi determinati da principi di fisica
yossarian20 Marzo 2007, 16:59 #177
Originariamente inviato da: bonzuccio
E fortuna che sony non ha detto che i 2T Flops erano solo del cell

sony non ha tanto interesse a pubblicizzare il cell quanto ps3; sfatiamo una leggenda metropolitana: Sony non ha progettato il cell. Se mai dovrebbe essere IBM a propagandarlo. La cosa grave è che dei 2 Tflops, 1,8 erano relativi a RSX (aka G70)

Originariamente inviato da: bonzuccio

Sul fatto che i dsp possono essere molto complessi è appurato
ma le spu sono processori gp essendo che hanno istruzioni gp, la p vorrà pur dire qualcosa e la s sta per synergic quindi lavorano e si scambiano i dati assieme.
Poi parlano con la memoria centrale quindi cell è un multiprocessore con una cpu e 7 unità specializzate in determinati compiti ma pur sempre processori gp

E' un ottoprocessore


anche R500 può eseguire istruzioni gp ed ha accesso diretto alla ram di sistema (invece ogni spe ha accesso diretto solo alla sua ram locale): questo non ne fa una cpu gp. Un spe non è una cpu ma un processore (può sembrare una sottigliezza ma non lo è, poichè una cpu è un processore ma un processore non necessariamente è una cpu)

Originariamente inviato da: bonzuccio

Quindi stando a quello che avevi detto
cell + rsx = xenos in determinati casi
cell + rsx < xenos in altri casi in cui ci sono colli di bottiglia dovuti a latenze e al fatto che sono sempre elementi separati (malgrado la memoria condivisa sia velocissima)


memoria condivisa velocissima è un eufemismo; per avere un ordine di grandezza in cicli di clock, si potrebbe dire che l'accesso ad un registro richiede un ciclo (in linea di massima e comunque l'ordine di grandezza è quello), per una cache interna siamo sull'ordine delle decine, per una ram di sistema su quello delle centinaia (per quanto sia veloce).
Le uguaglianze/disuguaglianze di sopra, valgono solo in considerazione della sottosezione grafica. Questo non vuol dire che ps3 <= x360; ci saranno dei casi in cui va meglio la x360 e altri in cui prevale la ps3.

Originariamente inviato da: bonzuccio

Ora quello che mi chiedo, visto che sto benedetto Cell dovranno sfruttarlo per non fare magre figure con chi FINALMENTE sfrutterà la ati di xbox a shader unificati, è se visto che lo useranno e pagheranno qualcosa in termini di latenze già che ci sono non fanno lavorare cell nello stesso momento in cui generano poligoni anche per la fisica prendendo due piccioni con una fava.
Cioè le esplosioni non soffriranno di scattosità varie e avremo una scena in cui il realismo sarà determinato oltre che dalla qualità delle texture anche dal fatto che tutto si muove secondo principi determinati da principi di fisica


cell è progettato per lavorare contemporaneamente su tutto e per farlo può operare sia in parallelo che in streaming, a seconda delle esigenze; lo stesso non vale per il singolo spe; ognuno avrà il suo specifico task; quindi c'è quello che fa calcoli geometrici, quello che si occupa del S.O., quello che fa calcoli relativi alla fisica, magari un paio che si occupano dell'audio, ecc. Questo perchè ogni spe è strutturato in modo tale da lavorare su un preciso task fino a che ha terminato le istruzioni in ingresso, oppure riceve il comando di iniziare a lavorare su altro.
Il tutto va condito con la difficoltà di organizzare il lavoro di tutte queste unità e con quelle connesse alla gestione degli accessi alle risorse di sistema e dello scambio di dati internamente al cell (ad esempio, nel trasferimento dei dati tra un spe ed un altro, ci sono delle precise regole da rispettare per non rischiare di vedere compromesse le prestazioni del chip).

In ogni caso, se ti aspetti giochi veramente realistici sia dal punto di vista della grafica che dell'IA e della fisica, non credo che rimarrai soddisfatto da questa generazione (che, almeno a livello di potenza di calcolo è già stata ampiamente superata dai pc)
ivano44420 Marzo 2007, 21:26 #178
Originariamente inviato da: darkins


il pc io lo pago molto di piu' e la cpu non la sfrutto mai al 100%... non sarebbe il caso di eliminare lo spreco?


ma che centra il folding della ps3 non lavora mica in background quindi se lo fai non puoi giocare...
Free Gordon21 Marzo 2007, 18:03 #179
Originariamente inviato da: yossarian
Il principio su cui si basa il ring bus è molto semplice: su un crossbar tradizionale, ogni braccio serve un certo numero di chip di ram. Nel momento in cui una unità di calcolo ha bisogno di accedere alla ram, l'arbiter riceve la richiesta di accesso, ne valuta la priorità (insieme alle altre richieste pervenute), la invia al chip a cui è stato chiesto di accedere e quindi procede all'evasione della richiesta. In pratica, segue tutto il processo, ad esempio, di trasferimento dati da e verso la ram (che si può dividere in 4 fasi).
Con il ring bus, invece, una volta che il controller ha ricevuto la richiesta e l'ha inoltrata viene reso libero di passare ad elaborare altre richieste; supponiamo che si debba trasferire dei dati da un chip di ram verso un'unità di calcolo, questi sono messi in circolo all'interno del ring (ovviamente il pacchetto contiene anche l'informazione relativa alla alu o pipeline che deve farne uso); una volta che il pacchetto arriva in corrispondenza dell'unità che ne ha fatto richiesta, viene automaticamente smistato senza ulteriori interventi da parte del controller.



Praticamente è la stessa differenza che passa tra il semaforo e la rotatoria!
Free Gordon21 Marzo 2007, 18:30 #180
Originariamente inviato da: yossarian
in quest'ottica, un grosso vantaggio è costituito dai 10 MB di eDRAM integrata nel die secondario di xenos: il suo vero limite è che ce ne sarebbe voluta di più ).




Se mi permetti, penso di aver capito perchè c'è l'eDRAM in xenos.

Perchè non hanno creato uno Xenon con memcontroller integrato (tipo A64/Cell).
Hanno preferito risparmiare lì e investire nell'eDRAM.

Sennò avremmo avuto un'archi NUMA anche su 360, due pool di memoria ognuno col suo bus e niente eDRAM (per tenere bassi i costi ovviamente) ecc ecc...

Dal lato CPU sarebbe stato meglio (penso che Cell abbia un tot di banda "reale" in più a disposizione di Xenon) dal lato costi non lo so... ma sicuramente non penso (come dice nAo) che avrebbero potuto impiegare i transist in più (dall'eliminazione dell'eDRAM) nel core di Xenos... sennò addio economicità.

La questione è lì: o metti l'eDRAM -scelta Ms- o metti due bus (o un bus a 256bit per la GPU) -scelta Sony-.



Domandona allo Yosss:
Visto che dagli ultimi SDK, pare che Sony voglia usare la 1080p col barbatrucco.. (vogliono utilizzare un frame buffer di 960x1080 e poi up-scalare orrizzontalmente per avere la 1080p al costo della 720p ) non è possibile anche per 360 fare la stessa cosa?
Se renderizzi un'immagine a 480x720 e poi la upscali non potresti evitare di fare 3 tile (portarlo a 2) e ridurre così l'overdraw poligonale che penalizza così tanto il frame rate?

I dati dall'MT framework di Capcom parlano di un calo del frame rate del 5% nel caso dell'MSAA2X e uno del 15-20% nel caso del 4X. Ben lontani dal 5% auspicato da ATI col 4X attivo (spiegami come si ridurrebbe grazie al tiling manuale).

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^