La CPU di PlayStation 3 impiegata seriamente con Folding@home

Folding@home è un programma medico realizzato dall'Università di Stanford per lo studio del folding delle proteine.
di Rosario Grasso pubblicata il 16 Marzo 2007, alle 16:01 nel canale VideogamesPlaystationSony
195 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoPer carità il folding@home è una applicazione utilissima e dai nobili propositi (sicuramente molto + utile di quella minkiata del seti@home), ma questo dimostra ancora una volta che quel processore è utile per applicazioni di nicchia, di certo non è nato per far girare videogames next-gen.
Mi domando dove sia la dimostrazione.
Sicuramente un atto pubblicitario, comunque se la macchina è effettivamente potente, la trovo una cosa saggia inserire un client di elaborazione in una macchina da gioco in modo da rendere il progetto molto piu' visibile a tutti e soprattutto velocizzare i fini del progetto.
Se avessero inserito Seti@Home, probabilmente avrei gridato esclusivamente all'atto pubblicitario fine a se stesso, ma qui, sebbene sempre di pubblicità si parla, almeno c'è qualcosa di utile.
Mi domando quale dovrebbe essere in questo caso il prodotto Sony che va male. No perchè la PS3 non va affatto male e a giudicare dal tuo commento, pare che anche la PS2 sia andata male... Quanto è brutta l'invidia
si scherza naturalmente..
Il problema è che sono i suoi "non utenti" che non riescono a carpirne le potenzialità vere in ambito ludico
[b][u]NON[/u][/b] si scherza, naturalmente..
"spero che il messaggio passi cmq.... calcolate per la ricerca... che sia un pentium 100 o un console poco importa!!!"
non spendete tempo e risorse in calcoli distribuiti illudendovi di aiutare la ricerca....
i risultati vengono buttati nel cesso...
chiunque abbia un minimo di cognizione di architettura di sistemi di elaborazione capisce questo...
la ps3 come strumento di calcolo e' solo una trovata pubblicitaria...
purtroppo nell'attuale ps3 manca un sistema simile all'EE della vecchia ps2...
chi ha progettato la ps3 era molto assonnato mentre lo faceva e si e' dato alli sogni...
"spero che il messaggio passi cmq.... calcolate per la ricerca... che sia un pentium 100 o un console poco importa!!!"
non spendete tempo e risorse in calcoli distribuiti illudendovi di aiutare la ricerca....
i risultati vengono buttati nel cesso...
chiunque abbia un minimo di cognizione di architettura di sistemi di elaborazione capisce questo...
la ps3 come strumento di calcolo e' solo una trovata pubblicitaria...
purtroppo nell'attuale ps3 manca un sistema simile all'EE della vecchia ps2...
chi ha progettato la ps3 era molto assonnato mentre lo faceva e si e' dato alli sogni...
menomale che ci hai illuminato tu
"spero che il messaggio passi cmq.... calcolate per la ricerca... che sia un pentium 100 o un console poco importa!!!"
non spendete tempo e risorse in calcoli distribuiti illudendovi di aiutare la ricerca....
i risultati vengono buttati nel cesso...
chiunque abbia un minimo di cognizione di architettura di sistemi di elaborazione capisce questo...
la ps3 come strumento di calcolo e' solo una trovata pubblicitaria...
purtroppo nell'attuale ps3 manca un sistema simile all'EE della vecchia ps2...
chi ha progettato la ps3 era molto assonnato mentre lo faceva e si e' dato alli sogni...
A quelli come te basta postare un link, della pagina ufficiale per altro.
http://folding.stanford.edu/results.html
Poi magari ci spieghi pure la correlazione con la conoscenza dell'architettura dei sistemi di elaborazione.
un sistema di calcolo deve garantire l'esatezza di risultati in base ad una precisa valutazione dell'errore...
qualunque macchina di calcolo compie degli errori che chiameremo volgarmente bugs...
se supponiamo come i ricercatori di standford che la distribuzione dell'errore in folding home sia per cosi' dire uniforme.....basandoci un po' come se fossimo in un laboratorio in cui tutto sia sotto controllo....allora il calcolo distribuito on net sicuramente è efficace....anzi è l'unica soluzione attualmente praticabile, quando tutti i sistemi sono all'interno di un laboratorio e quindi l'intera architettura di calcolo è nota e valutabile....
cambiamo scenario....e poniamoci nella posizione reale...
calcolare via internet algoritmi di calcolo distribuito....su sistemi che non possono in alcun modo essere valutati pone inevitabilmente l'incognita sulla distribuzione dell'errore....non è possibile valutare quanto i risultati ricevuti siano di fatto attendibili.....
volendo fare un esempio concreto....
se io faccio girare un algoritmo scientifico su un sistema overclockato...o un sistema con ram non ECC o comunque su un sistema non sottoposto ad un rigoroso controllo non posso certo valutare se e in che misura i risultati siano contaminati da errori...
qualche anno fa ad esempio ci fu un articolo che mostrava come tra P4 e Athlon ci fossero delle lievi differenze nei render di alcune immagini 3d questo a causa della differente architettura, quindi medesimo algoritmo 2 risultati...
in quel caso era colpa delle librerie di windows che sotto P4 abilitavano in automatico le SSE2 che quindi avevano un sistema di approssimazione differente da quello fpu dei processori amd l'algoritmo si fidava delle librerie standard di windows.......
adesso come fate a controllare milioni di pc on net ed essere sicuri di ottenere risultati scientifici attendibili??!?!
forse pensate che la ramECC gli Itanium le connessioni fibra ottica le facciano per buttare i soldi dalla finestra?!?!?
semplicemente questi sono strumenti di calcolo che garantiscono una eccellente valutazione dei risultati....che noi invece dovremo affidare a delle console da gioco....che svolgono calcolo per visualizzare pupazzi in 3d che se vengono visualizzati un pixel sopra o sotto a causa di un errore di calcolo magari per l'alta temperatura di esercizio, non importa a nessuno.......
siamo seri....quando si parla di certe cose....
e lasciamo al new york time il compito di divulgare menzogne.....sul calcolo distribuito....
un'ultima citazione....negli anni 96-98 furono scoperti alcuni bugs sui processori mips di silicon graphics....e furono rilasciate delle patch per garantire una maggiore stabilità di calcolo.....i sistemi di calcolo sono una cosa seria....
post scriptum: (indagine sociologica)
in realtà quello di standford è piu' uno studio sociologico, come la gente si illuda di utilizzare i propri sistemi per qualcosa di utile invece che per le solite quisquiglie....o video games come nel caso di ps3....
....ossia non e' un oggetto inutile ma volendo puo' servire a qualcosa....
peccato che molti ci caschino....
un sistema di calcolo deve garantire l'esatezza di risultati in base ad una precisa valutazione dell'errore...
[CUT]
LOL, seguendo il tuo ragionamento dovremmo tornare ad usare il pallottoliere:
tutti le CPU contengo BUGS, anche i costosissimi Itanium e le RAM ECC non sono in grado di correggere e rilevare tutti i tipi di errori.
Non sono un programmatore e né sono esperto di architettura degli elaboratori ma un metodo semplice che mi viene in mente per rilevare gli errori in un sistema di calcolo distribuito è inviare lo stesso “pacchetto” da analizzare a due sistemi differenti.
Se i risultati ottenuti sono differenti vuol dire che il pacchetto deve essere rianalizzato visto che uno dei due sistemi ha commesso un errore (la probabilità che 2 sistemi differenti compiano lo stesso errore sono le stesse che ha Rosy Bindi di diventare Miss Mondo).
Hai ragione ed è per questo motivo per cui dovresti stare zitto per evitare ulteriori figuracce: è da circa 10 anni che è possibile correggere parte dei BUGS anche delle CPU consumer prodotte da Intel e da AMD con semplici update del BIOS.
Infatti se non sbaglio è esattamente quello che avviene nei sistemi di calcolo distribuito del tipo di folding@home
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".