La CPU di PlayStation 3 impiegata seriamente con Folding@home

Folding@home è un programma medico realizzato dall'Università di Stanford per lo studio del folding delle proteine.
di Rosario Grasso pubblicata il 16 Marzo 2007, alle 16:01 nel canale VideogamesPlaystationSony
195 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infosoftware di calcolo scientifico distribuito e architettura dei sistemi di elaborazione, come di fatto e'...
per quanto riguarda i sistemi di analisi degli errori....
no comment....se siete convinti che far colcolare a 2 sistemi lo stesso pacchetto garantisca la correttezza dei dati fate pure....
tenete conto che non si ha alcun controllo sui sistemi client...sull'hardware e sui sistemi di connessione....
vi è mai capitato di scaricare un'immagine iso da un ftp magari di una distro linux e vedere il checksum errato probabilmente per errori di connessione?
bene moltiplicate per migliaia di utenti ciascuno con un sistema diverso e con una tipologia di connessione diverse e vi rendete conto dell'assurdità di cosa state dicendo.
è piu' o meno la stessa cosa di quelli che si basano sui sondaggi per verificare l'attendibilità di un fatto i risultati hanno un valore puramente indicativo....
...questo va bene per una analisi sociologica non certo scientifica....
ma ormai forse la differnza non la considera piu' nessuno....
software di calcolo scientifico distribuito e architettura dei sistemi di elaborazione, come di fatto e'...
per quanto riguarda i sistemi di analisi degli errori....
no comment....se siete convinti che far colcolare a 2 sistemi lo stesso pacchetto garantisca la correttezza dei dati fate pure....
tenete conto che non si ha alcun controllo sui sistemi client...sull'hardware e sui sistemi di connessione....
vi è mai capitato di scaricare un'immagine iso da un ftp magari di una distro linux e vedere il checksum errato probabilmente per errori di connessione?
Si, ed è per questo motivo che esiste il checksum per verificarne l'integrità.
Ed è grazie a tecnologie simili che è possibile scaricare un'ISO di una distro di Linux dalla rete emule avendo la certezza, nonostante l'immagine si scaricata da centinaia se non da migliaia di fonti, che il file scaricato sarà integro.
E per quale motivo in questo caso non dovrebbe essere possibile utilizzare il checsum? Isterismo collettivo forse?
P.S.
Visto che secondo te questo sistema è inaffidabile [U]come giustifichi l'esistenza di risultati verificati prodotti dai sistemi di calcolo distribuito, tipo GIMPS? [/U]
troppe varianti in gioco non permettono di gestire i risultati come attendibili, a causa delle differenze di connessione, os, hardware ed altro....
quello che intendo dire che i sistemi di calcolo distribuiti sono tutt'altro che semplici, e che non possono essere gestiti semplicemente scaricando un programmino e paragonandolo ad emule...
volevo ricordare che stiamo parlando di migliaia di connessioni....
e ovvio che la speranza di poterla gestire è grande da parte di quelli che non possono affittare un mainframe....ma non penso che sia proprio auspicabile che questo sia applicabile concretamente.
faccio un esempio concreto e poi la finisco qua:
in una render farm esiste un amministratore di sistema che gestisce il tutto e si occupa dell'integrità dei sistemi di eleborazione in genere sono almeno una trentina. l'hardware non è assemblato a caso ma il tutto è progettato meticolosamente per garantire una coerenza dei risultati e sopratutto una precisa gestione degli errori, questo studio svolto a priori non garantisce che la render farm sia infallibile ma di certo garantisce un preciso standard di analisi dei dati che mette in evidenza subito se qualche sistema sbarella.....
troppe varianti in gioco non permettono di gestire i risultati come attendibili, a causa delle differenze di connessione, os, hardware ed altro....
quello che intendo dire che i sistemi di calcolo distribuiti sono tutt'altro che semplici, e che non possono essere gestiti semplicemente scaricando un programmino e paragonandolo ad emule...
volevo ricordare che stiamo parlando di migliaia di connessioni....
e ovvio che la speranza di poterla gestire è grande da parte di quelli che non possono affittare un mainframe....ma non penso che sia proprio auspicabile che questo sia applicabile concretamente.
faccio un esempio concreto e poi la finisco qua:
in una render farm esiste un amministratore di sistema che gestisce il tutto e si occupa dell'integrità dei sistemi di eleborazione in genere sono almeno una trentina. l'hardware non è assemblato a caso ma il tutto è progettato meticolosamente per garantire una coerenza dei risultati e sopratutto una precisa gestione degli errori, questo studio svolto a priori non garantisce che la render farm sia infallibile ma di certo garantisce un preciso standard di analisi dei dati che mette in evidenza subito se qualche sistema sbarella.....
guarda che i client dei sistemi di calcolo distribuito sono fatti proprio per gestire gli errori. e ti assicuro che sono meticolosi e discretamente stabili.
se un pc fa un errore se ne accorge. poi ovvio che i "pacchetti" sono suddivisi in maniera tale che i calcoli possono essere sviluppati anche da comuni pc.
forse stai troppo paragonando i classici sistemi di elaborazione con i sistemi distribuiti.
un sistema di calcolo distribuito può essere gestito da un client programmato come si deve, e naturalmente anche il server deve essere all'altezza.. e ora questi programmi ci sono.
non è che sei rimasto un po' indietro in questa tecnologia?
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".