Tech demo next-gen di Final Fantasy rafforza le speranze sulle prossime Xbox e PlayStation
Si chiama Final Fantasy Agni's Philosophy e all'E3 ha lasciato tutti a bocca aperta. Square Enix promette che un giorno tutto questo sarà calcolato in tempo reale da un sistema di gioco. Vediamo qualche dato.
di Rosario Grasso pubblicata il 11 Giugno 2012, alle 16:27 nel canale VideogamesXboxPlaystationSquare EnixMicrosoftSony
32 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoSarebbe solo la terza su 13
coff coff spirit coff within coff coff
scherzi a parte su 2 film ne hanno fatto uno discreto e uno capolavoro, anche se nel secondo caso penso pesasse molto il discorso del numero 7
Per i peli e' pura forza bruta delle schede video.
Per capire le potenzialita' di un engine per la next-gen bisogna valutare altre cose, non tanto la gnocca o la spettacolarita', quelle dipendono da artisti e regista(che secondo me in questo caso non ha nemmeno fatto un gran lavoro).
Metterei invece la mano sul fuoco sulla bonta' dell'UE4, visti i precedenti e le demo viste online, quello si' sembra pronto per farci vedere di tutto!
Comunque il film Final Fantasy girava a 25-30 fps su una GeForce 3, non so se lo ricordate, e per allora una cosa del genere era il top.
http://www.youtube.com/watch?v=PkbyNZ55kMg
Sono passati 10 anni e di progressi ce ne sono stati, se vedremo questa roba in real time nel prossimo futuro non mi meraviglierei affatto, siamo stati fin troppo castrati dalle console nel progresso tecnologico.
Comunque il film Final Fantasy girava a 25-30 fps su una GeForce 3, non so se lo ricordate, e per allora una cosa del genere era il top.
http://www.youtube.com/watch?v=PkbyNZ55kMg
Sono passati 10 anni e di progressi ce ne sono stati, se vedremo questa roba in real time nel prossimo futuro non mi meraviglierei affatto, siamo stati fin troppo castrati dalle console nel progresso tecnologico.
Ma spero che tu stia scherzando! Quella pena di video non saprei ma il vero The spirit within ha necessitato di 90 minuti a fotogramma su una render farm paurosa (per l'epoca). Preso da Wikipedia:
Square accumulated four SGI Origin 2000 series servers, four Onyx2 systems, and 167 Octane workstations for the film's production.[8] The basic film was rendered at a home-made render farm created by Square in Hawaii. It housed 960 Pentium III-933 MHz workstations. Animation was filmed using motion capture technology.[9] 1,327 scenes in total needed to be filmed to animate the digital characters.[10] The film consists of 141,964 frames, with each frame taking an average of 90 minutes to render.
Appunto vedi! Ti rendi conto anche da solo che quel video NON PUO' avere nulla a che spartire con l'originale. Io mi sono documentato come hai visto e le cifre parlano chiaro: quasi 1000 workstation per 90 MINUTI a fotogramma contro una vga consumer con disponibili 0,06 SECONDI circa a fotogramma!! Ma di cosa stiamo parlando scusa?
E' ovvio che quel real time non ha nulla a che spartire con il film originale. Una mera trovata commerciale come quella di questo video qui! Lo semplificheranno ENORMEMENTE al punto che potrà farcela anche un hardware consumer ed in tempo reale....
i toni acidi su questo forum sono la prassi...
anche se si trattava di una tech demo a dettaglio ribassato (cosa che non è affatto sicura, non l'ho letto da nessuna parte ed è una mia supposizione), faceva comunque impressione visto che al tempo non s'era visto niente di simile... e comunque considera pure che se l'hardware attuale per far girare una simile tech demo è abnorme oggi, nel futuro te lo tireranno dietro. per me avere quella grafica nel 2013-14 è uno scenario verosimile. Guarda anche il video di gameplay di Watch Dogs, titolo Ubisoft in produzione che sfoggia una grafica di primissimo livello.
i toni acidi su questo forum sono la prassi...
Non credo di essere stato acido, comunque non era mia intenzione.
Pensa solo a questo: la geforce 3 è circa di quel periodo, dunque perché invece di usare 1000 workstation ed impiegare comunque MIGLIAIA di volte di più, semplicemente non hanno usato una normale vga consumer (la geforce3 appunto)?
comunque per rispondere alla tua domanda direi che le vga, diventate in seguito gpu con l'avvento delle geforce, erano chip in grado di elaborare i calcoli grafici in maniera assai più rapida di una qualsiasi cpu, da qui, forse, la maggior potenza e la possibilità di abbandonare una workstation in favore di una (o più schede video... poi non so i dettagli, ma quel video è reale (e scatta pure)!
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".