Cinema 2.0: il fotorealismo secondo AMD
AMD introduce una nuova tecnologia che consentirà di renderizzare in tempo reale figure umane con grafica fotorealistica.
di Rosario Grasso pubblicata il 18 Agosto 2008, alle 12:33 nel canale VideogamesAMD
AMD introduce una nuova tecnologia che consentirà di renderizzare in tempo reale figure umane con grafica fotorealistica.
di Rosario Grasso pubblicata il 18 Agosto 2008, alle 12:33 nel canale Videogames
35 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infobhoo il reparto marketing è rientrato dalle vacanze ?
Tra l'altro la tecnica è la stessa usata nell'HDR e nelle angular map. In sostanza la tecnologia proposta qui è un collante fra le "vecchie" citate e gli scanner 3D per applicare il tutto a "modelli" reali. Diciamo che c'è molto hype, cosi come viene proposta la notizia. In realtà non c'è nessuna rivoluzione, rispetto all'invenzione del 2.5D modeling o dai tempi dell'introduzione delle superfici di suddivisione...
Per quelli che hanno capito come funziona la tecnica: la prima immagine è uno scatto reale.
La finzione e la realtà non la distingue solo chi ste cose le vede per la prima volta. La prima immagine e' realtà.
Fatevi un giro quà sopra va:
http://www.autodesk.com/eng/etc/fakeorfoto/index.html
Fatevi un giro quà sopra va:
http://www.autodesk.com/eng/etc/fakeorfoto/index.html
Ho sbagliato solo la foto 7 credendo fosse cg... invece è una foto reale ritoccata...
P.S. I primi 2 scatti di questa News sono foto di modelle reali.. lo si nota chiaramente dai capelli..(una delle cose più difficili da realizzare) , mentre il terzo scatto è la risultante ottenuta (normal-map) con questa tecnica...
Il bello è che tutti i videogiochi triplaA partono da modellini fotografati con tecniche simili a questa e dopo aver estrapolato le normal-maps si possono diminuire i poligoni...
Solo che qui (non so con che Hardware) si possono gestire in tempo reale i modelli poligonali originali..
Il video dovresti vederlo in alta risoluzione. A dire il vero mi aspettavo che usassero la tecnica di LightStage anche per Ruby. Evidentemente ci avrebbero perso troppo tempo... o non hanno trovato un attrice con le misure di Ruby
In realtà i demo dovrebbero girare sulle attuali 4xxx con tranquillità (magari con 1GiB di GDRAM, però ).
Un problema è che i dati necessari sono enormi, e questo dà problemi nella distribuzione (avevo sentito di *tanti* GiB). Inoltre il fotorealismo da problemi nella produzione, perché alza i costi in maniera vertiginosa. Poi Cinema 2.0 dovrebbe avere altre limitazioni per l'uso videludico (si parla di viewport statiche... ma nessuno ancora ci ha capito niente, AMD centellina le informazioni)
Mi sa di no ^^''
Ho visto il video da cui è stato tratto il secondo screenshot in movimento, e ti assicuro che fa impressione veramente. Puoi cercarlo su youtube.
Se noti, i capelli ci sono anche nella normal map. Anzi, si vedono chiaramente più dettagli che nell'immagine renderizzata!
Non "abbastanza" simili, LightStage è nato per effettuare il relighting degli attori, cioè variarne le luci dopo aver fatto le riprese, non per catturare i movimenti per animare poligoni. Cambia di "un pò" il livello di dettaglio richiesto. La tecnologia era in sviluppo da svariati anni, ed esterna ad AMD.
Comunque, niente che vedremo nei videogiochi per i motivi a cui ho accennato prima... sembra più roba utile nella produzione di film. Anche se tecnicamente sono immagini "renderizzate", a me la tecnologia sembra più simile a una "telecamera 3D" che registra ciascun voxel del volto dell'attore.
Il sito mi ha detto che sono un genio..
Tra l'altro proprio non capisco cosa centri questo con la demo di ruby che ha sconvolto il mondo dal alcuni mesi... sebbene nessuno sappia con precisione in cosa consista la nuova tecnologia.
Ma non mi dite 'abbiamo una tecnologia che permettera' entro pochi anni il fotorealismo in tempo reale': o si passa al raytracing, o al fotorealismo in tempo reale ci avvicineremo comunque in pochi anni (basta guardare le differenze tra far cry e crysis)...
E se sono necessari, come sembra, diversi gigabyte per una demo come quella di Ruby, allora ecco perche' cinema 2.0 e non game 2.0: sara' assolutamente inutile per il mondo videoludico...
Tra l'altro proprio non capisco cosa centri questo con la demo di ruby che ha sconvolto il mondo dal alcuni mesi... sebbene nessuno sappia con precisione in cosa consista la nuova tecnologia.
Sostanzialmente AMD ha messo insieme la tecnologia di Devebec (LightStage) con delle ricerche di un tal Jules Urbach ("otoy", di cui il demo Ruby dovrebbe essere un esempio.
La novità è che il rendering fotorealistico di soggetti catturati con LightStage può essere fatto in real-time su una GPU di fascia media!
Comunque, ancora si riesce a capire poco o niente, sopratutto del demo di Ruby.
http://www.autodesk.com/eng/etc/fakeorfoto/index.html
Azzeccate solo 6 su 10...
http://www.timesonline.co.uk/tol/ne...p;vxBitrate=300
Stanno facendo confusione...
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".