Cinema 2.0: il fotorealismo secondo AMD

Cinema 2.0: il fotorealismo secondo AMD

AMD introduce una nuova tecnologia che consentirà di renderizzare in tempo reale figure umane con grafica fotorealistica.

di pubblicata il , alle 12:33 nel canale Videogames
AMD
 
35 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
nonikname18 Agosto 2008, 17:15 #21
La demo di Ruby ha qualcosa di "leggermente" somigliante ad HalfLife2...
mjordan18 Agosto 2008, 18:27 #22
Originariamente inviato da: Dox
mmmmh.. normal maps.. dov'è la novità ?
bhoo il reparto marketing è rientrato dalle vacanze ?


Tra l'altro la tecnica è la stessa usata nell'HDR e nelle angular map. In sostanza la tecnologia proposta qui è un collante fra le "vecchie" citate e gli scanner 3D per applicare il tutto a "modelli" reali. Diciamo che c'è molto hype, cosi come viene proposta la notizia. In realtà non c'è nessuna rivoluzione, rispetto all'invenzione del 2.5D modeling o dai tempi dell'introduzione delle superfici di suddivisione...

Originariamente inviato da: michelgaetano
Se non lo fosse, perchè metterlo?


Per quelli che hanno capito come funziona la tecnica: la prima immagine è uno scatto reale.

Originariamente inviato da: Sylvester
La prima e la seconda foto sono eccezionali...direi che stiamo arrivando alla soglia di non distinguere più la finzione dalla realtà


La finzione e la realtà non la distingue solo chi ste cose le vede per la prima volta. La prima immagine e' realtà.
Fatevi un giro quà sopra va:
http://www.autodesk.com/eng/etc/fakeorfoto/index.html
nonikname18 Agosto 2008, 19:00 #23
La finzione e la realtà non la distingue solo chi ste cose le vede per la prima volta. La prima immagine e' realtà.
Fatevi un giro quà sopra va:
http://www.autodesk.com/eng/etc/fakeorfoto/index.html


Ho sbagliato solo la foto 7 credendo fosse cg... invece è una foto reale ritoccata...

P.S. I primi 2 scatti di questa News sono foto di modelle reali.. lo si nota chiaramente dai capelli..(una delle cose più difficili da realizzare) , mentre il terzo scatto è la risultante ottenuta (normal-map) con questa tecnica...
Il bello è che tutti i videogiochi triplaA partono da modellini fotografati con tecniche simili a questa e dopo aver estrapolato le normal-maps si possono diminuire i poligoni...
Solo che qui (non so con che Hardware) si possono gestire in tempo reale i modelli poligonali originali..
Mercuri018 Agosto 2008, 19:55 #24
Originariamente inviato da: King83
bè le foto sono spaventose mentre i video di fotorealismo nn hanno proprio nulla...

Il video dovresti vederlo in alta risoluzione. A dire il vero mi aspettavo che usassero la tecnica di LightStage anche per Ruby. Evidentemente ci avrebbero perso troppo tempo... o non hanno trovato un attrice con le misure di Ruby

comunque prima di avere tutta la potenza x poter generare immagini fotorealistiche nei giochi credi ne passi ancora del tempo

In realtà i demo dovrebbero girare sulle attuali 4xxx con tranquillità (magari con 1GiB di GDRAM, però ).

Un problema è che i dati necessari sono enormi, e questo dà problemi nella distribuzione (avevo sentito di *tanti* GiB). Inoltre il fotorealismo da problemi nella produzione, perché alza i costi in maniera vertiginosa. Poi Cinema 2.0 dovrebbe avere altre limitazioni per l'uso videludico (si parla di viewport statiche... ma nessuno ancora ci ha capito niente, AMD centellina le informazioni)
Originariamente inviato da: nonikname
P.S. I primi 2 scatti di questa News sono foto di modelle reali.. lo si nota chiaramente dai capelli..(una delle cose più difficili da realizzare) , mentre il terzo scatto è la risultante ottenuta (normal-map) con questa tecnica...

Mi sa di no ^^''

Ho visto il video da cui è stato tratto il secondo screenshot in movimento, e ti assicuro che fa impressione veramente. Puoi cercarlo su youtube.

Se noti, i capelli ci sono anche nella normal map. Anzi, si vedono chiaramente più dettagli che nell'immagine renderizzata!
Il bello è che tutti i videogiochi triplaA partono da modellini fotografati con tecniche simili

Non "abbastanza" simili, LightStage è nato per effettuare il relighting degli attori, cioè variarne le luci dopo aver fatto le riprese, non per catturare i movimenti per animare poligoni. Cambia di "un pò" il livello di dettaglio richiesto. La tecnologia era in sviluppo da svariati anni, ed esterna ad AMD.

Comunque, niente che vedremo nei videogiochi per i motivi a cui ho accennato prima... sembra più roba utile nella produzione di film. Anche se tecnicamente sono immagini "renderizzate", a me la tecnologia sembra più simile a una "telecamera 3D" che registra ciascun voxel del volto dell'attore.
rob-roy18 Agosto 2008, 19:58 #25
Ho azzeccato tutte le foto al primo colpo...anche le bonus...

Il sito mi ha detto che sono un genio..
cignox119 Agosto 2008, 08:03 #26
Basta conoscere un po' il lavoro di Debevec per sapere che non c'e' niente di particolarmente nuovo qui (credo che tali tecniche siano state gia' utilizzate, per esempio, in Spiderman 2).
Tra l'altro proprio non capisco cosa centri questo con la demo di ruby che ha sconvolto il mondo dal alcuni mesi... sebbene nessuno sappia con precisione in cosa consista la nuova tecnologia.
Ma non mi dite 'abbiamo una tecnologia che permettera' entro pochi anni il fotorealismo in tempo reale': o si passa al raytracing, o al fotorealismo in tempo reale ci avvicineremo comunque in pochi anni (basta guardare le differenze tra far cry e crysis)...
E se sono necessari, come sembra, diversi gigabyte per una demo come quella di Ruby, allora ecco perche' cinema 2.0 e non game 2.0: sara' assolutamente inutile per il mondo videoludico...
Mercuri019 Agosto 2008, 09:35 #27
Originariamente inviato da: cignox1
Basta conoscere un po' il lavoro di Debevec per sapere che non c'e' niente di particolarmente nuovo qui (credo che tali tecniche siano state gia' utilizzate, per esempio, in Spiderman 2).
Tra l'altro proprio non capisco cosa centri questo con la demo di ruby che ha sconvolto il mondo dal alcuni mesi... sebbene nessuno sappia con precisione in cosa consista la nuova tecnologia.

Sostanzialmente AMD ha messo insieme la tecnologia di Devebec (LightStage) con delle ricerche di un tal Jules Urbach ("otoy", di cui il demo Ruby dovrebbe essere un esempio.

La novità è che il rendering fotorealistico di soggetti catturati con LightStage può essere fatto in real-time su una GPU di fascia media!

Comunque, ancora si riesce a capire poco o niente, sopratutto del demo di Ruby.
elevul19 Agosto 2008, 15:06 #28
Originariamente inviato da: mjordan


Azzeccate solo 6 su 10...
dantes7619 Agosto 2008, 16:08 #29
Originariamente inviato da: peronedj
non ci credo che il primo scatto è un rendering.... nemmeno se me lo dimostrano...


http://www.timesonline.co.uk/tol/ne...p;vxBitrate=300
mjordan19 Agosto 2008, 16:22 #30
Originariamente inviato da: dantes76


Stanno facendo confusione...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^