HairWorks: la soluzione di Nvidia per la simulazione di peli e capelli

HairWorks: la soluzione di Nvidia per la simulazione di peli e capelli

Rispetto alla consueta gestione della fisica tramite GPU, effettuata tramite CUDA, HairWorks è implementato tramite DirectCompute.

di pubblicata il , alle 15:31 nel canale Videogames
NVIDIACUDA
 

È la risposta di Nvidia ad AMD, che aveva già implementato qualcosa di molto simile in Tomb Raider (TressFX Hair). Abbiamo già visto HairWorks in azione nelle prime demo di The Witcher 3 Wild Hunt e l'abbiamo toccata con mano in Call of Duty Ghosts, visto che il pelo del cane Riley è gestito tramite questa tecnologia.

Nvidia HairWorks

HairWorks è il frutto dell'integrazione di diverse tecnologie pre-esistenti di Nvidia, atte a simulare il comportamento della peluria utilizzando CUDA. La nuova tecnologia, però, utilizza la libreria DirectCompute delle DirectX 11.

"Possiamo simulare qualsiasi tipo di forma geometrica curva, come peli, capelli, erba, e altro", ha detto Tae-Yong Kim, programatore della fisica in Nvidia, a PhysX Info. "Tuttavia, fino a oggi ci siamo concentrati principalmente sui peli degli animali, ma stiamo espandendo le capacità della tecnologia ad altri tipi di oggetti. Attualmente, la gestione delle collisioni è piuttosto semplicistica, ma in futuro sarà più consistente e rimpiazzerà le mesh deformabili di oggi".

"La tecnologia supporta già il vento e gestisce parametri su rigidità, ondulazione, aggregazione, variazione della lunghezza, e altro ancora. Tutto ciò consente di simulare le condizioni di bagnato e di asciutto, e le varie transizioni tra questi due stati".

"Renderizzare realisticamente la peluria comporta gestire un'enorme quantità di dati per ogni passaggio della pipeline di rendering. Abbiamo utilizzato e ottimizzato gli algoritmi che stanno alla base della feature di tassellatura delle DirectX 11, e ciò ci permette di creare al volo la maggior parte dei peli direttamente sulla GPU senza utilizzare molta memoria della CPU e della GPU".

"La funzionalità di tassellatura è molto utile anche per il controllo del livello di dettaglio, offrendo la possibilità di variare dinamicamente la densità dei peli in funzione dell'ambiente di gioco".

"Una volta che la peluria è stata generata ed è stata tassellata, si modifica ulteriormente la sua forma (ad esempio la larghezza dei peli viene ridotta in concomitanza della punta) e si calcolano le ombre su ogni gruppo di peli. Bisogna prestare grande attenzione nel fare in modo che le ombre dei capelli non contrastino con le altre ombre sulla pelle".

Tae-Yong Kim rivela che Riley di Call of Duty Ghosts ha circa 500 mila peli sul suo corpo. In futuro, inoltre, altre tecniche adesso gestite da CUDA potrebbero passare al controllo tramite DirectCompute.

25 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
qboy20 Gennaio 2014, 15:39 #1
nelle due immagini non noto differenze apparte proprio il cambio di texture
Jones D. Daemon20 Gennaio 2014, 15:52 #2
Aspe, ma nell'immagine il bestione si trasforma in super sayan? no perché le differenze sono una texture più definita e il pelo all'insù...
Severnaya20 Gennaio 2014, 16:19 #3
perché io valgo
peronedj20 Gennaio 2014, 16:32 #4
Originariamente inviato da: qboy
nelle due immagini non noto differenze apparte proprio il cambio di texture


Originariamente inviato da: Jones D. Daemon
Aspe, ma nell'immagine il bestione si trasforma in super sayan? no perché le differenze sono una texture più definita e il pelo all'insù...


Suppongo che nelle immagini dell'articolo, hairworks sia in entrambe attivo (non è una comparativa tra attivo e disattivo)

infatti poi viene scritto

"La tecnologia supporta già il vento e gestisce parametri su rigidità, ondulazione, aggregazione, variazione della lunghezza, e altro ancora. Tutto ciò consente di simulare le condizioni di bagnato e di asciutto, e le varie transizioni tra questi due stati".


quindi sicuramente sarà la stessa simulazione con effetti ambientali diversi (tipo pioggia e vento)
dobermann7720 Gennaio 2014, 16:36 #5
Vi piacciono le tecnologie proprietarie?
Vi piace tornare indietro di decine di anni?

Tenetevi Mantle e i sistemi di taglio di capelli.
gd350turbo20 Gennaio 2014, 16:39 #6
Originariamente inviato da: dobermann77
Vi piacciono le tecnologie proprietarie?
Vi piace tornare indietro di decine di anni?

Tenetevi Mantle e i sistemi di taglio di capelli.


Se usa le directcompute non mi pare che sia una tecnologia proprietaria...
dobermann7720 Gennaio 2014, 16:40 #7
Originariamente inviato da: gd350turbo
Se usa le directcompute non mi pare che sia una tecnologia proprietaria...


Se usa directcompute e basta in effetti no,
in pratica dici che Nvidia voglia imporre la tecnologia per i capelli "standard".
gildo8820 Gennaio 2014, 16:45 #8
TressFx ed Hairworks... Tecnologie proprietarie diverse che fanno le stesse cose. Gli sviluppatori immagino saranno contenti, visto che se devono implementare un effetto simile per entrambe le famiglie di schede video dovranno implementare sia TressFx che Hairworks... Comodo
CrapaDiLegno20 Gennaio 2014, 17:20 #9
Originariamente inviato da: gildo88
TressFx ed Hairworks... Tecnologie proprietarie diverse che fanno le stesse cose. Gli sviluppatori immagino saranno contenti, visto che se devono implementare un effetto simile per entrambe le famiglie di schede video dovranno implementare sia TressFx che Hairworks... Comodo

Faranno un paio di conti tenendo in considerazione:
- tempi per l'implementazione (quindi valutando la qualità del middleware dato)
- supporto (fare una libreria e dire arrangiatevi ad usarla non è certo un plus)
- costi della libreria (dubito che sia gratuita per creazione di prodotti
commerciali)
- numero degli utenti che possono godere del lavoro (inutile inserire qualcosa se poi il 50% degli utenti manco la vedono)
- "incentivi", direttamente proporzionali al minor numero di utenti che si va a influenzare con una o l'altra soluzione proprietaria.
Ma non essendo questa di tipo proprietario e dovendo comunque essere ottimizzata anche per CGN per via delle console, forse potrebbe essere la soluzione ideale per spremere al massimo l'HW di entrambe le case.
CrapaDiLegno20 Gennaio 2014, 17:23 #10
Originariamente inviato da: Bivvoz
Imho sono entrambe tecnologie inutili o comunque da migliorare per dare effetti reali.
Modelli "pelosi" statici si possono ottenere anche senza queste tecnologie (come si vede dal cane nel video che è più reale senza effetto) e l'effetto movimento alla pubblicità della l'oréal è orrendo e irreale in entrambe le soluzioni.


Sì, va be', è come quando è stato implementato il T&L (o il bump mapping) in HW e si vedevano giochi che sparavano luci artificiali per tutto l'ambiente pur di sfruttarlo e far vedere l'effetto speciale. Ora nessuno credo potrebbe dire che il T&L sia una feature "inutile perché crea ambienti non reali".
Basta usare le cose con granus salis e vedrai che più avanti si godrà di questa (e di altre) sofisticazioni in maniera naturale.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^