Un video mostra perché la realtà aumentata è il futuro

Questo video realizzato da Magic Leap e da Weta Workshop esplicita il futuro potenziale della realtà aumentata e della realtà virtuale sia per le applicazioni che per il gaming.
di Rosario Grasso pubblicata il 23 Marzo 2015, alle 12:01 nel canale Videogames
12 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoEventualmente, in un futuro di tecnologia più matura, la fase di calibrazione sarà molto rapida e contestuale al gioco, quindi continuerà ad esistere ma non verrà percepita dall'utente.
E' una possibilità, scomoda ma è una possibilità (perchè se nel frattempo qualcosa viene mosso ti sei rovinato la mappatura)
Perchè sa esattamente quanto tu ti stai muovendo (accelerometri) e sa esattamente cosa stanno facendo i mob (li crea lui).
Sì, lo so che il movimento aiuta con la prospettiva, il mio appunto era per la precisione di rendering. Immagina un mob dietro i rami di un albero, alcune parti si vedono e altre no. Diamo per scontato che sia disegnato alla perfezione.. se tu ti muovi dovrà renderizzare in continuazione un nuovo disegno ricalcolando cosa è nascosto dal ramo o cosa non lo è... capisci che non è così facile come sembra.
Gli oggetti 3D nascosti da altri oggetti 3D nel mondo di gioco non vengono renderizzati, e questo permette di risparmiare quantità immense di risorse (no perchè senza questo trucchetto il PC deve renderizzare in 3D tutta la mappa di gioco e tutti i mob presenti in essa e tutti gli altri eventuali giocatori umani, è un carico da nodo di rendering, non da PC)
Non mi riferisco a quel tipo di problema infatti, semplicemente al fatto che per un attimo le camere perdono "l'orientamento" e quando tornano a vedere (se tu ti sei spostato specialmente) devono ricalcolare di nuovo tutto da capo, perchè non hanno più i riferimenti di prima, quindi il mob deve essere creato nello stesso punto, o meglio nel punto che nel frattempo avrebbe raggiunto anche a telecamera nascosta.
Allora ragionando sempre in un'ottica che il gioco è real time (quindi niente mappe precaricate che sarebbe l'ideale anche se scomode), tu mentre ti sposti non vai in linea retta, per via magari di qualche ostacolo. Il mob a 20m dietro di te deve sapere come è fatto il percorso tra te e lui per poter calcolare il giusto tempo di percorrenza, così se dovessi guardare indietro dovresti vederlo nella posizione in cui realisticamente dovrebbe trovarsi. Ed i sensori ti possono aiutare fino ad un certo punto...
Per questo dicevo l'ideale sarebbe uno spazio aperto dove tutto viene creato in digitale (così non ci sarebbero mappature da fare). Ma la realtà aumentata non è questo, e fare tutto questo in real time con estrema precisione la vedo dura
No dico hai presente se io tiro un oggetto vero ad un mob che vedo solo io e magari colpisco il cane/gatto/amico/parente (vero e vivo) o rompo qualcosa (vero e costoso)?
Il problema non si pone se il giocatore sta lanciando un oggetto virtuale invece, intanto perchè un oggetto virtuale non esiste nella realtà quindi il gatto ed il TV al plasma sono al sicuro, ma anche perchè il computer sa benissimo cos'è e dov'è l'oggetto lanciato e lo gestisce esattamente come se fosse in un gioco convenzionale (dove ad esempio le bombe a mano ti arrivano nei denti anche se non le stai guardando arrivare), perchè lo sta generando lui.
Ovvio che con il digitale il problema non sussiste, questo è assodato.
Ma lanciare un oggetto reale era solo un ipotesi per dire, se qualcosa di reale interferisce con il virtuale modificando l'ambiente. Immagina una situazione come nel softair, puoi prendere un barile e spostarlo perchè nel gioco ci può stare. Quindi la mia ipotesi era la classica da film d'orrore dove tu scappi inseguito dal cattivo di turno e per rallentarlo fai cadere l'armadietto alle tue spalle (ripeto in un contesto domestico non lo fai per altre ragioni, ma in luoghi adibiti alla AR lo puoi fare). Bene, il punto è, buttando l'armadietto alle spalle senza inquadrarlo modifica la traiettoria che il mob dovrà seguire, ma se non la inquadri lui non la conosce e se non la conosce lui la ignora, ergo sarà stata una mossa inutile.
Dopo tutto questo sproloquio la mia conclusione è una sola.
Non sto dicendo che cose di questo tipo siano impossibili, semplicemente ci vorranno ancora molti anni per vedere qualcosa che non sia solo un concept, ma un prodotto commerciale funzionante.
Gli ambienti creati appositamente sarebbero più facili da gestire, perchè tu potresti preparare un area con telecamere fisse che inquadrano sempre la scena, quindi una variazione della mappa sarebbe notata anche se non è nella tua inquadratura.
Quindi il sistema che distingue gli oggetti e traccia il contorno degli oggetti reali per poi segnalare al sistema cosa è occluso e cosa è visibile, DEVE tassativamente lavorare a 50-60 fps minimo, meglio di più.
Al momento renderizzare roba sovrapposta in tempo reale (senza occlusione) è fattibile anche su obiettivi in movimento, ma è certamente ancora visibile il contorno. Vedi qui https://www.youtube.com/watch?v=jXY-b0dovac
Quando rilevano movimento segnalano al sistema di spostare questo "segnaposto" virtuale, informando il sistema della posizione del giocatore momento per momento.
In questo caso ci sono elementi virtuali sovrapposti ad elementi reali, ma il meccanismo resta lo stesso.
Come detto sopra, una AI di gioco (l'insieme di codice che anima i mob e le meccaniche del gioco) non funziona senza una collision mesh.
Se è in grado di funzionare senza una collision mesh cioè guardando un mondo 3D reale allora si tratt di una AI autonoma ed è in grado di pilotare un robot vero nel mondo reale o una macchina senza pilota, è una roba che costa troppo e richiede troppe risorse per usarla a guidare ogni singolo mob di un giochino.
Quindi è altamente probabile che il sistema generi delle mappe in modo dinamico in un qualche modo.
Man mano che giri e ti guardi intorno alla ricerca di mob da uccidere o obiettivi vari il sistema completa la mappa.
è evidente che non genererà mai dei mob in zone non coperte da collision mesh, intanto prchè non sa neanche che quelle zone esistono, e secondariamente perchè sennò non possono muoversi.
Se manipoli oggetti virtuali il problema non si pone perchè è appunto generato dal sistema, ma la capacità di manipolare oggetti virtuali ha l'ovvio problema che un oggetto virtuale non ha massa nè volume quindi il realismo e l'immersione vanno a farsi benedire.
Questo problema potrà essere risolto con l'utilizzo di guanti ed esoscheletro indossabili. Questi dispositivi conterranno freni alle giunture (o saranno fatti di tessuto che si contrae a comando chessò
Ovviamente saranno controllati dal sistema per essere attivati quando serve.
Al momento ci sono solo questi guanti qui ma il concetto si può espandere a tutto il corpo. http://dextarobotics.com/products/Dexmo
c'è anche questo che è un giubbottino che simula l'impatto di colpi, esplosioni, vento, rinculo di armi, vibrazione di motori e oggetti nel gioco su petto e spalle (è di fatto un subwoofer, collegato alle prese audio).
Come tutti i prodotti di prima generazione è un pò un casino da configurare e i settaggi ottimali variano da gioco a gioco, ma i reviewer sono entusiasti. http://www.polygon.com/2014/12/23/7...virtual-reality
Non sto dicendo che cose di questo tipo siano impossibili, semplicemente ci vorranno ancora molti anni per vedere qualcosa che non sia solo un concept, ma un prodotto commerciale funzionante.
E ci sono vari altri sistemi più avanzati che non necessitano di oggettini ma ti riconoscono le mani e le dita.
La parte difficile sarà avere i bordi degli oggetti in realtà virtuale tagliati correttamente in modo che sembrino realmente nella realtà e non delle immagini sovrapposte tagliate male, ma il sistema in sè è fattibile dai.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".