2024

dai mondi virtuali in avanti

Scansioni 3D, RIDAR personali, fotografie e mirror worlds

Londra è la prima città a essere stata digitalizzata in 3D all’interno del progetto UKMap. Ne parla Digital Urban, mostrando anche un video realizzato con LandXplorer che visualizza i dati raccolti tramite foto aeree e telerilevamento RIDAR.

Cosa c’entra questo con il futuro dei mondi virtuali?

Il concetto attuale di mondo virtuale sfuma in quello di mirror world, il cui esempio principale è dato da Google Earth; un altro è dato dal video di UKMap citato sopra. La differenza è che nei mirror world l’ambiente cerca di riprodurre fedelmente il mondo reale; in un certo senso anche le zone di Second Life che riproducono città e geografie reali sono esempi di mirror world – o forse sono intrusioni, collusioni fra i due concetti.

Già oggi quindi l’universo dei contenuti immersivi 3D è costituito da scenari immaginari e da riproduzioni del mondo reale. Possiamo immaginare un futuro in cui entrambi questi tipi di contenuti saranno accessibili all’interno di ciò che diventeranno i “mondi virtuali”, a prescindere dalle piattaforme che generano e gestiscono i relativi contenuti e dai dispositivi che li rendono fruibili dalle persone.

Oggi a creare i mirror world contribuiscono le foto e le scansioni RIDAR aeree; nei prossimi anni la raccolta di queste informazioni potrà spostarsi ai singoli individui. I dati che ne deriveranno consentiranno di ricreare tridimensionalmente, all’interno dei mondi virtuali, lo spazio attraversato nella realtà dagli individui stessi.

spunto per la rappresentazione di un sistema di scansione dell'ambiente circostante

spunto per la rappresentazione di un sistema di scansione dell'ambiente circostante

Questa è una ripresa effettuata all’interno del Google Holodeck, che si trova a Mountain View – 7-8 schermi mostrano in alta definizione e a 360 gradi una sequenza accelerata delle fotografie scattate per Google StreetView.

Archiviato in:Previsioni generali, Second Life, Tecnologie, , , , , ,

Le potenzialità delle proiezioni – Realtà Aumentata – Progettare per la distanza

Tra poco più di una settimana sapremo se ci sarà stato assegnato uno spazio presso SL6B – la festa per il sesto compleanno di Second Life – dove realizzare il progetto 2024.

Nel frattempo segnalo in questo articolo alcuni esempi interessanti di proiezione, perché ritengo plausibile che la fruizione dei mondi virtuali del 2024 avverrà anche tramite sistemi di proiezione. Ci sono stati sviluppi sotto diversi punti di vista per questa tecnologia, e (salvo apocalissi) ce ne saranno ancora, per cui è utile accostare alcuni esempi e immaginare le loro possibili integrazioni.

Il video che segue mostra, in maniera embrionale, alcune delle potenzialità che nascono miniaturizzando e rendendo portatili i proiettori, e combinandoli con  un sistema di riconoscimento degli oggetti e di recupero delle relative informazioni:

Qui sotto vediamo invece come sia possibile -già oggi- non solo proiettare su superfici in movimento, ma anche adattare il contenuto delle immagini alla posizione e alla conformazione dell’oggetto su cui si proietta:

Il terzo video è forse quello più d’impatto dal punto di vista estetico e indica nuove strade espressive: dalla tradizionale proiezione su superficie piana passiamo alla proiezione “intelligente” su uno sfondo tridimensionale.

Credo che questo tipo di proiezione sia reso possibile dall’uso di modelli digitali dell’ambiente su cui si va a proiettare: l’immagine viene modificata da un software e adattata alla tridimensionalità dello spazio proiettivo per sfruttare la prospettiva. Unendo questa tecnologia ai sistemi di scansione 3D dello spazio e accelerando mentalmente il tutto…fermi, non agitatevi. Non vorrei che vi si fondesse il cervello – per cui vi lascio in compagnia di due immagini fuorvianti.

Archiviato in:Tecnologie, , , , ,

SL6B: idea per una scena – 1

Zheling Zhong interviene sull’idea dei proiettori con alcune bozze (in Second Life). Lo spunto della proiezione si sposta dalla riproduzione di informazioni alla raccolta, evolvendosi verso una sorta di scansione 3D. Anche in questo caso si ipotizza che il dispositivo venga indossato dall’individuo.

Concretamente: un cono al centro – una barra con il glow, che fa da reggio centrale di scansione – un pannello quadrato intermedio, a metà barra, che simuli una griglia – un pannello informativo attaccato in prossimità del petto, che trasmetta le informazioni.

work in progress

spunto per la rappresentazione di un sistema di scansione dell'ambiente circostante

UPDATE

Da Wikipedia:
LIDAR è una tecnica di telerilevamento che permette di determinare la distanza di un oggetto o di una superficie utilizzando un impulso laser, oltre a determinare la concentrazione di specie chimiche nell’atmosfera.

un LIDAR contemporaneo

Danny Sullivan, via twitter condivide proprio oggi una foto dalla conferenza Where 2.0 scattata durante la presentazione dei sensori LIDAR prodotti da Velodyne:
@where20 session shooting 64 lasers at us. but they’re safe, made radiohead-like lidar 3d map of the audience

Sistema con 64 laser che realizzano una mappa 3D del pubblico

O'Reilly's Where 2.0 Conference - dimostrazione di un sistema basato su 64 laser che realizza una mappa 3D del pubblico

Archiviato in:Costruzione del padiglione 2024, Tecnologie, , , , , , ,

Cos’è?

Qui Opensource Obscure raccoglie spunti e presenta possibili scenari per il futuro dei mondi virtuali.
Pretesto per la creazione di questo blog è stata la partecipazione all’iniziativa “The Future of Virtual Worlds” organizzata all’interno di SL6B - la celebrazione del 6° compleanno di Second Life.

"2024. The Future of Virtual Worlds" c/o SL6B:

Appunti, discussioni, segnalazioni veloci… alcune cose finiscono nel blog, altre no. Se usate friendfeed, iscrivetevi e partecipate al gruppo.

View my FriendFeed