2024

dai mondi virtuali in avanti

I futuri ambienti virtuali: Mirror Worlds e dispositivi personali per l’Augmented Reality

Tish Shute (Tara5 Oh in Second Life) è uno dei miei punti di riferimento per mondi virtuali e mirror worlds, realtà aumentata (augmented reality), dispositivi, sensori e in generale gli argomenti che tratta questo blog. Gli approfondimenti da lei pubblicati su Ugotrade sono imperdibili – gli intervistati sono persone di rilievo in questi settori e le riflessioni che ne risultano sono spesso molto interessanti.

Dall’articolo Mobile Augmented Reality and Mirror Worlds: Talking with Blair MacIntyre riporto più giù alcuni estratti – non li traduco, ma ecco una sintesi dei concetti principali. Immaginate che queste siano caratteristiche comuni del nostro ipotetico 2024.

  • presenza pervasiva degli ambienti virtuali
  • negli ambienti virtuali si partecipa con modalità/strumenti/piattaforme differenti, ma…
  • …i partecipanti vengono rappresentati con una modalità comune, e…
  • …tutti i partecipanti sono in grado di manipolare i contenuti
  • molti dei contenuti che creiamo sono abbinati a coordinate geografiche reali
  • i modelli che compongono l’ambiente virtuale 3D sono sintetizzati in modo semiautomatico da fotografie e altri dati raccolti dalle persone
  • i dispositivi portatili sono normalmente in modalità augmented reality cioè quando li rivolgiamo verso un soggetto, forniscono immediatamente informazioni su di esso

folks in highly instrumented team rooms will collaborate in one way, and their activity will be reflected in the virtual world;  remote participants (e.g., those at home, or in a cafe or hotel) may control their virtual presence in different ways, but the presence of all participants will be reflected back out to the other sides in analogous ways.  We may see ghosts of participants at the interactive displays, or hear their voices in 3D space around us; everyone will hopefully be able to manipulate content on all displays and tell who is making those changes

[…]

it’s a matter of time till more of what we “create” (e.g., Tweets and blog posts and so on) are all geo-referenced; these will become the information landscape of the future

[…]

you can start building the models of the world in a semi-automated way from photographs and more structured, intentional drive-by’s and so on. So I think it’ll just sort of happen. And as long there’s a way to have the equivalent of Mosaic for AR, the original open source web browser, that allows you to aggregate all these things. It’s not going to be a Wikitude. It’s not going to be this thing that lets you get a certain kind of data from a specific source, rather it’s the browser that allows you to link through into these data sources.

So it’s that end that interests me. It’s questions like “what is the user experience”, how do we create an interface that allows us to layer all these different kinds of information together such that I can use it for all my things. I imagine that I open up my future iphone and I look through it. The background of the iphone, my screen, is just the camera and it’s always AR. I want the camera on my phone to always be on, so it’s not just that when I hold it a certain way it switches to camera mode, but literally it’s always in video mode so whenever there’s an AR thing it’s just there in the background.

[…]

Wrobel wrote, “The AR has to come to the users, they cant keep needing to download unique bits of software for every bit of content! We need an AR Browsing standard that lets users log into an out of channels (like IRC) and toggle them as layers on their visual view (like Photoshop).Channels need to be public or private, hosted online (making them shared spaces) or offline (private spaces). They need to be able to be both open (chat channel) or closed (city map channel) as needed. Created by anyone anywhere. Really IRC itself provides a great starting point. Most data doesn’t need to be persistent, after all. I look forward too seeing the world though new eyes.I only hope I will be toggling layers rather then alt+tabbing and only seeing one “reality addition” at a time.”

Bonus video di oggi: ARhrrrr

ARhrrrr is an augmented reality shooter for mobile camera-phones, created at Georgia Tech Augmented Environments Lab and the Savannah College of Art and Design (SCAD-Atlanta). The phone provides a window into a 3d town overrun with zombies. Point the camera at our special game map to mix virtual and real world content. Civilians are trapped in the town, and must escape before the zombies eat them! From your vantage point in a helicopter overhead, you must shoot the zombies to clear the path for the civilians to get out. Watch out though as the zombies will fight back, throwing bloody organs to bring down your copter. Move the phone quickly to dodge them. You can also use Skittles as tangible inputs to the game, placing one on the board and shooting it to trigger an explosion.

Mobile Augmented Reality and Mirror Worlds: Talking with Blair MacIntyre

Archiviato in:Previsioni generali, , , , ,

Le potenzialità delle proiezioni – Realtà Aumentata – Progettare per la distanza

Tra poco più di una settimana sapremo se ci sarà stato assegnato uno spazio presso SL6B – la festa per il sesto compleanno di Second Life – dove realizzare il progetto 2024.

Nel frattempo segnalo in questo articolo alcuni esempi interessanti di proiezione, perché ritengo plausibile che la fruizione dei mondi virtuali del 2024 avverrà anche tramite sistemi di proiezione. Ci sono stati sviluppi sotto diversi punti di vista per questa tecnologia, e (salvo apocalissi) ce ne saranno ancora, per cui è utile accostare alcuni esempi e immaginare le loro possibili integrazioni.

Il video che segue mostra, in maniera embrionale, alcune delle potenzialità che nascono miniaturizzando e rendendo portatili i proiettori, e combinandoli con  un sistema di riconoscimento degli oggetti e di recupero delle relative informazioni:

Qui sotto vediamo invece come sia possibile -già oggi- non solo proiettare su superfici in movimento, ma anche adattare il contenuto delle immagini alla posizione e alla conformazione dell’oggetto su cui si proietta:

Il terzo video è forse quello più d’impatto dal punto di vista estetico e indica nuove strade espressive: dalla tradizionale proiezione su superficie piana passiamo alla proiezione “intelligente” su uno sfondo tridimensionale.

Credo che questo tipo di proiezione sia reso possibile dall’uso di modelli digitali dell’ambiente su cui si va a proiettare: l’immagine viene modificata da un software e adattata alla tridimensionalità dello spazio proiettivo per sfruttare la prospettiva. Unendo questa tecnologia ai sistemi di scansione 3D dello spazio e accelerando mentalmente il tutto…fermi, non agitatevi. Non vorrei che vi si fondesse il cervello – per cui vi lascio in compagnia di due immagini fuorvianti.

Archiviato in:Tecnologie, , , , ,

SL6B: idea per una scena – 1

Zheling Zhong interviene sull’idea dei proiettori con alcune bozze (in Second Life). Lo spunto della proiezione si sposta dalla riproduzione di informazioni alla raccolta, evolvendosi verso una sorta di scansione 3D. Anche in questo caso si ipotizza che il dispositivo venga indossato dall’individuo.

Concretamente: un cono al centro – una barra con il glow, che fa da reggio centrale di scansione – un pannello quadrato intermedio, a metà barra, che simuli una griglia – un pannello informativo attaccato in prossimità del petto, che trasmetta le informazioni.

work in progress

spunto per la rappresentazione di un sistema di scansione dell'ambiente circostante

UPDATE

Da Wikipedia:
LIDAR è una tecnica di telerilevamento che permette di determinare la distanza di un oggetto o di una superficie utilizzando un impulso laser, oltre a determinare la concentrazione di specie chimiche nell’atmosfera.

un LIDAR contemporaneo

Danny Sullivan, via twitter condivide proprio oggi una foto dalla conferenza Where 2.0 scattata durante la presentazione dei sensori LIDAR prodotti da Velodyne:
@where20 session shooting 64 lasers at us. but they’re safe, made radiohead-like lidar 3d map of the audience

Sistema con 64 laser che realizzano una mappa 3D del pubblico

O'Reilly's Where 2.0 Conference - dimostrazione di un sistema basato su 64 laser che realizza una mappa 3D del pubblico

Archiviato in:Costruzione del padiglione 2024, Tecnologie, , , , , , ,

Cos’è?

Qui Opensource Obscure raccoglie spunti e presenta possibili scenari per il futuro dei mondi virtuali.
Pretesto per la creazione di questo blog è stata la partecipazione all’iniziativa “The Future of Virtual Worlds” organizzata all’interno di SL6B - la celebrazione del 6° compleanno di Second Life.

"2024. The Future of Virtual Worlds" c/o SL6B:

Appunti, discussioni, segnalazioni veloci… alcune cose finiscono nel blog, altre no. Se usate friendfeed, iscrivetevi e partecipate al gruppo.

View my FriendFeed