2024

dai mondi virtuali in avanti

A vision for Virtual Environments in Year 2024 [English version]

Virtual Worlds in 2024
http://slurl.com/secondlife/SL6B Void/111/73/22
opening:
June 23 – 10am SLT now closed

The installation we have created for SL6B. The Future of Virtual Worlds represents some hypothetical use cases for virtual environments in 2024.

My choice of year 2024 as “the future” originates from the reflection that a 15-years’ time span would be long enough, allowing for substantial technological transformations, but sufficiently short for us to make fairly plausible predictions.

Assuming that no apocalypse(s) intervene in the meantime, in 2024 virtual worlds will be a multimedia space that can be universally accessed from the existing global communication networks by means of wide-spread and easy-to-use devices.

Their contents can be:

  • persistent or instantaneous
  • created or modified by the main character, by others or by a software
  • simultaneously experienced by others, in private or in public
  • totally fictional… (a role play or a movie)
  • …realistic… (being a likely representation of reality)
  • …or additional information (details about an artist superimposed on the graphic representation of one of her works)

Using our current terminology, the quality of the visual component can be described as video-realistic/cinema-like or better. The effect of an avatar’s vision is similar to that which is induced by the vision of real people on TV rather than to the one generated by our current Second Life cartoon-like puppets.

Functions carried out through virtual environments integrate (without necessarily replacing): newspapers, television, movies, video-games, concerts, and theater, both as regards the experience and the creation of contents.

In 2024, the communication channel offered by virtual worlds will include today’s voice/text/multimedia messaging systems, both in their instantaneous (chat) and asynchronous forms (e-mail, forums, social networks, etc.), as well as a universal payment system.

The diffusion of devices giving access to virtual environments can be compared to the current diffusion of mobile phones in rich countries. The familiarity with such devices is similar to that with watches or Walkman sets.

Opensource Obscure

Archiviato in:Costruzione del padiglione 2024, Previsioni generali,

I futuri ambienti virtuali: Mirror Worlds e dispositivi personali per l’Augmented Reality

Tish Shute (Tara5 Oh in Second Life) è uno dei miei punti di riferimento per mondi virtuali e mirror worlds, realtà aumentata (augmented reality), dispositivi, sensori e in generale gli argomenti che tratta questo blog. Gli approfondimenti da lei pubblicati su Ugotrade sono imperdibili – gli intervistati sono persone di rilievo in questi settori e le riflessioni che ne risultano sono spesso molto interessanti.

Dall’articolo Mobile Augmented Reality and Mirror Worlds: Talking with Blair MacIntyre riporto più giù alcuni estratti – non li traduco, ma ecco una sintesi dei concetti principali. Immaginate che queste siano caratteristiche comuni del nostro ipotetico 2024.

  • presenza pervasiva degli ambienti virtuali
  • negli ambienti virtuali si partecipa con modalità/strumenti/piattaforme differenti, ma…
  • …i partecipanti vengono rappresentati con una modalità comune, e…
  • …tutti i partecipanti sono in grado di manipolare i contenuti
  • molti dei contenuti che creiamo sono abbinati a coordinate geografiche reali
  • i modelli che compongono l’ambiente virtuale 3D sono sintetizzati in modo semiautomatico da fotografie e altri dati raccolti dalle persone
  • i dispositivi portatili sono normalmente in modalità augmented reality cioè quando li rivolgiamo verso un soggetto, forniscono immediatamente informazioni su di esso

folks in highly instrumented team rooms will collaborate in one way, and their activity will be reflected in the virtual world;  remote participants (e.g., those at home, or in a cafe or hotel) may control their virtual presence in different ways, but the presence of all participants will be reflected back out to the other sides in analogous ways.  We may see ghosts of participants at the interactive displays, or hear their voices in 3D space around us; everyone will hopefully be able to manipulate content on all displays and tell who is making those changes

[…]

it’s a matter of time till more of what we “create” (e.g., Tweets and blog posts and so on) are all geo-referenced; these will become the information landscape of the future

[…]

you can start building the models of the world in a semi-automated way from photographs and more structured, intentional drive-by’s and so on. So I think it’ll just sort of happen. And as long there’s a way to have the equivalent of Mosaic for AR, the original open source web browser, that allows you to aggregate all these things. It’s not going to be a Wikitude. It’s not going to be this thing that lets you get a certain kind of data from a specific source, rather it’s the browser that allows you to link through into these data sources.

So it’s that end that interests me. It’s questions like “what is the user experience”, how do we create an interface that allows us to layer all these different kinds of information together such that I can use it for all my things. I imagine that I open up my future iphone and I look through it. The background of the iphone, my screen, is just the camera and it’s always AR. I want the camera on my phone to always be on, so it’s not just that when I hold it a certain way it switches to camera mode, but literally it’s always in video mode so whenever there’s an AR thing it’s just there in the background.

[…]

Wrobel wrote, “The AR has to come to the users, they cant keep needing to download unique bits of software for every bit of content! We need an AR Browsing standard that lets users log into an out of channels (like IRC) and toggle them as layers on their visual view (like Photoshop).Channels need to be public or private, hosted online (making them shared spaces) or offline (private spaces). They need to be able to be both open (chat channel) or closed (city map channel) as needed. Created by anyone anywhere. Really IRC itself provides a great starting point. Most data doesn’t need to be persistent, after all. I look forward too seeing the world though new eyes.I only hope I will be toggling layers rather then alt+tabbing and only seeing one “reality addition” at a time.”

Bonus video di oggi: ARhrrrr

ARhrrrr is an augmented reality shooter for mobile camera-phones, created at Georgia Tech Augmented Environments Lab and the Savannah College of Art and Design (SCAD-Atlanta). The phone provides a window into a 3d town overrun with zombies. Point the camera at our special game map to mix virtual and real world content. Civilians are trapped in the town, and must escape before the zombies eat them! From your vantage point in a helicopter overhead, you must shoot the zombies to clear the path for the civilians to get out. Watch out though as the zombies will fight back, throwing bloody organs to bring down your copter. Move the phone quickly to dodge them. You can also use Skittles as tangible inputs to the game, placing one on the board and shooting it to trigger an explosion.

Mobile Augmented Reality and Mirror Worlds: Talking with Blair MacIntyre

Archiviato in:Previsioni generali, , , , ,

Scansioni 3D, RIDAR personali, fotografie e mirror worlds

Londra è la prima città a essere stata digitalizzata in 3D all’interno del progetto UKMap. Ne parla Digital Urban, mostrando anche un video realizzato con LandXplorer che visualizza i dati raccolti tramite foto aeree e telerilevamento RIDAR.

Cosa c’entra questo con il futuro dei mondi virtuali?

Il concetto attuale di mondo virtuale sfuma in quello di mirror world, il cui esempio principale è dato da Google Earth; un altro è dato dal video di UKMap citato sopra. La differenza è che nei mirror world l’ambiente cerca di riprodurre fedelmente il mondo reale; in un certo senso anche le zone di Second Life che riproducono città e geografie reali sono esempi di mirror world – o forse sono intrusioni, collusioni fra i due concetti.

Già oggi quindi l’universo dei contenuti immersivi 3D è costituito da scenari immaginari e da riproduzioni del mondo reale. Possiamo immaginare un futuro in cui entrambi questi tipi di contenuti saranno accessibili all’interno di ciò che diventeranno i “mondi virtuali”, a prescindere dalle piattaforme che generano e gestiscono i relativi contenuti e dai dispositivi che li rendono fruibili dalle persone.

Oggi a creare i mirror world contribuiscono le foto e le scansioni RIDAR aeree; nei prossimi anni la raccolta di queste informazioni potrà spostarsi ai singoli individui. I dati che ne deriveranno consentiranno di ricreare tridimensionalmente, all’interno dei mondi virtuali, lo spazio attraversato nella realtà dagli individui stessi.

spunto per la rappresentazione di un sistema di scansione dell'ambiente circostante

spunto per la rappresentazione di un sistema di scansione dell'ambiente circostante

Questa è una ripresa effettuata all’interno del Google Holodeck, che si trova a Mountain View – 7-8 schermi mostrano in alta definizione e a 360 gradi una sequenza accelerata delle fotografie scattate per Google StreetView.

Archiviato in:Previsioni generali, Second Life, Tecnologie, , , , , ,

Le potenzialità delle proiezioni – Realtà Aumentata – Progettare per la distanza

Tra poco più di una settimana sapremo se ci sarà stato assegnato uno spazio presso SL6B – la festa per il sesto compleanno di Second Life – dove realizzare il progetto 2024.

Nel frattempo segnalo in questo articolo alcuni esempi interessanti di proiezione, perché ritengo plausibile che la fruizione dei mondi virtuali del 2024 avverrà anche tramite sistemi di proiezione. Ci sono stati sviluppi sotto diversi punti di vista per questa tecnologia, e (salvo apocalissi) ce ne saranno ancora, per cui è utile accostare alcuni esempi e immaginare le loro possibili integrazioni.

Il video che segue mostra, in maniera embrionale, alcune delle potenzialità che nascono miniaturizzando e rendendo portatili i proiettori, e combinandoli con  un sistema di riconoscimento degli oggetti e di recupero delle relative informazioni:

Qui sotto vediamo invece come sia possibile -già oggi- non solo proiettare su superfici in movimento, ma anche adattare il contenuto delle immagini alla posizione e alla conformazione dell’oggetto su cui si proietta:

Il terzo video è forse quello più d’impatto dal punto di vista estetico e indica nuove strade espressive: dalla tradizionale proiezione su superficie piana passiamo alla proiezione “intelligente” su uno sfondo tridimensionale.

Credo che questo tipo di proiezione sia reso possibile dall’uso di modelli digitali dell’ambiente su cui si va a proiettare: l’immagine viene modificata da un software e adattata alla tridimensionalità dello spazio proiettivo per sfruttare la prospettiva. Unendo questa tecnologia ai sistemi di scansione 3D dello spazio e accelerando mentalmente il tutto…fermi, non agitatevi. Non vorrei che vi si fondesse il cervello – per cui vi lascio in compagnia di due immagini fuorvianti.

Archiviato in:Tecnologie, , , , ,

SL6B: idea per una scena – 1

Zheling Zhong interviene sull’idea dei proiettori con alcune bozze (in Second Life). Lo spunto della proiezione si sposta dalla riproduzione di informazioni alla raccolta, evolvendosi verso una sorta di scansione 3D. Anche in questo caso si ipotizza che il dispositivo venga indossato dall’individuo.

Concretamente: un cono al centro – una barra con il glow, che fa da reggio centrale di scansione – un pannello quadrato intermedio, a metà barra, che simuli una griglia – un pannello informativo attaccato in prossimità del petto, che trasmetta le informazioni.

work in progress

spunto per la rappresentazione di un sistema di scansione dell'ambiente circostante

UPDATE

Da Wikipedia:
LIDAR è una tecnica di telerilevamento che permette di determinare la distanza di un oggetto o di una superficie utilizzando un impulso laser, oltre a determinare la concentrazione di specie chimiche nell’atmosfera.

un LIDAR contemporaneo

Danny Sullivan, via twitter condivide proprio oggi una foto dalla conferenza Where 2.0 scattata durante la presentazione dei sensori LIDAR prodotti da Velodyne:
@where20 session shooting 64 lasers at us. but they’re safe, made radiohead-like lidar 3d map of the audience

Sistema con 64 laser che realizzano una mappa 3D del pubblico

O'Reilly's Where 2.0 Conference - dimostrazione di un sistema basato su 64 laser che realizza una mappa 3D del pubblico

Archiviato in:Costruzione del padiglione 2024, Tecnologie, , , , , , ,

2024: I mondi virtuali

Nel padiglione che -se verremo selezionati- costruiremo in Second Life per “The Future of Virtual Worlds” vengono rappresentate alcune ipotetiche situazioni di uso dei mondi virtuali nel 2024. Ho scelto come “futuro” il 2024 perche’ ho ritenuto 15 anni un intervallo di tempo abbastanza lungo da consentire sostanziali trasformazioni tecnologiche, ma abbastanza breve da consentirci previsioni relativamente plausibili.

Posto che prima non si verifichino una o piu’ apocalissi, nel 2024 i mondi virtuali sono uno spazio multimediale, universalmente accessibile dalle reti globali di comunicazione esistenti, tramite dispositivi di semplice uso e larga diffusione.

I suoi contenuti possono essere

  • persistenti oppure istantanei
  • creati e modificati dal protagonista, da altri o da un software
  • fruiti simultaneamente ad altri, privatamente o pubblicamente
  • di completa finzione… (un gioco di ruolo o un film)
  • …reali… (nel senso di essere una verosimile rappresentazione del reale)
  • …o informazioni aggiuntive (le informazioni su un artista sovraimpresse alla rappresentazione realistica di un’opera)

La componente visuale ha qualita’ video-realistica / cinematografica o superiore, per usare i nostri termini attuali di riferimento. L’effetto della visione di un avatar e’ analogo a quello indotto dalla visione di persone reali in TV e non a quello degli attuali nostri pupazzetti di SL.

Le funzioni assolte tramite i mondi virtuali vanno a integrare (senza necessariamente sostituire): giornali, televisione, film, videogames, concerti, teatro – sia nella fruizione che nella creazione dei contenuti.

Il canale di comunicazione stabilito dai mondi virtuali del 2024 ospita anche quelli che attualmente sono i servizi di telefonia / messaggistica testuale, vocale e multimediale sia istantanea (chat) che asincrona (email, forum, social networks, etc) e un sistema di pagamento universale.

La diffusione dei dispositivi che consentono l’accesso ai mondi virtuali e’ paragonabile all’attuale diffusione del telefono cellulare nei paesi ricchi. La dimestichezza con l’uso di questi dispositivi e’ simile a quella con l’orologio da polso, o il walkman.

Possibili elementi futuristici e di novita’:

  • sensori che riconoscono agilmente i movimenti dei nostri occhi e ci consentono ad esempio di premere un pulsante semplicemente guardandolo
  • interfacce che non necessitano di contatto fisico sviluppate a partire da questo tipo di sensori
  • sistemi di proiezione diffusi sulle superfici piu’ disparate. Esempio: proiettori fissi su muri esterni, interni e pavimentazioni; proiettori personali (di piccole dimensioni e integrati nel corrispettivo futuro degli attuali telefonini) su qualsiasi superficie (per accedere a un’informazione non ci si sposta davanti a un display bensi’ la si proietta dove ci si trova in quel momento, o sulla propria mano)

Fin qui le basi “teoriche”.
Qui provo a definire piu’ concretamente il progetto.

Archiviato in:Previsioni generali, , , , , , ,

Cos’è?

Qui Opensource Obscure raccoglie spunti e presenta possibili scenari per il futuro dei mondi virtuali.
Pretesto per la creazione di questo blog è stata la partecipazione all’iniziativa “The Future of Virtual Worlds” organizzata all’interno di SL6B - la celebrazione del 6° compleanno di Second Life.

"2024. The Future of Virtual Worlds" c/o SL6B:

Appunti, discussioni, segnalazioni veloci… alcune cose finiscono nel blog, altre no. Se usate friendfeed, iscrivetevi e partecipate al gruppo.

View my FriendFeed