Sfogliate http://friendfeed.com/virtualworlds2024o seguitene il feed per scoprire idee e tecnologie attinenti al futuro degli ambienti virtuali del futuro. Si tratta di una “Friendfeed room” dove segnalo in forma molto breve questo tipo di spunti.
Le analisi e le riflessioni più approfondite riprenderanno in questo blog più avanti: gli spunti abbondano, lo sviluppo delle tecnologie prese in esame finora (Augmented Reality, proiezioni) prosegue velocemente, nuove idee affiorano e promettono di aiutarci a costruire in modo sempre più efficiente scenari tridimensionali immersivi. Nel frattempo, Second Life conferma il proprio buono stato di salute e si accinge a evolversi in modo significativo sotto vari punti di vista.
Per quanto riguarda gli eventi, alcune settimane fa SDForum ha organizzato un incontro sul futuro dei mondi virtuali – purtroppo non l’ho segnalato in tempo:
The installation we have created for SL6B. The Future of Virtual Worlds represents some hypothetical use cases for virtual environments in 2024.
My choice of year 2024 as “the future” originates from the reflection that a 15-years’ time span would be long enough, allowing for substantial technological transformations, but sufficiently short for us to make fairly plausible predictions.
Assuming that no apocalypse(s) intervene in the meantime, in 2024 virtual worlds will be a multimedia space that can be universally accessed from the existing global communication networks by means of wide-spread and easy-to-use devices.
Their contents can be:
persistent or instantaneous
created or modified by the main character, by others or by a software
simultaneously experienced by others, in private or in public
totally fictional… (a role play or a movie)
…realistic… (being a likely representation of reality)
…or additional information (details about an artist superimposed on the graphic representation of one of her works)
Using our current terminology, the quality of the visual component can be described as video-realistic/cinema-like or better. The effect of an avatar’s vision is similar to that which is induced by the vision of real people on TV rather than to the one generated by our current Second Life cartoon-like puppets.
Functions carried out through virtual environments integrate (without necessarily replacing): newspapers, television, movies, video-games, concerts, and theater, both as regards the experience and the creation of contents.
In 2024, the communication channel offered by virtual worlds will include today’s voice/text/multimedia messaging systems, both in their instantaneous (chat) and asynchronous forms (e-mail, forums, social networks, etc.), as well as a universal payment system.
The diffusion of devices giving access to virtual environments can be compared to the current diffusion of mobile phones in rich countries. The familiarity with such devices is similar to that with watches or Walkman sets.
Nell’articolo precedente ho raccontato la conclusione dei lavori presso la nostra installazione a SL6B e ho descritto brevemente le sei scene che abbiamo ricostruito, che esemplificano altrettante ipotesi di utilizzo di ambienti virtuali nel prossimo futuro. Ecco i testi che in Second Life accompagnano ogni scena.
CINEMA 3D
La proiezione pubblica 3D e’ una consuetudine. Le star del cinema sono i Ractors. Lo spettacolo puo’ essere una rappresentazione recitata in diretta da remoto in uno scenario virtuale, oppure un film, frutto di riprese, editing e montaggio.
RACTOR
Attivita’ professionale. Il ractor recita da remoto nei mondi virtuali. L’interpretazione puo’ essere una rappresentazione in diretta (come nel teatro), o parte di una serie di riprese (come nel cinema). Nota: “Ractor” è termine preso in prestito da Neal Stephenson.
POSTAZIONE LAVORATIVA INDIVIDUALE
I mondi virtuali sono un comune strumento di lavoro che integra telefonia, messaggistica, pubblicazione di dati testuali, vocali e video e un sistema di pagamento universale.
MEETING LAVORATIVO
Gli ambienti virtuali sono comunemente utilizzati in ambito professionale per la visualizzazione di dati, gli incontri a distanza e l’organizzazione di eventi.
CASA
Schermi, proiettori sensori per il rilevamento di persone, oggetti, movimenti e dati ambientali – gli ambienti virtuali fungono anche da metafora per la rappresentazione di dati utili alla vita quotidiana: news, enciclopedia ecc.
STRADA
Gli ambienti virtuali forniscono simbologie per rappresentare dati e visualizzare informazioni; con i dispositivi portatili si estende il loro uso a situazioni casuali, come il muro lungo il marciapiede.
I nostri lavori a SL6B sono praticamente conclusi. Abbiamo ancora un paio di giorni per le rifiniture e i dettagli ma sostanzialmente abbiamo completato il progetto. Il team di 2024 ha fatto un gran lavoro e ringrazio tutti per il loro impegno – illustrerò più in dettaglio i contributi di ognuno in un altro post, probabilmente la settimana prossima.
sarà possibile accedere a SL6B
dalle 19 (ora ital.) di martedì 23 giugno – fino al 6 luglio 2009.
Abbiamo realizzato tre edifici: un’abitazione, un cinema e un palazzo adibito a usi professionali; una strada, una piazzetta e un vicolo malfamato completano lo scenario. Come un pò tutto l’ambiente di SL6B, è un tripudio di Glow, trasparenze e luci – con tutti i bug che Second Life si porta dietro in questi casi ;-)
Complessivamente abbiamo allestito sei scene, che prevedono l’uso di una serie di apparecchi e dispositivi. In alcuni casi questi congegni sono solo accennati o sottintesi. Ecco le varie situazione rappresentate:
postazione lavorativa individuale (proiezioni, schermi, sensori per la manipolazione dei dati)
Potete trovare maggiori informazioni sulle celebrazioni del sesto compleanno di Second Life nell’apposita pagina del wiki o seguendo gli annunci che Linden Lab diffonderà con i messaggi della schermata di login, nel blog ufficiale e su Twitter.
Tish Shute (Tara5 Oh in Second Life) è uno dei miei punti di riferimento per mondi virtuali e mirror worlds, realtà aumentata (augmented reality), dispositivi, sensori e in generale gli argomenti che tratta questo blog. Gli approfondimenti da lei pubblicati su Ugotrade sono imperdibili – gli intervistati sono persone di rilievo in questi settori e le riflessioni che ne risultano sono spesso molto interessanti.
negli ambienti virtuali si partecipa con modalità/strumenti/piattaforme differenti, ma…
…i partecipanti vengono rappresentati con una modalità comune, e…
…tutti i partecipanti sono in grado di manipolare i contenuti
molti dei contenuti che creiamo sono abbinati a coordinate geografiche reali
i modelli che compongono l’ambiente virtuale 3D sono sintetizzati in modo semiautomatico da fotografie e altri dati raccolti dalle persone
i dispositivi portatili sono normalmente in modalità augmented reality cioè quando li rivolgiamo verso un soggetto, forniscono immediatamente informazioni su di esso
folks in highly instrumented team rooms will collaborate in one way, and their activity will be reflected in the virtual world; remote participants (e.g., those at home, or in a cafe or hotel) may control their virtual presence in different ways, but the presence of all participants will be reflected back out to the other sides in analogous ways. We may see ghosts of participants at the interactive displays, or hear their voices in 3D space around us; everyone will hopefully be able to manipulate content on all displays and tell who is making those changes
[…]
it’s a matter of time till more of what we “create” (e.g., Tweets and blog posts and so on) are all geo-referenced; these will become the information landscape of the future
[…]
you can start building the models of the world in a semi-automated way from photographs and more structured, intentional drive-by’s and so on. So I think it’ll just sort of happen. And as long there’s a way to have the equivalent of Mosaic for AR, the original open source web browser, that allows you to aggregate all these things. It’s not going to be a Wikitude. It’s not going to be this thing that lets you get a certain kind of data from a specific source, rather it’s the browser that allows you to link through into these data sources.
So it’s that end that interests me. It’s questions like “what is the user experience”, how do we create an interface that allows us to layer all these different kinds of information together such that I can use it for all my things. I imagine that I open up my future iphone and I look through it. The background of the iphone, my screen, is just the camera and it’s always AR. I want the camera on my phone to always be on, so it’s not just that when I hold it a certain way it switches to camera mode, but literally it’s always in video mode so whenever there’s an AR thing it’s just there in the background.
[…]
Wrobel wrote, “The AR has to come to the users, they cant keep needing to download unique bits of software for every bit of content! We need an AR Browsing standard that lets users log into an out of channels (like IRC) and toggle them as layers on their visual view (like Photoshop).Channels need to be public or private, hosted online (making them shared spaces) or offline (private spaces). They need to be able to be both open (chat channel) or closed (city map channel) as needed. Created by anyone anywhere. Really IRC itself provides a great starting point. Most data doesn’t need to be persistent, after all. I look forward too seeing the world though new eyes.I only hope I will be toggling layers rather then alt+tabbing and only seeing one “reality addition” at a time.”
Bonus video di oggi: ARhrrrr
ARhrrrr is an augmented reality shooter for mobile camera-phones, created at Georgia Tech Augmented Environments Lab and the Savannah College of Art and Design (SCAD-Atlanta). The phone provides a window into a 3d town overrun with zombies. Point the camera at our special game map to mix virtual and real world content. Civilians are trapped in the town, and must escape before the zombies eat them! From your vantage point in a helicopter overhead, you must shoot the zombies to clear the path for the civilians to get out. Watch out though as the zombies will fight back, throwing bloody organs to bring down your copter. Move the phone quickly to dodge them. You can also use Skittles as tangible inputs to the game, placing one on the board and shooting it to trigger an explosion.
Mobile Augmented Reality and Mirror Worlds: Talking with Blair MacIntyre
Linden Lab ha accettato il nostro progetto e parteciperemo a SL6B! C’è stato un errore nell’iscrizione e qualche difficoltà, ma un poco alla volta i membri del team stanno ricevendo le abilitazioni necessarie a costruire presso l’area che ci e’ stata assegnata: una parcel da 2048mq e 468prim.
Londra è la prima città a essere stata digitalizzata in 3D all’interno del progetto UKMap. Ne parla Digital Urban, mostrando anche un video realizzato con LandXplorer che visualizza i dati raccolti tramite foto aeree e telerilevamento RIDAR.
Cosa c’entra questo con il futuro dei mondi virtuali?
Il concetto attuale di mondo virtuale sfuma in quello di mirror world, il cui esempio principale è dato da Google Earth; un altro è dato dal video di UKMap citato sopra. La differenza è che nei mirror world l’ambiente cerca di riprodurre fedelmente il mondo reale; in un certo senso anche le zone di Second Life che riproducono città e geografie reali sono esempi di mirror world – o forse sono intrusioni, collusioni fra i due concetti.
Già oggi quindi l’universo dei contenuti immersivi 3D è costituito da scenari immaginari e da riproduzioni del mondo reale. Possiamo immaginare un futuro in cui entrambi questi tipi di contenuti saranno accessibili all’interno di ciò che diventeranno i “mondi virtuali”, a prescindere dalle piattaforme che generano e gestiscono i relativi contenuti e dai dispositivi che li rendono fruibili dalle persone.
Oggi a creare i mirror world contribuiscono le foto e le scansioni RIDAR aeree; nei prossimi anni la raccolta di queste informazioni potrà spostarsi ai singoli individui. I dati che ne deriveranno consentiranno di ricreare tridimensionalmente, all’interno dei mondi virtuali, lo spazio attraversato nella realtà dagli individui stessi.
spunto per la rappresentazione di un sistema di scansione dell'ambiente circostante
Questa è una ripresa effettuata all’interno del Google Holodeck, che si trova a Mountain View – 7-8 schermi mostrano in alta definizione e a 360 gradi una sequenza accelerata delle fotografie scattate per Google StreetView.
Tra poco più di una settimana sapremo se ci sarà stato assegnato uno spazio presso SL6B – la festa per il sesto compleanno di Second Life – dove realizzare il progetto 2024.
Nel frattempo segnalo in questo articolo alcuni esempi interessanti di proiezione, perché ritengo plausibile che la fruizione dei mondi virtuali del 2024 avverrà anche tramite sistemi di proiezione. Ci sono stati sviluppi sotto diversi punti di vista per questa tecnologia, e (salvo apocalissi) ce ne saranno ancora, per cui è utile accostare alcuni esempi e immaginare le loro possibili integrazioni.
Il video che segue mostra, in maniera embrionale, alcune delle potenzialità che nascono miniaturizzando e rendendo portatili i proiettori, e combinandoli con un sistema di riconoscimento degli oggetti e di recupero delle relative informazioni:
Qui sotto vediamo invece come sia possibile -già oggi- non solo proiettare su superfici in movimento, ma anche adattare il contenuto delle immagini alla posizione e alla conformazione dell’oggetto su cui si proietta:
Il terzo video è forse quello più d’impatto dal punto di vista estetico e indica nuove strade espressive: dalla tradizionale proiezione su superficie piana passiamo alla proiezione “intelligente” su uno sfondo tridimensionale.
Credo che questo tipo di proiezione sia reso possibile dall’uso di modelli digitali dell’ambiente su cui si va a proiettare: l’immagine viene modificata da un software e adattata alla tridimensionalità dello spazio proiettivo per sfruttare la prospettiva. Unendo questa tecnologia ai sistemi di scansione 3D dello spazio e accelerando mentalmente il tutto…fermi, non agitatevi. Non vorrei che vi si fondesse il cervello – per cui vi lascio in compagnia di due immagini fuorvianti.
Lo so. Non c’e’ nessuna proiezione qui.
E’ importante considerare la posizione da cui le immagini vengono osservate – e la distanza.
Qui Opensource Obscure raccoglie spunti e presenta possibili scenari per il futuro dei mondi virtuali. Pretesto per la creazione di questo blog è stata la partecipazione all’iniziativa “The Future of Virtual Worlds” organizzata all’interno di SL6B - la celebrazione del 6° compleanno di Second Life.