Car-tech

Sbirciando nel futuro fantascientifico dei display per PC

First Contact

First Contact

Sommario:

Anonim

La legge di Moore potrebbe tenerci forniti con processori octa-core per smartphone e PC pieni di milioni di transistor, ma non tutte le aree tecnologiche mantengono il pedale al metallo proverbiale con entusiasmo come la tecnologia dei chip. Nello specifico, i display desktop - i portali attraverso i quali si intravede l'output di quelle potenti CPU - sono bloccati in folle mentre la tecnologia nel resto del PC strappa in avanti a una velocità vertiginosa.

Certo, i display Retina sembrano davvero potenti, ma dai. Questo è il 21 ° secolo, non il 1. Fortunatamente, diverse iniziative lungimiranti stanno abbandonando i tradizionali schermi piatti per PC in favore di progetti innovativi che potrebbero un giorno ridefinire il modo in cui guardiamo i nostri computer. Questi, gente, sono i display del PC del futuro, o almeno lo scopo di essere.

Oculus Rift

Qualsiasi discussione sugli schermi per PC del futuro sarebbe incompleta se non menzionasse la realtà virtuale, e il kit di realtà virtuale che ha guadagnato la notorietà più recente è l'Oculus Rift supportato da Kickstarter. Questo auricolare ha catturato l'attenzione degli appassionati di giochi in massa. Alimentato da un pacchetto di sensori che include un girometro, un accelerometro e un magnetometro, Oculus Rift utilizza i dati generati da tali componenti per monitorare i movimenti della testa e tradurli in mondi di gioco 3D praticamente senza latenza, offrendo una VR davvero immersiva

È davvero fantastico, e un kit di sviluppo software è destinato a diventare presto uno strumento per gli sviluppatori. Dai un'occhiata al nostro Alex Wawro che fa girare l'Oculus Rift nel video qui sopra.

Canon Mixed Reality

L'auricolare Mixed Reality di CanonCanon.

Simile all'Oculus Rift in quanto è un grande auricolare nero che ti trasporta Nei dintorni virtuali, il dispositivo Mixed Reality, recentemente annunciato da Canon, è rivolto ai progettisti industriali piuttosto che ai giocatori.

L'auricolare si collega a una workstation robusta e mette in mostra due fotocamere rivolte in avanti. Lavorando in concerto, tutto questo hardware è progettato per presentare una miscela di realtà aumentata e immaginaria. Il sistema può trasformare semplici oggetti di scena del mondo reale in rappresentazioni completamente rifinite della creazione di un designer, come dimostrato nell'immagine qui sotto. Una volta immerso, puoi manipolare gli oggetti in tempo reale nell'equivalente equivalente dello spazio reale, completo di un accurato senso di scala.

CanonA puntello per fotocamera semplice (a sinistra) si trasforma in una fotocamera in piena regola (a destra) in Mixed Reality di Canon.

Cool, eh? Ora per il lato negativo: attualmente la Mixed Reality di Canon costa $ 125.000 in anticipo e altri $ 25.000 all'anno in spese di manutenzione. Il kit di sviluppo Oculus Rift da $ 300, d'altra parte, è composto da parti pronte per l'uso. Ma ricordate che l'odierna novità costosa è il prezzo del consumatore di domani.

3D autostereoscopico

Al di là della realtà virtuale retta, la maggior parte degli altri tentativi di spingere i display in avanti comporta la creazione di immagini 3D di qualche tipo, ma nessuno vuole indossare quegli occhiali super-dorky da cui dipende la maggior parte della tecnologia 3D attuale. Entra nella tecnologia autostereoscopica, un termine generico per un 3D senza occhiali.

Il VergeThe Verge's Joshua Topolsky guarda al display 3D autostereoscopico di Microsoft Research.

Ci sono molti modi per implementare questa tecnologia, ma i display autostereoscopici più interessanti usano una tecnica chiamata parallasse di movimento, che altera la vista dell'oggetto 3D a seconda della posizione della testa, creando una vera esperienza 3D (anche se simulata).

Microsoft Research sta lavorando proprio su un tale sistema, che puoi vedere in azione al voto 1:55 di questo video di Verge. (Attenzione: poiché la tecnologia si basa sui segnali di trasmissione direttamente agli occhi degli individui, non filma bene). Il display di Microsoft tiene traccia dei tuoi occhi con una telecamera Kinect, quindi usa le informazioni per trasmettere due immagini separate ma simultanee da dietro uno schermo LCD-uno all'occhio sinistro e l'altro alla vostra destra. Le doppie immagini ingannano il tuo cervello nel vedere un'immagine 3D sullo schermo, la cui profondità e posizione sono regolate in base alla tua posizione (come rilevata anche dalla telecamera Kinect).

Pronto per qualcosa davvero raccapricciante / fantastico? Due persone che fissano lo stesso schermo potrebbero guardare due immagini completamente diverse quando la tecnologia Microsoft è matura. Ahimè, oggi è ancora allo stadio infantile.

SpaceTop

SpaceTop, un altro progetto nato dalla ricerca di Microsoft, combina il desktop computing 2D tradizionale con un'interfaccia innovativa che consente di manipolare oggetti in tre dimensioni.

Per realizzare questo, SpaceTop si basa su uno schermo trasparente seduto tra te e la tastiera e il touchpad del sistema. Una fotocamera incorporata nella parte posteriore dello schermo tiene traccia delle tue mani per scopi di controllo del movimento, mentre una fotocamera orientata all'utente monitora la posizione della tua testa per visualizzare le immagini 3D sullo schermo con la scala e la prospettiva corrette. Piuttosto che cercare di spiegare di più, ti indicherò semplicemente il video qui sopra. Questo display deve essere visto per essere capito.

Leonar3do

Se questo sembra un po 'troppo esoterico, controlla fuori Leonar3do, che i suoi costruttori chiamano "il primo kit VR per desktop al mondo". Il software, abbinato a un set cruciale di occhiali 3D e un mouse 3D unico chiamato The Go Bird, ti consente di visualizzare e manipolare oggetti in 3D.

Il video sopra mostra una dimostrazione di cosa vuol dire usare Leonard3do, che ha come target una vasta gamma di mercati tra cui la modellazione 3D, i giochi e persino l'istruzione. Abbiamo passato un po 'di tempo con la tecnologia al CES e siamo rimasti colpiti. Abbiamo detto ai nostri redattori sul posto: "Dai nostri tempi con il motore di lavoro virtuale, sembra un modo straordinario per creare, dimostrare e visualizzare oggetti 3D virtuali nello spazio reale."

Pensando in grande

it. display memory-alpha.orgLarge. Microsoft

Un'immaginazione del futuro citata spesso comporta una preponderanza di display completamente massicci: bestie da muro che fanno impallidire il monitor seduto sulla tua scrivania in questo momento. Ma gli schermi così grandi invitano i dilemmi di interfaccia unici, specialmente se sono abilitati al touchscreen. In che modo un gigantesco monitor risponde a più utenti? Cosa succede se non riesci a raggiungere la parte superiore del display? La fionda di Angry Birds sarà anche gestibile? E così via.

Microsoft Research sta già lavorando duramente per affrontare questi problemi prima che diventino problemi diffusi. Il progetto Towards Large-Display Experiences, come delineato nel video qui sotto, ha messo a punto una di queste possibili soluzioni che prevede l'uso di uno stilo per lavori fini e gesti touchscreen per i controlli di base, abbinato al riconoscimento dell'utente legato agli smartphone ormai onnipresenti. È una risposta interessante a un problema potenzialmente enorme (destinato al gioco di parole).

Spingere tutti quei pixel è un altro problema, ma non temere: anche su Microsoft Research è al lavoro. Un progetto chiamato Foveated Rendering mira a ridurre i requisiti di elaborazione sfruttando il fatto che l'occhio umano non vede tanti dettagli alla sua periferia. Fondamentalmente, il display tiene traccia dei tuoi peepers e si assicura che l'area che stai guardando sia resa in piena gloria, lasciando cadere la risoluzione ai più remoti dello schermo.

Durante i test, gli utenti non sono stati in grado di distinguere tra un un'immagine a tutti gli effetti e una che utilizzava il rendering foveated, ma l'immagine meno dettagliata richiedeva solo un sesto della potenza di calcolo da creare.

Pensando ancora più grandi

display a dimensione di muro? Pfffft. Sono piccole patate per il team che sta dietro LightSpace, ancora un altro progetto di Microsoft Research che vuole uccidere i monitor come li conosciamo e trasformare ogni oggetto nel tuo ufficio in un potenziale display del PC.

Microsoft Research

LightSpace si basa su una serie di telecamere e proiettori per "creare uno spazio altamente interattivo in cui qualsiasi superficie, e persino lo spazio tra le superfici, è completamente interattivo". In poche parole, le telecamere tracciano i tuoi movimenti intorno alla stanza e osservano le tue interazioni con le immagini proiettate dal setup, che possono essere proiettate su qualsiasi superficie: pareti, sedie, scrivanie, come lo chiami. Ad un livello base, il tracciamento della telecamera ti consente di manipolare le immagini usando gesti multi-touch familiari, ma supporta anche comandi più esotici come trascinare l'immagine da un oggetto a un altro o "raccogliere" l'immagine e passarla a un'altra persona

È roba elegante. Sicuramente vorrete vedere il video qui sopra, se non altro per saltare ai bit interessanti. È anche roba complicata: LightSpace deve essere calibrato sulla stanza in cui viene utilizzato. Al momento, questo lo colpisce dal regno dell'uso quotidiano, ma come sensori economici come il Kinect diventano più potenti e forse in grado di mappare una stanza in 3D al volo, un sistema come LightSpace potrebbe decollare.

Talking head in 3D

Mentre altri sono impegnati a cercare di rivoluzionare completamente gli schermi, l'Institute for Creative Technologies dell'USC sta cercando di rendere quelle noiose videoconferenze un po 'meno con il suo sistema di teleconferenza video 3D.

Se hai mai avuto il (dis) piacere di stare seduto in una videoconferenza, sai bene che chi chiama trascorre la maggior parte del tempo della riunione fissando lo schermo del portatile piuttosto che la webcam di per sé, fare sembrare anche i maschi alfa più estroversi come introversi sconnessi.

USCICT

Non più! (O, più precisamente, forse non più un giorno!) La tecnologia USCICT trasforma i videoconferenziati in teste parlanti 3D proiettando un video in tempo reale e ad alta velocità dell'altoparlante su uno specchio in alluminio lucidato a spiedo ruotando più di 15 volte al secondo. "In effetti, lo specchio riflette 144 visualizzazioni uniche della scena attraverso un campo visivo di 180 gradi con una separazione angolare di 1,25 gradi", spiega il sito Web del gruppo di ricerca.

Dal lato del videoconferenza, il sistema di video 3D Teleconferencing mostra una poppata delle persone all'estremità ricevente che spalanca la testa galleggiante olografica. Il sistema tiene traccia della posizione della testa e dello sguardo del videoconferitore remoto, consentendo alla testa virtuale 3D di stabilire un contatto visivo e passare da un diffusore all'altro durante una riunione. (E pensavi che la funzione di messa a fuoco automatica in Google+ Hangouts fosse fantastica!)

Non ti interessa la chat in tempo reale? Il team USCICT ha utilizzato una tecnologia simile per creare immagini 3D che possono essere girate e osservate a 360 gradi. Punti bonus: questo 3D è autostereoscopico!

Il breve termine

AMDCi sono molti pixel!

Infine, ecco un obiettivo di visualizzazione futuristico che, sebbene non altrettanto ambizioso come il resto delle voci, potrebbe essere un un po 'più realistico. Una configurazione multi-monitor dolce potrebbe non cambiare il modo in cui si guardano i dati, ma, ehi, la densità dei pixel è aumentata solo mentre i prezzi dei display sono diminuiti (anche se lentamente) nel tempo. Questo è un valore. E se non riesci a cogliere un rig a sei pannelli, 5760 per 2400 pixel come l'apice dell'eccesso, non ne hai mai usato uno.