jueves, 13 de abril de 2017

La primera década de la Realidad Aumentada

Resumen

AR se va a ser un accesorio que un subconjunto de usuarios de teléfonos móviles tienen (como, por ejemplo, relojes inteligentes)?
¿O cada ciudad pequeña en Brasil e Indonesia tienen tiendas que venden docenas de diferentes $ 50 gafas de AR chinos donde hoy se venden los androides?
Es muy pronto para decirlo.
La mayoría de las tecnologías revolucionarias surgen en etapas - es raro que nada para entrar en la vida completamente formado.
En febrero de 2006, Jeff Han dio una demostración de una interfaz experimental "multitouch", como una charla "TED". He insertado el vídeo a continuación. Viendo esto hoy en día, las cosas que muestra parece bastante banal - cada $ 50 que el teléfono Android hace esto! - y sin embargo, el público, en su mayoría relativamente sofisticado y tecnología enfocada a las personas, jadeos y aplaude. Lo que es banal ahora era increíble, entonces. Y un año más tarde, Apple (NASDAQ: AAPL ) dio a conocer el iPhone y la industria de la tecnología se pone a cero en torno multitouch.
Mirando hacia atrás en esto una década más tarde, había realmente cuatro lanzamientos para multi-touch. Hubo un punto en el cual multi-touch se convirtió en un concepto interesante en laboratorios de investigación, un punto en el que las primeras demostraciones de lo que en realidad esto podría hacer empezado a aparecer en público, un punto en el que el primer producto de consumo muy viable aparecieron en el iPhone, y luego, varios años más tarde, un punto en el que las ventas realmente comenzó la explosión, como el iPhone y Android evolucionó siguió. Se puede ver algo de ese retraso en la tabla de abajo - que tomó varios años después del lanzamiento del iPhone 2007 para las ventas a despegar (incluso después de que el modelo de precios ha cambiado). La mayoría de las tecnologías revolucionarias surgen como este, en etapas - es raro que nada para entrar en la vida completamente formado. Y mientras tanto, había pistas paralelas que resultaron ser el enfoque equivocado - tanto Symbian en el oeste y iMode e t otros en Japón.
Hoy en día, creo que la realidad aumentada * está en algún lugar entre los puntos dos y tres - que hemos visto algunos grandes demostraciones y los primeros prototipos y no tenemos un producto comercial para el mercado masivo, pero estamos cerca.
Por lo tanto, Microsoft (NASDAQ: MSFT ) es el envío de los Hololens: esto tiene muy buen seguimiento de posición, se ha integrado la computación en el auricular, aunque a costa de lo que es voluminoso, tiene un muy pequeño campo de visión (mucho menos de lo que sugiere en los videos de marketing de Microsoft), y cuesta $ 3.000. Una segunda versión está prevista para, aparentemente, 2019 . Apple está trabajando con bastante claridad en algo, pasando por las contrataciones y adquisiciones que son públicos, así como los comentarios del CEO (sospecho que el trabajo en la miniaturización, la energía, la radio, etc., que se ha ido en el reloj y AirPods Apple es relevante aquí). Puede haber algo más de Google (NASDAQ: GOOG ) (NASDAQ: GOOGL ), o tal vez Facebook (NASDAQ: FB ) o Amazon (NASDAQ: AMZN ). Y hay una serie de empresas más pequeñas y nuevas empresas que realizan un trabajo interesante.
Mientras tanto magia Salto (Privado: MLEAP ) (una inversión A16Z) está trabajando en su propia tecnología, usable y ha lanzado una serie de videos que muestran lo que ya es posible con un dispositivo de este tipo. He insertado uno de estos a continuación: el video es fresco, pero al igual que había una gran diferencia entre ver un video de un iPhone y el uso de una, hay una gran diferencia entre ver un vídeo de AR y el uso de este, caminar y ver cosas aparecen delante de sus ojos. Lo he intentado - no es nada mal.
Todo esto significa que si estamos en la etapa de "Jeff Han" hoy en día, no estamos lejos de la etapa 1 iPhone, y luego, durante la próxima década o así, podríamos evolucionar para un producto verdaderamente el mercado masivo .
Lo que podría parecer que durante mil millones de personas?
El primer nivel de AR es lo que teníamos con Google Glass - una pantalla flota cosas en el espacio delante de usted, pero no está conectado con el mundo de ninguna manera. De hecho, Google Glass era conceptualmente muy similar a un reloj inteligente, excepto que se miraba hacia arriba ya la derecha en lugar de hacia abajo ya la izquierda. Se le dio una nueva pantalla, pero no tenía ningún sentido de lo que era en el mundo delante de usted. Con una tecnología más avanzada, sin embargo, podríamos extender esto para hacer todo su campo de visión de una esfera que podrían mostrar ventanas, objetos 3D o cualquier otra cosa, flotando en el espacio.
Sin embargo, con lo que se podría llamar "verdadero AR", o, tal vez "realidad mixta", el dispositivo comienza a tener cierta conciencia de su entorno, y puede colocar las cosas en el mundo de tal manera que si suspender la incredulidad se podía imaginar que' re realmente allí. A diferencia de Google Glass, el auricular va a hacer el mapeo 3D de su entorno y el seguimiento de su posición de la cabeza todo el tiempo. Eso haría posible colocar un "TV virtual" en una pared y haga que sea permanecer allí mientras camina alrededor, o hacer que toda la pared de una pantalla. O se puede poner Minecraft (o Populous ) en la mesa de café y subir y bajar montañas con las manos, como si estuviera modelando arcilla. Por extensión, cualquier otra persona que lleva las mismas gafas podría ser capaz de ver las mismas cosas - que podría hacer una tabla de pared o conferencia en una pantalla y todo su equipo podría utilizarlo a la vez, o usted y sus hijos podría jugar a ser dios en torno a la misma mapa de Minecraft. O pequeño robot que podría ocultar detrás del sofá, o usted podría ocultarlo allí para sus hijos encontrar. (Esto tiene cierta superposición con algunos casos de uso de VR, por supuesto, sobre todo cuando la gente habla de la adición de cámaras externas.) Esta es la realidad mixta como una pantalla - o tal vez, como girar el mundo que te rodea en la pantalla infinita.
Pero hay otro lugar para ir con esto, porque estás siendo sólo haciendo realmente SLAM - que está mapeando las superficies 3D de una habitación, pero no lo entienda. Ahora, supongamos que vemos en un evento de networking y veo su tarjeta de perfil de LinkedIn encima de su cabeza, o veo una nota de Salesforce me dice que eres un cliente objetivo clave, o una nota de TrueCaller diciendo que vas a tratar de venderme seguros y de a pie. O, como sugirió Espejo Negro, sólo podría bloquear a las personas. Es decir, el grupo de sensores de imagen en las "gafas" no son sólo el mapeo de los objetos a mi alrededor, pero el reconocimiento de ellos. Este es el verdadero aumento de la realidad - que no sólo está mostrando cosas en paralelo con el mundo, sino como parte de ella. Sus gafas se pueden mostrar las cosas que lo podría hacer en un teléfono inteligente o en una pantalla de 2.000 pulgadas, pero también pueden desagregar esa pantalla en el mundo real, y cambiarlo. Por lo tanto, hay un espectro - por un lado, se puede enriquecer (o contaminar ) a todo el mundo, haciendo todo lo que una pantalla, pero por el otro, esto puede ser que permitirá colocar el más sutil de señales o cambios en el mundo - no sólo traducir cada iniciar sesión en su propio idioma cuando se viaja, pero corregir "Inglés americano" en Inglés. Si hoy en día la gente instala una extensión de Chrome que sustituye a "milenaria" con "gente de la serpiente", lo que sería un cambio extensión RM? ¿Qué tal hacer su jefe arco iris Puke ? (La diversión es, después de todo, el verdadero problema más importante a resolver a.)
Qué se pone las gafas todo el día, sin embargo, una vez que estén lo suficientemente pequeño? Si no es así, muchas de las aplicaciones más ambiente no funcionan así. Es posible que, tal vez, tener una combinación de un reloj o un teléfono que es el "siempre en" dispositivo y vasos que se pone en como gafas de lectura en el contexto adecuado. Eso podría abordar algunas de las cuestiones sociales que Google Glass se topó - sacando un teléfono, mirando un reloj o poner en un par de gafas de enviar una señal clara de que la gente puede entender de una manera que lleva un cristal de Google en un bar hizo no.
Esto afecta a una pregunta relacionada - AR y VR no se unen? Es ciertamente posible, y que están haciendo cosas relacionadas con problemas de ingeniería relacionados. Uno de los retos de hacer ambas cosas en un solo dispositivo es que VR, para colocar en otro mundo, necesita negro todo lo demás, por lo que las gafas deben ser sellados alrededor de los bordes, donde AR no necesita esto. Al mismo tiempo, todo el reto de la AR es dejar que el mundo a través de la oclusión, mientras que lo que no quiere (y probablemente no es grande en la luz del sol por un tiempo), donde VR quiere comenzar con una pantalla en negro. Con las gafas de RA, se puede ver los ojos de la persona. En una década o dos porciones de la cosa son posibles, pero por ahora parece que son diferentes pistas de tecnología. A finales de 1990 hemos argumentado sobre si los dispositivos "Internet móvil" tendrían una unidad separada de radio y la pantalla, además de un auricular, o tal vez un teclado o una concha de almeja con un teclado y pantalla - estábamos en factor de forma-descubrimiento, y hubo que esperar hasta 2007 (o posterior ) para resolver en una sola pieza de vidrio. VR y AR pueden estar en el descubrimiento por un tiempo también.
Entonces, ¿cómo controlar e interactuar con las cosas que no tienen presencia física? Son los controladores físicos de VR suficiente? Es el seguimiento de la mano lo suficientemente buena (sin una visión clara de los dedos)? Multi-táctil en los teléfonos inteligentes significa que tenemos interacción física directa, por lo que tocamos lo que queremos en la pantalla en lugar de mover el ratón uno o dos pies de distancia de ella, sino que nos "tocar" objetos AR que se ciernen en el aire ? Es que un modelo de interfaz bueno "todo el día"? Magia salto sin duda puede crear una sensación de profundidad tal que se cree que se puede tocar las cosas, pero es lo que quieres una interfaz donde su mano se desliza sin embargo lo que parece ser sólida? ¿Hay que usar la voz en su lugar - y cuánto que limitan lo que puede hacer (incluso con el reconocimiento de voz perfecta, imagine tratar de controlar un teléfono o un ordenador en su totalidad por hablar con ella)? O es eye-tracking la tecla - si los vasos del iris hacen seguimiento, no nos fijamos en lo que deseas y toca su reloj para seleccionarlo? Estos son, por supuesto, todos los mismos tipos de preguntas que tenían que ser resuelto para teléfonos inteligentes y ordenadores de hecho antes que ellos, al igual que factores de forma - como en 2000 o 1990, las respuestas no son claras, y tampoco, en realidad, son las preguntas .
Se parece a mí, sin embargo, que cuanto más se piensa en AR como la colocación de objetos y datos en el mundo a su alrededor, más que esto se convierte en una cuestión AI tanto como una pregunta interfaz física. Lo que debería veo mientras camino hasta que en particular? LinkedIn o Yesca? ¿Cuándo debo ver que un nuevo mensaje - que debe ser mostrado a mí ahora o más tarde? No me paro frente a un restaurante y decir "Hey Foursquare, es esto bueno?" o no el sistema operativo del dispositivo de hacerlo de forma automática? ¿Cómo se medió - por el sistema operativo, los servicios que haya añadido o por un solo 'cerebral de Google' en la nube? Google, Apple, Microsoft y magia Salto podrían todos tienen diferentes actitudes filosóficas a esto, pero me parece que muchos de los que tiene que ser automática - para ser AI - si quieres que funcione bien. Si uno recuerda la línea de Eric Raymond de que un equipo nunca se debe pedir algo que debería ser capaz de trabajar a cabo, a continuación, un equipo que puede ver todo lo que ve y saber lo que está viendo, y que tiene la siguiente década de desarrollo de aprender a construir en la máquina, debe eliminar las capas enteras de preguntas que hoy asumimos que tenemos que hacer frente de forma manual. Por lo tanto, cuando fuimos a partir del modelo de interfaz de usuario de Windows / teclado / ratón de los ordenadores de sobremesa al tacto y la interacción directa de los teléfonos inteligentes, una capa entera de preguntas se retiraron - el nivel de abstracción cambió. Un teléfono inteligente no le pregunta dónde guardar una foto, o dónde se encuentra cuando usted pide un coche, o qué aplicación de correo electrónico a utilizar, o (con escáneres de huellas digitales) cuál es su contraseña - que elimina las preguntas (y también las opciones). AR debe ser otro cambio de paso en la misma dirección: se trata de mucho más que tener aplicaciones para teléfonos inteligentes flotan delante de usted en pequeñas ventanas cuadradas. Snapchat (NYSE: SNAP ) no funciona like escritorio de Facebook, y un ambiente, intangible, dirigido por la IA IU iba a cambiar todo de nuevo.
Mientras tanto, más que las gafas de AR están tratando de comprender el mundo que le rodea (y usted mismo), más que los que están viendo, y el envío de algunos de lo que ven a una miríada de diferentes servicios en la nube, dependiendo del contexto, el caso de uso y el modelo de aplicación. ¿Es esta una cara y estás hablando con ella? Envíalo (o un resumen comprimido de la misma - y sí, hay importantes implicaciones de ancho de banda a todo esto) a Salesforce, LinkedIn, TrueCaller, Facebook y yesca. ¿Un par de zapatos? Pinterest, Amazon y Net a Porter. O bien, mandar todo a Google. Y si todo el mundo aburre durante esa reunión, no se conecte a que factores de éxito ? Esto plantea algunos problemas de privacidad y seguridad bastante obvias. Sugerí en otro puesto que desde un coche autónomo está capturando HD 3D de vídeo de 360 grados todo el tiempo, una ciudad llena de ellos es el panóptico final. Entonces, ¿qué pasa si todo el mundo lleva gafas de AR también - sería incluso posible ir a la carrera? ¿Y si usted consigue cortado? Si es hackeado su hogar conectado tendrá poltergeist, pero si se piratean las gafas AR podrás alucinar.
Por último, una pregunta muy importante - cuántas personas tendrá uno de estos? AR se va a ser un accesorio que un subconjunto de usuarios de teléfonos móviles tienen (como, por ejemplo, relojes inteligentes)? ¿O cada ciudad pequeña en Brasil e Indonesia tienen tiendas que venden docenas de diferentes $ 50 gafas de AR chinos donde hoy se venden los androides? (¿Qué ancho de banda coste para entonces?) Una vez más, es muy pronto para decirlo. Pero el otro argumento útil a partir de finales de 1990 y principios de 2000 estaba en torno a si todo el mundo tendría el mismo tipo de dispositivos móviles de datos, o si algunas personas tendría lo que ahora llamamos teléfonos inteligentes, pero la mayoría de la gente tendría lo que ahora llamamos "los teléfonos de características, "en un espectro de todo el camino a los dispositivos simples que no tienen pantalla de la cámara o el color. En retrospectiva, que era como discutiendo sobre si todo el mundo tendría PC o algunas personas se quedaría con los procesadores de texto. La lógica de la escala y la computación de propósito general significó que por primera vez el PC y luego el teléfono inteligente se convirtió en el dispositivo único y universal - de 5 mil millones de personas con un teléfono móvil hoy en día, 2.5-3bn tener un teléfono inteligente y está claro que la inmensa mayoría del resto seguir. Así que la mayoría de la gente se pega con los teléfonos inteligentes y algunos (100? 500? 1bn?) Se mueven hacia las gafas como un accesorio, o esto es el nuevo producto universal? Cualquier respuesta a eso es un salto de la imaginación, no análisis. Pero entonces, por lo que estaba diciendo en 1995 que todos en la tierra tendría un teléfono.
* ¿Qué, exactamente, qué significa 'realidad aumentada'? El término a menudo se utiliza para cosas como Pokemon Go o Snapchat lentes (o incluso cosas como guías de audio basados ​​en la localización del museo), pero aquí estoy hablando acerca de usar un dispositivo a través de sus ojos, que se mira a través, que coloca las cosas en el mundo real - vasos, en efecto. El término realidad mixta también flota por aquí también, pero lo hará AR.

https://seekingalpha.com/article/4062093-first-decade-augmented-reality

0 comentarios :

Publicar un comentario