Esto es lo que hice con las nuevas gafas de realidad aumentada de Snap

Por Mat Honan

Antes de pasar a las nuevas gafas de Snap, una confesión: tengo un largo historial de ponerme cosas nuevas y ridículas en la cara y que me gusten. En 2011, me probé las gafas 3D montadas en la cabeza de Sony y, aparentemente, las disfruté. Más o menos. A principios de 2013, me enamoré de un proyecto de Kickstarter que vi en el CES llamado Oculus Rift. Luego pasé la mayor parte del año con las ridículas Glass de Google en la cara y pensé que era el futuro. ¿Microsoft HoloLens? Me encantó. ¿Google cartón? Totalmente normal. ¿Apple Vision Pro? Un gran avance, cariño.

De todos modos. Snap anunció hoy una nueva versión de sus Spectacles. Estas son gafas AR que finalmente podrían cumplir con los dispositivos prometidos como Magic Leap, HoloLens o incluso Google Glass, fabricados hace muchos años. Los probé hace un par de semanas. ¡Son geniales!

Estas Spectacles de quinta generación pueden mostrar información visual y aplicaciones directamente en sus lentes transparentes, haciendo que los objetos parezcan como si estuvieran en el mundo real. La interfaz funciona con el nuevo sistema operativo de la empresa, Snap OS. A diferencia de los típicos cascos de realidad virtual o dispositivos de computación espacial, estos lentes de realidad aumentada (AR) no oscurecen su visión ni la recrean con cámaras. No hay ninguna pantalla que cubra su campo de visión. En cambio, las imágenes parecen flotar y existir en tres dimensiones en el mundo que te rodea, flotando en el aire o descansando sobre mesas y pisos.

En mi demostración, pude apilar piezas de Lego en una mesa, golpear una pelota de golf AR en un agujero al otro lado de la habitación (al menos un triple fantasma), pintar flores y enredaderas en los techos y las paredes con mis manos y hacer preguntas. sobre los objetos que estaba mirando y recibir respuestas del chatbot virtual de IA de Snap. Incluso había una pequeña criatura virtual parecida a un perro de color púrpura de Niantic, un Peridot, que me siguió por la habitación y salió a un balcón.

Pero levanta la vista de la mesa y ves una habitación normal. La pelota de golf está en el suelo, no en un campo de golf virtual. El Peridoto se posa sobre una auténtica barandilla de balcón. Fundamentalmente, esto significa que puedes mantener contacto, incluido el contacto visual, con las personas que te rodean en la habitación.

Para lograr todo esto, Snap incluyó mucha tecnología en los marcos. Hay dos procesadores integrados en el interior, por lo que todo el cálculo se realiza en las propias gafas. Las cámaras de enfriamiento en los costados hicieron un trabajo efectivo al disipar el calor en mi demostración. Cuatro cámaras capturan el mundo que te rodea, así como el movimiento de tus manos para rastrear gestos. Las imágenes se muestran a través de microproyectores, similares a los que se encuentran en los picoproyectores, que hacen un buen trabajo al presentar esas imágenes tridimensionales justo frente a sus ojos sin requerir mucha configuración inicial. Crea un campo de visión alto y profundo (Snap afirma que es similar a una pantalla de 100 pulgadas a 10 pies) en un dispositivo relativamente pequeño y liviano (226 gramos). Es más, se oscurecen automáticamente cuando sales, por lo que funcionan bien no sólo en tu hogar sino también en el mundo.

Controlas todo esto con una combinación de voz y gestos con las manos, la mayoría de los cuales me resultaron bastante naturales. Puede pellizcar para seleccionar objetos y arrastrarlos, por ejemplo. El chatbot con IA podría responder a preguntas planteadas en lenguaje natural (“¿Qué es ese barco que veo a lo lejos?”). Algunas de las interacciones requieren un teléfono, pero en su mayor parte Spectacles son un dispositivo independiente.

No es barato. Snap no vende las gafas directamente a los consumidores, pero requiere que usted acepte pagar al menos un año de US$ 99 por mes por una cuenta del Programa de Desarrolladores de Spectacles que le brinde acceso a ellas. Me aseguraron que la empresa tiene una definición muy abierta sobre quién puede desarrollar para la plataforma. Snap también anunció una nueva asociación con OpenAI que aprovecha sus capacidades multimodales, que, según dice, ayudará a los desarrolladores a crear experiencias con un contexto del mundo real sobre las cosas que la gente ve, oye (o dice).

Dicho esto, todo funcionó impresionantemente bien. Los objetos tridimensionales mantuvieron una sensación de permanencia en los espacios donde los colocaste, lo que significa que puedes moverte y ellos permanecen en su lugar. El asistente de IA identificó correctamente todo lo que le pedí. Hubo algunos fallos aquí y allá (los ladrillos de Lego colapsaban entre sí, por ejemplo), pero en su mayor parte se trataba de un pequeño dispositivo sólido.

Sin embargo, no se trata de una cuestión de bajo perfil. Nadie los confundirá con un par de gafas o gafas de sol normales. Un colega las describió como gafas 3D reforzadas, lo cual parece correcto. No son la computadora más tonta que me he puesto en la cara, pero tampoco me hicieron sentir como un tipo genial. Aquí tenéis una foto mía probándolos. Saca tus propias conclusiones.

Mat Honan

Más información: Technology Review

Lo Último

Lo Último

Deja una respuesta