Recuerdo abrir aquellas dos cajas, poner el monitor y el teclado encima del escritorio de la salita de nuestro primer piso. Mi padre trataba de entender como funcionaba todo aquello y yo ya tenía un cassette en la mano. Ese cuatro del doce de 1987 encendía por primera vez mi primer ordenador, un Amstrad CPC 464. Años más tarde – a principios de los noventa – en el cuarto trasero del quiosco de una amiga del instituto, vi mi primer Macintosh. Recorrí el Finder por primera vez como quien explora Marte, o como quien vuelve a casa. De alguna forma me sentía de ambas formas a la vez.
Perdía el tren en 2004 y era el último que salía desde Madrid a Alicante. No tenía hotel como plan B y la verdad es que no estaba pensando mucho en ello: Aquel Corte Inglés de Castellana iba a cerrar y yo quería llevarme mi primer iPod a toda costa. Era de las pocas unidades a la venta, y mientras lo pagaba el vendedor no dejaba de decirme que aquello no iba a ser un éxito “porque nadie lleva música por la calle”. Recuerdo sonreír pensando en esa frase después, mientras escuchaba mi primera canción en un taxi que quizás iba demasiado rápido, aunque yo estaba en las nubes.
Me empapé cuando fui a recoger a Sant Cugat el primer iPhone, y volver en el ferrocarril con aquello en la mano como si fuera tecnología de otro planeta. La enorme pantalla del iPad cuando lo ves por primera vez. Bajar del primer briefing de la oficina de Sol con el Apple Watch original en la muñeca y leer mi primer mensaje en él, como quien tiene superpoderes. Los AirPods por el aeropuerto cuando aquello parecía magia porque nadie los conocía aún. La primera película en el HomePod y quedarme de piedra en el sofá con aquel sonido.
Pensamos que lo importante es la tecnología, pero a veces olvidamos lo que nos hace sentir. Estamos tan acostumbrados a esta época de las maravillas que no solemos detenernos durante un instante, y simplemente, disfrutamos. Nos dejamos llevar. Da igual que no la entiendas, que te sientas en otro planeta o que no sea para ti. Da igual que llueva, que llegues tarde al último tren o que te quedes sin palabras. Que más da todo eso. Hay momentos, hay tecnología que está puesta delante de nosotros para algo más – porque empieza algo que va más allá del producto.
La manzanita de Apple apareció delante de mi y la realidad detrás de ella. Unos trazos aparecieron en el aire y recuerdo seguirlos con la mirada mientras formaban una palabra flotando delante de mi – “hello”. Sonaba a bienvenida con cierta sensaciones familiares de reencuentro. Me volvía a sentir en casa. La configuración empezó y a partir de ese momento supe que nunca iba a olvidar el 2 de febrero de 2024. Es el día que vi el futuro por primera vez con Apple Vision Pro.
El día de lanzamiento
El lanzamiento de una primera versión no es algo para tomar a la ligera. Y mucho menos, en un producto tan radicalmente diferente como este. Tuve la oportunidad de vivirlo de primera mano, y así os lo contamos en Applesfera, desde la tienda de La Quinta Avenida de Nueva York el mismo día que se puso a la venta.
Sabíamos que Apple iba a preparar algo especial para el momento y aquel era el sitio escogido: Tim Cook hizo acto de presencia y “el cubo” tan característico de la tienda se vistió de gala con un enorme logotipo LED iluminado. La era de la computación espacial de Apple estaba ya lista para los clientes. No pudimos contener la paciencia, y por algunas de las enormes claraboyas desde donde se puede observar la tienda desde la calle, ya veíamos a escasas horas de la apertura como las primeras unidades llegaban a las mesas de la icónica Apple Store.
Tuve la suerte de vivir un momento tan especial acompañando al equipo de Rossellimac, Premium Partner de Apple, que me invitaron con ellos a Nueva York para vivir la experiencia de un momento tan especial. El viaje fue el de un grupo de compañeros, amigos, maqueros que acudieron juntos para poder comprarse de forma personal sus propios Apple Vision Pro.
Disfruté con ellos como si fuera el periodista Trent Crimm en Ted Lasso, dentro de aquel fantástico grupo de apasionados por la tecnología, la marca y el momento. Aquella forma de compartir juntos me recordó mucho a los tiempos de los GUMs (Grupos de Usuarios Macintosh) y sólo puedo agradecerles vivirlo con ellos con esa pasión. Sin duda fueron unos días increíbles que no olvidaré compartiendo aventuras, experiencias y risas, así que no quería dejar pasar la oportunidad de agradecérselo de nuevo en este análisis.
¡Está ocurriendo!
Cuando planeábamos el viaje, uno de los principales problemas era saber si la caja cabría en la maleta. Afortunadamente, un día antes de viajar a Estados Unidos, en Applesfera publicamos un artículo con una filtración de las medidas. Gracias a eso, pude cambiar de maleta a tiempo para poder traerla protegida a España.
El contenido de la caja nos recuerda mucho al iPhone original, en cuanto a todo lo que trae. En su momento, el primer iPhone incluía en su caja hasta el dock para poder conectarlo a iTunes. En esta primera generación – quizás sea por eso – ocurre algo similar. Como ya comenté en mi unboxing del Apple Vision Pro, quizás pueda parecer una caja innecesariamente grande, pero busca darle protagonismo y vistosidad del producto.
El unboxing nos desvela el Apple Vision Pro presentado en una bandeja y completamente montado. La parte superior e inferior de la caja sujetan el Apple Vision Pro mientras la caja está cerrada. Para configurarlo, lo liberamos de unas pequeñas pestañas laterales de cartón y ya lo tendremos en nuestras manos. La primera vez que lo sostienes en la mano impresiona por su diseño: parece que tengamos delante un dispositivo salido de una película de ciencia ficción.
De las dos correas que se incluyen con la caja, la más conocida es precisamente la que ya viene montada, la Solo Knit Band. Está construida con un material trenzado con ajuste mediante una rueda en uno de los laterales. Visualmente es la más espectacular. También se incluye una segunda correa, completamente separada de la primera, llamada Dual Loop Band. Este modelo alternativo presenta una diadema superior para repartir el peso por la cabeza y la parte posterior de la cabeza. Ambas secciones se pueden ajustar con velcro.
Además de la batería, de la que hablaremos más adelante, también está incluido el cargador USB-C de 30W y el cable de carga. La parte frontal viene perfectamente protegida por una cubierta de material trenzado fino, que encaja como un guante y es fácilmente extraíble gracias a las dos solapas de tela en los laterales de la misma. Apple siempre recomienda utilizarla cuando no estemos usando Apple Vision Pro. Es muy cómoda y te da cierta tranquilidad, incluso cuando lo usamos en casa, antes golpes o rozaduras accidentales encima de la mesa. En viajes, por supuesto, es esencial.
Uno de los accesorios que más he utilizado – y pensaba que no iba a hacerlo tanto – es la gamuza de limpieza, curiosamente. La uso antes de proteger el dispositivo con la cubierta para eliminar las huellas tanto de las lentes como de la parte frontal. Es muy similar a la que se vende por separado, sólo que en esta están grabado el nombre del producto. Conviene tenerla a mano para evitar guardar el dispositivo en la cubierta quitándole las motas de polvo que pudiera tener mientras lo utilizamos.
En realidad Apple Vision Pro es un dispositivo relativamente pequeño y compacto, si quitamos todos los accesorios magnéticos que lo componen. Es únicamente la pieza del visor y las dos solapas laterales donde se encuentran los altavoces direccionales que envían sonido a nuestros pabellones auditivos, y el anclaje de carga en el izquierdo. Este anclaje que une la batería con el Apple Vision Pro no es MagSafe, como pueda parecer, sino que se trata de un mecanismo de rosca donde encajan juntos y evitan desconexiones accidentales.
El proceso de compra es personalizado, ya que el dispositivo es muy personal: debe ajustarse a nuestra forma de la cabeza y contorno de la cara. Apple utiliza la aplicación de la Apple Store, tanto si lo compramos on-line como si lo hacemos en la tienda física. Se trata de un proceso muy similar a la configuración de Face ID, que dará como resultado la talla que necesitamos para los accesorios que personalizan el ajuste de Apple Vision Pro:
- Light Seal: es el “antifaz magnético” que actua como sello de luz. Se ancla directamente al dispositivo.
- Light Seal Cushion: es la almohadilla magnetica que se ancla en el Light Seal, y la parte que está en contacto con nuestra cara. En la caja, se incluye una medida de grosor extra de esta almohadilla de nuestra talla, por si necesitamos un ajuste más cómodo.
- Dual Loop Band, la correa con diadema superior con ajuste por velcro.
En las tiendas, nos preparan el contenido de nuestra caja dependiendo de la talla que nos configura la aplicación. Del almacén nos sacarán nuestro pack personalizado y convenientemente cerrado en la propia tienda, que según parece tiene cientos de combinaciones de tallas.
Vestible y personalizable
En un dispositivo tan personal como el Apple Vision Pro, un ajuste cómodo es esencial. Los esfuerzos de Apple por las personalizaciones del Light Seal y el Light Seal Cushion son claves: es indispensable encontrar una talla cómoda, más allá de la que te recomiende la aplicación, como os comento más adelante en la sección de consejos de compra.
En mi opinión, el principal problema de Apple Vision Pro es el peso, sobre todo para quienes no estén acostumbrados a usar dispositivos de realidad virtual o realidad mixta. En mi experiencia, después de haber probado Oculus (cuando se llamaban Oculus), Meta Quest 2, Meta Quest 3, HTC Vive, PSVR/PSVR2… mientras no se pueda reducir el peso de estos dispositivos (cosa que no creo que llegue en el corto plazo), es importante que la correa que lo sujeta sepa aliviarlo o distribuirlo correctamente en nuestra cabeza.
En el caso del dispositivo de Apple, como ya he comentado se incluyen dos correas, siendo la más conocida la Solo Loop Band – que es la que viene montada por defecto y la que se puede ver en todos los vídeos y materiales promocionales. La construcción y el detalle en la misma es la que esperamos en un producto de la compañía: tejida con hilo trenzado, transpirable y extremadamente cómodo, con una rueda de ajuste en el lateral para apretarla o dejarla más libre si lo necesitamos.
El anclaje con el Apple Vision Pro recuerda en cierta forma al que la compañía utiliza en el Apple Watch: una diminuta solapa fija de forma robusta la correa en cada uno de los extremos laterales del dispositivo. La fijación es cuestión de segundos y de la misma forma se puede liberar, ayudado por una pequeña solapa interna que nos permite quitarla de forma sencilla.
Esto permite alternar entre la segunda correa que se incluye con el dispositivo, la Dual Loop Band. Consiste en dos sujeciones, una para la parte posterior de la cabeza y una superior a modo de diadema para distribuir el peso por la cabeza. Se puede pensar que esta segunda es la más cómoda, pero después de utilizar Apple Vision Pro durante varios meses, la comodidad para poner y sacar el dispositivo de la Solo Knit Band añadido a la calidad de construcción la hacen ganadora para el día a día, incluso para estar varias horas con ella.
Con la Solo Knit Band, es sencillo usarla sentado en una mesa, desde el sofá o tumbado en la cama. La parte que sujeta la cabeza es increíblemente cómoda, no se notan dobleces ni nada en la cabeza cuando la apoyamos. La rueda de ajuste afina mucho la presión que queremos ejercer – precisamente por ello es importante el tallaje porque la experiencia es mucho mejor con la talla que mejor nos ajuste en la cara.
La Dual Loop Band puede resultar más cómoda al distribuir el peso, pero el ajuste es algo más tosco que con la Solo Knit Band. Curiosamente, las primeras imágenes que vimos de Apple Vision Pro el pasado junio, incluidos algunos de los videos, presentaban una mezcla entre ambas: la Solo Knit Band tal como existe ahora pero también con la posibilidad de anclar una diadema superior simultáneamente, que es idéntica a la que existe en la Dual Loop Band.
En mi opinión, esta mezcla híbrida entre ambas correas hubiera sido mejor solución que separarlas en dos correas distintas. Desconozco si fue una decisión de diseño o de otro tipo, pero potenciar la Solo Knit Band con diadema nos aportaría la experiencia definitiva en cuanto a comodidad para llevar Apple Vision Pro sin problemas de peso durante varias horas.
De hecho, para probar de forma sencilla este hecho, busqué por internet una banda de ajuste de alguna mascarilla de respiración médica. Estas correas cumplen con el cometido perfecto: suelen tener algo de elasticidad, transpirabilidad, se pueden lavar, son ligeras y a la vez resistentes y seguras. Compré una de las más conocidas, buscando por supuesto alguna de un color que encajase con el dispositivo de Apple.
Utilizando esta banda con la Solo Knit Band, la experiencia de uso es perfecta y desparece para mi cualquier sensación de peso en el dispositivo. La banda de ajuste simplemente levanta el Apple Vision Pro un poco más atrás de los auriculares y nos permite moverla para distribuir el peso no sólo desde la parte superior de la cabeza (como la Dual Loop Band), sino también apoyarla desde la frente.
Esta distribución del peso desde la parte frontal del dispositivo es algo en lo que ya han pensado en otros modelos, con accesorios similares para las Meta Quest 3, por ejemplo. No tengo ninguna duda que los fabricantes de accesorios se pondrán manos a la obra cuando Apple lance Apple Vision Pro en más países – porque hay un potencial enorme de personalización. De hecho, incluso en españa ya se ha presentado alguna propuesta interesante, como la de InfinityOne, que parece distribuir el peso por la parte frontal de la cabeza de forma más cómoda.
Dicho esto, la adaptación con las correas originales ocurre a los días de usar el dispositivo, en cuanto le cogemos el “punto dulce” y nos acostumbramos a usar alguna de ellas de forma más natural – nos acostumbramos más fácilmente a distribuir mejor el peso. Como os digo, en mi caso pensaba que iba a usar más la de diadema durante varias horas y me he sorprendido usando más la Solo Knit Band para mi día a día de forma principal – aunque puedo cambiar entre ellas si lo necesito. La facilidad para ponerlas y quitarlas es clave para ello y nos facilita mucho usar la que queramos en todo momento.
Accesorios para la era de la computación espacial
Los primeros complementos para Apple Vision Pro no son muy numerosos, pero conviene prestarles atención porque en mi experiencia sí son esenciales – aunque a primera vista parezca no serlo. Para empezar, necesitamos una buena funda de viaje. Con el lanzamiento de en febrero del dispositivo, sólo había tres opciones: la funda oficial de Apple, otra de Spigen – que aún no estaba disponible en el momento de lanzamiento – o comprar alguna de otro visor que fuera compatible por tamaño con el de Apple.
La última opción para proteger un dispositivo que te cuesta de base más de 3800$ – impuestos del estado de Nueva York incluídos – no me parecía muy buena idea sin conocer en profundidad las que habían en el mercado. La de Spigen aún no se podía comprar en el momento de lanzamiento en Estados Unidos, así que la decisión clara era la Apple Travel Case oficial.
Con el uso de estos dos meses, me he convertido en un firme creyente de ella. Es algo más voluminosa que las que se ven, y más cara, pero claramente cuenta con la mayor protección posible pensado por los mismos equipos que han diseñado Apple Vision Pro.
El interior está pensado para que el dispositivo repose con su funda frontal, una bolsa con los accesorios y un sistema de sujeción de la batería, con el suficiente espacio para que podamos añadir una segunda correa por si la vamos a necesitar. El visor queda completamente recogido y protegido en su perímetro, con un exterior de tela lavable que recuerda a los maletines de los astronautas justo antes de entrar a una misión espacial.
A pesar de su envergadura, cabe perfectamente en cualquier mochila de equipaje de mano, con lo que es perfecta para disfrutar de una película en una pantalla de 500 pulgadas sobre la superficie de la luna, mientras viajamos en avión. El asa retráctil permite transportarla cómodamente sin necesitad de ninguna bolsa exterior.
El otro accesorio que me arrepentí de no haber comprado es el Battery Holder de Belkin. Apareció el día de lanzamiento de Apple Vision Pro como uno de los primeros productos oficiales licenciados por otras marcas, pero no lo consideré importante. Ya en casa, con el uso, entendí lo equivocado que estaba.
La batería es algo con lo que nos tenemos que desplazar, incluso aunque estemos sentados de forma estática, el mejor lugar para llevar la batería es con nosotros – evitando tirones accidentales o caídas de la misma. Sin embargo, hay situaciones en las que no llevamos bolsillos en los pantalones, o quizás llevemos pijama si estamos por casa.
Llevar el dispositivo en la mano es incómodo, así que de inmediato entendí por qué Apple hizo que esta propuesta de Belkin acompañara el lanzamiento de Apple Vision Pro. Afortunadamente, Belkin ha sido tan amable de enviarme una unidad para review: la recomiendo completamente, muy por encima de lo que he visto en tiendas de bajo coste, que cuentan con enganches de baja calidad y pondría aún más en peligro no sólo esta batería, también el propio Apple Vision Pro.
El Battery Holder de Belkin está construido en un material robusto, resistente a arañazos y revestido con una parte suave para abrazar la batería sin producir arañazos. No está completamente cerrado, lo cual es bueno para la ventilación y disipación del calor, y cuenta con un clip trasero que puede rotar 360º para poder anclarlo en la posición que más nos convenga.
Si nos molesta tener algo sujeto de nuestro pantalón u otra pieza de ropa, Belkin incluye también una cinta para poder colgárnosla o llevarla cruzando de lado a lado. El material cuenta con los mismos colores gris plata que también tiene la Travel Case y que combinan perfectamente – obvio – con el resto de componentes de Apple Vision Pro.
El diseño: recuerdos del futuro
Ojalá pudiera volver a aquella época de niño y poner encima de la mesa el Apple Vision Pro como ejemplo de futuro. Ya existen otros visores en el mercado pero la construcción y calidad de materiales del modelo de Apple no tiene precedentes en el mercado. He visto estas semanas como se suele comparar Apple Vision Pro con Meta Quest 3, pero en mi opinión son objetivos diferentes: la propuesta de Meta está más centrada en videojuegos (y lo hace excepcionalmente bien), pero lo que ofrece Apple es otra cosa (también todo en materiales de construcción). Centrémonos en esto y por qué es importante lo que ha conseguido la compañía.
Quizás lo más cercano tanto a la propuesta de Apple en concepto es el Varjo XR-4 Series, un visor no muy conocido fuera del entorno corporativo porque precisamente está diseñado pensando en usos industriales de alto rendimiento, como el diseño de automóviles, prácticas de medicina y visualización de producto. Su precio en el momento de escribir este artículo: a partir de 3.990$… sin incluir impuestos.
Su diseño tiene más calidad que el producto de Meta, pero es más tosco y voluminoso que Apple Vision Pro. Y técnicamente, cuenta con capacidades técnicas propias muy superiores a Quest 3, similares a la del dispositivo de Apple. Sin embargo, necesita de su conexión a un PC para procesar la información del dispositivo (con una NVIDIA RTX A5000 o superior), algo que no está incluido en el precio anterior. Además, el peso del dispositivo junto a la correa de ajuste de Varjo es de 1Kg.
Para poner en contexto Apple Vision Pro, Apple ha conseguido encapsular en un visor toda la tecnología necesaria para realidad extendida, sonido, ajuste, cálculos para la realidad extendida en tiempo real, machine Learning, navegación del sistema operativo espacial y potencia necesaria en dos chips independientes para prácticamente eliminan la latencia de las cámaras que captan la realidad – con aproximadamente la mitad de peso.
Esto es importante porque Apple no ha cambiado su lenguaje de diseño a la hora de construir su dispositivo, más bien ha continuado usándolo adaptándolo a lo que este tipo de producto necesita – aprendiendo de su propia experiencia previa. Cuando al comenzar esta sección mencionaba la apariencia futurista de Apple Vision Pro me refiero a que incorpora todo, en un producto que minimiza el máximo nivel de la tecnología actual.
El frontal se ha convertido en el icono con el que lo diferenciamos de otros visores, tal y como vimos el día de la inauguración en Nueva York, con un inmenso logo iluminado coronando la emblemática tienda de la marca. Esa es precisamente la pieza central de Apple Vision Pro, construida en una única pieza de vidrio laminado que reposa en un marco fabricado con una aleación de aluminio. La curvatura del mismo responde a años de investigación y desarrollo para tratar de lograr una forma estándar que luego se adaptará a la cara del usuario usando los accesorios magnéticos modulares por tallas (Light Seal y Light Seal Cushion).
El material de este marco de aluminio nos resultará familiar porque ya lo hemos visto en los últimos MacBooks Pro, AirPods Max o similar: es resistente, permite crear moldes de una sola pieza y disipan muy bien el calor. En la parte inferior cuenta con unos pequeños orificios que ayudan a la entrada de aire frio, que el dispositivo expulsa por las dos generosas ranuras superiores.
Apple Vision Pro cuenta con un sistema de refrigeración activa compuestos por dos pequeños ventiladores integrados dentro de la circuitería, como nos revela el excepcional trabajo de iFixit desmontándolo. En este vídeo también podemos hacernos una idea del prodigio tecnológico que es un dispositivo así y la calidad de construcción y ensamblaje.
Los ventiladores no están activos en todo momento, aunque al igual que con los Mac, se pondrán en funcionamiento cuando el sistema detecta una necesidad de refrigeración. Para revisar los grados efectivos reales que alcanza en el uso, he utilizando un termómetro infrarrojo industrial, que trabaja en el rango de -50℃ a 680℃ y cuenta con un puntero láser para medición precisa.
En la habitación donde he hecho las pruebas, la temperatura ambiente rondaba los 20º, la misma temperatura que encontramos en el cuerpo del marco del dispositivo apagado si lo analizamos con el termómetro – como punto de referencia.
Si conectamos Apple Vision Pro, y navegamos por su interfaz durante 15 minutos, la temperatura de uso normal es de unos 30º de media – siempre tomando esta medición en la parte superior, un valor algo por debajo del que encontraríamos en un MacBook Pro con los mismos minutos de uso. Este marco de aluminio nunca llega a estar en contacto con la cara del usuario, ya que sobre él descansa el Light Seal, por lo que no se llega a percibir y lo más importante – no causa condensación en las lentes interiores por la diferencia de temperatura interior / exterior (como si ocurre en otros dipositivos de este tipo).
He forzado Apple Vision Pro a activar los ventiladores de forma agresiva con una de las apps menos optimizadas que he encontrado: se trata de Tripp, una app que nos ofrece varios ambientes inmersivos para focalizarnos o relajarnos. La versión de Apple Vision Pro consiste en una conversión sin optimizar de otros sistemas y no aprovecha la aceleración gráfica correctamente, lo que sobrecarga al procesador – generando demasiado calor que los ventiladores tienen que contener.
Con el visor trabajando durante aproximadamente una hora, la temperatura la medimos con el termómetro infrarrojo y nos da unos valores de unos 33º en el marco. Al activar varias experiencias de la app Tripp, esta temperatura asciende a 43º, la más alta que he registrado en mis pruebas. A efectos del usuario, gracias a la separación del Light Seal con la cara, no hay diferencia apreciable de temperatura – ni condensación de ningún tipo.
Aprovechando esta misma prueba, también mido con un sonómetro el ruido de los ventiladores en funcionamiento. Los valores en silencio del salón donde estaba es de unos 36dBA, después de esa hora de funcionamiento normal los ventiladores no parecían activados (o estaban activos de forma imperceptible).
Después de la prueba con Tripp, los ventiladores se activaron al máximo y el sonómetro nos da unos valores de 47.4 dBA, 10 dBA más que en estado de “reposo” con uso habitual. Este sonido si que se aprecia ligeramente por el usuario pero sólo en silencio y nunca interfiere con el propio sonido de cualquier experiencia inmersiva. Según mis pruebas, la disipación de calor de Apple Vision Pro es discretísima en cuanto a molestias al usuario – tanto térmicas como sonoras – algo que hubiera podido empañar la experiencia de uso. Y realmente impresionando en un dispositivo que no sólo es pura tecnología concentrada y miniaturizada, es que lo llevamos en la cabeza cerca de casi todos nuestros sentidos.
Quienes hemos crecido con la ciencia ficción, no podremos evitar sentirnos el protagonista de algunas de esas novelas – como Neuromante o Ready Player One – que Apple incluso emuló en la primera secuencia donde enseñaba Apple Vision Pro al mundo, cuando te las estás poniendo. El diseño es imponente e inconfundible, tanto encima de la mesa como puestas. Jamás pasa desapercibido.
De la locura al producto: EyeSight
Esta sensación de futuro se acentúa con EyeSight. Detengámonos en el nombre, ya que de por si es un homenaje a iSight, la primera cámara externa de Apple para Mac que apareció en 2003. La marca mantuvo el nombre iSight como designación incluso de las cámaras de los iPhone y iPod touch, que desapareció oficialmente tras el iPhone 6. El nombre original nace como designación para dotar a los Mac de un dispositivo para que pudieran “mirar”. EyeSight, el nombre de esta característica en Apple Vision Pro, hace referencia a “mirar a los ojos” – que es precisamente su cometido.
Los rumores dicen que nació de alguna sesión loca de brainstorming del equipo de producto casi como una broma. “Pues pongamos una pantalla fuera y que muestre los ojos” – me imagino diciendo a alguien, cuando debatían sobre el apilamiento que tradicionalmente tienen estos dispositivos. Quizás a las tantas de la madrugada, quizás a primera hora de una mañana. La idea era loca a cualquier hora. Por eso podía funcionar.
Este tipo de cosas es lo que diferencia a Apple del resto: buscan el “sí” entre mil “no”, y esta respuesta correcta suele esconderse muy bien y de distintas formas. Incluso con la fachada de locura, algún equipo elaboró un prototipo de esta pantalla externa y consiguieron dotar al visor de algo que no tiene ningún otro: sentido de contacto para quienes nos rodean. Por primera vez en un dispositivo de este tipo, el protagonista al usarlo no sólo es el usuario que lleva el visor.
EyeSight es una pantalla exterior que muestra nuestra mirada en tiempo real si alguien nos mira de frente mientras usamos Apple Vision Pro. Esta imagen de nuestra expresión facial en la zona de los ojos se captura mientras hacemos el proceso de configuración de Persona, nuestro avatar virtual. En caso de que no tengamos nuestro Persona capturado – o que estemos utilizando el “modo invitado” para probar el visor – Apple Vision Pro mostrará una representación de nuestros ojos sin las personalizaciones propias de cada cara (como lunares, cicatrices, etc…). Es posible borrar nuestro EyeSight personalizado si así lo deseamos (sin borrar el Persona), pero para volver a recuperarlo tendremos que pasar de nuevo por el proceso de captura.
El movimiento de nuestros ojos y expresiones está capturado con un un sistema de LEDs y cámaras infrarrojas que muestrean el movimiento de nuestros ojos de forma invisible para ellos. La precisión es absoluta no sólo al utilizarlo para navegar por visionOS, también para mostrar nuestras expresiones en tiempo real en la EyeSight.
Esta pantalla externa está construída de forma ingeniosa, ya que no serviría de nada mostrar la imagen de nuestra cara tal cual de forma plana por la curvatura del visor, en una pantalla tradicional. Desde fuera parecería que llevásemos una máscara, cuando Apple aquí busca el efecto “visor transparente”. Para ello, hay que dotar a esta cámara de un efecto tridimensional para alguien que la mira desde fuera.
Para ello, la zona de los ojos se extrae de nuestro Persona y se interpola en dos imágenes estereoscópicas, que se visualizan simultáneamente en la primera pantalla de la EyeSight a la vez. Cada imagen se descompone en líneas de píxeles verticales que se intercalan. El truco viene ahora: una segunda lenticular sobre la pantalla da esa sensación de tridimensionalidad según desde donde se vea desde fuera.
¿Os acordáis de aquellos cromos de niños que movíamos de un lado a otro ligeramente para apreciar cierto efecto tridimensional? Pues EyeSight hace lo mismo. Además, para emular la sensación de que sólo podamos ver una sección de la cara si miramos de lado, una tercera lente elimina la visualización de ciertos ángulos y aumenta la luminosidad de la parte visible.
El efecto conseguido es bastante realista, pero se queda muy lejos de las primeras imágenes promocionales donde los ojos del usuario se veían perfectamente y con una definición casi perfecta. La imagen hace su cometido, en algunas de las demos varias personas me han dicho si aquello era un visor transparente, pero en cuanto lo miras de cerca ves que no dispone de mucha resolución.
En visionOS 1.1, Apple mejoró la calidad de la imagen que se muestra, aunque realmente no es algo imprescindible: como digo, es un indicador de contacto. Nuestros ojos en esta pantalla sirven como referencia a quien trata de hablar con nosotros, y mediante procesos de inteligencia articula, el M2 que incorpora este dispositivo permite reconocer a cualquier persona que nos hable para aparecer en nuestra experiencia inmersiva – si estamos en ella.
Desde fuera, varias animaciones indicarán que tipo de experiencia estamos utilizando: una inmersiva, con lo que la animación será de color azul. Una llamada en FaceTime, color verde. Si estamos en una grabación (de pantalla, cámaras o compartiendo lo que vemos con otro dispositivo), la EyeSight se animará en color blanco.
En mi opinión, EyeSight es un factor importante para Apple Vision Pro porque trata de minimizar el aislamiento que siempre ha supuesto un dispositivo como éste. Es una tarea complicada porque ni la persona que usa el visor ni la que lo mira de fuera están compartiendo la experiencia de visión, pero sí que es útil para no tener que quitarnos el dispositivo si queremos interactuar con alguien de fuera. De hecho, todas las interacciones se producen de forma muy natural, tanto para quien lo usa como para quien interactúa con el usuario – y sin duda EyeSight ha sido importante para conseguirlo.
Bienvenido a la era de la computación espacial
Todo el mundo se pone algo nervioso al probar por primera vez Apple Vision Pro. Yo no fui una excepción. De hecho, quedé tan impresionado con esos primeros minutos con el dispositivo, que no dudé en comprarlo. Recuerdo quitarme el visor y pensar “esto va a ser enorme”. El dispositivo de análisis desde el que os hablo es una compra personal: no es una cesión de Apple porque en España aún no se ha lanzado oficialmente, sino que aproveché mi asistencia al lanzamiento en Nueva York para comprar una unidad porque estoy convencido del futuro – y sobre todo, presente – de esta tecnología.
Es por eso que este análisis se puede considerar una primera parte al que escribiré cuando Apple Vision Pro llegue a España. Sólo han pasado dos meses – y un día – desde el lanzamiento en Estados Unidos, aún no está en otros países y ni siquiera se puede usar en nuestro idioma. Puedo utilizar mi Apple ID español para configurar el sistema, pero tengo uno estadounidense para poder comprar en la App Store de EEUU – la de España aún no está activa – así como para tener acceso a los servicios de la marca. Además, cuando llegue a España ya contará con visionOS 2, que probablemente cambie la experiencia de uso actual. También hablaré de cómo ha evolucionado todo lo que comento en este artículo.
El día de lanzamiento, entendí la importancia de las demos. Todas las tiendas de Nueva York que visitamos – y entiendo que las del resto del país – estaban configuradas de la misma forma: las mesas con el Apple Vision Pro en primera fila, y el personal de Apple preparado para hacer la demo de producto.
Es un dispositivo que no se puede entender plenamente hasta que no se prueba. Es esa experiencia la que te transmite la sensación de que estamos ante el inicio de algo importante, nuevo y arriesgado para la compañía. Desde que volví a España he hecho más de 60 demos a compañeros, familiares y amigos y tras cada una de ellas lo he tenido más claro: la computación espacial es lo que sustituirá a todas las pantallas tal y como las conocemos. Obviamente no será a corto plazo, ni con esta generación, pero lo que plantea Apple Vision Pro hoy es un cambio que va a llegar.
La primera vez que lo usas, lo primero que ves es la realidad. El proceso de configuración, tanto para el usuario habitual como para quienes utilicen el “modo invitado” es el mismo: mirar nuestras manos y tres pantallas de puntos que tenemos que mirar y “pulsar” juntando los dedos índice y pulgar.
Estas pantallas de puntos también tienen una curiosidad: cada una de ellas cuenta con una iluminación posterior, de más oscura a más brillante, con el objetivo de dilatar nuestra pupilas en el proceso y capturar mejor los parámetros oculares en cualquier condición de luz – para que seguimiento sea extremadamente preciso.
Una vez finalizado – dura un par de minutos – ya es posible manejar visionOS con la mirada. La primera vez incluso llega a intimidar. Es algo irreal: miramos cualquier cosa y reacciona sólo con nuestra mirada. La precisión es tan absoluta que podemos incluso acertar a los enlaces con el tipo de letra más pequeño que encontremos por internet.
Entonces llega el momento en el que ves por primera vez una ventana flotando delante de ti. Pero no es cómo se muestra en otros visores: aquí la vemos en un elegante sistema operativo que reacciona a las condiciones de luz de la realidad, muestra reflejos y brillos e incluso proyecta sombras contra nuestro suelo real. Lo habitual es incluso levantarse del sofá y moverse alrededor de las ventanas, que permanecen perfectamente ancladas en nuestro espacio real.
No hay movimientos, ni templores, ni “glitches” cuando dejamos, movemos o redimensionamos una ventana y su contenido por el espacio. Además, Apple Vision Pro sabe mezclar la realidad física con el mundo digital porque conoce perfectamente lo que tenemos delante. El sensor LiDAR y la cámara TrueDepth, así como las seis cámaras restantes que se utilizan para capturar la realidad, lo hacen posible.
Usando una app algo cara pero muy útil para saber lo que “ve” el LiDAR, Magic Room, podemos hacernos una idea de la realidad y la representación que este único sensor es capaz de hacer por si sólo. En cuestión de segundos, muestrea la habitación y la posiciona físicamente entendiendo las coordenadas espaciales de nuestra posición – lo cual servirá como punto de referencia a las ventanas o elementos tridimensionales que muestra en ella.
La realidad se muestra antes nosotros a través de las cámaras y sensores exteriores. En Apple Vision Pro la sensación es que nos ponemos, por ejemplo, unas gafas de buceo. La realidad no tiene ningún retardo con respecto a nuestros movimientos apreciable, gracias al proceso mediante hardware del nuevo chip R1. Este chip consigue una latencia de 12 milisegundos, lo que hace virtualmente imposible apreciar diferencias de movimiento de la realidad y la que vemos a través de las cámaras.
Esto se puede probar muy fácilmente si pedimos a otra persona que nos pase una pelota, sin decirnos cuando. En caso de latencia, nunca llegaríamos a tiempo a coger la pelota, pero la respuesta es inmediata. Otro aspecto importante es que la visión a través de Apple Vision Pro no deforma la realidad. Otros visores muestrean por zonas la realidad para convertir las imágenes mezcladas en 3D, pero las muestras con artefactos o “cristalizaciones” de la realidad. En Apple Vision Pro la realidad es tal como la veríamos, a nivel representativo.
Sin embargo, no debemos olvidar que todo lo que vemos no es a través de un cristal, sino de diversas cámaras que combinan imágenes en tiempo real. Por tanto, la realidad nunca será tan clara como las experiencias nativas del dispositivo (aplicaciones, ventanas, experiencias inversivas…) y lo que vemos a través de las cámaras presenta algo de grano y cierto desenfoque en movimiento sobre todo en condiciones de baja luminosidad. Aún así, es probablemente la mejor representación de la realidad de un visor que se puede encontrar ahora mismo en el mercado, a veces dándonos la sensación de que no llevamos algo “tapándonos” la cara. Tampoco debemos olvidar que la visión de la realidad sólo se utiliza para montar las experiencias, apps y demás ventanas sobre ella – así que lo que importa, el contenido, es completamente 4K.
El lienzo infinito que presenta la computación espacial es algo que abruma. No hay límites de ventanas que podemos tener abiertas antes nosotros: a nuestros lados, arriba, abajo o alrededor nuestro en cualquier plano de profundidad. Esta forma de escapar al tradicional rectángulo en el que vivimos el mundo digital desde los inicios de la informática da para unos casos de usos increíbles.
Uno de los más curiosos, es poder utilizar Apple Vision Pro en la terraza de casa. Cuando he sacado el MacBook Pro fuera, los reflejos del sol o la luz hacen difícil trabajar con la pantalla. Pero, ¿y si no tuviéramos pantalla? Y lo mejor de todo: ¿y si no tuviéramos que limitarnos a una pantalla anclada sobre la mesa?
Se puede trabajar directamente con un teclado conectado al dispositivo, o con este mismo teclado conectando al Mac que hay en el despacho. Al conectar con él, el Mac puede quedarse en la habitación pero podemos utilizarlo desde la otra estancia. Con una visualización de la pantalla del portátil a escala gigantesca, con definición increíble y sin estar afectado por los reflejos de la luz o el sol.
A nuestro alrededor, podemos utilizar este Mac con otras aplicaciones de visionOS, situadas en cualquier punto del espacio que nos rodea. Este lienzo tan enorme se echa inmediatamente de menos cuando volvemos a las pantallas tradicionales y es un factor de uso clave, por ejemplo, en viajes – donde no viajamos con un monitor de gran tamaño a cuestas.
Uno de los factores que me han hecho creer que la computación espacial es algo que todo usaremos en unos años, es la facilidad de uso. Cualquiera de los grandes cambios han venido de la mano de interfaces revolucionarias: el ratón, la interfaz gráfica, la pantalla multi-touch… precisamente recordando esta última interfaz, en Apple Vision Pro también utilizamos la herramienta más precisa que usamos todos los días: los ojos, y las manos.
La curva de aprendizaje de un dispositivo tan diferente como un visto de realidad extendida se queda en cuestión de minutos. Los conceptos básicos ya los conocemos: las ventanas que antes se desplazaban en dos dimensiones ahora lo hacen en tres. Y para moverlas, sólo hay que mirar el control de desplazamiento y pulsar con los dedos: es visionOS quien se encarga de averiguar los obstáculos según el mapa de la realidad que tenga trazado en tiempo real, e interactuará con sombras, desvanecimientos y demás cambios en la interfaz como si tuviéramos la ventana físicamente flotando sobre nosotros.
Por supuesto, conocer la profundidad y el alcance de cómo es el mundo a nuestro alrededor también se utiliza para las experiencias inmersivas, o los juegos: en Super Fruit Ninja, por ejemplo, las frutas caen sobre nuestro sofá y después al suelo atendiendo a las leyes físicas de la realidad.
Estoy convencido también que Apple Vision Pro es uno de los últimos proyectos de Steve Jobs. En Applesfera tenemos registradas patentes de 2009 a su nombre, y los pasos que ha dado la compañía en los últimos años ha sido para conseguir este compendio de tecnología, esta concentración de capacidades en un único dispositivo. Con la llegada de Apple Silicon en 2020, encajaba la última pieza de tecnología que necesitaban conseguir para hacerlo realidad.
Bajó el capó, un M2 potenciado por R1
El chip principal es un Apple Silicon M2, que ya conocemos por ser el que incorporan los iPads y los Mac del año pasado. En el momento del anuncio de Apple Vision Pro, este chip era el más potente de la marca, y en mis pruebas, veo que sigue funcionando perfectamente para mover cualquier parte de la interfaz espacial – o las experiencias inmersivas.
El objetivo de Apple con este chip es conseguir potencia y rendimiento, pero conteniendo el consumo energético y manteniendo a raya el calor, como hemos visto antes – algo esencial en un dispositivo de este tipo. El sistema operativo visionOS es fluido, sobre todo en la versión 1.2 lanzada ayer mismo – y se ha notado grandes cambios de rendimiento desde la versión de lanzamiento 1.0.2 de principios de febrero.
En cuanto a potencia, nada que no conozcamos de este chip y no hayamos visto ya por ejemplo en el MacBook Air M2 de 15”. Un rendimiento sorprendente no sólo a nivel gráfico, también en procesos de Machine Learning e inteligencia artificial, algo clave en Apple Vision Pro para utilizarlo reconociendo objetos de la realidad o la interacción de personas.
Aún no existen muchos benchmarks sintéticos nativos que podamos utilizar para explorar la versión del chip M2 que monta este dispositivo. La versión de Geekbench para iPad no es capaz de detectar bien el procesador ni el modelo, probablemente porque el R1 confunde los datos de esta versión para el tablet de Apple.
A la espera de probarlo con pruebas nativas del dispositivo, puedo mencionar que el tándem M2 junto al nuevo chip R1 funciona a la perfección. Desvincular el procesamiento de las 12 cámaras que incluye Apple Vision Pro del procesador principal libera al M2 para concentrarse en las tareas principales y le da más potencia aún de trabajo. El chip R1 transmite las imágenes a las pantallas 8 veces más rápido que un abrir y cerrar de ojos, sin necesitar de ninguna intervención del M2.
Precisamente por eso, la visión de la realidad cobra un papel importante. En caso de cuelgue del sistema operativo o de la experiencia, un “apagado” de las cámaras que nos muestran la realidad podría ser peligroso si estamos andando por casa o en una experiencia inmersiva. La separación en dos procesadores aísla en cierta forma ante estos cuelgues, y en caso de que se bloquee el sistema operativo, seguimos viendo la realidad de la misma forma a través del visor sin que se apaguen las pantallas.
En las últimas versiones de visionOS, sobre todo desde la 1.1, la estabilidad del sistema ha ganado mucho. Justamente para probar estos “cuelgues” y ver si las pantallas del visor se desconectaban usaba Developer Capture, el sistema de captura de pantallas y vídeos de Reality Composer Pro desde el Mac. Este sistema de captura aún no anda muy fino y de vez en cuando cuelga visionOS de forma remota – aunque es la mejor forma de capturar videos y fotos con Apple Vision Pro.
Esto es debido a que la captura nativa del visor hace una instantánea (o un video) tal cual aparece en él. Aunque nosotros usando Apple Vision Pro siempre veamos todo definido, el dispositivo emplea el mismo truco que nuestros ojos reales: sólo enfocan lo que estamos mirando. Es por ello que las capturas necesitan poner Apple Vision Pro en un modo especial donde todo el contenido está enfocado. Gran parte de las capturas de este artículo han sido tomadas así, para que las veáis a la mayor calidad posible.
El sonido impresiona de la misma forma que las imágenes
Todos nos esperábamos mejoras en la imagen, la parte más importante de este dispositivo, pero no contábamos con algo también esencial para una experiencia inmersiva: el sonido. Es probablemente otra de las partes que más sorprende en Apple Vision Pro. De nuevo, la ingeniería de sonido de la marca en los últimos años se concentra en una parte esencial del nuevo dispositivo: todo el trabajo hecho en AirPods, HomePods está aquí.
¿Sabéis aquello de que todo conecta los puntos hacia atrás? Cuando probé por primera vez Apple Vision Pro me vino como un flashazo un momento que ya he vivido. Era noviembre de 2019, y estaba también en Nueva York probando el nuevo MacBook Pro de 16”. Estaba en aquella habitación de hotel (tenía la exclusiva para España y no podía salir en público con el dispositivo mientras lo probaba) y cuando llegó el momento de escuchar el sonido me quedé sin palabras.
Recuerdo incluso la canción que escuché por primera vez en aquel Mac: “Bajo la piel”, de Alice Wonder. Se me puso la piel de gallina. Escuchar los matices vocales y la calidez sonora saliendo de un portátil con aquella extrema delgadez. Recuerdo pasar los cinco minutos y dos segundos que dura la canción completamente en silencio, paralizado.
Cuando activé la suscripción de Apple Music en Apple Vision Pro puse la misma canción. Sentado, cerré los ojos y aquello llegó a emocionarme. No imaginaba que era posible que un sistema que no está en tu oído físicamente, sea capaz de transmitir esa calidad, esa textura vocal… cada matiz de la canción, otra vez. Escuché todo el álbum. Era sólo el principio. Es el sentimiento que es capaz de transmitir este tecnología – y quizás, el motivo de que exista.
Los contenedores de sonido están anclados a las solapas laterales que se encuentran unidos al marco del visor, gracias a un conector Lightning de gran tamaño que no necesita extrarse. De hecho, podemos separarlas utilizando un clip extractor de SIMs como los de los teléfono, pero sólo se necesita hacer en caso de avería o por el servicio técnico.
Cada uno de estos contenedores, diminutos sobre la superficie de la solapa, son capaces de engañar a nuestro cerebro haciéndolo creer que el sonido llega de cualquier dirección del espacio. Esto es debido a la personalización de la geometría de la cabeza y las orejas del usuario que se puede hacer desde iOS. Se hace desde Ajustes / Sonidos y vibraciones / Audio espacial personalizado en iOS 17. No necesitáis tener un AirPod para hacerlo, aunque si tenéis uno ya lo habréis hecho para ajustar vuestro sonido a vuestros parámetros físicos.
En Apple Vision Pro no es necesaria ningúna configuración adicional. El resultado de este ajuste espacial personalizado está guardado en nuestro Apple ID y se configura de forma transparente al usuario en el dispositivo, listo para usar. El poder del ecosistema, brilla de nuevo aquí. El resultado es un sonido espacial increíble, que actúa como centro de cualquier experiencia – bien sea inmersiva o simplemente los sonidos del sistema o ambiente de los entornos. La propia Apple ha calificado esta tecnología sonora concentrada como “el sistema de audio espacial más avanzado” que ha creado hasta ahora. Y no necesita auriculares.
El inconveniente que tiene este sistema abierto es que parte de este audio escapa hacia el exterior y si hay alguien cerca, puede escucharlo (aunque no con el mismo volumen, ni la misma calidad, ya que el sonido se direccional desde el controlador hacia el pabellón auditivo de quien lleva puesto el visor). Para evitar molestias a quien esté a nuestro lado, es posible utilizar unos AirPods o AirPods Pro (si es la versión con el estuche USB-C, contaremos con un sonido espacial mejorado).
No sólo es el audio, también la grabación de sonido con sus micros: como ya comentamos durante la grabación del podcast de primeros días de uso, los micrófonos incorporados en Apple Vision Pro tienen calidad cercana a la de estudio – de nuevo, sin necesidad de conectar ningún accesorio adicional.
Para ponerlo en contexto el tamaño del controlador de sonido de Apple Vision Pro, se ve aún más pequeño si lo comparamos con el estuche de unos AirPods de tercera generación. Poniendo esta importancia en la calidad sonora, y complementando la calidad visual, Apple ha redondeado los dos pilares básicos de la inmersión en la realidad extendida, llevándolo a un nivel que combinados, no se había visto en dispositivos de este tipo.
La batería también esconde sorpresas
La separación de la batería respecto del Apple Vision Pro es un movimiento que se entiende para aliviar el peso del mismo, al menos hasta que la tecnología permita unirlos todo en uno. El aspecto también nos resultará familiar, ya que continúa al lenguaje de diseño de Apple, cuerpo de aluminio con la correspondiente manzanita troquelada, conector USB-C para cargar la batería (o usar Apple Vision Pro conectado a la corriente) un cable con un conector circular propietario que se ancla a la solapa izquierda del visor.
La batería tiene una capacidad de unos 3166 mAh, muy similar a la que podemos encontrar en el iPhone 15 Pro. Sin embargo, el aspecto físico es mucho más grueso que el propio teléfono, aunque tienen un tamaño similar. Y es que Apple no ha querido hacer una batería externa al uso, sino una más inteligente.
Para empezar, la temperatura. El diseño de esta batería está pensado para no concentrar calor y permitir una disipación pasiva eficiente. Eso es porque habitualmente la llevaremos en el bolsillo, que no es la mejor condición para contener el calor. Para ello, la compañía ha preparado este dispositivo para soportar este formato de uso, y además, que sea cómoda.
Después de usar Apple Vision Pro durante una hora, la temperatura de la batería es de unos 26 grados. Cómoda de llevar en el bolsillo, con los bordes redondeados y prácticamente siempre muy fría, incluso con un uso intensivo. Da igual el contenido que estemos consumiendo en el visor, ya que la batería no contiene ningún elemento de cálculo del visor. Sin embargo, si hay sorpresas.
En la caja se incluye un cargador de 30W USB-C, junto a un cable trenzado USB-C de 1.5m de longitud. Para monitorizar la capacidad y velocidad de carga, he utilizado un multímetro digital donde podemos observar dos valores interesantes: los mAh acumulados para ver cuando carga desde una descarga, el tiempo que tarda, y si carga a la máxima capacidad de carga en vatios del cargador.
Para ello, descargo la batería completamente: en estos casos, Apple Vision Pro muestra una alerta crítica en visionOS – indicándonos que tenemos que quitarnos el visor porque va a apagarse por completo. Sin embargo, la batería siempre almacena una reserva para controlar un hardware propio que no depende del visor que incluso incluye un acelerómetro (para mostrar la carga en un indicador led al moverlo) e incluso su propio sensor de temperatura para alertar de algún problema.
En 30 minutos, utilizando simpre el cable y el cargador de 30W incluido, la carga del dispositivo alcanza el 33% de su capacidad.
Una hora después, se alcanza el 68%, con una velocidad de carga constante y muy cercano a los 30W del cargador.
Una hora y media después, ya está próxima la carga completa alcanzando el 93% de la carga.
Es en exactamente dos horas y cinco minutos cuando se completa la carga y la batería corta la entrada de energía, alcanzando los 2030 mAh. Esta cifra es curiosa, ya que se aleja de la capacidad real del dispositivo, alrededor de 3166 mAh.
Esto es debido a que el propio dispositivo evita cargarse al 100%, probablemente para alargar la vida útil del mismo y evitar daños (lamentablemente, no podemos ver este valor en ningún lugar de visionOS, ya que la batería actúa de forma completamente independiente). Es probable que la batería se cargue hasta el 80%, lo que vendrían a ser 2532 mAh.
¿Para que se usan entonces esos 400 mAh que no parece estar utilizando en el visor para cargar? Se trata ni más ni menos que de la zona “segura” de energía de la batería, ya que al no disponer de sistema operativo, tiene que tener una región de batería propia para alimentar el hardware de carga, sensores, limites… Por eso, cuando Apple Vision Pro nos dice que nos hemos quedado sin batería, la propia batería sigue funcionando, mostrando la carga y controlando la temperatura aún estando desconectada. Los 1000 mAh que no llega a cargar para contener el desgaste, problemente se puedan configurar por el usuario en visionOS 2.
Esto permite total independencia a la batería, evitando que se descargue por completo y que se desactiven funciones que Apple considera esenciales, lo que explicaría esta sobreingeniería. Esta batería también actúa como conector a la corriente si queremos usar Apple Vision Pro mientras estamos conectados por cable – cuya gestión de energía se realiza completamente por la batería de forma autónoma.
Probablemente por esto, los tiempos iniciales que dio Apple (2 horas de uso general y 2 horas y media consumiendo video) se quedan por debajo de lo que obtenemos hoy en día. En mi experiencia estos dos meses, estoy más cerca de las tres horas en prácticamente todos los casos de uso, cosa que ha mejorado con cada nueva versión de visionOS (y lo hará).
Curiosamente, pensaba que la batería iba a ser uno de los principales problemas con el uso de Apple Vision Pro, antes de probarlo. Sin embargo, una vez que lo pruebas, te olvidas de ella. La llevas en el bolsillo o en un accesorio tipo clip y no te molesta, siendo el cable que conecta con el visor lo suficientemente largo como para ser cómodo mientras nos movemos y utilizamos el dispositivo.
visionOS: un nuevo sistema operativo espacial
Por primera vez desde iPhone OS – que ahora conocemos como iOS – no nos encontrábamos con una nueva metáfora de escritorio para trabajar con un dispositivo. Apple Vision Pro está más cercano a un ordenador que a una tablet o a un teléfono inteligente, pero contiene trazas de ambos mundos porque en ambos mundos hay ideas que ya están funcionando.
Lo que tenemos ahora mismo con visionOS es sólo la base y lo esencial del sistema operativo para la computación espacial. La versión con la que se puso a la venta Apple Vision Pro (la 1.0.2) era muy tosca y con algunos fallos, incluido un Persona que estaba más cerca del valle inquietante que de la realidad.
Con visionOS 1.1 todo cambió: se pulieron los problemas y errores básicos del sistema operativo y se añadió una nueva forma de captura del Persona del usuario, mejorando notablemente la calidad del mismo. En mi caso, por ejemplo, la captura tomada en menos de dos minutos refleja muy bien mi apariencia física – por supuesto moviéndose en tiempo real cuando utilizamos el visor.
Y es que visionOS 1.1 es el sistema operativo con el que debería haber salido a la venta. No está exento de errores, aunque ninguno grave y manteniendo lo esencial: el funcionamiento del sistema operativo espacial se mueve increíble. Al igual que el Macintosh original priorizaba el control del ratón por la interfaz gráfica, visionOS 1.2 (la versión actual en el momento de escribir este artículo) gestiona el control ocular y gestual de forma precisa.
Es habitual en las primeras sesiones con Apple Vision Pro moverte alrededor de las ventanas flotando delante de ti porque la interfaz, en mi opinión, es la más bonita que se ha visto desde la llegada de Aqua en Mac OS X. Las ventanas además reaccionan a la luz natural, al movimiento, todo en tiempo real, como si estuvieran ahí físicamente.
Desplazarse por los menús es una auténtica delicia, se nota el esfuerzo de la compañía por hacer algo realmente distinto y adaptado a un entorno diferente al que estamos acostumbrados. Además, la naturaleza translúcida de las ventanas le otorga una sensación de amplitud y mayor visibilidad sobre el espacio físico.
En anclaje y la mezcla del mundo físico con el digital es literalmente asombroso. Una ventana (o cualquier elemento) se queda perfectamente fija en el espacio tal y donde la hemos dejado, aunque nos movamos por la habitación o incluso cuando nos alejamos de ese espacio en concreto. Si no cerramos la sesión, las ventanas u objetos 3D que hayamos dejado por el espacio real, seguirán estando ahí cuando volvamos.
La base de visionOS es increíble, pero ahora mismo incluso con visionOS 1.2 beta recién lanzado, sigue siendo un sistema operativo bajo mínimos. La sensación general del sistema es que faltan muchas cosas por añadir, algunas tan básicas como la posibilidad de crear carpetas de aplicaciones o incluso de ordenarlas. Las apps nativas de visionOS se ordenan alfabéticamente a partir del segundo escritorio y las compatibles con iPad aparecen, todas, en una única carpeta llamada “Compatible Apps”.
Sin embargo, hay algo que Apple no nos está contando. Este sistema operativo es prácticamente el mismo que los primeros testers probaron en la WWDC23, con los pocos cambios que hemos visto hasta la 1.2. Esto puede decirnos que Apple lleva como mínimo preparando una gran actualización de cara a visionOS 2.0 que veremos en la WWDC24 en la que lleva trabajando en secreto. Que probablemente, este año, sea más importante que nunca precisamente por el siguiente paso en lo que nos puede ofrecer la computación espacial – también de cara a la expansión internacional del dispositivo. Y por supuesto, en cómo afecta visionOS al resto de sistemas operativos del ecosistema, porque lo va a hacer.
Dos meses y un día con Apple Vision Pro
El día siguiente al lanzamiento, estaba en el hotel de Nueva York escribiendo mi artículo de primeras impresiones en mi MacBook Pro. Tenía el Apple Vision Pro a mi lado, así que pensé escribir ese primer texto con ellas puestas. De repente, estaba a más de 6000 kilómetros de casa con un monitor que literalmente ocupaba toda la pared. Apple Music flotaba a un lado. Mensajes, a otro. FaceTime con el equipo, en una esquina.
Ese día entendí que si lograba superar la barrera de llevar de forma cómoda el dispositivo, me iba a resultar muy difícil volver a un monitor. En estos dos meses, con el período de adaptación superado – y con el punto “dulce” de correas encontrado – debo decir que uso Apple Vision entre 5 y 7 horas al día, dependiendo de la situación.
El uso más evidente es el entretenimiento: ver una película en Apple Vision Pro hace que inmediatamente la televisión de tu salón ya no parezca tan grande. O tan cómoda, porque con el visor de Apple puedes tener una pantalla de tamaño gigante flotando sobre ti mientras estás tumbado en la cama, o en cualquier lugar de casa.
Viajar es el caso especial de Apple Vision Pro. Es sin duda donde más he disfrutado, superando ese momento incómodo de que todo el mundo te mire cuando te las pones. Sinceramente aún no me atrevo a llevarlas a cafeterías o sitios donde habitualmente voy con el Mac, únicamente para evitar las caras de sorpresa. Quizás muchos de quien leéis esto no lo vivisteis, pero cuando llegaron los móviles, la gente se volvía al ver a alguien hablando por teléfono por la calle porque era completamente inusual – a mediados / finales de los 90.
Pero en pleno vuelo sí que las disfruto. Volviendo de Nueva York en una sala de cine gigante, con el sonido de los AirPods Pro, es una auténtica gozada. Además, si los asistentes de vuelo necesitan decirte algo, los vas a ver gracias a la apertura de la oclusión de la realidad – mostrándose entre tu experiencia inmersiva. Esto tenderá a normalizarse en los próximos años, estoy convencido (sobre todo, cuando llegue al resto de paises).
En casa ahora mismo un uso importante es el de trabajar con el Mac en cualquier parte de la casa, sin tener el Mac conmigo. Como además puedo tener aplicaciones de visionOS a mi alrededor, puedo mezclar lo mejor de dos mundos. La pega – que espero que resuelta visionOS 2 – es que nos permita guardar los “setups” que nos hemos ido guardando para no tener que abrir todas las apps de nuevo cada día, y reposicionarlas donde las necesitamos.
El Mac puede extender su escritorio físico en nuestro mundo real, pero visionOS 1.2 sigue limitando esa salida únicamente a una pantalla. Esto es una limitación por software, que afortunadamente, el desarrollador Jordi Bruin ya ha solucionado con Splitscreen. En futuras versiones incluso se podrá trabajar con ventanas de aplicaciones independientes sin necesidad de mostrar el escritorio completo del Mac.
Trabajar con dos pantallas es una maravilla en Apple Vision Pro, ya que como digo además podemos complementar con aplicaciones nativas a nuestro alrededor. La calidad de la visualización de las mismas permite tener un monitor flotando delante de nosotros con una resolución de hasta 5120×2880 píxeles.
Las aplicaciones creadas por desarrolladores que multiplican las características de Apple Vision Pro también forma una parte importante de la exploración de este nuevo dispositivo, por ejemplo, para usar nuestro iPhone como teclado para el visor – por si no tenemos uno a mano y necesitamos escribir un texto largo.
Las experiencias de fotos y videos espaciales dan lugar a momentos curiosos. Por ejemplo, la primera vez que recibí un vídeo espacial de un amigo que estaba en un concierto – permitirme revir el momento, sin tener la sensación de “estar viendo un video”.
Estos videos se capturan desde el propio visor, pero es mucho más interesante hacerlo con cualquier iPhone 15 Pro, que es menos intrusivo que grabar a alguien con un visor puesto. La diferencia entre la grabación de un dispositivo a otro es que el Apple Vision Pro ofrece algo más de profundidad, aunque la calidad del video en sí es mucho mejor grabada con un iPhone 15 Pro.
Obviamente nos hubiera gustado tener videos espaciales de momentos anteriores al lanzamiento de Apple Vision Pro. Para este caso de uso, ya están apareciendo las primeras apps (como Owl3D para Mac) que convierten un video normal en su versión espacial.
El resultado es realmente bueno en las pruebas que he hecho, aunque ojo, estas primeras aplicaciones necesitan alrededor de 6 horas para procesar un vídeo de unos 45 segundos (es lo que me tardó a mi en mi MacBook Pro M3 Pro). Aún así el resultado merece mucho la pena para recuperar recuerdos.
Con el lanzamiento de visionOS 1.2, llega Spatial Persona. Se trata de compartir experiencias en tiempo real con otros usuarios de Apple Vision Pro, en el que comparten espacio físico con nosotros, como si estuvieran a nuestro lado. He tenido la oportunidad de probarlo en su fase beta y es una auténtica locura.
Pude probarlo con el compañero Ángel Jiménez, y de repente lo tenía literalmente a mi lado en mi salón. Los Persona espaciales solo aparecen representados de hombros hacia arriba (ya que es lo que captura el proceso de configuración) pero también las manos y sus movimientos. Además, podemos seleccionar el espacio físico donde queremos situar la experiencia para no tener ningún espacio físico.
Con Ángel probe a compartir una presentación de keynote, y el sistema nos situó a mi y a él frente a la presentación, flotando ante nosotros. Empleamos el mismo punto de referencia, lo cual quiere decir que tenemos la ventana a la misma distancia física de cada uno de nosotros, y podemos señalar de forma natural con las manos, por ejemplo.
Ver una película compartida se convierte en algo totalmente distinto. De repente, tenía a Ángel sentado a mi lado mirando la pantalla, como si físicamente estuviera ahí. Es la sensación más realista de telepresencia que he visto nunca, no existe nada así en el mercado. Hay algunas empresas que venden algo similar, pero no funciona con la misma precisión espacial ni los rasgos de los avatar interaccionan y se mueven en tiempo real.
De hecho, es tanta la precisión que es perfectamente posible incluso “darnos la mano” virtualmente. El tamaño de las manos, la iluminación del salón (con luz cálida en mi caso), el movimiento… todo es tan real que llega a parecer increíble. Sobre todo por lo natural que es.
También he podido jugar una partida de ajedrez con Nikias Molina y la sensación de realidad es tremenda. No sólo veía sus fichas moverse, también veía como él con sus manos las desplazaba. Todo mientras hablamos, gesticulamos y nos movemos por la habitación.
Este tipo de telepresencia avanzada va a ser un cambio en cómo nos relacionamos digitalmente en los próximos años. En un mundo donde el teletrabajo o los viajes con más frecuentes, este tipo de relaciones tan reales permitirán aumentar la interacción hasta cotas que no imaginábamos posibles a este nivel hace tan sólo cinco años.
Otro ejemplo de cambio que va a llegar es el video inmersivo. Es algo que sorprende cuando lo ves por primera vez, pero experimentar deportes desde asientos imposibles de comprar con dinero (como encima de una portería, en sentado sobre el campo en la línea de banda) es algo que impresiona incluso a alguien como yo al que no le apasiona especialmente el fútbol. Y hacerlo desde cualquier parte del mundo, en cualquier parte del mundo, sobre todo.
El mundo va a cambiar
Hacía tiempo que no me emocionaba tanto una tecnología, probablemente desde mi primer Amstrad CPC en 1987. Estos dos meses con Apple Vision Pro han sido unos días de exploración completa: siempre aparece una app o una experiencia nueva que se aleja de lo habitual. El ejemplo de Spatial Persona, lanzado ayer mismo, es el claro ejemplo. Y eso que Apple Vision Pro sólo está empezando.
No es un dispositivo (aún) para todo el mundo. Su precio es alto (y lo será más cuando llegue a España), pero esta primera versión está dedicada a los entusiastas de la tecnología, apasionados del ecosistema de Apple. Esta es la diferencia primordial con cualquier competencia: Apple Vision Pro no necesita de ningún otro dispositivo de la marca para funcionar, pero si tienes alguna, sólo configurando tu Apple ID con él ya tendrás tus aplicaciones y contenidos delante de ti.
Todas, cada una de las partes que componen este producto son fruto de la excelencia tecnológica, conseguida a través de más de 20 años de investigación y desarrollo en los productos que ya conocemos. Cada paso que ha dado Apple en todos estos años, era para llegar aquí: el todo de la plataforma, lo mejor de cada dispositivo para combinar de forma natural el mundo digital con el real.
Este es el artículo más extenso que he escrito en Applesfera en los 18 años de su existencia. Pero hay mucho más que contar: la conclusión de Apple Vision Pro la veremos cuando por fin llegue a España, con las condiciones y las novedades que aún están por venir. De lo que estoy convencido es que este producto es el inicio de algo que cambiará al mundo a medio largo plazo, y que empezará a empapar otros dispositivos que ya son habituales en nosotros. Si alguna vez soñasteis con coches voladores en un futuro atópico, olvidaos: el futuro acaba de empezar, y es mucho mejor.
En Applesfera | Apple va a cambiar el mundo en la WWDC23
–
La noticia
Apple Vision Pro, análisis: olvidad los coches voladores, el futuro es mejor y ya ha empezado
fue publicada originalmente en
Applesfera
por
Pedro Aznar
.