Jason Hiner/

Los nuevos auriculares Vision Pro de Apple son un dispositivo completamente nuevo en el ecosistema de Apple. Si bien la compañía inicialmente proporcionó detalles sobre el dispositivo durante su discurso de apertura de más de dos horas en la WWDC 2023, la compañía guardó los detalles del desarrollador para un evento posterior, el Estado de la Unión de Plataformas.

Además: Apple Vision Pro en las tiendas el 2 de febrero, los pedidos anticipados comienzan el 19 de enero

El sistema operativo de Vision Pro, VisionOS, está diseñado para lo que Apple llama “computación espacial”. La compañía separa este paradigma informático de los dos que conocemos más: la informática de escritorio y la informática móvil. La idea de la computación espacial es que su entorno de trabajo exista flotando frente a usted. Volveremos a esta palabra de moda sobre “computación espacial” en nuestro consejo número 18, más adelante en el artículo.

El “espacio compartido” es donde las aplicaciones flotan una al lado de la otra. Piense en ello como varias ventanas una al lado de la otra, pero en lugar de estar en un escritorio, están en el aire.

Captura de pantalla de David Gewirtz/

Los usuarios pueden abrir una o más ventanas que existen como planos en el espacio. Admiten vistas y controles tradicionales, pero también admiten contenido 3D, que puede vivir en una ventana con contenido 2D. En un programa CAD, el objeto puede ser 3D, pero la barra de herramientas puede ser 2D, por ejemplo.

Captura de pantalla de David Gewirtz/

Más allá de Windows, las aplicaciones pueden crear volúmenes tridimensionales. Estos pueden contener objetos y escenas. La diferencia clave es que los volúmenes se pueden mover en el espacio 3D y se pueden ver desde todos los ángulos. Es la diferencia entre mirar el escaparate de una tienda y caminar alrededor de un automóvil y mirar por las ventanas delanteras, traseras y laterales.

Además: probé Apple Vision Pro y está muy por delante de lo que esperaba

Para los desarrolladores que desean una inmersión total, es posible crear un espacio completo dedicado. Esto es como cuando un juego ocupa toda la pantalla, pero en la experiencia VisionOS, esa pantalla es completamente inmersiva. Aquí, las aplicaciones, ventanas y volúmenes operan dentro de un entorno totalmente inmersivo.

Ahora que comprende los paradigmas virtuales utilizados por VisionOS, veamos dieciocho cosas que los desarrolladores deben saber sobre el desarrollo para VisionOS.

1. Las herramientas y bibliotecas de desarrollo utilizadas para VisionOS resultarán familiares para muchos desarrolladores de Apple.

El desarrollo se basa en Swift UI, RealityKit y ARKit, que son API existentes que existen desde hace algún tiempo. Apple ha ampliado estos marcos para VisionOS, agregando soporte para el nuevo hardware y el paradigma de espacio completo.

Manzana

2. VisionOS es fundamentalmente una extensión del desarrollo de iOS y iPad OS.

Los desarrolladores utilizarán SwiftUI y UIKit para crear la interfaz de usuario. RealityKit se utiliza para mostrar contenido, animaciones y efectos visuales en 3D. ARKit proporciona a las aplicaciones una comprensión del espacio del mundo real que rodea al usuario y pone esa comprensión a disposición del código dentro de una aplicación.

3. Todas las aplicaciones deberán existir en un espacio 3D.

Incluso las aplicaciones 2D básicas trasladadas desde iOS o iPad OS flotarán en el espacio. Ya sea que ese espacio sea una vista de la habitación donde el usuario está usando el entorno Vision Pro o algún entorno simulado que bloquee el mundo real, incluso las aplicaciones tradicionales “flotarán” en el espacio 3D.

4. VisionOS agrega un nuevo destino para crear aplicaciones.

Anteriormente, los desarrolladores de Xcode podían elegir iPhone, iPad y Mac como destinos (es decir, dónde se ejecutaría la aplicación). Ahora, los desarrolladores pueden agregar VisionOS como destino. Tan pronto como se reconstruye la aplicación, el nuevo destino agrega funciones de VisionOS, incluidas ventanas de tamaño variable y las funciones de translucidez adaptativa de VisionOS.

5. Las aplicaciones UIKit más antiguas (no creadas con Swift y SwiftUI) se pueden volver a compilar para VisionOS.

Cuando lo hagan, obtendrán algunas características destacadas y de presencia 3D de VisionOS. Entonces, si bien es posible que las aplicaciones basadas en UIKit y Objective C no puedan brindar una experiencia 3D completamente inmersiva, obtendrán una apariencia nativa de VisionOS y podrán coexistir razonablemente sin problemas con aplicaciones más modernas basadas en SwiftUI.

6. Los elementos tradicionales de la interfaz de usuario (como los controles) obtienen una nueva opción de desplazamiento Z.

Esto permite a los desarrolladores insertar paneles y controles en el espacio 3D, permitiendo que ciertos elementos de la interfaz floten delante o detrás de otros elementos. Esto puede permitir a los desarrolladores llamar la atención sobre ciertos elementos.

7. VisionOS utiliza el seguimiento ocular para permitir la foveación dinámica.

Foveación describe una técnica de procesamiento de imágenes en la que ciertas áreas de una imagen obtienen más detalles que otras. Con VisionOS, Vision Pro utiliza el seguimiento ocular para representar el área de la escena que se mira en una resolución muy alta, pero reduce la resolución en la visión periférica. Esto reduce el tiempo de procesamiento en áreas donde el usuario no presta toda su atención. Los desarrolladores no necesitan codificar para esto. Está integrado en el sistema operativo.

8. La iluminación de los objetos se deriva de las condiciones espaciales actuales.

De forma predeterminada, los objetos que flotan en el espacio 3D obtienen las características de iluminación y sombra del espacio donde el usuario usa los auriculares. Los desarrolladores pueden proporcionar un recurso de iluminación basado en imágenes si desean personalizar cómo se iluminan los objetos en el espacio virtual.

9. ARKit proporciona a las aplicaciones un modelo utilizable de la sala del mundo real donde se utiliza el dispositivo.

Utiliza estimación de planos para identificar superficies planas en la habitación real. La reconstrucción de escena crea un modelo 3D dinámico del espacio de la habitación con el que las aplicaciones pueden interactuar. El anclaje de imágenes permite fijar gráficos 2D en una ubicación en el espacio 3D, haciéndolos parecer parte del mundo real.

10. ARKit en VisionOS agrega funciones de accesibilidad y seguimiento de la mano esquelética.

Esto proporciona a las aplicaciones datos de posicionamiento y mapeo de articulaciones, de modo que los gestos puedan controlar más completamente la experiencia virtual. Las funciones de accesibilidad permiten a los usuarios interactuar con el movimiento de los ojos, la voz y el movimiento de la cabeza, además de los movimientos de las manos.

11. Unity se ha superpuesto a RealityKit.

Apple se ha asociado con Unity para que los desarrolladores de Unity puedan dirigirse directamente a VisionOS desde Unity, permitiendo que todo el contenido basado en Unity migre a aplicaciones basadas en VisionOS sin mucho esfuerzo de conversión. En realidad, esto es bastante grande porque permite a los desarrolladores con amplia experiencia en Unity crear aplicaciones basadas en Unity junto con aplicaciones de VisionOS.

Manzana

12. Reality Composer Pro es una nueva herramienta de desarrollo para previsualizar y preparar contenido 3D.

Se trata esencialmente de un administrador de activos para contenido virtual y 3D. Esto también permite a los desarrolladores crear materiales personalizados, probar sombreadores, integrar estos activos en el proceso de desarrollo de Xcode y obtener una vista previa en Vision Pro.

13. El procesamiento del espacio compartido se realiza en el dispositivo.

Esto significa que las imágenes y el mapeo de la sala se mantienen privados. El procesamiento en la nube no se utiliza para el mapeo 3D. Toda la información personal y la dinámica espacial de la habitación se gestionan completamente dentro del dispositivo Vision Pro.

14. Para quienes no tienen dispositivos, Xcode ofrece vistas previas y un simulador.

Esto le permite tener una idea de cómo se verá su aplicación y probarla. El modo de vista previa le permite ver su diseño en Xcode, mientras que el simulador es un entorno en pantalla dedicado para probar el comportamiento general de la aplicación. Puedes simular gestos usando un teclado, trackpad o controlador de juego.

Manzana

15. Para aquellos con Vision Pro, es posible codificar completamente en un espacio virtual.

Vision Pro extiende los escritorios Mac al espacio virtual, lo que significa que puede tener su entorno de desarrollo Xcode al lado de su aplicación Vision Pro.

16. Habrá una tienda de aplicaciones dedicada a Vision Pro.

Las aplicaciones, completas con compras dentro de la aplicación, estarán disponibles para descargar y comprar en la tienda de aplicaciones dedicada de Vision Pro. Además, Test Flight se ejecuta con Xcode y Vision OS como se esperaba, por lo que los desarrolladores podrán distribuir versiones beta de aplicaciones exactamente de la misma manera que para iPhone y iPad.

17. Apple ofrece varios recursos de soporte de codificación.

El SDK de VisionOS, Xcode actualizado, el simulador y Reality Composer Pro están disponibles para los desarrolladores. Apple también ha creado laboratorios de desarrolladores Apple Vision Pro. Ubicados en Londres, Munich, Shanghai, Singapur, Tokio y Cupertino, los desarrolladores pueden concertar citas para visitar y probar aplicaciones. Para aquellos que no viajan a los sitios de Apple, los desarrolladores pueden enviar solicitudes para que Apple evalúe y pruebe las versiones de aplicaciones y proporcione comentarios. Apple no mencionó el tiempo de respuesta de estas solicitudes.

18. Puede enviar sus aplicaciones a la nueva tienda de aplicaciones Vision Pro

Apple ha creado una tienda de aplicaciones específicamente para Vision Pro. Los desarrolladores pueden enviar aplicaciones nativas de VisionOS y aplicaciones modificadas para iPad y iPhone a la tienda Vision Pro. Esta página en el sitio de Apple proporciona pautas detalladas para enviar su aplicación. Una restricción interesante: Apple no quiere que describas tus aplicaciones como realidad aumentada (AR), realidad virtual (VR), realidad extendida (XR) o realidad mixta (MR). Aplicaciones de Visión Pro debe describirse como aplicaciones de “computación espacial”.

¿Qué opinas?

Más información sobre el desarrollo para Vision Pro y VisionOS está disponible en el sitio web para desarrolladores de Apple.

Además: este visor de realidad virtual ultraportátil me permitió probar Vision Pro a una fracción del costo

¿Entonces, qué piensas? ¿Eres desarrollador? Si es así, ¿estás pensando en desarrollar para Vision Pro? ¿Eres usuario? ¿Ves un uso inmediato para este dispositivo o te desanima el precio de $3,500 y la experiencia de uso similar a las gafas? Por favor háznoslo saber en los comentarios más abajo.

Puedes seguir las actualizaciones diarias de mi proyecto en las redes sociales. Asegúrate de seguirme en Twitter en @DavidGewirtzen Facebook en Facebook.com/DavidGewirtz, en Instagram en Instagram.com/DavidGewirtz y en YouTube en YouTube.com/DavidGewirtzTV.