Le moment tant attendu est arrivé : Apple vient de lancer une nouvelle plateforme, la première en huit ans, entièrement consacrée à la « réalité mixte ». Le casque Vision Pro ne sera pas commercialisé avant le début de l’année prochaine, mais les développeurs vont devoir cravacher pour réimaginer leurs applications dans la nouvelle réalité d’Apple. Ce qui pose une question aussi simple que cruciale : comment les applications visionOS fonctionnent-elles ?
Les applications s’ouvrent dans l’« espace partagé », centré autour de l’utilisateur, qui peut les réorganiser comme bon lui semble. Une application peut ouvrir une ou plusieurs fenêtres, qui sont des scènes SwiftUI, et agissent comme des plans bidimensionnels dans un espace tridimensionnel. Cela ne veut pas dire qu’elles sont plates : les éléments d’interface peuvent occuper plusieurs couches et les fenêtres peuvent ouvrir des « portails » vers des environnements 3D.
Une application peut aussi ouvrir des volumes, eux aussi conçus avec SwiftUI, des objets tridimensionnels autour desquels on peut tourner. Enfin, les applications peuvent prendre tout l’espace autour de l’utilisateur pour procurer une expérience immersive. Ces trois …