Avec une trajectoire de plus en plus claire et un objectif de finalisation pour cette année, Swift 6 pourrait bien arriver avec une des versions d'iOS 17. Si l’essentiel des améliorations côté syntaxe a déjà été progressivement apporté avec les versions successives de Swift 5, le véritable bond en avant devrait se situer au niveau du code exécutable, avec un bénéfice majeur au service (entre autres) de la réalité augmentée. Explications.
Prenons d’abord en considération les contraintes pour une expérience de réalité augmentée réussie. Il faut analyser l’image en temps réel et y incruster du contenu virtuel instantanément. Cela nécessite des puces rapides qui communiquent bien entre elles. Il faut également une analyse précise, ce qui implique d’utiliser des capteurs précis tels qu'un LiDAR. Ce dernier va représenter l’environnement réel sous forme d’un nuage de points. Il faudrait donc que les données du LiDAR et de l’analyse d’image se croisent à un moment donné pour un résultat optimal. Et, de préférence, il faut mieux que ces données soient au plus proche de ce que voit l’utilisateur à l’instant T. Un décalage dans l’affichage peut facilement ruiner l’expérience.
Au niveau du matériel, on sait qu’Apple maîtrise son sujet avec les puces M1 et M2. La mémoire est …