iOS 16 intègre U1 avec ARKit au milieu des rumeurs de casque d'Apple

iOS 16 intègre U1 avec ARKit au milieu des rumeurs de casque d’Apple

iOS 16 introduit plusieurs nouvelles API, qui permettent aux développeurs d’étendre les capacités de leurs applications. Par exemple, il existe de nouvelles API pour les widgets d’écran de verrouillage, le talkie-walkie, les cartes interactives, les données météorologiques, etc. Fait intéressant, Apple a également mis à jour l’API d’interaction à proximité pour intégrer la puce U1 dans ARKit au milieu des rumeurs d’un nouveau casque de réalité mixte.

API d’interaction à proximité

L’API d’interactions à proximité a été introduite avec iOS 14 et permet aux développeurs de tirer parti de la puce U1 à bande ultra large disponible sur l’iPhone 11 et les versions ultérieures. La puce U1, qui permet une localisation précise et une connaissance spatiale des appareils, pourrait être utilisée pour des choses comme la détection de la distance entre un iPhone et un autre.

Avec iOS 15 et watchOS 8, Apple a étendu ces fonctionnalités à l’Apple Watch, car l’Apple Watch Series 6 et les versions ultérieures disposent également de la puce U1. Cette année, iOS 16 apporte une nouvelle option intéressante pour les développeurs travaillant avec l’API d’interaction à proximité, qui est la possibilité d’intégrer la puce U1 avec la réalité augmentée via ARKit.

Comme détaillé par la société lors d’une session WWDC 2022, iOS utilise déjà la puce U1 combinée à ARKit pour localiser les AirTags avec la fonction de recherche de précision. A l’aide des données fournies par la puce U1 combinée à l’appareil photo de l’iPhone, l’application Find My est capable de guider précisément l’utilisateur vers son AirTag.

Désormais, les développeurs pourront également créer des expériences similaires dans leurs applications en utilisant la puce U1 et ARKit, ce qui rend les informations sur la distance et les directions encore plus cohérentes et précises. Apple affirme que les meilleurs cas d’utilisation de cette API sont des expériences pour guider les utilisateurs vers un objet spécifique à proximité, tel qu’un élément égaré, un objet d’intérêt ou un objet avec lequel l’utilisateur souhaite interagir.

Une application peut, par exemple, dire aux utilisateurs si l’objet qu’ils recherchent est devant ou derrière eux.

U1, ARKit et le casque AR/VR d’Apple

Plusieurs rumeurs récentes ont fait état de la sortie d’un nouveau casque de réalité mixte d’Apple à la fin de 2022 ou au début de 2023. Bien que le produit n’ait pas été annoncé à la WWDC 2022 et que la société n’ait pas dit un mot sur la réalité augmentée ou mixte pendant le discours d’ouverture, il se passe beaucoup de choses sur AR et VR dans les sessions WWDC.

Pour un appareil censé avoir plusieurs caméras et capteurs avancés, y compris une puce ultra-large bande, il semble clair qu’il aura une conscience spatiale précise. Et même s’il n’y a pas de SDK pour le nouveau casque puisqu’il n’a pas été officiellement annoncé, Apple semble vraiment vouloir que les développeurs préparent leurs applications pour ce type d’interaction avant l’annonce du casque.

Lorsque la société a annoncé pour la première fois la puce U1 avec l’iPhone 11, elle a mentionné que des expériences comme AirDrop plus rapide ne seraient que le début. U1 est maintenant utilisé pour des choses comme les clés de voiture dans l’application Wallet et la recherche d’AirTag, mais la puce jouera certainement un rôle majeur dans le casque de réalité mixte d’Apple.

Sur une note connexe, ARKit a également été mis à jour dans iOS 16 pour inclure la prise en charge de la vidéo 4K HDR et de la numérisation avancée de l’intérieur de la pièce – une autre étape importante vers un appareil AR/VR.


Découvrez 9to5Mac sur YouTube pour plus d’actualités Apple :

★★★★★

A lire également