Mar 28, 2023
Spécifications complètes, caractéristiques et détails d'Apple Vision Pro
Aujourd'hui, Apple a enfin dévoilé Vision Pro, son "ordinateur spatial" à 3 500 $
Aujourd'hui, Apple a finalement dévoilé Vision Pro, son "ordinateur spatial" à 3 500 $ lancé en 2024. Voici un aperçu de ses spécifications et fonctionnalités annoncées.
Vision Pro est techniquement opaque, mais utilise des caméras couleur haute résolution pour vous montrer le monde réel et un écran à l'avant pour montrer vos yeux aux autres.
Il s'agit d'un casque ultra haut de gamme doté de la plus haute résolution et de la plupart des capteurs jamais utilisés dans un produit AR/VR. Il introduit de nouvelles fonctionnalités jamais livrées auparavant, et son visionOS fusionne le suivi des yeux et le suivi des mains pour une saisie intuitive tout en repensant les frontières entre 2D, AR et VR.
Vision Pro a un cadre en alliage d'aluminium personnalisé supportant une plaque frontale en verre feuilleté incurvée "formée en trois dimensions" pour obtenir une conception relativement mince.
Ce qui rend Vision Pro plus léger que les casques comme le Quest 2, c'est la séparation de la batterie du casque. Certains autres casques comme Meta Quest Pro et Pico 4 ont leur batterie à l'arrière de la sangle, mais la conception d'Apple vous enlève entièrement la tête avec une batterie externe attachée à un connecteur magnétique sur la gauche du bandeau.
Apple affirme que la batterie externe a duré 2 heures dans les conditions de test suivantes :
Alternativement, Vision Pro peut être utilisé perpétuellement en branchant la batterie à une source d'alimentation USB-C. Apple n'a pas encore donné de détails sur la quantité d'énergie nécessaire.
Vision Pro dispose d'un total de douze caméras, d'un capteur TrueDepth, d'un capteur LiDAR et de six microphones.
Six des douze caméras sont sous la vitre frontale.
Deux d'entre eux fournissent des couleurs haute résolution pour la vue de passage du casque sur le monde réel, diffusant "plus d'un milliard de pixels de couleur par seconde".
Les quatre autres caméras frontales sont utilisées pour le suivi de la position du casque et ont probablement des objectifs fisheye.
L'un des objectifs du capteur TrueDepth est le suivi de la main. Apple décrit la qualité du suivi des mains comme "si précise qu'elle libère complètement vos mains du besoin de contrôleurs matériels maladroits".
Vision Pro ne dispose d'aucun type de contrôleurs suivis, bien qu'il prenne en charge la lecture de jeux iPad traditionnels sur un écran virtuel avec une manette de jeu.
Le capteur LiDAR permet d'effectuer un maillage 3D en temps réel de votre environnement, en conjonction avec les autres caméras frontales.
Les applications peuvent tirer parti de ce maillage mais n'ont pas accès aux données réelles de la caméra. Un exemple de cas d'utilisation donné par Apple était des objets virtuels projetant des ombres sur de vraies tables, mais cela ne fait qu'effleurer la surface de ce qui devrait être possible.
Deux caméras orientées vers le bas suivent votre visage, tandis que quatre caméras infrarouges internes à côté d'elles suivent vos yeux, aidées par un anneau d'illuminateurs LED autour des lentilles.
Le suivi oculaire de Vision Pro a trois objectifs : l'authentification, le rendu fovéal et la conduite de votre avatar FaceTime.
Apple appelle sa nouvelle authentification par balayage de l'iris OpticID, en suivant le schéma de dénomination de TouchID et FaceID de ses autres appareils. OpticID est la façon dont vous déverrouillez Vision Pro, et il fonctionne également avec les achats Apple Pay et le remplissage automatique du mot de passe. Comme avec TouchID et FaceID, les données biométriques alimentant OpticID sont traitées sur l'appareil par un processeur Secure Enclave.
Le rendu fovéal est une technique où seule la petite région de l'écran que vos yeux regardent actuellement est rendue en pleine résolution, libérant ainsi les performances puisque le reste est en résolution inférieure. Les ressources GPU libérées peuvent être utilisées pour de meilleures performances, pour augmenter la résolution de rendu ou pour augmenter les paramètres graphiques. Il tire parti du fait que nos yeux ne voient en haute résolution qu'au centre même de la fovéa.
Enfin, le suivi des yeux se combine avec les caméras vers le bas pour suivre vos expressions faciales en temps réel afin de piloter votre FaceTime Persona, la version d'Apple des avatars photoréalistes. Meta a montré des recherches à ce sujet depuis plus de quatre ans maintenant, mais il semble qu'Apple sera le premier à expédier - mais pas avec la même qualité de recherche de Meta.
Pour fusionner l'entrée de toutes ces caméras, capteurs et microphones, Apple a développé une puce personnalisée qu'elle appelle R1.
Apple affirme que R1 "élimine pratiquement le décalage, diffusant de nouvelles images sur les écrans en 12 millisecondes".
À titre de comparaison, le fondateur de la startup française de casques Lynx affirme que la latence de transmission de Meta Quest Pro est de 35 à 60 millisecondes. Il n'est pas clair s'il s'agit d'une comparaison similaire.
Vision Pro n'a que deux commandes physiques, toutes deux sur le dessus. Un bouton pour capturer des "vidéos spatiales" et des "photos spatiales" à tout moment, et une couronne numérique.
Appuyez sur la couronne numérique pour afficher la vue d'accueil du système. Mais le tourner contrôle votre niveau d'immersion, de la RA complète à la RV complète. Si vous allez à mi-chemin, par exemple, vous verrez VR devant vous et AR derrière vous.
Sur les casques existants comme Meta Quest et Pico 4, le passthrough est une option à bascule, ce qui signifie que vous devez choisir entre une immersion totale et aucune immersion. Apple veut plutôt vous laisser choisir exactement à quel point vous êtes engagé avec votre environnement réel.
Une caractéristique tout à fait unique de Vision Pro est un écran externe qui montre vos yeux aux autres personnes dans la pièce et indique à quel point vous en êtes conscient. Apple appelle cette technologie EyeSight.
Lorsque vous êtes dans une application AR, EyeSight affiche un motif coloré devant vos yeux, et lorsque vous êtes dans une application VR, il affiche uniquement le motif avec vos yeux invisibles.
Lorsque quelqu'un s'approche de vous, Vision Pro affiche une découpe de la personne et EyeSight lui révèle vos yeux.
EyeSight utilise un panneau OLED incurvé avec une lentille lenticulaire pour que la perspective de vos yeux soit correcte quel que soit l'angle sous lequel les gens regardent le casque. Apple affirme qu'il s'agit en fait "d'un écran 3D qui donne à l'appareil un aspect transparent".
Apple a décrit le fait de s'assurer que vous n'êtes "jamais isolé des personnes qui vous entourent" comme l'un de ses "objectifs de conception fondamentaux" pour Vision Pro, et la société y voit un différenciateur clair des casques entièrement opaques comme Meta Quests.
Vision Pro comprend deux panneaux micro-OLED avec une densité de pixels sans précédent. Apple dit que chacun a "la taille d'un timbre-poste", mais ensemble, ils ont 23 millions de pixels.
Apple n'a pas révélé la résolution exacte, mais 23 millions de pixels au total suggéreraient une résolution par œil d'environ 3400 × 3400 pour un rapport d'aspect carré, ou d'environ 3680 × 3140 pour le rapport d'aspect 7: 6 que les rendus marketing montrent.
Cependant, nous ne connaissons pas réellement le rapport d'aspect réel des écrans, et il est également concevable que le chiffre de 23 millions d'Apple ne compte que les pixels visibles par les objectifs.
Apple a confirmé que les écrans de Vision Pro prennent en charge une large gamme de couleurs et une plage dynamique élevée, mais n'ont pas révélé de spécifications détaillées telles que la luminosité maximale.
Vision Pro est alimenté par la même puce Apple Silicon M2 utilisée dans les Mac récents.
Apple affirme que cela offre "des performances autonomes inégalées" et permet à Vision Pro de "maintenir une température confortable et de fonctionner pratiquement en silence".
Par rapport aux spécifications supposées de la prochaine génération de chipsets Qualcomm Snapdragon que Meta Quest 3 utilisera, le M2 d'Apple devrait offrir des performances CPU monothread environ 30 à 50 % plus rapides, environ 80 % multithread plus rapides et environ 5 à 15 % de puissance GPU en plus.
Cependant, sans connaître les vitesses d'horloge exactes des processeurs de chaque casque, ce n'est qu'untrès comparaison grossière. De plus, dans la pratique, Vision Pro devrait disposer d'une puissance GPU plus efficace que Quest 3 car il utilise le rendu fovéal.
visionOS est le "système d'exploitation spatial" personnalisé d'Apple pour Vision Pro, et probablement aussi pour les futurs casques de la gamme Vision.
Apple décrit visionOS comme "familier, mais révolutionnaire". Il vous présente des applications 2D flottantes que vous faites défiler d'un simple geste du doigt. Vous sélectionnez les éléments de menu avec vos yeux en les regardant simplement et vous utilisez vos doigts pour cliquer.
De nombreuses applications et services propriétaires d'Apple sont disponibles dans visionOS, notamment Notes, Messages, Safari, Keynote, Photos, FaceTime et Apple Music.
Plutôt que d'exister simplement dans leur cadre 2D, de nombreuses applications d'Apple "deviennent spatiales", occupant de l'espace autour de vous. Dans les appels de groupe FaceTime, par exemple, la vue de la webcam de chaque personne devient son propre rectangle flottant, avec un son spatial provenant de chaque personne. Apple a également donné l'exemple de pouvoir extraire des modèles 3D de messages dans l'espace réel.
Vision Pro vous permet également d'étendre l'affichage de votre Mac en un immense écran virtuel sans fil simplement en le regardant.
L'un des principaux objectifs de visionOS est de regarder des films et des émissions de télévision sur un immense écran virtuel, y compris la prise en charge de la visualisation de films 3D à partir de la bibliothèque d'Apple avec profondeur.
Vision Pro a des "pods audio" sur le côté, chacun avec deux pilotes. Apple le décrit comme "le système audio spatial le plus avancé de tous les temps".
Si vous avez un iPhone avec un capteur TrueDepth FaceID, vous pouvez scanner votre visage pour activer l'audio spatial personnalisé, où le système adaptera le son à la géométrie de votre tête et de vos oreilles pour un son spatial le plus précis possible.
Vision Pro utilise également une technique appelée Audio Ray Tracing, où il scanne les caractéristiques et les matériaux de votre espace pour "adapter précisément le son à votre pièce". Cette technique est également utilisée dans les haut-parleurs HomePod d'Apple.
Apple affirme que les acheteurs de Vision Pro seront "totalement convaincus que les sons proviennent de l'environnement qui vous entoure".
Apple Vision Pro sera mis en vente aux États-Unis au début de 2024 à partir de 3500 $. Il sera disponible en ligne et dans les Apple Stores.
Apple affirme que davantage de pays obtiendront Vision Pro "plus tard l'année prochaine", mais n'a pas révélé exactement quels pays.
Apple Vision Pro Lancement de Meta Quest Pro Système d'exploitation Réglage de l'objectif Type d'affichage Nombre total de pixels Jeu de puces HDR Caméras couleur Capteurs de profondeur Suivi des yeux et du visage Emplacement de la batterie Autonomie de la batterie Écran avant Microphones Authentification Contrôleurs suivis Prix Casque Nombre total de pixels très