Pour l’instant, la version laboratoire a un champ de vision anémique – seulement 11,7 degrés en laboratoire, bien plus petit qu’un Magic Leap 2 ou même un Microsoft HoloLens.
Mais le laboratoire d’imagerie informatique de Stanford a une page entière avec une aide visuelle après l’autre qui suggère qu’il pourrait s’agir de quelque chose de spécial : une pile plus fine de composants holographiques qui pourraient presque tenir dans des montures de lunettes standard et être formés pour projeter des images réalistes en couleur, images 3D en mouvement qui apparaissent à différentes profondeurs.
Comme les autres lunettes AR, elles utilisent des guides d’ondes, qui sont un composant qui guide la lumière à travers les lunettes et dans les yeux du porteur. Mais les chercheurs affirment avoir développé un « guide d’onde métasurface nanophotonique » unique qui peut « éliminer le besoin d’optiques de collimation encombrantes » et un « modèle de guide d’onde physique appris » qui utilise des algorithmes d’IA pour améliorer considérablement la qualité de l’image. L’étude indique que les modèles « sont automatiquement calibrés à l’aide du retour de la caméra ».
Bien que la technologie de Stanford ne soit actuellement qu’un prototype, avec des modèles fonctionnels qui semblent attachés à un banc et des cadres imprimés en 3D, les chercheurs cherchent à perturber le marché actuel de l’informatique spatiale qui comprend également des casques de réalité mixte encombrants comme le Vision Pro d’Apple. , Meta’s Quest 3 et autres.
Le chercheur postdoctoral Gun-Yeal Lee, qui a contribué à la rédaction de l’article publié dans Natureaffirme qu’il n’existe aucun autre système AR comparable à la fois en termes de capacité et de compacité.