Los auriculares XR son otro gran ejemplo tanto de progreso como de necesidades pendientes en el hardware. Las primeras Oculus de consumo (2016) tenían una resolución de 1080×1200 por ojo, mientras que las Oculus Quest 2, lanzadas cuatro años después, tenían 1832×1920 por ojo (más o menos equivalente a 4K). Palmer Luckey, uno de los fundadores de Oculus, cree que se necesita más del doble de esta resolución para que la RV supere la pixelación y se convierta en un dispositivo de uso generalizado. El Oculus Rift también llegó a una tasa de refresco de 72hz, mientras que la edición más reciente alcanza los 90hz, y hasta 120hz cuando se conecta a un PC de juegos a través de Oculus Link. Muchos creen que 120hz es el umbral mínimo para evitar la desorientación y las náuseas de algunos usuarios. Y lo ideal sería conseguirlo sin necesidad de un PC de nivel gaming y un tether.
Mientras que las personas pueden ver una media de 210º, la pantalla de las HoloLens 2 de Microsoft solo cubre 52º (desde los 34º). Las próximas gafas de Snap sólo alcanzan los 26,3°. Para despegar, es probable que necesitemos una cobertura mucho más amplia. Y estos son principalmente retos de hardware, no de software. Es más, tenemos que hacer estos avances al mismo tiempo que mejoramos la calidad del resto del hardware dentro de un wearable (por ejemplo, los altavoces, los procesadores, las baterías) y, en el mejor de los casos, también los reducimos.
Otro ejemplo es el Proyecto Starline de Google, una cabina basada en hardware diseñada para hacer que las conversaciones de vídeo se sientan como si estuvieras en la misma habitación que el otro participante, impulsada por una docena de sensores de profundidad y cámaras, así como una pantalla de campo de luz multidimensional basada en tela, y altavoces de audio espacial. Todo ello cobra vida mediante el procesamiento y la compresión de datos volumétricos, y luego se transmite a través de webRTC, pero el hardware es fundamental para capturar y presentar un nivel de detalle que "parezca real".