El metaverso (Parte II)

El Metaverso (Parte II)

El Metaverso (Parte II)
Un texto escrito por Matthew Ball y extraído y traducido por Condorcet Da Silva


Esta es la segunda parte de "La carte del metaverso", que se centra en el papel del hardware en el metaverso. Aquí, el Hardware se define como "La venta y soporte de tecnologías y dispositivos físicos utilizados para acceder, interactuar o desarrollar el Metaverso. Esto incluye, pero no se limita al hardware orientado al consumidor (como auriculares de RV, teléfonos móviles y guantes hápticos), así como el hardware empresarial (como los utilizados para operar o crear entornos virtuales o basados en la RA, por ejemplo, cámaras industriales, sistemas de proyección y seguimiento, y sensores de escaneo). Esta categoría no incluye el hardware específico de computación, como los chips de GPU y los servidores, ni el hardware específico de red, como el cableado de fibra óptica o los conjuntos de chips inalámbricos."

Cada año, el hardware de consumo se beneficia de sensores mejores y más capaces, mayor duración de la batería, háptica más sofisticada/diversa, pantallas más ricas, cámaras más nítidas, etc. También vemos un número cada vez mayor de dispositivos inteligentes, como relojes, auriculares de realidad virtual (y pronto, gafas de realidad aumentada). Todos estos avances mejoran y amplían la inmersión del usuario, aunque el software proporciona la experiencia real o la "magia". 
  
Considere, como un ejemplo limitado, las aplicaciones de avatar en directo como Bitmoji, Animoji y Snapchat AR. Éstas dependen de CPUs/GPUs bastante capaces, así como de software sofisticado. Pero también requieren y se enriquecen con un potente hardware de cámaras y sensores de seguimiento facial que sigue mejorando. Los nuevos modelos de iPhone rastrean ahora 30.000 puntos de la cara a través de sensores infrarrojos. Aunque esto es lo que más se utiliza para el Face ID, ahora puede conectarse a apps como la aplicación Live Link Face de Epic Games, lo que permite a cualquier consumidor crear (y transmitir) un avatar de alta fidelidad basado en Unreal Engine en tiempo real. Está claro que el siguiente paso de Epic será utilizar esta funcionalidad para mapear en directo la cara de un jugador de Fortnite en su personaje del juego. 
Por su parte, Object Capture de Apple permite a los usuarios crear objetos virtuales de alta fidelidad utilizando fotos de su iPhone en cuestión de minutos. Estos objetos pueden luego ser trasplantados a otros entornos virtuales, reduciendo así el coste y aumentando la fidelidad de los bienes sintéticos, o superpuestos en entornos reales con fines artísticos, de diseño y otras experiencias de RA.

Muchos de los nuevos smartphones, incluidos el iPhone 11 y el iPhone 12, incorporan nuevos chips de banda Ultra ancha que emiten 500.000.000 de pulsos de RADAR por segundo y receptores que procesan la información de retorno. Esto permite a los smartphones crear extensos mapas de RADAR de todo, desde tu casa, hasta tu oficina, y la calle por la que estás caminando - y ubicarte dentro de estos mapas, en relación con otros dispositivos locales, hasta unos pocos centímetros. Esto significa que la puerta de tu casa puede abrirse cuando te acercas desde fuera, pero permanecer cerrada desde dentro. Y utilizando un mapa RADAR en vivo podrás navegar por gran parte de tu casa sin necesidad de quitarte el casco de RV.

Que todo esto sea posible con un hardware estándar de consumo es asombroso. Y el papel cada vez más importante de esta funcionalidad en nuestra vida diaria explica por qué el iPhone ha podido aumentar su precio medio de venta de unos 450 dólares en 2007 a más de 750 dólares en 2021, en lugar de limitarse a ofrecer una mayor capacidad al mismo precio.
Los auriculares XR son otro gran ejemplo tanto de progreso como de necesidades pendientes en el hardware. Las primeras Oculus de consumo (2016) tenían una resolución de 1080×1200 por ojo, mientras que las Oculus Quest 2, lanzadas cuatro años después, tenían 1832×1920 por ojo (más o menos equivalente a 4K). Palmer Luckey, uno de los fundadores de Oculus, cree que se necesita más del doble de esta resolución para que la RV supere la pixelación y se convierta en un dispositivo de uso generalizado. El Oculus Rift también llegó a una tasa de refresco de 72hz, mientras que la edición más reciente alcanza los 90hz, y hasta 120hz cuando se conecta a un PC de juegos a través de Oculus Link. Muchos creen que 120hz es el umbral mínimo para evitar la desorientación y las náuseas de algunos usuarios. Y lo ideal sería conseguirlo sin necesidad de un PC de nivel gaming y un tether.

Mientras que las personas pueden ver una media de 210º, la pantalla de las HoloLens 2 de Microsoft solo cubre 52º (desde los 34º). Las próximas gafas de Snap sólo alcanzan los 26,3°. Para despegar, es probable que necesitemos una cobertura mucho más amplia. Y estos son principalmente retos de hardware, no de software. Es más, tenemos que hacer estos avances al mismo tiempo que mejoramos la calidad del resto del hardware dentro de un wearable (por ejemplo, los altavoces, los procesadores, las baterías) y, en el mejor de los casos, también los reducimos.

Otro ejemplo es el Proyecto Starline de Google, una cabina basada en hardware diseñada para hacer que las conversaciones de vídeo se sientan como si estuvieras en la misma habitación que el otro participante, impulsada por una docena de sensores de profundidad y cámaras, así como una pantalla de campo de luz multidimensional basada en tela, y altavoces de audio espacial. Todo ello cobra vida mediante el procesamiento y la compresión de datos volumétricos, y luego se transmite a través de webRTC, pero el hardware es fundamental para capturar y presentar un nivel de detalle que "parezca real".

Hardware para no consumidores

Teniendo en cuenta lo que es posible con los dispositivos de consumo, no es de extrañar que el hardware industrial/empresarial, con un precio y un tamaño multiplicados, sea sorprendente. Leica vende ahora cámaras fotogramétricas de 20.000 dólares que tienen hasta 360.000 "puntos de escaneo láser por segundo", diseñadas para capturar centros comerciales, edificios y casas enteras con mayor claridad y detalle de lo que el ciudadano medio podría ver en persona. Por su parte, Quixel, de Epic Games, utiliza cámaras propias para generar "MegaScans" ambientales compuestos por decenas de miles de millones de triángulos con precisión de píxel.

Estos dispositivos facilitan y abaratan a las empresas la producción de "mundos espejo" o "gemelos digitales" de alta calidad de los espacios físicos, así como el uso de escaneos del mundo real para producir fantasías de mayor calidad y menos costosas. Hace quince años, nos sorprendió la capacidad de Google para capturar (y financiar) imágenes 2D de 360º de todas las calles del mundo. Hoy en día, decenas de empresas pueden comprar cámaras y escáneres LIDAR para construir reproducciones fotogramétricas en 3D totalmente inmersivas de cualquier cosa en la tierra. 

El gigante chino de los juegos Tencent Games ha aplicado su sistema de verificación facial para vigilar a los niños y adolescentes que juegan entre las 10 de la noche y las 8 de la mañana.

Share by: