Meta acaba de dar un paso clave hacia el futuro de la interacción humano-máquina. Su nueva pulsera neuromotora, revelada en la revista científica Nature, permite controlar computadoras mediante gestos musculares sutiles, sin necesidad de teclados ni pantallas. El dispositivo, desarrollado por Reality Labs, convierte movimientos de la muñeca en comandos digitales de forma precisa y sin calibración previa.
TECNOLOGÍA VESTIBLE QUE LEE LOS MÚSCULOS
El brazalete, diseñado como un wearable de alta sensibilidad, utiliza electromiografía de superficie para captar señales eléctricas generadas por los músculos de la muñeca. A diferencia de otros sistemas, este no requiere calibraciones personalizadas ni métodos invasivos. Gracias a un modelo de inteligencia artificial entrenado con datos de miles de usuarios, la pulsera puede traducir los gestos en órdenes informáticas de manera inmediata.
Los ensayos demostraron que los usuarios podían navegar, seleccionar e incluso escribir texto con la mano en el aire, logrando una velocidad promedio de 20,9 palabras por minuto. Si bien aún está por debajo del promedio en teléfonos móviles, representa un avance significativo en interfaces sin contacto.
APLICACIONES INCLUSIVAS Y DISEÑO ABIERTO A DESARROLLADORES
Según los investigadores, esta tecnología podría beneficiar especialmente a personas con movilidad reducida, parálisis o debilidad muscular, al ofrecer una forma portátil y accesible de comunicarse con dispositivos digitales. La pulsera funciona con conectividad Bluetooth y no necesita pantallas o teclados físicos.
Además, Meta ha publicado un conjunto de directrices para desarrolladores interesados en replicar o mejorar el sistema. El artículo ofrece reglas de diseño, prácticas en hardware, modelos de aprendizaje profundo y requisitos de datos para construir una interfaz neuromotora universal. Con este proyecto, la compañía busca abrir el camino hacia una nueva era de computación basada en gestos.