Meta’s proporcionó un vistazo al futuro de la interacción digital, a través del control detectado por la muñeca, que probablemente forme una parte clave de sus próximas expansiones AR y VR.
Meta ha estado trabajando en un controlador de muñeca, que se basa en la electromiografía diferencial (EMG) para detectar el movimiento muscular, luego traducirlo en señales digitales, durante algún tiempo, y ahora, ha publicado un nuevo artículo de investigación en la naturaleza que describe su último avance en este frente.
Que podría ser la base de la siguiente etapa.
Como lo explicó Meta:
“Nuestros equipos han desarrollado modelos avanzados de aprendizaje automático que pueden transformar señales neuronales que controlan los músculos en la muñeca en comandos que impulsan las interacciones de las personas con gafas (AR), eliminando la necesidad de formas de entrada tradicionales y más engorrosas “.
Esos métodos “más engorrosos” incluyen teclados, ratones y pantallas táctiles, las formas principales actuales de interacción digital, que Meta, dice que puede ser limitante, “Especialmente en escenarios sobre la marcha”. Los sistemas basados en gestos que usan cámaras o sensores inerciales también pueden ser restrictivos, debido al potencial de interrupciones dentro de su campo de visión, mientras que las interfaces de “computadora cerebral o neuromotora” que pueden habilitarse a través de sensores que detectan la actividad cerebral también son a menudo invasivas o requieren sistemas complejos a gran escala para activar.
El control EMG requiere poca interrupción y se alinea con el movimiento y los comportamientos naturales de su cuerpo de manera sutil.
Es por eso que Meta ahora busca incorporar esto en su sistema AR.
“Puede escribir y enviar mensajes sin un teclado, navegar un menú sin un mouse y ver el mundo que lo rodea mientras se relaciona con el contenido digital sin tener que mirar su teléfono ”.
Meta dice que su último controlador EMG reconoce su intención de realizar una variedad de gestos, “como tocar, deslizar y pellizcar, todo con la mano descansando cómodamente a su lado”.
El dispositivo también puede reconocer la actividad de escritura a mano para traducir el texto directo.
Y su último modelo ha producido resultados sólidos:
“Los modelos de decodificación SEMG funcionaban bien entre las personas sin capacitación o calibración específica de persona. En la evaluación de circuito abierto (fuera de línea), nuestra plataforma SEMG-RD alcanzó una precisión de clasificación superior al 90% para los participantes en detección de escritura a mano y la detección de gestos, y un error de menos de 13 ° S S S S.−1 Error en la decodificación de la velocidad del ángulo de la muñeca (…) Hasta donde sabemos, este es el nivel más alto de rendimiento de los participantes cruzados logrado por una interfaz neuromotora “.
Para ser claros, Meta todavía está desarrollando sus gafas AR, y no hay información concreta sobre cómo funcionarán exactamente los controles para tales. Pero cada vez más parece que un controlador basado en la muñeca será parte del paquete, cuando Meta se mueva a la siguiente etapa de su proyecto AR Glasses.
El plan actual es que Meta comience a vender sus gafas AR a los consumidores en 2027, cuando confía en que podrá crear gafas AR portátiles y de moda por un precio razonable.
Y con el control de la muñeca habilitado, eso podría cambiar la forma en que interactuamos con el mundo digital y provocamos una nueva era de compromiso en línea.
De hecho, el CEO de Meta, Mark Zuckerberg, ha notado repetidamente que las gafas inteligentes eventualmente superarán los teléfonos inteligentes como la superficie interactiva clave.
Así que prepárate para estar atento a la grabación de luces en las gafas de las personas, ya que su mano se contrae a su lado, porque eso, cada vez más, parece a dónde nos dirigimos con la siguiente etapa de desarrollo portátil.