Meta anunció algunas características adicionales de accesibilidad y soporte de usuarios, incluidos los explicadores de audio en las gafas Meta-Ban, la traducción en el idioma de los signos en WhatsApp, desarrollos de interacción de pulsera y más.
En primer lugar, Meta’s Rolling Out Expanded Descriptions en Meta Glasses de Ray-Ban, lo que ayudará a los usuarios a comprender mejor su entorno.
Como lo explicó Meta:
“A partir de hoy, presentamos la capacidad de personalizar Meta AI para proporcionar respuestas detalladas sobre las meta gafas de rayas en función de lo que está frente a usted. Con esta nueva característica, Meta AI podrá proporcionar respuestas más descriptivas cuando las personas pregunten sobre su entorno “.
Eso le dará a las personas con visión variable más opciones para comprender, con explicadores de audio alimentados directamente en su oído a pedido.
También podría hacer de las gafas inteligentes de Meta un producto aún más popular, para una gama de usuarios en expansión. La adición de IA bajo demanda ayudó a aumentar las ventas del dispositivo, y este tipo de funcionalidades de asistencia adicional también ampliarán su audiencia.
Meta dice que está lanzando esto a todos los usuarios en los Estados Unidos y Canadá en las próximas semanas, con mercados adicionales a seguir.
“Para comenzar, vaya a la sección Configuración del dispositivo en la aplicación Meta AI y altere respuestas detalladas bajo accesibilidad.“
Meta también agregó un nuevo “Llamar a un voluntarioLa característica en Meta AI, que conectará a las personas ciegas o de baja visión con una red de voluntarios avistados en tiempo real, para brindar asistencia con las tareas.
En otro frente, Meta también señaló su trabajo en el desarrollo del trabajo en SEMG (electromiografía superficial) interacción a través de un dispositivo de pulseraque utiliza señales electromagnéticas de su cuerpo facilitan la interacción digital.
Meta ha estado trabajando en la funcionalidad controlada por la muñeca para sus antepasados AR, y eso también permitirá una mayor accesibilidad.
Meta dice que actualmente está en proceso de construir sobre sus avances con su dispositivo de interacción de muñeca:
“En abril, completamos la recopilación de datos con una organización de investigación clínica (CRO) para evaluar la capacidad de las personas con temblores manuales (debido a Parkinson y temblor esencial) para usar modelos basados en SEMG para controles de computadora (como deslizamiento y clic) y para la escritura a mano basada en SEMG. También tenemos un Colaboración de investigación activa con la Universidad Carnegie Mellon Permitir que las personas con parálisis manual debido a la lesión de la médula espinal usen controles basados en SEMG para interacciones humanas-computadora. Estas personas conservan muy pocas señales motoras, y estas pueden ser detectadas por nuestra tecnología de alta resolución. Podemos enseñar a las personas a usar rápidamente estas señales, facilitando HCI tan pronto como el día 1 del uso del sistema.“
Las aplicaciones para esto podrían ser significativas, y el progreso de Meta en el desarrollo de dispositivos de interacción mejorados de pulsera que podrían una vez que un día habilite la interacción directa con un movimiento limitado.
Finalmente, Meta también señaló el uso en evolución de sus modelos AI para nuevas características de asistencia, incluido “Sign-speak”, desarrollado por un proveedor de terceros, que permite a los usuarios de WhatsApp traducir su discurso en lenguaje de señas (y viceversa) con videoclips generados por IA.

Eso podría terminar siendo otro avance para una conexión mejorada, facilitando más compromiso entre usuarios de manera diferente.
Algunos proyectos valiosos, con implicaciones de amplio alcance.
Puede leer más sobre los últimos avances de accesibilidad de Meta aquí.