Las nuevas innovaciones de accesibilidad de iOS de Apple están preparadas para abordar necesidades no satisfechas

Dos de las funciones de accesibilidad más avanzadas de Apple Anunciado la semana pasada Celebrar el Día Mundial de la Concientización sobre la Accesibilidad el 16 de mayo cambiaría las reglas del juego para los sectores desatendidos de la comunidad de discapacitados.

Tradicionalmente, los esfuerzos de accesibilidad digital relacionados tanto con el hardware como con el software han tendido a centrarse en los usuarios ciegos y con discapacidad visual, así como, más recientemente, en aquellos con pérdida auditiva a medida que los subtítulos se generalizan.

Apple ha anunciado que a finales de este año lanzará nuevas capacidades de seguimiento ocular que permitirán a los usuarios con discapacidades graves relacionadas con la función y el movimiento de las manos controlar su iPhone o iPad utilizando sólo sus ojos. Integrado directamente en el sistema operativo mediante inteligencia artificial y aprendizaje automático, el seguimiento ocular utiliza la cámara RGB integrada del dispositivo para permitir a los usuarios navegar a través de aplicaciones y menús y luego activar elementos en pantalla simplemente «permaneciendo» en ella y fijando la mirada. . Configurar el seguimiento ocular es sencillo desde el primer momento con una calibración de nueve puntos que implica el seguimiento visual de puntos alrededor de la pantalla, que es todo lo que se necesita para comenzar.

El gigante tecnológico con sede en Cupertino también tiene algo especial reservado para quienes tienen problemas del habla y la comunicación, como los causados ​​por la parálisis cerebral o la esclerosis lateral amiotrófica.

Los atajos de voz permitirán a los usuarios hacer coincidir pronunciaciones o sonidos personalizados con comandos específicos usando Siri. Esto podría incluir cualquier cosa, desde configurar un temporizador, consultar el pronóstico del tiempo o llamar a un amigo. Esto se podrá entrenar mediante el aprendizaje automático simplemente haciendo que el usuario repita la expresión tres veces. Mientras tanto, Apple continuará basándose en su trabajo en Personal Voice que lanzó el año pasado en iOS 17 en una función que ayuda a las personas que pueden perder el habla debido a condiciones progresivas a crear una simulación digital de su voz utilizando dispositivos Apple que luego pueden ser utilizado en la conversación. La próxima función de escucha de voz atípica permitirá que aquellos con capacidad limitada de habla y comunicación interactúen con Siri.

Durante un evento de prensa especial celebrado la semana pasada, Apple no especificó el momento exacto de estos lanzamientos de funciones, pero afirmó que se espera que lleguen a finales de este año.

Algunos otros lanzamientos premium dignos de mención anunciados en el evento incluyen Music Haptics, que ayuda a los usuarios sordos o con problemas de audición a experimentar la música utilizando el Taptic Engine del iPhone, que puede activar clics, texturas y algunas vibraciones basadas en el sonido específico de la nota. La tecnología se aplicará a millones de canciones del catálogo de Apple Music y también estará disponible como interfaz de programación de aplicaciones (API) para desarrolladores externos.

En una declaración a los medios, el CEO de Apple, Tim Cook, dijo: “Creemos profundamente en el poder transformador de la innovación para enriquecer vidas. Es por eso que durante casi 40 años, Apple ha apoyado el diseño inclusivo incorporando la accesibilidad en el corazón de nuestros dispositivos y software. Estamos constantemente superando los límites de la tecnología y estas nuevas funciones reflejan nuestro compromiso de larga data de brindar la mejor experiencia posible a todos nuestros usuarios.

“Cada año, abrimos nuevos caminos en lo que respecta a la accesibilidad”, añadió Sarah Herlinger, directora senior de Política de Accesibilidad Global de Apple. “Estas nuevas características impactarán las vidas de una amplia gama de usuarios, proporcionando nuevas formas de conectarse y controlar. sus dispositivos y navegar por el mundo”.

Múltiples métodos

Cuando se habla de navegar por el mundo, el gigante tecnológico no sólo limita sus últimas innovaciones en accesibilidad al ecosistema móvil iOS. CarPlay es compatible con una serie de mejoras de accesibilidad en forma de control de voz y funciones de reconocimiento de voz para ayudar a las personas con pérdida auditiva al mostrar información sobre los sonidos detectados, como las sirenas del servicio de emergencia, en la pantalla. También hay algo para los viajeros que quieran mirar la pantalla de su teléfono mientras están en movimiento pero quieren evitar marearse en el automóvil. La nueva función de señales de movimiento del vehículo mostrará puntos en la pantalla del dispositivo cuya dirección se ajusta dependiendo del movimiento del vehículo, cambiando la percepción del cerebro de la desconexión entre lo que ve y lo que siente mientras está en movimiento, una causa común de mareos en el automóvil.

Los usuarios de los auriculares Apple Vision Pro de alta gama lanzados recientemente por Apple pronto podrán aprovechar los subtítulos en vivo en tiempo real para ayudar a las personas con pérdida auditiva a comprender mejor las conversaciones y participar en ellas. También habrá mejoras adicionales en las funciones de asistencia para personas con baja visión del dispositivo, que incluirán opciones para reducir la transparencia, invertir colores y atenuar las luces intermitentes.

Todo esto es una buena noticia para la comunidad de discapacitados porque indica que la amplitud de los compromisos continuos de accesibilidad de Apple se extienden más allá de las diversas discapacidades que deben abordarse para incluir una apreciación de los diferentes sistemas y dispositivos que las personas de todas las capacidades utilizan para navegar por un mundo. entorno cada vez más complejo. El mundo tecnológico.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *