Um gráfico demonstrando sinais de movimento do veículo em um iPhone.  À esquerda está o desenho de um carro com duas setas de cada lado da traseira.  A palavra

À frente de Dia Global de Conscientização sobre Acessibilidade esta semana, a Apple está lançando seu típico conjunto anual de anúncios em torno de seus recursos de assistência. Muitos deles são úteis para pessoas com deficiência, mas também têm aplicações mais amplas. Por exemplo, o Personal Voice, lançado no ano passado, ajuda a preservar a voz de alguém. Pode ser útil para aqueles que correm o risco de perder a voz ou têm outros motivos para querer manter a sua assinatura vocal para os entes queridos na sua ausência. Hoje, a Apple está trazendo suporte de rastreamento ocular para modelos recentes de iPhones e iPads, bem como atalhos vocais personalizáveis, sensação tátil musical, sinais de movimento de veículos e muito mais.

A característica mais intrigante do conjunto é a capacidade de usar a câmera frontal em iPhones ou iPads (pelo menos aqueles com chip A12 ou posterior) para navegar no software sem hardware ou acessórios adicionais. Com isso ativado, as pessoas podem olhar para a tela para navegar por elementos como aplicativos e menus e, em seguida, permanecer em um item para selecioná-lo.

Essa pausa para selecionar é algo que a Apple chama de Dwell Control, que já foi disponível em outras partes do ecossistema da empresa como nas configurações de acessibilidade do Mac. O processo de configuração e calibração deve levar apenas alguns segundos, e a IA no dispositivo está trabalhando para entender seu olhar. Também funcionará com aplicativos de terceiros desde o lançamento, já que é uma camada do sistema operacional como Toque assistido. Como a Apple já suportava rastreamento ocular no iOS e iPadOS com dispositivos de detecção ocular conectados, a novidade hoje é a capacidade de fazer isso sem hardware extra.

A Apple também está trabalhando para melhorar a acessibilidade de seus controles baseados em voz em iPhones e iPads. Novamente, ele usa IA no dispositivo para criar modelos personalizados para cada pessoa configurando um novo atalho vocal. Você pode configurar um comando para uma única palavra ou frase, ou até mesmo uma expressão (como “Oi!”, talvez). O Siri entenderá isso e executará o atalho ou tarefa designada. Você pode fazer com que esses aplicativos sejam iniciados ou execute uma série de ações definidas no aplicativo Atalhos e, uma vez configurado, você não precisará primeiro pedir ao Siri para estar pronto.

Outra melhoria nas interações vocais é “Ouvir fala atípica”, que faz com que iPhones e iPads usem aprendizado de máquina no dispositivo para reconhecer padrões de fala e personalizar seu reconhecimento de voz de acordo com sua maneira única de vocalizar. Isso soa semelhante a Relacionamento do projeto do Googleque também foi projetado para ajudar a tecnologia a compreender melhor as pessoas com deficiência de fala ou fala atípica.

Para construir essas ferramentas, a Apple trabalhou com o Projeto de Acessibilidade de Fala do Instituto Beckman de Ciência e Tecnologia Avançada da Universidade de Illinois Urbana-Champaign. O instituto também está colaborando com outros gigantes da tecnologia como Google e Amazon para desenvolver ainda mais seus produtos neste espaço.

Para aqueles que são surdos ou com deficiência auditiva, a Apple está trazendo a sensação ao toque para tocadores de música no iPhone, começando com milhões de músicas em seu próprio aplicativo Music. Quando ativado, a sensação ao toque da música reproduzirá toques, texturas e vibrações especializadas em conjunto com o áudio para trazer uma nova camada de sensação. Ele estará disponível como uma API para que os desenvolvedores também possam trazer maior acessibilidade aos seus aplicativos.

Os motoristas com deficiência precisam de sistemas melhores em seus carros, e a Apple está resolvendo alguns dos problemas com as atualizações do CarPlay. O controle de voz e os filtros de cores estão chegando à interface dos veículos, facilitando o controle de aplicativos por meio da conversa e para pessoas com deficiência visual verem menus ou alertas. Para isso, o CarPlay também está recebendo suporte para textos grandes e em negrito, bem como reconhecimento de som para ruídos como sirenes ou buzinas. Quando o sistema identificar tal som, ele exibirá um alerta na parte inferior da tela para que você saiba o que ouviu. Isso funciona de forma semelhante ao recurso de reconhecimento de som existente da Apple em outros dispositivos como O Iphone.

Um gráfico demonstrando sinais de movimento do veículo em um iPhone.  À esquerda está o desenho de um carro com duas setas de cada lado da traseira.  A palavra

Maçã

Para aqueles que ficam enjoados ao usar seus iPhones ou iPads em veículos em movimento, um novo recurso chamado Vehicle Motion Cues pode aliviar um pouco desse desconforto. Como o enjôo é baseado em um conflito sensorial ao olhar para conteúdo parado enquanto está em um veículo em movimento, o novo recurso visa alinhar melhor os sentidos conflitantes por meio de pontos na tela. Quando ativados, esses pontos alinharão as quatro bordas da tela e oscilarão em resposta ao movimento detectado. Se o carro avançar ou acelerar, os pontos balançarão para trás, como se em reação ao aumento da velocidade naquela direção.

Há muitos outros recursos chegando ao conjunto de produtos da empresa, incluindo Live Captions no VisionOS, um novo modo Reader no Magnifier, suporte para braille multilinhas e um trackpad virtual para quem usa Assistive Touch. Ainda não está claro quando todas essas atualizações anunciadas serão lançadas, embora a Apple historicamente tenha disponibilizado esses recursos nas próximas versões do iOS. Faltando apenas algumas semanas para a conferência de desenvolvedores WWDC, é provável que muitas das ferramentas de hoje sejam lançadas oficialmente com o próximo iOS.

Este artigo contém links afiliados; se você clicar nesse link e fizer uma compra, poderemos ganhar uma comissão.

Fuente