Notebookcheck Logo

Apple permitem que os usuários controlem iPhones e iPads com os olhos

Graças ao futuro recurso Eye Tracking do Apple, qualquer pessoa poderá controlar seu iPad ou iPhone apenas com os olhos. (Imagem via Apple)
Graças ao futuro recurso Eye Tracking do Apple, qualquer pessoa poderá controlar seu iPad ou iPhone apenas com os olhos. (Imagem via Apple)
Apple anunciou vários novos recursos de acessibilidade que chegarão ao iOS e iPadOS. Entre eles estão o Eye Tracking, que permitirá que os usuários interajam com um iPhone ou iPad apenas com os olhos; o Vocal Shortcuts, que permite que os usuários personalizem os comandos de voz; e o Vehicle Motion Cues, que pode ajudar a reduzir o enjoo.

Apple anunciou novos recursos para o iOS e o iPadOS com o objetivo de tornar os dispositivos mais acessíveis para todos, inclusive para pessoas com deficiência.

O destaque do novo conjunto de recursos é o Eye Tracking. Fazendo jus ao seu nome, esse recurso permite que o iPhone ou iPad rastreie os olhos do usuário para obter informações. Ao mudar o foco do olhar, os usuários poderão navegar e interagir com os aplicativos. O recurso permite que os usuários imitem funções como tocar em elementos, rolar a tela e outros gestos "apenas com os olhos", de acordo com Apple.

Embora um recurso semelhante já esteja disponível em outros dispositivos há algum tempo, ele exigia hardware extra e software especializado. O Eye Tracking não é específico do aplicativo e não requer hardware adicional. Os dispositivos compatíveis conseguem isso usando a câmera frontal e o "aprendizado de máquina no dispositivo", de acordo com Apple. A empresa afirma que todos os dados usados nesse recurso serão mantidos no dispositivo e não serão compartilhados. O recurso pode ser incrivelmente útil para pessoas com mobilidade limitada, proporcionando a elas um método mais fácil de usar o dispositivo.

O Music Haptics faz com que o iPhone vibre em sincronia com o áudio reproduzido pelo aplicativo Music do Apple, que, segundo o Apple, "é uma nova maneira de os usuários surdos ou com deficiência auditiva experimentarem a música no iPhone". Embora o recurso tenha sido projetado atualmente para o aplicativo Music do Apple, a empresa lançará uma API para que os desenvolvedores conectem seus aplicativos para ativar o recurso.

Os atalhos vocais permitem que os usuários personalizem os comandos de voz. Com esse recurso, a Siri pode entender sinais ou sons verbais não tradicionais para executar atalhos e outras tarefas. Na mesma linha, o recurso Listen for Atypical Speech permite que o dispositivo aprenda como o usuário fala, o que significa que as pessoas com fala afetada podem treinar o telefone para entendê-las melhor.

O recurso Vehicle Motion Cues preenche a tela do dispositivo com pontos em movimento para indicar visualmente ao usuário o movimento ao redor, como ao andar de carro. O recurso usa os sensores do iPhone ou do iPad para animar os pontos em sincronia com o movimento, seja automaticamente ou por meio de um botão que pode ser colocado na Central de Controle.

O CarPlay também está recebendo alguns novos recursos de acessibilidade, incluindo Controle de Voz, Filtros de Cores para daltônicos e Reconhecimento de Som, que pode indicar aos motoristas surdos ou com deficiência auditiva ruídos ambientais, como sirenes ou alarmes.

Também há atualizações para os recursos de acessibilidade existentes, sobre os quais o senhor pode ler na redação do site Apple(link abaixo). Essas atualizações serão lançadas no final deste ano.

Compre um iPad Apple (10ª geração) na Amazon.

Please share our article, every link counts!
Mail Logo
> Análises e revisões de portáteis e celulares > Arquivo de notícias 2024 05 > Apple permitem que os usuários controlem iPhones e iPads com os olhos
Sam Medley, 2024-05-16 (Update: 2024-05-16)