Apple est déployer des mises à jour à la fois iOS et CarPlay en mettant l’accent sur l’accessibilité, dans le but d’aider les utilisateurs confrontés au mal des transports et aux déficiences auditives.
La nouvelle fonctionnalité « Vehicle Motion Cues » utilise les capteurs de l’iPhone, notamment le GPS et les accéléromètres, pour détecter lorsqu’un utilisateur se trouve dans un véhicule en mouvement, déclenchant potentiellement le mal des transports. Pour atténuer cela, des points animés sur l’écran imiteront les mouvements du véhicule, fournissant des repères visuels qui s’alignent sur le mouvement, réduisant ainsi l’inconfort des passagers.
De plus, Apple introduit la « reconnaissance sonore » pour aider les utilisateurs sourds ou malentendants à détecter les alertes auditives importantes telles que les klaxons et les sirènes de voiture, améliorant ainsi la sécurité sur la route. Ces améliorations font partie des efforts continus d’Apple pour permettre aux utilisateurs handicapés de mieux interagir avec leurs appareils et leurs interfaces comme Apple CarPlay.
Les fonctionnalités d’accessibilité introduites dans CarPlay incluent également la commande vocale, les filtres de couleur et la reconnaissance sonore.
- La commande vocale permet aux utilisateurs de naviguer dans CarPlay et d’utiliser des applications en utilisant uniquement leur voix.
- La reconnaissance sonore est conçue pour alerter les conducteurs ou les passagers sourds ou malentendants des klaxons et des sirènes des voitures.
- Pour les utilisateurs daltoniens, les filtres de couleur améliorent la convivialité visuelle de l’interface CarPlay, complétés par des options d’accessibilité visuelle supplémentaires telles que le texte en gras et le texte de grande taille.
Cette année, visionOS bénéficiera également de nouvelles fonctionnalités d’accessibilité, notamment des sous-titres en direct à l’échelle du système pour aider tout le monde, en particulier les utilisateurs sourds ou malentendants, à suivre les dialogues parlés dans les conversations en direct et l’audio des applications. Les sous-titres en direct pour FaceTime dans visionOS permettront à davantage d’utilisateurs de se connecter et de collaborer via leurs Personas. Apple Vision Pro permettra aux utilisateurs de déplacer les sous-titres pendant Apple Immersive Video à l’aide de la barre de fenêtre et prendra en charge davantage d’appareils auditifs et de processeurs auditifs cochléaires conçus pour iPhone.
Les améliorations apportées à l’accessibilité visuelle incluront également la réduction de la transparence, l’inversion intelligente et les lumières clignotantes faibles, destinées aux utilisateurs malvoyants ou à ceux qui préfèrent éviter les lumières vives et les clignotements fréquents.
Bien qu’Apple développe depuis longtemps des fonctionnalités d’accessibilité, le PDG Tim Cook note que ces mises à jour correspondent à l’engagement de l’entreprise en faveur de l’inclusivité. Par exemple, les utilisateurs cherchant à réduire le temps d’écran et à minimiser les distractions peuvent utiliser des fonctionnalités telles que « Filtres de couleur » associées à « Smart Invert » ou « Classic Invert » pour créer un affichage en niveaux de gris. L’activation de « Augmenter le contraste » peut améliorer encore davantage la visibilité, démontrant ainsi l’engagement d’Apple à répondre aux divers besoins des utilisateurs.
Écrit par Alius Noreïka
Publié à l’origine dans The European Times.