
Apple muscle son jeu en matière d’accessibilité. La firme de Cupertino vient d’annoncer une série de nouveautés majeures. Parmi elles, une fonction très attendue qui va révolutionner la façon de consommer du contenu audio et vidéo.
Le sous-titrage automatique enfin en français
La fonctionnalité Live Captions arrive sur l’iPhone, l’iPad et le Mac. Elle permet de générer automatiquement des sous-titres pour tout contenu audio.
Cela inclut les vidéos, les podcasts, mais aussi les appels téléphoniques ou FaceTime. La transcription se fait en temps réel.
Jusqu’à présent, cette fonction n’était disponible qu’en anglais. Apple étend sa compatibilité à plusieurs langues.
Voici les nouvelles langues prises en charge :
📍 Mandarin
📍 Cantonais
📍 Espagnol
📍 Français
📍 Japonais
📍 Allemand
📍 Coréen
Cette avancée est particulièrement utile pour les personnes sourdes ou malentendantes. Elles peuvent désormais suivre conversations et médias sans le son.
Mais Live Captions a d’autres usages. En réunion, on peut lire la transcription si on ne peut pas écouter. Beaucoup de jeunes utilisent aussi déjà les sous-titres par préférence.
La transcription Live Captions et Live Listen arrivent aussi sur l’Apple Watch. Ceci offre une aide supplémentaire aux utilisateurs.
Plus de clarté sur l’app store
Apple améliore également l’information disponible avant de télécharger une application. De nouvelles étiquettes d’accessibilité seront affichées sur l’App Store.
Elles s’inspirent des informations nutritionnelles présentes sur les aliments. Elles listent les fonctionnalités d’accessibilité intégrées à l’application.
L’utilisateur saura ainsi si l’app répond à ses besoins spécifiques. Il pourra vérifier l’accessibilité avant l’installation.
Des outils pour la lecture et le confort
La « loupe », une fonction existante sur iPhone, arrive sur Mac. Elle utilise la webcam ou l’iPhone connecté pour agrandir des textes. C’est utile pour les personnes ayant des difficultés de lecture.
Les « indicateurs de mouvement du véhicule » débarquent aussi sur Mac. Cette fonction aide à réduire le mal des transports. De petits points blancs à l’écran suivent les mouvements pour stabiliser la perception visuelle.
Un nouveau lecteur de textes fait son apparition : Accessibility Reader. Il est intégré aux systèmes iOS, iPadOS, macOS et visionOS. Il vise à faciliter la lecture pour divers handicaps. Cela inclut la dyslexie ou la malvoyance.
Le braille intégré à l’écosystème
Apple introduit Braille Access, une expérience inédite. Elle transforme les appareils Apple en outils de prise de notes en braille.
L’iPhone, l’iPad, le Mac et l’Apple Vision Pro sont concernés. L’intégration est profonde dans l’écosystème.
Un lanceur d’applications intégré est présent. Il permet d’ouvrir facilement n’importe quelle app. La saisie se fait via le Braille Screen Input ou un appareil braille connecté.
Ces annonces montrent un renforcement de l’accessibilité chez Apple. Elles ouvrent de nouvelles possibilités pour de nombreux utilisateurs.



