Appleは、iOSおよびiPadOS向けの新しいアクセシビリティ機能を発表しました。
今回発表されたアクセシビリティにおける新機能は、視力、聴覚を超えた様々な障碍を持つユーザーに焦点を当てたもので、ユーザーに合わせた操作性やコンテンツの視認性向上を実現します。
新機能の一部である「Assistive Access」では、メッセージ、カメラ、写真、音楽、電話およびFaceTimeにおいて、視認性の非常に高い、統一されたUIでのコンテンツ表示や操作が可能。ハイコントラストのボタンや、大きなテキスト表示によって、文字などの認識が難しいユーザーにおける操作のハードルを格段に下げます。
高齢者端末のらくらくスマートフォンやシンプルスマホといった端末に近いコンセプトですが、比べ物にならないほどシンプルかつわかりやすく、基本的な機能をすぐに実行できるため、障碍を持つ方はもちろん、高齢者や子どもにもピッタリな機能かもしれません。
また、「Live Speech」機能では、対面でリアルでの会話はもちろん、電話やFaceTime通話において、テキストを入力することで会話中に文字の読み上げを行うことができます。よく使うフレーズは保存が可能で、家族や友人、同僚などとの会話をより快適に行えるように設計されています。
「Live Speech」機能は、会話能力に影響を与える可能性がある疾患や障碍を持つユーザー、さらに、体の様々な場所の筋肉が徐々に動かせなくなってしまう難病「ALS」と闘うユーザーに「Personal Voice」という形で新たな声を提供します。
「Personal Voice」機能では、ランダムに用意されたテキストをいくつか読み上げることで、システムが機械学習を使って声を解析し、話す能力を失う可能性のあるユーザーが、自分に似た声を生成することができます。作成された読み上げモデルは、「Live Speech」機能にて利用できるほか、機械学習情報はプライベートかつ安全に保存されるとのこと。
iOS 15においてアプリとして独立した拡大鏡の新機能「Point and Speak」は、カメラで読み込んだ外部の情報を正確に認識し読み上げます。例えば、電子レンジなどの家電製品を利用する際に、対象物の上で指を動かすことで、その場所に記載されているテキストを認識し読み上げます。
このほかにも、VoiceOver等多くのアクセシビリティ機能に、機能の修正や向上、新しい機能が追加されています。これらの機能は、すべて今年後半にリリースされるとのことで、世界中のすべての利用者のユーザー体験向上に期待が高まります。