Apple「Live Speech」「Personal Voice」「拡大鏡のPoint and Speak」とともに、認知的アクセシビリティのための新機能を導入
※本サイトは、アフィリエイト広告および広告による収益を得て運営しています。購入により売上の一部が本サイトに還元されることがあります。
Appleが、認知、視覚、聴覚、移動のアクセシビリティに対応したソフトウェア機能と、言葉を話せない人や話す能力を失う危険性のある人向けの革新的なツールをプレビューしたと発表しています。
これらのアップデートは、ハードウェアとソフトウェアの進歩を活用し、ユーザーのプライバシーを確保するためのデバイス上での機械学習を含み、すべての人のための製品を作るというAppleの長年のコミットメントを発展させたものだそうです。
Appleは、障がいを持つ幅広いユーザーを代表するコミュニティグループと深く協力し、人々の生活に実際に影響を与えるアクセシビリティ機能の開発に取り組んでいるそうです。
今年後半には、認知障害のあるユーザーが「Assistive Access」を使ってiPhoneやiPadをより簡単に、より自立して使えるようになり、言葉を話せないユーザーが「Live Speech」を使って通話や会話中にタイプして話すことができるようになるそうです。
また、目の不自由な方や弱視の方は、拡大鏡の検出モードで、指差す方向を識別してテキストを読み上げる「拡大鏡のPoint and Speak」を使って、家電製品などの物理的なオブジェクトとのやり取りをサポートするそうです。