- ニュース

写真:Leander Kahney/Cult of Mac
デイモン・ローズは46歳で、10代の頃から失明しています。2012年、iPhoneが彼の人生を変えました。
BBCのシニア放送ジャーナリスト、ローズ氏は、見知らぬ場所を移動する際に片耳にイヤホンを装着し、GPSを使って移動している。また、通っているお店を教えてくれるサードパーティ製アプリも使っている。「これは驚くほど便利だ」とローズ氏はCult of Macに語っている。「レストランで最初の一杯を飲みながら、ウェブサイトでメニューを見ることができるんです」とローズ氏は言う。ウェイターにメニューを読んでもらう代わりにね。
iPhone はアクセシビリティ機能を備えた最初の携帯電話ではなかったかもしれませんが、視覚障害者や聴覚障害者が簡単に使用できる最初の人気ポケットコンピュータであることは間違いありません。
「視覚障碍者コミュニティがAppleを愛するのは、Appleがほぼ最初に完全なアクセスを実現したからです」とローズ氏は語った。「Microsoftには貧弱なスクリーンリーダーが組み込まれていましたが、画面上のテキストを断片的に読み上げるだけでした。」
今日、iOSは画面の読み書きや聴覚に問題を抱える人にとって、ほぼデフォルトのオペレーティングシステムとなっています。これは、iOSデバイスが約10億台も普及しているという普及率にも起因しますが、AppleがアクセシビリティをiPhoneやiPadの本質に組み込んでいるという点も大きな理由です。他社のように、アクセシビリティを表面からコーティングのように付け加えるのではなく。
「グーグルは努力している」とダブリン市立大学コンピューティング学部のドナル・フィッツパトリック氏はCult of Macに語った。「だが、私の見解では、彼らの製品にはまだスイスチーズよりも穴が多い」

スクリーンショット:Cult of Mac
2009年:Appleがアクセシビリティを改革
AppleはiOS 3(当時はまだ「iPhone OS 3」という名称でした)で初のアクセシビリティ機能を追加しました。iPhone 3GSは、ついにコピー&ペースト機能が追加されたことで、すべてのユーザーにとって画期的な製品となりました。しかし同時に、Macから借用したVoiceOverという技術も追加されました。これは意外なことに、iPod shuffleにも搭載されていました。
「目が見える人は画面上のオブジェクトに触れるだけで操作できます」とローズ氏は言います。「視覚障碍者は指を動かして音を出し、ダブルタップして操作しなければなりません。」
VoiceOverを使ったことがないなら、今すぐ試してみてください。すでにあなたのiPhoneに搭載されているので、大きな違いが生まれます。
「私は[私のノキア端末]用のTALKSというホーキング風のスクリーンリーダーに200ポンドを費やさなければなりませんでした」とローズ氏は言う。「一方、VoiceOverは内蔵されており、すべてのアクセシビリティツールがそうあるべきであるように無料です。」

スクリーンショット:Apple
VoiceOverは、「設定」>「一般」>「アクセシビリティ」>「VoiceOver」でオンにできます。ただし、かなり衝撃的な機能なので注意してください。画面上で指を動かすと、iPhoneが素早く話しかけてきて、タッチしている場所を知らせてくれます。最初は戸惑うかもしれませんが、すぐに慣れます。まるでウェブページを埋め尽くす広告やその他の視覚的なノイズをフィルタリングするのと同じように。
探しているものが見つかったら、ダブルタップしてボタンを押します。するとテキストが読み上げられます。このようにiOSを素早く操作できるだけでなく、目が見えるユーザーにとっては全く予想外の素晴らしい機能もいくつかあります。
アクセシビリティはiOSに組み込まれている
例えば、文字入力時には、入力した文字を一つずつ読み上げたり、単語だけを読み上げたりすることができます。写真を撮る際には、カメラがフォーカスや笑顔を認識するのと同じ顔検出機能を使って、画面に映っている顔の数(と位置)を教えてくれます。画面を見なくても、被写体を中央から少しずらして、ピントを合わせた構図で写真を撮ることができます。
VoiceOver にはもう一つ大きな利点があります。画面のバックライトをオフにした状態でも使用できるため、iPhone を数日間充電せずに使用できます。
VoiceOver への最初の取り組みに続いて、Apple は字幕のクローズドキャプションのサポート、読みやすくするための特別な高コントラスト表示、補聴器やその他のアクセシビリティ デバイスを iPad や iPhone に接続するための深いフック、iPhone のカメラを使用して現実世界を拡大する便利なトリプルタップ拡大鏡などのシンプルな機能を追加しました。
この最後の機能、iOSの拡大鏡は、アクセシビリティがなぜそれほど重要なのかを如実に示しています。「他の人」を助けるためだけに膨大な開発時間を費やす必要はありません。アクセシビリティのニーズはスケールで表されます。全盲の人もいるかもしれませんが、眼鏡をかけている人のほうがはるかに多いです。そして、世界人口の高齢化が進む中で、文字を大きくすることは今後も歓迎されるでしょう。
iPhoneアクセシビリティの遅いスタート
当初、iOS のアクセシビリティ機能の使用は不十分でした。
「iPhoneのタッチスクリーンが平らで機能がないという事実から、私だけでなく他の視覚障害者は、絶対に使いこなせないと思っていました」とローズは言います。「私たちが使うには、点字のように触覚で操作できるものでないといけないんですよね?そうでしょう?」
実際、ローズ氏は VoiceOver の習得が急峻であることに気づき、当時の恋人 (現在の妻) に iPhone を譲り、ノキアに戻った (ローズ氏と同様に、フィッツパトリック氏もノキアの Symbian 携帯電話で TALKS を使用していた)。
しかし、Apple が本当に大切にしているものと同様、VoiceOver も年々改良されてきました。
「2012年までに、iPhoneは大幅に高速化され、VoiceOverの動作も改善され、より直感的になったと、視覚障害を持つ友人全員から説得されました」とローズ氏は語った。
2017年のiPhoneは、今や強力なアクセシビリティツールとなっています。フィッツパトリック氏はナビゲーションやサッカーのスコアチェックなど、普段の用途にiPhoneを活用しています。しかし、彼はiPadをコーディングや、ダブリン・シティ大学でコンピューター関連の講師を務めるという仕事にも活用しています。
これはほんの始まりに過ぎません。開発者がアプリにアクセシビリティ機能を追加するのは非常に簡単(基本的な実装は、VoiceOverで読み上げるボタンにキャプションを追加するだけ)なので、様々な便利なアプリが開発されてきました。
「朝、ワードローブから服を取り出すと、その服の色を教えてくれるアプリがあります」とローズ氏は言います。「将来的には、ガスや電気のスマートメーターもスマートフォンに結果を表示するようになるでしょうし、ATMや券売機などと連携する方法もきっとあるでしょう。」
iPhoneは他のガジェットと連携することで、その包括的なアクセシビリティ機能を外の世界にまで広げることができます。例えば、Apple Watchは間もなくジムの機器と通信できるようになるため、よりアクセスしやすいジムの実現が期待されます。
Appleのアクセス可能な未来
フィッツパトリック氏は、こうしたつながりがもっと増えることを望んでおり、Apple Watchがその橋渡し役になると考えている。例えば、「時計に装着されたリストストラップを通して血液を測定できる血糖値モニターは、多くの視覚障害者の助けになるでしょう。なぜなら、血糖値測定器の多くはアクセスが難しいからです」と彼は述べた。「糖尿病を患う視覚障害者は、このシステムから大きな恩恵を受けるでしょう。」
さらに、Apple Watch と今後予定されている血糖値モニターの統合により、失明を予防できる可能性もある。
糖尿病は失明の大きな原因であるため、フィッツパトリック氏は「手首に常時血糖モニターを付けていれば、目が見える人が失明することはないかもしれない」と述べた。
一方、AppleはiPhoneのアクセシビリティの向上に取り組んでいます。iOS 11では、ドラッグ&ドロップにVoiceOverが追加され、SiriにTypeキーが導入されました(つまり、AppleのAIアシスタントに音声なしでアクセスできるということです)。写真内のテキストを検出して読み上げる機能も搭載されています。
つまり、ローズはもうレストランのメニューをオンラインで検索する必要がなくなり、Facebookページに飛ばされたり、PDFをダウンロードさせられたりすることもなくなるのです。その代わりに、その日のおすすめメニューの写真を撮って、Siriに読み上げてもらうことができるのです。