こんにちは!2017年4月12日(水)にAccSellメール・マガジン第111号を発行しました!
- [連載]中根雅文の「全盲のコンピューター利用に関する四方山話」
- 第100回: タッチUIと視覚障害者
- [寄稿] CSUN 2017に参加して
- 株式会社ミツエーリンクス 木達一仁
- [連載]山本和泉の「解説放送レビュー:観たり聞いたり歌ったり」
- 番外編:映画館で音声解説(UDCastのススメ)
[連載]中根雅文の「全盲のコンピューター利用に関する四方山話」
第100回: タッチUIと視覚障害者前回まで、iOS、Android、WindowsのタッチUIについて紹介してきました。いろいろな環境でタッチUIが使えるようになったことで、少なくとも僕にはPCなどを使う時の感覚が少し変わってきたような自覚があります。今回は、この点についてお話しします。
タッチUIで可能になったこと
これまでの話の繰り返しになりますが、タッチUIによって可能になったことの最も大きなことは、画面上のどこになにが表示されているのかということを、全盲のユーザーでも比較的容易に把握できるようになったということが挙げられると思います。Windows、iOS、Androidいずれの場合も、とりあえず画面に触れてみれば、そこになにが表示されているのかを読み上げてくれます。 (Windowsに関しては、スクリーン・リーダーによってこの点について挙動の違いがあると思いますが。)
タッチUIが登場するまでは、当然キーボードだけで操作していましたが、この場合、画面上のどこになにが表示されているのかということを特に意識せずにPCを使っている視覚障害ユーザーがほとんどだったのではないかと思います。 (少なくとも僕はそうでした。) おそらくこれは、そもそも僕たち視覚障害者が、画面上の配置を把握しなくても充分に使えるアプリケーションを好んで使ってきたから、ということなのではないかという気がしています。
また、実はMS-DOS時代まで遡ると、僕たちも結構画面上のレイアウトを意識して様々なアプリケーションを使っていたように思います。MS-DOSの場合、ほとんどのアプリケーションが25行×80桁という決まった大きさの中で動作していて、特定の情報が特定の場所に表示されるというアプリケーションごとの特徴がありましたから、これを知った上で使うことが効率的な操作につながったためです。実際MS-DOS用のスクリーン・リーダーには、適切に設定すれば特定のキー操作で画面の特定の場所だけを読み上げさせることができる機能が搭載されていて、こういった機能が積極的に活用されていた印象があります。
Windows用のスクリーン・リーダーにもこういった機能を提供しているものはありますが、MS-DOS時代に比べるとこういった機能の必要性は圧倒的に低くなった印象ですし、僕自身もほとんどこういった機能を活用したことがありません。Windows上でキーボードだけでアプリケーションやOSの機能を実行している場合、特定の操作をするためにはどういうキー操作をすれば良いかを覚えればよく、画面上のレイアウトを意識することはほとんどありませんでした。
このような場合、上下左右の矢印キー、TabキーとSHIFT+Tabキー、Enterキーあたりで多くの操作が可能で、そういう前提で操作をすることになります。 (これを仮に「キーボード・メンタル・モデル」と呼ぶことにします。)
一方、タッチUIが登場して以降は、目的のオブジェクトを画面上で探して、これをダブル・タップするといった使い方 (仮に「タッチ・メンタル・モデル」とします) ができるようになりました。これはマウスで目的のオブジェクトをクリックする、晴眼者の使い方に近い使い方ですね。
キーボード・メンタル・モデルとタッチ・メンタル・モデル
タッチ・メンタル・モデルでのアプリケーションの利用ができるようになったからといって、特にWindowsの場合はキーボード・メンタル・モデルから脱却する必要はなく、今でもキーボードだけでいろいろなアプリケーションを使いこなしている視覚障害者は多くいます。また、タッチ・メンタル・モデルをある程度前提にして作られているiOSやAndroidにおいても、キーボード・メンタル・モデルに基づいた操作をしている視覚障害者も多くいるように思います。
つづきはメルマガで……。