スマートフォンの登場で、フィーチャーフォンと呼ばれる携帯電話が少なくなっています。フィーチャーフォンは物理的なボタンが搭載されているので目の不自由な方でも触覚情報で操作が可能でした。 しかし、タッチパネルをメインUIとしたスマートフォンでは、タッチする場所に意味があることが多く、目の不自由な方が使用するには困難になってしまいました。ただ、スマートフォンにはタッチパネル以外のUI要素が多く組み込まれており、タッチパネルもタッチ位置を指定しない操作であれば、目の不自由な方でもUI要素として使用できます。
そこで、タッチパネルやその他のUI要素を組み合わせることで目の不自由な方にもスマートフォンを活用していただくためのアイデアを考え、アプリケーションの試作を行っています。
視覚以外のスマホUI
スマートフォンはタッチパネルを見ながら操作するもとと思いがちですが、現在販売されているスマートフォンには様々なUI機能が搭載されています。 それらを利用し、視覚を使用しないアプリの試作を行っています。 使用できると考えられる主なUI機能は以下のとおりです。
バイブレーション | ヘッドホンを外してる場合などにメッセージが来たときのお知らせや、画面タッチ時の反応など様々な利用が考えられます。 |
---|---|
音声発話 | 受信したメールや、現在の状態認識などを音声で知らせるために重要な機能です。 |
音声認識 | 音声認識を利用することで、アプリの起動などコマンドの発信や、文章入力に使用します。 音声発話と組み合わせることで文章入力が正しく行われているか確認もできます。 |
GPS | 位置情報を取得する機能ですが、道が分からなくなった場合など位置情報を利用し、登録された知り合いに自分の位置を知らせる場合に利用できます。 |
カメラ | 「カメラを撮った写真やムービーの画像を解析し、顔認識し会議室にだれが入ってきたか音声で教えてくれる」など、入力に使用できる可能性があります。 また、AR技術と合わせて、通りやお店の名前などを音声発話で案内する事も考えられます。 |
各種センサー (ジャイロ、地磁気など) | スマートフォンには様々なセンサーが搭載されており、色々な使い方が考えられるます。 例えば、目の不自由な方が自分の姿勢を気にする状況で、傾きセンサーを利用して音で傾きを知らせるアプリを試作中です。 |
タッチパネル | 位置を指定したタップ、色や文字情報を除けば、視覚を使用せずに色々な操作の入力デバイスとして利用できます。 端末の向きが分かっている場合、タッチ位置からのフリックにより上下左右の4方向の操作や、タップ、スライドなど入力が可能です。 視覚を使用しない前提なので、操作開始、途中、終わりなどにバイブレーションや効果音の反応を入れることが大事になります。 |
視覚を必要としないアプリ
視覚以外のスマホUIを使用した試作Androidアプリケーションを紹介します。
ご利用になる場合は、Google Playストア よりインストールしてください。