JP2004246445A - ポインティング・デバイス - Google Patents

ポインティング・デバイス Download PDF

Info

Publication number
JP2004246445A
JP2004246445A JP2003033260A JP2003033260A JP2004246445A JP 2004246445 A JP2004246445 A JP 2004246445A JP 2003033260 A JP2003033260 A JP 2003033260A JP 2003033260 A JP2003033260 A JP 2003033260A JP 2004246445 A JP2004246445 A JP 2004246445A
Authority
JP
Japan
Prior art keywords
pointing device
movement
cursor
user
input means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003033260A
Other languages
English (en)
Inventor
Nobuaki Nakazawa
信明 中沢
Taiyo Mitomi
太洋 三冨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2003033260A priority Critical patent/JP2004246445A/ja
Publication of JP2004246445A publication Critical patent/JP2004246445A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

【課題】ベッド等に寝たままの姿勢で簡単に操作できるポインティング・デバイスの提供。
【解決手段】本発明は、例えば、ユーザ110の手首に歪ゲージ型加速度計(傾斜センサ)210を取り付けて手のひらの傾きによってカーソルの移動方向を示し、一方で、ユーザ110の指先にロータリーエンコーダの付いた装置220を取り付け、ロータリーエンコーダ220のつまみ222を回転させることによりカーソルの移動を決定する。
これにより、マウスカーソルの移動方向の操作と移動量の操作とを分離し、それぞれをユーザの簡単な動作で操作することができる。また、装置がコンパクトで簡単に装着でき、小さい動作で操作することができるため、寝たままの姿勢でもユーザの負担が少ない。
【選択図】図2

Description

【0001】
【発明の属する技術分野】
本発明は、主に福祉分野において、移動方向および移動量を分離して操作できる、コンピュータ・システムの画面上に表示され、表示された画面上の位置を入力するカーソル(マウスカーソル)の制御装置(ポインティング・デバイス)に関する。
【0002】
【技術的背景】
従来普及しているパソコン用のポインティング・デバイスは、主に以下の3つのタイプに分けることができる。
(A)ノート搭載型:スティック型やスライドパッド式のものがあり、いずれもノート型パソコンの本体に搭載されている。
(B)卓上型:装置を接する面上(卓上など)で移動させ、接する面との相対変位量からカーソルを移動させる。
(C)トラックボール型:装置自体は移動させず、トラックボールを転がすことでカーソルを移動させる。
これらの装置は、健常者には使いやすいが、例えば福祉分野において、ベッドで拘束を受けるユーザが寝ながらにして操作を行なうことを想定した場合、以下のような問題点がある。
【0003】
(イ)(A)のタイプのようにパソコン本体と一体になっているものは、手先をパソコンに触れる必要があるため、寝たままの状態では使用できない。
(ロ)(B)のタイプの場合、装置自体を布団やシーツの上で移動させる必要があるが、生地のしわなどによる「引っ掛かり」により不適切である。また、装置を動かす空間の確保も必要である。
(ハ)(C)のタイプの場合、ボールを動かす際に、指先および手のひらはボールと接触、ころがり接触、そして非接触状態を繰り返さなければならない。そのため、手を布団の中に入れた状態では、(ロ)と同様に手先を動かす空間の確保が必要である。
(ニ)(B),(C)のタイプのものは、手先の姿勢が拘束を受ける(例えば、手のひらを下向きに保ったまま装置に触れている必要がある)ため、操作者が疲れやすい。
(ホ)また、(A)〜(C)いずれのタイプも、コンピュータ・システムの画面上に表示され、表示された画面上の位置を入力するためカーソル(マウスカーソル)の移動方向と移動量の制御を同時に扱っている。このため、例えば利き腕のほうが操作しやすいなどの拘束がある。
【0004】
一方で、障害を持つユーザのために、以下のようなポインティング・デバイスが開発されている。
(D)ジョイスティック型(例えば、非特許文献1参照。):口や顎などでジョイスティックを動かしてカーソルを移動させる。
(E)ボタン型(例えば、非特許文献2参照。):ソフトウェアとの組み合わせで、ボタンを押すことでカーソルを移動させる。画面上に4方向を示す矢印が交互に表示され、カーソルを移動したい方向が表示されたら、ボタンを押す。
(F)ヘッドマウント型:頭部に装着し、頭部の傾きに応じてカーソルを移動させる。
これらのポインティング・デバイスは、ユーザの使いやすさを追求した機器であるが、なお以下のような問題点がある。
【0005】
(ヘ)(D)のタイプの場合、装置を固定する台などが必要となり、装置が大掛かりになってしまう。また、コストが高くなりがちである。
(ト)(E)のタイプはソフトウェアを使用しているため、インストールやバージョンアップなどパソコンの知識を伴う作業がユーザの負担になる場合が考えられる。
(チ)(E)のタイプはボタンによってカーソル操作を簡略化しているため、一方でソフトウェアでの選択項目(4方向の移動、クリックなど)を増やしている。その結果、例えば、希望する移動方向が表示されるまで待たなければならないなど、操作者の意図がリアルタイムに反映できない。
(リ)寝た状態では、頭部に関して左右方向の動きは簡単にできるものの、(F)のタイプのように上下方向(頷く方向)への動作は床ずれを引き起こしやすい。
【0006】
【非特許文献1】
http://member.nifty.ne.jp/lifewel/tokusyumausu.htm
【非特許文献2】
http://deki.psv.org/index.html
【0007】
【発明が解決しようとする課題】
上記に示しているように、コンピュータ・システムの画面上に表示され、表示された画面上の位置を入力するためのカーソル(マウスカーソル)の移動方向の操作と移動量の操作とを分離し、それぞれをユーザの簡単な動作で操作できるポインティング・デバイスはこれまで開発されていない。
本発明の目的は、カーソルの移動方向の操作と移動量の操作とを分離し、それぞれをユーザの簡単な動作で操作できるポインティング・デバイスを提供することである。
これにより、身障者が使い易い、コンパクトで、簡単に装着でき、小さい動作で操作できる(すなわち、寝たままの姿勢でもユーザの負担が少なく、身体の可動範囲が小さいユーザでも使用できる)ポインティング・デバイスを提供することができる。
【0008】
【課題を解決するための手段】
上記の課題を解決するために、本発明は、コンピュータ・システムの表示画面上に表示されたカーソルの位置を入力するために、該カーソルの移動を操作するためのポインティング・デバイスであって、前記カーソルの移動方向を入力するための方向入力手段と、前記カーソルの移動量を入力するための移動入力手段と、前記方向入力手段及び移動入力手段からの入力により、前記カーソルの移動を制御する制御手段とを備えることを特徴とするポインティング・デバイスである。
前記方向入力手段は、手首の回転角度を検出するセンサであることを特徴としてもよい。また、前記方向入力手段は、頭の回転角度を検出するセンサであることを特徴としてもよい。
また、前記方向入力手段は、前記検出した手首又は頭の回転角度に対し、あらかじめ、手首又は頭の回転の可動範囲を分割して前記カーソルの移動方向を割り当て、さらに、前記方向入力手段が入力した角度を表示するインジケータを備えることを特徴としてもよい。
前記割り当ては、180度の範囲に対して行ない、前記移動入力手段は、前記移動量の入力とともに、移動方向の+,−も指定することを特徴としてもよい。前記移動入力手段は、ロータリーエンコーダであり、該ロータリーエンコーダのつまみの回転を検出して入力を行うことを特徴としてもよい。また、前記移動入力手段は、ボタンであり、該ボタンへの接触又は押圧を検出して入力を行うことを特徴としてもよい。また、前記移動入力手段は、息を吐く又は吸うことを検出するセンサであり、息を吐く又は吸うことを検出して入力を行うことを特徴としてもよい。
また、ボタンをさらに備えており、該ボタンへの接触又は押圧を検出してクリック操作を行うことを特徴としてもよい。または、息を吐く又は吸うことを検出するセンサをさらに備えており、該センサへ息を吐く又は吸うことを検出してクリックを行うことを特徴としてもよい。
【0009】
また、本発明のポインティング・デバイスは、息を吐く又は吸うことを検出するセンサを複数設け、各センサに前記カーソルの移動方向を割り当て、前記方向入力手段は、どのセンサに息を吐く又は吸うことにより方向の入力を行い、前記移動入力手段は、息を吐く又は吸うことを検出して移動量の入力を行うことを特徴とするポインティング・デバイスであってもよい。
このとき、前記センサに息を吸う又は吐く動作によりクリックを行うことを特徴としてもよい。
また、本発明のポインティング・デバイスにおいて、前記制御手段は、前記コンピュータ・システムにおけるマウスと同様の出力信号を出力することを特徴とすしてもよい。また、前記制御手段は、画面の上下・左右方向に対応する2つのモータの回転によりパルスを発生することを特徴としてもよい。
【0010】
【発明の実施の形態】
図を参照しながら、本発明のポインティング・デバイスの実施形態を詳細に説明する。
図1は、ユーザが寝たままの姿勢でマウス機器の操作を行なう様子の例を示している。図1において、ユーザ110はベッド120に横たわった姿勢で、マウス機器140を用いてパソコン150を操作する。この際にユーザ110は、蒲団(掛け蒲団)130の中にいることも考えられる。パソコン150に接続されたディスプレイ160は、図1に示すように、ユーザが見やすい位置に設置する。
本発明のポインティング・デバイスは、ユーザが図1に示すような寝たままの姿勢で、簡易にマウス機器を操作できるものである。そして、マウス操作を簡易にするために、本発明ではカーソルの移動方向および移動量の操作を分離して制御している。
【0011】
以降、具体的な実施例(実施例1〜4)を挙げて、本発明のポインティング・デバイスの実施形態を説明する。
【0012】
<実施例1>
実施例1は、手先の細かな動作が可能なユーザ向けのポインティング・デバイスである。実施例1の構成を、図2に示す。
実施例1では、前腕の回旋運動(腕の長軸まわりを軸として手のひらを回転させて方向を変える運動)によってカーソルの移動方向を決定し、指先のすり合わせ運動によってカーソルを移動させる。なお、操作を行なう前には、操作を行なうユーザの前腕の回旋運動による傾き角度の範囲を測定して制御用マイコンを内蔵した制御装置230に取り込み、その可動範囲を分割してカーソルの移動方向に割り当てる。
【0013】
ここで、カーソルの移動する方向は360度であるが、本実施例では、可動範囲をその半分の方向(180度)に割り当てる。そして、カーソルの移動操作の際に、+方向および−方向を指定する(本実施例の場合はロータリーエンコーダのつまみ222の操作である)。
このように、可動範囲を180度に割り当てることにより、一つの方向に割り当てる傾き角度の範囲を広く確保することができ、可動範囲の小さいユーザにも適している。また、ユーザがカーソル操作を誤って行き過ぎてしまった場合などに、+方向および−方向の操作だけでカーソルの方向転換をすることができる。なお、可動範囲をカーソルの移動する全方向(360度)に割り当ててもよい。
本実施例では、すりあわせ運動を検出するために、ユーザ110の指先にロータリーエンコーダの付いた装置220を装着するとともに、装置220に設置した2個のタッチセンサ224を指先で触れることでクリック操作を行なう。例えば、各々のタッチセンサに触れることで左右のシングルクリック(左クリックおよび右クリック)やドラッグ操作を行ない、両方のタッチセンサに同時に触れることでダブルクリックを行なうようにする。
【0014】
図2において、ユーザ110、ベッド120、蒲団130、マウス機器140、パソコン150、ディスプレイ160については、図1で説明したとおりである。
点線枠200内には、ユーザ110が手に持っているマウス機器140の拡大図を示している。ここで、ユーザ110の手首には歪ゲージ型加速度計(傾斜センサ)210を装着する。歪ゲージ型加速度計210は、重力加速度の影響を受けるため、この性質を利用して、すなわち重力を利用して、手のひらの向き(傾き角度)を測定することができる。
このようにして測定された手のひらの傾き角度は、ディスプレイ160上に設置された方向インジケータ280に表示される。点線枠205内には、方向インジケータ280の拡大図を示している。ここで、方向インジケータ280のLED290の点灯などにより、現在の傾き角度が示すカーソルの移動方向がユーザ110に提示される。なお、現在の傾き角度が示すカーソルの移動方向は、点線枠205内に示しているように、+(プラス)および−(マイナス)の2方向である。
【0015】
一方、ユーザ110の指先には、ロータリーエンコーダの付いた装置220を取り付けている。その拡大図を点線枠202内に示す。ロータリーエンコーダの付いた装置220は、固定器具226を利用してユーザの人差し指、中指および薬指に固定し、ユーザ110が、指先のすり合わせ運動によってロータリーエンコーダのつまみ222を回転させると、その回転量を測定する。点線枠200内に示しているように、回転は+(プラス)および−(マイナス)の2方向であり、それぞれ、上述の方向インジケータ280のLED290が示す+方向、−方向に対応している。なお、クリック操作は、上述したように2個のタッチセンサ224に触れることで操作が可能である。
歪ゲージ型加速度計210およびロータリーエンコーダの付いた装置220は、制御用マイコンを内蔵した制御装置230に接続されており、歪ゲージ型加速度計210により測定された手のひらの傾き角度、およびロータリーエンコーダのつまみ222により測定された回転量は、制御装置230に取り込まれる。次に、制御装置230に接続された2個のモータ240が駆動される。2個のモータ240は、それぞれ、カーソルのX軸方向への移動およびY軸方向への移動に対応している。これらのモータ240の回転は、ロータリーエンコーダのつまみ222の回転量によって定まり、つまみ222を回転させない状態ではモータ240も駆動しない。
【0016】
また、これらのモータ240を動かす速度の比率(X軸:Y軸)は、歪ゲージ型加速度計210によって測定された手のひらの傾き角度によって定める。例えば、手のひらが鉛直下向きならば、速度の比率はX軸:Y軸=0:1、それと垂直方向ならX軸:Y軸=1:0、そしてこの2つの方向の中間の向きならばX軸:Y軸=1:1という具合になる。
従来開発されていたジョイスティック型(D)および(E)のポインティング・デバイスは、X軸方向、Y軸方向を別々に操作する必要があり、ななめ方向への移動はできなかったが、本発明の装置は、ユーザの身体の一部(本実施例の場合は手のひら)を傾けることで、ユーザの意図した方向にカーソルを移動することができる。
【0017】
次に、2個のモータ240により、X軸およびY軸の2軸のフォトインタラプタ250(一般のマウス機器の中に入っているのと同様のものでよい)を回転させる。2軸のフォトインタラプタ250はマウス回路260に接続され、マウス回路260はインターフェース(PS2やUSBなど)270を介してパソコン150に接続されている。この点は、従来の通常のポインティング・デバイス(マウス機器)と同様である。
本発明の装置は従来のマウスの構造を利用し、2軸のフォトインタラプタ250をモータ240で回転させることでカーソルを動かす仕組みになっている。2個のタッチセンサ224への操作も、制御装置230によりマウスの右ボタン、左ボタンの操作として伝えられる。そのため、通常のポインティング・デバイスと同様、コネクタ(PS2やUSBなど)に差し込むだけでよく、ソフトウェアに依存しない。
以上のようにして、本実施例で用いるポインティング・デバイスを通常のポインティング・デバイスと同様に制御することができる。
【0018】
<実施例2>
実施例2は、頭部を動かすことが可能で、押しボタンが使用できるユーザ向けのポインティング・デバイスである。実施例2の構成を、図3に示す。
実施例2では、首(頭)の傾きによってカーソルの移動方向を決定し、ボタンを押すことでカーソルを移動させる。なお、操作を行なう前には、操作を行なうユーザの首の傾き角度の範囲を測定し、それを分割してカーソルの移動方向に割り当てる。例えば、まず、首を右向き最大の角度にポーズして制御用マイコンを内蔵した制御装置230に取り込み、続いて左向き最大の角度にポーズして同様に制御装置230に取り込む。これらの最大角度はユーザが任意に決定できる。このようにして測定された首の動作可能範囲を分割してカーソルの移動方向に割り当てる。本実施例では、実施例1と同様に、可動範囲をカーソルの移動方向の半分(180度)に割り当てるものとする。
また、本実施例では、ユーザ110の手にON−OFFスイッチ320を持たせ、ボタン322および324を押すことでカーソルを移動させ、ボタン326および328を押すことでクリック操作を行なう。
【0019】
図3において、ユーザ110、ベッド120、蒲団130、パソコン150、ディスプレイ160については、図1で説明したとおりである。
点線枠300内は、ユーザ110の頭部の拡大図を示している。ここで、ユーザ110の頭部には、実施例1でユーザの手首に装着したものと同様の歪ゲージ型加速度計(傾斜センサ)310を装着し、重力を利用して首の傾きを測定する。
このようにして測定された首の傾き角度は、ディスプレイ160上に設置された方向インジケータ280に表示される。点線枠205内には、方向インジケータ280の拡大図を示しているが、これについては実施例1で説明したとおりである。
【0020】
一方、点線枠305内は、ユーザ110が手に持っているマウス機器140(本実施例ではON−OFFスイッチ320のみ)の拡大図を示している。ここで、ユーザ110の手先には、ON−OFFスイッチ320を配置している。ユーザ110は、ON−OFFスイッチ320の+ボタン322または−ボタン324を押して、首の傾きで指定した方向のさらにどちらの方向(+方向または−方向)をカーソルの移動方向とするかを決定する。
クリック操作は、上述したようにON−OFFスイッチ320の2個のボタン326および328を押すことで行う。このクリック操作は、例えば、各々のボタンを押すことで左右のシングルクリック(左クリックおよび右クリック)やドラッグ操作を行ない、両方のボタンを同時に押すことでダブルクリックを行なうようにする。
【0021】
歪ゲージ型加速度計310およびON−OFFスイッチ320は、制御用マイコンを内蔵した制御装置230に接続されており、歪ゲージ型加速度計310により測定された首の傾き角度、およびON−OFFスイッチ320により決定された方向、ボタンを押す強さなどの情報が、制御装置230に取り込まれる。次に、制御装置230に接続された2個のモータ240が駆動される。2個のモータ240は、実施例1と同様に、それぞれ、カーソルのX軸方向への移動およびY軸方向への移動に対応している。これらのモータ240の回転は、ON−OFFスイッチ320のボタン(+ボタン322および−ボタン324)を押す強さに応じて変わるものとし、ボタンを押さない状態(OFF状態)ではモータ240も駆動しない。
【0022】
また、これらのモータ240を動かす速度の比率(X軸:Y軸)は、歪ゲージ型加速度計310によって測定された首の傾き角度によって定める。例えば、左右それぞれ15度ずつの傾き角度で操作するように設定した場合、首の傾きが右方向に15度ならば速度の比率はX軸:Y軸=0:1、左方向に15度ならばX軸:Y軸=1:0、そしてこの2つの方向の中間の向き(正面方向)ならばX軸:Y軸=1:1という具合になる。
このほか、図3に示したフォトインタラプタ250、マウス回路260、インターフェース270については、実施例1で説明したとおりである。
前述したように、従来のヘッドマウント型(F)の場合には、ユーザは頭部を頷く方向に動かす必要があったため床ずれを引き起こす可能性があったが、本実施例のように頭部を左右方向に動かすようにすれば、この問題を解消できる。このように、本発明の装置では、操作時の姿勢に合わせて、ユーザに負担となるような動作を容易に排除できる。
以上のようにして、本実施例で用いるポインティング・デバイスを通常のポインティング・デバイスと同様に制御することができる。
【0023】
<実施例3>
実施例3は、頭部を動かすことが可能なユーザ向けのポインティング・デバイスである。実施例3の構成を、図4に示す。
実施例3では、頭の傾きによってカーソルの移動方向を決定し(実施例2と同様)、呼気を吸い、そして吐くことでカーソルを移動させる。なお、操作を行なう前には、操作を行なうユーザの頭の傾き角度の範囲を測定し、それを分割してカーソルの移動方向に割り当てる。その手法は、上述の実施例2で説明したとおりである。
また、本実施例では、呼気を短く1回吐くことでシングルクリック、2回吐くことでダブルクリック、呼気を短く1回吸うことで右クリックを行なうようにする。
なお、本実施例において呼気を吐く、吸うの動作は逆でもよい。すなわち、呼気を短く1回吸うことでシングルクリック、2回吸うことでダブルクリック、呼気を短く1回吐くことで右クリックを行なうようにしてもよい。
【0024】
図4において、ユーザ110、ベッド120、蒲団130、パソコン150、ディスプレイ160については、図1で説明したとおりである。
点線枠400内は、ユーザ110の頭部の拡大図を示している。ここで、ユーザ110の頭部には、歪ゲージ型加速度計(傾斜センサ)410を装着し、ユーザ110の首の傾き角度を測定する。
首の傾き角度の測定方法、および方向インジケータ280への表示などについては実施例2で説明したとおりである。
また、点線枠400内において、ユーザ110はストロー管430を口にくわえ、呼気を吸い、そして吐く動作によって、首の傾きで指定した方向のさらにどちらの方向(+方向または−方向)をカーソルの移動方向とするかを決定する。ここで、ストロー管430は大気圧センサ(空気圧力センサ)420に接続されており、大気圧センサ420によってユーザ110の呼気を測定する。
【0025】
歪ゲージ型加速度計410および大気圧センサ420は、制御用マイコンを内蔵した制御装置230に接続されており、歪ゲージ型加速度計410により測定された首の傾き角度、および大気圧センサ420により決定された方向、呼気の強さなどの情報が、制御装置230に取り込まれる。次に、制御装置230に接続された2個のモータ240が駆動される。2個のモータ240は、実施例1と同様に、それぞれ、カーソルのX軸方向への移動およびY軸方向への移動に対応している。これらのモータ240の回転は、呼気の強さに応じて変わるものとし、呼気を入れない状態ではモータ240も駆動しない。
また、これらのモータ240を動かす速度の比率(X軸:Y軸)の決定は、実施例2で説明したとおりである。
このほか、図3に示したフォトインタラプタ250、マウス回路260、インターフェース270については、実施例1で説明したとおりである。
以上のようにして、本実施例で用いるポインティング・デバイスを通常のポインティング・デバイスと同様に制御することができる。
【0026】
<実施例4>
実施例4は、口元を動かすことが可能なユーザ向けのポインティング・デバイスである。実施例4の構成を、図5に示す。
実施例4では、マトリクス(本実施例では3行3列とする)に並んだ吹き穴520を持つハーモニカ510をユーザ110の口元に装着し、呼気を吹き込む吹き穴の場所によってカーソルの移動方向を決定し、吹き込む呼気の量によってカーソルの移動を決定する。
また、本実施例においては、各吹き穴にそれぞれシングルクリック、ダブルクリック、右クリック、ドラッグなどの操作を割り当て、呼気を吸うことで操作を可能としている。また、例えば、中央(2行2列目)の吹き穴によって操作のモードを変更できるようにし、文字入力などを行なえるようにすることも可能である。
なお、本実施例において呼気を吹き込む、吸うの動作は逆でもよい。すなわち、呼気を吸うことでカーソルの移動方向を決定し、吸う呼気の量によってカーソルの移動を決定し、呼気を吹き込むことでクリックやドラッグを行うようにしてもよい。
【0027】
図5において、ユーザ110、ベッド120、蒲団130、パソコン150、ディスプレイ160については、図1で説明したとおりである。
点線枠500内は、ユーザ110の頭部の拡大図を示している。ここで、ユーザ110の口元には、ハーモニカ510を装着する。また点線枠505内は、ハーモニカ510の拡大図を示している。ここに示すように、ハーモニカ510はマトリクス(本実施例では3行3列とする)に並んだ吹き穴520を持っている。そして、ユーザ110が呼気を吹き込むことによって、各吹き穴に割り当てられた方向にカーソルを移動させる。
ハーモニカ510は制御用マイコンを内蔵した制御装置230に接続されており、ハーモニカ510で測定された呼気の強さや、呼気が吹き込まれた吹き穴の場所などの情報が、制御装置230に取り込まれる。次に、制御装置230に接続された2個のモータ240が駆動される。2個のモータ240は、実施例1〜3と同様に、それぞれ、カーソルのX軸方向への移動およびY軸方向への移動に対応している。これらのモータ240の回転は、実施例3と同様、呼気の強さに応じて変わるものとし、呼気を入れない状態ではモータ240も駆動しない。
【0028】
また、これらのモータ240を動かす速度の比率(X軸:Y軸)は、呼気が吹き込まれた穴の位置により決定されている。
なお、上述したように、呼気を吸う場合には、それぞれの吹き穴に応じてクリック操作(シングルクリック、ダブルクリック、右クリック)を行なう。
このほか、図5に示したフォトインタラプタ250、マウス回路260、インターフェース270については、実施例1で説明したとおりである。
【0029】
上述の実施例1〜3においては、視覚情報によってカーソルの移動方向を確認できるが、さらに本実施例では、ハーモニカの音程を聞くことでカーソルの移動方向や各吹き穴に割り当てられた操作(クリックなど)を判断できる。このため、より直感的な判断が可能である。また、音の強弱(すなわち、呼気の強さ)によってカーソルの移動が微調整できるため、カーソルの位置決めがより容易である。
本実施例では、ハーモニカの吹き穴はマトリクス状に並んでいるため、舌や唇の感覚によって、簡単に吹き穴の位置を確認することができる。また、1つの吹き穴で2つのタスク(呼気を吸う場合と吐く場合)が設定できるため、多くの操作を割り当てておくことができる。これにより、携帯電話に見られるような文字入力の設定も可能である。
また、本実施例で、移動方向を手首や頭の回転により定め、移動を吹く、吸うの動作で指定することもできる。
以上のようにして、本実施例で用いるポインティング・デバイスを通常のポインティング・デバイスと同様に制御することができる。
【0030】
既に説明したように、上述の実施例1〜3では、ユーザの可動範囲をカーソルの移動する方向の半分(180度)に割り当て、カーソルの移動操作の際に、+方向および−方向を指定している。ここで、可動範囲をカーソルの移動する全方向(360度)に割り当ててもよい。この場合、カーソルの移動操作においては単に移動量の指示のみができればよく、例えば、+−の2個のボタンの代わりに1個のボタンで足りる。
上述の各実施例で説明したような移動方向や移動量を入力するための各々の装置を、ユーザの身体能力に合わせて自由に組み合わせることもできる。その上、上述の実施例では、モータの回転で通常のポインティング・デバイス(マウス機器)からのパルスと同様のパルスを発生しているが、他の電子的インターフェースを用いてもよい。
【0031】
【発明の効果】
本発明のポインティング・デバイスの使用により、次のような効果がある。
(1)本発明の装置では、カーソルの移動方向および移動量を別々に制御している。このため、移動方向および移動量を同時に制御する従来のポインティング・デバイス(マウス機器)と比べてユーザが簡単かつ小さな動作で操作でき、身体への負担が少ない上、装置もコンパクトで低価格なもので足りる。
(2)本発明の装置では、操作を行なう前に、装置をつけた状態で可動部位における傾き範囲をあらかじめ測定してマイコンに取り込み、それを分割して移動方向に割り当てている。このため、ユーザに応じて可動範囲を決定できる。すなわち、ユーザの身体の可動範囲がわずかな場合であっても利用できる。また、呼気に関しても同様に測定し、ユーザに合った設定をすることができる。
このため、本発明によれば、パソコンが利用可能なユーザ層が厚くなることが期待できる。
なお、本発明はマウス操作に限らず、ゲームなどの遊戯機のインターフェースにも応用可能である。
【図面の簡単な説明】
【図1】ユーザが寝たままの姿勢でマウス操作を行なう様子の例を示した図である。
【図2】本発明を、手先の細かな動作が可能なユーザ向けに実施する場合(実施例1)の構成例を示した図である。
【図3】本発明を、頭部を動かすことが可能で、押しボタンが使用できるユーザ向けに実施する場合(実施例2)の構成例を示した図である。
【図4】本発明を、頭部を動かすことが可能なユーザ向けに実施する場合(実施例3)の構成例を示した図である。
【図5】本発明を、口元を動かすことが可能なユーザ向けに実施する場合(実施例4)の構成例を示した図である。

Claims (15)

  1. コンピュータ・システムの表示画面上に表示されたカーソルの位置を入力するために、該カーソルの移動を操作するためのポインティング・デバイスであって、
    前記カーソルの移動方向を入力するための方向入力手段と、
    前記カーソルの移動量を入力するための移動入力手段と、
    前記方向入力手段及び移動入力手段からの入力により、前記カーソルの移動を制御する制御手段と
    を備えることを特徴とするポインティング・デバイス。
  2. 請求項1に記載のポインティング・デバイスにおいて、
    前記方向入力手段は、手首の回転角度を検出するセンサであることを特徴とするポインティング・デバイス。
  3. 請求項1に記載のポインティング・デバイスにおいて、
    前記方向入力手段は、頭の回転角度を検出するセンサであることを特徴とするポインティング・デバイス。
  4. 請求項2又は3に記載のポインティング・デバイスにおいて、
    前記方向入力手段は、前記検出した手首又は頭の回転角度に対し、あらかじめ、手首又は頭の回転の可動範囲を分割して前記カーソルの移動方向を割り当て、
    さらに、前記方向入力手段が入力した角度を表示するインジケータ
    を備えることを特徴とするポインティング・デバイス。
  5. 請求項4に記載のポインティング・デバイスにおいて、
    前記割り当ては、180度の範囲に対して行ない、
    前記移動入力手段は、前記移動量とともに、移動方向の+,−も指定することを特徴とするポインティング・デバイス。
  6. 請求項1〜5のいずれかに記載のポインティング・デバイスにおいて、
    前記移動入力手段は、ロータリーエンコーダであり、該ロータリーエンコーダのつまみの回転を検出して入力を行うことを特徴とするポインティング・デバイス。
  7. 請求項1〜5のいずれかに記載のポインティング・デバイスにおいて、
    前記移動入力手段は、ボタンであり、該ボタンへの接触又は押圧を検出して入力を行うことを特徴とするポインティング・デバイス。
  8. 請求項1〜5のいずれかに記載のポインティング・デバイスにおいて、
    前記移動入力手段は、息を吐く又は吸うことを検出するセンサであり、息を吐く又は吸うことを検出して入力を行うことを特徴とするポインティング・デバイス。
  9. 請求項1〜8のいずれかに記載のポインティング・デバイスにおいて、
    ボタンをさらに備えており、該ボタンへの接触又は押圧を検出してクリック操作を行うことを特徴とするポインティング・デバイス。
  10. 請求項1〜7のいずれかに記載のポインティング・デバイスにおいて、
    息を吐く又は吸うことを検出するセンサをさらに備えており、該センサへ息を吐く又は吸うことを検出してクリックを行うことを特徴とするポインティング・デバイス。
  11. 請求項8に記載のポインティング・デバイスにおいて、
    前記息を吐く又は吸うことを検出するセンサへ息を吐く又は吸うことを検出してクリックを行うことを特徴とするポインティング・デバイス。
  12. 請求項1に記載のポインティング・デバイスにおいて、
    息を吐く又は吸うことを検出するセンサを複数設け、各センサに前記カーソルの移動方向を割り当て、
    前記方向入力手段は、どのセンサに息を吐く又は吸うことにより方向の入力を行い、
    前記移動入力手段は、息を吐く又は吸うことを検出して移動量の入力を行うことを特徴とするポインティング・デバイス。
  13. 請求項12に記載のポインティング・デバイスにおいて、前記センサに息を吸う又は吐く動作によりクリックを行うことを特徴とするポインティング・デバイス。
  14. 請求項1〜13のいずれかに記載のポインティング・デバイスにおいて、
    前記制御手段は、前記コンピュータ・システムにおけるマウスと同様の出力信号を出力することを特徴とするポインティング・デバイス。
  15. 請求項14に記載のポインティング・デバイスにおいて、前記制御手段は、画面の上下・左右方向に対応する2つのモータの回転によりパルスを発生することを特徴とするポインティング・デバイス。
JP2003033260A 2003-02-12 2003-02-12 ポインティング・デバイス Pending JP2004246445A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003033260A JP2004246445A (ja) 2003-02-12 2003-02-12 ポインティング・デバイス

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003033260A JP2004246445A (ja) 2003-02-12 2003-02-12 ポインティング・デバイス

Publications (1)

Publication Number Publication Date
JP2004246445A true JP2004246445A (ja) 2004-09-02

Family

ID=33019296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003033260A Pending JP2004246445A (ja) 2003-02-12 2003-02-12 ポインティング・デバイス

Country Status (1)

Country Link
JP (1) JP2004246445A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2439553A (en) * 2006-06-01 2008-01-02 New Concept Gaming Ltd Video game control based on sensed gross body movements and a direction sensor
JP2009230182A (ja) * 2008-03-19 2009-10-08 Equos Research Co Ltd 情報入力装置
JP2009230185A (ja) * 2008-03-19 2009-10-08 Equos Research Co Ltd 情報入力装置
US7688307B1 (en) 2006-01-24 2010-03-30 Zilog, Inc. Determining the distance an object has moved using an accelerometer
KR101527205B1 (ko) * 2014-01-23 2015-06-09 동서대학교산학협력단 인코더를 이용한 손목 마우스 장치

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01133128A (ja) * 1987-11-19 1989-05-25 Canon Inc 座標入力装置
JPH0358214A (ja) * 1989-07-27 1991-03-13 Nec Corp ポインティングデータ入力装置
JPH0334130U (ja) * 1989-08-04 1991-04-03
JPH05127674A (ja) * 1991-06-21 1993-05-25 Yamaha Corp センサ収納具
JPH0728590A (ja) * 1993-07-07 1995-01-31 Tokin Corp データ入力装置
JPH1011220A (ja) * 1996-06-19 1998-01-16 Ricoh Co Ltd 1スイッチ入力装置
JPH10143320A (ja) * 1996-11-15 1998-05-29 Toho Business Kanri Center:Kk 位置入力装置および画像表示装置
JPH10232735A (ja) * 1997-02-18 1998-09-02 Sharp Corp 情報機器の入力装置
JPH10320108A (ja) * 1997-05-15 1998-12-04 Yuji Tsujimura カーソル移動装置
JP2000250699A (ja) * 1999-03-04 2000-09-14 Shimadzu Corp 視線入力装置
JP2002366275A (ja) * 2001-06-08 2002-12-20 Victor Co Of Japan Ltd 電子投票端末

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01133128A (ja) * 1987-11-19 1989-05-25 Canon Inc 座標入力装置
JPH0358214A (ja) * 1989-07-27 1991-03-13 Nec Corp ポインティングデータ入力装置
JPH0334130U (ja) * 1989-08-04 1991-04-03
JPH05127674A (ja) * 1991-06-21 1993-05-25 Yamaha Corp センサ収納具
JPH0728590A (ja) * 1993-07-07 1995-01-31 Tokin Corp データ入力装置
JPH1011220A (ja) * 1996-06-19 1998-01-16 Ricoh Co Ltd 1スイッチ入力装置
JPH10143320A (ja) * 1996-11-15 1998-05-29 Toho Business Kanri Center:Kk 位置入力装置および画像表示装置
JPH10232735A (ja) * 1997-02-18 1998-09-02 Sharp Corp 情報機器の入力装置
JPH10320108A (ja) * 1997-05-15 1998-12-04 Yuji Tsujimura カーソル移動装置
JP2000250699A (ja) * 1999-03-04 2000-09-14 Shimadzu Corp 視線入力装置
JP2002366275A (ja) * 2001-06-08 2002-12-20 Victor Co Of Japan Ltd 電子投票端末

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7688307B1 (en) 2006-01-24 2010-03-30 Zilog, Inc. Determining the distance an object has moved using an accelerometer
GB2439553A (en) * 2006-06-01 2008-01-02 New Concept Gaming Ltd Video game control based on sensed gross body movements and a direction sensor
JP2009230182A (ja) * 2008-03-19 2009-10-08 Equos Research Co Ltd 情報入力装置
JP2009230185A (ja) * 2008-03-19 2009-10-08 Equos Research Co Ltd 情報入力装置
KR101527205B1 (ko) * 2014-01-23 2015-06-09 동서대학교산학협력단 인코더를 이용한 손목 마우스 장치

Similar Documents

Publication Publication Date Title
WO2010110411A1 (ja) 頭部運動による入力装置
US20080211768A1 (en) Inertial Sensor Input Device
JPH10240433A (ja) 入力装置
US6801231B1 (en) Enhanced pointing device for handicapped users
CN109478093B (zh) 虚拟现实装置
JP2007504559A (ja) コンピュータ及びビデオゲーム用のハンドマニピュレート情報機器
JP3529354B2 (ja) ポインティングデバイス
JP2001522678A (ja) 人間の身体部位を訓練するための方法と装置
US20110025455A1 (en) Adaptive midi wind controller device
US20050264522A1 (en) Data input device
JP7390541B2 (ja) アニメーション制作システム
JP2008203911A (ja) ポインティング・デバイス、およびコンピュータ
US20060164392A1 (en) Integrated mouse and the keyboard device
US20080248871A1 (en) Interface device
US20060250364A1 (en) Ergonomic computer mouse
RU2662399C1 (ru) Система и способ для захвата движений и положения тела человека и частей тела человека
US20190004596A1 (en) Hands-free input method and intra-oral controller apparatus
Shibata et al. Improvement of a Joystick Controller for Electric Wheelchair User
JP2004246445A (ja) ポインティング・デバイス
JP3810012B2 (ja) 障害者用パソコン入力装置
JP2001243011A (ja) 口腔内で操作する電子機器入力用端末デバイス
EP1953625A1 (en) Peripheral inputting device for computers
US20030142069A1 (en) Hand-held ergonomic computer interface device
US20160139669A1 (en) Device for Intuitive Dexterous Touch and Feel Interaction in Virtual Worlds
US7145550B2 (en) Method and apparatus for reducing repetitive motion injuries in a computer user

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080226