JP6070833B2 - 入力装置及び入力プログラム - Google Patents

入力装置及び入力プログラム Download PDF

Info

Publication number
JP6070833B2
JP6070833B2 JP2015515673A JP2015515673A JP6070833B2 JP 6070833 B2 JP6070833 B2 JP 6070833B2 JP 2015515673 A JP2015515673 A JP 2015515673A JP 2015515673 A JP2015515673 A JP 2015515673A JP 6070833 B2 JP6070833 B2 JP 6070833B2
Authority
JP
Japan
Prior art keywords
line
cursor
sight
input device
sight position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015515673A
Other languages
English (en)
Other versions
JPWO2014181403A1 (ja
Inventor
哲典 田口
哲典 田口
雅芳 清水
雅芳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Application granted granted Critical
Publication of JP6070833B2 publication Critical patent/JP6070833B2/ja
Publication of JPWO2014181403A1 publication Critical patent/JPWO2014181403A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、入力装置等に関する。
画面上のカーソル位置を移動させる方法として、キーボードやマウスなどの他に、視線入力、傾き入力等がある。このうち視線入力は、マウスでカーソルを移動させる場合や傾き入力と比較して、遠い位置にカーソルをより早く移動させることが可能である。
ここで、視線入力では視線の位置にブレが生じるため、細かい位置の指定はマウスでカーソルを移動させる場合と比較してやりづらい。
そこで、大まかな位置の指定は他の方法と比べて有利だが、細部の位置の指定は他の方法と比べると不利な方法と、大まかな位置の指定は他の方法に比べて不利だが、細部の位置の指定は他の方法と比べると有利な方法とを組み合わせることが考えられる。例えば、大まかな位置の指定を、視線入力で行い、細かな位置の指定をマウスやキーボードで行うことが考えられる。
特開2009−64395号公報 特開2009−251658号公報 特開2007−121489号公報 特開平11−95910号公報
しかしながら、上述した従来技術では、利用者の意図しない位置を指定してしまうという問題がある。
例えば、大まかな位置の指定を視線入力で指定し、細かな位置の指定をマウスで指定する場合について説明する。視線入力は、利用者が格段の操作をしない限り、常に位置を指定する指示がなされていると判断されてしまう。このため、複数の位置指定の方法を組み合わせた場合に、他の方法で細部の位置を指定した後に、視線入力などの方法に切り替えると、他の方法で指定をした位置を移動させる意図がないときでも、別の位置に移動してしまう場合がある。
1つの側面では、利用者の意図しない位置を指定することを防止できる入力装置及び入力プログラムを提供することを目的とする。
第1の案では、入力装置は、視線位置検出部と、表示制御部とを有する。視線位置検出部は、画面上の視線位置を検出する。表示制御部は、現在の指定位置と、視線位置検出部が検出した視線位置とを比較し、指定位置と前記視線位置との距離が閾値以上となるまで、カーソル位置を前記指定位置に固定する。
本発明の1実施態様によれば、利用者の意図しない位置を指定することを防止できるという効果を奏する。
図1は、本実施例1に係る入力装置の構成を示す図である。 図2は、本実施例1に係る表示制御部の処理を説明するための図である。 図3は、本実施例1に係る入力装置の処理手順を示すフローチャートである。 図4は、本実施例2に係る入力装置の構成を示す図である。 図5は、本実施例2に係る表示制御部の処理を説明するための図である。 図6は、本実施例2に係る入力装置の処理手順を示すフローチャートである。 図7は、入力プログラムを実行するコンピュータの一例を示す図である。
以下に、本発明にかかる入力装置及び入力プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
本実施例1に係る入力装置の構成について説明する。図1は、本実施例1に係る入力装置の構成を示す図である。図1に示すように、この入力装置100は、カメラ110、光源120、タッチパネル130、センサ140、通信部150を有する。なお、その他の構成は、周知のタブレット端末と同様であるため、ここでは説明を省略する。
カメラ110は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などを用いた撮像装置である。カメラ110は、撮像範囲に含まれる被写体の画像を撮影し、撮影した被写体の画像データを、制御部170に出力する。
例えば、カメラ110は、画像を撮影するタイミングで、光源120を制御し、被写体に赤外線を照射させる。カメラ110が撮影する被写体に利用者の眼球が含まれる場合には、網膜上の光の反射がカメラ110によって捉えられ、眼球の瞳孔部分が他の部分よりも明るく写った画像が得られる。なお、上記のカメラ110は、入力装置100の出荷時から搭載されているカメラを利用しても良いし、外部接続されたデジタルカメラ等を利用しても良い。
光源120は、カメラ110の制御命令に応答して、赤外線を照射する装置である。
タッチパネル130は、表示と入力の二つの機能を備えたインターフェースである。タッチパネル130は、制御部170から出力される情報を表示する。例えば、タッチパネル130は、制御部170によって指定された位置にカーソルを表示させる。また、タッチパネル130は、タッチ操作を受け付けた場合に、触れられた画面位置の情報を制御部170に出力する。
センサ140は、加速による質量の位置変化を捉えることで、入力装置100の上下左右方向の加速度を計測するセンサである。センサ140は、計測した加速度の情報を、制御部170に出力する。
通信部150は、ネットワークに接続して他の装置とデータ通信を実行する処理部である。例えば、通信部150は、無線通信装置に対応する。後述する制御部170は、通信部150を介して、ネットワーク上の外部装置等とデータ通信を実行する。
記憶部160は、各種の情報を記憶する記憶装置である。例えば、記憶部160は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
制御部170は、視線位置検出部171、傾き検出部172、表示制御部173を有する。例えば、制御部170は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部170は、例えば、CPUやMPU(Micro Processing Unit)等の電子回路に対応する。
視線位置検出部171は、タッチパネル130上の視線位置を検出する処理部である。視線位置検出部171は、視線位置の情報を表示制御部173に出力する。例えば、視線位置検出部171は、カメラ110によって出力された被写体の画像に角膜反射法などのアルゴリズムを適用し、眼球の瞳孔の中心位置から視線の方向が指す視点の位置を検出する。係る視点の位置を、本実施例では視線位置とする。
なお、ここでは、角膜反射法を用いて視線位置を検出する場合について説明したが、他の方法を用いて視線位置を検出しても良い。例えば、入力装置100は、タッチパネル130の画面を分割し、分割した領域を見る眼の形状を学習しておき、カメラ110から入力される画像から抽出した眼の形状とテンプレートマッチングを実行することによって、視線位置を検出しても良い。また、入力装置100は、視線の位置を検出するヘッドセットを利用者に装着させ、ヘッドセットによって検出された視線の位置を取得しても良い。
傾き検出部172は、センサ140から加速度の情報を取得し、取得した加速度の情報を傾きに変換する処理部である。例えば、傾き検出部172は、加速度の値と、傾きの方向及び大きさとを対応付けた変換テーブルを保持し、係る変換テーブルを基にして、加速度の値を傾きの方向および大きさに変換する。以下の説明では、傾きの方向および大きさをまとめて適宜、傾き情報と表記する。傾き検出部172は、傾き情報を、表示制御部173に出力する。
表示制御部173は、視線位置および傾き情報を基にして、カーソル位置を特定し、特定したカーソル位置に対応するタッチパネル130上の位置にカーソルを表示させる処理部である。また、表示制御部173は、周知のタブレット端末と同様にして、各種の画像をタッチパネル130に表示させる。
まず、表示制御部173が、視線位置に合わせてカーソルを移動させる処理の一例について説明する。表示制御部173は、現在のカーソル位置と、視線位置とを比較し、現在のカーソル位置と視線位置との距離が閾値以上となるまで、カーソル位置を固定する処理を実行する。
図2は、本実施例1に係る表示制御部の処理を説明するための図である。図2では説明の便宜上、現在のカーソル10aの位置を位置1Aとする。表示制御部173は、位置1Aを中心とする半径Rの円の領域20に視線位置が存在するか否かによって、カーソル10aの位置を固定するか否かを判定する。表示制御部173は、視線位置が領域20に含まれる場合には、カーソル10aの位置を固定し、視線位置が領域20に含まれない場合には、カーソル10aの位置を、視線位置に移動させる。
図2において、表示制御部173は、視線位置が1Bである場合には、領域20に視線位置が含まれるため、カーソル10aの位置を固定する。視線位置が領域20に含まれる場合には、利用者の興味がカーソル10a付近に存在することを意味する。ここで、視線位置に合わせてカーソル10aを移動させてしまうと、視線位置のブレによって、カーソル10aを移動させづらい。このため、表示制御部173は、視線位置に合わせてカーソル10aを移動させない。なお、後述するように、表示制御部173は、傾き検出部172から取得する傾き情報に合わせて、カーソル10aを移動させる。
図2において、表示制御部173は、視線位置が1Cである場合には、領域20に視線位置が含まれていないため、カーソル10aの位置を、視線位置1Cに移動させる。視線位置が領域20に含まれていない場合には、利用者の興味がカーソル10a付近に存在しないことを意味するため、視線位置に合わせてカーソル10aを移動させても問題が無い。
続いて、表示制御部173が、傾き情報に合わせてカーソルを移動させる処理の一例について説明する。例えば、表示制御部173は、上記視線位置によるカーソルの移動処理を実行している間に、所定の切り替え指示を受け付けた場合に、傾き情報に合わせてカーソルを移動させる処理を開始する。例えば、表示制御部173は、タッチパネル130上に表示された開始ボタンが選択された場合や、傾きの大きさが閾値以上となった場合に、傾き情報に合わせてカーソルを移動させる処理を開始しても良い。
表示制御部173は、傾きの大きさとカーソルの移動量とを対応付けた対応テーブルを保持し、係る対応テーブルを基にして、カーソルを移動させる。カーソルの移動方向は、傾き情報に含まれる傾きの方向に合わせて移動させる。
表示制御部173は、上記図2に示したように、視線位置が1Bである場合には、領域20に視線位置が含まれるため、カーソル10aの位置を固定する。しかしながら、この固定は、視線位置に対するカーソルの移動を固定することを意味する。すなわち、表示制御部173は、傾き情報に合わせてカーソルを移動させる処理を実行している間に、領域20に視線位置が含まれる場合であっても、傾き情報に合わせてカーソル10aを移動させる。
表示制御部173は、タッチパネル130上の図示しない終了ボタンが選択された場合には、処理を終了する。
なお、表示制御部173は、視線位置によってカーソルの位置を移動させる処理を実行している間は、傾き検出部172の処理を一時的に停止させても良い。また、表示制御部173は、傾き情報によってカーソルの位置を移動させる処理を実行している間は、視線位置検出部171の処理を一時的に停止させても良い。
次に、本実施例1に係る入力装置100の処理手順について説明する。図3は、本実施例1に係る入力装置の処理手順を示すフローチャートである。例えば、図3に示す処理は、利用者の視線位置を検出したことを契機にして、処理を開始する。
図3に示すように、入力装置100は、視線位置を検出し(ステップS101)、視線位置にカーソルを表示する(ステップS102)。入力装置100は、開始ボタンが選択されたか否かを判定する(ステップS103)。入力装置100は、開始ボタンが選択されていない場合には(ステップS103,No)、ステップS101に移行する。
一方、入力装置100は、開始ボタンが選択された場合には(ステップS103,Yes)、傾きを検出し(ステップS104)、傾き情報に応じてカーソルを移動させる(ステップS105)。入力装置100は、視線位置を検出し(ステップS106)、視線位置とカーソル位置との距離が閾値以内であるか否かを判定する(ステップS107)。入力装置100は、視線位置とカーソル位置との距離が閾値以内でない場合には(ステップS107,No)、ステップS102に移行する。
一方、入力装置100は、視線位置とカーソル位置との距離が閾値以内である場合には(ステップS107,Yes)、カーソル位置を固定する(ステップS108)。入力装置100は、終了ボタンが選択されていない場合には(ステップS109,No)、ステップS104に移行する。一方、入力装置100は、終了ボタンが選択された場合には(ステップS109,Yes)、処理を終了する。
次に、本実施例1に係る入力装置100の効果について説明する。入力装置100は、タッチパネル130上の視線位置を検出し、現在のカーソル位置と、視線位置とを比較する。そして、入力装置100は、現在のカーソル位置と、視線位置との距離が閾値以上となるまで、カーソル位置を固定する。このため、入力装置100によれば、利用者の意図しない位置を指定することを防止できる。
また、入力装置100は、カーソル位置と視線位置との距離が閾値以上となるまで、視線位置に応じたカーソル位置を停止し、傾き検出部172が検出した傾き情報に応じて、カーソル位置を移動させる。このため、入力装置100によれば、利用者は視線によって大まかなカーソル位置を指定し、傾きによって、カーソル位置を微調整することが可能となる。
入力装置100は、視線位置によってカーソルの位置を移動させる処理を実行している間は、傾き検出部172の処理を一時的に停止させる。また、入力装置100は、傾き情報によってカーソルの位置を移動させる処理を実行している間は、視線位置検出部171の処理を一時的に停止させる。このため、入力装置100は、省電力化を図ることが可能となる。
なお、表示制御部173は、傾きの代わりに、入力装置100の移動方向によって、カーソルの位置を移動させても良い。すなわち、表示制御部173は、センサ140から加速度の情報を取得し、加速度と移動方向とを対応付けた対応テーブルを基にして、カーソルを移動させる。表示制御部173は、カーソル位置と視線位置との距離が閾値以上となるまで、視線位置に応じたカーソル位置を停止し、センサ140からの加速度に応じて、カーソル位置を移動させる。
本実施例2に係る入力装置の構成について説明する。図4は、本実施例2に係る入力装置の構成を示す図である。図4に示すように、この入力装置200は、カメラ110、光源120、タッチパネル130、センサ140、通信部150を有する。なお、その他の構成は、周知のタブレット端末と同様であるため、ここでは説明を省略する。
カメラ110、光源120、タッチパネル130、センサ140、通信部150、記憶部160に関する説明は、図1に示したカメラ110、光源120、タッチパネル130、センサ140、通信部150、記憶部160の説明と同様である。このため、各装置110〜160に関する説明は省略する。
制御部270は、視線位置検出部171、傾き検出部172、表示制御部273を有する。視線位置検出部171、傾き検出部172に関する説明は、図1に示した視線位置検出部171、傾き検出部172と同様であるため、同様の記号を付して説明を省略する。
表示制御部273は、視線位置および傾き情報を基にして、カーソル位置を特定し、特定したカーソル位置に対応するタッチパネル130上の位置にカーソルを表示させる処理部である。
図5は、本実施例2に係る表示制御部の処理を説明するための図である。表示制御部273は、まず、視線位置検出部171が検出した視線位置に合わせてカーソル10aの位置を移動させる。図5において、視線位置が1Dの場合には、表示制御部273は、カーソル10aを、視線位置1Dに移動させる。
そして、表示制御部273は、利用者によって開始ボタン30aが選択された場合には、傾き検出部172から取得する傾き情報によってカーソル10aの位置を移動させる。表示制御部273が、傾き情報によってカーソル10aの位置を移動させる処理は、実施例1の表示制御部173と同様である。
また、表示制御部273は、傾き情報によってカーソル10aの位置を移動させる処理を実行している間に、開始ボタン30aが選択された場合には、視線位置に合わせてカーソル10aの位置を移動させる処理に切り替える。なお、表示制御部273は、利用者によって終了ボタン30bが選択された場合には、処理を終了する。
次に、本実施例2に係る入力装置200の処理手順について説明する。図6は、本実施例2に係る入力装置の処理手順を示すフローチャートである。例えば、図6に示す処理は、利用者の視線位置を検出したことを契機にして、処理を開始する。
図6に示すように、入力装置200は、視線位置を検出し(ステップS201)、視線位置にカーソルを表示する(ステップS202)。入力装置200は、開始ボタンが選択されたか否かを判定する(ステップS203)。入力装置200は、開始ボタンが選択されていない場合には(ステップS203,No)、ステップS201に移行する。
一方、入力装置200は、開始ボタンが選択された場合には(ステップS203,Yes)、傾きを検出し(ステップS204)、傾き情報に応じてカーソルを移動させる(ステップS205)。入力装置200は、開始ボタンが選択されたか否かを判定する(ステップS206)。入力装置200は、開始ボタンが選択された場合には(ステップS206,Yes)、ステップS201に移行する。
一方、入力装置200は、開始ボタンが選択されていない場合には(ステップS206,No)、終了ボタンが選択されたか否かを判定する(ステップS207)。入力装置200は、終了ボタンが選択されていない場合には(ステップS207,No)、ステップS204に移行する。一方、入力装置200は、終了ボタンが選択された場合には(ステップS207,Yes)、カーソル位置を固定する(ステップS208)。入力装置200は、カーソル位置を固定した後、カーソル位置に対応した各種の処理を実行する。
次に、本実施例2に係る入力装置200の効果について説明する。入力装置200は、視線位置検出部171が検出した視線位置にカーソル位置を移動させるのか、傾き検出部172が検出した傾きに応じてカーソル位置を移動させるのかを受け付け、カーソル位置を移動させる。このため、利用者は、視線により位置を指定するのか、傾きにより位置を指定するのかを選択でき、効率的に所望の位置にカーソルを移動させることができる。
なお、入力装置200は、表示制御部273の処理と、表示制御部173の処理と組み合わせて実行しても良い。
次に、上記の実施例に示した入力装置と同様の機能を実現する支援プログラムを実行するコンピュータの一例を説明する。図7は、入力プログラムを実行するコンピュータの一例を示す図である。
図7に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付けると共に、各種の情報を表示するタッチパネル302を有する。コンピュータ300は、記憶媒体からプログラム等を読取る読み取り装置303と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置304とを有する。コンピュータ300は、カメラ305、加速度を検出するセンサ306を有する。コンピュータ307は、各種情報を一時記憶するRAM306と、記憶装置308を有する。そして、各装置301〜308は、バス309に接続される。
記憶装置308は、視線位置検出プログラム308a、傾き検出プログラム308b、表示制御プログラム308cを有する。CPU301は、各プログラム308a,308b,308cを読み出してRAM307に展開する。
視線位置検出プログラム308aは、視線位置検出プロセス307aとして機能する。傾き検出プログラム308bは、傾き検出プロセス307bとして機能する。表示制御プログラム308cは、表示制御プロセス307cとして機能する。
例えば、視線位置検出プロセス307aは、視線位置検出部171に対応する。傾き検出プロセス307bは、傾き検出部172に対応する。表示制御プロセス307cは、表示制御部173,273に対応する。
なお、各プログラム308a〜308cについては、必ずしも最初から記憶装置308に記憶させておかなくてもよい。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300がこれらから各プログラム308a〜308cを読み出して実行するようにしてもよい。
100,200 入力装置
170,270 制御部
171 視線位置検出部
172 傾き検出部
173 表示制御部

Claims (5)

  1. 画面上の視線位置を検出する視線位置検出部と、
    現在の指定位置と、視線位置検出部が検出した視線位置とを比較し、前記指定位置と前記視線位置との距離が閾値以上となるまで、カーソル位置を前記指定位置に固定し、前記指定位置と前記視線位置との距離が前記閾値以上でない場合であっても、自入力装置の傾き情報に応じて、前記カーソル位置を移動させる表示制御部と
    を有することを特徴とする入力装置。
  2. 自入力装置の傾きを検出する傾き検出部を更に有し、
    前記表示制御部は、前記指定位置と前記視線位置との距離が閾値以上となるまで、前記視線位置に応じたカーソル位置を停止し、前記傾き検出部が検出した傾きに応じて、前記カーソル位置を移動させることを特徴とする請求項1に記載の入力装置。
  3. 前記表示制御部は、前記視線位置に応じて前記カーソル位置を移動させる間は、前記傾き検出部の処理を停止し、前記傾きに応じて前記カーソル位置を移動させる間は、前記視線位置検出部の処理を停止することを特徴とする請求項2に記載の入力装置。
  4. 前記表示制御部は、視線位置検出部が検出した視線位置に前記カーソル位置を移動させるのか、傾き検出部が検出した傾きに応じて前記カーソル位置を移動させるのかを示す制御情報を取得し、取得した制御情報を基にして、前記カーソル位置を移動させることを特徴とする請求項3に記載の入力装置。
  5. コンピュータに、
    画面上の視線位置を検出し、
    現在の指定位置と、検出した視線位置とを比較し、前記指定位置と前記視線位置との距離が閾値以上となるまで、カーソル位置を前記指定位置に固定し、前記指定位置と前記視線位置との距離が前記閾値以上でない場合であっても、前記コンピュータの傾き情報に応じて、前記カーソル位置を移動させる
    各処理を実行することを特徴とする入力プログラム。
JP2015515673A 2013-05-08 2013-05-08 入力装置及び入力プログラム Expired - Fee Related JP6070833B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/062949 WO2014181403A1 (ja) 2013-05-08 2013-05-08 入力装置及び入力プログラム

Publications (2)

Publication Number Publication Date
JP6070833B2 true JP6070833B2 (ja) 2017-02-01
JPWO2014181403A1 JPWO2014181403A1 (ja) 2017-02-23

Family

ID=51866907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015515673A Expired - Fee Related JP6070833B2 (ja) 2013-05-08 2013-05-08 入力装置及び入力プログラム

Country Status (6)

Country Link
US (1) US9804671B2 (ja)
EP (1) EP2996020A4 (ja)
JP (1) JP6070833B2 (ja)
KR (1) KR101780138B1 (ja)
CN (1) CN105190515A (ja)
WO (1) WO2014181403A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6070833B2 (ja) * 2013-05-08 2017-02-01 富士通株式会社 入力装置及び入力プログラム
WO2014205422A2 (en) * 2013-06-20 2014-12-24 Parshionikar Uday Systems, methods, apparatuses, computer readable medium for controlling electronic devices
US20190265802A1 (en) * 2013-06-20 2019-08-29 Uday Parshionikar Gesture based user interfaces, apparatuses and control systems
US10558272B2 (en) * 2013-06-20 2020-02-11 Uday Parshionikar Gesture control via eye tracking, head tracking, facial expressions and other user actions
US10884493B2 (en) * 2013-06-20 2021-01-05 Uday Parshionikar Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions
US20150169048A1 (en) * 2013-12-18 2015-06-18 Lenovo (Singapore) Pte. Ltd. Systems and methods to present information on device based on eye tracking
US10180716B2 (en) 2013-12-20 2019-01-15 Lenovo (Singapore) Pte Ltd Providing last known browsing location cue using movement-oriented biometric data
US10133346B2 (en) * 2014-05-30 2018-11-20 Koç Üniversitesi Gaze based prediction device and method
JP6416598B2 (ja) * 2014-11-27 2018-10-31 京セラ株式会社 携帯端末及び制御方法
KR102325339B1 (ko) * 2014-12-24 2021-11-11 삼성전자주식회사 사용자의 움직임을 검출하여 사용자 입력을 수신하는 방법 및 이를 위한 장치
KR102471370B1 (ko) * 2015-02-23 2022-11-28 소니그룹주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
US9983695B2 (en) * 2015-03-19 2018-05-29 Lenovo (Singapore)Pte. Ltd. Apparatus, method, and program product for setting a cursor position
US10565446B2 (en) 2015-09-24 2020-02-18 Tobii Ab Eye-tracking enabled wearable devices
US9830513B2 (en) * 2015-09-24 2017-11-28 Tobii Ab Systems and methods for panning a display of a wearable device
JP6597397B2 (ja) * 2016-02-29 2019-10-30 富士通株式会社 ポインティング支援装置、ポインティング支援方法およびポインティング支援プログラム
EP3449337B1 (en) 2016-04-29 2023-01-04 Tobii AB Eye-tracking enabled wearable devices
WO2018042639A1 (ja) * 2016-09-02 2018-03-08 楽天株式会社 情報処理装置、情報処理方法、及びプログラム
US10831265B2 (en) * 2018-04-20 2020-11-10 Microsoft Technology Licensing, Llc Systems and methods for gaze-informed target manipulation
US10871874B2 (en) * 2018-05-09 2020-12-22 Mirametrix Inc. System and methods for device interaction using a pointing device and attention sensing device
US20190361521A1 (en) * 2018-05-22 2019-11-28 Microsoft Technology Licensing, Llc Accelerated gaze-supported manual cursor control
US10890967B2 (en) * 2018-07-09 2021-01-12 Microsoft Technology Licensing, Llc Systems and methods for using eye gaze to bend and snap targeting rays for remote interaction
CN109101110A (zh) * 2018-08-10 2018-12-28 北京七鑫易维信息技术有限公司 一种操作指令执行方法、装置、用户终端及存储介质
US11353952B2 (en) 2018-11-26 2022-06-07 Tobii Ab Controlling illuminators for optimal glints
US11514602B2 (en) 2018-12-25 2022-11-29 Samsung Electronics Co., Ltd. Method and apparatus for gaze estimation
DE102021104127A1 (de) * 2021-02-22 2022-08-25 Christian-Albrechts-Universität zu Kiel, Körperschaft des öffentlichen Rechts Verfahren zum Betreiben eines mobilen Computergeräts, Computerprogramm und mobiles Computergerät
JP7790882B2 (ja) * 2021-06-30 2025-12-23 キヤノン株式会社 制御装置およびその制御方法
US12204689B2 (en) * 2022-09-27 2025-01-21 Tobii Dynavox Ab Method, system, and computer program product for drawing and fine-tuned motor controls
US12026366B2 (en) * 2022-10-25 2024-07-02 Robert Bosch Gmbh System and method for coarse and fine selection keyboard user interfaces

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08335135A (ja) * 1995-06-07 1996-12-17 Canon Inc 情報処理装置
JPH1195910A (ja) 1997-09-17 1999-04-09 Citizen Watch Co Ltd ポインティングデバイス
JP3201333B2 (ja) * 1998-03-10 2001-08-20 日本電気株式会社 ポインティングデバイス
JP2001100903A (ja) * 1999-09-28 2001-04-13 Sanyo Electric Co Ltd 視線検出機能搭載装置
JP2004287823A (ja) * 2003-03-20 2004-10-14 Seiko Epson Corp ポインティング操作支援システム
JP2006113859A (ja) 2004-10-15 2006-04-27 Nec Corp 携帯情報端末及びその表示制御方法
JP4951751B2 (ja) * 2005-04-26 2012-06-13 国立大学法人静岡大学 瞳孔検出に基づくポインティング装置及び方法
JP4977995B2 (ja) 2005-10-26 2012-07-18 日本電気株式会社 携帯表示装置
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
JP2009064395A (ja) 2007-09-10 2009-03-26 Hiroshima Univ ポインティングデバイス、操作者の注視位置とカーソルの位置との誤差の補正をコンピュータに実行させるためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4884417B2 (ja) 2008-04-01 2012-02-29 富士フイルム株式会社 携帯型電子装置及びその制御方法
JP5446624B2 (ja) * 2009-09-07 2014-03-19 ソニー株式会社 情報表示装置、情報表示方法及びプログラム
KR101394719B1 (ko) 2009-09-29 2014-05-15 알까뗄 루슨트 주시점을 검출하는 방법, 장치 및 다중 스크린 컴퓨터
CN101943957A (zh) * 2010-07-23 2011-01-12 康佳集团股份有限公司 一种带加速度传感器的触摸屏手机和鼠标输入的方法
US20120188148A1 (en) * 2011-01-24 2012-07-26 Microvision, Inc. Head Mounted Meta-Display System
US8643680B2 (en) * 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display
CN102279647A (zh) * 2011-06-20 2011-12-14 中兴通讯股份有限公司 一种移动终端及其实现光标移动的方法
US9069164B2 (en) * 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
JP2013073330A (ja) 2011-09-27 2013-04-22 Nec Casio Mobile Communications Ltd 携帯型電子機器、タッチ領域設定方法およびプログラム
US20140009739A1 (en) * 2012-06-14 2014-01-09 Lindsay Greco Wearable apparatus and ir configuration for optimizing eye-tracking used for human computer interaction
TWI488070B (zh) * 2012-12-07 2015-06-11 Pixart Imaging Inc 電子裝置控制方法以及使用此電子裝置控制方法的電子裝置
JP6070833B2 (ja) * 2013-05-08 2017-02-01 富士通株式会社 入力装置及び入力プログラム
US9965062B2 (en) * 2013-06-06 2018-05-08 Microsoft Technology Licensing, Llc Visual enhancements based on eye tracking
US9940900B2 (en) * 2013-09-22 2018-04-10 Inuitive Ltd. Peripheral electronic device and method for using same
US9955895B2 (en) * 2013-11-05 2018-05-01 The Research Foundation For The State University Of New York Wearable head-mounted, glass-style computing devices with EOG acquisition and analysis for human-computer interfaces
WO2015148738A1 (en) * 2014-03-26 2015-10-01 Unanimous A.I. LLC Methods and systems for real-time closed-loop collaborative intelligence
US9645641B2 (en) * 2014-08-01 2017-05-09 Microsoft Technology Licensing, Llc Reflection-based control activation

Also Published As

Publication number Publication date
EP2996020A4 (en) 2016-05-25
WO2014181403A1 (ja) 2014-11-13
EP2996020A1 (en) 2016-03-16
KR20150138360A (ko) 2015-12-09
JPWO2014181403A1 (ja) 2017-02-23
US9804671B2 (en) 2017-10-31
KR101780138B1 (ko) 2017-09-19
US20160048223A1 (en) 2016-02-18
CN105190515A (zh) 2015-12-23

Similar Documents

Publication Publication Date Title
JP6070833B2 (ja) 入力装置及び入力プログラム
US9098135B2 (en) Tablet terminal and recording medium
KR101500843B1 (ko) 태블릿 단말기, 조작 접수 방법 및 조작 접수 프로그램을 기록한 기록매체
US9507420B2 (en) System and method for providing haptic feedback to assist in capturing images
US10649313B2 (en) Electronic apparatus and method for controlling same
US9952667B2 (en) Apparatus and method for calibration of gaze detection
JP6123694B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20110248942A1 (en) Image pick-up apparatus, detection-frame adjustment method, and program
US10375312B2 (en) Imaging device and video generation method by imaging device
CN105474136A (zh) 信息处理设备、信息处理方法和程序
US20150234461A1 (en) Display control device, display control method and recording medium
US9912858B2 (en) Image capturing apparatus and control method thereof
US9264603B2 (en) Imaging apparatus and imaging method
US20190014246A1 (en) Image capturing apparatus with operation members provided on different sides, control method of the same, and storage medium
JP5229928B1 (ja) 注視位置特定装置、および注視位置特定プログラム
KR102614026B1 (ko) 복수의 렌즈를 구비하는 전자 장치 및 그 제어 방법
JP6079418B2 (ja) 入力装置および入力プログラム
JP7613376B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6823988B2 (ja) 画面操作方法及び画面操作装置
JP2018006803A (ja) 撮像装置、撮像装置の制御方法及びプログラム
JP2015207908A (ja) 情報処理装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161219

R150 Certificate of patent or registration of utility model

Ref document number: 6070833

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees