JP2010277340A - 入力装置及び入力方法 - Google Patents

入力装置及び入力方法 Download PDF

Info

Publication number
JP2010277340A
JP2010277340A JP2009129203A JP2009129203A JP2010277340A JP 2010277340 A JP2010277340 A JP 2010277340A JP 2009129203 A JP2009129203 A JP 2009129203A JP 2009129203 A JP2009129203 A JP 2009129203A JP 2010277340 A JP2010277340 A JP 2010277340A
Authority
JP
Japan
Prior art keywords
target
display screen
line
sight
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009129203A
Other languages
English (en)
Inventor
Shinmin Ko
新民 黄
Susumu Furushima
進 古島
Takuya Tanaka
拓也 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009129203A priority Critical patent/JP2010277340A/ja
Publication of JP2010277340A publication Critical patent/JP2010277340A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

【課題】繰り返し微調整する必要をなくするとともに、表示画面上に表示される項目を選択するまでの時間を短くすること。
【解決手段】表示部107は、画像を表示する表示画面を有する。目標対象領域移動決定部104は、カメラ101により撮影した画像より、表示画面上における目線の位置を検出する。第1の目標対象選定部105は、表示画面上における、目線の位置を含む目標対象領域を決定するとともに、目標対象領域に表示される複数の対象物を選択する。第2の目標対象選定部106は、第1の目標対象選定部105により選択した複数の対象物のうち、目線の位置に対応する対象物を選択する。
【選択図】図1

Description

本発明は、例えば目の動きに応じて画面上のカーソルを移動させる入力装置及び入力方法に関する。
従来、ユーザの顔画像から眼球の黒目部分の動きを検出し、黒目部分の移動によりポインティングの制御を行う入力方法が知られている(例えば、特許文献1)。具体的には、ユーザの眼球の黒目部分の動きをポインティングデバイスの操作情報に置き換え、表示画面上の項目選択手段を黒目部分の動きに対応する方向に移動させるとともに、所定時間内に2回の瞬きを検出した場合に、項目選択手段の位置において選択確定処理を行う。
特開2007−102415号公報
しかしながら、特許文献1においては、眼球の黒目部分の動きの検出誤差が大きいので、表示画面上に表示される項目を選択するまでに繰り返し微調整を行う必要があるという問題がある。特に、表示画面が小さい場合、または表示画面上の狭い領域内において項目選択手段を移動させる場合には、上記の問題は顕著である。
本発明はかかる点に鑑みてなされたものであり、繰り返し微調整する必要をなくすることができるとともに、表示画面上に表示される項目を選択するまでの時間を短くすることができる入力装置及び入力方法を提供することを目的とする。
本発明の入力装置は、撮影手段と、画像を表示する表示画面を有する表示手段と、前記撮影手段により撮影した画像より前記表示画面上における目線の位置を検出する位置検出手段と、前記表示画面上における、前記目線の位置を含む所定の領域を決定するとともに、前記領域に表示される複数の対象物を選択する第1の選択手段と、選択した前記複数の対象物のうち、前記目線の位置に対応する対象物を選択する第2の選択手段と、を具備する構成を採る。
本発明の入力方法は、表示画面を有する入力装置における入力方法であって、撮影した画像より前記表示画面上における目線の位置を検出するステップと、前記表示画面上における、前記目線の位置を含む所定の領域を決定するとともに、前記領域に表示される複数の対象物を選択するステップと、選択した前記複数の対象物のうち、前記目線の位置に対応する対象物を選択するステップと、を具備するようにした。
本発明によれば、繰り返し微調整する必要をなくすることができるとともに、表示画面上に表示される項目を選択するまでの時間を短くすることができる。
本発明の実施の形態1に係る入力装置の構成を示すブロック図 本発明の実施の形態1に係る入力装置の動作を示すフロー図 本発明の実施の形態1に係る眼球の黒目部分と表示画面との関係を示す図 本発明の実施の形態2に係る入力装置の構成を示すブロック図 本発明の実施の形態2に係る入力装置の動作を示すフロー図 本発明の実施の形態2に係るユーザと表示画面との距離が遠い場合の眼球の黒目部分と表示画面との関係を示す図 本発明の実施の形態2に係るユーザと表示画面との距離が近い場合の眼球の黒目部分と表示画面との関係を示す図 本発明の実施の形態3に係る入力装置の構成を示すブロック図 本発明の実施の形態3に係る入力装置の動作を示すフロー図 本発明の実施の形態3に係るユーザの目線が上方向に移動した場合の眼球の黒目部分と表示画面との関係を示す図 本発明の実施の形態3に係るユーザの目線が右上方向に移動した場合の眼球の黒目部分と表示画面との関係を示す図 本発明の実施の形態3に係る目標対象領域形状決定部における目標対象領域の形状を決定する処理を説明する図
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
(実施の形態1)
図1は、本発明の実施の形態1に係る入力装置100の構成を示すブロック図である。
入力装置100は、カメラ101と、画像処理部102と、移動検出部103と、目標対象領域移動決定部104と、第1の目標対象選定部105と、第2の目標対象選定部106と、表示部107とから主に構成される。また、入力装置100は、例えば携帯電話等の通信端末装置に搭載される。以下に、各構成について詳細に説明する。
カメラ101は、入力装置100のユーザの目に焦点を合わせて撮影する。そして、カメラ101は、撮影した画像の画像データを画像処理部102へ出力する。
画像処理部102は、カメラ101から入力した画像データより、眼球の黒目部分の大きさ及び位置を検出する。そして、画像処理部102は、検出結果を移動検出部103へ出力する。眼球の黒目部分の大きさ及び位置の検出は、既知の方法を用いる。
移動検出部103は、画像処理部102から入力する検出結果に基づいて、所定時間における眼球の黒目部分の位置の変化を検出し、眼球の黒目部分の移動方向及び所定時間における移動量を検出する。そして、移動検出部103は、検出結果を目標対象領域移動決定部104へ出力する。
目標対象領域移動決定部104は、移動検出部103から入力した検出結果における移動方向及び移動量を、後述する表示部107の表示画面上における目線の位置に変換して、表示部107の表示画面上における目線の位置の移動方向及び移動量を制御する。例えば、目標対象領域移動決定部104は、カメラ101において撮影したユーザの目の画像をマトリクス状にするとともに、表示部107の表示画面をマトリクス状にし、マトリクス状にした目の画像における黒目部分の位置座標を、マトリクス状にした表示画面の位置座標に変換する。そして、目標対象領域移動決定部104は、表示画面上における目線の位置情報を第1の目標対象選定部105及び第2の目標対象選定部106へ出力する。
第1の目標対象選定部105は、目標対象領域移動決定部104から入力した表示画面上における目線の位置情報に基づいて、表示画面上の目標対象領域として、目線の位置を含む目標対象領域を決定する。また、第1の目標対象選定部105は、目標対象領域移動決定部104から入力した表示画面上における目線の位置情報と現在の目標対象領域とを比較して、目線の位置が現在の目標対象領域内または現在の目標対象領域外であるか否かを判定する。また、第1の目標対象選定部105は、目線の位置が現在の目標対象領域外であると判定した場合には、移動後の表示画面上における目線の位置情報に基づいて、新たに目標対象領域を決定する。また、第1の目標対象選定部105は、決定した目標対象領域を第2の目標対象選定部106及び表示部107へ出力する。
第2の目標対象選定部106は、目標対象領域移動決定部104から入力した表示画面上における目線の位置情報に基づいて、第1の目標対象選定部105から入力した目標対象領域内の複数の目標対象のうち、目線の位置に対応する目標対象を選択する。また、第2の目標対象選定部106は、選択した目標対象を表示部107へ出力する。
表示部107は、図示しない表示画面を有し、目標対象領域移動決定部104の制御に従って、表示画面上における目線の位置にカーソルを表示する。また、表示部107は、第1の目標対象選定部105から入力した目標対象領域を表示画面上に表示する。また、表示部107は、第2の目標対象選定部106において選択した目標対象を表示する。以上で、入力装置100の構成の説明を終える。
次に、入力装置100の動作について、図2を用いて説明する。図2は、入力装置100の動作を示すフロー図である。
最初に、入力装置100は、ユーザ操作等により、目線に応じて表示画面上の目線の位置を移動させるモードである目線モードの動作を開始する(ステップST201)。
次に、カメラ101は、入力装置100を操作するユーザの目にフォーカスする(ステップST202)。
次に、移動検出部103は、眼球の黒目部分の移動方向及び所定時間における移動量を検出し、目標対象領域移動決定部104は、移動検出部103による移動方向及び移動量の検出結果を、表示部107の表示画面上における目線の位置の移動方向及び移動量に変換する(ステップST203)。
次に、第1の目標対象選定部105は、目線の位置を中心とする目標対象領域を決定する。また、第1の目標対象選定部105は、現在の目標対象領域と表示画面上における目線の位置とを比較して、目線の位置が現在の目標対象領域外であるか否かを判定する(ステップST204)。なお、目標対象領域がまだ決定されていない初期の段階の際には、ステップST204の判定を飛ばしてステップST205に処理を進める。
目線の位置が現在の目標対象領域外である場合には(ステップST204:Yes)、第1の目標対象選定部105は、現在の目標対象領域を、表示画面上における目線の位置を中心とする新規な目標対象領域にする(ステップST205)。なお、ステップST205において、目標対象領域がまだ決定されていない初期の段階の際には、第1の目標対象選定部105は、目標対象領域を新規に決定する。
一方、目線の位置が現在の目標対象領域内である場合には(ステップST204:No)、入力装置100は、ステップST205を飛ばしてステップST206に処理を進める。
また、第2の目標対象選定部106は、目標対象領域内の目標対象を選定する(ステップST206)。
次に、入力装置100は、目線モードを停止するか否かを判定する(ステップST207)。
そして、入力装置100は、目線モードを停止しない場合には(ステップST207:No)、ステップST203に処理を戻し、目線モードを停止する場合には(ステップST207:Yes)、目線モードを終了する(ステップST208)。
このように、本実施の形態では、目標対象の選択処理を、目標対象領域内に表示される目標対象の選択と目標対象領域内に表示される目標対象の中からの選択との二段階に分けて行う。また、ステップST204において、第1の目標対象選定部105は、目線の位置が現在の目標対象領域内あると判定した場合、新規に目標対象領域を決定することはない。この結果、目標対象領域内の複数の目標対象の中から目標対象を選択する第2の目標対象選定部106における処理のみを継続する。
図3は、眼球の黒目部分と表示画面との関係を示す図である。図3より、第1の目標対象選定部105は、表示画面#302において、ユーザの眼球の黒目部分#301の目線r1に応じた目標対象領域e1を決定する。目標対象領域e1には、複数の目標対象#311、#312が含まれる。目標対象#311、#312は、例えばメニュー画面において各メニューを選択する画面上のスイッチである。また、第2の目標対象選定部106は、目標対象領域e1内の目標対象#311、#312の何れにカーソルを移動させるかを決定する。この際、第2の目標対象選定部106は、目標対象領域e1内の目標対象#311及び目標対象#312のみに着目して決定処理を行う。そして、第2の目標対象選定部106は、最終的に、目標対象#311にカーソルを移動させることを決定し、目標対象#311が選択される。
また、移動検出部103及び目標対象領域移動決定部104は、眼球の黒目部分#301の目線r1から目線r2への移動を検出し、第1の目標対象選定部105は、現在のカーソルの位置と目標対象領域e1とを比較して、現在のカーソルの位置が目標対象領域e1外であることを検出する。この場合、第1の目標対象選定部105は、現在のカーソルの位置を中心とする新たな目標対象領域e2を決定する。目標対象領域e2には、複数の目標対象#313、#314、#315が含まれる。目標対象#313、#314、#315は、例えばメニュー画面において各メニューを選択する画面上のスイッチである。また、第2の目標対象選定部106は、目標対象領域e2内の目標対象#313、#314、#315の何れにカーソルを移動させるかを決定する。この際、第2の目標対象選定部106は、目標対象領域e2内の目標対象#313と、目標対象#314と、目標対象#315のみに着目して決定処理を行う。そして、第2の目標対象選定部106は、最終的に、目標対象#315にカーソルを移動させることを決定し、目標対象#315が選択される。
このように、本実施の形態によれば、目線の位置を中心とする目標対象領域を決定し、続けて目標対象領域内の目標対象のみに着目して目標対象を選択することにより、目標対象を選択するまでに、検出結果を繰り返し微調整する必要をなくすることができるとともに、表示画面上に表示される項目を選択するまでの時間を短くすることができる。また、本実施の形態によれば、目線の位置が目標対象領域外に移動しない限り、新規の目標対象領域を決定しないことより、黒目部分が僅かに動いた程度であれば、第2の目標対象選定部における選択処理のみを継続するので、選択処理に伴う処理負荷を軽減することができる。
(実施の形態2)
図4は、本発明の実施の形態2に係る入力装置400の構成を示すブロック図である。
図4に示す入力装置400は、図1に示す実施の形態1に係る入力装置100に対して、距離検出部401及び目標対象領域サイズ決定部402を追加し、第1の目標対象選定部105の代わりに第1の目標対象選定部403を有する。なお、図4において、図1と同一構成である部分には同一の符号を付してその説明を省略する。
入力装置400は、カメラ101と、画像処理部102と、移動検出部103と、目標対象領域移動決定部104と、第2の目標対象選定部106と、表示部107と、距離検出部401と、目標対象領域サイズ決定部402と、第1の目標対象選定部403とから主に構成される。また、入力装置400は、例えば携帯電話等の通信端末装置に搭載される。
画像処理部102は、カメラ101から入力した画像データより、眼球の黒目部分の大きさ及び位置を検出する。そして、画像処理部102は、検出結果を移動検出部103及び距離検出部401へ出力する。
距離検出部401は、画像処理部102から入力した検出結果に基づいて、ユーザの目と表示画面との距離を検出する。そして、距離検出部401は、検出結果を目標対象領域サイズ決定部402へ出力する。
目標対象領域サイズ決定部402は、距離検出部401から入力した検出結果に基づいて、目標対象領域の表示画面上におけるサイズを決定する。具体的には、目標対象領域サイズ決定部402は、ユーザの目と表示画面との距離が近いほど小さい表示面積になるようなサイズを決定する。また、目標対象領域サイズ決定部402は、例えば、距離と目標対象領域の表示画面上の半径とを対応付けたサイズ選択用情報を記憶し、距離検出部401から入力した距離の検出結果を用いてサイズ選択用情報を参照することにより、目標対象領域の表示画面上の半径を選択してサイズを決定する。そして、目標対象領域サイズ決定部402は、決定したサイズを第1の目標対象選定部403に通知するとともに、決定したサイズの目標対象領域を表示画面上に表示するように表示部107を制御する。
目標対象領域移動決定部104は、移動検出部103から入力した検出結果における移動方向及び移動量を、表示部107の表示画面上における目線の位置に変換して、表示部107の表示画面上における目線の位置の移動方向及び移動量を制御する。そして、目標対象領域移動決定部104は、表示画面上における目線の位置情報を第1の目標対象選定部403及び第2の目標対象選定部106へ出力する。
第1の目標対象選定部403は、目標対象領域移動決定部104から入力した表示画面上における目線の位置情報、及び目標対象領域サイズ決定部402から通知された目標対象領域のサイズに基づいて、表示画面上の目標対象領域として、目線の位置を含む目標対象領域を決定する。また、第1の目標対象選定部403は、目標対象領域移動決定部104から入力した表示画面上における目線の位置情報と現在の目標対象領域とを比較して、目線の位置が現在の目標対象領域内または現在の目標対象領域外であるか否かを判定する。また、第1の目標対象選定部403は、目線の位置が現在の目標対象領域外であると判定した場合には、移動後の表示画面上における目線の位置情報及び目標対象領域サイズ決定部402から入力したサイズに基づいて、新たに目標対象領域を決定する。また、第1の目標対象選定部403は、決定した目標対象領域を第2の目標対象選定部106及び表示部107へ出力する。
第2の目標対象選定部106は、目標対象領域移動決定部104から入力した表示画面上における目線の位置情報に基づいて、第1の目標対象選定部403から入力した目標対象領域内の複数の目標対象のうち、目線の位置に対応する目標対象を選択する。また、第2の目標対象選定部106は、選択した目標対象を表示部107へ出力する。以上で、入力装置400の構成の説明を終える。
次に、入力装置400の動作について、図5を用いて説明する。図5は、入力装置400の動作を示すフロー図である。
最初に、入力装置400は、ユーザ操作等により、目線に応じて表示画面上の目線の位置を移動させるモードである目線モードの動作を開始する(ステップST501)。
次に、カメラ101は、入力装置400を操作するユーザの目にフォーカスする(ステップST502)。
次に、距離検出部401は、ユーザの目と表示画面との距離を検出し、目標対象領域サイズ決定部402は、検出した距離に基づいて目標対象領域のサイズを決定する(ステップST503)。
次に、移動検出部103は、眼球の黒目部分の移動方向及び所定時間における移動量を検出し、目標対象領域移動決定部104は、移動検出部103による移動方向及び移動量の検出結果を、表示部107の表示画面上における目線の位置の移動方向及び移動量に変換する(ステップST504)。
次に、第1の目標対象選定部403は、現在の目標対象領域と目線の位置とを比較して、目線の位置が現在の目標対象領域外であるか否かを判定する(ステップST505)。なお、目標対象領域がまだ決定されていない初期の段階の際には、ステップST505の判定を飛ばしてステップST506に処理を進める。
目線の位置が現在の目標対象領域外である場合には(ステップST505:Yes)、目標対象領域移動決定部104は、現在の目標対象領域を、表示画面上における目線の位置を中心とする新規な目標対象領域にする(ステップST506)。なお、ステップST506において、目標対象領域がまだ決定されていない初期の段階の際には、目標対象領域を新規に決定する。
一方、目線の位置が現在の目標対象領域内である場合には(ステップST505:No)、入力装置400は、ステップST506を飛ばしてステップST507に処理を進める。
また、第2の目標対象選定部106は、目標対象領域内の目標対象を選定する(ステップST507)。
次に、入力装置400は、目線モードを停止するか否かを判定する(ステップST508)。
そして、入力装置400は、目線モードを停止しない場合には(ステップST508:No)、ステップST503に処理を戻し、目線モードを停止する場合には(ステップST508:Yes)、目線モードを終了する(ステップST509)。以上で、入力装置400の動作の説明を終える。
図6は、ユーザと表示画面との距離が遠い場合の眼球の黒目部分と表示画面との関係を示す図である。また、図7は、ユーザと表示画面との距離が近い場合の眼球の黒目部分と表示画面との関係を示す図である。なお、図3と同一部分には同一の符号を付して、その説明を省略する。
図6より、ユーザと表示画面との距離が遠い場合には、目標対象領域e11には目標対象#311、#312が含まれ、移動後の目標対象領域e12には目標対象#313、#314、#315が含まれる。
一方、図7より、ユーザと表示画面との距離が図6に比べて近い場合には、一般に、眼球の黒目部分の移動距離及び移動量の検出誤差は図6よりも小さいと考えられる。従って、図7より、目標対象領域e21のサイズは、目標対象領域e11のサイズよりも小さくし、目標対象領域e22のサイズは、目標対象領域e12のサイズよりも小さくする。これにより、目標対象領域e21には目標対象#311が含まれ、目標対象領域e22には目標対象#314が含まれる。
即ち、ユーザの目と表示画面との距離が遠い場合には、眼球の黒目部分の移動量が小さいことにより、黒目部分の移動量の検出は困難であるので、目標対象領域のサイズを大きくして、極力微調整を行わないようにする。一方、ユーザの目と表示画面との距離が近い場合には、眼球の黒目部分の移動量が大きいことにより、黒目部分の移動量の検出が比較的容易であるので、目標対象領域のサイズを小さくして、第2の目標対象選定部106における選択処理を速く行えるようにする。
このように、本実施の形態によれば、上記の実施の形態1の効果に加えて、ユーザと表示画面との距離に応じて、目標対象領域のサイズを可変にすることにより、目標対象を容易に特定でき、使い勝手を向上させることができる。
(実施の形態3)
図8は、本発明の実施の形態3に係る入力装置800の構成を示すブロック図である。
図8に示す入力装置800は、図1に示す実施の形態1に係る入力装置100に対して、距離検出部801及び目標対象領域サイズ決定部802を追加し、第1の目標対象選定部105の代わりに第1の目標対象選定部803を有する。なお、図8において、図1と同一構成である部分には同一の符号を付してその説明を省略する。
入力装置800は、カメラ101と、画像処理部102と、移動検出部103と、目標対象領域移動決定部104と、第2の目標対象選定部106と、表示部107と、距離検出部801と、目標対象領域サイズ決定部802と、第1の目標対象選定部803とから主に構成される。また、入力装置800は、例えば携帯電話等の通信端末装置に搭載される。
画像処理部102は、カメラ101から入力した画像データより、眼球の黒目部分の大きさ及び位置を検出する。そして、画像処理部102は、検出結果を移動検出部103及び距離検出部801へ出力する。
距離検出部801は、画像処理部102から入力した検出結果に基づいて、眼球の黒目部分と表示画面との距離を検出する。そして、距離検出部801は、検出結果を目標対象領域サイズ決定部802へ出力する。
移動検出部103は、画像処理部102から入力する検出結果に基づいて、所定時間における眼球の黒目部分の位置の変化を検出し、眼球の黒目部分の移動方向及び所定時間における移動量を検出する。そして、移動検出部103は、検出結果を目標対象領域移動決定部104及び目標対象領域サイズ決定部802へ出力する。
目標対象領域サイズ決定部802は、距離検出部801から入力した検出結果に基づいて、目標対象領域の表示画面上のサイズを決定するとともに、移動検出部103から入力した検出結果に基づいて、目標対象領域の表示画面上における形状を決定する。具体的には、目標対象領域サイズ決定部802は、目線の移動方向に延びた形状を決定する。ここで、目線の移動方向に延びた形状とは、目線の移動方向と平行な半径が目線の移動方向と垂直な半径よりも大きい楕円、目線の移動方向と平行な対角線が目線の移動方向と垂直な対角線よりも大きい菱形、または目線の移動方向と平行な辺の長さが目線の移動方向と垂直な辺の長さよりも大きい長方形等である。そして、目標対象領域サイズ決定部802は、決定したサイズ及び形状を第1の目標対象選定部803に通知するとともに、決定したサイズ及び形状の目標対象領域を表示画面上に表示するように表示部107を制御する。なお、目標対象領域のサイズを決定する具体的な処理は、上記の実施の形態2と同一であるので、その説明を省略する。
目標対象領域移動決定部104は、移動検出部103から入力した検出結果における移動方向及び移動量を、表示部107の表示画面上における目線の位置に変換して、表示部107の表示画面上における目線の位置の移動方向及び移動量を制御する。そして、目標対象領域移動決定部104は、表示画面上における目線の位置情報を第1の目標対象選定部803及び第2の目標対象選定部106へ出力する。
第1の目標対象選定部803は、目標対象領域移動決定部104から入力した表示画面上における目線の位置情報と、目標対象領域サイズ決定部802から入力した目標対象領域のサイズ及び形状とに基づいて、表示画面上の目標対象領域として、目線の位置を含む目標対象領域を決定する。また、第1の目標対象選定部803は、目標対象領域移動決定部104から入力した表示画面上における目線の位置情報と現在の目標対象領域とを比較して、目線の位置が現在の目標対象領域内または現在の目標対象領域外であるか否かを判定する。また、第1の目標対象選定部803は、目線の位置が現在の目標対象領域外であると判定した場合には、目標対象領域移動決定部104から入力した移動後の表示画面上における目線の位置情報と、目標対象領域サイズ決定部802から入力した目標対象領域の形状とに基づいて、新たに目標対象領域を決定する。また、第1の目標対象選定部803は、決定した目標対象領域を第2の目標対象選定部106及び表示部107へ出力する。
第2の目標対象選定部106は、目標対象領域移動決定部104から入力した表示画面上における目線の位置情報に基づいて、第1の目標対象選定部803から入力した目標対象領域内の複数の目標対象のうち、目線の位置に対応する目標対象を選択する。また、第2の目標対象選定部106は、選択した目標対象を表示部107へ出力する。以上で、入力装置800の構成の説明を終える。
次に、入力装置800の動作について、図9を用いて説明する。図9は、入力装置800の動作を示すフロー図である。
最初に、入力装置800は、ユーザ操作等により、目線に応じて表示画面上の目線の位置を移動させるモードである目線モードの動作を開始する(ステップST901)。
次に、カメラ101は、入力装置800を操作するユーザの目にフォーカスする(ステップST902)。
次に、距離検出部801は、ユーザの目と表示画面との距離を検出し、目標対象領域サイズ決定部802は、検出した距離に基づいて目標対象領域のサイズを決定する。また、移動検出部103は、眼球の黒目部分の移動方向を検出し、目標対象領域サイズ決定部802は、検出した移動方向に基づいて目標対象領域の形状を決定する(ステップST903)。例えば、目標対象領域サイズ決定部802は、黒目部分の移動方向に基づいて、目標対象領域の互いに垂直な半径を調整することにより、目標対象領域の形状を決定する。なお、目標対象領域の形状を決定する方法の詳細については後述する。
次に、目標対象領域移動決定部104は、移動検出部103による移動方向及び移動量の検出結果を、表示部107の表示画面上における目線の位置の移動方向及び移動量に変換する(ステップST904)。
次に、第1の目標対象選定部803は、現在の目標対象領域と目線の位置とを比較して、目線の位置が現在の目標対象領域外であるか否かを判定する(ステップST905)。なお、目標対象領域がまだ決定されていない初期の段階の際には、ステップST905の判定を飛ばしてステップST906に処理を進める。
目線の位置が現在の目標対象領域外である場合には(ステップST905:Yes)、第1の目標対象選定部803は、現在の目標対象領域を、表示部107の表示画面上における目線の位置を中心とし、黒目部分の移動方向と同一方向における半径を、黒面部分の移動方向と垂直方向と同一方向における半径よりも大きくする新規な目標対象領域にする(ステップST906)。なお、ステップST906において、目標対象領域がまだ決定されていない初期の段階の際には、目標対象領域を新規に決定する。
一方、目線の位置が現在の目標対象領域内である場合には(ステップST905:No)、入力装置800は、ステップST906を飛ばしてステップST907に処理を進める。
また、第2の目標対象選定部106は、目標対象領域内の目標対象を選定する(ステップST907)。
次に、入力装置800は、目線モードを停止するか否かを判定する(ステップST908)。
そして、入力装置800は、目線モードを停止しない場合には(ステップST908:No)、ステップST903に処理を戻し、目線モードを停止する場合には(ステップST908:Yes)、目線モードを終了する(ステップST909)。以上で、入力装置800の動作の説明を終える。
図10は、ユーザの目線が上方向に移動した場合の眼球の黒目部分と表示画面との関係を示す図である。また、図11は、ユーザの目線が右上方向に移動した場合の眼球の黒目部分と表示画面との関係を示す図である。なお、図3と同一部分には同一の符号を付して、その説明を省略する。
図10より、ユーザの目線が図10の上方向に移動した場合には、目標対象領域e32を、図10の上方向、即ちユーザの目線の移動方向と同一方向の半径が、図10の横方向、即ちユーザの目線の移動方向と垂直方向の半径よりも大きい楕円形状にする。
一方、図11より、ユーザの目線が図11の右上方向に移動した場合には、目標対象領域e42を、図11の右上方向、即ちユーザの目線の移動方向と同一方向の半径が、図11の左上方向、即ちユーザの目線の移動方向と垂直方向の半径よりも大きい楕円形状にする。この場合、目標対象領域e42には、目標対象#1101、#1102、#1103が含まれる。
即ち、目標対象領域をユーザの目線の移動方向に向けて延びる形状にすることにより、目標対象領域内のユーザの目線の移動方向に表示される目標対象の数を多くすることができる。
図12は、目標対象領域サイズ決定部802における、目標対象領域の形状を決定する処理を説明する図である。図12より、目標対象領域サイズ決定部802は、ユーザの目線の移動方向に応じて、目標対象領域e51の互いに垂直な半径aと半径bとを可変にすることにより、目標対象領域e51の楕円形状を任意の形状に変形することができる。
このように、本実施の形態によれば、上記の実施の形態1の効果に加えて、ユーザの目線の移動方向に延びる形状の目標対象領域を決定することにより、検出誤差に伴う微調整の処理をさらに少なくすることができる。
なお、本実施の形態において、ユーザの目と表示画面との距離に応じて目標対象領域のサイズを変更したが、本実施の形態はこれに限らず、距離検出部801を削除することにより目標対象領域のサイズを変更せずに、目標対象領域の形状のみを変更するようにしても良い。
本発明にかかる入力装置及び入力方法は、例えば目の動きに応じて画面上のカーソルを移動させるのに好適である。
100 入力装置
101 カメラ
102 画像処理部
103 移動検出部
104 目標対象領域移動決定部
105 第1の目標対象選定部
106 第2の目標対象選定部
107 表示部

Claims (6)

  1. 撮影手段と、
    画像を表示する表示画面を有する表示手段と、
    前記撮影手段により撮影した画像より前記表示画面上における目線の位置を検出する位置検出手段と、
    前記表示画面上における、前記目線の位置を含む所定の領域を決定するとともに、前記領域に表示される複数の対象物を選択する第1の選択手段と、
    選択した前記複数の対象物のうち、前記目線の位置に対応する対象物を選択する第2の選択手段と、
    を具備する入力装置。
  2. 前記第1の選択手段は、前記位置検出手段により検出した前記目線の位置が、前記領域内から前記領域外に移動した場合に、新たな前記領域を決定する請求項1記載の入力装置。
  3. 前記撮影手段により撮影する被写体と前記表示画面との距離を検出する距離検出手段をさらに具備し、
    前記第1の選択手段は、前記距離が近いほど小さい面積の前記領域を決定する請求項1記載の入力装置。
  4. 前記位置検出手段は、前記目線の位置に加えて、前記目線の位置の移動方向を検出し、
    前記第1の選択手段は、検出した前記移動方向に延びた形状の前記領域を決定する請求項1記載の入力装置。
  5. 請求項1記載の入力装置を具備する通信端末装置。
  6. 表示画面を有する入力装置における入力方法であって、
    撮影した画像より前記表示画面上における目線の位置を検出するステップと、
    前記表示画面上における、前記目線の位置を含む所定の領域を決定するとともに、前記領域に表示される複数の対象物を選択するステップと、
    選択した前記複数の対象物のうち、前記目線の位置に対応する対象物を選択するステップと、
    を具備する入力方法。
JP2009129203A 2009-05-28 2009-05-28 入力装置及び入力方法 Pending JP2010277340A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009129203A JP2010277340A (ja) 2009-05-28 2009-05-28 入力装置及び入力方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009129203A JP2010277340A (ja) 2009-05-28 2009-05-28 入力装置及び入力方法

Publications (1)

Publication Number Publication Date
JP2010277340A true JP2010277340A (ja) 2010-12-09

Family

ID=43424244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009129203A Pending JP2010277340A (ja) 2009-05-28 2009-05-28 入力装置及び入力方法

Country Status (1)

Country Link
JP (1) JP2010277340A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103870146A (zh) * 2012-12-17 2014-06-18 联想(北京)有限公司 一种信息处理方法及电子设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103870146A (zh) * 2012-12-17 2014-06-18 联想(北京)有限公司 一种信息处理方法及电子设备

Similar Documents

Publication Publication Date Title
EP2574041B1 (en) Image capturing apparatus and control method thereof
TWI462578B (zh) 超解析度數位縮放方法及裝置
WO2013099271A1 (ja) 寸法計測方法、カメラ付き電子機器、および、カメラ付き電子機器用プログラム
JP5724346B2 (ja) 映像表示装置、映像表示システム、映像表示方法およびプログラム
JP2017050742A (ja) 映像処理装置、映像処理方法、及びプログラム
JP6127188B1 (ja) 計数方法および計数装置
CN107040716A (zh) 控制设备运动的方法及其控制系统
JP2004318823A (ja) 情報表示システム、情報処理装置、ポインティング装置および情報表示システムにおけるポインタマーク表示方法
CN103430092A (zh) 投影装置
CN108965656B (zh) 显示控制设备、显示控制方法和存储介质
AU2017367947B2 (en) Method for controlling display of screen of mobile terminal, and mobile terminal
CN105376474A (zh) 图像采集装置及其自动对焦方法
TW201237773A (en) An electronic system, image adjusting method and computer program product thereof
CN106056379A (zh) 一种支付终端及支付数据处理方法
JP2013070212A (ja) 画像処理装置、画像処理プログラム
JP2005103122A (ja) 目画像撮像装置
JP5200800B2 (ja) 撮影装置及び撮影システム
JP5693022B2 (ja) 表示制御装置および表示制御システム、並びにそれらの制御方法、プログラム、記憶媒体
CN104902166B (zh) 拍摄装置以及拍摄装置的控制方法
JP2010277340A (ja) 入力装置及び入力方法
CN104469151A (zh) 一种终端
JP5643775B2 (ja) 撮影装置、プログラム、及び撮影方法
JP2020194125A (ja) 情報処理装置、撮像装置、カメラシステム、情報処理方法、プログラム、および、記憶媒体
JP2006191408A (ja) 画像表示プログラム
JP2015138263A (ja) レンズモジュール及び撮像モジュール並びに撮像装置