JP5646532B2 - Operation input device, operation input method, and program - Google Patents
Operation input device, operation input method, and program Download PDFInfo
- Publication number
- JP5646532B2 JP5646532B2 JP2012070046A JP2012070046A JP5646532B2 JP 5646532 B2 JP5646532 B2 JP 5646532B2 JP 2012070046 A JP2012070046 A JP 2012070046A JP 2012070046 A JP2012070046 A JP 2012070046A JP 5646532 B2 JP5646532 B2 JP 5646532B2
- Authority
- JP
- Japan
- Prior art keywords
- plane
- user
- space
- unit
- specified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 33
- 230000008859 change Effects 0.000 claims description 21
- 210000003128 head Anatomy 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 28
- 210000003811 finger Anatomy 0.000 description 25
- 230000008569 process Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 5
- 210000004247 hand Anatomy 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 238000012545 processing Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、操作入力装置、操作入力方法、及び、プログラムに関する。 The present invention relates to an operation input device, an operation input method, and a program.
使用者が、操作対象機器と使用者との間に、操作対象機器と重ねて設定された仮想の平面上で、操作対象機器を操作できる操作入力装置が知られている(例えば、特許文献1、2参照)。
[特許文献1] 特開2011−175617号公報
[特許文献2] 特開2010−244480号公報
There is known an operation input device in which a user can operate an operation target device on a virtual plane set to overlap the operation target device between the operation target device and the user (for example, Patent Document 1). 2).
[Patent Literature 1] JP 2011-175617 A [Patent Literature 2] JP 2010-244480 A
しかしながら、上記の装置では、仮想の平面と、操作対象機器とが使用者から見て重なるので、操作する使用者の手等の身体の一部が操作対象機器と重なり、操作対象機器の一部が身体によって遮られて、操作対象機器が見え難いという課題がある。 However, in the above apparatus, since the virtual plane and the operation target device overlap with each other when viewed from the user, a part of the body such as the user's hand to be operated overlaps the operation target device, and a part of the operation target device Is obstructed by the body and it is difficult to see the operation target device.
本発明の第1の態様においては、使用者の身体の3次元空間上の位置を検出する3次元センサから入力された前記身体の位置を示す3次元情報、及び、予め格納された操作対象機器の位置情報から、前記使用者の眼または頭の位置と前記操作対象機器の表示部の4隅とを結ぶ線分と前記表示部とで囲まれる空間を前記使用者が前記操作対象機器を見込む空間である見込空間として特定し、さらに、当該見込空間の外に一平面の位置を自動的に特定する平面特定部と、前記3次元センサにより検出される3次元情報から、前記平面特定部により特定された前記一平面の位置を基準にした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定部とを備える操作入力装置を提供する。 In the first aspect of the present invention, the three-dimensional information indicating the position of the body input from a three-dimensional sensor that detects the position of the user's body in the three-dimensional space, and the operation target device stored in advance From the position information, the user expects the operation target device in a space surrounded by a line segment connecting the position of the user's eye or head and the four corners of the display unit of the operation target device and the display unit. A plane identifying unit that identifies a prospective space that is a space , and that automatically identifies the position of one plane outside the prospective space, and three-dimensional information detected by the three-dimensional sensor, Detecting a change in the position of the user's body based on the specified position on the one plane, specifying a predetermined operation from the detected change, and selecting a selection signal corresponding to the specified operation as the operation target Operation to output to equipment Providing an operation input device and a specific part.
本発明の第2の態様においては、使用者の身体の3次元空間上の位置を検出する3次元センサから入力された前記身体の位置を示す3次元情報、及び、予め格納された操作対象機器の位置情報から、前記使用者の眼または頭の位置と前記操作対象機器の表示部の4隅とを結ぶ線分と前記表示部とで囲まれる空間を前記使用者が前記操作対象機器を見込む空間である見込空間として特定し、さらに、当該見込空間の外に一平面の位置を自動的に特定する平面特定ステップと、前記3次元センサにより検出される3次元情報から、前記平面特定ステップにおいて特定された前記一平面の位置を基準にした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定ステップとを備える操作入力方法を提供する。 In the second aspect of the present invention, the three-dimensional information indicating the position of the body input from a three-dimensional sensor that detects the position of the user's body in the three-dimensional space, and the operation target device stored in advance From the position information, the user expects the operation target device in a space surrounded by a line segment connecting the position of the user's eye or head and the four corners of the display unit of the operation target device and the display unit. In the plane specifying step, the plane is specified as a prospective space, and a plane specifying step for automatically specifying the position of one plane outside the candidate space, and the three-dimensional information detected by the three-dimensional sensor, Detecting a change in the position of the user's body based on the specified position on the one plane, specifying a predetermined operation from the detected change, and selecting a selection signal corresponding to the specified operation as the operation target Machine Providing an operation input method and an operation specifying step of outputting to.
本発明の第3の態様においては、使用者の身体の3次元空間上の位置を検出する3次元センサから入力された前記身体の位置を示す3次元情報、及び、予め格納された操作対象機器の位置情報から、前記使用者の眼または頭の位置と前記操作対象機器の表示部の4隅とを結ぶ線分と前記表示部とで囲まれる空間を前記使用者が前記操作対象機器を見込む空間である見込空間として特定し、さらに、当該見込空間の外に一平面の位置を自動的に特定する平面特定手順と、前記3次元センサにより検出される3次元情報から、前記平面特定手順において特定された前記一平面の位置を基準にした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定手順とをコンピュータに実行させるためのプログラムを提供する。 In the third aspect of the present invention, the three-dimensional information indicating the position of the body input from a three-dimensional sensor that detects the position of the user's body in the three-dimensional space, and the operation target device stored in advance From the position information, the user expects the operation target device in a space surrounded by a line segment connecting the position of the user's eye or head and the four corners of the display unit of the operation target device and the display unit. In the plane specifying procedure, the plane is specified as a prospective space, and a plane specifying procedure for automatically specifying the position of one plane outside the candidate space, and three-dimensional information detected by the three-dimensional sensor, Detecting a change in the position of the user's body based on the specified position on the one plane, specifying a predetermined operation from the detected change, and selecting a selection signal corresponding to the specified operation as the operation target Output to device It provides a program for executing the that operation determination procedure in the computer.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、本発明の実施の形態を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。 Embodiments of the present invention will be described below, but the following embodiments do not limit the invention according to the claims.
図1は、操作入力装置16を備えるシステム10の全体構成図である。図1に示すように、システム10は、操作対象機器の一例である表示装置12と、3次元センサ14と、操作入力装置16とを備える。
FIG. 1 is an overall configuration diagram of a
表示装置12の一例は、液晶表示装置、有機EL表示装置等である。表示装置12は、テレビ放送及びインターネット等により画像及び音声を取得し、当該画像及び音声を出力する。表示装置12には、使用者18が直接触って操作するボタン等の入力部22が設けられる。
An example of the
3次元センサ14は、使用者18の身体の3次元空間上の位置を検出する。3次元センサ14の一例は、位相差オートフォーカスによる測距機能を有し、画像を撮像する撮像装置である。3次元センサ14は、表示装置12の画像の表示側に向けられている。これにより、3次元センサ14は、表示装置12に表示された画像を視聴している使用者18の画像を取得する。また、3次元センサ14は、使用者18までの距離を測定する。3次元センサ14は、取得した使用者18の画像、及び、使用者18までの距離を含む3次元情報を操作入力装置16へと出力する。
The three-
操作入力装置16は、3次元センサ14から入力された使用者18の画像、及び、使用者18までの距離から、操作用の仮想平面である平面領域20を、見込空間21の外に特定する。見込空間21は、使用者18が表示装置12を見込む空間である。見込空間21の一例は、使用者18の眼と表示装置12の表示部の4隅とを結ぶ線分および表示部自体で囲まれる空間である。操作入力装置16は、特定した平面領域20内での使用者18の身体の位置の変化により操作を特定して、操作に対応する選択信号を表示装置12へと出力する。
The
図2は、システム10の制御系を説明するブロック図である。図2に示すように、表示装置12は、上記入力部22に加え、制御部32と、画像生成部34と、表示面の一例である表示部36と、通信部38と、副表示部40とを備える。
FIG. 2 is a block diagram illustrating a control system of the
入力部22は、上記ボタン等が使用者18により押圧された場合に、当該ボタンに対応付けられた電源のオン・オフの切り替え等の入力を受け付け、制御部32に出力する。
When the button or the like is pressed by the
制御部32は、表示装置12の制御全般を司る。例えば、制御部32は、操作入力装置16及び入力部22から出力された選択信号を取得して、画像生成部34を制御する。
The
通信部38は、テレビ放送を受信する。通信部38は、さらにインターネット24等を介してサーバ26との間で画像等の情報を送信する。
The
画像生成部34は、通信部38が取得した画像及び音声を表示部36に出力する。表示部36は、画像生成部34から入力された画像を表示するとともに、音声を出力する。
The
副表示部40は、複数の表示灯を有する。副表示部40は、複数の表示灯の点灯および消灯によって表示装置12の種々の状態、例えば、表示装置12の電源のオン・オフ状態等を表示する。
The
操作入力装置16は、平面特定部42と、操作特定部44と、通知部46と、記憶部48とを有する。操作入力装置16は、コンピュータであってもよく、上記各機能を実行するためのプログラムを外部または記憶部48から読み込んで、当該各機構を実行してもよい。
The
平面特定部42は、3次元センサ14から入力された身体の位置を示す3次元情報、及び、予め記憶部48に格納された機器座標56から見込空間21を特定する。平面特定部42はさらに、使用者18が空間上の平面を指定する動作を検知した場合に、見込空間21の外に平面領域20の位置を特定する。平面特定部42は、特定した平面領域20の位置を示す領域座標52を記憶部48に記憶する。尚、平面特定部42は、使用者18の指定によって特定した平面領域20の領域座標52が見込空間21内である場合、表示または音声等により警告する。
The
操作特定部44は、3次元センサ14により検出される3次元情報から、平面特定部42により特定された平面領域20の位置を基準にした使用者18の身体の位置の変化を検知する。操作特定部44はさらに、検知した変化から予め定められた操作を操作テーブル54に基づいて特定し、特定した操作に対応する選択信号を表示装置12へ出力する。
The
この場合に例えば、操作特定部44は、使用者18の身体が、平面特定部42により特定された平面領域20と共有点を有している間の動作から操作を特定する。操作特定部44は、共有点の有無を、平面領域20の領域座標52と、使用者18の画像から算出した使用者18の身体の座標とから判定する。操作特定部44は、上記共有点が存在すると判断した場合に、その旨を示す存在情報を通知部46に出力する。
In this case, for example, the
通知部46は、上記存在情報が操作特定部44から入力されると、身体が平面領域20内に存在している旨を使用者18に通知する。この場合に、通知部46は、音声等によって、存在している旨を通知してもよいし、表示装置12の表示部36及び副表示部40への表示により通知してもよい。
When the presence information is input from the
記憶部48は、平面特定部42が特定した平面領域20の位置を示す座標である領域座標52を記憶する。記憶部48はさらに、操作特定部44が操作を特定するための判定条件を示す操作テーブル54を記憶する。記憶部48はさらに、表示装置12の位置情報の一例として、見込空間21を特定するための表示部36の4隅の座標である機器座標56を記憶する。
The
図3は、記憶部48に記憶されている操作テーブル54の一例である。図3に示すように、操作テーブル54には操作と使用者18の身体位置の変化の条件とが対応付けられている。さらに、操作と当該操作が特定された場合の出力の信号とが対応付けられている。
FIG. 3 is an example of the operation table 54 stored in the
図3に示す例では、対象を押す押圧操作には、平面領域20において法線方向の移動量の方が面内の移動量より大きいかまたは等しい、身体の位置の変化が対応付けられるとともに、選択信号が出力の信号として対応付けられている。また、表示をスクロールするスクロール操作には、平面領域20において法線方向の移動量の方が面内の移動量より小さい、身体の位置の変化が対応付けられるとともに、スクロール信号が出力の信号として対応付けられている。
In the example shown in FIG. 3, the pressing operation for pressing the target is associated with a change in the position of the body in which the amount of movement in the normal direction in the
図4は、操作入力装置16による操作入力処理を説明するフローチャートである。操作入力処理は、入力部22の電源オンボタンが押圧されることにより開始される。まず、平面特定部42が平面領域20を特定する平面特定処理を実行する(S10)。次に、操作特定部44が、使用者18の身体の変化に基づいて、操作を特定する操作特定処理を実行する(S12)。
FIG. 4 is a flowchart for explaining operation input processing by the
図5は、平面特定部42によるステップS10の平面特定処理を説明するフローチャートである。図6は、平面領域20の特定方法を説明する図である。図7は、平面領域20を説明するシステムの全体側面図である。
FIG. 5 is a flowchart for explaining the plane specifying process in step S10 by the
3次元センサ14は予め定められたフレームレートで画像を撮像して、測距情報とともに3次元情報として平面特定部42に入力し、平面特定部42は当該3次元情報から使用者18の顔が検出されたか否かを判定する(S20)。これにより、平面特定部42は、使用者18が表示部36の前面にいない、もしくは使用者18が表示画面を向いていない場合に、使用者18の両手を検出する動作を省くことができる。平面特定部42は、顔が検出されたと判定するまで(S20:No)、ステップS20を繰り返す。
The three-
平面特定部42は、顔が検出されたと判定した場合に(S20:Yes)、当該画像上の使用者18の身体、特に両手を検出する(S22)。平面特定部42は、検出した両手の動きから平面領域20が指定されたか否かを判定する(S24)。
When it is determined that a face has been detected (S20: Yes), the
平面領域20が指定されたか旨は、使用者18の手が予め定められた形または動きになっていることにより判定される。例えば、図6に示すように、使用者18が手28の人差し指及び親指を略直交させて立てるとともに、一方の手28の親指と他方の手28の人差し指とを平行にする形の画像を取得した場合に、平面特定部42は平面領域20が指定されたと判定する(S24:Yes)。平面特定部42は、平面が指定されたと判定するまで(S24:No)、使用者18の身体の検出を継続する。
Whether or not the
平面特定部42は平面領域20が指定されたと判定した場合(S24:Yes)、平面特定部42は、使用者18が指定した領域座標52を算出する(S26)。図6に示す例の場合、平面特定部42は、画像から手28の親指と人差し指の付け根の交点の座標を、画像内の位置および測距情報から算出して、当該交点を頂点とする長方形を特定する。平面特定部42はさらに、当該長方形の厚みを設定して平面領域20とする構成であってもよい。厚みの一例は、数cmから数十cmである。換言すれば、平面領域20は、薄い直方体形状となる。平面特定部42は、当該直方体の8個所の頂点の座標を領域座標52として算出する。
When the
平面特定部42は、3次元情報から使用者18の眼を検出する(S28)。平面特定部42は、検出した使用者18の眼の座標、及び、記憶部48に記憶されている機器座標56から見込空間21を特定する(S29)。ここで、使用者18の眼を検出する構成に限らず、使用者18が画面全体を視認するために確保すべき視野空間領域である見込空間21を特定する構成であれば、使用者18の頭の形状(例えば、首から上の形状)を検出して、頭の位置と機器座標56から見込空間21を特定する構成であってもよい。
The
平面特定部42は、ステップ26で特定した平面領域20が見込空間21の外か否かを判定する(S32)。この場合に平面特定部42は、領域座標52により特定される平面領域20が上記見込空間21と共有点を有しない場合に見込空間21の外と判断し、共有点を有する場合に見込空間21の内と判断する。
The
平面特定部42は、領域座標52が見込空間21の内にあると判定した場合に(S32:No)、音声または副表示部40を用いた画像による警告を通知する(S34)。この後、ステップS20以降が繰り返される。一方、平面特定部42は、領域座標52が見込空間21の外にある判定した場合に(S32:No)、平面特定部42は、領域座標52として、平面領域20の8個所の頂点の座標を記憶部48に記憶させる(S38)。以上により、図7に示すように、見込空間21の外に、厚みを持った平面領域20が特定される。
If the
図8は、操作特定部44によるステップS12の操作特定処理を説明するフローチャートである。図9は、表示部36に表示される画像を説明する図である。図10は、選択信号の入力方法を説明する図である。図11及び図12は、ブックマークの表示画面の操作方法を説明する図である。
FIG. 8 is a flowchart for explaining the operation specifying process of step S <b> 12 by the
操作特定部44は、メニューの表示信号を制御部32に出力する(S40)。これにより、制御部32は、画像生成部34にメニューの表示信号を出力して、画像生成部34は、図9に示すようにメニュー画像60を表示部36に表示する。メニュー画像60は、使用者18にいずれかのメニューの選択を促す。表示部36のメニュー画像60が表示されている領域以外の領域には、インターネット等から取得した画像が表示される。
The
次に、操作特定部44は、記憶部48に記憶された領域座標52に基づいて、使用者18の身体位置が平面領域20内か否かを判定する(S42)。この場合に、3次元センサ14は予め定められたフレームレートで画像を撮像して、測距情報とともに3次元情報として操作特定部44に入力する。操作特定部44は、使用者18の身体位置を3次元情報から算出して、領域座標52で特定される平面領域20と共有点を有するか否かを判断する。
Next, the
操作特定部44は、使用者18の身体位置が平面領域20内でないと判定した場合に(S42:No)、終了時間が経過するまで(S44:No)、ステップS42を繰り返す。操作特定部44は、使用者18の身体位置が平面領域20内になく、ステップS42を繰り返している間に、終了時間が経過したと判定した場合に(S44:Yes)、操作特定処理を終了する。
When the
一方、操作特定部44は、使用者18の身体位置が平面領域20内にあると判定した場合に(S42:Yes)、通知部46がカーソル62の表示信号を制御部32へと出力する(S46)。これにより、画像生成部34は、図10の上図に示すように、カーソル62を表示部36に表示させる。
On the other hand, when the
図10において、上図は表示部36を示し、下図は平面領域20を示す。下図において図示しているメニュー画像60は、実際には平面領域20に表示されないが、説明上図示している。
In FIG. 10, the upper diagram shows the
図10の上図に示すように、操作特定部44が表示部36にメニュー画像60を表示させた状態で、使用者18が、例えば、図10の下図のように、手28の人差し指29を平面領域20内に置いたとする。この画像が、3次元センサ14から操作特定部44に入力されると、上記ステップS42において、操作特定部44が使用者18の身体が平面領域20内に存在すると判定する。
As shown in the upper diagram of FIG. 10, the
操作特定部44が、使用者18の身体が平面領域20内に存在することを示す存在情報を通知部46へと出力すると、通知部46は、使用者18の身体が平面領域20内に存在している旨を通知するカーソル表示指示を制御部32に出力する。これにより、制御部32は、画像生成部34にカーソル表示を指示する。これにより、図10の上図に示すように、画像生成部34は、平面領域20内の人差し指29の先端部分に対応する表示部36の位置にカーソル62を表示する。
When the
この場合に、画像生成部34は「対応する位置」を例えば、平面領域20と表示部36の大きさの比率に基づいて決める。この場合に、操作特定部44は、平面領域20の厚さ方向を無視した平面として左下端の座標を原点とする。また、操作特定部44は、表示部36の左下端の座標を原点とする。さらに、操作特定部44は、平面領域20に対する表示部36の面積比を算出する。次に、操作特定部44は、人差し指29の平面領域20内の座標に当該面積比の自乗根を掛け算して表示部36内における対応する位置とする。例えば、平面領域20内の人差し指29の座標が(1、1)であって、面積比が4倍の場合、操作特定部44は、表示部36の座標(2、2)の位置にカーソルを表示する。なお、平面領域20が表示部36の相似形状でない場合、操作特定部44は、平面領域20に対する表示部36の対応する辺同士の長さの比を算出し、平面領域20内の座標に当該長さの比を掛け算して表示部36内の対応する位置とする。
In this case, the
次に、操作特定部44は、使用者18の身体位置が平面領域20内で変化したか否かを判定する(S48)。当該変化は、例えば、予め定められた時間内における3次元情報を時系列で比較することにより算出される。操作特定部44は、使用者18の身体位置が平面領域20内で変化していないと判定した場合に(S48:No)、ステップS44を実行する。
Next, the
一方、操作特定部44は、使用者18の身体位置が平面領域20内で変化していると判定した場合に(S48:Yes)、当該変化が操作テーブル54のいずれかの条件を満足するか否かを判断する(S50)。図3に示す例においては、当該条件は法線移動距離と面内移動距離との比較により択一的にいずれかが満たされるので、当該例において、操作特定部44は、身体位置の法線移動距離と面内移動距離とを算出して比較する(同ステップ)。以下、図5に示された条件の例で説明する。
On the other hand, if the
身体位置の法線移動距離は、身体位置の移動距離のうち、平面領域20の法線方向の成分により算出される。ここで、平面領域20は、厚みを有するので、操作特定部44は、厚み方向の身体位置の移動によって、法線移動距離を算出できる。尚、平面領域20が、厚みを有さない場合、操作特定部44は、例えば、平面領域20を横切る指の直径または円周等の形状の変化によって、法線移動距離を算出する。身体位置の面内移動距離は、身体位置の移動距離のうち、平面領域20の面内成分により算出される。
The normal movement distance of the body position is calculated from the components in the normal direction of the
操作特定部44は、身体位置の法線移動距離が面内移動距離以上である判定すると(S50:Yes)、操作テーブル54を参照して使用者18の操作を押圧操作と判定して、選択信号を制御部32へと出力し(S52)、ステップS42に戻る。この場合に、操作特定部44は、平面領域20における人差し指29の面内位置と、表示部36上のメニュー画像60の各メニューの面内位置との関係に基づいて、いずれのメニューの選択信号かを特定する。
If the
例えば、図10状態から、使用者18が人差し指29を平面領域20の法線方向に移動させたとする。操作特定部44は、3次元センサ14から人差し指29が法線方向に移動する画像を取得すると、メニューのうちのブックマークを押圧した押圧操作と判定して、ブックマークの表示命令の選択信号を制御部32に出力する。なお、操作特定部44が出力する選択信号には、選択されたメニューに対応した命令、例えば電源のオン・オフ命令、ブックマークの表示命令等が含まれる。操作特定部44は、法線方向の移動の向きを問わず押圧操作を特定してもよいし、法線方向の移動の向きを検出して、押圧操作と引込操作とを区別して特定してもよい。
For example, it is assumed that the
制御部32は、選択信号を取得すると、選択信号に対応する画像を画像生成部34に表示させる。例えば、図10に示すように、ブックマーク66のボタンの押圧操作に関する選択信号が制御部32に入力された場合、画像生成部34は、図11に示すように、ブックマーク66のリストを表示部36に表示させる。
When acquiring the selection signal, the
一方、操作特定部44は、身体位置の法線移動距離が面内移動距離未満と判定すると(S50:No)、使用者18の操作をスクロール操作と判定して、スクロール距離を含むスクロール信号を制御部32へと出力し(S54)、ステップ42に戻る。例えば、図11に示すようにブックマーク66が表示されている状態で、上下方向のスクロール信号が制御部32に入力されると、画像生成部34は、ブックマーク66のリストをスクロール距離に対応させて上下方向にスクロールさせる。
On the other hand, when determining that the normal movement distance of the body position is less than the in-plane movement distance (S50: No), the
図11において、上図は表示部36を示し、下図は平面領域20を示す。図11は操作前の図であって、図12は操作後の図である。上述したように、ブックマークの表示命令の選択信号が制御部32に入力されると、制御部32は、画像生成部34にブックマークの表示命令を出力する。これにより、画像生成部34は、図11の上図に示すように、表示部36にブックマーク64のリストを表示する。
In FIG. 11, the upper diagram shows the
図11の下図に実線で示すように、使用者18が、例えば、人差し指29を平面領域20内に置いたとする。操作特定部44は、人差し指29の先端が平面領域20内に配置されたと判定すると、人差し指29の先端に対応する座標とともに、カーソル表示を指示する。これにより、画像生成部34は、図11の上図に示すように、人差し指29の先端に対応する位置にカーソル62を表示する。
As shown by the solid line in the lower diagram of FIG. If the
次に、使用者18が平面領域20内における面方向に人差し指29を移動させて、図11の下図に点線で示す位置に人差し指29が移動したとする。操作特定部44は人差し指29の移動距離及び移動方向を特定する。ここでいう移動方向は、平面領域20の両辺に沿った2方向及び両辺と交差する斜め方向をも含む。操作特定部44は、面内の移動距離が平面領域20の法線方向の移動距離よりも長い場合、スクロール操作と判定する。操作特定部44は、移動距離及び移動方向を含むスクロール信号を制御部32に出力する。
Next, it is assumed that the
ここで、スクロール信号に含まれる移動距離は、人差し指29の移動距離と等しくてもよく、人差し指29の移動距離と異ならせてもよい。スクロール信号に含まれる移動距離と人差し指29の移動距離とを異ならせる場合、例えば、操作特定部44は、平面領域20に対する表示部36の倍率を人差し指29の移動距離に積算した値をスクロール信号に含まれる移動距離とする。制御部32が、スクロール信号を画像生成部34に出力する。
Here, the movement distance included in the scroll signal may be equal to the movement distance of the
これにより、図12に示すように、画像生成部34は、スクロール信号に含まれる移動距離及び移動方向に対応する方向及び移動距離だけブックマーク64のリストを表示部36内で移動させる。また、画像生成部34は、カーソル62もスクロール信号に含まれる方向及び移動距離に対応させて移動させる。
As a result, as shown in FIG. 12, the
図13は、メニュー画像60の表示方法の一例を説明する図である。図13において、上図は表示部36を示し、下図は平面領域20を示す。図13に示すように、画像生成部34は、メニュー画像60が不要な場合、メニュー画像60の端部のみを表示部36に表示させてもよい。または、画像生成部34は、メニュー画像60が不要な場合、メニュー画像60を表示部36から消去してもよい。メニュー画像60が不要な場合とは、使用者18がメニュー画像60を不要な旨を指示した場合、使用者18がメニュー画像60を介して一定時間指示を入力しなかった場合等を含む。
FIG. 13 is a diagram for explaining an example of a method for displaying the
図13の上図に示す状態において、使用者18が図13の下図に示すように、平面領域20内で人差し指29を右側から左側に移動させたことを操作特定部44が検出すると、操作特定部44は、スクロール操作と判定する。この後、操作特定部44は、移動距離及び移動方向を含むスクロール信号を制御部32に出力する。この結果、画像生成部34は、図9に示すように、メニュー画像60を表示させる。
When the
以上、本実施形態によれば、操作入力装置16は、見込空間21の外の使用者18が指定した位置に操作用の仮想平面である平面領域20を特定する平面特定部42を備え、これにより、使用者18は、自己の身体によって表示装置12の表示部36を遮ることなく、手もとを視認しなくとも表示内容を視聴しながら表示装置12を操作することができる。
As described above, according to the present embodiment, the
使用者18が指定した平面領域20が見込空間21の内側の場合、平面特定部42が警告する。これにより、使用者18は、確実に見込空間21の外に平面領域20を設定できる。
When the
操作入力装置16では、操作特定部44が、法線移動距離と面内移動距離との大小関係により、使用者18の操作が押圧操作かスクロール操作かを判定している。これにより、使用者18は、タブレット端末等を直接触って操作するのと同様の操作感覚で、表示装置12を操作することができる。
In the
操作入力装置16では、平面特定部42が厚みを有する平面領域20を特定する。これにより、操作特定部44は、平面領域20を横切る使用者の身体の形状から算出するのではなく、使用者の法線方向の身体位置の移動から、使用者の身体位置の法線移動距離を容易に算出できる。
In the
なお、図8から図13に示す例において、使用者18の身体として手28の人差し指29を検出しているが、身体はこれに限られない。手自体でもよいし、腕でもよく、身体の他の部分であってもよい。また、操作テーブル54において、指を検出した場合と身体の他の部分を検出した場合とで、異なる操作が割り当てられていてもよい。
8 to 13, the
また、上記実施形態では、平面特定部42が、使用者18による空間上の一平面を指定する動作を検知した場合に、使用者18が指定した位置に基づいて、平面領域20の位置を特定する。これに代えて、平面特定部42が、平面領域20を自動で特定してもよい。この場合、平面特定部42は、見込空間21の外であって見込空間21に対して予め定められた相対位置に、平面領域20の位置を特定する。この場合に、平面特定部42は、表示部36に対して非平行な平面領域20を特定することが好ましい。例えば、表示部36の表示面が鉛直に直立している場合に、平面領域20は水平に設定される。
Moreover, in the said embodiment, when the plane specific |
上記実施形態では、平面特定部42は3次元情報から検出された使用者18の眼の位置に基づいて見込空間21を特定した。これに代えて、平面特定部42は3次元情報から使用者18の顔を検出し、当該顔の位置に基づいて見込空間21を特定してもよい。
In the said embodiment, the plane specific |
また、上記実施形態では、3次元センサ14は位相差オートフォーカスによる測距機能を有している。これに代えてまたはこれに加えて、3次元センサ14は画像のコントラスト情報を用いたコントラストオートフォーカスによる測距機能を有していてもよい。
In the above embodiment, the three-
また、上記実施形態では、表示装置12を操作対象機器の一例とした。操作対象機器は表示装置12に限られず、他の装置、例えばエアコンディショナー、照明装置等であってもよい。
In the above embodiment, the
以上、本発明の実施の形態を説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the embodiments of the present invention have been described above, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.
10 システム、12 表示装置、14 3次元センサ、16 操作入力装置、18 使用者、20 平面領域、21 見込空間、22 入力部、24 インターネット、26 サーバ、28 手、29 指、32 制御部、34 画像生成部、36 表示部、38 通信部、40 副表示部、42 平面特定部、44 操作特定部、46 通知部、48 記憶部、52 領域座標、54 操作テーブル、56 機器座標、60 メニュー画像、62 カーソル、64 ブックマーク、66 ブックマーク 10 system, 12 display device, 14 3D sensor, 16 operation input device, 18 user, 20 plane area, 21 prospect space, 22 input section, 24 Internet, 26 server, 28 hands, 29 fingers, 32 control section, 34 Image generation unit, 36 display unit, 38 communication unit, 40 secondary display unit, 42 plane identification unit, 44 operation identification unit, 46 notification unit, 48 storage unit, 52 area coordinate, 54 operation table, 56 device coordinate, 60 menu image , 62 Cursor, 64 Bookmark, 66 Bookmark
Claims (3)
前記3次元センサにより検出される3次元情報から、前記平面特定部により特定された前記一平面の位置を基準とした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定部と
を備える操作入力装置。 From the three-dimensional information indicating the position of the body input from the three-dimensional sensor that detects the position of the user's body in the three-dimensional space, and the position information of the operation target device stored in advance, the user's eyes Alternatively, a space surrounded by a line segment connecting the position of the head and the four corners of the display unit of the operation target device and the display unit is specified as an expected space that is a space where the user looks at the operation target device, and , a plane surface specifying portion for automatically identifying the location of a plane outside of the prospective space,
From the three-dimensional information detected by the three-dimensional sensor, a change in the position of the user's body with respect to the position of the one plane specified by the plane specifying unit is detected, and predetermined from the detected change. An operation input device comprising: an operation specifying unit that specifies a specified operation and outputs a selection signal corresponding to the specified operation to the operation target device.
前記3次元センサにより検出される3次元情報から、前記平面特定ステップにおいて特定された前記一平面の位置を基準にした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定ステップと
を備える操作入力方法。 From the three-dimensional information indicating the position of the body input from the three-dimensional sensor that detects the position of the user's body in the three-dimensional space, and the position information of the operation target device stored in advance, the user's eyes Alternatively, a space surrounded by a line segment connecting the position of the head and the four corners of the display unit of the operation target device and the display unit is specified as an expected space that is a space where the user looks at the operation target device, and , a plane surface specifying step of automatically identify the position of one plane out of the prospective space,
From the three-dimensional information detected by the three-dimensional sensor, a change in the position of the user's body based on the position of the one plane specified in the plane specifying step is detected, and predetermined from the detected change. An operation input method comprising: an operation specifying step of specifying a specified operation and outputting a selection signal corresponding to the specified operation to the operation target device.
前記3次元センサにより検出される3次元情報から、前記平面特定手順において特定された前記一平面の位置を基準にした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定手順と
をコンピュータに実行させるためのプログラム。 From the three-dimensional information indicating the position of the body input from the three-dimensional sensor that detects the position of the user's body in the three-dimensional space, and the position information of the operation target device stored in advance, the user's eyes Alternatively, a space surrounded by a line segment connecting the position of the head and the four corners of the display unit of the operation target device and the display unit is specified as an expected space that is a space where the user looks at the operation target device, and , a plane surface specifying procedure automatically identify the position of one plane out of the prospective space,
A change in the position of the user's body based on the position of the one plane specified in the plane specifying procedure is detected from the three-dimensional information detected by the three-dimensional sensor, and is determined in advance from the detected change. A program for causing a computer to execute an operation specifying procedure for specifying a specified operation and outputting a selection signal corresponding to the specified operation to the operation target device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012070046A JP5646532B2 (en) | 2012-03-26 | 2012-03-26 | Operation input device, operation input method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012070046A JP5646532B2 (en) | 2012-03-26 | 2012-03-26 | Operation input device, operation input method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013200815A JP2013200815A (en) | 2013-10-03 |
JP5646532B2 true JP5646532B2 (en) | 2014-12-24 |
Family
ID=49520984
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012070046A Active JP5646532B2 (en) | 2012-03-26 | 2012-03-26 | Operation input device, operation input method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5646532B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6090140B2 (en) * | 2013-12-11 | 2017-03-08 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP6335696B2 (en) * | 2014-07-11 | 2018-05-30 | 三菱電機株式会社 | Input device |
US9442575B1 (en) * | 2015-05-15 | 2016-09-13 | Atheer, Inc. | Method and apparatus for applying free space input for surface constrained control |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0554492B1 (en) * | 1992-02-07 | 1995-08-09 | International Business Machines Corporation | Method and device for optical input of commands or data |
US20050141752A1 (en) * | 2003-12-31 | 2005-06-30 | France Telecom, S.A. | Dynamically modifiable keyboard-style interface |
JP2008040576A (en) * | 2006-08-02 | 2008-02-21 | Sharp Corp | Image processing system and video display device equipped with the same |
US8726194B2 (en) * | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
JP2010079332A (en) * | 2008-09-24 | 2010-04-08 | Mitsubishi Electric Corp | Remote operation device and remote operation method |
WO2011027397A1 (en) * | 2009-09-03 | 2011-03-10 | 株式会社 東芝 | User interface device |
JP4900741B2 (en) * | 2010-01-29 | 2012-03-21 | 島根県 | Image recognition apparatus, operation determination method, and program |
JP5659510B2 (en) * | 2010-03-10 | 2015-01-28 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP2011221787A (en) * | 2010-04-09 | 2011-11-04 | Casio Comput Co Ltd | Information processor and program |
CN102375614A (en) * | 2010-08-11 | 2012-03-14 | 扬明光学股份有限公司 | Output and input device as well as man-machine interaction system and method thereof |
JP5609416B2 (en) * | 2010-08-19 | 2014-10-22 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
WO2012029833A1 (en) * | 2010-09-01 | 2012-03-08 | 新世代株式会社 | Operation assessment device, operation assessment method, and operation assessment program |
JP5167523B2 (en) * | 2010-09-22 | 2013-03-21 | 島根県 | Operation input device, operation determination method, and program |
-
2012
- 2012-03-26 JP JP2012070046A patent/JP5646532B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013200815A (en) | 2013-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10217288B2 (en) | Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor | |
JP4318056B1 (en) | Image recognition apparatus and operation determination method | |
US10620791B2 (en) | Information processing apparatus and operation reception method | |
US9544556B2 (en) | Projection control apparatus and projection control method | |
JP4701424B2 (en) | Image recognition apparatus, operation determination method, and program | |
EP2352118B1 (en) | Image display device, method for displaying image and information storing medium | |
US8350896B2 (en) | Terminal apparatus, display control method, and display control program | |
JP5839220B2 (en) | Information processing apparatus, information processing method, and program | |
JP6062416B2 (en) | Information input device and information display method | |
JP2017117008A5 (en) | ||
US10409446B2 (en) | Information processing apparatus and method for manipulating display position of a three-dimensional image | |
CN103608761B (en) | Input equipment, input method and recording medium | |
WO2016053320A1 (en) | Gesture based manipulation of three-dimensional images | |
JPWO2010038822A1 (en) | Information processing apparatus, information processing method, information storage medium, and program | |
JP2012022632A (en) | Information processing apparatus and control method thereof | |
US20190156118A1 (en) | Information processing apparatus, control method, and program | |
JP5646532B2 (en) | Operation input device, operation input method, and program | |
JPWO2017130504A1 (en) | Image projection device | |
KR101708455B1 (en) | Hand Float Menu System | |
JP2014052256A (en) | Image measuring program, image measuring device, and image measuring method | |
JP2010272036A (en) | Image processing apparatus | |
CN108227968B (en) | Cursor control method and device | |
JP2005050120A (en) | Pointing device in virtual space | |
WO2021180883A1 (en) | Display user interface method and system | |
JP2019046503A (en) | Image measuring program, image measuring device, and image measuring method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130917 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20131018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140311 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140512 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141007 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5646532 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |