JP5646532B2 - Operation input device, operation input method, and program - Google Patents

Operation input device, operation input method, and program Download PDF

Info

Publication number
JP5646532B2
JP5646532B2 JP2012070046A JP2012070046A JP5646532B2 JP 5646532 B2 JP5646532 B2 JP 5646532B2 JP 2012070046 A JP2012070046 A JP 2012070046A JP 2012070046 A JP2012070046 A JP 2012070046A JP 5646532 B2 JP5646532 B2 JP 5646532B2
Authority
JP
Japan
Prior art keywords
plane
user
space
unit
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012070046A
Other languages
Japanese (ja)
Other versions
JP2013200815A (en
Inventor
宏司 町田
宏司 町田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2012070046A priority Critical patent/JP5646532B2/en
Publication of JP2013200815A publication Critical patent/JP2013200815A/en
Application granted granted Critical
Publication of JP5646532B2 publication Critical patent/JP5646532B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、操作入力装置、操作入力方法、及び、プログラムに関する。   The present invention relates to an operation input device, an operation input method, and a program.

使用者が、操作対象機器と使用者との間に、操作対象機器と重ねて設定された仮想の平面上で、操作対象機器を操作できる操作入力装置が知られている(例えば、特許文献1、2参照)。
[特許文献1] 特開2011−175617号公報
[特許文献2] 特開2010−244480号公報
There is known an operation input device in which a user can operate an operation target device on a virtual plane set to overlap the operation target device between the operation target device and the user (for example, Patent Document 1). 2).
[Patent Literature 1] JP 2011-175617 A [Patent Literature 2] JP 2010-244480 A

しかしながら、上記の装置では、仮想の平面と、操作対象機器とが使用者から見て重なるので、操作する使用者の手等の身体の一部が操作対象機器と重なり、操作対象機器の一部が身体によって遮られて、操作対象機器が見え難いという課題がある。   However, in the above apparatus, since the virtual plane and the operation target device overlap with each other when viewed from the user, a part of the body such as the user's hand to be operated overlaps the operation target device, and a part of the operation target device Is obstructed by the body and it is difficult to see the operation target device.

本発明の第1の態様においては、使用者の身体の3次元空間上の位置を検出する3次元センサから入力された前記身体の位置を示す3次元情報、及び、予め格納された操作対象機器の位置情報から、前記使用者の眼または頭の位置と前記操作対象機器の表示部の4隅とを結ぶ線分と前記表示部とで囲まれる空間を前記使用者が前記操作対象機器を見込む空間である見込空間として特定し、さらに、当該見込空間の外に一平面の位置を自動的に特定する平面特定部と、前記3次元センサにより検出される3次元情報から、前記平面特定部により特定された前記一平面の位置を基準にした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定部とを備える操作入力装置を提供する。 In the first aspect of the present invention, the three-dimensional information indicating the position of the body input from a three-dimensional sensor that detects the position of the user's body in the three-dimensional space, and the operation target device stored in advance From the position information, the user expects the operation target device in a space surrounded by a line segment connecting the position of the user's eye or head and the four corners of the display unit of the operation target device and the display unit. A plane identifying unit that identifies a prospective space that is a space , and that automatically identifies the position of one plane outside the prospective space, and three-dimensional information detected by the three-dimensional sensor, Detecting a change in the position of the user's body based on the specified position on the one plane, specifying a predetermined operation from the detected change, and selecting a selection signal corresponding to the specified operation as the operation target Operation to output to equipment Providing an operation input device and a specific part.

本発明の第2の態様においては、使用者の身体の3次元空間上の位置を検出する3次元センサから入力された前記身体の位置を示す3次元情報、及び、予め格納された操作対象機器の位置情報から、前記使用者の眼または頭の位置と前記操作対象機器の表示部の4隅とを結ぶ線分と前記表示部とで囲まれる空間を前記使用者が前記操作対象機器を見込む空間である見込空間として特定し、さらに、当該見込空間の外に一平面の位置を自動的に特定する平面特定ステップと、前記3次元センサにより検出される3次元情報から、前記平面特定ステップにおいて特定された前記一平面の位置を基準にした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定ステップとを備える操作入力方法を提供する。 In the second aspect of the present invention, the three-dimensional information indicating the position of the body input from a three-dimensional sensor that detects the position of the user's body in the three-dimensional space, and the operation target device stored in advance From the position information, the user expects the operation target device in a space surrounded by a line segment connecting the position of the user's eye or head and the four corners of the display unit of the operation target device and the display unit. In the plane specifying step, the plane is specified as a prospective space, and a plane specifying step for automatically specifying the position of one plane outside the candidate space, and the three-dimensional information detected by the three-dimensional sensor, Detecting a change in the position of the user's body based on the specified position on the one plane, specifying a predetermined operation from the detected change, and selecting a selection signal corresponding to the specified operation as the operation target Machine Providing an operation input method and an operation specifying step of outputting to.

本発明の第3の態様においては、使用者の身体の3次元空間上の位置を検出する3次元センサから入力された前記身体の位置を示す3次元情報、及び、予め格納された操作対象機器の位置情報から、前記使用者の眼または頭の位置と前記操作対象機器の表示部の4隅とを結ぶ線分と前記表示部とで囲まれる空間を前記使用者が前記操作対象機器を見込む空間である見込空間として特定し、さらに、当該見込空間の外に一平面の位置を自動的に特定する平面特定手順と、前記3次元センサにより検出される3次元情報から、前記平面特定手順において特定された前記一平面の位置を基準にした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定手順とをコンピュータに実行させるためのプログラムを提供する。 In the third aspect of the present invention, the three-dimensional information indicating the position of the body input from a three-dimensional sensor that detects the position of the user's body in the three-dimensional space, and the operation target device stored in advance From the position information, the user expects the operation target device in a space surrounded by a line segment connecting the position of the user's eye or head and the four corners of the display unit of the operation target device and the display unit. In the plane specifying procedure, the plane is specified as a prospective space, and a plane specifying procedure for automatically specifying the position of one plane outside the candidate space, and three-dimensional information detected by the three-dimensional sensor, Detecting a change in the position of the user's body based on the specified position on the one plane, specifying a predetermined operation from the detected change, and selecting a selection signal corresponding to the specified operation as the operation target Output to device It provides a program for executing the that operation determination procedure in the computer.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

操作入力装置16を備えるシステム10の全体構成図である。1 is an overall configuration diagram of a system 10 including an operation input device 16. システム10の制御系を説明するブロック図である。2 is a block diagram illustrating a control system of the system 10. FIG. 記憶部48に記憶されている操作テーブル54の一例である。4 is an example of an operation table 54 stored in a storage unit 48. 操作入力装置16による操作入力処理を説明するフローチャートである。5 is a flowchart for explaining operation input processing by the operation input device 16. 平面特定部42によるステップS10の平面特定処理を説明するフローチャートである。It is a flowchart explaining the plane specific process of step S10 by the plane specific part. 平面領域20の特定方法を説明する図である。3 is a diagram for explaining a method for specifying a planar region 20. FIG. 平面領域20を説明するシステムの全体側面図である。1 is an overall side view of a system illustrating a planar area 20. 操作特定部44によるステップS12の操作特定処理を説明するフローチャートである。It is a flowchart explaining the operation specific process of step S12 by the operation specific part 44. 表示部36に表示される画像を説明する図である。FIG. 10 is a diagram illustrating an image displayed on a display unit. 選択信号の入力方法を説明する図である。It is a figure explaining the input method of a selection signal. ブックマークの表示画面の操作方法を説明する図である。It is a figure explaining the operation method of the display screen of a bookmark. ブックマークの表示画面の操作方法を説明する図である。It is a figure explaining the operation method of the display screen of a bookmark. メニュー画像60の表示方法を説明する図である。It is a figure explaining the display method of the menu image.

以下、本発明の実施の形態を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。   Embodiments of the present invention will be described below, but the following embodiments do not limit the invention according to the claims.

図1は、操作入力装置16を備えるシステム10の全体構成図である。図1に示すように、システム10は、操作対象機器の一例である表示装置12と、3次元センサ14と、操作入力装置16とを備える。   FIG. 1 is an overall configuration diagram of a system 10 including an operation input device 16. As illustrated in FIG. 1, the system 10 includes a display device 12 that is an example of an operation target device, a three-dimensional sensor 14, and an operation input device 16.

表示装置12の一例は、液晶表示装置、有機EL表示装置等である。表示装置12は、テレビ放送及びインターネット等により画像及び音声を取得し、当該画像及び音声を出力する。表示装置12には、使用者18が直接触って操作するボタン等の入力部22が設けられる。   An example of the display device 12 is a liquid crystal display device, an organic EL display device, or the like. The display device 12 acquires images and sounds via television broadcasting and the Internet, and outputs the images and sounds. The display device 12 is provided with an input unit 22 such as a button operated by the user 18 in direct contact.

3次元センサ14は、使用者18の身体の3次元空間上の位置を検出する。3次元センサ14の一例は、位相差オートフォーカスによる測距機能を有し、画像を撮像する撮像装置である。3次元センサ14は、表示装置12の画像の表示側に向けられている。これにより、3次元センサ14は、表示装置12に表示された画像を視聴している使用者18の画像を取得する。また、3次元センサ14は、使用者18までの距離を測定する。3次元センサ14は、取得した使用者18の画像、及び、使用者18までの距離を含む3次元情報を操作入力装置16へと出力する。   The three-dimensional sensor 14 detects the position of the body of the user 18 in the three-dimensional space. An example of the three-dimensional sensor 14 is an image pickup apparatus that has a distance measuring function using phase difference autofocus and picks up an image. The three-dimensional sensor 14 is directed to the image display side of the display device 12. Accordingly, the three-dimensional sensor 14 acquires an image of the user 18 who is viewing the image displayed on the display device 12. The three-dimensional sensor 14 measures the distance to the user 18. The three-dimensional sensor 14 outputs the acquired image of the user 18 and three-dimensional information including the distance to the user 18 to the operation input device 16.

操作入力装置16は、3次元センサ14から入力された使用者18の画像、及び、使用者18までの距離から、操作用の仮想平面である平面領域20を、見込空間21の外に特定する。見込空間21は、使用者18が表示装置12を見込む空間である。見込空間21の一例は、使用者18の眼と表示装置12の表示部の4隅とを結ぶ線分および表示部自体で囲まれる空間である。操作入力装置16は、特定した平面領域20内での使用者18の身体の位置の変化により操作を特定して、操作に対応する選択信号を表示装置12へと出力する。   The operation input device 16 specifies a plane area 20 that is a virtual plane for operation outside the expected space 21 from the image of the user 18 input from the three-dimensional sensor 14 and the distance to the user 18. . The expected space 21 is a space where the user 18 looks into the display device 12. An example of the prospect space 21 is a space surrounded by a line segment connecting the eyes of the user 18 and the four corners of the display unit of the display device 12 and the display unit itself. The operation input device 16 specifies an operation based on a change in the body position of the user 18 within the specified plane region 20 and outputs a selection signal corresponding to the operation to the display device 12.

図2は、システム10の制御系を説明するブロック図である。図2に示すように、表示装置12は、上記入力部22に加え、制御部32と、画像生成部34と、表示面の一例である表示部36と、通信部38と、副表示部40とを備える。   FIG. 2 is a block diagram illustrating a control system of the system 10. As shown in FIG. 2, in addition to the input unit 22, the display device 12 includes a control unit 32, an image generation unit 34, a display unit 36 that is an example of a display surface, a communication unit 38, and a sub display unit 40. With.

入力部22は、上記ボタン等が使用者18により押圧された場合に、当該ボタンに対応付けられた電源のオン・オフの切り替え等の入力を受け付け、制御部32に出力する。   When the button or the like is pressed by the user 18, the input unit 22 receives an input such as power on / off switching associated with the button and outputs the input to the control unit 32.

制御部32は、表示装置12の制御全般を司る。例えば、制御部32は、操作入力装置16及び入力部22から出力された選択信号を取得して、画像生成部34を制御する。   The control unit 32 governs overall control of the display device 12. For example, the control unit 32 acquires the selection signal output from the operation input device 16 and the input unit 22 and controls the image generation unit 34.

通信部38は、テレビ放送を受信する。通信部38は、さらにインターネット24等を介してサーバ26との間で画像等の情報を送信する。   The communication unit 38 receives a television broadcast. The communication unit 38 further transmits information such as images to and from the server 26 via the Internet 24 and the like.

画像生成部34は、通信部38が取得した画像及び音声を表示部36に出力する。表示部36は、画像生成部34から入力された画像を表示するとともに、音声を出力する。   The image generation unit 34 outputs the image and sound acquired by the communication unit 38 to the display unit 36. The display unit 36 displays the image input from the image generation unit 34 and outputs sound.

副表示部40は、複数の表示灯を有する。副表示部40は、複数の表示灯の点灯および消灯によって表示装置12の種々の状態、例えば、表示装置12の電源のオン・オフ状態等を表示する。   The sub display unit 40 has a plurality of indicator lights. The sub display unit 40 displays various states of the display device 12, for example, an on / off state of the power of the display device 12, by turning on and off the plurality of indicator lamps.

操作入力装置16は、平面特定部42と、操作特定部44と、通知部46と、記憶部48とを有する。操作入力装置16は、コンピュータであってもよく、上記各機能を実行するためのプログラムを外部または記憶部48から読み込んで、当該各機構を実行してもよい。   The operation input device 16 includes a plane specifying unit 42, an operation specifying unit 44, a notification unit 46, and a storage unit 48. The operation input device 16 may be a computer, and may read the program for executing the above functions from the outside or the storage unit 48 and execute the mechanisms.

平面特定部42は、3次元センサ14から入力された身体の位置を示す3次元情報、及び、予め記憶部48に格納された機器座標56から見込空間21を特定する。平面特定部42はさらに、使用者18が空間上の平面を指定する動作を検知した場合に、見込空間21の外に平面領域20の位置を特定する。平面特定部42は、特定した平面領域20の位置を示す領域座標52を記憶部48に記憶する。尚、平面特定部42は、使用者18の指定によって特定した平面領域20の領域座標52が見込空間21内である場合、表示または音声等により警告する。   The plane specifying unit 42 specifies the prospective space 21 from the three-dimensional information indicating the position of the body input from the three-dimensional sensor 14 and the device coordinates 56 stored in advance in the storage unit 48. The plane specifying unit 42 further specifies the position of the plane area 20 outside the prospective space 21 when the user 18 detects an operation of designating a plane in the space. The plane specifying unit 42 stores area coordinates 52 indicating the position of the specified plane area 20 in the storage unit 48. The plane specifying unit 42 gives a warning by display or sound when the area coordinates 52 of the plane area 20 specified by the user 18 are within the expected space 21.

操作特定部44は、3次元センサ14により検出される3次元情報から、平面特定部42により特定された平面領域20の位置を基準にした使用者18の身体の位置の変化を検知する。操作特定部44はさらに、検知した変化から予め定められた操作を操作テーブル54に基づいて特定し、特定した操作に対応する選択信号を表示装置12へ出力する。   The operation specifying unit 44 detects a change in the position of the body of the user 18 based on the position of the planar area 20 specified by the plane specifying unit 42 from the three-dimensional information detected by the three-dimensional sensor 14. The operation specifying unit 44 further specifies a predetermined operation based on the detected change based on the operation table 54, and outputs a selection signal corresponding to the specified operation to the display device 12.

この場合に例えば、操作特定部44は、使用者18の身体が、平面特定部42により特定された平面領域20と共有点を有している間の動作から操作を特定する。操作特定部44は、共有点の有無を、平面領域20の領域座標52と、使用者18の画像から算出した使用者18の身体の座標とから判定する。操作特定部44は、上記共有点が存在すると判断した場合に、その旨を示す存在情報を通知部46に出力する。   In this case, for example, the operation specifying unit 44 specifies an operation based on an operation while the body of the user 18 has the common area with the plane region 20 specified by the plane specifying unit 42. The operation specifying unit 44 determines the presence / absence of a shared point from the region coordinates 52 of the planar region 20 and the body coordinates of the user 18 calculated from the image of the user 18. When the operation specifying unit 44 determines that the shared point exists, the operation specifying unit 44 outputs presence information indicating the fact to the notification unit 46.

通知部46は、上記存在情報が操作特定部44から入力されると、身体が平面領域20内に存在している旨を使用者18に通知する。この場合に、通知部46は、音声等によって、存在している旨を通知してもよいし、表示装置12の表示部36及び副表示部40への表示により通知してもよい。   When the presence information is input from the operation specifying unit 44, the notification unit 46 notifies the user 18 that the body is present in the planar area 20. In this case, the notification unit 46 may notify the presence by voice or the like, or may notify by display on the display unit 36 and the sub display unit 40 of the display device 12.

記憶部48は、平面特定部42が特定した平面領域20の位置を示す座標である領域座標52を記憶する。記憶部48はさらに、操作特定部44が操作を特定するための判定条件を示す操作テーブル54を記憶する。記憶部48はさらに、表示装置12の位置情報の一例として、見込空間21を特定するための表示部36の4隅の座標である機器座標56を記憶する。   The storage unit 48 stores region coordinates 52 that are coordinates indicating the position of the planar region 20 specified by the plane specifying unit 42. The storage unit 48 further stores an operation table 54 indicating determination conditions for the operation specifying unit 44 to specify an operation. The storage unit 48 further stores, as an example of position information of the display device 12, device coordinates 56 that are the coordinates of the four corners of the display unit 36 for specifying the prospective space 21.

図3は、記憶部48に記憶されている操作テーブル54の一例である。図3に示すように、操作テーブル54には操作と使用者18の身体位置の変化の条件とが対応付けられている。さらに、操作と当該操作が特定された場合の出力の信号とが対応付けられている。   FIG. 3 is an example of the operation table 54 stored in the storage unit 48. As shown in FIG. 3, the operation table 54 associates operations with conditions for changing the body position of the user 18. Furthermore, an operation and an output signal when the operation is specified are associated with each other.

図3に示す例では、対象を押す押圧操作には、平面領域20において法線方向の移動量の方が面内の移動量より大きいかまたは等しい、身体の位置の変化が対応付けられるとともに、選択信号が出力の信号として対応付けられている。また、表示をスクロールするスクロール操作には、平面領域20において法線方向の移動量の方が面内の移動量より小さい、身体の位置の変化が対応付けられるとともに、スクロール信号が出力の信号として対応付けられている。   In the example shown in FIG. 3, the pressing operation for pressing the target is associated with a change in the position of the body in which the amount of movement in the normal direction in the plane region 20 is greater than or equal to the amount of movement in the plane. A selection signal is associated as an output signal. In addition, the scroll operation for scrolling the display is associated with a change in the position of the body in which the amount of movement in the normal direction is smaller than the amount of movement in the plane in the plane region 20, and the scroll signal is used as an output signal. It is associated.

図4は、操作入力装置16による操作入力処理を説明するフローチャートである。操作入力処理は、入力部22の電源オンボタンが押圧されることにより開始される。まず、平面特定部42が平面領域20を特定する平面特定処理を実行する(S10)。次に、操作特定部44が、使用者18の身体の変化に基づいて、操作を特定する操作特定処理を実行する(S12)。   FIG. 4 is a flowchart for explaining operation input processing by the operation input device 16. The operation input process is started when the power-on button of the input unit 22 is pressed. First, the plane specifying unit 42 executes a plane specifying process for specifying the plane area 20 (S10). Next, the operation specifying unit 44 executes an operation specifying process for specifying an operation based on a change in the body of the user 18 (S12).

図5は、平面特定部42によるステップS10の平面特定処理を説明するフローチャートである。図6は、平面領域20の特定方法を説明する図である。図7は、平面領域20を説明するシステムの全体側面図である。   FIG. 5 is a flowchart for explaining the plane specifying process in step S10 by the plane specifying unit 42. FIG. 6 is a diagram illustrating a method for specifying the planar region 20. FIG. 7 is an overall side view of the system illustrating the planar area 20.

3次元センサ14は予め定められたフレームレートで画像を撮像して、測距情報とともに3次元情報として平面特定部42に入力し、平面特定部42は当該3次元情報から使用者18の顔が検出されたか否かを判定する(S20)。これにより、平面特定部42は、使用者18が表示部36の前面にいない、もしくは使用者18が表示画面を向いていない場合に、使用者18の両手を検出する動作を省くことができる。平面特定部42は、顔が検出されたと判定するまで(S20:No)、ステップS20を繰り返す。   The three-dimensional sensor 14 picks up an image at a predetermined frame rate and inputs it to the plane specifying unit 42 as three-dimensional information together with the distance measurement information. The plane specifying unit 42 detects the face of the user 18 from the three-dimensional information. It is determined whether or not it has been detected (S20). Thereby, the plane specifying unit 42 can omit the operation of detecting both hands of the user 18 when the user 18 is not in front of the display unit 36 or when the user 18 is not facing the display screen. The plane identifying unit 42 repeats Step S20 until it is determined that a face has been detected (S20: No).

平面特定部42は、顔が検出されたと判定した場合に(S20:Yes)、当該画像上の使用者18の身体、特に両手を検出する(S22)。平面特定部42は、検出した両手の動きから平面領域20が指定されたか否かを判定する(S24)。   When it is determined that a face has been detected (S20: Yes), the plane specifying unit 42 detects the body of the user 18, particularly both hands, on the image (S22). The plane specifying unit 42 determines whether or not the plane area 20 is designated from the detected movements of both hands (S24).

平面領域20が指定されたか旨は、使用者18の手が予め定められた形または動きになっていることにより判定される。例えば、図6に示すように、使用者18が手28の人差し指及び親指を略直交させて立てるとともに、一方の手28の親指と他方の手28の人差し指とを平行にする形の画像を取得した場合に、平面特定部42は平面領域20が指定されたと判定する(S24:Yes)。平面特定部42は、平面が指定されたと判定するまで(S24:No)、使用者18の身体の検出を継続する。   Whether or not the plane area 20 is designated is determined by the user's 18 hand having a predetermined shape or movement. For example, as shown in FIG. 6, the user 18 stands with the index finger and thumb of the hand 28 being substantially orthogonal, and obtains an image in which the thumb of one hand 28 and the index finger of the other hand 28 are parallel. When it does, the plane specific | specification part 42 determines with the plane area | region 20 having been designated (S24: Yes). The plane identifying unit 42 continues to detect the body of the user 18 until it is determined that a plane is designated (S24: No).

平面特定部42は平面領域20が指定されたと判定した場合(S24:Yes)、平面特定部42は、使用者18が指定した領域座標52を算出する(S26)。図6に示す例の場合、平面特定部42は、画像から手28の親指と人差し指の付け根の交点の座標を、画像内の位置および測距情報から算出して、当該交点を頂点とする長方形を特定する。平面特定部42はさらに、当該長方形の厚みを設定して平面領域20とする構成であってもよい。厚みの一例は、数cmから数十cmである。換言すれば、平面領域20は、薄い直方体形状となる。平面特定部42は、当該直方体の8個所の頂点の座標を領域座標52として算出する。   When the plane specifying unit 42 determines that the plane area 20 is specified (S24: Yes), the plane specifying unit 42 calculates the area coordinates 52 specified by the user 18 (S26). In the example shown in FIG. 6, the plane specifying unit 42 calculates the coordinates of the intersection of the thumb of the hand 28 and the base of the index finger from the image from the position in the image and the distance measurement information, and a rectangle having the intersection as a vertex. Is identified. The plane specifying unit 42 may further be configured to set the thickness of the rectangle to be the plane area 20. An example of the thickness is several centimeters to several tens of centimeters. In other words, the planar region 20 has a thin rectangular parallelepiped shape. The plane specifying unit 42 calculates the coordinates of eight vertices of the rectangular parallelepiped as region coordinates 52.

平面特定部42は、3次元情報から使用者18の眼を検出する(S28)。平面特定部42は、検出した使用者18の眼の座標、及び、記憶部48に記憶されている機器座標56から見込空間21を特定する(S29)。ここで、使用者18の眼を検出する構成に限らず、使用者18が画面全体を視認するために確保すべき視野空間領域である見込空間21を特定する構成であれば、使用者18の頭の形状(例えば、首から上の形状)を検出して、頭の位置と機器座標56から見込空間21を特定する構成であってもよい。   The plane specifying unit 42 detects the eyes of the user 18 from the three-dimensional information (S28). The plane specifying unit 42 specifies the prospective space 21 from the detected coordinates of the eyes of the user 18 and the device coordinates 56 stored in the storage unit 48 (S29). Here, not only the configuration for detecting the eyes of the user 18 but also the configuration for specifying the expected space 21 that is the visual field space area that the user 18 should secure in order to visually recognize the entire screen, the user 18's It may be configured to detect the shape of the head (for example, the shape above the neck) and specify the prospective space 21 from the position of the head and the device coordinates 56.

平面特定部42は、ステップ26で特定した平面領域20が見込空間21の外か否かを判定する(S32)。この場合に平面特定部42は、領域座標52により特定される平面領域20が上記見込空間21と共有点を有しない場合に見込空間21の外と判断し、共有点を有する場合に見込空間21の内と判断する。   The plane specifying unit 42 determines whether or not the plane area 20 specified in step 26 is outside the prospective space 21 (S32). In this case, the plane specifying unit 42 determines that the plane area 20 specified by the area coordinates 52 is outside the prospective space 21 when it does not have a common point with the prospective space 21, and if it has a common point, the prospective space 21. It is determined that

平面特定部42は、領域座標52が見込空間21の内にあると判定した場合に(S32:No)、音声または副表示部40を用いた画像による警告を通知する(S34)。この後、ステップS20以降が繰り返される。一方、平面特定部42は、領域座標52が見込空間21の外にある判定した場合に(S32:No)、平面特定部42は、領域座標52として、平面領域20の8個所の頂点の座標を記憶部48に記憶させる(S38)。以上により、図7に示すように、見込空間21の外に、厚みを持った平面領域20が特定される。   If the plane specifying unit 42 determines that the region coordinates 52 are within the prospective space 21 (S32: No), the plane specifying unit 42 notifies a warning by sound or an image using the sub display unit 40 (S34). Thereafter, step S20 and subsequent steps are repeated. On the other hand, when the plane specifying unit 42 determines that the region coordinates 52 are outside the prospective space 21 (S32: No), the plane specifying unit 42 sets the coordinates of eight vertices of the plane region 20 as the region coordinates 52. Is stored in the storage unit 48 (S38). As described above, as shown in FIG. 7, the planar region 20 having a thickness is specified outside the prospective space 21.

図8は、操作特定部44によるステップS12の操作特定処理を説明するフローチャートである。図9は、表示部36に表示される画像を説明する図である。図10は、選択信号の入力方法を説明する図である。図11及び図12は、ブックマークの表示画面の操作方法を説明する図である。   FIG. 8 is a flowchart for explaining the operation specifying process of step S <b> 12 by the operation specifying unit 44. FIG. 9 is a diagram for explaining an image displayed on the display unit 36. FIG. 10 is a diagram for explaining a selection signal input method. 11 and 12 are diagrams for explaining a method of operating the bookmark display screen.

操作特定部44は、メニューの表示信号を制御部32に出力する(S40)。これにより、制御部32は、画像生成部34にメニューの表示信号を出力して、画像生成部34は、図9に示すようにメニュー画像60を表示部36に表示する。メニュー画像60は、使用者18にいずれかのメニューの選択を促す。表示部36のメニュー画像60が表示されている領域以外の領域には、インターネット等から取得した画像が表示される。   The operation specifying unit 44 outputs a menu display signal to the control unit 32 (S40). Accordingly, the control unit 32 outputs a menu display signal to the image generation unit 34, and the image generation unit 34 displays a menu image 60 on the display unit 36 as shown in FIG. The menu image 60 prompts the user 18 to select one of the menus. In an area other than the area where the menu image 60 is displayed on the display unit 36, an image acquired from the Internet or the like is displayed.

次に、操作特定部44は、記憶部48に記憶された領域座標52に基づいて、使用者18の身体位置が平面領域20内か否かを判定する(S42)。この場合に、3次元センサ14は予め定められたフレームレートで画像を撮像して、測距情報とともに3次元情報として操作特定部44に入力する。操作特定部44は、使用者18の身体位置を3次元情報から算出して、領域座標52で特定される平面領域20と共有点を有するか否かを判断する。   Next, the operation specifying unit 44 determines whether or not the body position of the user 18 is within the planar region 20 based on the region coordinates 52 stored in the storage unit 48 (S42). In this case, the three-dimensional sensor 14 captures an image at a predetermined frame rate and inputs the image together with the distance measurement information to the operation specifying unit 44 as three-dimensional information. The operation specifying unit 44 calculates the body position of the user 18 from the three-dimensional information, and determines whether or not it has a shared point with the planar region 20 specified by the region coordinates 52.

操作特定部44は、使用者18の身体位置が平面領域20内でないと判定した場合に(S42:No)、終了時間が経過するまで(S44:No)、ステップS42を繰り返す。操作特定部44は、使用者18の身体位置が平面領域20内になく、ステップS42を繰り返している間に、終了時間が経過したと判定した場合に(S44:Yes)、操作特定処理を終了する。   When the operation specifying unit 44 determines that the body position of the user 18 is not within the plane region 20 (S42: No), the operation specifying unit 44 repeats Step S42 until the end time has elapsed (S44: No). The operation specifying unit 44 ends the operation specifying process when it is determined that the body position of the user 18 is not in the plane area 20 and the end time has elapsed while repeating Step S42 (S44: Yes). To do.

一方、操作特定部44は、使用者18の身体位置が平面領域20内にあると判定した場合に(S42:Yes)、通知部46がカーソル62の表示信号を制御部32へと出力する(S46)。これにより、画像生成部34は、図10の上図に示すように、カーソル62を表示部36に表示させる。   On the other hand, when the operation specifying unit 44 determines that the body position of the user 18 is within the plane region 20 (S42: Yes), the notification unit 46 outputs a display signal of the cursor 62 to the control unit 32 ( S46). Thereby, the image generation unit 34 displays the cursor 62 on the display unit 36 as shown in the upper diagram of FIG. 10.

図10において、上図は表示部36を示し、下図は平面領域20を示す。下図において図示しているメニュー画像60は、実際には平面領域20に表示されないが、説明上図示している。   In FIG. 10, the upper diagram shows the display unit 36, and the lower diagram shows the planar area 20. The menu image 60 illustrated in the lower figure is not actually displayed in the planar area 20, but is illustrated for explanation.

図10の上図に示すように、操作特定部44が表示部36にメニュー画像60を表示させた状態で、使用者18が、例えば、図10の下図のように、手28の人差し指29を平面領域20内に置いたとする。この画像が、3次元センサ14から操作特定部44に入力されると、上記ステップS42において、操作特定部44が使用者18の身体が平面領域20内に存在すると判定する。   As shown in the upper diagram of FIG. 10, the user 18 moves the index finger 29 of the hand 28, for example, as shown in the lower diagram of FIG. 10, with the operation specifying unit 44 displaying the menu image 60 on the display unit 36. It is assumed that it is placed in the plane area 20. When this image is input from the three-dimensional sensor 14 to the operation specifying unit 44, the operation specifying unit 44 determines that the body of the user 18 exists in the planar area 20 in step S <b> 42.

操作特定部44が、使用者18の身体が平面領域20内に存在することを示す存在情報を通知部46へと出力すると、通知部46は、使用者18の身体が平面領域20内に存在している旨を通知するカーソル表示指示を制御部32に出力する。これにより、制御部32は、画像生成部34にカーソル表示を指示する。これにより、図10の上図に示すように、画像生成部34は、平面領域20内の人差し指29の先端部分に対応する表示部36の位置にカーソル62を表示する。   When the operation specifying unit 44 outputs the presence information indicating that the body of the user 18 is present in the planar region 20 to the notification unit 46, the notification unit 46 indicates that the body of the user 18 is present in the planar region 20. A cursor display instruction for notifying that this is being performed is output to the control unit 32. Accordingly, the control unit 32 instructs the image generation unit 34 to display a cursor. As a result, as shown in the upper diagram of FIG. 10, the image generation unit 34 displays the cursor 62 at the position of the display unit 36 corresponding to the tip portion of the index finger 29 in the planar region 20.

この場合に、画像生成部34は「対応する位置」を例えば、平面領域20と表示部36の大きさの比率に基づいて決める。この場合に、操作特定部44は、平面領域20の厚さ方向を無視した平面として左下端の座標を原点とする。また、操作特定部44は、表示部36の左下端の座標を原点とする。さらに、操作特定部44は、平面領域20に対する表示部36の面積比を算出する。次に、操作特定部44は、人差し指29の平面領域20内の座標に当該面積比の自乗根を掛け算して表示部36内における対応する位置とする。例えば、平面領域20内の人差し指29の座標が(1、1)であって、面積比が4倍の場合、操作特定部44は、表示部36の座標(2、2)の位置にカーソルを表示する。なお、平面領域20が表示部36の相似形状でない場合、操作特定部44は、平面領域20に対する表示部36の対応する辺同士の長さの比を算出し、平面領域20内の座標に当該長さの比を掛け算して表示部36内の対応する位置とする。   In this case, the image generation unit 34 determines the “corresponding position” based on, for example, the size ratio between the planar region 20 and the display unit 36. In this case, the operation specifying unit 44 uses the coordinates of the lower left corner as the origin as a plane ignoring the thickness direction of the plane area 20. The operation specifying unit 44 uses the coordinates of the lower left corner of the display unit 36 as the origin. Further, the operation specifying unit 44 calculates the area ratio of the display unit 36 to the planar region 20. Next, the operation specifying unit 44 multiplies the coordinates in the planar region 20 of the index finger 29 by the square root of the area ratio to obtain a corresponding position in the display unit 36. For example, when the coordinates of the index finger 29 in the plane area 20 are (1, 1) and the area ratio is four times, the operation specifying unit 44 moves the cursor to the position of the coordinates (2, 2) on the display unit 36. indicate. When the plane area 20 is not similar to the display unit 36, the operation specifying unit 44 calculates the ratio of the lengths of corresponding sides of the display unit 36 to the plane area 20 and the coordinates in the plane area 20 Multiply the length ratios to obtain corresponding positions in the display 36.

次に、操作特定部44は、使用者18の身体位置が平面領域20内で変化したか否かを判定する(S48)。当該変化は、例えば、予め定められた時間内における3次元情報を時系列で比較することにより算出される。操作特定部44は、使用者18の身体位置が平面領域20内で変化していないと判定した場合に(S48:No)、ステップS44を実行する。   Next, the operation specifying unit 44 determines whether or not the body position of the user 18 has changed in the plane area 20 (S48). The change is calculated, for example, by comparing three-dimensional information within a predetermined time in time series. When the operation specifying unit 44 determines that the body position of the user 18 has not changed in the plane region 20 (S48: No), the operation specifying unit 44 executes Step S44.

一方、操作特定部44は、使用者18の身体位置が平面領域20内で変化していると判定した場合に(S48:Yes)、当該変化が操作テーブル54のいずれかの条件を満足するか否かを判断する(S50)。図3に示す例においては、当該条件は法線移動距離と面内移動距離との比較により択一的にいずれかが満たされるので、当該例において、操作特定部44は、身体位置の法線移動距離と面内移動距離とを算出して比較する(同ステップ)。以下、図5に示された条件の例で説明する。   On the other hand, if the operation specifying unit 44 determines that the body position of the user 18 has changed in the plane area 20 (S48: Yes), does the change satisfy any condition of the operation table 54? It is determined whether or not (S50). In the example shown in FIG. 3, the condition is alternatively satisfied by comparing the normal movement distance and the in-plane movement distance. In this example, the operation specifying unit 44 determines that the normal of the body position is The moving distance and the in-plane moving distance are calculated and compared (same step). Hereinafter, an example of the conditions shown in FIG. 5 will be described.

身体位置の法線移動距離は、身体位置の移動距離のうち、平面領域20の法線方向の成分により算出される。ここで、平面領域20は、厚みを有するので、操作特定部44は、厚み方向の身体位置の移動によって、法線移動距離を算出できる。尚、平面領域20が、厚みを有さない場合、操作特定部44は、例えば、平面領域20を横切る指の直径または円周等の形状の変化によって、法線移動距離を算出する。身体位置の面内移動距離は、身体位置の移動距離のうち、平面領域20の面内成分により算出される。   The normal movement distance of the body position is calculated from the components in the normal direction of the planar region 20 out of the movement distance of the body position. Here, since the plane area 20 has a thickness, the operation specifying unit 44 can calculate the normal movement distance by moving the body position in the thickness direction. When the planar area 20 does not have a thickness, the operation specifying unit 44 calculates the normal movement distance by, for example, a change in shape such as a diameter of a finger or a circumference crossing the planar area 20. The in-plane movement distance of the body position is calculated from the in-plane component of the planar region 20 out of the movement distance of the body position.

操作特定部44は、身体位置の法線移動距離が面内移動距離以上である判定すると(S50:Yes)、操作テーブル54を参照して使用者18の操作を押圧操作と判定して、選択信号を制御部32へと出力し(S52)、ステップS42に戻る。この場合に、操作特定部44は、平面領域20における人差し指29の面内位置と、表示部36上のメニュー画像60の各メニューの面内位置との関係に基づいて、いずれのメニューの選択信号かを特定する。   If the operation specifying unit 44 determines that the normal movement distance of the body position is equal to or greater than the in-plane movement distance (S50: Yes), the operation specifying unit 44 determines that the operation of the user 18 is a pressing operation with reference to the operation table 54, and is selected. A signal is output to the control part 32 (S52), and it returns to step S42. In this case, the operation specifying unit 44 selects the selection signal of any menu based on the relationship between the in-plane position of the index finger 29 in the planar region 20 and the in-plane position of each menu of the menu image 60 on the display unit 36. To identify.

例えば、図10状態から、使用者18が人差し指29を平面領域20の法線方向に移動させたとする。操作特定部44は、3次元センサ14から人差し指29が法線方向に移動する画像を取得すると、メニューのうちのブックマークを押圧した押圧操作と判定して、ブックマークの表示命令の選択信号を制御部32に出力する。なお、操作特定部44が出力する選択信号には、選択されたメニューに対応した命令、例えば電源のオン・オフ命令、ブックマークの表示命令等が含まれる。操作特定部44は、法線方向の移動の向きを問わず押圧操作を特定してもよいし、法線方向の移動の向きを検出して、押圧操作と引込操作とを区別して特定してもよい。   For example, it is assumed that the user 18 moves the index finger 29 in the normal direction of the plane region 20 from the state of FIG. When the operation specifying unit 44 acquires an image in which the index finger 29 moves in the normal direction from the three-dimensional sensor 14, the operation specifying unit 44 determines that the bookmark is pressed in the menu and selects a bookmark display command selection signal. 32. The selection signal output by the operation specifying unit 44 includes a command corresponding to the selected menu, for example, a power on / off command, a bookmark display command, and the like. The operation specifying unit 44 may specify the pressing operation regardless of the direction of movement in the normal direction, or may detect the direction of movement in the normal direction and identify the pressing operation and the pull-in operation separately. Also good.

制御部32は、選択信号を取得すると、選択信号に対応する画像を画像生成部34に表示させる。例えば、図10に示すように、ブックマーク66のボタンの押圧操作に関する選択信号が制御部32に入力された場合、画像生成部34は、図11に示すように、ブックマーク66のリストを表示部36に表示させる。   When acquiring the selection signal, the control unit 32 causes the image generation unit 34 to display an image corresponding to the selection signal. For example, as illustrated in FIG. 10, when a selection signal related to the pressing operation of the button of the bookmark 66 is input to the control unit 32, the image generation unit 34 displays a list of bookmarks 66 as illustrated in FIG. 11. To display.

一方、操作特定部44は、身体位置の法線移動距離が面内移動距離未満と判定すると(S50:No)、使用者18の操作をスクロール操作と判定して、スクロール距離を含むスクロール信号を制御部32へと出力し(S54)、ステップ42に戻る。例えば、図11に示すようにブックマーク66が表示されている状態で、上下方向のスクロール信号が制御部32に入力されると、画像生成部34は、ブックマーク66のリストをスクロール距離に対応させて上下方向にスクロールさせる。   On the other hand, when determining that the normal movement distance of the body position is less than the in-plane movement distance (S50: No), the operation specifying unit 44 determines that the operation of the user 18 is a scroll operation and generates a scroll signal including the scroll distance. The data is output to the control unit 32 (S54), and the process returns to step 42. For example, when the bookmark 66 is displayed as shown in FIG. 11 and a vertical scroll signal is input to the control unit 32, the image generation unit 34 associates the list of bookmarks 66 with the scroll distance. Scroll up and down.

図11において、上図は表示部36を示し、下図は平面領域20を示す。図11は操作前の図であって、図12は操作後の図である。上述したように、ブックマークの表示命令の選択信号が制御部32に入力されると、制御部32は、画像生成部34にブックマークの表示命令を出力する。これにより、画像生成部34は、図11の上図に示すように、表示部36にブックマーク64のリストを表示する。   In FIG. 11, the upper diagram shows the display unit 36, and the lower diagram shows the planar area 20. FIG. 11 is a diagram before the operation, and FIG. 12 is a diagram after the operation. As described above, when a bookmark display command selection signal is input to the control unit 32, the control unit 32 outputs a bookmark display command to the image generation unit 34. As a result, the image generation unit 34 displays a list of bookmarks 64 on the display unit 36 as shown in the upper diagram of FIG.

図11の下図に実線で示すように、使用者18が、例えば、人差し指29を平面領域20内に置いたとする。操作特定部44は、人差し指29の先端が平面領域20内に配置されたと判定すると、人差し指29の先端に対応する座標とともに、カーソル表示を指示する。これにより、画像生成部34は、図11の上図に示すように、人差し指29の先端に対応する位置にカーソル62を表示する。   As shown by the solid line in the lower diagram of FIG. If the operation specifying unit 44 determines that the tip of the index finger 29 is placed in the planar area 20, the operation specifying unit 44 instructs the cursor display together with the coordinates corresponding to the tip of the index finger 29. As a result, the image generation unit 34 displays the cursor 62 at a position corresponding to the tip of the index finger 29 as shown in the upper diagram of FIG.

次に、使用者18が平面領域20内における面方向に人差し指29を移動させて、図11の下図に点線で示す位置に人差し指29が移動したとする。操作特定部44は人差し指29の移動距離及び移動方向を特定する。ここでいう移動方向は、平面領域20の両辺に沿った2方向及び両辺と交差する斜め方向をも含む。操作特定部44は、面内の移動距離が平面領域20の法線方向の移動距離よりも長い場合、スクロール操作と判定する。操作特定部44は、移動距離及び移動方向を含むスクロール信号を制御部32に出力する。   Next, it is assumed that the user 18 moves the index finger 29 in the plane direction in the plane area 20 and moves the index finger 29 to a position indicated by a dotted line in the lower diagram of FIG. The operation specifying unit 44 specifies the moving distance and moving direction of the index finger 29. The moving direction here includes two directions along both sides of the planar region 20 and an oblique direction intersecting with both sides. The operation specifying unit 44 determines that the scroll operation is performed when the in-plane moving distance is longer than the moving distance in the normal direction of the planar region 20. The operation specifying unit 44 outputs a scroll signal including the moving distance and the moving direction to the control unit 32.

ここで、スクロール信号に含まれる移動距離は、人差し指29の移動距離と等しくてもよく、人差し指29の移動距離と異ならせてもよい。スクロール信号に含まれる移動距離と人差し指29の移動距離とを異ならせる場合、例えば、操作特定部44は、平面領域20に対する表示部36の倍率を人差し指29の移動距離に積算した値をスクロール信号に含まれる移動距離とする。制御部32が、スクロール信号を画像生成部34に出力する。   Here, the movement distance included in the scroll signal may be equal to the movement distance of the index finger 29 or may be different from the movement distance of the index finger 29. When the movement distance included in the scroll signal is different from the movement distance of the index finger 29, for example, the operation specifying unit 44 uses, as the scroll signal, a value obtained by integrating the magnification of the display unit 36 with respect to the planar area 20 to the movement distance of the index finger 29. The included movement distance. The control unit 32 outputs a scroll signal to the image generation unit 34.

これにより、図12に示すように、画像生成部34は、スクロール信号に含まれる移動距離及び移動方向に対応する方向及び移動距離だけブックマーク64のリストを表示部36内で移動させる。また、画像生成部34は、カーソル62もスクロール信号に含まれる方向及び移動距離に対応させて移動させる。   As a result, as shown in FIG. 12, the image generation unit 34 moves the list of bookmarks 64 within the display unit 36 by a direction and a movement distance corresponding to the movement distance and the movement direction included in the scroll signal. The image generation unit 34 also moves the cursor 62 in accordance with the direction and the movement distance included in the scroll signal.

図13は、メニュー画像60の表示方法の一例を説明する図である。図13において、上図は表示部36を示し、下図は平面領域20を示す。図13に示すように、画像生成部34は、メニュー画像60が不要な場合、メニュー画像60の端部のみを表示部36に表示させてもよい。または、画像生成部34は、メニュー画像60が不要な場合、メニュー画像60を表示部36から消去してもよい。メニュー画像60が不要な場合とは、使用者18がメニュー画像60を不要な旨を指示した場合、使用者18がメニュー画像60を介して一定時間指示を入力しなかった場合等を含む。   FIG. 13 is a diagram for explaining an example of a method for displaying the menu image 60. In FIG. 13, the upper diagram shows the display unit 36, and the lower diagram shows the planar area 20. As illustrated in FIG. 13, when the menu image 60 is unnecessary, the image generation unit 34 may display only the end of the menu image 60 on the display unit 36. Alternatively, the image generation unit 34 may delete the menu image 60 from the display unit 36 when the menu image 60 is unnecessary. The case where the menu image 60 is unnecessary includes a case where the user 18 instructs that the menu image 60 is not necessary, a case where the user 18 does not input an instruction via the menu image 60 for a certain period of time, and the like.

図13の上図に示す状態において、使用者18が図13の下図に示すように、平面領域20内で人差し指29を右側から左側に移動させたことを操作特定部44が検出すると、操作特定部44は、スクロール操作と判定する。この後、操作特定部44は、移動距離及び移動方向を含むスクロール信号を制御部32に出力する。この結果、画像生成部34は、図9に示すように、メニュー画像60を表示させる。   When the operation specifying unit 44 detects that the user 18 has moved the index finger 29 from the right side to the left side in the plane area 20 as shown in the lower diagram of FIG. The unit 44 determines that the operation is a scroll operation. Thereafter, the operation specifying unit 44 outputs a scroll signal including the moving distance and the moving direction to the control unit 32. As a result, the image generation unit 34 displays the menu image 60 as shown in FIG.

以上、本実施形態によれば、操作入力装置16は、見込空間21の外の使用者18が指定した位置に操作用の仮想平面である平面領域20を特定する平面特定部42を備え、これにより、使用者18は、自己の身体によって表示装置12の表示部36を遮ることなく、手もとを視認しなくとも表示内容を視聴しながら表示装置12を操作することができる。   As described above, according to the present embodiment, the operation input device 16 includes the plane specifying unit 42 that specifies the plane area 20 that is a virtual plane for operation at a position specified by the user 18 outside the prospective space 21. Thus, the user 18 can operate the display device 12 while viewing the display content without observing the hand, without blocking the display unit 36 of the display device 12 with his / her body.

使用者18が指定した平面領域20が見込空間21の内側の場合、平面特定部42が警告する。これにより、使用者18は、確実に見込空間21の外に平面領域20を設定できる。   When the plane area 20 specified by the user 18 is inside the prospective space 21, the plane specifying unit 42 warns. Thereby, the user 18 can reliably set the planar area 20 outside the prospective space 21.

操作入力装置16では、操作特定部44が、法線移動距離と面内移動距離との大小関係により、使用者18の操作が押圧操作かスクロール操作かを判定している。これにより、使用者18は、タブレット端末等を直接触って操作するのと同様の操作感覚で、表示装置12を操作することができる。   In the operation input device 16, the operation specifying unit 44 determines whether the operation of the user 18 is a pressing operation or a scrolling operation based on the magnitude relationship between the normal moving distance and the in-plane moving distance. Thereby, the user 18 can operate the display apparatus 12 with the same operation feeling as operating a tablet terminal etc. in direct contact.

操作入力装置16では、平面特定部42が厚みを有する平面領域20を特定する。これにより、操作特定部44は、平面領域20を横切る使用者の身体の形状から算出するのではなく、使用者の法線方向の身体位置の移動から、使用者の身体位置の法線移動距離を容易に算出できる。   In the operation input device 16, the plane specifying unit 42 specifies the plane area 20 having a thickness. Thereby, the operation specifying unit 44 does not calculate from the shape of the user's body crossing the plane area 20, but from the movement of the body position in the normal direction of the user to the normal movement distance of the user's body position. Can be easily calculated.

なお、図8から図13に示す例において、使用者18の身体として手28の人差し指29を検出しているが、身体はこれに限られない。手自体でもよいし、腕でもよく、身体の他の部分であってもよい。また、操作テーブル54において、指を検出した場合と身体の他の部分を検出した場合とで、異なる操作が割り当てられていてもよい。   8 to 13, the index finger 29 of the hand 28 is detected as the body of the user 18, but the body is not limited to this. It may be the hand itself, the arm, or another part of the body. In the operation table 54, different operations may be assigned depending on whether a finger is detected or another part of the body is detected.

また、上記実施形態では、平面特定部42が、使用者18による空間上の一平面を指定する動作を検知した場合に、使用者18が指定した位置に基づいて、平面領域20の位置を特定する。これに代えて、平面特定部42が、平面領域20を自動で特定してもよい。この場合、平面特定部42は、見込空間21の外であって見込空間21に対して予め定められた相対位置に、平面領域20の位置を特定する。この場合に、平面特定部42は、表示部36に対して非平行な平面領域20を特定することが好ましい。例えば、表示部36の表示面が鉛直に直立している場合に、平面領域20は水平に設定される。   Moreover, in the said embodiment, when the plane specific | specification part 42 detects the operation | movement which designates one plane on the space by the user 18, based on the position which the user 18 specified, the position of the plane area | region 20 is specified. To do. Instead of this, the plane specifying unit 42 may automatically specify the plane area 20. In this case, the plane identifying unit 42 identifies the position of the plane area 20 at a predetermined relative position outside the prospective space 21 and with respect to the prospective space 21. In this case, it is preferable that the plane specifying unit 42 specifies the plane region 20 that is non-parallel to the display unit 36. For example, when the display surface of the display unit 36 is vertically upright, the planar region 20 is set to be horizontal.

上記実施形態では、平面特定部42は3次元情報から検出された使用者18の眼の位置に基づいて見込空間21を特定した。これに代えて、平面特定部42は3次元情報から使用者18の顔を検出し、当該顔の位置に基づいて見込空間21を特定してもよい。   In the said embodiment, the plane specific | specification part 42 specified the expectation space 21 based on the position of the user's 18 eye detected from three-dimensional information. Instead, the plane specifying unit 42 may detect the face of the user 18 from the three-dimensional information and specify the prospective space 21 based on the position of the face.

また、上記実施形態では、3次元センサ14は位相差オートフォーカスによる測距機能を有している。これに代えてまたはこれに加えて、3次元センサ14は画像のコントラスト情報を用いたコントラストオートフォーカスによる測距機能を有していてもよい。   In the above embodiment, the three-dimensional sensor 14 has a distance measuring function by phase difference autofocus. Instead of this or in addition to this, the three-dimensional sensor 14 may have a distance measuring function by contrast autofocus using image contrast information.

また、上記実施形態では、表示装置12を操作対象機器の一例とした。操作対象機器は表示装置12に限られず、他の装置、例えばエアコンディショナー、照明装置等であってもよい。   In the above embodiment, the display device 12 is an example of the operation target device. The operation target device is not limited to the display device 12, and may be another device such as an air conditioner or a lighting device.

以上、本発明の実施の形態を説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   Although the embodiments of the present invention have been described above, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 システム、12 表示装置、14 3次元センサ、16 操作入力装置、18 使用者、20 平面領域、21 見込空間、22 入力部、24 インターネット、26 サーバ、28 手、29 指、32 制御部、34 画像生成部、36 表示部、38 通信部、40 副表示部、42 平面特定部、44 操作特定部、46 通知部、48 記憶部、52 領域座標、54 操作テーブル、56 機器座標、60 メニュー画像、62 カーソル、64 ブックマーク、66 ブックマーク   10 system, 12 display device, 14 3D sensor, 16 operation input device, 18 user, 20 plane area, 21 prospect space, 22 input section, 24 Internet, 26 server, 28 hands, 29 fingers, 32 control section, 34 Image generation unit, 36 display unit, 38 communication unit, 40 secondary display unit, 42 plane identification unit, 44 operation identification unit, 46 notification unit, 48 storage unit, 52 area coordinate, 54 operation table, 56 device coordinate, 60 menu image , 62 Cursor, 64 Bookmark, 66 Bookmark

Claims (3)

使用者の身体の3次元空間上の位置を検出する3次元センサから入力された前記身体の位置を示す3次元情報、及び、予め格納された操作対象機器の位置情報から、前記使用者の眼または頭の位置と前記操作対象機器の表示部の4隅とを結ぶ線分と前記表示部とで囲まれる空間を前記使用者が前記操作対象機器を見込む空間である見込空間として特定し、さらに、当該見込空間の外に一平面の位置を自動的に特定する平面特定部と、
前記3次元センサにより検出される3次元情報から、前記平面特定部により特定された前記一平面の位置を基準とした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定部と
を備える操作入力装置。
From the three-dimensional information indicating the position of the body input from the three-dimensional sensor that detects the position of the user's body in the three-dimensional space, and the position information of the operation target device stored in advance, the user's eyes Alternatively, a space surrounded by a line segment connecting the position of the head and the four corners of the display unit of the operation target device and the display unit is specified as an expected space that is a space where the user looks at the operation target device, and , a plane surface specifying portion for automatically identifying the location of a plane outside of the prospective space,
From the three-dimensional information detected by the three-dimensional sensor, a change in the position of the user's body with respect to the position of the one plane specified by the plane specifying unit is detected, and predetermined from the detected change. An operation input device comprising: an operation specifying unit that specifies a specified operation and outputs a selection signal corresponding to the specified operation to the operation target device.
使用者の身体の3次元空間上の位置を検出する3次元センサから入力された前記身体の位置を示す3次元情報、及び、予め格納された操作対象機器の位置情報から、前記使用者の眼または頭の位置と前記操作対象機器の表示部の4隅とを結ぶ線分と前記表示部とで囲まれる空間を前記使用者が前記操作対象機器を見込む空間である見込空間として特定し、さらに、当該見込空間の外に一平面の位置を自動的に特定する平面特定ステップと、
前記3次元センサにより検出される3次元情報から、前記平面特定ステップにおいて特定された前記一平面の位置を基準にした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定ステップと
を備える操作入力方法。
From the three-dimensional information indicating the position of the body input from the three-dimensional sensor that detects the position of the user's body in the three-dimensional space, and the position information of the operation target device stored in advance, the user's eyes Alternatively, a space surrounded by a line segment connecting the position of the head and the four corners of the display unit of the operation target device and the display unit is specified as an expected space that is a space where the user looks at the operation target device, and , a plane surface specifying step of automatically identify the position of one plane out of the prospective space,
From the three-dimensional information detected by the three-dimensional sensor, a change in the position of the user's body based on the position of the one plane specified in the plane specifying step is detected, and predetermined from the detected change. An operation input method comprising: an operation specifying step of specifying a specified operation and outputting a selection signal corresponding to the specified operation to the operation target device.
使用者の身体の3次元空間上の位置を検出する3次元センサから入力された前記身体の位置を示す3次元情報、及び、予め格納された操作対象機器の位置情報から、前記使用者の眼または頭の位置と前記操作対象機器の表示部の4隅とを結ぶ線分と前記表示部とで囲まれる空間を前記使用者が前記操作対象機器を見込む空間である見込空間として特定し、さらに、当該見込空間の外に一平面の位置を自動的に特定する平面特定手順と、
前記3次元センサにより検出される3次元情報から、前記平面特定手順において特定された前記一平面の位置を基準にした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定手順と
をコンピュータに実行させるためのプログラム。
From the three-dimensional information indicating the position of the body input from the three-dimensional sensor that detects the position of the user's body in the three-dimensional space, and the position information of the operation target device stored in advance, the user's eyes Alternatively, a space surrounded by a line segment connecting the position of the head and the four corners of the display unit of the operation target device and the display unit is specified as an expected space that is a space where the user looks at the operation target device, and , a plane surface specifying procedure automatically identify the position of one plane out of the prospective space,
A change in the position of the user's body based on the position of the one plane specified in the plane specifying procedure is detected from the three-dimensional information detected by the three-dimensional sensor, and is determined in advance from the detected change. A program for causing a computer to execute an operation specifying procedure for specifying a specified operation and outputting a selection signal corresponding to the specified operation to the operation target device.
JP2012070046A 2012-03-26 2012-03-26 Operation input device, operation input method, and program Active JP5646532B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012070046A JP5646532B2 (en) 2012-03-26 2012-03-26 Operation input device, operation input method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012070046A JP5646532B2 (en) 2012-03-26 2012-03-26 Operation input device, operation input method, and program

Publications (2)

Publication Number Publication Date
JP2013200815A JP2013200815A (en) 2013-10-03
JP5646532B2 true JP5646532B2 (en) 2014-12-24

Family

ID=49520984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012070046A Active JP5646532B2 (en) 2012-03-26 2012-03-26 Operation input device, operation input method, and program

Country Status (1)

Country Link
JP (1) JP5646532B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6090140B2 (en) * 2013-12-11 2017-03-08 ソニー株式会社 Information processing apparatus, information processing method, and program
JP6335696B2 (en) * 2014-07-11 2018-05-30 三菱電機株式会社 Input device
US9442575B1 (en) * 2015-05-15 2016-09-13 Atheer, Inc. Method and apparatus for applying free space input for surface constrained control

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0554492B1 (en) * 1992-02-07 1995-08-09 International Business Machines Corporation Method and device for optical input of commands or data
US20050141752A1 (en) * 2003-12-31 2005-06-30 France Telecom, S.A. Dynamically modifiable keyboard-style interface
JP2008040576A (en) * 2006-08-02 2008-02-21 Sharp Corp Image processing system and video display device equipped with the same
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
JP2010079332A (en) * 2008-09-24 2010-04-08 Mitsubishi Electric Corp Remote operation device and remote operation method
WO2011027397A1 (en) * 2009-09-03 2011-03-10 株式会社 東芝 User interface device
JP4900741B2 (en) * 2010-01-29 2012-03-21 島根県 Image recognition apparatus, operation determination method, and program
JP5659510B2 (en) * 2010-03-10 2015-01-28 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2011221787A (en) * 2010-04-09 2011-11-04 Casio Comput Co Ltd Information processor and program
CN102375614A (en) * 2010-08-11 2012-03-14 扬明光学股份有限公司 Output and input device as well as man-machine interaction system and method thereof
JP5609416B2 (en) * 2010-08-19 2014-10-22 ソニー株式会社 Information processing apparatus, information processing method, and program
WO2012029833A1 (en) * 2010-09-01 2012-03-08 新世代株式会社 Operation assessment device, operation assessment method, and operation assessment program
JP5167523B2 (en) * 2010-09-22 2013-03-21 島根県 Operation input device, operation determination method, and program

Also Published As

Publication number Publication date
JP2013200815A (en) 2013-10-03

Similar Documents

Publication Publication Date Title
US10217288B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
JP4318056B1 (en) Image recognition apparatus and operation determination method
US10620791B2 (en) Information processing apparatus and operation reception method
US9544556B2 (en) Projection control apparatus and projection control method
JP4701424B2 (en) Image recognition apparatus, operation determination method, and program
EP2352118B1 (en) Image display device, method for displaying image and information storing medium
US8350896B2 (en) Terminal apparatus, display control method, and display control program
JP5839220B2 (en) Information processing apparatus, information processing method, and program
JP6062416B2 (en) Information input device and information display method
JP2017117008A5 (en)
US10409446B2 (en) Information processing apparatus and method for manipulating display position of a three-dimensional image
CN103608761B (en) Input equipment, input method and recording medium
WO2016053320A1 (en) Gesture based manipulation of three-dimensional images
JPWO2010038822A1 (en) Information processing apparatus, information processing method, information storage medium, and program
JP2012022632A (en) Information processing apparatus and control method thereof
US20190156118A1 (en) Information processing apparatus, control method, and program
JP5646532B2 (en) Operation input device, operation input method, and program
JPWO2017130504A1 (en) Image projection device
KR101708455B1 (en) Hand Float Menu System
JP2014052256A (en) Image measuring program, image measuring device, and image measuring method
JP2010272036A (en) Image processing apparatus
CN108227968B (en) Cursor control method and device
JP2005050120A (en) Pointing device in virtual space
WO2021180883A1 (en) Display user interface method and system
JP2019046503A (en) Image measuring program, image measuring device, and image measuring method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130917

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20131018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141105

R150 Certificate of patent or registration of utility model

Ref document number: 5646532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350