JP5770251B2 - Operation control device - Google Patents

Operation control device Download PDF

Info

Publication number
JP5770251B2
JP5770251B2 JP2013248830A JP2013248830A JP5770251B2 JP 5770251 B2 JP5770251 B2 JP 5770251B2 JP 2013248830 A JP2013248830 A JP 2013248830A JP 2013248830 A JP2013248830 A JP 2013248830A JP 5770251 B2 JP5770251 B2 JP 5770251B2
Authority
JP
Japan
Prior art keywords
operator
hand
operation control
moving object
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013248830A
Other languages
Japanese (ja)
Other versions
JP2014096804A (en
Inventor
中出 真弓
真弓 中出
友哉 尾崎
友哉 尾崎
孝志 松原
孝志 松原
竜也 徳永
竜也 徳永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Maxell Energy Ltd
Original Assignee
Hitachi Maxell Energy Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Maxell Energy Ltd filed Critical Hitachi Maxell Energy Ltd
Priority to JP2013248830A priority Critical patent/JP5770251B2/en
Publication of JP2014096804A publication Critical patent/JP2014096804A/en
Application granted granted Critical
Publication of JP5770251B2 publication Critical patent/JP5770251B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)

Description

本発明は、テレビジョン受像機等の各種機器の操作システムに関し、特に簡易な操作手段で直観的に分かりやすい操作を行うことのできる操作制御装置及び操作表示方法に関する。   The present invention relates to an operation system for various devices such as a television receiver, and more particularly to an operation control device and an operation display method capable of performing intuitively easy-to-understand operations with simple operation means.

近年のテレビジョン受像機は、離れたところから機能を制御する為のリモートコントロール装置、いわゆるリモコンで操作するのが一般的な構成となっている。リモコンは離れた場所からテレビジョン受信機を操作できる便利な装置ではあるが、手元にない、あるいは電池切れなどリモコンが使えない状態にあると、操作者はストレスを感じることとなる。   In recent years, a television receiver is generally operated by a remote control device for controlling functions from a remote location, that is, a so-called remote controller. Although the remote control is a convenient device that can operate the television receiver from a remote location, the operator feels stressed if it is not at hand or is in a state where the remote control cannot be used, such as running out of batteries.

この改善策として、操作者の手の形や動きを検出して機器を操作する方式が提案されている。例えば、特開2004−356819のリモート操作装置では、カメラで撮影された操作者のある特定の動きを検出した場合に、表示装置に操作メニューを表示し、その後、操作者が手の形状や、方向を認識させることにより機器操作を行えるようにしている。   As an improvement measure, a method of operating a device by detecting the shape and movement of the operator's hand has been proposed. For example, in the remote operation device disclosed in Japanese Patent Application Laid-Open No. 2004-356819, an operation menu is displayed on the display device when a specific movement of the operator photographed by the camera is detected, and then the operator can change the shape of the hand, The device can be operated by recognizing the direction.

また、特開2000−149025では、人物の手足の動きの特徴を示す点の3次元座標を計測し、抽出された特徴点のうち手以外の特徴点を利用して人物の3次元位置/姿勢を推定し、推定された操作者の3次元位置を基準点として操作者姿勢に応じて各座標軸が一意に定まる操作者座標系を構成し、操作者の手足の特徴点を該操作者座標系に変換することで、操作者の位置/姿勢に依存しない特徴量を抽出し、その時系列変化とジェスチャモデルとのマッチングをとり人物の行なったジェスチャを推定するジェスチャ認識装置が開示される。このジェスチャ認識装置によると、操作者が位置/姿勢変化を行なう状況下でも高速にジェスチャを認識することが可能になる。   In Japanese Patent Laid-Open No. 2000-149025, the three-dimensional coordinates of a point indicating the characteristics of the movement of a person's limb are measured, and the three-dimensional position / posture of the person using the feature points other than the hand among the extracted feature points. And an operator coordinate system in which each coordinate axis is uniquely determined according to the operator posture with the estimated three-dimensional position of the operator as a reference point, and feature points of the operator's limbs are defined in the operator coordinate system. A gesture recognition device is disclosed that extracts a feature quantity that does not depend on the position / posture of an operator by converting to, and matches a time-series change with a gesture model to estimate a gesture performed by a person. According to this gesture recognition device, it becomes possible to recognize a gesture at high speed even in a situation where the operator changes the position / posture.

特開2004−356819号公報JP 2004-356819 A 特開2000−149025号公報JP 2000-149025 A

しかしながら、上記特許文献で開示された発明では、操作者を撮像した動画像からジェスチャを認識する場合、操作者がジェスチャをした動作と、操作者がジェスチャをした後に元の体制に戻る動作との区別がつきにくい問題がある。例えば、操作者が手で右方向を指し、その後、元の位置に手を戻した場合、その戻した動きが左方向を指す動作として認識されることがある。このように、従来の発明では、操作者がジェスチャを行った際に、操作として意図していない動きが認識されてしまうという課題があった。   However, in the invention disclosed in the above-mentioned patent document, when recognizing a gesture from a moving image obtained by capturing an operator, an operation in which the operator performs a gesture and an operation in which the operator returns to the original system after performing the gesture. There is a problem that is difficult to distinguish. For example, when the operator points the right direction with his hand and then returns his hand to the original position, the returned movement may be recognized as an operation pointing to the left direction. As described above, in the conventional invention, when the operator performs a gesture, there is a problem that a motion that is not intended as an operation is recognized.

本発明は、かかる課題をふまえ、操作者の動きのどの部分を装置への入力として受け付けるかを明確にすべく、操作者が有効な動作を行えるような領域の提示を行うと同時にリアルタイムなフィードバックを与えるようにする。   In view of such a problem, the present invention presents a region where the operator can perform an effective operation and simultaneously provides real-time feedback in order to clarify which part of the operator's movement is accepted as an input to the apparatus. To give.

具体的には、本発明は、撮影により操作者の動きを検出し、該動きに従って、表示画面上の操作を行わせる操作制御装置であって、撮像画面内における操作制御が可能な領域を設定する検出領域設定部と、前記検出領域設定部で設定された操作制御が可能な領域と、前記操作者の動きを表示画面上に表示させるとともに、該操作制御が可能な領域内で動きを検出した場合に、該動きに対応して、表示画面上の操作表示を行わせる制御部とを備えるようにする。   Specifically, the present invention is an operation control device that detects an operator's movement by photographing and performs an operation on a display screen according to the movement, and sets an area in which an operation can be controlled in the imaging screen. A detection area setting unit, an operation controllable area set by the detection area setting unit, and a movement of the operator is displayed on a display screen, and a motion is detected in the operation controllable area. In such a case, a control unit for performing operation display on the display screen is provided corresponding to the movement.

特に、前記制御部は、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示させ、該複数のコンテンツに関連する情報のうちの選択可能な1つの表示領域と、前記操作制御が可能な領域を重ならせて表示させる。   In particular, the control unit displays a menu showing information related to a plurality of contents on the display screen, one selectable display area of the information related to the plurality of contents, and the operation control Overlapping areas that can be displayed.

また、前記制御部は、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示させ、該メニューの表示領域と、前記操作制御が可能な領域を重ならせて表示させる。   Further, the control unit displays a menu showing information related to a plurality of contents on the display screen, and displays a display area of the menu and an area where the operation control is possible.

また、前記制御部は、前記操作制御が可能な領域を複数表示させ、該複数の領域ごとに、前記操作者の動きに対応して、異なる操作表示をさせる。   In addition, the control unit displays a plurality of regions in which the operation can be controlled, and displays different operations for each of the plurality of regions corresponding to the movement of the operator.

また、前記制御部は、該操作制御が可能な領域で検出する動きのうち、動きの方向と量に対応して異なる操作表示を行わせる。   Further, the control unit displays different operation displays corresponding to the direction and amount of the movement among the movements detected in the region where the operation control is possible.

さらに、本発明は、操作者の動きに従って、表示画面上の操作表示を行う操作表示方法であって、操作が可能な領域と、前記操作者の動きを表示画面上に表示するステップと、前記操作が可能な領域内での操作者の動きに対応して、表示画面上の操作表示を行うステップとを備えるようにする。   Further, the present invention is an operation display method for performing an operation display on a display screen according to an operator's movement, wherein the operable region, the step of displaying the operator's movement on the display screen, And a step of performing an operation display on the display screen in response to the movement of the operator within the operable region.

特に、前記表示画面上に表示するステップは、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示し、該複数のコンテンツに関連する情報のうちの選択可能な1つの表示領域と、前記操作が可能な領域を重ならせて表示する。   In particular, the step of displaying on the display screen displays a menu in which information related to a plurality of contents is displayed on the display screen, and one selectable display area of the information related to the plurality of contents Then, the regions where the operation can be performed are overlapped and displayed.

また、前記表示画面上に表示するステップは、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示し、該メニューの表示領域と、前記操作が可能な領域を重ならせて表示する。   In the step of displaying on the display screen, a menu showing information related to a plurality of contents is displayed on the display screen, and the display area of the menu is overlapped with the operable area. indicate.

また、前記表示画面上に表示するステップは、前記操作が可能な領域を複数表示させ、前記表示画面上の操作表示を行うステップは、前記複数の領域ごとに、前記操作者の動きに対応して、異なる操作表示を行う。   Further, the step of displaying on the display screen displays a plurality of the operable regions, and the step of performing the operation display on the display screen corresponds to the movement of the operator for each of the plurality of regions. Display different operations.

また、前記表示画面上の操作表示を行うステップは、該操作が可能な領域内での操作者の動きのうち、動きの方向と量に対応して異なる操作表示を行う。   The step of performing the operation display on the display screen performs different operation display corresponding to the direction and amount of the movement among the movements of the operator in the region where the operation is possible.

本発明によれば、操作者が有効な操作領域を認識することにより、簡単な動作での操作制御装置の操作が可能となる。   According to the present invention, the operator can operate the operation control device with a simple operation by recognizing an effective operation area.

実施例1における本発明の操作制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the operation control apparatus of this invention in Example 1. FIG. 実施例1における本発明の操作制御装置の動作例である。4 is an operation example of the operation control device of the present invention in Embodiment 1. 実施例1における撮像部の撮像画像例である。2 is an example of a captured image of an imaging unit in Embodiment 1. FIG. 実施例1における動体が動体検出領域外にある場合の表示画面例である。7 is an example of a display screen when a moving object is outside a moving object detection region in the first embodiment. 実施例1における本発明の操作制御装置の処理フローである。3 is a processing flow of the operation control apparatus of the present invention in Embodiment 1. 実施例1における表示画面例である。3 is an example of a display screen in the first embodiment. 実施例2における実施例1とは別の表示画面例である。It is a display screen example different from Example 1 in Example 2. FIG. 実施例3における実施例1及び2とは別の表示画面例である。It is an example of a display screen different from Example 1 and 2 in Example 3. FIG. 実施例4における実施例1ないし3とは別の表示画面例である。It is an example of a display screen different from Example 1 thru | or 3 in Example 4. FIG. 実施例4における本発明の操作制御装置の処理フローである。It is a processing flow of the operation control apparatus of this invention in Example 4. FIG. 実施例5における操作者の手の動きの一例である。10 is an example of the movement of an operator's hand in Example 5. 実施例5における表示画面例である。10 is an example of a display screen in the fifth embodiment. 実施例5のおける本発明の操作制御装置の処理フローである。It is a processing flow of the operation control apparatus of this invention in Example 5. FIG. 実施例6における操作者の手の動きの一例である。10 is an example of a movement of an operator's hand in Example 6. 実施例6における表示画面例である。12 is an example of a display screen in Example 6. 実施例6における本発明の操作制御装置の処理フローである。It is a processing flow of the operation control apparatus of this invention in Example 6. FIG. 実施例7における二人の操作者の手の動きと撮像部との関係図である。FIG. 16 is a relationship diagram between the movements of the hands of two operators and an imaging unit in Example 7. 実施例7における撮像部の撮像画像例である。10 is an example of a captured image of an imaging unit in Embodiment 7. FIG. 実施例7における表示画面例である。10 is an example of a display screen in Example 7. 実施例7における本発明の操作制御装置の処理フローである。18 is a processing flow of the operation control device of the present invention in Example 7. 実施例8における操作者と撮像部との関係図である。FIG. 10 is a relationship diagram between an operator and an imaging unit according to an eighth embodiment. 実施例8における本発明の操作制御装置の処理フローである。It is a processing flow of the operation control apparatus of this invention in Example 8. FIG.

以下に、本発明の実施形態を、図面を用いて説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は本発明の操作制御装置の構成を示すブロック図である。100は操作制御装置であり、102はカメラ等の撮像部、200は撮像部で撮像した操作者などの動画像から手などの動体を検出する動き検出部、201は動き検出部で検出した動体の移動方向および移動量を解析する動き解析部、202は撮像部102の撮影画面内において操作制御装置100の制御に使用する領域を設定する検出領域設定部、203は動き解析部201での解析結果と検出領域設定部202での設定領域に基づき操作制御装置100を制御するシステム制御部、204はシステム制御部203の制御結果から画面表示する映像データを生成する映像処理部、101は映像処理部で生成した映像データを表示する表示部である。表示部101は、例えば、液晶ディスプレイやプラズマディスプレイ等の表示装置で構成され、表示パネルとパネル制御回路とパネル制御ドライバとから構成される。   FIG. 1 is a block diagram showing the configuration of the operation control apparatus of the present invention. 100 is an operation control device, 102 is an imaging unit such as a camera, 200 is a motion detection unit that detects a moving object such as a hand from a moving image of an operator or the like imaged by the imaging unit, and 201 is a moving object detected by the motion detection unit. Is a motion analysis unit that analyzes the movement direction and amount of movement, 202 is a detection region setting unit that sets a region to be used for control of the operation control apparatus 100 in the shooting screen of the imaging unit 102, and 203 is an analysis by the motion analysis unit 201. A system control unit that controls the operation control apparatus 100 based on the result and the setting area in the detection area setting unit 202, 204 is a video processing unit that generates video data to be displayed on the screen from the control result of the system control unit 203, and 101 is video processing. It is a display part which displays the video data produced | generated by the part. The display unit 101 includes a display device such as a liquid crystal display or a plasma display, and includes a display panel, a panel control circuit, and a panel control driver.

本発明の操作制御装置の動作例を図2に示す。図1と同じものには同じ番号を付している。106は操作制御装置100の操作者であり、107は操作者106が操作として手を動かした際の手の軌跡を示している。操作者106の動作は撮像部102で撮影されている。   An operation example of the operation control apparatus of the present invention is shown in FIG. The same elements as those in FIG. Reference numeral 106 denotes an operator of the operation control apparatus 100, and reference numeral 107 denotes a hand trajectory when the operator 106 moves his / her hand as an operation. The operation of the operator 106 is captured by the imaging unit 102.

また、110は、検出領域設定部202で設定された操作制御が可能な領域であり、111、112は、動き検出部で検出された操作者の手の動きである。   Reference numeral 110 denotes an area in which operation control set by the detection area setting unit 202 is possible, and reference numerals 111 and 112 denote movements of the operator's hand detected by the movement detection unit.

また、103は、視聴などのために選択すべきコンテンツメニューの例であり、104は、フォーカスされ、選択可能となっているコンテンツAを示している。コンテンツメニュー103では、コンテンツの代表画像あるいはコンテンツに関連した情報が並んで表示されている。105はコンテンツメニュー103のフォーカスが移動する方向を示しており、手を左右に動かすことで、コンテンツメニュー103内のフォーカスされるコンテンツが移動する。   Reference numeral 103 denotes an example of a content menu to be selected for viewing and the like, and reference numeral 104 denotes a content A that is focused and can be selected. In the content menu 103, a representative image of the content or information related to the content is displayed side by side. Reference numeral 105 denotes the direction in which the focus of the content menu 103 moves. By moving the hand to the left or right, the focused content in the content menu 103 moves.

上記の表示画面101内の表示は、システム制御部203で映像処理部204を制御することによって、行われる。   The display in the display screen 101 is performed by controlling the video processing unit 204 by the system control unit 203.

撮像部102の撮影画像例を図3に示す。300は撮像部102で撮影した画面全体、311は検出領域設定部202で設定された動体検出領域、306は操作者、311および312は操作者306の手が検出領域310内にある場合の手の位置と軌跡、313および314は操作者306の手が検出領域310外にある場合の手の位置と軌跡を示している。   An example of a captured image of the imaging unit 102 is shown in FIG. Reference numeral 300 denotes an entire screen imaged by the imaging unit 102, 311 denotes a moving object detection region set by the detection region setting unit 202, 306 denotes an operator, and 311 and 312 denote hands when the operator 306's hand is in the detection region 310. The positions and trajectories 313 and 314 indicate the position and trajectory of the hand when the hand of the operator 306 is outside the detection area 310.

110は検出領域設定部202で設定されている動体検出領域を表示画面上に表示したものであり、撮像画像内の動体検出領域310に対応している。動体検出領域110を表示することで、操作者106が手を動かすべき位置を認識できるようにしている。   Reference numeral 110 denotes a moving object detection area set by the detection area setting unit 202 on the display screen, and corresponds to the moving object detection area 310 in the captured image. By displaying the moving object detection area 110, the operator 106 can recognize the position where the hand should move.

111は動体である操作者の手の位置をイメージしたものであり、撮像部102で撮像された手の位置311及びその軌跡312が動き検出部200で検出され、映像処理部204でイメージ化され表示部101に表示されている。なお、動体のイメージ111は、操作者が理解しやすい形状であればどのような形でもかまわない。112は、動き解析部201が解析した操作者106が手を動かした際の手の軌跡を示している。図4に動体が動体検出領域外にある場合の、表示画面例を示す。図2と同じものは同じ番号を付しており、説明は省略する。401は操作者の手の位置をイメージしたものであり、図3の操作者の手313に対応しており、動体検出領域311の外にある。イメージ401が動体検出領域110外にある場合は、画面上に動体のイメージは表示するが、操作の軌跡解析を行わず、操作制御装置100の制御はしない。   111 is an image of the position of the operator's hand, which is a moving object. The hand position 311 and its locus 312 imaged by the imaging unit 102 are detected by the motion detection unit 200 and imaged by the video processing unit 204. It is displayed on the display unit 101. The moving object image 111 may have any shape as long as it is easy for the operator to understand. Reference numeral 112 denotes a trajectory of the hand when the operator 106 moves the hand analyzed by the motion analysis unit 201. FIG. 4 shows an example of a display screen when the moving object is outside the moving object detection region. The same components as those in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted. 401 is an image of the position of the operator's hand, which corresponds to the operator's hand 313 in FIG. 3 and is outside the moving object detection area 311. When the image 401 is outside the moving object detection area 110, the moving object image is displayed on the screen, but the operation trajectory analysis is not performed and the operation control apparatus 100 is not controlled.

次に操作制御装置100の処理フローを、図5及び図1を用いて説明する。本操作制御装置を開始すると、ステップ501で、動き検出部200により、撮像部102で撮影した画像データから動体検出を行う。ステップ501で、動体が検出されなければ動体検出処理を繰り返し、動体が検出されれば、ステップ502で、システム制御部203及び映像処理部204により、検出した動体の位置を、例えば図2のイメージ111のように表示する。ステップ503では、システム制御部203により、検出した動体の位置が検出領域設定部202で設定された動体検出領域310の内にあるか外にあるかを判断する。動体の位置が領域外であれば、ステップ501の動体検出に戻る。動体の位置が領域内であれば、ステップ504で、動き解析部201により、動体の軌跡を解析し、動体の移動方向および移動量を検出する。ステップ505では、システム制御部203により、動体の移動量が予め設定されている閾値以上かどうかを判断する。閾値以下であればステップ501の動体検出に戻る。閾値以上であれば、ステップ506で、システム制御部203により、動体の移動量および移動方向に対応した制御コマンドを生成し、制御コマンドに従った画面表示を、映像処理部204を用いて、表示部101に行わせる。例えば、図2のようなコンテンツメニュー103では、動体が左に動くとコンテンツメニューを左に動かす。   Next, the processing flow of the operation control apparatus 100 will be described with reference to FIGS. When the operation control apparatus is started, in step 501, the motion detection unit 200 detects a moving object from image data captured by the imaging unit 102. If no moving object is detected in step 501, the moving object detection process is repeated. If a moving object is detected, the system control unit 203 and the video processing unit 204 detect the position of the detected moving object in step 502, for example, the image of FIG. 111 is displayed. In step 503, the system control unit 203 determines whether the position of the detected moving object is within or outside the moving object detection region 310 set by the detection region setting unit 202. If the position of the moving object is out of the region, the process returns to step 501 for detecting the moving object. If the position of the moving object is within the region, in step 504, the motion analysis unit 201 analyzes the locus of the moving object and detects the moving direction and the moving amount of the moving object. In step 505, the system control unit 203 determines whether the moving amount of the moving object is equal to or greater than a preset threshold value. If it is below the threshold value, the process returns to the moving object detection in step 501. If it is equal to or greater than the threshold value, in step 506, the system control unit 203 generates a control command corresponding to the moving amount and moving direction of the moving object, and displays the screen display according to the control command using the video processing unit 204. Let the unit 101 perform this. For example, in the content menu 103 as shown in FIG. 2, when the moving object moves to the left, the content menu is moved to the left.

図6に表示画面例を示す。図2と同じものは同じ番号を付しており、説明は省略する。図6(a)は動体の初期位置の表示画面例であり、601は動体の位置を示すイメージであり、602および603はコンテンツメニュー103に表示されているコンテンツA、コンテンツBである。図6(a)では、フォーカス位置104にコンテンツA602が位置している。図6(b)は、動体が左方向に移動した場合の表示画面例であり、604は動体の軌跡、605は移動後の動体の位置を示すイメージである。図6(c)は、動体が左に動いたのに対応してコンテンツメニューを左に移動させた表示画面例である。コンテンツメニューを左に移動させた結果、フォーカス位置104にはコンテンツB603が配置され、コンテンツA602はフォーカス位置104の左に移動している。さらに、図6(d)は、動体がさらに左方向に移動して、動体検出領域110外に移動した表示画面例である。606は動体の軌跡、607は移動後の動体の位置を示すイメージである。動体の軌跡606は動体検出領域110外であるので、操作制御をせず、コンテンツメニュー103も図6(c)のままとなる。   FIG. 6 shows a display screen example. The same components as those in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted. FIG. 6A is an example of a display screen of the initial position of the moving object, 601 is an image indicating the position of the moving object, and 602 and 603 are the contents A and B displayed on the content menu 103. In FIG. 6A, the content A 602 is located at the focus position 104. FIG. 6B is an example of a display screen when the moving object moves to the left, 604 is an image showing the locus of the moving object, and 605 is an image showing the position of the moving object after the movement. FIG. 6C is a display screen example in which the content menu is moved to the left in response to the moving object moving to the left. As a result of moving the content menu to the left, the content B 603 is arranged at the focus position 104, and the content A 602 is moved to the left of the focus position 104. Further, FIG. 6D is an example of a display screen in which the moving object further moves leftward and moves out of the moving object detection area 110. Reference numeral 606 denotes a locus of the moving object, and 607 denotes an image showing the position of the moving object after movement. Since the moving object trajectory 606 is outside the moving object detection area 110, no operation control is performed, and the content menu 103 remains as shown in FIG.

以上、コンテンツメニュー103を左に動かす例を示したが、手を右に動かせば、コンテンツメニュー103を右に動かすことになる。   The example in which the content menu 103 is moved to the left has been described above. However, if the hand is moved to the right, the content menu 103 is moved to the right.

本例によれば、限られた領域を動体検出領域とし、操作者が動体検出領域内を横切るような動作をし、戻り動作のような意図しない動きは動作検出領域外で行うようにすることにより、意図しない動きを認識させることなく、操作者が意図する操作がし易くなる。   According to this example, a limited area is set as a moving object detection area, and an operator performs an action that crosses the moving object detection area, and an unintended movement such as a return action is performed outside the action detection area. Thus, an operation intended by the operator can be easily performed without recognizing an unintended movement.

図7は、本発明の操作制御装置の実施例1とは別の表示画面例である。図2と同じものには同じ番号を付し、説明は省略する。701はフォーカス位置、705および706はコンテンツメニュー103の移動方向を示す。702は動体検出領域であり、コンテンツのフォーカス位置701に重なった位置に配置されている。703は動体の位置のイメージ、704は動体の軌跡である。システム構成については図1と、処理フロー及び表示画面内の動きについては図5及び図6と同様なため説明は省略する。   FIG. 7 is an example of a display screen different from the first embodiment of the operation control apparatus of the present invention. The same components as those in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted. Reference numeral 701 denotes a focus position, and reference numerals 705 and 706 denote moving directions of the content menu 103. Reference numeral 702 denotes a moving object detection area, which is arranged at a position overlapping the content focus position 701. Reference numeral 703 denotes an image of the position of the moving object, and reference numeral 704 denotes a locus of the moving object. The system configuration is the same as that in FIG. 1, and the processing flow and the movement in the display screen are the same as those in FIGS.

本例によれば、動作検出領域702がフォーカス位置701と重なっているため、操作者はより、手の動きでコンテンツを動かしている感覚を得ることができ、より直観的な操作が可能になる。   According to this example, since the motion detection area 702 overlaps with the focus position 701, the operator can obtain a sense of moving the content by the movement of the hand, and a more intuitive operation is possible. .

図8は、本発明の操作制御装置の実施例1及び2とは別の表示画面例である。図2と同じものには同じ番号を付し、説明は省略する。900はコンテンツメニュー、901はフォーカス位置、906および907はコンテンツメニューの移動方向を示す。902は動体検出領域であり、コンテンツメニュー900に重なった位置に配置されている。904は動体の位置のイメージ、905は動体の軌跡である。システム構成については図1と、処理フロー及び表示画面内の動きについては図5及び図6と同様なため説明は省略する。   FIG. 8 is a display screen example different from the first and second embodiments of the operation control apparatus of the present invention. The same components as those in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted. 900 denotes a content menu, 901 denotes a focus position, and 906 and 907 denote moving directions of the content menu. Reference numeral 902 denotes a moving object detection area, which is arranged at a position overlapping the content menu 900. 904 is an image of the position of the moving object, and 905 is a locus of the moving object. The system configuration is the same as that in FIG. 1, and the processing flow and the movement in the display screen are the same as those in FIGS.

本例によれば、動作検出領域902がコンテンツメニュー900と重なっているため、操作者はより、手の動きでコンテンツを動かしている感覚を得ることができ、より直観的な操作が可能になる。   According to this example, since the motion detection area 902 overlaps with the content menu 900, the operator can obtain a sense that the content is moved by hand movement, and more intuitive operation is possible. .

図9は、本発明の操作制御装置の実施例1ないし3とは別の表示画面例である。図2および図7と同じものには同じ番号を付し、説明は省略する。801は702を第1動体検出領域とした場合の第2動体検出領域、802は動体の位置のイメージ、803は動体の軌跡である。   FIG. 9 is a display screen example different from those in the first to third embodiments of the operation control apparatus of the present invention. The same components as those in FIGS. 2 and 7 are denoted by the same reference numerals, and description thereof is omitted. Reference numeral 801 denotes a second moving object detection area where 702 is the first moving object detection area, 802 is an image of the position of the moving object, and 803 is a locus of the moving object.

次に本例の操作制御装置の処理フローを、図10を用いて説明する。図5と同じものは同じ番号を付し、説明は省略する。ステップ502で、動体の位置を表示した後、ステップ510で、システム制御部203により、動体の位置が検出領域設定部202で設定された第1動体検出領域702及び第2動体検出領域801のいずれの範囲内にあるかを判断する。動体の位置がいずれにもない場合はステップ501の動体検出に戻る。動体の位置がどちらかの範囲内にある場合は、ステップ504で、動体の軌跡を解析する。ステップ505で、動体の移動量が閾値以上であれば、ステップ511で、システム制御部203により、動体の位置が第1動体検出領域702内にあるかどうかを判断する。動体の位置が第1動体検出領域702内であれば、ステップ506で、制御コマンドを生成し、例えばコンテンツメニューを動かす画面表示を行う。動体の位置が、動体検出領域702外であれば、第2動体検出領域内であるので、ステップ512で、ステップ506とは異なる別の制御コマンドの生成を行う。本例では、制御コマンドを、音量変更のために割り当てている。   Next, the processing flow of the operation control apparatus of this example will be described with reference to FIG. The same components as those in FIG. After the position of the moving object is displayed in step 502, in step 510, either the first moving object detection area 702 or the second moving object detection area 801 in which the position of the moving object is set by the detection area setting unit 202 by the system control unit 203. It is judged whether it is in the range. If there is no moving object position, the process returns to step 501 for moving object detection. If the position of the moving object is in either range, in step 504, the trajectory of the moving object is analyzed. If the moving amount of the moving object is greater than or equal to the threshold value in step 505, the system control unit 203 determines in step 511 whether the position of the moving object is within the first moving object detection region 702. If the position of the moving object is within the first moving object detection region 702, a control command is generated in step 506, and for example, a screen display for moving a content menu is displayed. If the position of the moving object is outside the moving object detection area 702, it is in the second moving object detection area, and therefore, in step 512, another control command different from step 506 is generated. In this example, control commands are assigned to change the volume.

本例によれば、複数の動体検出領域を設け、各々に制御対象を割り当てることにより、同じ手の操作で複数の制御が可能になる。なお、本例では2つの動作検出領域としたが、操作の必要に応じてさらに動体検出領域を増やしてもよい。   According to this example, by providing a plurality of moving object detection areas and assigning control targets to each, a plurality of controls can be performed with the same hand operation. In this example, the two motion detection areas are used. However, the moving object detection areas may be further increased as necessary for the operation.

図11に操作者の手の動きの一例を示す。151は操作者がx軸方向に手を左右に動かす動作の軌跡、150はy軸方向に手を上下に動かす動作の軌跡を示している。操作者は、手を上下、左右に動かすことにより操作制御装置の操作を行う。   FIG. 11 shows an example of the movement of the operator's hand. Reference numeral 151 denotes a trajectory of the operation of moving the hand left and right in the x-axis direction, and 150 denotes a trajectory of the operation of moving the hand up and down in the y-axis direction. The operator operates the operation control device by moving his / her hand up / down and left / right.

図12は、図7に対応する本発明の操作制御装置の表示画面例である。図2および図7と同じものには同じ番号を付し、説明は省略する。160は動体の位置のイメージであり、161は動体の軌跡、162は操作できる制御項目を操作方向とともに示した表示である。   FIG. 12 is a display screen example of the operation control apparatus of the present invention corresponding to FIG. The same components as those in FIGS. 2 and 7 are denoted by the same reference numerals, and description thereof is omitted. 160 is an image of the position of the moving object, 161 is the locus of the moving object, and 162 is a display showing the control items that can be operated along with the operation direction.

次に本例の操作制御装置の処理フローを、図13を用いて説明する。図5と同じものは同じ番号を付し、説明は省略する。ステップ504で動体の軌跡を解析した後、ステップ520で、システム制御部203により、x方向の移動量が閾値以上であるかどうかを判断する。x軸方向の移動量が閾値以上であれば、ステップ506で、x軸方向の移動に対応する制御コマンドを生成し、例えばコンテンツメニューを動かす画面表示を行う。x軸方向の移動量が閾値以下であれば、ステップ521で、システム制御部203により、y軸方向の移動量が閾値以上であるかどうかを判断する。y軸方向の移動量が閾値以上であれば、ステップ522で、y軸方向の移動に対応する制御コマンドを生成し、例えばフォーカス位置701にあるコンテンツを選択/再生する。   Next, the processing flow of the operation control apparatus of this example will be described with reference to FIG. The same components as those in FIG. After analyzing the trajectory of the moving object in step 504, in step 520, the system control unit 203 determines whether the amount of movement in the x direction is greater than or equal to a threshold value. If the amount of movement in the x-axis direction is greater than or equal to the threshold value, in step 506, a control command corresponding to movement in the x-axis direction is generated, and for example, a screen display for moving a content menu is displayed. If the movement amount in the x-axis direction is equal to or smaller than the threshold value, in step 521, the system control unit 203 determines whether the movement amount in the y-axis direction is equal to or larger than the threshold value. If the amount of movement in the y-axis direction is greater than or equal to the threshold, a control command corresponding to the movement in the y-axis direction is generated in step 522, and for example, the content at the focus position 701 is selected / reproduced.

本例によれば、動体の動きを、x軸方向およびy軸方向に分け異なる制御に割り当てることにより、より多くの制御が可能になる。また、図9に示したような複数の動体検出領域を用いた制御との組み合わせにより、さらに多くの制御を可能とする。   According to this example, more control is possible by dividing the motion of the moving body into different controls in the x-axis direction and the y-axis direction. Further, a greater amount of control is possible by combining with control using a plurality of moving object detection regions as shown in FIG.

図14に操作者の手の動きの一例を示す。350は操作者がx軸方向に手を左右に動かす動作の軌跡、351はy軸方向に手を上下に動かす動作の軌跡、352はz軸方向に手を前後に動かす動作の軌跡を示している。操作者は、手を上下、左右、前後に動かすことにより操作制御装置の操作を行う。   FIG. 14 shows an example of the movement of the operator's hand. 350 is a trajectory of the movement of the operator to move the hand left and right in the x-axis direction, 351 is a trajectory of the movement of moving the hand up and down in the y-axis direction, and 352 is a trajectory of the movement of moving the hand back and forth in the z-axis direction. Yes. The operator operates the operation control device by moving his / her hand up / down, left / right, and front / rear.

図15は、図7に対応する本発明の操作制御装置の表示画面例である。図2および図7と同じものには同じ番号を付し、説明は省略する。本例では、撮像部102として撮像部102と撮像対象物との距離が測定可能な3Dカメラ等を用いている。451は動体の位置のイメージであり、452は操作方法を示した表示例である。例えば操作者が操作方法452に従い、手を前に出すと、操作制御装置100では動体が近づいたと判断し、フォーカス位置701にあるコンテンツの再生等を行う。   FIG. 15 is a display screen example of the operation control device of the present invention corresponding to FIG. The same components as those in FIGS. 2 and 7 are denoted by the same reference numerals, and description thereof is omitted. In this example, a 3D camera or the like that can measure the distance between the imaging unit 102 and the imaging object is used as the imaging unit 102. Reference numeral 451 denotes an image of the position of the moving object, and reference numeral 452 denotes a display example showing an operation method. For example, when the operator puts his / her hand forward according to the operation method 452, the operation control apparatus 100 determines that the moving object has approached and reproduces the content at the focus position 701.

次に本例の操作制御装置の処理フローを、図16を用いて説明する。図5および図13と同じものは同じ番号を付し、説明は省略する。ステップ520でx軸方向の移動量が閾値以上であれば、ステップ506で、x軸方向の移動に対応する制御コマンドを生成し、例えばコンテンツメニューを動かす画面表示を行う。ステップ520でx軸方向の移動量が閾値以下であれば、ステップ530で、システム制御部203により、z軸方向の移動量が閾値以上であるかどうかを判断する。z軸方向の移動量が閾値以上であれば、ステップ522で、z軸方向の移動に対応する制御コマンドを生成し、例えばフォーカス位置701にあるコンテンツを選択/再生する。   Next, the processing flow of the operation control apparatus of this example will be described with reference to FIG. The same components as those in FIG. 5 and FIG. If the amount of movement in the x-axis direction is greater than or equal to the threshold value in step 520, in step 506, a control command corresponding to the movement in the x-axis direction is generated, and for example, a screen display for moving a content menu is displayed. If the amount of movement in the x-axis direction is equal to or smaller than the threshold value in step 520, in step 530, the system control unit 203 determines whether the amount of movement in the z-axis direction is equal to or larger than the threshold value. If the amount of movement in the z-axis direction is equal to or greater than the threshold value, in step 522, a control command corresponding to the movement in the z-axis direction is generated, and for example, the content at the focus position 701 is selected / reproduced.

本例によれば、動体の動きを、x軸方向、y軸方向、さらに、z軸方向にも分け異なる制御に割り当てることにより、より多くの制御が可能になる。また、図9に示したような複数の動体検出領域を用いた制御との組み合わせにより、さらに多くの制御を可能とする。   According to this example, more control is possible by assigning the motion of the moving body to different controls in the x-axis direction, the y-axis direction, and further in the z-axis direction. Further, a greater amount of control is possible by combining with control using a plurality of moving object detection regions as shown in FIG.

図17に二人の操作者の手の動きと撮像部102との関係図を示す。図2と同じものには同じ番号を付しており、説明は省略する。撮像部102は撮像部102と撮像対象物との距離が測定可能な3Dカメラ等である。650は第2の操作者であり、操作者106に比べて撮像部102から遠い位置にいる。651は操作者106の手の動作の軌跡であり、652は第2の操作者650の手の動作の軌跡を示している。操作者106と第2の操作者650は同時に手を動かしている。   FIG. 17 shows a relationship diagram between the movements of the hands of the two operators and the imaging unit 102. The same components as those in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted. The imaging unit 102 is a 3D camera or the like that can measure the distance between the imaging unit 102 and the imaging target. Reference numeral 650 denotes a second operator, which is farther from the imaging unit 102 than the operator 106. Reference numeral 651 denotes a trajectory of the hand movement of the operator 106, and reference numeral 652 denotes a trajectory of the hand movement of the second operator 650. The operator 106 and the second operator 650 move their hands at the same time.

図18は撮像部102の撮影画像例である。図3と同じものには同じ番号を付しており、説明は省略する。751は操作者106の撮像画像、752は操作者106の手の撮像画像、753は操作者106の手の動作の軌跡を示している。また、754は操作者650の撮像画像、755は操作者650の手の撮像画像、756は操作者650の手の動作の軌跡を示している。   FIG. 18 is an example of a captured image of the imaging unit 102. The same components as those in FIG. 3 are denoted by the same reference numerals, and description thereof is omitted. 751 indicates a captured image of the operator 106, 752 indicates a captured image of the hand of the operator 106, and 753 indicates a trajectory of the hand motion of the operator 106. Reference numeral 754 indicates a captured image of the operator 650, 755 indicates a captured image of the hand of the operator 650, and 756 indicates a trajectory of the hand of the operator 650.

ここでは、撮像部102からの距離データを明示してはいないが、各画像データは距離データも持っている。本例では、撮像画像データから撮像部102に最も近い動体を抽出して表示する。図19にその表示画面例を示す。図2と同じものには同じ番号を付しており、説明は省略する。851は操作者106の手の位置のイメージであり、852は手の動作の軌跡を示している。撮像部102では動体が2個検出されているが、図19の表示画面例では、最も近い動体である操作者106の手の位置を示すイメージ851のみ表示されており、操作制御装置100の操作も操作者106の動きのみが有効になっている。   Here, distance data from the imaging unit 102 is not clearly shown, but each image data also has distance data. In this example, the moving object closest to the imaging unit 102 is extracted from the captured image data and displayed. FIG. 19 shows an example of the display screen. The same components as those in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted. Reference numeral 851 denotes an image of the position of the hand of the operator 106, and reference numeral 852 denotes a locus of hand movement. Although two moving objects are detected in the imaging unit 102, only the image 851 indicating the position of the hand of the operator 106 that is the closest moving object is displayed in the display screen example of FIG. In addition, only the movement of the operator 106 is effective.

次に、本例の操作制御装置100の処理フローを、図20を用いて説明する。図5および図16と同じものは同じ番号を付し、説明は省略する。ステップ501で動体を検出すると、ステップ540で、システム制御部203により、動体までの距離が基準値より近いかどうかを判断する。基準値は、操作制御装置100を操作可能な範囲として予め決めておく。こうすることにより、不必要な動体の検出を避けることができる。ステップ540で、基準値より遠ければ、ステップ501の動体検出に戻る。基準値より近ければ、ステップ541で、システム制御部203により、予め設けた動体の大きさの基準値内であるかどうかを判断する。動体の大きさが基準値外であれば、ステップ501の動体検出に戻る。こうすることにより、操作者の前を人が横切る等の動作をした時に、誤動作させないようにできる。動体の大きさが基準値内であれば、ステップ542で、システム制御部203及び映像処理部204により、最短距離にある動体として、その位置を表示する。   Next, the processing flow of the operation control apparatus 100 of this example is demonstrated using FIG. The same components as those in FIGS. 5 and 16 are denoted by the same reference numerals, and description thereof is omitted. When a moving object is detected in step 501, in step 540, the system control unit 203 determines whether the distance to the moving object is closer than a reference value. The reference value is determined in advance as a range in which the operation control apparatus 100 can be operated. In this way, unnecessary moving object detection can be avoided. If it is farther than the reference value in step 540, the process returns to step 501 for moving object detection. If it is closer than the reference value, in step 541, the system control unit 203 determines whether or not it is within the reference value of the size of the moving object provided in advance. If the size of the moving object is out of the reference value, the process returns to step 501 for detecting the moving object. By doing so, it is possible to prevent malfunctions when an operation such as a person crossing in front of the operator is performed. If the size of the moving object is within the reference value, in step 542, the system control unit 203 and the video processing unit 204 display the position of the moving object as the shortest distance.

本例によれば、複数の操作者がいる場合、複数の移動体がある場合においても、真の操作者の手を特定し、操作可能な動体として認識することができる。   According to this example, even when there are a plurality of operators and there are a plurality of moving bodies, the true operator's hand can be identified and recognized as an operable moving body.

図21に操作者と撮像部との関係図を示す。図2と同じものには同じ番号を付しており、説明は省略する。撮像部102は撮像部102と撮像対象物との距離が測定可能な3Dカメラ等である。251は操作者106の手であり、252は撮像部102で検出される手251の位置、253は撮像部102で検出される手252までの距離、254は撮像部102で検出される操作者106の位置、255は撮像部102で検出される操作者106までの距離、256は操作者106までの距離255と操作者の手251までの距離253との差分を示している。   FIG. 21 shows a relationship diagram between the operator and the imaging unit. The same components as those in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted. The imaging unit 102 is a 3D camera or the like that can measure the distance between the imaging unit 102 and the imaging target. 251 is the hand of the operator 106, 252 is the position of the hand 251 detected by the imaging unit 102, 253 is the distance to the hand 252 detected by the imaging unit 102, 254 is the operator detected by the imaging unit 102 The position of 106, 255 is the distance to the operator 106 detected by the imaging unit 102, and 256 is the difference between the distance 255 to the operator 106 and the distance 253 to the operator's hand 251.

次に、本例の操作制御装置100の処理フローを、図22を用いて説明する。図5および図16と同じものは同じ番号を付し、説明は省略する。ステップ550で、操作者106を検出する。操作者106の検出は、撮像部102の撮像データで可能であり、例えば、画像を認識する方法や、撮影画像の中である一定距離内にある物体の大きさを検出する方法などを用いればよい。操作者106を検出することで操作者までの距離255がわかる。次に、ステップ501で、動体である手252を検出し、ステップ502で動体の位置表示をした後、ステップ551に移行する。ステップ551では、操作者までの距離255と動体の距離までの距離253の差分を取り、基準値と比較する。ここで、基準値は、操作者106が操作を目的に手を伸ばすおおよその距離を考慮して設定される。差分が、ある一定の基準値以上であれば、操作者106が操作を目的として伸ばした手であるとして、これを正式に動体として特定し、ステップ504に移行する。差分が一定の基準値以下であれば、操作者106が操作を目的とせずに動かした手であるとして、これを正式な動体として特定しないようにする。   Next, the processing flow of the operation control apparatus 100 of this example is demonstrated using FIG. The same components as those in FIGS. 5 and 16 are denoted by the same reference numerals, and description thereof is omitted. In step 550, the operator 106 is detected. The operator 106 can detect the image data of the imaging unit 102. For example, if a method of recognizing an image or a method of detecting the size of an object within a certain distance in a captured image is used. Good. By detecting the operator 106, the distance 255 to the operator can be known. Next, in step 501, the moving hand 252 is detected. In step 502, the position of the moving object is displayed, and then the process proceeds to step 551. In step 551, the difference between the distance 255 to the operator and the distance 253 to the moving object is taken and compared with a reference value. Here, the reference value is set in consideration of an approximate distance that the operator 106 reaches for the operation. If the difference is equal to or greater than a certain reference value, the operator 106 is officially identified as a moving object, assuming that the hand has been extended for the purpose of operation, and the process proceeds to step 504. If the difference is equal to or less than a certain reference value, it is determined that the operator 106 is a hand that has been moved without the purpose of operation, and this is not specified as an official moving object.

本例によれば、操作者の操作を目的とした手などの動きを検出し、操作を意図しない手などの動きで誤動作しないようにすることができる。   According to this example, it is possible to detect a movement of a hand or the like for the purpose of an operator's operation and prevent malfunctions caused by a movement of a hand or the like that is not intended for the operation.

100・・・操作制御装置、101・・・表示部、102・・・撮像部、103・・・コンテンツ選択メニュー、104・・・フォーカス位置、106・・・操作者、111・・・動体操作領域、200・・・動き検出部、201・・・動き解析部、202・・・システム制御部、203・・・検出範囲設定部、204・・・映像処理部 DESCRIPTION OF SYMBOLS 100 ... Operation control apparatus, 101 ... Display part, 102 ... Imaging part, 103 ... Content selection menu, 104 ... Focus position, 106 ... Operator, 111 ... Moving body operation Area, 200 ... motion detection unit, 201 ... motion analysis unit, 202 ... system control unit, 203 ... detection range setting unit, 204 ... video processing unit

Claims (6)

3Dカメラによる撮影により操作者の手の動きを検出し、前記手の動きに従って、表示画面上の操作をわせる操作制御装置であって、
撮像画面内における操作制御が可能な領域を設定する検出領域設定部と、
前記検出領域設定部で設定された操作制御が可能な領域、前記操作者の手、および複数の選択項目が並んだメニューを表示画面上に表示する表示部と、
前記表示画面上において、前記3Dカメラから最短距離にある前記操作者の手を表示させ、表示された前記操作者の手が、前記操作制御が可能な領域内で動いた場合に、前記操作者の手の動きの移動方向及び移動量に対応して、前記表示画面上の前記メニューを移動して表示させる制御部と、を備えることを特徴とする操作制御装置
Detecting a movement of the operator's hand by photography by the 3D camera, according to the movement of the hand, and an operation control apparatus for I-line operations for the display screen,
A detection area setting unit for setting an area where operation control is possible within the imaging screen;
A display unit that displays on the display screen a region in which the operation control set in the detection region setting unit is possible, the operator's hand, and a menu in which a plurality of selection items are arranged;
On the display screen, the operator's hand at the shortest distance from the 3D camera is displayed, and when the displayed operator's hand moves within an area where the operation can be controlled, the operator of corresponding to the movement direction and the movement amount of the movement of the hand, the operation control device, characterized in that it comprises a control unit for displaying and moving the menu on the display screen.
前記制御部は、前記複数の選択項目のうちの選択可能な1つの表示領域と、前記操作制御が可能な領域を重ならせて表示させることを特徴とする請求項1に記載の操作制御装置The operation control apparatus according to claim 1, wherein the control unit displays one selectable display area of the plurality of selection items and the area where the operation control can be performed in an overlapping manner. . 前記制御部は、前記メニューの表示領域と、前記操作制御が可能な領域を重ならせて表示させることを特徴とする請求項1に記載の操作制御装置The operation control apparatus according to claim 1, wherein the control unit displays a display area of the menu so as to overlap an area where the operation can be controlled . 3Dカメラによる撮影により操作者の手の動きと操作者の体を検出し、前記手の動きに従って、表示画面上の操作を行わせる操作制御装置であって、
撮像画面内における操作制御が可能な領域を設定する検出領域設定部と、
前記検出領域設定部で設定された操作制御が可能な領域、前記操作者の手、および複数の選択項目が並んだメニューを表示画面上に表示する表示部と、
前記表示画面上において、前記操作者の体から所定の距離だけ手前に出された前記操作者の手を表示させ、表示された前記操作者の手が、前記操作制御が可能な領域内で動いた場合に、前記操作者の手の動きの移動方向及び移動量に対応して、前記表示画面上の前記メニューを移動して表示させる制御部と、を備えることを特徴とする操制御装置
An operation control device that detects the movement of the operator's hand and the body of the operator by shooting with a 3D camera, and performs an operation on a display screen according to the movement of the hand,
A detection area setting unit for setting an area where operation control is possible within the imaging screen;
A display unit that displays on the display screen a region in which the operation control set in the detection region setting unit is possible, the operator's hand, and a menu in which a plurality of selection items are arranged;
On the display screen, the operator's hand that has been put forward by a predetermined distance from the operator's body is displayed, and the displayed operator's hand moves within a region where the operation control is possible. If the, corresponding to the moving direction and the moving amount of the motion of the hand of the operator, the control unit for displaying and moving the menu on the display screen, operation control further comprising a Equipment .
前記制御部は、前記複数の選択項目のうちの選択可能な1つの表示領域と、前記操作制御が可能な領域を重ならせて表示させることを特徴とする請求項4に記載の操作制御装置。The operation control apparatus according to claim 4, wherein the control unit displays one selectable display area of the plurality of selection items and the area where the operation control is possible in an overlapping manner. . 前記制御部は、前記メニューの表示領域と、前記操作制御が可能な領域を重ならせて表示させることを特徴とする請求項4に記載の操作制御装置。The operation control apparatus according to claim 4, wherein the control unit displays a display area of the menu so as to overlap an area where the operation control is possible.
JP2013248830A 2013-12-02 2013-12-02 Operation control device Active JP5770251B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013248830A JP5770251B2 (en) 2013-12-02 2013-12-02 Operation control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013248830A JP5770251B2 (en) 2013-12-02 2013-12-02 Operation control device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008249516A Division JP5427385B2 (en) 2008-09-29 2008-09-29 Operation control device and operation display method

Publications (2)

Publication Number Publication Date
JP2014096804A JP2014096804A (en) 2014-05-22
JP5770251B2 true JP5770251B2 (en) 2015-08-26

Family

ID=50939507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013248830A Active JP5770251B2 (en) 2013-12-02 2013-12-02 Operation control device

Country Status (1)

Country Link
JP (1) JP5770251B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6519074B2 (en) * 2014-09-08 2019-05-29 任天堂株式会社 Electronics
JP6519075B2 (en) * 2015-02-10 2019-05-29 任天堂株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING PROGRAM, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD
JP6551941B2 (en) * 2016-04-19 2019-07-31 株式会社東海理化電機製作所 Gesture determination device
CN105898566A (en) * 2016-04-29 2016-08-24 乐视控股(北京)有限公司 Video content presenting switching method and device, and mobile play terminal

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981307A (en) * 1995-09-08 1997-03-28 Clarion Co Ltd Equipment controller
JP4010708B2 (en) * 1999-06-21 2007-11-21 日本ビクター株式会社 Equipment control device
JP2002116859A (en) * 2000-10-11 2002-04-19 Sony Corp Information processor, instruction recognition processing method and program storage medium
JP2004258837A (en) * 2003-02-25 2004-09-16 Nippon Hoso Kyokai <Nhk> Cursor operation device, method therefor and program therefor
JP2006209563A (en) * 2005-01-31 2006-08-10 Victor Co Of Japan Ltd Interface device
JP2007034525A (en) * 2005-07-25 2007-02-08 Fuji Xerox Co Ltd Information processor, information processing method and computer program
JP2008040576A (en) * 2006-08-02 2008-02-21 Sharp Corp Image processing system and video display device equipped with the same
JP4481280B2 (en) * 2006-08-30 2010-06-16 富士フイルム株式会社 Image processing apparatus and image processing method
US20080098448A1 (en) * 2006-10-19 2008-04-24 Sony Computer Entertainment America Inc. Controller configured to track user's level of anxiety and other mental and physical attributes
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control

Also Published As

Publication number Publication date
JP2014096804A (en) 2014-05-22

Similar Documents

Publication Publication Date Title
JP5427385B2 (en) Operation control device and operation display method
JP5261554B2 (en) Human-machine interface for vehicles based on fingertip pointing and gestures
JP5167523B2 (en) Operation input device, operation determination method, and program
JP5921835B2 (en) Input device
US9001208B2 (en) Imaging sensor based multi-dimensional remote controller with multiple input mode
US9329691B2 (en) Operation input apparatus and method using distinct determination and control areas
CN108469899B (en) Method of identifying an aiming point or area in a viewing space of a wearable display device
JP5515067B2 (en) Operation input device, operation determination method, and program
US9342925B2 (en) Information processing apparatus, information processing method, and program
JP2010184600A (en) Onboard gesture switch device
CN110395182B (en) Motor vehicle with electronic rear view mirror
EP2908215B1 (en) Method and apparatus for gesture detection and display control
JP2006209563A (en) Interface device
EP3021206B1 (en) Method and device for refocusing multiple depth intervals, and electronic device
JP5921981B2 (en) Video display device and video display method
US8416189B2 (en) Manual human machine interface operation system and method thereof
JP2011028366A (en) Operation control device and operation control method
US11693482B2 (en) Systems and methods for controlling virtual widgets in a gesture-controlled device
KR101438615B1 (en) System and method for providing a user interface using 2 dimension camera in a vehicle
JP5770251B2 (en) Operation control device
JP2012238293A (en) Input device
KR20120136719A (en) The method of pointing and controlling objects on screen at long range using 3d positions of eyes and hands
JP2007086995A (en) Pointing device
CN105759955B (en) Input device
JP2012179682A (en) Mobile robot system, mobile robot control device, and moving control method and moving control program to be used for the control device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140310

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140318

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150624

R150 Certificate of patent or registration of utility model

Ref document number: 5770251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250