JP5770251B2 - Operation control device - Google Patents
Operation control device Download PDFInfo
- Publication number
- JP5770251B2 JP5770251B2 JP2013248830A JP2013248830A JP5770251B2 JP 5770251 B2 JP5770251 B2 JP 5770251B2 JP 2013248830 A JP2013248830 A JP 2013248830A JP 2013248830 A JP2013248830 A JP 2013248830A JP 5770251 B2 JP5770251 B2 JP 5770251B2
- Authority
- JP
- Japan
- Prior art keywords
- operator
- hand
- operation control
- moving object
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 58
- 238000003384 imaging method Methods 0.000 claims description 37
- 238000000034 method Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000007257 malfunction Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Selective Calling Equipment (AREA)
Description
本発明は、テレビジョン受像機等の各種機器の操作システムに関し、特に簡易な操作手段で直観的に分かりやすい操作を行うことのできる操作制御装置及び操作表示方法に関する。 The present invention relates to an operation system for various devices such as a television receiver, and more particularly to an operation control device and an operation display method capable of performing intuitively easy-to-understand operations with simple operation means.
近年のテレビジョン受像機は、離れたところから機能を制御する為のリモートコントロール装置、いわゆるリモコンで操作するのが一般的な構成となっている。リモコンは離れた場所からテレビジョン受信機を操作できる便利な装置ではあるが、手元にない、あるいは電池切れなどリモコンが使えない状態にあると、操作者はストレスを感じることとなる。 In recent years, a television receiver is generally operated by a remote control device for controlling functions from a remote location, that is, a so-called remote controller. Although the remote control is a convenient device that can operate the television receiver from a remote location, the operator feels stressed if it is not at hand or is in a state where the remote control cannot be used, such as running out of batteries.
この改善策として、操作者の手の形や動きを検出して機器を操作する方式が提案されている。例えば、特開2004−356819のリモート操作装置では、カメラで撮影された操作者のある特定の動きを検出した場合に、表示装置に操作メニューを表示し、その後、操作者が手の形状や、方向を認識させることにより機器操作を行えるようにしている。 As an improvement measure, a method of operating a device by detecting the shape and movement of the operator's hand has been proposed. For example, in the remote operation device disclosed in Japanese Patent Application Laid-Open No. 2004-356819, an operation menu is displayed on the display device when a specific movement of the operator photographed by the camera is detected, and then the operator can change the shape of the hand, The device can be operated by recognizing the direction.
また、特開2000−149025では、人物の手足の動きの特徴を示す点の3次元座標を計測し、抽出された特徴点のうち手以外の特徴点を利用して人物の3次元位置/姿勢を推定し、推定された操作者の3次元位置を基準点として操作者姿勢に応じて各座標軸が一意に定まる操作者座標系を構成し、操作者の手足の特徴点を該操作者座標系に変換することで、操作者の位置/姿勢に依存しない特徴量を抽出し、その時系列変化とジェスチャモデルとのマッチングをとり人物の行なったジェスチャを推定するジェスチャ認識装置が開示される。このジェスチャ認識装置によると、操作者が位置/姿勢変化を行なう状況下でも高速にジェスチャを認識することが可能になる。 In Japanese Patent Laid-Open No. 2000-149025, the three-dimensional coordinates of a point indicating the characteristics of the movement of a person's limb are measured, and the three-dimensional position / posture of the person using the feature points other than the hand among the extracted feature points. And an operator coordinate system in which each coordinate axis is uniquely determined according to the operator posture with the estimated three-dimensional position of the operator as a reference point, and feature points of the operator's limbs are defined in the operator coordinate system. A gesture recognition device is disclosed that extracts a feature quantity that does not depend on the position / posture of an operator by converting to, and matches a time-series change with a gesture model to estimate a gesture performed by a person. According to this gesture recognition device, it becomes possible to recognize a gesture at high speed even in a situation where the operator changes the position / posture.
しかしながら、上記特許文献で開示された発明では、操作者を撮像した動画像からジェスチャを認識する場合、操作者がジェスチャをした動作と、操作者がジェスチャをした後に元の体制に戻る動作との区別がつきにくい問題がある。例えば、操作者が手で右方向を指し、その後、元の位置に手を戻した場合、その戻した動きが左方向を指す動作として認識されることがある。このように、従来の発明では、操作者がジェスチャを行った際に、操作として意図していない動きが認識されてしまうという課題があった。 However, in the invention disclosed in the above-mentioned patent document, when recognizing a gesture from a moving image obtained by capturing an operator, an operation in which the operator performs a gesture and an operation in which the operator returns to the original system after performing the gesture. There is a problem that is difficult to distinguish. For example, when the operator points the right direction with his hand and then returns his hand to the original position, the returned movement may be recognized as an operation pointing to the left direction. As described above, in the conventional invention, when the operator performs a gesture, there is a problem that a motion that is not intended as an operation is recognized.
本発明は、かかる課題をふまえ、操作者の動きのどの部分を装置への入力として受け付けるかを明確にすべく、操作者が有効な動作を行えるような領域の提示を行うと同時にリアルタイムなフィードバックを与えるようにする。 In view of such a problem, the present invention presents a region where the operator can perform an effective operation and simultaneously provides real-time feedback in order to clarify which part of the operator's movement is accepted as an input to the apparatus. To give.
具体的には、本発明は、撮影により操作者の動きを検出し、該動きに従って、表示画面上の操作を行わせる操作制御装置であって、撮像画面内における操作制御が可能な領域を設定する検出領域設定部と、前記検出領域設定部で設定された操作制御が可能な領域と、前記操作者の動きを表示画面上に表示させるとともに、該操作制御が可能な領域内で動きを検出した場合に、該動きに対応して、表示画面上の操作表示を行わせる制御部とを備えるようにする。 Specifically, the present invention is an operation control device that detects an operator's movement by photographing and performs an operation on a display screen according to the movement, and sets an area in which an operation can be controlled in the imaging screen. A detection area setting unit, an operation controllable area set by the detection area setting unit, and a movement of the operator is displayed on a display screen, and a motion is detected in the operation controllable area. In such a case, a control unit for performing operation display on the display screen is provided corresponding to the movement.
特に、前記制御部は、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示させ、該複数のコンテンツに関連する情報のうちの選択可能な1つの表示領域と、前記操作制御が可能な領域を重ならせて表示させる。 In particular, the control unit displays a menu showing information related to a plurality of contents on the display screen, one selectable display area of the information related to the plurality of contents, and the operation control Overlapping areas that can be displayed.
また、前記制御部は、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示させ、該メニューの表示領域と、前記操作制御が可能な領域を重ならせて表示させる。 Further, the control unit displays a menu showing information related to a plurality of contents on the display screen, and displays a display area of the menu and an area where the operation control is possible.
また、前記制御部は、前記操作制御が可能な領域を複数表示させ、該複数の領域ごとに、前記操作者の動きに対応して、異なる操作表示をさせる。 In addition, the control unit displays a plurality of regions in which the operation can be controlled, and displays different operations for each of the plurality of regions corresponding to the movement of the operator.
また、前記制御部は、該操作制御が可能な領域で検出する動きのうち、動きの方向と量に対応して異なる操作表示を行わせる。 Further, the control unit displays different operation displays corresponding to the direction and amount of the movement among the movements detected in the region where the operation control is possible.
さらに、本発明は、操作者の動きに従って、表示画面上の操作表示を行う操作表示方法であって、操作が可能な領域と、前記操作者の動きを表示画面上に表示するステップと、前記操作が可能な領域内での操作者の動きに対応して、表示画面上の操作表示を行うステップとを備えるようにする。 Further, the present invention is an operation display method for performing an operation display on a display screen according to an operator's movement, wherein the operable region, the step of displaying the operator's movement on the display screen, And a step of performing an operation display on the display screen in response to the movement of the operator within the operable region.
特に、前記表示画面上に表示するステップは、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示し、該複数のコンテンツに関連する情報のうちの選択可能な1つの表示領域と、前記操作が可能な領域を重ならせて表示する。 In particular, the step of displaying on the display screen displays a menu in which information related to a plurality of contents is displayed on the display screen, and one selectable display area of the information related to the plurality of contents Then, the regions where the operation can be performed are overlapped and displayed.
また、前記表示画面上に表示するステップは、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示し、該メニューの表示領域と、前記操作が可能な領域を重ならせて表示する。 In the step of displaying on the display screen, a menu showing information related to a plurality of contents is displayed on the display screen, and the display area of the menu is overlapped with the operable area. indicate.
また、前記表示画面上に表示するステップは、前記操作が可能な領域を複数表示させ、前記表示画面上の操作表示を行うステップは、前記複数の領域ごとに、前記操作者の動きに対応して、異なる操作表示を行う。 Further, the step of displaying on the display screen displays a plurality of the operable regions, and the step of performing the operation display on the display screen corresponds to the movement of the operator for each of the plurality of regions. Display different operations.
また、前記表示画面上の操作表示を行うステップは、該操作が可能な領域内での操作者の動きのうち、動きの方向と量に対応して異なる操作表示を行う。 The step of performing the operation display on the display screen performs different operation display corresponding to the direction and amount of the movement among the movements of the operator in the region where the operation is possible.
本発明によれば、操作者が有効な操作領域を認識することにより、簡単な動作での操作制御装置の操作が可能となる。 According to the present invention, the operator can operate the operation control device with a simple operation by recognizing an effective operation area.
以下に、本発明の実施形態を、図面を用いて説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は本発明の操作制御装置の構成を示すブロック図である。100は操作制御装置であり、102はカメラ等の撮像部、200は撮像部で撮像した操作者などの動画像から手などの動体を検出する動き検出部、201は動き検出部で検出した動体の移動方向および移動量を解析する動き解析部、202は撮像部102の撮影画面内において操作制御装置100の制御に使用する領域を設定する検出領域設定部、203は動き解析部201での解析結果と検出領域設定部202での設定領域に基づき操作制御装置100を制御するシステム制御部、204はシステム制御部203の制御結果から画面表示する映像データを生成する映像処理部、101は映像処理部で生成した映像データを表示する表示部である。表示部101は、例えば、液晶ディスプレイやプラズマディスプレイ等の表示装置で構成され、表示パネルとパネル制御回路とパネル制御ドライバとから構成される。
FIG. 1 is a block diagram showing the configuration of the operation control apparatus of the present invention. 100 is an operation control device, 102 is an imaging unit such as a camera, 200 is a motion detection unit that detects a moving object such as a hand from a moving image of an operator or the like imaged by the imaging unit, and 201 is a moving object detected by the motion detection unit. Is a motion analysis unit that analyzes the movement direction and amount of movement, 202 is a detection region setting unit that sets a region to be used for control of the
本発明の操作制御装置の動作例を図2に示す。図1と同じものには同じ番号を付している。106は操作制御装置100の操作者であり、107は操作者106が操作として手を動かした際の手の軌跡を示している。操作者106の動作は撮像部102で撮影されている。
An operation example of the operation control apparatus of the present invention is shown in FIG. The same elements as those in FIG.
また、110は、検出領域設定部202で設定された操作制御が可能な領域であり、111、112は、動き検出部で検出された操作者の手の動きである。
また、103は、視聴などのために選択すべきコンテンツメニューの例であり、104は、フォーカスされ、選択可能となっているコンテンツAを示している。コンテンツメニュー103では、コンテンツの代表画像あるいはコンテンツに関連した情報が並んで表示されている。105はコンテンツメニュー103のフォーカスが移動する方向を示しており、手を左右に動かすことで、コンテンツメニュー103内のフォーカスされるコンテンツが移動する。
上記の表示画面101内の表示は、システム制御部203で映像処理部204を制御することによって、行われる。
The display in the
撮像部102の撮影画像例を図3に示す。300は撮像部102で撮影した画面全体、311は検出領域設定部202で設定された動体検出領域、306は操作者、311および312は操作者306の手が検出領域310内にある場合の手の位置と軌跡、313および314は操作者306の手が検出領域310外にある場合の手の位置と軌跡を示している。
An example of a captured image of the
110は検出領域設定部202で設定されている動体検出領域を表示画面上に表示したものであり、撮像画像内の動体検出領域310に対応している。動体検出領域110を表示することで、操作者106が手を動かすべき位置を認識できるようにしている。
111は動体である操作者の手の位置をイメージしたものであり、撮像部102で撮像された手の位置311及びその軌跡312が動き検出部200で検出され、映像処理部204でイメージ化され表示部101に表示されている。なお、動体のイメージ111は、操作者が理解しやすい形状であればどのような形でもかまわない。112は、動き解析部201が解析した操作者106が手を動かした際の手の軌跡を示している。図4に動体が動体検出領域外にある場合の、表示画面例を示す。図2と同じものは同じ番号を付しており、説明は省略する。401は操作者の手の位置をイメージしたものであり、図3の操作者の手313に対応しており、動体検出領域311の外にある。イメージ401が動体検出領域110外にある場合は、画面上に動体のイメージは表示するが、操作の軌跡解析を行わず、操作制御装置100の制御はしない。
111 is an image of the position of the operator's hand, which is a moving object. The
次に操作制御装置100の処理フローを、図5及び図1を用いて説明する。本操作制御装置を開始すると、ステップ501で、動き検出部200により、撮像部102で撮影した画像データから動体検出を行う。ステップ501で、動体が検出されなければ動体検出処理を繰り返し、動体が検出されれば、ステップ502で、システム制御部203及び映像処理部204により、検出した動体の位置を、例えば図2のイメージ111のように表示する。ステップ503では、システム制御部203により、検出した動体の位置が検出領域設定部202で設定された動体検出領域310の内にあるか外にあるかを判断する。動体の位置が領域外であれば、ステップ501の動体検出に戻る。動体の位置が領域内であれば、ステップ504で、動き解析部201により、動体の軌跡を解析し、動体の移動方向および移動量を検出する。ステップ505では、システム制御部203により、動体の移動量が予め設定されている閾値以上かどうかを判断する。閾値以下であればステップ501の動体検出に戻る。閾値以上であれば、ステップ506で、システム制御部203により、動体の移動量および移動方向に対応した制御コマンドを生成し、制御コマンドに従った画面表示を、映像処理部204を用いて、表示部101に行わせる。例えば、図2のようなコンテンツメニュー103では、動体が左に動くとコンテンツメニューを左に動かす。
Next, the processing flow of the
図6に表示画面例を示す。図2と同じものは同じ番号を付しており、説明は省略する。図6(a)は動体の初期位置の表示画面例であり、601は動体の位置を示すイメージであり、602および603はコンテンツメニュー103に表示されているコンテンツA、コンテンツBである。図6(a)では、フォーカス位置104にコンテンツA602が位置している。図6(b)は、動体が左方向に移動した場合の表示画面例であり、604は動体の軌跡、605は移動後の動体の位置を示すイメージである。図6(c)は、動体が左に動いたのに対応してコンテンツメニューを左に移動させた表示画面例である。コンテンツメニューを左に移動させた結果、フォーカス位置104にはコンテンツB603が配置され、コンテンツA602はフォーカス位置104の左に移動している。さらに、図6(d)は、動体がさらに左方向に移動して、動体検出領域110外に移動した表示画面例である。606は動体の軌跡、607は移動後の動体の位置を示すイメージである。動体の軌跡606は動体検出領域110外であるので、操作制御をせず、コンテンツメニュー103も図6(c)のままとなる。
FIG. 6 shows a display screen example. The same components as those in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted. FIG. 6A is an example of a display screen of the initial position of the moving object, 601 is an image indicating the position of the moving object, and 602 and 603 are the contents A and B displayed on the
以上、コンテンツメニュー103を左に動かす例を示したが、手を右に動かせば、コンテンツメニュー103を右に動かすことになる。
The example in which the
本例によれば、限られた領域を動体検出領域とし、操作者が動体検出領域内を横切るような動作をし、戻り動作のような意図しない動きは動作検出領域外で行うようにすることにより、意図しない動きを認識させることなく、操作者が意図する操作がし易くなる。 According to this example, a limited area is set as a moving object detection area, and an operator performs an action that crosses the moving object detection area, and an unintended movement such as a return action is performed outside the action detection area. Thus, an operation intended by the operator can be easily performed without recognizing an unintended movement.
図7は、本発明の操作制御装置の実施例1とは別の表示画面例である。図2と同じものには同じ番号を付し、説明は省略する。701はフォーカス位置、705および706はコンテンツメニュー103の移動方向を示す。702は動体検出領域であり、コンテンツのフォーカス位置701に重なった位置に配置されている。703は動体の位置のイメージ、704は動体の軌跡である。システム構成については図1と、処理フロー及び表示画面内の動きについては図5及び図6と同様なため説明は省略する。
FIG. 7 is an example of a display screen different from the first embodiment of the operation control apparatus of the present invention. The same components as those in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted.
本例によれば、動作検出領域702がフォーカス位置701と重なっているため、操作者はより、手の動きでコンテンツを動かしている感覚を得ることができ、より直観的な操作が可能になる。
According to this example, since the
図8は、本発明の操作制御装置の実施例1及び2とは別の表示画面例である。図2と同じものには同じ番号を付し、説明は省略する。900はコンテンツメニュー、901はフォーカス位置、906および907はコンテンツメニューの移動方向を示す。902は動体検出領域であり、コンテンツメニュー900に重なった位置に配置されている。904は動体の位置のイメージ、905は動体の軌跡である。システム構成については図1と、処理フロー及び表示画面内の動きについては図5及び図6と同様なため説明は省略する。
FIG. 8 is a display screen example different from the first and second embodiments of the operation control apparatus of the present invention. The same components as those in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted. 900 denotes a content menu, 901 denotes a focus position, and 906 and 907 denote moving directions of the content menu.
本例によれば、動作検出領域902がコンテンツメニュー900と重なっているため、操作者はより、手の動きでコンテンツを動かしている感覚を得ることができ、より直観的な操作が可能になる。
According to this example, since the
図9は、本発明の操作制御装置の実施例1ないし3とは別の表示画面例である。図2および図7と同じものには同じ番号を付し、説明は省略する。801は702を第1動体検出領域とした場合の第2動体検出領域、802は動体の位置のイメージ、803は動体の軌跡である。
FIG. 9 is a display screen example different from those in the first to third embodiments of the operation control apparatus of the present invention. The same components as those in FIGS. 2 and 7 are denoted by the same reference numerals, and description thereof is omitted.
次に本例の操作制御装置の処理フローを、図10を用いて説明する。図5と同じものは同じ番号を付し、説明は省略する。ステップ502で、動体の位置を表示した後、ステップ510で、システム制御部203により、動体の位置が検出領域設定部202で設定された第1動体検出領域702及び第2動体検出領域801のいずれの範囲内にあるかを判断する。動体の位置がいずれにもない場合はステップ501の動体検出に戻る。動体の位置がどちらかの範囲内にある場合は、ステップ504で、動体の軌跡を解析する。ステップ505で、動体の移動量が閾値以上であれば、ステップ511で、システム制御部203により、動体の位置が第1動体検出領域702内にあるかどうかを判断する。動体の位置が第1動体検出領域702内であれば、ステップ506で、制御コマンドを生成し、例えばコンテンツメニューを動かす画面表示を行う。動体の位置が、動体検出領域702外であれば、第2動体検出領域内であるので、ステップ512で、ステップ506とは異なる別の制御コマンドの生成を行う。本例では、制御コマンドを、音量変更のために割り当てている。
Next, the processing flow of the operation control apparatus of this example will be described with reference to FIG. The same components as those in FIG. After the position of the moving object is displayed in
本例によれば、複数の動体検出領域を設け、各々に制御対象を割り当てることにより、同じ手の操作で複数の制御が可能になる。なお、本例では2つの動作検出領域としたが、操作の必要に応じてさらに動体検出領域を増やしてもよい。 According to this example, by providing a plurality of moving object detection areas and assigning control targets to each, a plurality of controls can be performed with the same hand operation. In this example, the two motion detection areas are used. However, the moving object detection areas may be further increased as necessary for the operation.
図11に操作者の手の動きの一例を示す。151は操作者がx軸方向に手を左右に動かす動作の軌跡、150はy軸方向に手を上下に動かす動作の軌跡を示している。操作者は、手を上下、左右に動かすことにより操作制御装置の操作を行う。
FIG. 11 shows an example of the movement of the operator's hand.
図12は、図7に対応する本発明の操作制御装置の表示画面例である。図2および図7と同じものには同じ番号を付し、説明は省略する。160は動体の位置のイメージであり、161は動体の軌跡、162は操作できる制御項目を操作方向とともに示した表示である。 FIG. 12 is a display screen example of the operation control apparatus of the present invention corresponding to FIG. The same components as those in FIGS. 2 and 7 are denoted by the same reference numerals, and description thereof is omitted. 160 is an image of the position of the moving object, 161 is the locus of the moving object, and 162 is a display showing the control items that can be operated along with the operation direction.
次に本例の操作制御装置の処理フローを、図13を用いて説明する。図5と同じものは同じ番号を付し、説明は省略する。ステップ504で動体の軌跡を解析した後、ステップ520で、システム制御部203により、x方向の移動量が閾値以上であるかどうかを判断する。x軸方向の移動量が閾値以上であれば、ステップ506で、x軸方向の移動に対応する制御コマンドを生成し、例えばコンテンツメニューを動かす画面表示を行う。x軸方向の移動量が閾値以下であれば、ステップ521で、システム制御部203により、y軸方向の移動量が閾値以上であるかどうかを判断する。y軸方向の移動量が閾値以上であれば、ステップ522で、y軸方向の移動に対応する制御コマンドを生成し、例えばフォーカス位置701にあるコンテンツを選択/再生する。
Next, the processing flow of the operation control apparatus of this example will be described with reference to FIG. The same components as those in FIG. After analyzing the trajectory of the moving object in
本例によれば、動体の動きを、x軸方向およびy軸方向に分け異なる制御に割り当てることにより、より多くの制御が可能になる。また、図9に示したような複数の動体検出領域を用いた制御との組み合わせにより、さらに多くの制御を可能とする。 According to this example, more control is possible by dividing the motion of the moving body into different controls in the x-axis direction and the y-axis direction. Further, a greater amount of control is possible by combining with control using a plurality of moving object detection regions as shown in FIG.
図14に操作者の手の動きの一例を示す。350は操作者がx軸方向に手を左右に動かす動作の軌跡、351はy軸方向に手を上下に動かす動作の軌跡、352はz軸方向に手を前後に動かす動作の軌跡を示している。操作者は、手を上下、左右、前後に動かすことにより操作制御装置の操作を行う。 FIG. 14 shows an example of the movement of the operator's hand. 350 is a trajectory of the movement of the operator to move the hand left and right in the x-axis direction, 351 is a trajectory of the movement of moving the hand up and down in the y-axis direction, and 352 is a trajectory of the movement of moving the hand back and forth in the z-axis direction. Yes. The operator operates the operation control device by moving his / her hand up / down, left / right, and front / rear.
図15は、図7に対応する本発明の操作制御装置の表示画面例である。図2および図7と同じものには同じ番号を付し、説明は省略する。本例では、撮像部102として撮像部102と撮像対象物との距離が測定可能な3Dカメラ等を用いている。451は動体の位置のイメージであり、452は操作方法を示した表示例である。例えば操作者が操作方法452に従い、手を前に出すと、操作制御装置100では動体が近づいたと判断し、フォーカス位置701にあるコンテンツの再生等を行う。
FIG. 15 is a display screen example of the operation control device of the present invention corresponding to FIG. The same components as those in FIGS. 2 and 7 are denoted by the same reference numerals, and description thereof is omitted. In this example, a 3D camera or the like that can measure the distance between the
次に本例の操作制御装置の処理フローを、図16を用いて説明する。図5および図13と同じものは同じ番号を付し、説明は省略する。ステップ520でx軸方向の移動量が閾値以上であれば、ステップ506で、x軸方向の移動に対応する制御コマンドを生成し、例えばコンテンツメニューを動かす画面表示を行う。ステップ520でx軸方向の移動量が閾値以下であれば、ステップ530で、システム制御部203により、z軸方向の移動量が閾値以上であるかどうかを判断する。z軸方向の移動量が閾値以上であれば、ステップ522で、z軸方向の移動に対応する制御コマンドを生成し、例えばフォーカス位置701にあるコンテンツを選択/再生する。
Next, the processing flow of the operation control apparatus of this example will be described with reference to FIG. The same components as those in FIG. 5 and FIG. If the amount of movement in the x-axis direction is greater than or equal to the threshold value in
本例によれば、動体の動きを、x軸方向、y軸方向、さらに、z軸方向にも分け異なる制御に割り当てることにより、より多くの制御が可能になる。また、図9に示したような複数の動体検出領域を用いた制御との組み合わせにより、さらに多くの制御を可能とする。 According to this example, more control is possible by assigning the motion of the moving body to different controls in the x-axis direction, the y-axis direction, and further in the z-axis direction. Further, a greater amount of control is possible by combining with control using a plurality of moving object detection regions as shown in FIG.
図17に二人の操作者の手の動きと撮像部102との関係図を示す。図2と同じものには同じ番号を付しており、説明は省略する。撮像部102は撮像部102と撮像対象物との距離が測定可能な3Dカメラ等である。650は第2の操作者であり、操作者106に比べて撮像部102から遠い位置にいる。651は操作者106の手の動作の軌跡であり、652は第2の操作者650の手の動作の軌跡を示している。操作者106と第2の操作者650は同時に手を動かしている。
FIG. 17 shows a relationship diagram between the movements of the hands of the two operators and the
図18は撮像部102の撮影画像例である。図3と同じものには同じ番号を付しており、説明は省略する。751は操作者106の撮像画像、752は操作者106の手の撮像画像、753は操作者106の手の動作の軌跡を示している。また、754は操作者650の撮像画像、755は操作者650の手の撮像画像、756は操作者650の手の動作の軌跡を示している。
FIG. 18 is an example of a captured image of the
ここでは、撮像部102からの距離データを明示してはいないが、各画像データは距離データも持っている。本例では、撮像画像データから撮像部102に最も近い動体を抽出して表示する。図19にその表示画面例を示す。図2と同じものには同じ番号を付しており、説明は省略する。851は操作者106の手の位置のイメージであり、852は手の動作の軌跡を示している。撮像部102では動体が2個検出されているが、図19の表示画面例では、最も近い動体である操作者106の手の位置を示すイメージ851のみ表示されており、操作制御装置100の操作も操作者106の動きのみが有効になっている。
Here, distance data from the
次に、本例の操作制御装置100の処理フローを、図20を用いて説明する。図5および図16と同じものは同じ番号を付し、説明は省略する。ステップ501で動体を検出すると、ステップ540で、システム制御部203により、動体までの距離が基準値より近いかどうかを判断する。基準値は、操作制御装置100を操作可能な範囲として予め決めておく。こうすることにより、不必要な動体の検出を避けることができる。ステップ540で、基準値より遠ければ、ステップ501の動体検出に戻る。基準値より近ければ、ステップ541で、システム制御部203により、予め設けた動体の大きさの基準値内であるかどうかを判断する。動体の大きさが基準値外であれば、ステップ501の動体検出に戻る。こうすることにより、操作者の前を人が横切る等の動作をした時に、誤動作させないようにできる。動体の大きさが基準値内であれば、ステップ542で、システム制御部203及び映像処理部204により、最短距離にある動体として、その位置を表示する。
Next, the processing flow of the
本例によれば、複数の操作者がいる場合、複数の移動体がある場合においても、真の操作者の手を特定し、操作可能な動体として認識することができる。 According to this example, even when there are a plurality of operators and there are a plurality of moving bodies, the true operator's hand can be identified and recognized as an operable moving body.
図21に操作者と撮像部との関係図を示す。図2と同じものには同じ番号を付しており、説明は省略する。撮像部102は撮像部102と撮像対象物との距離が測定可能な3Dカメラ等である。251は操作者106の手であり、252は撮像部102で検出される手251の位置、253は撮像部102で検出される手252までの距離、254は撮像部102で検出される操作者106の位置、255は撮像部102で検出される操作者106までの距離、256は操作者106までの距離255と操作者の手251までの距離253との差分を示している。
FIG. 21 shows a relationship diagram between the operator and the imaging unit. The same components as those in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted. The
次に、本例の操作制御装置100の処理フローを、図22を用いて説明する。図5および図16と同じものは同じ番号を付し、説明は省略する。ステップ550で、操作者106を検出する。操作者106の検出は、撮像部102の撮像データで可能であり、例えば、画像を認識する方法や、撮影画像の中である一定距離内にある物体の大きさを検出する方法などを用いればよい。操作者106を検出することで操作者までの距離255がわかる。次に、ステップ501で、動体である手252を検出し、ステップ502で動体の位置表示をした後、ステップ551に移行する。ステップ551では、操作者までの距離255と動体の距離までの距離253の差分を取り、基準値と比較する。ここで、基準値は、操作者106が操作を目的に手を伸ばすおおよその距離を考慮して設定される。差分が、ある一定の基準値以上であれば、操作者106が操作を目的として伸ばした手であるとして、これを正式に動体として特定し、ステップ504に移行する。差分が一定の基準値以下であれば、操作者106が操作を目的とせずに動かした手であるとして、これを正式な動体として特定しないようにする。
Next, the processing flow of the
本例によれば、操作者の操作を目的とした手などの動きを検出し、操作を意図しない手などの動きで誤動作しないようにすることができる。 According to this example, it is possible to detect a movement of a hand or the like for the purpose of an operator's operation and prevent malfunctions caused by a movement of a hand or the like that is not intended for the operation.
100・・・操作制御装置、101・・・表示部、102・・・撮像部、103・・・コンテンツ選択メニュー、104・・・フォーカス位置、106・・・操作者、111・・・動体操作領域、200・・・動き検出部、201・・・動き解析部、202・・・システム制御部、203・・・検出範囲設定部、204・・・映像処理部
DESCRIPTION OF
Claims (6)
撮像画面内における操作制御が可能な領域を設定する検出領域設定部と、
前記検出領域設定部で設定された操作制御が可能な領域、前記操作者の手、および複数の選択項目が並んだメニューを表示画面上に表示する表示部と、
前記表示画面上において、前記3Dカメラから最短距離にある前記操作者の手を表示させ、表示された前記操作者の手が、前記操作制御が可能な領域内で動いた場合に、前記操作者の手の動きの移動方向及び移動量に対応して、前記表示画面上の前記メニューを移動して表示させる制御部と、を備えることを特徴とする操作制御装置。 Detecting a movement of the operator's hand by photography by the 3D camera, according to the movement of the hand, and an operation control apparatus for I-line operations for the display screen,
A detection area setting unit for setting an area where operation control is possible within the imaging screen;
A display unit that displays on the display screen a region in which the operation control set in the detection region setting unit is possible, the operator's hand, and a menu in which a plurality of selection items are arranged;
On the display screen, the operator's hand at the shortest distance from the 3D camera is displayed, and when the displayed operator's hand moves within an area where the operation can be controlled, the operator of corresponding to the movement direction and the movement amount of the movement of the hand, the operation control device, characterized in that it comprises a control unit for displaying and moving the menu on the display screen.
撮像画面内における操作制御が可能な領域を設定する検出領域設定部と、
前記検出領域設定部で設定された操作制御が可能な領域、前記操作者の手、および複数の選択項目が並んだメニューを表示画面上に表示する表示部と、
前記表示画面上において、前記操作者の体から所定の距離だけ手前に出された前記操作者の手を表示させ、表示された前記操作者の手が、前記操作制御が可能な領域内で動いた場合に、前記操作者の手の動きの移動方向及び移動量に対応して、前記表示画面上の前記メニューを移動して表示させる制御部と、を備えることを特徴とする操作制御装置。 An operation control device that detects the movement of the operator's hand and the body of the operator by shooting with a 3D camera, and performs an operation on a display screen according to the movement of the hand,
A detection area setting unit for setting an area where operation control is possible within the imaging screen;
A display unit that displays on the display screen a region in which the operation control set in the detection region setting unit is possible, the operator's hand, and a menu in which a plurality of selection items are arranged;
On the display screen, the operator's hand that has been put forward by a predetermined distance from the operator's body is displayed, and the displayed operator's hand moves within a region where the operation control is possible. If the, corresponding to the moving direction and the moving amount of the motion of the hand of the operator, the control unit for displaying and moving the menu on the display screen, operation control further comprising a Equipment .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013248830A JP5770251B2 (en) | 2013-12-02 | 2013-12-02 | Operation control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013248830A JP5770251B2 (en) | 2013-12-02 | 2013-12-02 | Operation control device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008249516A Division JP5427385B2 (en) | 2008-09-29 | 2008-09-29 | Operation control device and operation display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014096804A JP2014096804A (en) | 2014-05-22 |
JP5770251B2 true JP5770251B2 (en) | 2015-08-26 |
Family
ID=50939507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013248830A Active JP5770251B2 (en) | 2013-12-02 | 2013-12-02 | Operation control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5770251B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6519074B2 (en) * | 2014-09-08 | 2019-05-29 | 任天堂株式会社 | Electronics |
JP6519075B2 (en) * | 2015-02-10 | 2019-05-29 | 任天堂株式会社 | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING PROGRAM, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD |
JP6551941B2 (en) * | 2016-04-19 | 2019-07-31 | 株式会社東海理化電機製作所 | Gesture determination device |
CN105898566A (en) * | 2016-04-29 | 2016-08-24 | 乐视控股(北京)有限公司 | Video content presenting switching method and device, and mobile play terminal |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981307A (en) * | 1995-09-08 | 1997-03-28 | Clarion Co Ltd | Equipment controller |
JP4010708B2 (en) * | 1999-06-21 | 2007-11-21 | 日本ビクター株式会社 | Equipment control device |
JP2002116859A (en) * | 2000-10-11 | 2002-04-19 | Sony Corp | Information processor, instruction recognition processing method and program storage medium |
JP2004258837A (en) * | 2003-02-25 | 2004-09-16 | Nippon Hoso Kyokai <Nhk> | Cursor operation device, method therefor and program therefor |
JP2006209563A (en) * | 2005-01-31 | 2006-08-10 | Victor Co Of Japan Ltd | Interface device |
JP2007034525A (en) * | 2005-07-25 | 2007-02-08 | Fuji Xerox Co Ltd | Information processor, information processing method and computer program |
JP2008040576A (en) * | 2006-08-02 | 2008-02-21 | Sharp Corp | Image processing system and video display device equipped with the same |
JP4481280B2 (en) * | 2006-08-30 | 2010-06-16 | 富士フイルム株式会社 | Image processing apparatus and image processing method |
US20080098448A1 (en) * | 2006-10-19 | 2008-04-24 | Sony Computer Entertainment America Inc. | Controller configured to track user's level of anxiety and other mental and physical attributes |
US8726194B2 (en) * | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
-
2013
- 2013-12-02 JP JP2013248830A patent/JP5770251B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014096804A (en) | 2014-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5427385B2 (en) | Operation control device and operation display method | |
JP5261554B2 (en) | Human-machine interface for vehicles based on fingertip pointing and gestures | |
JP5167523B2 (en) | Operation input device, operation determination method, and program | |
JP5921835B2 (en) | Input device | |
US9001208B2 (en) | Imaging sensor based multi-dimensional remote controller with multiple input mode | |
US9329691B2 (en) | Operation input apparatus and method using distinct determination and control areas | |
CN108469899B (en) | Method of identifying an aiming point or area in a viewing space of a wearable display device | |
JP5515067B2 (en) | Operation input device, operation determination method, and program | |
US9342925B2 (en) | Information processing apparatus, information processing method, and program | |
JP2010184600A (en) | Onboard gesture switch device | |
CN110395182B (en) | Motor vehicle with electronic rear view mirror | |
EP2908215B1 (en) | Method and apparatus for gesture detection and display control | |
JP2006209563A (en) | Interface device | |
EP3021206B1 (en) | Method and device for refocusing multiple depth intervals, and electronic device | |
JP5921981B2 (en) | Video display device and video display method | |
US8416189B2 (en) | Manual human machine interface operation system and method thereof | |
JP2011028366A (en) | Operation control device and operation control method | |
US11693482B2 (en) | Systems and methods for controlling virtual widgets in a gesture-controlled device | |
KR101438615B1 (en) | System and method for providing a user interface using 2 dimension camera in a vehicle | |
JP5770251B2 (en) | Operation control device | |
JP2012238293A (en) | Input device | |
KR20120136719A (en) | The method of pointing and controlling objects on screen at long range using 3d positions of eyes and hands | |
JP2007086995A (en) | Pointing device | |
CN105759955B (en) | Input device | |
JP2012179682A (en) | Mobile robot system, mobile robot control device, and moving control method and moving control program to be used for the control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20140310 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140318 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140903 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140917 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140924 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150624 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5770251 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |