JPWO2016051520A1 - Cursor control device and cursor control method - Google Patents

Cursor control device and cursor control method Download PDF

Info

Publication number
JPWO2016051520A1
JPWO2016051520A1 JP2016551393A JP2016551393A JPWO2016051520A1 JP WO2016051520 A1 JPWO2016051520 A1 JP WO2016051520A1 JP 2016551393 A JP2016551393 A JP 2016551393A JP 2016551393 A JP2016551393 A JP 2016551393A JP WO2016051520 A1 JPWO2016051520 A1 JP WO2016051520A1
Authority
JP
Japan
Prior art keywords
feature point
operator
point
angle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016551393A
Other languages
Japanese (ja)
Other versions
JP6400110B2 (en
Inventor
弘記 向山
弘記 向山
将則 増井
将則 増井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Engineering Co Ltd
Original Assignee
Mitsubishi Electric Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Engineering Co Ltd filed Critical Mitsubishi Electric Engineering Co Ltd
Publication of JPWO2016051520A1 publication Critical patent/JPWO2016051520A1/en
Application granted granted Critical
Publication of JP6400110B2 publication Critical patent/JP6400110B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Abstract

モーションセンサ2による検出結果から操作者の特徴点の位置を検出する操作者検出部31と、操作者検出部31により検出された操作者の特徴点のうち、動作点及び基点となる特徴点の位置を抽出する特徴点抽出部31と、特徴点抽出部31により抽出された動作点及び基点の位置を結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を算出する角度算出部32と、角度算出部32により算出された角度を、カーソルの位置に変換する変換部33とを備えた。An operator detection unit 31 that detects the position of the operator's feature point from the detection result by the motion sensor 2, and among the feature points of the operator detected by the operator detection unit 31, the operation point and the feature point that is the base point A feature point extraction unit 31 that extracts a position, and an angle calculation unit that calculates horizontal and vertical angles formed by a line segment connecting the positions of the operation point and the base point extracted by the feature point extraction unit 31 and a reference axis 32 and a conversion unit 33 that converts the angle calculated by the angle calculation unit 32 into the position of the cursor.

Description

この発明は、特徴点検出センサにより検出された3次元空間内における人の特徴点の位置を用いて、モニタに表示された画面上のカーソルの位置を制御するカーソル制御装置及びカーソル制御方法に関するものである。   The present invention relates to a cursor control device and a cursor control method for controlling the position of a cursor on a screen displayed on a monitor using the position of a human feature point in a three-dimensional space detected by a feature point detection sensor. It is.

従来から、モニタ(例えば展示会向けの大型ディスプレイ)に表示された画面に対し、操作者がジェスチャを行うことで、当該画面上のカーソルを動かして操作を行うシステムが知られている(例えば特許文献1参照)。   2. Description of the Related Art Conventionally, a system is known in which an operator performs a gesture on a screen displayed on a monitor (for example, a large display for an exhibition) to move the cursor on the screen (for example, a patent). Reference 1).

このシステムでは、例えばモーションセンサ(特徴点検出センサ)を用い、ある決められた3次元空間において、操作者の特徴点(例えば手)の位置(空間座標値)を検出している。そして、この手の空間座標値を、モニタに表示された画面上の2次元座標(モニタ座標)に対応させることで、カーソルの位置を設定している。具体的には、例えば図8に示すように、x座標については、空間座標の最小値xをモニタ座標の最小値xminに対応させ、空間座標の最大値xをモニタ座標の最大値xmaxに対応させる。また、y座標についても同様に、空間座標の最小値yをモニタ座標の最小値yminに対応させ、空間座標の最大値yをモニタ座標の最大値ymaxに対応させる。このようにしてカーソルの位置を設定することで、操作者が手を動かすことにより、モニタに表示された画面上のカーソルを動かすことができる。In this system, for example, a motion sensor (feature point detection sensor) is used to detect the position (spatial coordinate value) of an operator's feature point (for example, a hand) in a predetermined three-dimensional space. The position of the cursor is set by associating the spatial coordinate value of this hand with the two-dimensional coordinates (monitor coordinates) on the screen displayed on the monitor. More specifically, as shown in FIG. 8, for the x-coordinate, is associated with the minimum value x 1 of the spatial coordinate to the minimum value x min of the monitor coordinate, the maximum value of the monitor coordinate maximum value x 2 spatial coordinates Correspond to x max . Similarly, with regard to the y coordinate, the minimum value y 1 of the spatial coordinate is made to correspond to the minimum value y min of the monitor coordinate, and the maximum value y 2 of the spatial coordinate is made to correspond to the maximum value y max of the monitor coordinate. By setting the cursor position in this manner, the cursor on the screen displayed on the monitor can be moved by the operator moving his / her hand.

特開2013−143148号公報JP 2013-143148 A

上述したように、従来技術では、操作者の手の空間座標値をモニタ座標に対応させている。よって、操作者の手の水平方向、垂直方向における移動量に応じて、画面上のカーソルが移動することになる。しかしながら、この場合には、操作者の体格によって操作負担が異なるという課題があった。すなわち、体格の小さい操作者の場合には、体格の大きい操作者に対して、より大きなジェスチャが必要となり、身体的負担が大きくなる。   As described above, in the prior art, the spatial coordinate value of the operator's hand is associated with the monitor coordinate. Therefore, the cursor on the screen moves according to the amount of movement in the horizontal and vertical directions of the operator's hand. However, in this case, there is a problem that the operation load varies depending on the physique of the operator. That is, in the case of an operator with a small physique, a larger gesture is required for an operator with a large physique, which increases the physical burden.

この発明は、上記のような課題を解決するためになされたもので、操作者の体格差に依存することなく、カーソルの位置を制御することができるカーソル制御装置及びカーソル制御方法を提供することを目的としている。   The present invention has been made to solve the above-described problems, and provides a cursor control device and a cursor control method capable of controlling the position of a cursor without depending on an operator's physique difference. It is an object.

この発明に係るカーソル制御装置は、特徴点検出センサによる検出結果から操作者の特徴点の位置を検出する操作者検出部と、操作者検出部により検出された操作者の特徴点のうち、動作点及び基点となる特徴点の位置を抽出する特徴点抽出部と、特徴点抽出部により抽出された動作点及び基点の位置を結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を算出する角度算出部と、角度算出部により算出された角度を、カーソルの位置に変換する変換部とを備えたものである。   The cursor control device according to the present invention includes an operator detection unit that detects a position of the operator's feature point from a detection result by the feature point detection sensor, and an operation among the operator's feature points detected by the operator detection unit. Horizontal and vertical angles between the reference point and the feature point extraction unit that extracts the point and the position of the feature point that is the base point, the line segment that connects the operation point and the position of the base point extracted by the feature point extraction unit An angle calculation unit for calculating the angle, and a conversion unit for converting the angle calculated by the angle calculation unit into the position of the cursor.

この発明に係るカーソル制御方法は、操作者検出部が、特徴点検出センサによる検出結果から操作者の特徴点の位置を検出する操作者検出ステップと、特徴点抽出部が、操作者検出部により検出された操作者の特徴点のうち、動作点及び基点となる特徴点の位置を抽出する特徴点抽出ステップと、角度算出部が、特徴点抽出部により抽出された動作点及び基点の位置を結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を算出する角度算出ステップと、変換部が、角度算出部により算出された角度を、カーソルの位置に変換する変換ステップとを有するものである。   In the cursor control method according to the present invention, the operator detecting unit detects the position of the feature point of the operator from the detection result by the feature point detecting sensor, and the feature point extracting unit is operated by the operator detecting unit. Of the detected feature points of the operator, a feature point extraction step for extracting the position of the feature point as the operation point and the base point, and the angle calculation unit determines the position of the operation point and the base point extracted by the feature point extraction unit. An angle calculating step for calculating the horizontal and vertical angles formed by the connecting line segment and the reference axis, and a converting unit for converting the angle calculated by the angle calculating unit into a cursor position. Is.

この発明によれば、上記のように構成したので、操作者の体格差に依存することなく、カーソルの位置を制御することができる。   According to this invention, since it comprised as mentioned above, the position of a cursor can be controlled without depending on an operator's physique difference.

この発明の実施の形態1に係るカーソル制御装置を含むシステム全体の構成を示す図である。It is a figure which shows the structure of the whole system containing the cursor control apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係るカーソル制御装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the cursor control apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係るカーソル制御装置の動作を説明する図であり、(a)水平方向の角度θ=0の場合を示す図であり、(b)垂直方向の角度θ=0の場合を示す図であり、(c)(a),(b)の場合における画面上のカーソル位置を示す図である。It is a figure explaining operation | movement of the cursor control apparatus which concerns on Embodiment 1 of this invention, (a) It is a figure which shows the case where angle (theta) x = 0 of horizontal direction, (b) Angle (theta) y = vertical direction It is a figure which shows the case of 0, and is a figure which shows the cursor position on the screen in the case of (c) (a), (b). この発明の実施の形態1に係るカーソル制御装置の動作を説明する図であり、(a)水平方向の角度θ=θx1の場合を示す図であり、(b)垂直方向の角度θ=0の場合を示す図であり、(c)(a),(b)の場合における画面上のカーソル位置を示す図である。It is a figure explaining operation | movement of the cursor control apparatus which concerns on Embodiment 1 of this invention, (a) It is a figure which shows the case of the angle (theta) x = (theta) x1 of a horizontal direction, (b) Angle (theta) y of a perpendicular direction It is a figure which shows the case of = 0, and is a figure which shows the cursor position on the screen in the case of (c) (a), (b). この発明の実施の形態1に係るカーソル制御装置の動作を説明する図であり、(a)水平方向の角度θ=θx1の場合を示す図であり、(b)垂直方向の角度θ=−θy1の場合を示す図であり、(c)(a),(b)の場合における画面上のカーソル位置を示す図である。It is a figure explaining operation | movement of the cursor control apparatus which concerns on Embodiment 1 of this invention, (a) It is a figure which shows the case of the angle (theta) x = (theta) x1 of a horizontal direction, (b) Angle (theta) y of a perpendicular direction It is a figure which shows the case of = -theta y1 , and is a figure which shows the cursor position on the screen in the case of (c) (a), (b). この発明の実施の形態1に係るカーソル制御装置の効果を説明する図である。It is a figure explaining the effect of the cursor control apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係るカーソル制御装置における座標オフセットを説明する図である。It is a figure explaining the coordinate offset in the cursor control apparatus which concerns on Embodiment 1 of this invention. 従来のカーソル制御を説明する図であり、(a)空間座標を示す図であり、(b)モニタ座標を示す図である。It is a figure explaining the conventional cursor control, (a) It is a figure which shows a space coordinate, (b) It is a figure which shows a monitor coordinate.

以下、この発明の実施の形態について図面を参照しながら詳細に説明する。
実施の形態1.
図1はこの発明の実施の形態1に係るカーソル制御装置3を含むシステム全体の構成を示す図である。
図1に示すシステムでは、モニタ1、モーションセンサ(特徴点検出センサ)2及びカーソル制御装置3が設けられている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1 FIG.
FIG. 1 is a diagram showing a configuration of the entire system including a cursor control device 3 according to Embodiment 1 of the present invention.
In the system shown in FIG. 1, a monitor 1, a motion sensor (feature point detection sensor) 2, and a cursor control device 3 are provided.

モニタ1は、各種コンテンツ(画面)を表示するものである。
モーションセンサ2は、所定のサンプリング間隔で、3次元空間内における人の特徴点の位置(空間座標値)を検出するものであり、モニタ1に表示された画面を操作する操作者を検出することができる場所に設置される。このモーションセンサ2は、予め決められた空間内を撮像してカラー画像を取得するカメラと、上記空間内に存在する物体の深度を検出する深度センサとを有している。また、人のシルエットに対して各特徴点(頭部、肩、手、腰、足等)の位置を示すモデルを保持するデータベースも有している。そして、モーションセンサ2では、カメラにより撮像されたカラー画像と深度センサによる検出結果から上記空間内に存在する物体のシルエットを抽出する。そして、このシルエットをデータベースに保持されたモデルとマッチングさせることで、人を検出し、当該人の特徴点の位置を検出する。
The monitor 1 displays various contents (screens).
The motion sensor 2 detects the position (spatial coordinate value) of a human feature point in a three-dimensional space at a predetermined sampling interval, and detects an operator who operates the screen displayed on the monitor 1. It is installed in a place where This motion sensor 2 includes a camera that captures a color image by capturing a predetermined space, and a depth sensor that detects the depth of an object existing in the space. It also has a database that holds a model indicating the position of each feature point (head, shoulders, hands, hips, feet, etc.) with respect to a human silhouette. The motion sensor 2 extracts a silhouette of an object existing in the space from the color image captured by the camera and the detection result of the depth sensor. Then, by matching this silhouette with a model stored in the database, a person is detected, and the position of the feature point of the person is detected.

カーソル制御装置3は、モーションセンサ2により検出された3次元空間内における人の特徴点の位置を用いて、モニタ1に表示された画面上のカーソルの位置を制御するものである。このカーソル制御装置3は、図1に示すように、操作者検出部31、特徴点抽出部32、角度算出部33及び変換部34を有している。なお、カーソル制御装置3は、ソフトウェアに基づくCPUを用いたプログラム処理によって実行される。   The cursor control device 3 controls the position of the cursor on the screen displayed on the monitor 1 using the position of the human feature point in the three-dimensional space detected by the motion sensor 2. As illustrated in FIG. 1, the cursor control device 3 includes an operator detection unit 31, a feature point extraction unit 32, an angle calculation unit 33, and a conversion unit 34. The cursor control device 3 is executed by program processing using a CPU based on software.

操作者検出部31は、モーションセンサ2による検出結果から操作者の特徴点の位置を検出するものである。なお、操作者検出部31は、検出した操作者の特徴点の位置を逐一記憶する機能を有している。   The operator detection unit 31 detects the position of the feature point of the operator from the detection result by the motion sensor 2. Note that the operator detection unit 31 has a function of storing the detected positions of the feature points of the operator one by one.

また、例えば展示会で本システムを用いる場合には、モーションセンサ2が検出を行う空間内には多くの人が存在することが想定される。そこで、操作者検出部31は、操作者と認識した人のみを追従する機能を有している。
この機能では、上記空間内の所定位置(例えば真ん中)に来た人を操作者と認識して追従する。具体的には、まず、操作者を検出する範囲を上記空間の一部の範囲(例えば真ん中)に限定する。そして、この検出範囲内に入った人を操作者として認識する。その後、検出範囲を上記空間全体に広げ、当該操作者の動きを追従し続ける。以後、他の人が検出範囲内に入ったとしても、操作者が検出範囲内にいる限りは、操作権を譲渡しない。その後、操作者が検出範囲の外に出た場合には、操作権を放棄したものとみなす。そして、再び検出範囲を狭め、新たな操作者の認識を待つ。
For example, when this system is used in an exhibition, it is assumed that there are many people in the space where the motion sensor 2 detects. Therefore, the operator detection unit 31 has a function of following only the person recognized as the operator.
In this function, a person who has come to a predetermined position (for example, the middle) in the space is recognized as an operator and follows. Specifically, first, the range in which the operator is detected is limited to a partial range (for example, the middle) of the space. A person who falls within this detection range is recognized as an operator. Thereafter, the detection range is extended to the entire space, and the movement of the operator is continuously followed. Thereafter, even if another person enters the detection range, the operation right is not transferred as long as the operator is within the detection range. Thereafter, when the operator goes out of the detection range, it is considered that the operation right has been abandoned. Then, the detection range is narrowed again to wait for recognition of a new operator.

また、上記検出範囲内で他の人に操作権を譲渡する機能を付加してもよい。この場合、操作者を認識後に他の人が検出範囲に入り、双方が予め決められたジェスチャ(握手、手を振る等)を行う。これにより、操作権の譲渡を認める。   Moreover, you may add the function to transfer an operation right to another person within the said detection range. In this case, after recognizing the operator, another person enters the detection range, and both perform a predetermined gesture (shake hand, shake hand, etc.). As a result, the transfer of the operation right is permitted.

特徴点抽出部32は、操作者検出部31により検出された操作者の特徴点のうち、動作点となる特徴点(画面上のカーソルに対応する特徴点)の位置と、基点となる特徴点(動作点に対して軸となる特徴点)の位置とを抽出するものである。   The feature point extraction unit 32 includes the position of the feature point (the feature point corresponding to the cursor on the screen) as the operation point and the feature point as the base point among the feature points of the operator detected by the operator detection unit 31. The position of (a feature point that becomes an axis with respect to the operating point) is extracted.

角度算出部33は、特徴点抽出部32により抽出された動作点及び基点の位置を結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を算出するものである。なお、基準軸は、動作点及び基点とは独立に設定してもよいし、関連させてもよい。   The angle calculation unit 33 calculates the horizontal and vertical angles between the line segment connecting the positions of the operation point and the base point extracted by the feature point extraction unit 32 and the reference axis. The reference axis may be set independently of the operating point and the base point, or may be related to each other.

変換部34は、角度算出部33により算出された角度を、カーソルの位置に変換するものである。   The conversion unit 34 converts the angle calculated by the angle calculation unit 33 into the position of the cursor.

次に、上記のように構成されたカーソル制御装置3の動作について、図2〜5を参照しながら説明する。なお以下では、操作者がモーションセンサ2の前で手を動かすことで、モニタ1に表示された画面上のカーソルを移動させる場合を例に説明を行う。また、モーションセンサ2は、所定のサンプリング間隔で、3次元空間内における人の特徴点の位置を検出している。   Next, the operation of the cursor control device 3 configured as described above will be described with reference to FIGS. In the following description, an example in which the operator moves his / her hand in front of the motion sensor 2 to move the cursor on the screen displayed on the monitor 1 will be described. Further, the motion sensor 2 detects the positions of human feature points in a three-dimensional space at a predetermined sampling interval.

カーソル制御装置3の動作では、図2に示すように、まず、操作者検出部31は、モーションセンサ2による検出結果から操作者の特徴点の位置を検出する(ステップST1、操作者検出ステップ)。   In the operation of the cursor control device 3, as shown in FIG. 2, first, the operator detection unit 31 detects the position of the feature point of the operator from the detection result by the motion sensor 2 (step ST1, operator detection step). .

次いで、特徴点抽出部32は、操作者検出部31により検出された操作者の特徴点のうち、動作点及び基点となる特徴点の位置を抽出する(ステップST2、特徴点抽出ステップ)。図3〜5では、動作点は操作者の手であり、基点は操作者の頭部としている。   Next, the feature point extraction unit 32 extracts the position of the feature point serving as the operation point and the base point among the feature points of the operator detected by the operator detection unit 31 (step ST2, feature point extraction step). 3 to 5, the operating point is the operator's hand, and the base point is the operator's head.

次いで、角度算出部33は、特徴点抽出部32により抽出された動作点及び基点の位置を結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を算出する(ステップST3〜5、角度算出ステップ)。例えば図3〜5では、操作者の頭部とモーションセンサ2のセンサ位置とを結ぶ線(Z軸)を基準軸としている。そして、角度算出部33は、手と頭部の位置を結ぶ線分と基準軸とのなす水平方向(XZ成分)の角度θ及び垂直方向(YZ成分)の角度θを算出する。Next, the angle calculation unit 33 calculates the horizontal and vertical angles formed by the line segment connecting the positions of the operation point and the base point extracted by the feature point extraction unit 32 and the reference axis (steps ST3 to 5). Angle calculation step). For example, in FIGS. 3 to 5, a line (Z axis) connecting the head of the operator and the sensor position of the motion sensor 2 is used as a reference axis. Then, the angle calculation unit 33 calculates a horizontal direction (XZ component) angle θ x and a vertical direction (YZ component) angle θ y formed by a line segment connecting the position of the hand and the head and the reference axis.

次いで、変換部34は、角度算出部33により算出された角度を、カーソルの位置に変換する(ステップST6、変換ステップ)。この際、図3〜5に示すように、変換部34は、例えば水平方向の角度θ=0の場合をモニタ座標の中心値xに対応させ、予め決められた正方向(図の右側)の最大角度θ=θx1をモニタ座標の最大値xmaxに対応させ、予め決められた負方向(図の左側)の最大角度θ=−θx1をモニタ座標の最小値xminに対応させる。同様に、例えば、垂直方向の角度θ=0の場合をモニタ座標の中心値yに対応させ、予め決められた負方向(図の下側)の最大角度θ=−θy1をモニタ座標の最大値ymaxに対応させ、予め決められた正方向(図の上側)の最大角度θ=θy2をモニタ座標の最小値yminに対応させる。なお、最大角度以上に手を動かした場合にはモニタ座標の極値(最大値、最小値)に対応させる。なお図3は、手と頭部とを結ぶ線分と基準軸とのなす角度がθ=0,θ=0の場合でのカーソル101の位置を示している。また図4は、上記角度がθ=θx1,θ=0の場合でのカーソル101の位置を示している。また図5は、上記角度がθ=θx1,θ=−θy1の場合でのカーソル101の位置を示している。Next, the conversion unit 34 converts the angle calculated by the angle calculation unit 33 into the position of the cursor (step ST6, conversion step). At this time, as shown in FIGS. 3 to 5, the conversion unit 34 associates, for example, the case of the angle θ x = 0 in the horizontal direction with the center value x c of the monitor coordinates, and determines the positive direction (on the right side of the figure). the maximum angle θ x = θ x1) of in correspondence to the maximum value x max of the monitor coordinates, a maximum angle theta x = - [theta] x1 of a predetermined negative direction (left side in the figure) to the minimum value x min of the monitor coordinates Make it correspond. Similarly, for example, the case where the angle θ y = 0 in the vertical direction is made to correspond to the center value y c of the monitor coordinates, and the predetermined maximum angle θ y = −θ y1 in the negative direction (the lower side in the figure) is monitored. Corresponding to the maximum value y max of coordinates, a predetermined maximum angle θ y = θ y2 in the positive direction (upper side in the figure) is made to correspond to the minimum value y min of monitor coordinates. When the hand is moved beyond the maximum angle, it corresponds to the extreme value (maximum value, minimum value) of the monitor coordinates. FIG. 3 shows the position of the cursor 101 when the angle between the line segment connecting the hand and the head and the reference axis is θ x = 0 and θ y = 0. FIG. 4 shows the position of the cursor 101 when the angles are θ x = θ x1 and θ y = 0. FIG. 5 shows the position of the cursor 101 when the angles are θ x = θ x1 and θ y = −θ y1 .

次に、本発明の効果について、図6を用いて従来技術の場合と比較しながら説明する。以下では、操作者が手を水平方向に動かして、モニタ1に表示された画面上のカーソルを横に移動させる場合を例に説明を行う。   Next, the effect of the present invention will be described using FIG. 6 while comparing with the case of the prior art. In the following, a case where the operator moves his / her hand in the horizontal direction and moves the cursor on the screen displayed on the monitor 1 to the side will be described as an example.

まず、従来技術の場合には、モーションセンサ2により検出された手の空間座標値をモニタ座標に変換している。
この手法では、図6に示すように、腕の長さがL1の場合には、ある角度θだけ手を動かすと、手の水平方向の移動距離はX1となり、次式(1)よりカーソルの移動量はM1となる。なお、αは係数である。
M1=αX1 (1)
First, in the case of the prior art, the hand space coordinate value detected by the motion sensor 2 is converted into monitor coordinates.
In this method, as shown in FIG. 6, when the length of the arms of the L1 is moving the hand by an angle theta x, horizontal movement distance of the hand becomes X1, cursor from the following equation (1) The amount of movement is M1. Α is a coefficient.
M1 = αX1 (1)

一方、腕の長さがL2(>L1)の場合には、ある角度θだけ手を動かすと、手の水平方向の移動距離はX2(>X1)となり、次式(2)よりカーソルの移動量はM2(>M1)となる。
M2=αX2 (2)
したがって、操作者の体格によってカーソルの移動量が変わり、操作負担が変わることになる。
On the other hand, when the length of the arm of L2 (> L1) is the angle theta x simply moving the hand, the horizontal movement distance of the hand X2 (> X1), and the following equation from the cursor (2) The amount of movement is M2 (> M1).
M2 = αX2 (2)
Therefore, the amount of movement of the cursor changes depending on the physique of the operator, and the operation burden changes.

これに対し、本発明の場合には、モーションセンサ2により検出された動作点(手)と基点(頭部)とを結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を、モニタ座標に変換している。
この手法では、図6に示すように、手を動かす角度θによってカーソルの移動量M3が決まるため、腕の長さがL1であってもL2であってもカーソルの移動量M3は変化せず、操作負担は変わらない。なお、この場合でのカーソルの移動量M3は次式(3)となる。ここで、Dは手を動かす最大角度であり、Pは画面上の最大距離のピクセル数である。
M3=(θ/D)×P (3)
On the other hand, in the case of the present invention, the horizontal and vertical angles formed by the line segment connecting the operating point (hand) and the base point (head) detected by the motion sensor 2 and the reference axis are as follows: It has been converted to monitor coordinates.
In this method, as shown in FIG. 6, since the movement amount M3 of the cursor by the angle theta x moving the hands is determined, the moving amount M3 of the length of the arms cursor even L2 be L1 is unchanged The operation burden is not changed. In this case, the movement amount M3 of the cursor is expressed by the following equation (3). Here, D is the maximum angle for moving the hand, and P is the maximum number of pixels on the screen.
M3 = (θ x / D) × P (3)

以上のように、この実施の形態1によれば、モーションセンサ2による検出結果から操作者の特徴点の位置を検出する操作者検出部31と、操作者検出部31により検出された操作者の特徴点のうち、動作点及び基点となる特徴点の位置を抽出する特徴点抽出部32と、特徴点抽出部32により抽出された動作点及び基点の位置を結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を算出する角度算出部33と、角度算出部33により算出された角度を、カーソルの位置に変換する変換部34とを備えたので、操作者の体格差に依存することなく画面上のカーソル位置を制御することができ、どんな操作者でも同じ操作体験を得ることができる。   As described above, according to the first embodiment, the operator detection unit 31 that detects the position of the operator's feature point from the detection result of the motion sensor 2 and the operator detected by the operator detection unit 31. Of the feature points, a feature point extraction unit 32 that extracts the positions of the operation points and the base point feature points, a line segment that connects the operation points and the base point positions extracted by the feature point extraction unit 32, Depends on the physique difference of the operator since the angle calculation unit 33 that calculates the angle in the horizontal direction and the vertical direction to be formed and the conversion unit 34 that converts the angle calculated by the angle calculation unit 33 into the position of the cursor The cursor position on the screen can be controlled without any operation, and any operator can obtain the same operation experience.

なお上記では、動作点を操作者の手とした場合について示したが、これに限るものではなく、操作者の他の特徴点(指先等)であってもよい。また上記では、基点を操作者の頭部とした場合について示したが、これに限るものではなく、動作点に対して軸となる点であればよく、操作者の他の特徴点(肩、肘、首の付け根、腕の付け根等)であってもよい。   In the above description, the case where the operating point is the operator's hand has been described. However, the operating point is not limited to this, and may be another characteristic point (such as a fingertip) of the operator. In the above description, the base point is the operator's head. However, the present invention is not limited to this, and any point that serves as an axis with respect to the operating point may be used. Elbow, neck base, arm base, etc.).

また、例えば、モーションセンサ2により操作者の手(動作点)と肩(基点)の位置を検出する場合、手の位置によっては肩が手で隠れてしまい、肩の位置を検出できない場合がある。そこで、このような場合に、特徴点抽出部32が、肩が手に重なったと判断して当該肩の位置を推定するようにしてもよい。この際の推定方法としては、例えば、肩が手に重なる直前の肩の位置から推定する方法や、肩が手に重なる前後の肩の位置からその中心位置とする方法、手と重ならない操作者の他の特徴点(例えば頭部等)の位置からデータベースに保持されたモデルに従い肩の位置を推定する方法等が考えられる。   For example, when the position of the operator's hand (operation point) and shoulder (base point) is detected by the motion sensor 2, the shoulder may be hidden by the hand depending on the position of the hand, and the position of the shoulder may not be detected. . Therefore, in such a case, the feature point extraction unit 32 may determine that the shoulder has overlapped with the hand and estimate the position of the shoulder. As an estimation method at this time, for example, a method of estimating from the position of the shoulder immediately before the shoulder overlaps with the hand, a method of setting the center position from the position of the shoulder before and after the shoulder overlaps with the hand, an operator not overlapping with the hand A method of estimating the position of the shoulder according to a model held in a database from the position of other feature points (for example, the head) can be considered.

また、特徴点抽出部32は、操作者検出部31により操作者が認識された際に、その操作者の各特徴点(頭部、手、肘、肩、腰等)の位置関係から、隣接する特徴点を結ぶ線分の長さを記憶する。その後、各特徴点の動きを処理毎(1フレーム毎)に記憶する。そして、いずれかの特徴点が認識できない場合に、直前の数フレームでの各特徴点の位置を示す変化と、初めに記憶した各特徴点を結ぶ線分の長さから、その特徴点の位置を推定するようにしてもよい。   Further, when the operator is recognized by the operator detection unit 31, the feature point extraction unit 32 is adjacent from the positional relationship of each feature point (head, hand, elbow, shoulder, waist, etc.) of the operator. The length of the line segment connecting the feature points is stored. Thereafter, the movement of each feature point is stored for each process (every frame). If any of the feature points cannot be recognized, the position of the feature point is calculated from the change indicating the position of each feature point in the previous few frames and the length of the line segment connecting each feature point stored first. May be estimated.

また上記では、特徴点抽出部32が1つの基点の位置を抽出する場合を示した。しかしながら、これに限るものではなく、複数の基点の位置を抽出するようにしてもよい。複数の基点の位置を抽出することで、操作者の障害や癖、操作疲れ等を考慮してカーソル制御を行うことができる。
例えば、手を前方に動かす場合、肩を軸にして手を動かす人の他に、肘を軸にして手を動かす人もいる。そのため、手と肩の位置のみを抽出する場合、肘を軸にして手を動かす人については、操作者が意図する角度変化より検出結果が小さくなる場合がある。そこで、特徴点抽出部32が複数の基点の位置を抽出し、変換部34が、角度算出部33により算出された複数組の角度のうち、角度変化の大きい角度を用いるように構成してもよい。
In the above description, the feature point extraction unit 32 extracts the position of one base point. However, the present invention is not limited to this, and the positions of a plurality of base points may be extracted. By extracting the positions of a plurality of base points, it is possible to perform cursor control in consideration of an operator's failure, habit, operational fatigue, and the like.
For example, when moving a hand forward, there are people who move their hands around their elbows in addition to those who move their hands around their shoulders. Therefore, when only the positions of the hand and the shoulder are extracted, the detection result may be smaller than the angle change intended by the operator for a person who moves the hand around the elbow. Therefore, the feature point extraction unit 32 may extract the positions of a plurality of base points, and the conversion unit 34 may be configured to use an angle with a large angle change among a plurality of sets of angles calculated by the angle calculation unit 33. Good.

また、ジェスチャによるカーソル制御では、操作者の手を静止させることが難しいため、カーソルを静止させることは難しい。そこで、カーソル制御装置3にフィルタ部を追加し、角度算出部33により算出された今回の角度が、前の角度(1〜数フレーム前の角度等)に対して閾値内である場合に、当該今回の角度を当該前の角度に置き換えるようにしてもよい。これにより、手のブレ等の閾値内の動作については、ノイズであるとして除外し、カーソルを静止させることができる。   Further, in the cursor control by gesture, it is difficult to stop the operator's hand, so it is difficult to stop the cursor. Therefore, when a filter unit is added to the cursor control device 3 and the current angle calculated by the angle calculation unit 33 is within the threshold with respect to the previous angle (an angle one to several frames before, etc.), The current angle may be replaced with the previous angle. Thereby, an operation within a threshold value such as a hand shake can be excluded as noise, and the cursor can be stopped.

また上記では、特徴点検出センサとしてモーションセンサ2を用いた場合について示した。しかしながら、これに限るものではなく、3次元空間における人の特徴点の位置を検出することができるセンサであればよい。   In the above description, the motion sensor 2 is used as the feature point detection sensor. However, the present invention is not limited to this, and any sensor that can detect the position of a human feature point in a three-dimensional space may be used.

また、角度算出部33による処理において、特徴点、基準軸の位置をオフセットさせてもよい。これにより、例えば、操作者の障害や癖、操作疲れ等を考慮することができ、操作性が向上する。図7の例では、何らかの要因により手を大きく上側に動かせない操作者のため、基点(頭部)及び基準軸の位置を下方向にオフセットした場合を示している。符号102がオフセット後の仮想の頭部の位置を示し、破線の軸がオフセット後の仮想の基準軸の位置を示している。なお、このオフセット設定は、画面操作を開始する前に設定してもよいし、画面操作中に変更するようにしてもよい。   Further, in the processing by the angle calculation unit 33, the position of the feature point and the reference axis may be offset. Thereby, for example, an operator's failure, wrinkle, operational fatigue, etc. can be taken into account, and operability is improved. The example of FIG. 7 shows a case where the positions of the base point (head) and the reference axis are offset downward for an operator who cannot move his hand greatly upward due to some factor. Reference numeral 102 indicates the position of the virtual head after the offset, and the axis of the broken line indicates the position of the virtual reference axis after the offset. The offset setting may be set before starting the screen operation or may be changed during the screen operation.

また上記では、展示会向けの大型ディスプレイ(モニタ1)の画面に対し、操作者がジェスチャを行うことで、画面上のカーソルを動かして操作を行うシステムを想定して説明を行った。しかしながら、これに限るものではなく、モニタ1に表示される画面に対し、操作者がジェスチャを行うことで、画面上のカーソルを動かして操作を行うシステムであれば、本発明を適用可能であり、同様の効果を得ることができる。
例えば、工場で作業員が作業手袋をはめたままパソコン上の作業手順書を確認する場合、キーボードに触れることができないため、ジェスチャにより操作する方法が考えられる。このような場合にも本発明を適用でき、例えば動作点を指先とし、基点を掌とすることで、同様の効果を得ることができる。
In the above description, the description is given assuming a system in which an operator performs a gesture on the screen of a large display (monitor 1) for an exhibition to move the cursor on the screen. However, the present invention is not limited to this, and the present invention can be applied to any system that operates by moving the cursor on the screen by the operator performing a gesture on the screen displayed on the monitor 1. The same effect can be obtained.
For example, when a worker checks a work procedure manual on a personal computer while wearing work gloves at a factory, the keyboard cannot be touched. Even in such a case, the present invention can be applied. For example, the same effect can be obtained by using the operating point as a fingertip and the base point as a palm.

また、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。   Further, in the present invention, any constituent element of the embodiment can be modified or any constituent element of the embodiment can be omitted within the scope of the invention.

この発明に係るカーソル制御装置は、操作者の体格差に依存しない操作性を実現することができ、特徴点検出センサにより検出された3次元空間における人の特徴点の位置を用いて、モニタに表示された画面上のカーソルの位置を制御するカーソル制御装置等に用いるのに適している。   The cursor control device according to the present invention can realize operability that does not depend on the physique difference of the operator, and uses the position of the human feature point in the three-dimensional space detected by the feature point detection sensor as a monitor. It is suitable for use in a cursor control device that controls the position of the cursor on the displayed screen.

1 モニタ、2 モーションセンサ(特徴点検出センサ)、3 カーソル制御装置、31 操作者検出部、32 特徴点抽出部、33 角度算出部、34 変換部。   DESCRIPTION OF SYMBOLS 1 Monitor, 2 motion sensor (feature point detection sensor), 3 cursor control apparatus, 31 operator detection part, 32 feature point extraction part, 33 angle calculation part, 34 conversion part.

Claims (5)

特徴点検出センサにより検出された3次元空間内における人の特徴点の位置を用いて、モニタに表示された画面上のカーソルの位置を制御するカーソル制御装置において、
前記特徴点検出センサによる検出結果から操作者の特徴点の位置を検出する操作者検出部と、
前記操作者検出部により検出された操作者の特徴点のうち、動作点及び基点となる特徴点の位置を抽出する特徴点抽出部と、
前記特徴点抽出部により抽出された動作点及び基点の位置を結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を算出する角度算出部と、
前記角度算出部により算出された角度を、前記カーソルの位置に変換する変換部とを備えた
ことを特徴とするカーソル制御装置。
In a cursor control device that controls the position of a cursor on a screen displayed on a monitor using the position of a feature point of a person in a three-dimensional space detected by a feature point detection sensor,
An operator detection unit for detecting the position of the operator's feature point from the detection result by the feature point detection sensor;
Among the operator feature points detected by the operator detection unit, a feature point extraction unit that extracts the position of the feature point that is the operation point and the base point;
An angle calculation unit for calculating horizontal and vertical angles formed by a line segment connecting the position of the operation point and the base point extracted by the feature point extraction unit, and a reference axis;
A cursor control device comprising: a conversion unit that converts the angle calculated by the angle calculation unit into the position of the cursor.
前記角度算出部により算出された今回の角度が、前の角度に対して閾値内である場合に、当該今回の角度を当該前の角度に置き換えるフィルタ部を備えた
ことを特徴とする請求項1記載のカーソル制御装置。
2. A filter unit that replaces the current angle with the previous angle when the current angle calculated by the angle calculation unit is within a threshold with respect to the previous angle. The cursor control device described.
前記特徴点抽出部は、前記基点の位置が抽出できなくなった場合に、当該基点が前記動作点に重なったと判断して当該基点の位置を推定する
ことを特徴とする請求項1記載のカーソル制御装置。
2. The cursor control according to claim 1, wherein when the position of the base point cannot be extracted, the feature point extracting unit determines that the base point overlaps the operation point and estimates the position of the base point. apparatus.
前記特徴点抽出部は、基点となる特徴点の位置を複数抽出し、
前記変換部は、前記角度算出部により算出された複数組の角度のうち、角度変化の大きい角度を用いる
ことを特徴とする請求項1記載のカーソル制御装置。
The feature point extraction unit extracts a plurality of feature point positions serving as base points;
The cursor control device according to claim 1, wherein the conversion unit uses an angle having a large angle change among a plurality of sets of angles calculated by the angle calculation unit.
特徴点検出センサにより検出された3次元空間内における人の特徴点の位置を用いて、モニタに表示された画面上のカーソルの位置を制御するカーソル制御方法において、
操作者検出部が、前記特徴点検出センサによる検出結果から操作者の特徴点の位置を検出する操作者検出ステップと、
特徴点抽出部が、前記操作者検出部により検出された操作者の特徴点のうち、動作点及び基点となる特徴点の位置を抽出する特徴点抽出ステップと、
角度算出部が、前記特徴点抽出部により抽出された動作点及び基点の位置を結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を算出する角度算出ステップと、
変換部が、前記角度算出部により算出された角度を、前記カーソルの位置に変換する変換ステップとを有する
ことを特徴とするカーソル制御方法。
In the cursor control method for controlling the position of the cursor on the screen displayed on the monitor using the position of the feature point of the person in the three-dimensional space detected by the feature point detection sensor,
An operator detection step in which an operator detection unit detects the position of the operator's feature point from the detection result of the feature point detection sensor;
A feature point extraction step for extracting a position of a feature point serving as an operation point and a base point among the feature points of the operator detected by the operator detection unit;
An angle calculation step in which an angle calculation unit calculates an angle in a horizontal direction and a vertical direction formed by a line segment connecting the positions of the operation point and the base point extracted by the feature point extraction unit, and a reference axis;
A conversion unit, wherein the conversion unit includes a conversion step of converting the angle calculated by the angle calculation unit into the position of the cursor.
JP2016551393A 2014-09-30 2014-09-30 Cursor control device and cursor control method Active JP6400110B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/076128 WO2016051520A1 (en) 2014-09-30 2014-09-30 Cursor control device and cursor control method

Publications (2)

Publication Number Publication Date
JPWO2016051520A1 true JPWO2016051520A1 (en) 2017-04-27
JP6400110B2 JP6400110B2 (en) 2018-10-03

Family

ID=55629612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016551393A Active JP6400110B2 (en) 2014-09-30 2014-09-30 Cursor control device and cursor control method

Country Status (2)

Country Link
JP (1) JP6400110B2 (en)
WO (1) WO2016051520A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108309A (en) * 2001-09-28 2003-04-11 Fuji Photo Optical Co Ltd Presentation system
JP2006277666A (en) * 2005-03-30 2006-10-12 Nhk Engineering Services Inc Display screen position analysis device and program
JP2008065522A (en) * 2006-09-06 2008-03-21 Seiko Epson Corp Information display system and pointing control method
JP2013125985A (en) * 2011-12-13 2013-06-24 Sharp Corp Display system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108309A (en) * 2001-09-28 2003-04-11 Fuji Photo Optical Co Ltd Presentation system
JP2006277666A (en) * 2005-03-30 2006-10-12 Nhk Engineering Services Inc Display screen position analysis device and program
JP2008065522A (en) * 2006-09-06 2008-03-21 Seiko Epson Corp Information display system and pointing control method
JP2013125985A (en) * 2011-12-13 2013-06-24 Sharp Corp Display system

Also Published As

Publication number Publication date
JP6400110B2 (en) 2018-10-03
WO2016051520A1 (en) 2016-04-07

Similar Documents

Publication Publication Date Title
TWI489317B (en) Method and system for operating electric apparatus
US9329691B2 (en) Operation input apparatus and method using distinct determination and control areas
JP5183398B2 (en) Input device
US20150262002A1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
JP2015095164A (en) Gesture recognition device and control method for gesture recognition device
JP2016521894A5 (en)
US9008442B2 (en) Information processing apparatus, information processing method, and computer program
TWI403922B (en) Manual human machine interface operation system and method thereof
JP5175755B2 (en) Gesture recognition device, method and program thereof
TWI496094B (en) Gesture recognition module and gesture recognition method
WO2013008236A1 (en) System and method for computer vision based hand gesture identification
US10366281B2 (en) Gesture identification with natural images
JP6618276B2 (en) Information processing apparatus, control method therefor, program, and storage medium
US10372223B2 (en) Method for providing user commands to an electronic processor and related processor program and electronic circuit
JP2014165660A (en) Method of input with virtual keyboard, program, storage medium, and virtual keyboard system
JP2017084335A (en) System and method for real-time interactive operation of user interface
US20150277570A1 (en) Providing Onscreen Visualizations of Gesture Movements
JP6452369B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP6503262B2 (en) Motion recognition device
JP6400110B2 (en) Cursor control device and cursor control method
JP6289655B2 (en) Screen operation apparatus and screen operation method
KR101360322B1 (en) Apparatus and method for controlling electric boards using multiple hand shape detection and tracking
JP5928628B2 (en) Virtual keyboard input method
JP2013109538A (en) Input method and device
JP6373546B2 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180904

R150 Certificate of patent or registration of utility model

Ref document number: 6400110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250