JPWO2016051520A1 - Cursor control device and cursor control method - Google Patents
Cursor control device and cursor control method Download PDFInfo
- Publication number
- JPWO2016051520A1 JPWO2016051520A1 JP2016551393A JP2016551393A JPWO2016051520A1 JP WO2016051520 A1 JPWO2016051520 A1 JP WO2016051520A1 JP 2016551393 A JP2016551393 A JP 2016551393A JP 2016551393 A JP2016551393 A JP 2016551393A JP WO2016051520 A1 JPWO2016051520 A1 JP WO2016051520A1
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- operator
- point
- angle
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
Abstract
モーションセンサ2による検出結果から操作者の特徴点の位置を検出する操作者検出部31と、操作者検出部31により検出された操作者の特徴点のうち、動作点及び基点となる特徴点の位置を抽出する特徴点抽出部31と、特徴点抽出部31により抽出された動作点及び基点の位置を結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を算出する角度算出部32と、角度算出部32により算出された角度を、カーソルの位置に変換する変換部33とを備えた。An operator detection unit 31 that detects the position of the operator's feature point from the detection result by the motion sensor 2, and among the feature points of the operator detected by the operator detection unit 31, the operation point and the feature point that is the base point A feature point extraction unit 31 that extracts a position, and an angle calculation unit that calculates horizontal and vertical angles formed by a line segment connecting the positions of the operation point and the base point extracted by the feature point extraction unit 31 and a reference axis 32 and a conversion unit 33 that converts the angle calculated by the angle calculation unit 32 into the position of the cursor.
Description
この発明は、特徴点検出センサにより検出された3次元空間内における人の特徴点の位置を用いて、モニタに表示された画面上のカーソルの位置を制御するカーソル制御装置及びカーソル制御方法に関するものである。 The present invention relates to a cursor control device and a cursor control method for controlling the position of a cursor on a screen displayed on a monitor using the position of a human feature point in a three-dimensional space detected by a feature point detection sensor. It is.
従来から、モニタ(例えば展示会向けの大型ディスプレイ)に表示された画面に対し、操作者がジェスチャを行うことで、当該画面上のカーソルを動かして操作を行うシステムが知られている(例えば特許文献1参照)。 2. Description of the Related Art Conventionally, a system is known in which an operator performs a gesture on a screen displayed on a monitor (for example, a large display for an exhibition) to move the cursor on the screen (for example, a patent). Reference 1).
このシステムでは、例えばモーションセンサ(特徴点検出センサ)を用い、ある決められた3次元空間において、操作者の特徴点(例えば手)の位置(空間座標値)を検出している。そして、この手の空間座標値を、モニタに表示された画面上の2次元座標(モニタ座標)に対応させることで、カーソルの位置を設定している。具体的には、例えば図8に示すように、x座標については、空間座標の最小値x1をモニタ座標の最小値xminに対応させ、空間座標の最大値x2をモニタ座標の最大値xmaxに対応させる。また、y座標についても同様に、空間座標の最小値y1をモニタ座標の最小値yminに対応させ、空間座標の最大値y2をモニタ座標の最大値ymaxに対応させる。このようにしてカーソルの位置を設定することで、操作者が手を動かすことにより、モニタに表示された画面上のカーソルを動かすことができる。In this system, for example, a motion sensor (feature point detection sensor) is used to detect the position (spatial coordinate value) of an operator's feature point (for example, a hand) in a predetermined three-dimensional space. The position of the cursor is set by associating the spatial coordinate value of this hand with the two-dimensional coordinates (monitor coordinates) on the screen displayed on the monitor. More specifically, as shown in FIG. 8, for the x-coordinate, is associated with the minimum value x 1 of the spatial coordinate to the minimum value x min of the monitor coordinate, the maximum value of the monitor coordinate maximum value x 2 spatial coordinates Correspond to x max . Similarly, with regard to the y coordinate, the minimum value y 1 of the spatial coordinate is made to correspond to the minimum value y min of the monitor coordinate, and the maximum value y 2 of the spatial coordinate is made to correspond to the maximum value y max of the monitor coordinate. By setting the cursor position in this manner, the cursor on the screen displayed on the monitor can be moved by the operator moving his / her hand.
上述したように、従来技術では、操作者の手の空間座標値をモニタ座標に対応させている。よって、操作者の手の水平方向、垂直方向における移動量に応じて、画面上のカーソルが移動することになる。しかしながら、この場合には、操作者の体格によって操作負担が異なるという課題があった。すなわち、体格の小さい操作者の場合には、体格の大きい操作者に対して、より大きなジェスチャが必要となり、身体的負担が大きくなる。 As described above, in the prior art, the spatial coordinate value of the operator's hand is associated with the monitor coordinate. Therefore, the cursor on the screen moves according to the amount of movement in the horizontal and vertical directions of the operator's hand. However, in this case, there is a problem that the operation load varies depending on the physique of the operator. That is, in the case of an operator with a small physique, a larger gesture is required for an operator with a large physique, which increases the physical burden.
この発明は、上記のような課題を解決するためになされたもので、操作者の体格差に依存することなく、カーソルの位置を制御することができるカーソル制御装置及びカーソル制御方法を提供することを目的としている。 The present invention has been made to solve the above-described problems, and provides a cursor control device and a cursor control method capable of controlling the position of a cursor without depending on an operator's physique difference. It is an object.
この発明に係るカーソル制御装置は、特徴点検出センサによる検出結果から操作者の特徴点の位置を検出する操作者検出部と、操作者検出部により検出された操作者の特徴点のうち、動作点及び基点となる特徴点の位置を抽出する特徴点抽出部と、特徴点抽出部により抽出された動作点及び基点の位置を結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を算出する角度算出部と、角度算出部により算出された角度を、カーソルの位置に変換する変換部とを備えたものである。 The cursor control device according to the present invention includes an operator detection unit that detects a position of the operator's feature point from a detection result by the feature point detection sensor, and an operation among the operator's feature points detected by the operator detection unit. Horizontal and vertical angles between the reference point and the feature point extraction unit that extracts the point and the position of the feature point that is the base point, the line segment that connects the operation point and the position of the base point extracted by the feature point extraction unit An angle calculation unit for calculating the angle, and a conversion unit for converting the angle calculated by the angle calculation unit into the position of the cursor.
この発明に係るカーソル制御方法は、操作者検出部が、特徴点検出センサによる検出結果から操作者の特徴点の位置を検出する操作者検出ステップと、特徴点抽出部が、操作者検出部により検出された操作者の特徴点のうち、動作点及び基点となる特徴点の位置を抽出する特徴点抽出ステップと、角度算出部が、特徴点抽出部により抽出された動作点及び基点の位置を結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を算出する角度算出ステップと、変換部が、角度算出部により算出された角度を、カーソルの位置に変換する変換ステップとを有するものである。 In the cursor control method according to the present invention, the operator detecting unit detects the position of the feature point of the operator from the detection result by the feature point detecting sensor, and the feature point extracting unit is operated by the operator detecting unit. Of the detected feature points of the operator, a feature point extraction step for extracting the position of the feature point as the operation point and the base point, and the angle calculation unit determines the position of the operation point and the base point extracted by the feature point extraction unit. An angle calculating step for calculating the horizontal and vertical angles formed by the connecting line segment and the reference axis, and a converting unit for converting the angle calculated by the angle calculating unit into a cursor position. Is.
この発明によれば、上記のように構成したので、操作者の体格差に依存することなく、カーソルの位置を制御することができる。 According to this invention, since it comprised as mentioned above, the position of a cursor can be controlled without depending on an operator's physique difference.
以下、この発明の実施の形態について図面を参照しながら詳細に説明する。
実施の形態1.
図1はこの発明の実施の形態1に係るカーソル制御装置3を含むシステム全体の構成を示す図である。
図1に示すシステムでは、モニタ1、モーションセンサ(特徴点検出センサ)2及びカーソル制御装置3が設けられている。Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1 FIG.
FIG. 1 is a diagram showing a configuration of the entire system including a
In the system shown in FIG. 1, a monitor 1, a motion sensor (feature point detection sensor) 2, and a
モニタ1は、各種コンテンツ(画面)を表示するものである。
モーションセンサ2は、所定のサンプリング間隔で、3次元空間内における人の特徴点の位置(空間座標値)を検出するものであり、モニタ1に表示された画面を操作する操作者を検出することができる場所に設置される。このモーションセンサ2は、予め決められた空間内を撮像してカラー画像を取得するカメラと、上記空間内に存在する物体の深度を検出する深度センサとを有している。また、人のシルエットに対して各特徴点(頭部、肩、手、腰、足等)の位置を示すモデルを保持するデータベースも有している。そして、モーションセンサ2では、カメラにより撮像されたカラー画像と深度センサによる検出結果から上記空間内に存在する物体のシルエットを抽出する。そして、このシルエットをデータベースに保持されたモデルとマッチングさせることで、人を検出し、当該人の特徴点の位置を検出する。The monitor 1 displays various contents (screens).
The
カーソル制御装置3は、モーションセンサ2により検出された3次元空間内における人の特徴点の位置を用いて、モニタ1に表示された画面上のカーソルの位置を制御するものである。このカーソル制御装置3は、図1に示すように、操作者検出部31、特徴点抽出部32、角度算出部33及び変換部34を有している。なお、カーソル制御装置3は、ソフトウェアに基づくCPUを用いたプログラム処理によって実行される。
The
操作者検出部31は、モーションセンサ2による検出結果から操作者の特徴点の位置を検出するものである。なお、操作者検出部31は、検出した操作者の特徴点の位置を逐一記憶する機能を有している。
The
また、例えば展示会で本システムを用いる場合には、モーションセンサ2が検出を行う空間内には多くの人が存在することが想定される。そこで、操作者検出部31は、操作者と認識した人のみを追従する機能を有している。
この機能では、上記空間内の所定位置(例えば真ん中)に来た人を操作者と認識して追従する。具体的には、まず、操作者を検出する範囲を上記空間の一部の範囲(例えば真ん中)に限定する。そして、この検出範囲内に入った人を操作者として認識する。その後、検出範囲を上記空間全体に広げ、当該操作者の動きを追従し続ける。以後、他の人が検出範囲内に入ったとしても、操作者が検出範囲内にいる限りは、操作権を譲渡しない。その後、操作者が検出範囲の外に出た場合には、操作権を放棄したものとみなす。そして、再び検出範囲を狭め、新たな操作者の認識を待つ。For example, when this system is used in an exhibition, it is assumed that there are many people in the space where the
In this function, a person who has come to a predetermined position (for example, the middle) in the space is recognized as an operator and follows. Specifically, first, the range in which the operator is detected is limited to a partial range (for example, the middle) of the space. A person who falls within this detection range is recognized as an operator. Thereafter, the detection range is extended to the entire space, and the movement of the operator is continuously followed. Thereafter, even if another person enters the detection range, the operation right is not transferred as long as the operator is within the detection range. Thereafter, when the operator goes out of the detection range, it is considered that the operation right has been abandoned. Then, the detection range is narrowed again to wait for recognition of a new operator.
また、上記検出範囲内で他の人に操作権を譲渡する機能を付加してもよい。この場合、操作者を認識後に他の人が検出範囲に入り、双方が予め決められたジェスチャ(握手、手を振る等)を行う。これにより、操作権の譲渡を認める。 Moreover, you may add the function to transfer an operation right to another person within the said detection range. In this case, after recognizing the operator, another person enters the detection range, and both perform a predetermined gesture (shake hand, shake hand, etc.). As a result, the transfer of the operation right is permitted.
特徴点抽出部32は、操作者検出部31により検出された操作者の特徴点のうち、動作点となる特徴点(画面上のカーソルに対応する特徴点)の位置と、基点となる特徴点(動作点に対して軸となる特徴点)の位置とを抽出するものである。
The feature
角度算出部33は、特徴点抽出部32により抽出された動作点及び基点の位置を結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を算出するものである。なお、基準軸は、動作点及び基点とは独立に設定してもよいし、関連させてもよい。
The
変換部34は、角度算出部33により算出された角度を、カーソルの位置に変換するものである。
The
次に、上記のように構成されたカーソル制御装置3の動作について、図2〜5を参照しながら説明する。なお以下では、操作者がモーションセンサ2の前で手を動かすことで、モニタ1に表示された画面上のカーソルを移動させる場合を例に説明を行う。また、モーションセンサ2は、所定のサンプリング間隔で、3次元空間内における人の特徴点の位置を検出している。
Next, the operation of the
カーソル制御装置3の動作では、図2に示すように、まず、操作者検出部31は、モーションセンサ2による検出結果から操作者の特徴点の位置を検出する(ステップST1、操作者検出ステップ)。
In the operation of the
次いで、特徴点抽出部32は、操作者検出部31により検出された操作者の特徴点のうち、動作点及び基点となる特徴点の位置を抽出する(ステップST2、特徴点抽出ステップ)。図3〜5では、動作点は操作者の手であり、基点は操作者の頭部としている。
Next, the feature
次いで、角度算出部33は、特徴点抽出部32により抽出された動作点及び基点の位置を結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を算出する(ステップST3〜5、角度算出ステップ)。例えば図3〜5では、操作者の頭部とモーションセンサ2のセンサ位置とを結ぶ線(Z軸)を基準軸としている。そして、角度算出部33は、手と頭部の位置を結ぶ線分と基準軸とのなす水平方向(XZ成分)の角度θx及び垂直方向(YZ成分)の角度θyを算出する。Next, the
次いで、変換部34は、角度算出部33により算出された角度を、カーソルの位置に変換する(ステップST6、変換ステップ)。この際、図3〜5に示すように、変換部34は、例えば水平方向の角度θx=0の場合をモニタ座標の中心値xcに対応させ、予め決められた正方向(図の右側)の最大角度θx=θx1をモニタ座標の最大値xmaxに対応させ、予め決められた負方向(図の左側)の最大角度θx=−θx1をモニタ座標の最小値xminに対応させる。同様に、例えば、垂直方向の角度θy=0の場合をモニタ座標の中心値ycに対応させ、予め決められた負方向(図の下側)の最大角度θy=−θy1をモニタ座標の最大値ymaxに対応させ、予め決められた正方向(図の上側)の最大角度θy=θy2をモニタ座標の最小値yminに対応させる。なお、最大角度以上に手を動かした場合にはモニタ座標の極値(最大値、最小値)に対応させる。なお図3は、手と頭部とを結ぶ線分と基準軸とのなす角度がθx=0,θy=0の場合でのカーソル101の位置を示している。また図4は、上記角度がθx=θx1,θy=0の場合でのカーソル101の位置を示している。また図5は、上記角度がθx=θx1,θy=−θy1の場合でのカーソル101の位置を示している。Next, the
次に、本発明の効果について、図6を用いて従来技術の場合と比較しながら説明する。以下では、操作者が手を水平方向に動かして、モニタ1に表示された画面上のカーソルを横に移動させる場合を例に説明を行う。 Next, the effect of the present invention will be described using FIG. 6 while comparing with the case of the prior art. In the following, a case where the operator moves his / her hand in the horizontal direction and moves the cursor on the screen displayed on the monitor 1 to the side will be described as an example.
まず、従来技術の場合には、モーションセンサ2により検出された手の空間座標値をモニタ座標に変換している。
この手法では、図6に示すように、腕の長さがL1の場合には、ある角度θxだけ手を動かすと、手の水平方向の移動距離はX1となり、次式(1)よりカーソルの移動量はM1となる。なお、αは係数である。
M1=αX1 (1)First, in the case of the prior art, the hand space coordinate value detected by the
In this method, as shown in FIG. 6, when the length of the arms of the L1 is moving the hand by an angle theta x, horizontal movement distance of the hand becomes X1, cursor from the following equation (1) The amount of movement is M1. Α is a coefficient.
M1 = αX1 (1)
一方、腕の長さがL2(>L1)の場合には、ある角度θxだけ手を動かすと、手の水平方向の移動距離はX2(>X1)となり、次式(2)よりカーソルの移動量はM2(>M1)となる。
M2=αX2 (2)
したがって、操作者の体格によってカーソルの移動量が変わり、操作負担が変わることになる。On the other hand, when the length of the arm of L2 (> L1) is the angle theta x simply moving the hand, the horizontal movement distance of the hand X2 (> X1), and the following equation from the cursor (2) The amount of movement is M2 (> M1).
M2 = αX2 (2)
Therefore, the amount of movement of the cursor changes depending on the physique of the operator, and the operation burden changes.
これに対し、本発明の場合には、モーションセンサ2により検出された動作点(手)と基点(頭部)とを結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を、モニタ座標に変換している。
この手法では、図6に示すように、手を動かす角度θxによってカーソルの移動量M3が決まるため、腕の長さがL1であってもL2であってもカーソルの移動量M3は変化せず、操作負担は変わらない。なお、この場合でのカーソルの移動量M3は次式(3)となる。ここで、Dは手を動かす最大角度であり、Pは画面上の最大距離のピクセル数である。
M3=(θx/D)×P (3)On the other hand, in the case of the present invention, the horizontal and vertical angles formed by the line segment connecting the operating point (hand) and the base point (head) detected by the
In this method, as shown in FIG. 6, since the movement amount M3 of the cursor by the angle theta x moving the hands is determined, the moving amount M3 of the length of the arms cursor even L2 be L1 is unchanged The operation burden is not changed. In this case, the movement amount M3 of the cursor is expressed by the following equation (3). Here, D is the maximum angle for moving the hand, and P is the maximum number of pixels on the screen.
M3 = (θ x / D) × P (3)
以上のように、この実施の形態1によれば、モーションセンサ2による検出結果から操作者の特徴点の位置を検出する操作者検出部31と、操作者検出部31により検出された操作者の特徴点のうち、動作点及び基点となる特徴点の位置を抽出する特徴点抽出部32と、特徴点抽出部32により抽出された動作点及び基点の位置を結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を算出する角度算出部33と、角度算出部33により算出された角度を、カーソルの位置に変換する変換部34とを備えたので、操作者の体格差に依存することなく画面上のカーソル位置を制御することができ、どんな操作者でも同じ操作体験を得ることができる。
As described above, according to the first embodiment, the
なお上記では、動作点を操作者の手とした場合について示したが、これに限るものではなく、操作者の他の特徴点(指先等)であってもよい。また上記では、基点を操作者の頭部とした場合について示したが、これに限るものではなく、動作点に対して軸となる点であればよく、操作者の他の特徴点(肩、肘、首の付け根、腕の付け根等)であってもよい。 In the above description, the case where the operating point is the operator's hand has been described. However, the operating point is not limited to this, and may be another characteristic point (such as a fingertip) of the operator. In the above description, the base point is the operator's head. However, the present invention is not limited to this, and any point that serves as an axis with respect to the operating point may be used. Elbow, neck base, arm base, etc.).
また、例えば、モーションセンサ2により操作者の手(動作点)と肩(基点)の位置を検出する場合、手の位置によっては肩が手で隠れてしまい、肩の位置を検出できない場合がある。そこで、このような場合に、特徴点抽出部32が、肩が手に重なったと判断して当該肩の位置を推定するようにしてもよい。この際の推定方法としては、例えば、肩が手に重なる直前の肩の位置から推定する方法や、肩が手に重なる前後の肩の位置からその中心位置とする方法、手と重ならない操作者の他の特徴点(例えば頭部等)の位置からデータベースに保持されたモデルに従い肩の位置を推定する方法等が考えられる。
For example, when the position of the operator's hand (operation point) and shoulder (base point) is detected by the
また、特徴点抽出部32は、操作者検出部31により操作者が認識された際に、その操作者の各特徴点(頭部、手、肘、肩、腰等)の位置関係から、隣接する特徴点を結ぶ線分の長さを記憶する。その後、各特徴点の動きを処理毎(1フレーム毎)に記憶する。そして、いずれかの特徴点が認識できない場合に、直前の数フレームでの各特徴点の位置を示す変化と、初めに記憶した各特徴点を結ぶ線分の長さから、その特徴点の位置を推定するようにしてもよい。
Further, when the operator is recognized by the
また上記では、特徴点抽出部32が1つの基点の位置を抽出する場合を示した。しかしながら、これに限るものではなく、複数の基点の位置を抽出するようにしてもよい。複数の基点の位置を抽出することで、操作者の障害や癖、操作疲れ等を考慮してカーソル制御を行うことができる。
例えば、手を前方に動かす場合、肩を軸にして手を動かす人の他に、肘を軸にして手を動かす人もいる。そのため、手と肩の位置のみを抽出する場合、肘を軸にして手を動かす人については、操作者が意図する角度変化より検出結果が小さくなる場合がある。そこで、特徴点抽出部32が複数の基点の位置を抽出し、変換部34が、角度算出部33により算出された複数組の角度のうち、角度変化の大きい角度を用いるように構成してもよい。In the above description, the feature
For example, when moving a hand forward, there are people who move their hands around their elbows in addition to those who move their hands around their shoulders. Therefore, when only the positions of the hand and the shoulder are extracted, the detection result may be smaller than the angle change intended by the operator for a person who moves the hand around the elbow. Therefore, the feature
また、ジェスチャによるカーソル制御では、操作者の手を静止させることが難しいため、カーソルを静止させることは難しい。そこで、カーソル制御装置3にフィルタ部を追加し、角度算出部33により算出された今回の角度が、前の角度(1〜数フレーム前の角度等)に対して閾値内である場合に、当該今回の角度を当該前の角度に置き換えるようにしてもよい。これにより、手のブレ等の閾値内の動作については、ノイズであるとして除外し、カーソルを静止させることができる。
Further, in the cursor control by gesture, it is difficult to stop the operator's hand, so it is difficult to stop the cursor. Therefore, when a filter unit is added to the
また上記では、特徴点検出センサとしてモーションセンサ2を用いた場合について示した。しかしながら、これに限るものではなく、3次元空間における人の特徴点の位置を検出することができるセンサであればよい。
In the above description, the
また、角度算出部33による処理において、特徴点、基準軸の位置をオフセットさせてもよい。これにより、例えば、操作者の障害や癖、操作疲れ等を考慮することができ、操作性が向上する。図7の例では、何らかの要因により手を大きく上側に動かせない操作者のため、基点(頭部)及び基準軸の位置を下方向にオフセットした場合を示している。符号102がオフセット後の仮想の頭部の位置を示し、破線の軸がオフセット後の仮想の基準軸の位置を示している。なお、このオフセット設定は、画面操作を開始する前に設定してもよいし、画面操作中に変更するようにしてもよい。
Further, in the processing by the
また上記では、展示会向けの大型ディスプレイ(モニタ1)の画面に対し、操作者がジェスチャを行うことで、画面上のカーソルを動かして操作を行うシステムを想定して説明を行った。しかしながら、これに限るものではなく、モニタ1に表示される画面に対し、操作者がジェスチャを行うことで、画面上のカーソルを動かして操作を行うシステムであれば、本発明を適用可能であり、同様の効果を得ることができる。
例えば、工場で作業員が作業手袋をはめたままパソコン上の作業手順書を確認する場合、キーボードに触れることができないため、ジェスチャにより操作する方法が考えられる。このような場合にも本発明を適用でき、例えば動作点を指先とし、基点を掌とすることで、同様の効果を得ることができる。In the above description, the description is given assuming a system in which an operator performs a gesture on the screen of a large display (monitor 1) for an exhibition to move the cursor on the screen. However, the present invention is not limited to this, and the present invention can be applied to any system that operates by moving the cursor on the screen by the operator performing a gesture on the screen displayed on the monitor 1. The same effect can be obtained.
For example, when a worker checks a work procedure manual on a personal computer while wearing work gloves at a factory, the keyboard cannot be touched. Even in such a case, the present invention can be applied. For example, the same effect can be obtained by using the operating point as a fingertip and the base point as a palm.
また、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。 Further, in the present invention, any constituent element of the embodiment can be modified or any constituent element of the embodiment can be omitted within the scope of the invention.
この発明に係るカーソル制御装置は、操作者の体格差に依存しない操作性を実現することができ、特徴点検出センサにより検出された3次元空間における人の特徴点の位置を用いて、モニタに表示された画面上のカーソルの位置を制御するカーソル制御装置等に用いるのに適している。 The cursor control device according to the present invention can realize operability that does not depend on the physique difference of the operator, and uses the position of the human feature point in the three-dimensional space detected by the feature point detection sensor as a monitor. It is suitable for use in a cursor control device that controls the position of the cursor on the displayed screen.
1 モニタ、2 モーションセンサ(特徴点検出センサ)、3 カーソル制御装置、31 操作者検出部、32 特徴点抽出部、33 角度算出部、34 変換部。 DESCRIPTION OF SYMBOLS 1 Monitor, 2 motion sensor (feature point detection sensor), 3 cursor control apparatus, 31 operator detection part, 32 feature point extraction part, 33 angle calculation part, 34 conversion part.
Claims (5)
前記特徴点検出センサによる検出結果から操作者の特徴点の位置を検出する操作者検出部と、
前記操作者検出部により検出された操作者の特徴点のうち、動作点及び基点となる特徴点の位置を抽出する特徴点抽出部と、
前記特徴点抽出部により抽出された動作点及び基点の位置を結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を算出する角度算出部と、
前記角度算出部により算出された角度を、前記カーソルの位置に変換する変換部とを備えた
ことを特徴とするカーソル制御装置。In a cursor control device that controls the position of a cursor on a screen displayed on a monitor using the position of a feature point of a person in a three-dimensional space detected by a feature point detection sensor,
An operator detection unit for detecting the position of the operator's feature point from the detection result by the feature point detection sensor;
Among the operator feature points detected by the operator detection unit, a feature point extraction unit that extracts the position of the feature point that is the operation point and the base point;
An angle calculation unit for calculating horizontal and vertical angles formed by a line segment connecting the position of the operation point and the base point extracted by the feature point extraction unit, and a reference axis;
A cursor control device comprising: a conversion unit that converts the angle calculated by the angle calculation unit into the position of the cursor.
ことを特徴とする請求項1記載のカーソル制御装置。2. A filter unit that replaces the current angle with the previous angle when the current angle calculated by the angle calculation unit is within a threshold with respect to the previous angle. The cursor control device described.
ことを特徴とする請求項1記載のカーソル制御装置。2. The cursor control according to claim 1, wherein when the position of the base point cannot be extracted, the feature point extracting unit determines that the base point overlaps the operation point and estimates the position of the base point. apparatus.
前記変換部は、前記角度算出部により算出された複数組の角度のうち、角度変化の大きい角度を用いる
ことを特徴とする請求項1記載のカーソル制御装置。The feature point extraction unit extracts a plurality of feature point positions serving as base points;
The cursor control device according to claim 1, wherein the conversion unit uses an angle having a large angle change among a plurality of sets of angles calculated by the angle calculation unit.
操作者検出部が、前記特徴点検出センサによる検出結果から操作者の特徴点の位置を検出する操作者検出ステップと、
特徴点抽出部が、前記操作者検出部により検出された操作者の特徴点のうち、動作点及び基点となる特徴点の位置を抽出する特徴点抽出ステップと、
角度算出部が、前記特徴点抽出部により抽出された動作点及び基点の位置を結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を算出する角度算出ステップと、
変換部が、前記角度算出部により算出された角度を、前記カーソルの位置に変換する変換ステップとを有する
ことを特徴とするカーソル制御方法。In the cursor control method for controlling the position of the cursor on the screen displayed on the monitor using the position of the feature point of the person in the three-dimensional space detected by the feature point detection sensor,
An operator detection step in which an operator detection unit detects the position of the operator's feature point from the detection result of the feature point detection sensor;
A feature point extraction step for extracting a position of a feature point serving as an operation point and a base point among the feature points of the operator detected by the operator detection unit;
An angle calculation step in which an angle calculation unit calculates an angle in a horizontal direction and a vertical direction formed by a line segment connecting the positions of the operation point and the base point extracted by the feature point extraction unit, and a reference axis;
A conversion unit, wherein the conversion unit includes a conversion step of converting the angle calculated by the angle calculation unit into the position of the cursor.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2014/076128 WO2016051520A1 (en) | 2014-09-30 | 2014-09-30 | Cursor control device and cursor control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016051520A1 true JPWO2016051520A1 (en) | 2017-04-27 |
JP6400110B2 JP6400110B2 (en) | 2018-10-03 |
Family
ID=55629612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016551393A Active JP6400110B2 (en) | 2014-09-30 | 2014-09-30 | Cursor control device and cursor control method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6400110B2 (en) |
WO (1) | WO2016051520A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003108309A (en) * | 2001-09-28 | 2003-04-11 | Fuji Photo Optical Co Ltd | Presentation system |
JP2006277666A (en) * | 2005-03-30 | 2006-10-12 | Nhk Engineering Services Inc | Display screen position analysis device and program |
JP2008065522A (en) * | 2006-09-06 | 2008-03-21 | Seiko Epson Corp | Information display system and pointing control method |
JP2013125985A (en) * | 2011-12-13 | 2013-06-24 | Sharp Corp | Display system |
-
2014
- 2014-09-30 JP JP2016551393A patent/JP6400110B2/en active Active
- 2014-09-30 WO PCT/JP2014/076128 patent/WO2016051520A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003108309A (en) * | 2001-09-28 | 2003-04-11 | Fuji Photo Optical Co Ltd | Presentation system |
JP2006277666A (en) * | 2005-03-30 | 2006-10-12 | Nhk Engineering Services Inc | Display screen position analysis device and program |
JP2008065522A (en) * | 2006-09-06 | 2008-03-21 | Seiko Epson Corp | Information display system and pointing control method |
JP2013125985A (en) * | 2011-12-13 | 2013-06-24 | Sharp Corp | Display system |
Also Published As
Publication number | Publication date |
---|---|
JP6400110B2 (en) | 2018-10-03 |
WO2016051520A1 (en) | 2016-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI489317B (en) | Method and system for operating electric apparatus | |
US9329691B2 (en) | Operation input apparatus and method using distinct determination and control areas | |
JP5183398B2 (en) | Input device | |
US20150262002A1 (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
JP2015095164A (en) | Gesture recognition device and control method for gesture recognition device | |
JP2016521894A5 (en) | ||
US9008442B2 (en) | Information processing apparatus, information processing method, and computer program | |
TWI403922B (en) | Manual human machine interface operation system and method thereof | |
JP5175755B2 (en) | Gesture recognition device, method and program thereof | |
TWI496094B (en) | Gesture recognition module and gesture recognition method | |
WO2013008236A1 (en) | System and method for computer vision based hand gesture identification | |
US10366281B2 (en) | Gesture identification with natural images | |
JP6618276B2 (en) | Information processing apparatus, control method therefor, program, and storage medium | |
US10372223B2 (en) | Method for providing user commands to an electronic processor and related processor program and electronic circuit | |
JP2014165660A (en) | Method of input with virtual keyboard, program, storage medium, and virtual keyboard system | |
JP2017084335A (en) | System and method for real-time interactive operation of user interface | |
US20150277570A1 (en) | Providing Onscreen Visualizations of Gesture Movements | |
JP6452369B2 (en) | Information processing apparatus, control method therefor, program, and storage medium | |
JP6503262B2 (en) | Motion recognition device | |
JP6400110B2 (en) | Cursor control device and cursor control method | |
JP6289655B2 (en) | Screen operation apparatus and screen operation method | |
KR101360322B1 (en) | Apparatus and method for controlling electric boards using multiple hand shape detection and tracking | |
JP5928628B2 (en) | Virtual keyboard input method | |
JP2013109538A (en) | Input method and device | |
JP6373546B2 (en) | Information processing apparatus, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170509 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180904 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6400110 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |