JP2017191426A - Input device, input control method, computer program, and storage medium - Google Patents

Input device, input control method, computer program, and storage medium Download PDF

Info

Publication number
JP2017191426A
JP2017191426A JP2016080071A JP2016080071A JP2017191426A JP 2017191426 A JP2017191426 A JP 2017191426A JP 2016080071 A JP2016080071 A JP 2016080071A JP 2016080071 A JP2016080071 A JP 2016080071A JP 2017191426 A JP2017191426 A JP 2017191426A
Authority
JP
Japan
Prior art keywords
reference point
captured image
indicator
movement
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016080071A
Other languages
Japanese (ja)
Inventor
勇樹 釜森
Yuki Kamamori
勇樹 釜森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016080071A priority Critical patent/JP2017191426A/en
Publication of JP2017191426A publication Critical patent/JP2017191426A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an input device which suppresses false recognition of gesture operation.SOLUTION: A HMD (Head Mount Display) 100 includes a camera 105 for acquiring a picked-up image including a user hand and a reference point fixedly set in a real space. The HMD 100 includes: a camera coordinate system conversion unit 209 which detects a position of the reference point in the picked-up image, from a motion of the camera 105; a hand gesture recognition unit 205 which recognizes gesture operation of the hand in the picked-up image, according to the change of position of the hand in the picked-up image within a predetermined time; a reference point gesture recognition unit 211 which recognizes a gesture of the reference point in the picked-up image, according to the change of a position of the reference point in the picked-up image within a predetermined time; and an output determination unit 212 which compares the gesture operation of the hand in the picked-up image with the gesture of the reference-point in the picked-up image, and determines whether or not to output a result corresponding to the gesture operation by the hand, on the basis of a comparison result.SELECTED DRAWING: Figure 1

Description

本発明は、ユーザのジェスチャを入力操作として認識する入力装置に関する。   The present invention relates to an input device that recognizes a user's gesture as an input operation.

ユーザを撮像装置により連続して撮像し、撮像画像からユーザのジェスチャを入力操作として認識することで、該入力操作を受け付ける入力装置がある。ジェスチャによる入力操作を「ジェスチャ操作」という。ジェスチャは、ユーザの手、指等の身体の一部、或いは指示棒等の指示体の動きである。ジェスチャ操作を用いた入力装置は、ユーザのジェスチャを正確に認識することが重要である。撮像装置がユーザの身体に装着可能なものである場合、撮像装置がユーザの動きに応じて動いてしまう。例えば、HMD(Head Mount Display)のように撮像装置と表示装置とが一体となってユーザの頭部に装着される装置では、ユーザの首の動きに応じて撮像装置の撮像範囲が動いてしまう。入力装置は、ユーザがジェスチャ操作を行っていない場合であっても、ユーザの動きに応じて撮像装置が動くことで、撮像画像内で指示体の位置が移動してしまい、これをジェスチャ操作に誤認識することがある。これはユーザの意図しないジェスチャ操作となり、操作性の低下につながる。   There is an input device that accepts an input operation by continuously capturing a user with an imaging device and recognizing the user's gesture as an input operation from the captured image. An input operation using a gesture is referred to as a “gesture operation”. A gesture is a movement of an indicator such as a user's hand, a part of the body such as a finger, or an indicator. It is important for an input device using a gesture operation to accurately recognize a user's gesture. When the imaging device can be worn on the user's body, the imaging device moves according to the user's movement. For example, in an apparatus such as an HMD (Head Mount Display) in which an imaging device and a display device are integrated and worn on the user's head, the imaging range of the imaging device moves according to the movement of the user's neck. . Even when the user does not perform the gesture operation, the input device moves the position of the indicator in the captured image due to the movement of the imaging device according to the movement of the user, and this is used as the gesture operation. May be misrecognized. This is a gesture operation unintended by the user, leading to a decrease in operability.

特許文献1のジェスチャ入力装置は、撮像画像によりジェスチャを認識し、ユーザの身体の動きに伴う撮像装置の姿勢の変動量を求め、変動量に基づいてジェスチャに応じたコマンドを出力する技術を開示する。このジェスチャ入力装置は、撮像装置の変動量が大きい場合、ジェスチャ操作に応じたコマンドの出力を制限することで、ジェスチャ操作の誤認識を抑制する。   The gesture input device disclosed in Patent Literature 1 discloses a technique for recognizing a gesture from a captured image, obtaining a variation amount of the posture of the imaging device according to a user's body movement, and outputting a command corresponding to the gesture based on the variation amount. To do. This gesture input device suppresses erroneous recognition of a gesture operation by restricting the output of a command according to the gesture operation when the fluctuation amount of the imaging device is large.

特開2012−146220号公報JP 2012-146220 A

撮像装置の動きによるジェスチャ操作の誤認識の本質的な要因は、撮像装置の動き量の大小ではなく、撮像画像内の指示体が、撮像装置の動きに応じてジェスチャ操作のように動くことである。撮像画像内の指示体がジェスチャ操作のように動いているか否かは、撮像装置の動き量の大小から判断することは困難である。   The essential factor of misrecognition of gesture operation due to the movement of the imaging device is not the magnitude of the movement amount of the imaging device, but the indicator in the captured image moves like a gesture operation according to the movement of the imaging device. is there. It is difficult to determine whether or not the indicator in the captured image is moving like a gesture operation based on the amount of motion of the imaging device.

本発明は、上記の問題を解決するために、撮像装置の動きに起因するジェスチャ操作の誤認識を抑制する入力装置を提供することを主たる課題とする。   In order to solve the above problems, it is a main object of the present invention to provide an input device that suppresses erroneous recognition of a gesture operation caused by movement of an imaging device.

本発明の入力装置は、現実空間に固定して設定される所定の基準点及び入力操作を行う指示体を含む範囲を連続して撮像する撮像手段と、前記撮像手段で撮像された撮像画像内における前記指示体の位置を検出する第1位置検出手段と、前記撮像手段の位置及び姿勢を検出する姿勢検出手段と、前記撮像手段の位置及び姿勢から前記基準点の前記撮像画像内における位置を検出する第2位置検出手段と、前記第1位置検出手段で連続する撮像画像から検出した前記指示体の位置の所定時間内の変化により、該指示体の前記撮像画像内における動きによる入力操作を認識する第1認識手段と、前記第2位置検出手段で検出した前記基準点の位置の前記所定時間内の変化により、前記基準点の前記撮像画像内における動きを認識する第2認識手段と、前記指示体の前記撮像画像内における動きと、前記基準点の前記撮像画像内における動きとを比較し、比較結果に基づいて前記指示体による前記入力操作に応じた結果を出力するか否かを判定する出力判定手段と、を備えることを特徴とする。   An input device according to the present invention includes an imaging unit that continuously captures a range including a predetermined reference point that is fixedly set in a real space and an indicator that performs an input operation, and an image that is captured by the imaging unit. First position detecting means for detecting the position of the indicator in the position, attitude detecting means for detecting the position and attitude of the imaging means, and the position of the reference point in the captured image from the position and attitude of the imaging means. An input operation based on a movement of the indicator within the captured image is detected by a change within a predetermined time of the position of the indicator detected from the second captured position detection unit and the captured image continuously detected by the first position detection unit. First recognizing means for recognizing and second recognizing means for recognizing movement of the reference point in the captured image based on a change in the position of the reference point detected by the second position detecting means within the predetermined time. Whether the movement of the indicator in the captured image is compared with the movement of the reference point in the captured image, and whether to output a result corresponding to the input operation by the indicator based on the comparison result Output judging means for judging whether or not.

本発明によれば、撮像画像内の基準点の動きと指示体の動きとを比較し、比較結果に応じてジェスチャ操作の誤認識を抑制することができる。   ADVANTAGE OF THE INVENTION According to this invention, the movement of the reference point in a captured image and the movement of a pointer can be compared, and the misrecognition of gesture operation can be suppressed according to a comparison result.

(a)、(b)、(c)はHMDの構成の説明図。(A), (b), (c) is explanatory drawing of a structure of HMD. (a)、(b)はジェスチャ操作の説明図。(A), (b) is explanatory drawing of gesture operation. (a)、(b)はジェスチャ操作の説明図。(A), (b) is explanatory drawing of gesture operation. (a)、(b)は基準点の説明図。(A), (b) is explanatory drawing of a reference point. (a)、(b)は基準点の説明図。(A), (b) is explanatory drawing of a reference point. 入力制御処理を表すフローチャート。The flowchart showing an input control process. (a)、(b)はジェスチャ認識処理の説明図。(A), (b) is explanatory drawing of a gesture recognition process. (a)、(b)はジェスチャ認識処理の説明図。(A), (b) is explanatory drawing of a gesture recognition process. HMDの機能構成図。The functional block diagram of HMD. 入力制御処理を表すフローチャート。The flowchart showing an input control process. HMDの機能構成図。The functional block diagram of HMD. 入力制御処理を表すフローチャート。The flowchart showing an input control process.

以下、図面を参照して実施形態を詳細に説明する。ただし、本実施形態に記載されている構成要素はあくまでも例示であり、本発明の範囲をそれらのみに限定する趣旨のものではない。   Hereinafter, embodiments will be described in detail with reference to the drawings. However, the components described in the present embodiment are merely examples, and are not intended to limit the scope of the present invention only to them.

[第1実施形態]
本実施形態では、入力装置としてユーザの頭部に装着されるHMDを用いる例を説明する。HMDは撮像装置及び表示装置を備えており、撮像装置で撮像した撮像画像を表示装置に表示する。入力装置は、ユーザの手、指等の身体の一部、或いは指示棒等の指示体の動き(ジェスチャ)による入力操作(ジェスチャ操作)を受け付けて、入力操作の結果を表示装置に表示する。或いは、入力装置は、受け付けた入力操作に応じたコマンドを所定の情報処理装置に送信して、該情報処理装置にコマンドに応じた処理を実行させる。なお、本実施形態の入力装置は、ユーザの身体に装着可能な撮像装置を備えた構成であれば、表示装置を備える必要はない。この場合、表示装置は撮像装置と分離して設けられる。撮像装置に分離して設けられる表示装置は、例えばプロジェクタである。
[First Embodiment]
In this embodiment, an example will be described in which an HMD attached to the user's head is used as the input device. The HMD includes an imaging device and a display device, and displays a captured image captured by the imaging device on the display device. The input device accepts an input operation (gesture operation) by a movement (gesture) of a part of the user's hand, a part of the body such as a finger, or an indicator such as a pointer, and displays the result of the input operation on the display device. Alternatively, the input device transmits a command according to the accepted input operation to a predetermined information processing device, and causes the information processing device to execute processing according to the command. In addition, if the input device of this embodiment is a structure provided with the imaging device which can be mounted | worn with a user's body, it is not necessary to provide a display apparatus. In this case, the display device is provided separately from the imaging device. A display device provided separately from the imaging device is, for example, a projector.

(構成)
図1は、HMDの構成の説明図である。図1(a)は、HMD100の外観図である。HMD100は眼鏡型であり、ユーザの頭部に装着されて指示体によるジェスチャ操作の認識を行う。本実施形態では、指示体としてユーザの手を用いる例を説明する。ジェスチャ操作の認識のために、HMD100は、装着時にユーザの視界を撮像範囲に含むような位置に、撮像装置であるカメラ105を備える。カメラ105は、ステレオカメラであるが、赤外線距離カメラであってもよい。またHMD100は、カメラ105で撮像した画像を表示するディスプレイ106を備える。HMD100は、例えばジェスチャ操作に応じた操作結果を、ディスプレイ106に表示する。
(Constitution)
FIG. 1 is an explanatory diagram of the configuration of the HMD. FIG. 1A is an external view of the HMD 100. The HMD 100 is a spectacle type and is worn on the user's head to recognize a gesture operation by an indicator. In this embodiment, an example in which a user's hand is used as an indicator will be described. In order to recognize a gesture operation, the HMD 100 includes a camera 105 that is an imaging device at a position where the field of view of the user is included in the imaging range when worn. The camera 105 is a stereo camera, but may be an infrared distance camera. The HMD 100 also includes a display 106 that displays an image captured by the camera 105. For example, the HMD 100 displays an operation result corresponding to the gesture operation on the display 106.

図1(b)は、HMD100のハードウェア構成図である。HMD100は、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、及びストレージ104を備える情報処理装置である。CPU101、ROM102、RAM103、ストレージ104、カメラ105、及びディスプレイ106は、システムバス107を介して相互に通信可能に接続される。CPU101は、ROM102及びストレージ104に格納されたコンピュータプログラムを読み込み、RAM103を作業領域に用いて実行することで、HMD100の動作を制御する。ROM102は、例えば起動時にHMD100の各ハードウェアの起動処理を行うための起動プログラムを格納する。ストレージ104は、例えばHMD100による各種処理を行うための制御プログラムを格納する。ストレージ104は、ハードディスクや外部記憶媒体である。CPU101は、コンピュータプログラムの実行により、カメラ105及びディスプレイ106の動作を制御する。カメラ105は連続して撮像を行い、撮像した連続する撮像画像、例えば動画をCPU101に送信する。   FIG. 1B is a hardware configuration diagram of the HMD 100. The HMD 100 is an information processing apparatus including a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, and a storage 104. The CPU 101, ROM 102, RAM 103, storage 104, camera 105, and display 106 are connected via a system bus 107 so that they can communicate with each other. The CPU 101 controls the operation of the HMD 100 by reading a computer program stored in the ROM 102 and the storage 104 and executing it using the RAM 103 as a work area. The ROM 102 stores, for example, a startup program for performing startup processing of each hardware of the HMD 100 at startup. The storage 104 stores a control program for performing various processes by the HMD 100, for example. The storage 104 is a hard disk or an external storage medium. The CPU 101 controls the operations of the camera 105 and the display 106 by executing a computer program. The camera 105 continuously captures images and transmits the captured images that have been captured, for example, moving images, to the CPU 101.

本実施形態のHMD100は、カメラ105で撮像した撮像画像に基づくジェスチャ操作に応じた認識結果をディスプレイ106に表示する場合について説明する。図1(c)は、このような処理を行うためのHMD100の機能構成図である。HMD100は、CPU101がコンピュータプログラムを実行することで、各機能を実現するが、少なくとも一部をハードウェアにより実現してもよい。HMD100は、撮像画像取得部201、出力判定部212、及び表示制御部213として機能する。HMD100は、ジェスチャ操作を認識するための手検出部202、手位置検出部203、手位置記憶部204、及び手ジェスチャ認識部205として機能する。HMD100は、現実空間を表す世界座標系におけるカメラ105の動きの判断基準となる基準点を決めるための基準点設定部206及び第1基準点記憶部207として機能する。HMD100は、カメラ105の現実空間における動きを検出するためのカメラ姿勢検出部208、カメラ座標系変換部209、第2基準点記憶部210、及び基準点ジェスチャ認識部211として機能する。   The case where the HMD 100 of the present embodiment displays a recognition result according to a gesture operation based on a captured image captured by the camera 105 on the display 106 will be described. FIG. 1C is a functional configuration diagram of the HMD 100 for performing such processing. The HMD 100 realizes each function by the CPU 101 executing a computer program, but at least a part may be realized by hardware. The HMD 100 functions as a captured image acquisition unit 201, an output determination unit 212, and a display control unit 213. The HMD 100 functions as a hand detection unit 202, a hand position detection unit 203, a hand position storage unit 204, and a hand gesture recognition unit 205 for recognizing a gesture operation. The HMD 100 functions as a reference point setting unit 206 and a first reference point storage unit 207 for determining a reference point that is a reference for determining the movement of the camera 105 in the world coordinate system representing the real space. The HMD 100 functions as a camera posture detection unit 208, a camera coordinate system conversion unit 209, a second reference point storage unit 210, and a reference point gesture recognition unit 211 for detecting the movement of the camera 105 in the real space.

撮像画像取得部201は、カメラ105により撮像された、指示体となるユーザの手及び基準点を含む範囲の撮像画像を取得する。カメラ105が連続して撮像するため、撮像画像取得部201は連続して撮像画像を取得する。
手検出部202は、撮像画像取得部201により取得された撮像画像から、ユーザの手領域を検出する。手検出部202は、撮像画像中の肌色領域を検出することで、手領域の検出を行う。手検出部202は、肌色領域、且つHMD100(カメラ105)からの距離が閾値以内にある領域のみを手領域として検出してもよい。閾値は、人間の手の長さに応じて決められる。これにより、ユーザの手以外の肌色領域を手領域として誤検出することが抑制される。
The captured image acquisition unit 201 acquires a captured image in a range including the user's hand as a pointer and a reference point captured by the camera 105. Since the camera 105 continuously captures images, the captured image acquisition unit 201 continuously acquires captured images.
The hand detection unit 202 detects the user's hand region from the captured image acquired by the captured image acquisition unit 201. The hand detection unit 202 detects a hand region by detecting a skin color region in the captured image. The hand detection unit 202 may detect only a skin color region and a region whose distance from the HMD 100 (camera 105) is within a threshold as a hand region. The threshold value is determined according to the length of a human hand. This suppresses erroneous detection of a skin color area other than the user's hand as a hand area.

手位置検出部203は、手検出部202より検出された手領域の、撮像画像内における位置を検出する。撮像画像内における位置は、撮像画像に基づく座標系(以下、「カメラ座標系」という。)により表される。手領域の位置は、一般的に、手領域を構成する各ピクセルの重心座標で表される。この他に、例えば手領域を構成する各ピクセルの内、手領域の輪郭への最短距離が最長のピクセルを手領域の位置としてもよい。この場合、手の平の中心付近が手の位置となる。手位置記憶部204は、手位置検出部203より検出された手領域のカメラ座標系における座標(位置)を記憶する。撮像画像が連続して取得されるために、手位置記憶部204は、手領域の位置を該手領域の検出時刻に関連付けて記憶する。   The hand position detection unit 203 detects the position of the hand region detected by the hand detection unit 202 in the captured image. The position in the captured image is represented by a coordinate system based on the captured image (hereinafter referred to as “camera coordinate system”). The position of the hand region is generally represented by the barycentric coordinates of each pixel constituting the hand region. In addition, for example, a pixel having the longest shortest distance to the contour of the hand region among the pixels constituting the hand region may be set as the position of the hand region. In this case, the position near the center of the palm is the hand position. The hand position storage unit 204 stores the coordinates (position) of the hand region detected by the hand position detection unit 203 in the camera coordinate system. In order to continuously acquire captured images, the hand position storage unit 204 stores the position of the hand area in association with the detection time of the hand area.

手ジェスチャ認識部205は、手位置記憶部204に記憶された手領域の位置の所定時間内の時系列データに基づいて、手の動きがジェスチャ操作であるか否かを認識する。手ジェスチャ認識部205は、連続する撮像画像内の手の位置の変化により、手の動きを認識する。手ジェスチャ認識部205は、例えば手領域の位置及び時間経過による手領域の位置の変化から手の速度、加速度等の特徴量を算出する。手ジェスチャ認識部205は、算出した特徴量と、予め学習しておいた認識対象ジェスチャモデルとのマッチングを行い、マッチングの尤度が大きい場合に該ジェスチャ操作を認識する。手ジェスチャ認識部205は、認識対象ジェスチャをHMM(Hidden Markov Model)でモデル化し、マッチング時の最尤経路探索にビタビアルゴリズムを用いる。この他に手ジェスチャ認識部205は、決定木等のルールベースによる認識アルゴリズムを用いてマッチングを行ってもよい。   The hand gesture recognition unit 205 recognizes whether the hand movement is a gesture operation based on time-series data within a predetermined time of the position of the hand region stored in the hand position storage unit 204. The hand gesture recognizing unit 205 recognizes the movement of the hand based on a change in the position of the hand in consecutive captured images. The hand gesture recognition unit 205 calculates a feature amount such as the speed and acceleration of the hand from the position of the hand region and the change in the position of the hand region over time. The hand gesture recognition unit 205 performs matching between the calculated feature amount and a recognition target gesture model learned in advance, and recognizes the gesture operation when the likelihood of matching is large. The hand gesture recognition unit 205 models a recognition target gesture using an HMM (Hidden Markov Model), and uses a Viterbi algorithm for maximum likelihood path search at the time of matching. In addition, the hand gesture recognition unit 205 may perform matching using a rule-based recognition algorithm such as a decision tree.

基準点設定部206は、世界座標系内の所定の位置を基準点として設定する。基準点は、世界座標系において固定されており、移動しない。第1基準点記憶部207は、基準点設定部206より設定された基準点の世界座標系における座標(位置)を記憶する。「基準点」の詳細は後述する。   The reference point setting unit 206 sets a predetermined position in the world coordinate system as a reference point. The reference point is fixed in the world coordinate system and does not move. The first reference point storage unit 207 stores the coordinates (position) of the reference point set by the reference point setting unit 206 in the world coordinate system. Details of the “reference point” will be described later.

カメラ姿勢検出部208は、カメラ105の位置、姿勢を検出する。カメラ姿勢検出部208は、例えば、撮像画像取得部201より取得された連続する撮像画像中の動きベクトルや、ユーザの周辺の世界座標系に設けられる位置姿勢検出用マーカを利用して、センサを用いずにカメラ105の位置及び姿勢を検出可能である。また、カメラ姿勢検出部208は、HMD100に赤外線ビーコンや加速度センサ、ジャイロセンサ等のセンサを別途追加することにより、カメラ105の位置及び姿勢を高精度に検出することも可能である。   A camera posture detection unit 208 detects the position and posture of the camera 105. The camera posture detection unit 208 uses, for example, a motion vector in continuous captured images acquired from the captured image acquisition unit 201 or a position / orientation detection marker provided in the world coordinate system around the user. The position and orientation of the camera 105 can be detected without using it. The camera posture detection unit 208 can also detect the position and posture of the camera 105 with high accuracy by separately adding sensors such as an infrared beacon, an acceleration sensor, and a gyro sensor to the HMD 100.

カメラ座標系変換部209は、第1基準点記憶部207に記憶された基準点の世界座標系における座標をカメラ座標系に座標変換する。つまりカメラ座標系変換部209は、世界座標系に設定された基準点の位置をカメラ座標系内の位置に変換することで、基準点の撮像画像内の位置を検出する。カメラ座標系は、カメラ105により撮像された撮像画像内の座標系であり、カメラ姿勢検出部208により検出されたカメラ105の位置及び姿勢に基づいて決定される。カメラ座標系変換部209は、例えばカメラ105の焦点距離、主点座標、歪み係数に加え、カメラ105の動きに基づく平行移動パラメータと回転パラメータとに基づいて、基準点の世界座標系における座標のカメラ座標系への座標変換を行う。第2基準点記憶部210は、カメラ座標系に変換された基準点の座標(位置)を記憶する。撮像画像が連続して取得されるために、カメラ姿勢検出部208が連続してカメラ105の位置及び姿勢を検出する。そのためにカメラ座標系変換部209は、カメラ座標系を連続して決定し、基準点の世界座標系における座標をカメラ座標系に座標変換する。第2基準点記憶部210は、カメラ座標系に座標変換された基準点の位置を該座標の決定時刻に関連付けて記憶する。   The camera coordinate system conversion unit 209 converts the coordinates of the reference point stored in the first reference point storage unit 207 in the world coordinate system into a camera coordinate system. That is, the camera coordinate system conversion unit 209 detects the position of the reference point in the captured image by converting the position of the reference point set in the world coordinate system into a position in the camera coordinate system. The camera coordinate system is a coordinate system in a captured image captured by the camera 105, and is determined based on the position and orientation of the camera 105 detected by the camera orientation detection unit 208. The camera coordinate system conversion unit 209, for example, based on the parallel movement parameter and the rotation parameter based on the movement of the camera 105 in addition to the focal length, principal point coordinates, and distortion coefficient of the camera 105, Performs coordinate conversion to the camera coordinate system. The second reference point storage unit 210 stores the coordinates (position) of the reference point converted into the camera coordinate system. Since the captured images are continuously acquired, the camera posture detection unit 208 continuously detects the position and posture of the camera 105. For this purpose, the camera coordinate system conversion unit 209 continuously determines the camera coordinate system, and converts the coordinates of the reference point in the world coordinate system to the camera coordinate system. The second reference point storage unit 210 stores the position of the reference point coordinate-converted into the camera coordinate system in association with the coordinate determination time.

基準点ジェスチャ認識部211は、第2基準点記憶部210に記憶された基準点のカメラ座標系における位置の所定時間内の時系列データに基づいて、基準点の動きをジェスチャ操作として認識する。基準点ジェスチャ認識部211は、連続する撮像画像内の基準点の位置の変化により、基準点の動きを認識する。基準点ジェスチャ認識部211は、手ジェスチャ認識部205のジェスチャ認識処理においてジェスチャ実行中であるとみなされた時間区間(以下、「ジェスチャ実行区間」という。)と同じ時間区間の基準点の位置の時系列データを用いて処理を行う。また、基準点ジェスチャ認識部211は、基準点のカメラ座標系における位置の時系列データを、手の位置の時系列データであると仮定した上でマッチングを行い、基準点のジェスチャを認識する。これは、基準点と同様の動きが手によって行われた場合に、その動きがジェスチャとして認識されるか否かを判定するためである。ただし、基準点の動きは、カメラ105の動きの変化に応じた撮像画像中の動きである。基準点ジェスチャ認識部211の認識処理は、手ジェスチャ認識部205の認識処理と同様のアルゴリズムにより可能である。基準点ジェスチャ認識部211は、基準点のカメラ座標系における位置及びそれにかかる速度、加速度以外の特徴量が認識処理に必要となる場合、手ジェスチャ認識部205が認識処理で用いた手の特徴量を用いる。或いは基準点ジェスチャ認識部211は、基準点から取得できない特徴量に基づく尤度計算部分を除外したアルゴリズムを用いて認識処理を行う。   The reference point gesture recognition unit 211 recognizes the movement of the reference point as a gesture operation based on time series data within a predetermined time of the position of the reference point in the camera coordinate system stored in the second reference point storage unit 210. The reference point gesture recognition unit 211 recognizes the movement of the reference point based on a change in the position of the reference point in consecutive captured images. The reference point gesture recognition unit 211 detects the position of the reference point in the same time interval as the time interval (hereinafter referred to as “gesture execution interval”) that is considered to be a gesture execution in the gesture recognition process of the hand gesture recognition unit 205. Processing is performed using time series data. Further, the reference point gesture recognition unit 211 performs matching on the assumption that the time series data of the position of the reference point in the camera coordinate system is the time series data of the hand position, and recognizes the gesture of the reference point. This is to determine whether or not the movement is recognized as a gesture when the same movement as the reference point is performed by hand. However, the movement of the reference point is a movement in the captured image corresponding to a change in the movement of the camera 105. The recognition process of the reference point gesture recognition unit 211 can be performed by the same algorithm as the recognition process of the hand gesture recognition unit 205. When the reference point gesture recognition unit 211 requires the position of the reference point in the camera coordinate system and the feature amount other than the speed and acceleration required for the recognition process, the hand feature amount used by the hand gesture recognition unit 205 in the recognition process Is used. Alternatively, the reference point gesture recognition unit 211 performs recognition processing using an algorithm that excludes a likelihood calculation portion based on a feature amount that cannot be acquired from the reference point.

出力判定部212は、手ジェスチャ認識部205による手のジェスチャ操作の認識結果と、基準点ジェスチャ認識部211による基準点のジェスチャの認識結果とを比較し、比較結果に基づいて手のジェスチャ操作の認識結果を出力するか否かを判定する。表示制御部213は、ディスプレイ106に、手のジェスチャ操作の認識結果を表示する。   The output determination unit 212 compares the recognition result of the hand gesture operation by the hand gesture recognition unit 205 with the recognition result of the reference point gesture by the reference point gesture recognition unit 211, and determines the gesture operation of the hand based on the comparison result. It is determined whether to output a recognition result. The display control unit 213 displays the recognition result of the hand gesture operation on the display 106.

(ジェスチャ操作)
図2、図3は、HMD100を装着したユーザによるジェスチャ操作の説明図である。図2では、ユーザが右手を右から左へ動かすジェスチャ操作を行っている。図3では、ユーザがジェスチャ操作を行っておらず、首を左から右へ振っている。図2(a)、図3(a)はHMD100を装着したユーザの俯瞰図であり、図2(b)、図3(b)はカメラ105による撮像画像の例示図である。
(Gesture operation)
2 and 3 are explanatory diagrams of a gesture operation by a user wearing the HMD 100. FIG. In FIG. 2, the user performs a gesture operation to move the right hand from right to left. In FIG. 3, the user is not performing a gesture operation, and the head is swung from left to right. 2A and 3A are overhead views of the user wearing the HMD 100, and FIGS. 2B and 3B are illustrations of images captured by the camera 105. FIG.

図2に示す通り、ユーザが右手を右から左へ移動させることで、HMD100は、撮像画像中の手の動き(位置の時系列データ)により、ユーザが手を右から左へ動かすジェスチャ操作を行ったことを認識する。図3に示す通り、ユーザが手を動かさずに首を左から右へ振った場合、撮像画像中の手が右から左へ移動する(図3(b))。これは、図2(b)の手の動きと同じである。そのためにHMD100は、このままではユーザがジェスチャ操作を行っていないにも関わらず、ユーザが手を右から左へ動かすジェスチャ操作を行ったと誤認識してしまう。本実施形態のHMD100は、このような誤認識を抑制する。   As shown in FIG. 2, when the user moves the right hand from right to left, the HMD 100 performs a gesture operation in which the user moves the hand from right to left by hand movement (position time-series data) in the captured image. Recognize what has been done. As shown in FIG. 3, when the user swings his / her neck from left to right without moving his / her hand, the hand in the captured image moves from right to left (FIG. 3B). This is the same as the hand movement in FIG. For this reason, the HMD 100 erroneously recognizes that the user has performed a gesture operation of moving his hand from right to left even though the user has not performed a gesture operation. The HMD 100 of the present embodiment suppresses such erroneous recognition.

(基準点)
図4、図5は、ジェスチャ操作の誤認識を抑制するために用いる基準点の説明図である。本実施形態では、基準点のカメラ座標系内の動きにより、手によるジェスチャ操作の認識結果を出力するか否かを判定する。そのために基準点の適切な設定は、正確なジェスチャ操作の認識のために重要である。図4では、図2と同様にユーザが右手を右から左へ動かすジェスチャ操作を行っている。図5では、図3と同様に、ユーザがジェスチャ操作を行わず、首を左から右へ振っている。図4(a)、図5(a)はHMD100を装着したユーザの俯瞰図であり、図4(b)、図5(b)はカメラ105による撮像画像の例示図である。
(Reference point)
4 and 5 are explanatory diagrams of reference points used to suppress erroneous recognition of gesture operations. In the present embodiment, it is determined whether or not to output a recognition result of the gesture operation by hand based on the movement of the reference point in the camera coordinate system. Therefore, proper setting of the reference point is important for accurate gesture operation recognition. In FIG. 4, as in FIG. 2, the user performs a gesture operation to move the right hand from right to left. In FIG. 5, as in FIG. 3, the user does not perform a gesture operation, and swings his neck from left to right. 4A and 5A are overhead views of the user wearing the HMD 100, and FIGS. 4B and 5B are examples of images captured by the camera 105. FIG.

図4(a)では、世界座標系におけるユーザの正面に基準点401が設定される。ユーザが首を動かさずに手を右から左へ振った場合、カメラ105は、手が右から左へ移動する画像を撮像する(図4(b))。HMD100の動きに起因する撮像画像中(カメラ座標系)の基準点401の動きは、カメラ105が動かないために、手の動きと大きく異なる。そのための基準点401の動きは、右から左へ振るジェスチャとは認識されない。これは、撮像画像中における手の動きが、HMD100の動きに起因するものではないことを表す。よって、この場合、HMD100は、手が右から左へ振られたというジェスチャ操作の認識結果の出力を許可する。   In FIG. 4A, a reference point 401 is set in front of the user in the world coordinate system. When the user shakes his / her hand from right to left without moving his / her neck, the camera 105 captures an image in which the hand moves from right to left (FIG. 4B). The movement of the reference point 401 in the captured image (camera coordinate system) due to the movement of the HMD 100 is significantly different from the movement of the hand because the camera 105 does not move. The movement of the reference point 401 for that purpose is not recognized as a gesture of shaking from right to left. This indicates that the hand movement in the captured image is not caused by the movement of the HMD 100. Therefore, in this case, the HMD 100 permits the output of the recognition result of the gesture operation that the hand is swung from the right to the left.

図5(a)では、図4(a)と同様の位置に基準点401が設定される。ユーザが手を動かさずに首を左から右へ振った場合、カメラ105は、手が右から左へ移動する画像を撮像する(図5(b))。HMD100の動きに起因する撮像画像中(カメラ座標系)の基準点401の動きは、手の動きに類似しており、撮像画像中を右から左へ振るジェスチャとして認識される。これは、撮像画像中における手のジェスチャが、HMD100の動きに起因するものであることを表す。よって、この場合、HMD100は、手が右から左へ振られたというジェスチャ操作の認識結果の出力を停止する。   In FIG. 5A, the reference point 401 is set at the same position as in FIG. When the user swings his / her neck from left to right without moving his / her hand, the camera 105 captures an image in which the hand moves from right to left (FIG. 5B). The movement of the reference point 401 in the captured image (camera coordinate system) due to the movement of the HMD 100 is similar to the movement of the hand, and is recognized as a gesture of shaking from right to left in the captured image. This indicates that the hand gesture in the captured image is caused by the movement of the HMD 100. Therefore, in this case, the HMD 100 stops outputting the recognition result of the gesture operation that the hand is swung from the right to the left.

基準点401は、ユーザがジェスチャ操作を行う際に手が動く軌跡の近傍に設定されることで、ジェスチャ認識の判定精度が向上する。世界座標系におけるユーザの手の位置と基準点401の位置とが近いほど、カメラ105の動きに起因する手の動きと基準点401の動きとが類似するためである。例えば基準点401は、ジェスチャ認識の処理開始時におけるHMD100(カメラ105)の撮像範囲内で、HMD100(カメラ105)からの距離が50[cm]の位置に設定されることが好ましい。逆に、基準点401がHMD100(カメラ105)から遠く離れた位置やユーザの背後に設定された場合、カメラ105の動きに起因する基準点401の動きと手の動きとが乖離し、ジェスチャ操作の認識結果の出力の判定精度が下がることになる。基準点401は、カメラ105による撮像画像中に実際には表示されない、世界座標系中の仮想の点である。また、基準点401として体積を有する仮想的な物体を設定してもよい。   The reference point 401 is set in the vicinity of a trajectory where the hand moves when the user performs a gesture operation, thereby improving the accuracy of gesture recognition determination. This is because the closer the position of the user's hand in the world coordinate system and the position of the reference point 401 are, the more similar the movement of the hand caused by the movement of the camera 105 and the movement of the reference point 401 are. For example, the reference point 401 is preferably set at a distance of 50 [cm] from the HMD 100 (camera 105) within the imaging range of the HMD 100 (camera 105) at the start of the gesture recognition process. Conversely, when the reference point 401 is set at a position far away from the HMD 100 (camera 105) or behind the user, the movement of the reference point 401 caused by the movement of the camera 105 and the movement of the hand are deviated, and the gesture operation is performed. The accuracy of determining the output of the recognition result will be lowered. The reference point 401 is a virtual point in the world coordinate system that is not actually displayed in the image captured by the camera 105. A virtual object having a volume may be set as the reference point 401.

(ジェスチャ認識処理)
図6は、このようなHMD100によるユーザのジェスチャ操作による入力制御処理を表すフローチャートである。この処理は、ユーザがHMD100を頭部に装着してジェスチャ操作を行う際に行われる。処理の開始時に、カメラ105は撮像を開始しており、CPU101に連続して撮像画像を入力している。
(Gesture recognition processing)
FIG. 6 is a flowchart showing an input control process by such a user's gesture operation by the HMD 100. This process is performed when the user wears the HMD 100 on the head and performs a gesture operation. At the start of processing, the camera 105 has started imaging, and continuously inputs captured images to the CPU 101.

HMD100は、基準点設定部206により基準点401の世界座標系における位置を設定し、この位置の世界座標系における座標を第1基準点記憶部207に記憶させる(S301)。カメラ姿勢検出部208は、撮像画像取得部201により取得された撮像画像に基づいて、カメラ105の世界座標系における位置、姿勢を検出する(S302)。カメラ座標系変換部209は、第1基準点記憶部207に記憶された基準点401の世界座標系における座標を、カメラ105の位置、姿勢に基づくカメラ座標系に座標変換し、第2基準点記憶部210に記憶する(S303)。カメラ105が連続して撮像を行うため、第2基準点記憶部210は、時系列に応じて基準点401のカメラ座標系における位置を表す時系列データを記憶する。   In the HMD 100, the reference point setting unit 206 sets the position of the reference point 401 in the world coordinate system, and the coordinates of this position in the world coordinate system are stored in the first reference point storage unit 207 (S301). The camera orientation detection unit 208 detects the position and orientation of the camera 105 in the world coordinate system based on the captured image acquired by the captured image acquisition unit 201 (S302). The camera coordinate system conversion unit 209 converts the coordinates in the world coordinate system of the reference point 401 stored in the first reference point storage unit 207 into a camera coordinate system based on the position and orientation of the camera 105, and converts the second reference point It memorize | stores in the memory | storage part 210 (S303). Since the camera 105 continuously captures images, the second reference point storage unit 210 stores time-series data representing the position of the reference point 401 in the camera coordinate system according to the time series.

手検出部202は、撮像画像取得部201により取得された撮像画像に基づいて、ユーザの手領域を検出する(S304)。手位置検出部203は、手検出部202により検出された手領域のカメラ座標系における位置を検出して、手位置記憶部204に記憶させる(S305)。カメラ105が連続して撮像を行うため、手位置記憶部204は、時系列に応じて手領域のカメラ座標系における位置を表す時系列データを記憶する。手ジェスチャ認識部205は、手位置記憶部204に記憶された手領域の位置の時系列データに基づいて、ユーザの手の動きがジェスチャ操作を行っているか否か認識する(S306)。手ジェスチャ認識部205がジェスチャ操作が行われていないと判定した場合(S307:N)、HMD100は、次の撮像画像を取得したか否かの判定を行う(S312)。   The hand detection unit 202 detects the user's hand region based on the captured image acquired by the captured image acquisition unit 201 (S304). The hand position detection unit 203 detects the position of the hand region detected by the hand detection unit 202 in the camera coordinate system, and stores it in the hand position storage unit 204 (S305). Since the camera 105 continuously captures images, the hand position storage unit 204 stores time series data representing the position of the hand region in the camera coordinate system according to the time series. The hand gesture recognition unit 205 recognizes whether or not the user's hand movement is performing a gesture operation based on the time-series data of the position of the hand region stored in the hand position storage unit 204 (S306). When the hand gesture recognition unit 205 determines that the gesture operation has not been performed (S307: N), the HMD 100 determines whether or not the next captured image has been acquired (S312).

ジェスチャ操作が行われたと認識された場合(S307:Y)、基準点ジェスチャ認識部211は、第2基準点記憶部210に記憶されたカメラ座標系の基準点の位置を表す時系列データに基づいて、基準点の動きによるジェスチャを認識する(S308)。基準点ジェスチャ認識部211は、S306の処理におけるジェスチャ実行区間と同じ時間区間のカメラ座標系の基準点の位置の時系列データを使用して、基準点によるジェスチャを認識する。なお、基準点401として体積のある物体を設定した場合、基準点ジェスチャ認識部211は、物体の大きさを特徴量としてジェスチャ認識処理に用いてもよい。   When it is recognized that a gesture operation has been performed (S307: Y), the reference point gesture recognition unit 211 is based on time-series data representing the position of the reference point of the camera coordinate system stored in the second reference point storage unit 210. Then, a gesture due to the movement of the reference point is recognized (S308). The reference point gesture recognition unit 211 recognizes a gesture based on the reference point using time series data of the position of the reference point in the camera coordinate system in the same time interval as the gesture execution interval in the process of S306. When a volume object is set as the reference point 401, the reference point gesture recognition unit 211 may use the size of the object as a feature amount for the gesture recognition process.

基準点によるジェスチャと、手によるジェスチャ操作との認識結果が一致する場合(S309:Y)、出力判定部212は、手によるジェスチャ操作の認識結果の出力を停止する(S310)。基準点によるジェスチャと手によるジェスチャ操作とが一致するということは、カメラ105の動きに起因する基準点401のカメラ座標系における動きが、ジェスチャ操作時の手の動きに類似することを意味する(図5(b)参照)。つまり、ユーザが手を動かさなくてもジェスチャ操作として認識されてしまう撮像画像が、カメラ105の動きにより撮像されたと解釈できる。よって、HMD100は、ジェスチャ操作の認識が誤りであると判定して、表示制御部213へのジェスチャ操作の認識結果の出力を停止する。   When the recognition result of the gesture by the reference point and the gesture operation by the hand match (S309: Y), the output determination unit 212 stops outputting the recognition result of the gesture operation by the hand (S310). That the gesture by the reference point matches the gesture operation by the hand means that the movement of the reference point 401 in the camera coordinate system due to the movement of the camera 105 is similar to the hand movement at the time of the gesture operation ( (Refer FIG.5 (b)). That is, it can be interpreted that a captured image that is recognized as a gesture operation without moving the hand is captured by the movement of the camera 105. Therefore, the HMD 100 determines that the gesture operation is recognized incorrectly, and stops outputting the gesture operation recognition result to the display control unit 213.

基準点によるジェスチャと、手によるジェスチャ操作との認識結果が一致しない場合(S309:N)、出力判定部212は、手によるジェスチャ操作の認識結果の出力を許可する(S311)。表示制御部213は、ジェスチャ操作の認識結果に応じた画像を表示する。基準点によるジェスチャと手のジェスチャ操作とが一致しないということは、カメラ105の動きに起因する基準点のカメラ座標系における動きが、ジェスチャ操作時の手の動きとは大きく異なることを表す(図4(b)参照)。つまり、カメラ105の動きが、ユーザが手を動かさなければジェスチャ操作として認識されないものであったと解釈できる。よって、HMD100は、ジェスチャ操作の認識結果がユーザの意図通りであると判定し、表示部123へのジェスチャ操作の認識結果の出力を許可する。   When the recognition result of the gesture by the reference point and the gesture operation by the hand do not match (S309: N), the output determination unit 212 permits the output of the recognition result of the gesture operation by the hand (S311). The display control unit 213 displays an image corresponding to the recognition result of the gesture operation. The fact that the gesture based on the reference point and the gesture operation of the hand do not coincide with each other indicates that the movement of the reference point in the camera coordinate system caused by the movement of the camera 105 is greatly different from the movement of the hand during the gesture operation (see FIG. 4 (b)). That is, it can be interpreted that the movement of the camera 105 is not recognized as a gesture operation unless the user moves his / her hand. Therefore, the HMD 100 determines that the recognition result of the gesture operation is as intended by the user, and permits the output of the recognition result of the gesture operation to the display unit 123.

HMD100のCPU101は、カメラ105から次の撮像画像を取得したか否かの判定を行う(S312)。次の撮像画像を取得した場合(S312:Y)、CPU101はS302以降の処理を繰り返し行う。次の撮像画像を取得しない場合(S312:N)、CPU101は処理を終了する。   The CPU 101 of the HMD 100 determines whether or not the next captured image has been acquired from the camera 105 (S312). When the next captured image is acquired (S312: Y), the CPU 101 repeats the processing from S302 onward. When the next captured image is not acquired (S312: N), the CPU 101 ends the process.

以上のような本実施形態のHMD100は、世界座標系に設定される基準点により、カメラ105の動きに起因する、手によるジェスチャ操作の誤認識を抑制する。そのためにHMD100は、ユーザの身体に装着されるカメラ105が動いた際の、ユーザの意図しないジェスチャ操作を防止することができる。特にHMD100は、ジェスチャ操作の誤認識の本質的な要因である、カメラ105の動きに起因する撮像画像内の手の動きが如何にジェスチャ操作に類似しているかを、既存のジェスチャ操作の認識アルゴリズムに基づいて判定することが可能となる。   The HMD 100 of the present embodiment as described above suppresses misrecognition of the gesture operation by the hand due to the movement of the camera 105 by using the reference point set in the world coordinate system. Therefore, the HMD 100 can prevent a gesture operation not intended by the user when the camera 105 attached to the user's body moves. In particular, the HMD 100 recognizes how the hand movement in the captured image caused by the movement of the camera 105, which is an essential factor of misrecognition of the gesture operation, is similar to the gesture operation. It is possible to make a determination based on

[第2実施形態]
基準点は、カメラ105の撮像範囲に応じて適切に設定されることが好ましいが、カメラ105を装着したユーザの動きによっては、一度設定した基準点が適切な位置から外れることがある。図7、図8は、基準点401が適切な位置から外れた場合のジェスチャ認識処理の説明図である。図7は、基準点401がHMD100(カメラ105)から大きく離れた位置に設定される。図8では、ユーザの移動により基準点401がユーザの後背に位置し、カメラ105の撮像範囲から外れている。図7(a)、図8(a)はHMD100を装着したユーザの俯瞰図であり、図7(b)、図8(b)はカメラ105による撮像画像の例示図である。いずれの場合も、基準点401が適切な位置から外れているために、カメラ105の動きに応じた基準点401の動きとユーザの手の動きとが乖離し、正確なジェスチャ操作の認識が困難である。
[Second Embodiment]
The reference point is preferably set appropriately according to the imaging range of the camera 105, but the reference point once set may deviate from an appropriate position depending on the movement of the user wearing the camera 105. 7 and 8 are explanatory diagrams of gesture recognition processing when the reference point 401 deviates from an appropriate position. In FIG. 7, the reference point 401 is set at a position far away from the HMD 100 (camera 105). In FIG. 8, the reference point 401 is located behind the user due to the movement of the user and is out of the imaging range of the camera 105. FIGS. 7A and 8A are overhead views of the user wearing the HMD 100, and FIGS. 7B and 8B are illustrations of images captured by the camera 105. FIG. In any case, since the reference point 401 is out of an appropriate position, the movement of the reference point 401 corresponding to the movement of the camera 105 is different from the movement of the user's hand, and it is difficult to accurately recognize the gesture operation. It is.

そのために第2実施形態のHMD100は、撮像装置(カメラ105)を装着したユーザの位置、姿勢等の動きに伴い、基準点を再設定する。具体的には、HMD100は、カメラ105が静止したタイミングで、基準点の再設定を行う。HMD100の外観、ハードウェア構成は、第1実施形態のHMD100と同様であるため説明を省略する。   For this purpose, the HMD 100 according to the second embodiment resets the reference point in accordance with the movement of the user wearing the imaging device (camera 105), such as the position and posture. Specifically, the HMD 100 resets the reference point at the timing when the camera 105 is stationary. Since the appearance and hardware configuration of the HMD 100 are the same as those of the HMD 100 of the first embodiment, description thereof is omitted.

図9は、第2実施形態のHMD100の機能構成図である。第2実施形態のHMD100の機能構成は、図1(c)に示す第1実施形態のHMD100の機能構成に、カメラ静止検出部501を追加した構成である。同様の機能については説明を省略する。カメラ静止検出部501は、カメラ姿勢検出部208により検出されたカメラ105の位置及び姿勢の変化に基づいて、カメラ105が静止しているか否かを検出する。   FIG. 9 is a functional configuration diagram of the HMD 100 according to the second embodiment. The functional configuration of the HMD 100 of the second embodiment is a configuration in which a camera still detection unit 501 is added to the functional configuration of the HMD 100 of the first embodiment shown in FIG. Explanation of similar functions is omitted. The camera still detection unit 501 detects whether the camera 105 is stationary based on changes in the position and orientation of the camera 105 detected by the camera orientation detection unit 208.

図10は、第2実施形態のHMD100によるユーザのジェスチャ操作による入力制御処理を表すフローチャートである。図6に示す第1実施形態のフローチャートと同じ処理には同じステップ番号を付してある。   FIG. 10 is a flowchart illustrating an input control process by a user's gesture operation by the HMD 100 according to the second embodiment. The same steps as those in the flowchart of the first embodiment shown in FIG.

基準点の設定後にカメラ105の動きを検出したHMD100は、カメラ静止検出部501により、検出されたカメラ105の動きが静止しているか否かを判定する(S301、S302、S1001)。静止判定は、カメラ105の世界座標系における動き量、例えばカメラ105の位置や角度の変動量と所定の閾値との比較により行われる。カメラ静止検出部501は、動き量が閾値以下の場合にカメラ105が静止していると判定する。静止していない場合(S1001:N)、HMD100は、S303以降の処理を行う。静止している場合(S1001:Y)、基準点設定部206は世界座標系における新たな基準点を設定して、第1基準点記憶部207に記憶させる(S1002)。新たな基準点の設定が終了すると、HMD100は、S303以降の処理を行う。   The HMD 100 that has detected the movement of the camera 105 after setting the reference point determines whether or not the detected movement of the camera 105 is stationary by the camera stationary detection unit 501 (S301, S302, S1001). The stillness determination is performed by comparing the amount of movement of the camera 105 in the world coordinate system, for example, the amount of change in the position and angle of the camera 105 with a predetermined threshold. The camera still detection unit 501 determines that the camera 105 is still when the amount of motion is equal to or less than the threshold. When not standing still (S1001: N), HMD100 performs processing after S303. When it is stationary (S1001: Y), the reference point setting unit 206 sets a new reference point in the world coordinate system and stores it in the first reference point storage unit 207 (S1002). When the setting of a new reference point is completed, the HMD 100 performs the processes after S303.

このように第2実施形態のHMD100は、カメラ105の動きが静止する度に新たな基準点を設定し、基準点が最適な位置から外れることを防止する。これにより基準点は、ユーザがジェスチャを行う位置の近傍に常に設定される。そのために第2実施形態のHMD100は、第1実施形態のHMD100の効果の他に、ユーザの動きが大きい場合であっても、HMD100は、カメラ105の動きに起因する、手によるジェスチャ操作の誤認識を抑制するという効果を持つ。   As described above, the HMD 100 according to the second embodiment sets a new reference point each time the movement of the camera 105 stops, and prevents the reference point from deviating from the optimum position. Thereby, the reference point is always set in the vicinity of the position where the user performs the gesture. Therefore, in addition to the effects of the HMD 100 according to the first embodiment, the HMD 100 according to the second embodiment can detect an error in gesture operation by hand due to the movement of the camera 105 even when the user's movement is large. It has the effect of suppressing recognition.

[第3実施形態]
第1、第2実施形態では、手によるジェスチャ操作の認識前に基準点を設定しているが、基準点は、ジェスチャ操作の認識後に設定されてもよい。第3実施形態のHMD100は、手によるジェスチャ操作の実行中に、基準点を設定する。ジェスチャ操作の実行中であるために、基準点が、手の位置に基づく適切な位置に設定可能である。
[Third Embodiment]
In the first and second embodiments, the reference point is set before recognizing the gesture operation by hand, but the reference point may be set after recognizing the gesture operation. The HMD 100 of the third embodiment sets a reference point during execution of a hand gesture operation. Since the gesture operation is being performed, the reference point can be set to an appropriate position based on the position of the hand.

HMD100の外観、ハードウェア構成は、第1実施形態のHMD100と同様であるため説明を省略する。図11は、第3実施形態のHMD100の機能構成図である。第3実施形態のHMD100の機能構成は、図1(c)に示す第1実施形態のHMD100の機能構成に、世界座標系変換部601及びカメラ姿勢記憶部602を追加した構成である。同様の機能については説明を省略する。   Since the appearance and hardware configuration of the HMD 100 are the same as those of the HMD 100 of the first embodiment, description thereof is omitted. FIG. 11 is a functional configuration diagram of the HMD 100 according to the third embodiment. The functional configuration of the HMD 100 of the third embodiment is a configuration in which a world coordinate system conversion unit 601 and a camera posture storage unit 602 are added to the functional configuration of the HMD 100 of the first embodiment shown in FIG. Explanation of similar functions is omitted.

世界座標系変換部601は、カメラ姿勢検出部208より検出されたカメラ105の位置及び姿勢に基づいて、手位置検出部203より検出されたカメラ座標系における手の位置を、世界座標系に座標変換する。カメラ姿勢記憶部602は、カメラ姿勢検出部208より検出されたカメラ105の位置、姿勢等の動きを記憶する。   The world coordinate system conversion unit 601 coordinates the position of the hand in the camera coordinate system detected by the hand position detection unit 203 in the world coordinate system based on the position and orientation of the camera 105 detected by the camera orientation detection unit 208. Convert. The camera posture storage unit 602 stores movements such as the position and posture of the camera 105 detected by the camera posture detection unit 208.

図12は、第3実施形態のHMD100によるユーザのジェスチャ操作による入力制御処理を表すフローチャートである。図6に示す第1実施形態のフローチャートと同じ処理には同じステップ番号を付してある。この処理は、ユーザがHMD100を頭部に装着してジェスチャ操作を行う際に行われる。処理の開始時に、カメラ105は撮像を開始しており、CPU101に連続して撮像画像を入力している。   FIG. 12 is a flowchart illustrating an input control process by a user's gesture operation by the HMD 100 according to the third embodiment. The same steps as those in the flowchart of the first embodiment shown in FIG. This process is performed when the user wears the HMD 100 on the head and performs a gesture operation. At the start of processing, the camera 105 has started imaging, and continuously inputs captured images to the CPU 101.

カメラ姿勢検出部208は、撮像画像取得部201により取得された撮像画像に基づいて、カメラ105の位置、姿勢等の動きを検出して、カメラ姿勢記憶部602に記憶させる(S1201)。手検出部202は、撮像画像取得部201により取得された撮像画像に基づいて、ユーザの手領域を検出する(S304)。手位置検出部203は、手検出部202により検出された手領域のカメラ座標系における位置を検出して、手位置記憶部204に記憶させる(S305)。カメラ105が連続して撮像を行うため、手位置記憶部204は、時系列に応じて手領域のカメラ座標系における位置を表す時系列データを記憶する。   Based on the captured image acquired by the captured image acquisition unit 201, the camera orientation detection unit 208 detects movements such as the position and orientation of the camera 105 and stores them in the camera orientation storage unit 602 (S1201). The hand detection unit 202 detects the user's hand region based on the captured image acquired by the captured image acquisition unit 201 (S304). The hand position detection unit 203 detects the position of the hand region detected by the hand detection unit 202 in the camera coordinate system, and stores it in the hand position storage unit 204 (S305). Since the camera 105 continuously captures images, the hand position storage unit 204 stores time series data representing the position of the hand region in the camera coordinate system according to the time series.

世界座標系変換部601は、手位置記憶部204に記憶された手領域のカメラ座標系における位置を、カメラ姿勢記憶部602に記憶されたカメラ105の位置、姿勢(動き)に基づいて世界座標系に座標変換して、手位置記憶部204に記憶させる(S1202)。   The world coordinate system conversion unit 601 converts the position of the hand region stored in the hand position storage unit 204 in the camera coordinate system based on the position and posture (motion) of the camera 105 stored in the camera posture storage unit 602. The coordinates are converted into a system and stored in the hand position storage unit 204 (S1202).

手ジェスチャ認識部205は、手位置記憶部204に記憶された手領域のカメラ座標系における位置の時系列データに基づいて、ユーザの手の動きがジェスチャ操作を行っているか否か認識する(S306)。手ジェスチャ認識部205がジェスチャ操作が行われていないと判定した場合(S307:N)、HMD100は、次の撮像画像を取得したか否かの判定を行う(S312)。   The hand gesture recognition unit 205 recognizes whether or not the user's hand movement is performing a gesture operation based on the time-series data of the position of the hand region in the camera coordinate system stored in the hand position storage unit 204 (S306). ). When the hand gesture recognition unit 205 determines that the gesture operation has not been performed (S307: N), the HMD 100 determines whether or not the next captured image has been acquired (S312).

ジェスチャ操作が行われたと認識された場合(S307:Y)、基準点設定部206は、手位置記憶部204に記憶された手領域の世界座標系における位置に基づいて、基準点の世界座標系における位置を設定する。基準点設定部206は、設定した基準点の世界座標系における位置を、第2基準点記憶部210に記憶させる(S1203)。ここで基準点設定部206は、直前に行われるS306のジェスチャ操作の認識処理において認識されたジェスチャ実行区間における手領域の平均位置を、基準点の位置とする。ジェスチャ操作の認識後に基準点の位置を設定することで、基準点をジェスチャ操作時の手の近くに配置することができる。   When it is recognized that a gesture operation has been performed (S307: Y), the reference point setting unit 206 uses the world coordinate system of the reference point based on the position of the hand region stored in the hand position storage unit 204 in the world coordinate system. Set the position at. The reference point setting unit 206 stores the position of the set reference point in the world coordinate system in the second reference point storage unit 210 (S1203). Here, the reference point setting unit 206 sets the average position of the hand region in the gesture execution section recognized in the gesture operation recognition process of S306 performed immediately before as the reference point position. By setting the position of the reference point after recognizing the gesture operation, the reference point can be arranged near the hand during the gesture operation.

カメラ座標系変換部209は、カメラ姿勢記憶部602に記憶されたカメラ105の位置、姿勢に基づいて、S1203で設定された基準点の世界座標系における座標(位置)をジェスチャ実行区間におけるカメラ座標系の座標に変換する(S1204)。カメラ座標系変換部209は、カメラ座標系の座標に変換した基準点の座標(位置)を第2基準点記憶部210に記憶させる。カメラ座標系における基準点の座標(位置)の第2基準点記憶部210への記憶後に、HMD100は、S308以降の処理を行う。   Based on the position and orientation of the camera 105 stored in the camera orientation storage unit 602, the camera coordinate system conversion unit 209 determines the coordinates (position) in the world coordinate system of the reference point set in S1203 as the camera coordinates in the gesture execution section. The system coordinates are converted (S1204). The camera coordinate system conversion unit 209 causes the second reference point storage unit 210 to store the coordinates (position) of the reference point converted into the coordinates of the camera coordinate system. After storing the coordinates (positions) of the reference points in the camera coordinate system in the second reference point storage unit 210, the HMD 100 performs the processing from S308 onward.

このように第3実施形態のHMD100は、手によるジェスチャ操作を認識した後に基準点を設定し、カメラ座標系における基準点の位置がジェスチャ実行区間においてどのように変化したかを過去に遡って逆算する。これにより第3実施形態のHMD100は、第1実施形態のHMD100の効果の他に、基準点と手の位置との乖離を抑制して、カメラ105の動きに起因する手によるジェスチャ操作の誤認識を抑制するという効果を持つ。   As described above, the HMD 100 according to the third embodiment sets the reference point after recognizing the gesture operation by the hand, and retrospectively calculates how the position of the reference point in the camera coordinate system has changed in the gesture execution section. To do. Thereby, the HMD 100 of the third embodiment suppresses the difference between the reference point and the position of the hand in addition to the effects of the HMD 100 of the first embodiment, and misrecognizes the gesture operation by the hand due to the movement of the camera 105. It has the effect of suppressing.

第1〜第3実施形態では、基準点を1つ設定する場合について説明したが、基準点は複数設けられてもよい。基準点を複数設ける場合、手の位置に最も近接する1以上の基準点のカメラ座標系における動きに応じてジェスチャ操作の判定を行うことで、基準点と手の位置の乖離を抑制することができる。また、撮像装置(カメラ105)は、ユーザの身体に装着するものの他に、ハンディカメラや車載カメラ等に対する適応も可能である。   In the first to third embodiments, the case where one reference point is set has been described, but a plurality of reference points may be provided. When a plurality of reference points are provided, it is possible to suppress a difference between the reference point and the hand position by performing a gesture operation determination according to the movement of one or more reference points closest to the hand position in the camera coordinate system. it can. Further, the imaging device (camera 105) can be applied to a handy camera, an in-vehicle camera, or the like in addition to the one attached to the user's body.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPU、MPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (13)

現実空間に固定して設定される所定の基準点及び入力操作を行う指示体を含む範囲を連続して撮像する撮像手段と、
前記撮像手段で撮像された撮像画像内における前記指示体の位置を検出する第1位置検出手段と、
前記撮像手段の位置及び姿勢を検出する姿勢検出手段と、
前記撮像手段の位置及び姿勢から前記基準点の前記撮像画像内における位置を検出する第2位置検出手段と、
前記第1位置検出手段で連続する撮像画像から検出した前記指示体の位置の所定時間内の変化により、該指示体の前記撮像画像内における動きによる入力操作を認識する第1認識手段と、
前記第2位置検出手段で検出した前記基準点の位置の前記所定時間内の変化により、前記基準点の前記撮像画像内における動きを認識する第2認識手段と、
前記指示体の前記撮像画像内における動きと、前記基準点の前記撮像画像内における動きとを比較し、比較結果に基づいて前記指示体による前記入力操作に応じた結果を出力するか否かを判定する出力判定手段と、を備えることを特徴とする、
入力装置。
Imaging means for continuously imaging a range including a predetermined reference point fixedly set in the real space and an indicator for performing an input operation;
First position detection means for detecting the position of the indicator in the captured image captured by the imaging means;
Posture detection means for detecting the position and posture of the imaging means;
Second position detection means for detecting the position of the reference point in the captured image from the position and orientation of the imaging means;
First recognition means for recognizing an input operation due to movement of the indicator in the captured image by a change within a predetermined time of the position of the indicator detected from consecutive captured images by the first position detection means;
Second recognition means for recognizing movement of the reference point in the captured image by a change in the position of the reference point detected by the second position detection means within the predetermined time;
Whether the movement of the indicator in the captured image is compared with the movement of the reference point in the captured image, and whether to output a result corresponding to the input operation by the indicator based on the comparison result. An output determining means for determining,
Input device.
前記出力判定手段は、前記指示体の前記撮像画像内における動きと、前記基準点の前記撮像画像内における動きとが一致するときに、前記指示体による前記入力操作に応じた結果の出力を停止し、前記指示体の前記撮像画像内における動きと、前記基準点の前記撮像画像内における動きとが一致しないときに、前記指示体による前記入力操作に応じた結果の出力を許可することを特徴とする、
請求項1記載の入力装置。
The output determination unit stops outputting the result according to the input operation by the indicator when the movement of the indicator in the captured image matches the movement of the reference point in the captured image. When the movement of the indicator in the captured image and the movement of the reference point in the captured image do not match, output of a result according to the input operation by the indicator is permitted. And
The input device according to claim 1.
前記指示体が動く軌跡の近傍に前記基準点を設定する基準点設定手段をさらに備えることを特徴とする、
請求項1又は2記載の入力装置。
It further comprises a reference point setting means for setting the reference point in the vicinity of a trajectory where the indicator moves.
The input device according to claim 1 or 2.
前記基準点設定手段は、前記基準点を前記撮像手段から50[cm]の位置に設定することを特徴とする、
請求項3記載の入力装置。
The reference point setting means sets the reference point at a position of 50 [cm] from the imaging means.
The input device according to claim 3.
前記姿勢検出手段により検出された前記撮像手段の位置及び姿勢の変化に基づいて、当該撮像手段が静止しているか否かを検出する静止検出手段をさらに備えており、
前記基準点設定手段は、前記撮像手段の静止が検出されると、前記基準点を再設定することを特徴とする、
請求項3又は4記載の入力装置。
Further comprising stationary detection means for detecting whether or not the imaging means is stationary based on a change in position and orientation of the imaging means detected by the orientation detection means;
The reference point setting means resets the reference point when the imaging means is detected stationary.
The input device according to claim 3 or 4.
前記撮像画像内における前記指示体の位置を、前記姿勢検出手段により検出された前記撮像手段の位置及び姿勢に基づいて前記現実空間の位置に変換する変換手段をさらに備えており、
前記基準点設定手段は、前記現実空間の位置に変換された前記指示体の位置に基づいて、前記基準点を設定することを特徴とする、
請求項3又は4記載の入力装置。
Further comprising conversion means for converting the position of the indicator in the captured image into a position in the real space based on the position and attitude of the imaging means detected by the attitude detection means;
The reference point setting means sets the reference point based on the position of the indicator converted to the position in the real space.
The input device according to claim 3 or 4.
前記第2位置検出手段は、前記現実空間を表す第1座標系により設定される前記基準点の位置を、前記撮像画像に基づく第2座標系における位置に座標変換することで、前記基準点の前記撮像画像内における位置を検出し、
前記第1位置検出手段は、前記撮像画像に基づいて、前記指示体の前記第2座標系における位置を検出することを特徴とする、
請求項1〜6のいずれか1項記載の入力装置。
The second position detecting means performs coordinate conversion of the position of the reference point set by the first coordinate system representing the real space to a position in the second coordinate system based on the captured image, thereby Detecting a position in the captured image;
The first position detecting means detects a position of the indicator in the second coordinate system based on the captured image.
The input device according to claim 1.
前記第2認識手段は、前記基準点の前記撮像画像内における動きを、前記第1認識手段と同様の処理により認識することを特徴とする、
請求項1〜7のいずれか1項記載の入力装置。
The second recognizing unit recognizes a movement of the reference point in the captured image by a process similar to that of the first recognizing unit.
The input device according to claim 1.
前記第1認識手段は、前記第1位置検出手段で連続する撮像画像から検出した前記指示体の位置の所定時間内の変化から特徴量を算出し、予め学習しておいた認識対象ジェスチャモデルとのマッチングを行うことで、該指示体の前記撮像画像内における動きによる入力操作を認識することを特徴とする、
請求項8記載の入力装置。
The first recognizing unit calculates a feature amount from a change within a predetermined time of the position of the indicator detected from consecutive captured images by the first position detecting unit, and a recognition target gesture model learned in advance. Recognizing an input operation caused by a movement of the indicator in the captured image.
The input device according to claim 8.
前記撮像手段はユーザの身体に装着されることを特徴とする、
請求項1〜9のいずれか1項記載の入力装置。
The imaging means is mounted on a user's body,
The input device according to claim 1.
現実空間に固定して設定される所定の基準点及び入力操作を行う指示体を含む範囲を連続して撮像する撮像手段から、撮像画像を取得する入力装置により実行される方法であって、
前記撮像手段の位置及び姿勢を検出する工程と、
検出した前記撮像手段の位置及び姿勢に応じて前記基準点の撮像画像内における位置を検出する工程と、
前記撮像手段で撮像された前記撮像画像内における前記指示体の位置を検出する工程と、
連続する撮像画像から検出した前記指示体の位置の所定時間内の変化により、該指示体の前記撮像画像内における動きによる入力操作を認識する工程と、
前記撮像画像内における前記基準点の位置の前記所定時間内の変化により、前記基準点の前記撮像画像内における動きを認識する工程と、
前記指示体の前記撮像画像内における動きと、前記基準点の前記撮像画像内における動きとを比較し、比較結果に基づいて前記指示体による前記入力操作に応じた結果を出力するか否かを判定する工程と、を含むことを特徴とする、
入力制御方法。
A method executed by an input device that acquires a captured image from an imaging unit that continuously captures a range including a predetermined reference point that is fixedly set in a real space and an indicator that performs an input operation,
Detecting the position and orientation of the imaging means;
Detecting the position of the reference point in the captured image according to the detected position and orientation of the imaging means;
Detecting the position of the indicator in the captured image captured by the imaging means;
A step of recognizing an input operation due to a movement of the indicator in the captured image by a change within a predetermined time of the position of the indicator detected from consecutive captured images;
Recognizing movement of the reference point in the captured image by a change in the position of the reference point in the captured image within the predetermined time;
Whether the movement of the indicator in the captured image is compared with the movement of the reference point in the captured image, and whether to output a result corresponding to the input operation by the indicator based on the comparison result. A step of determining,
Input control method.
現実空間に固定して設定される所定の基準点及び入力操作を行う指示体を含む範囲を連続して撮像する撮像手段から撮像画像を取得するコンピュータを、
前記撮像手段で撮像された撮像画像内における前記指示体の位置を検出する第1位置検出手段、
前記撮像手段の位置及び姿勢を検出する姿勢検出手段、
前記撮像手段の位置及び姿勢から前記基準点の前記撮像画像内における位置を検出する第2位置検出手段、
前記第1位置検出手段で連続する撮像画像から検出した前記指示体の位置の所定時間内の変化により、該指示体の前記撮像画像内における動きによる入力操作を認識する第1認識手段、
前記第2位置検出手段で検出した前記基準点の位置の前記所定時間内の変化により、前記基準点の前記撮像画像内における動きを認識する第2認識手段、
前記指示体の前記撮像画像内における動きと、前記基準点の前記撮像画像内における動きとを比較し、比較結果に基づいて前記指示体による前記入力操作に応じた結果を出力するか否かを判定する出力判定手段、
として機能させるためのコンピュータプログラム。
A computer that acquires a captured image from an imaging unit that continuously captures a range including a predetermined reference point that is fixedly set in a real space and an indicator that performs an input operation;
First position detection means for detecting the position of the indicator in the captured image captured by the imaging means;
Posture detection means for detecting the position and posture of the imaging means;
Second position detection means for detecting the position of the reference point in the captured image from the position and orientation of the imaging means;
First recognition means for recognizing an input operation due to movement of the indicator in the captured image based on a change within a predetermined time of the position of the indicator detected from consecutive captured images by the first position detection means;
Second recognition means for recognizing movement of the reference point in the captured image based on a change in the position of the reference point detected by the second position detection means within the predetermined time;
Whether the movement of the indicator in the captured image is compared with the movement of the reference point in the captured image, and whether to output a result corresponding to the input operation by the indicator based on the comparison result. Output judging means for judging,
Computer program to function as.
請求項12記載のコンピュータプログラムを記憶するコンピュータにより読み取り可能な記憶媒体。   A computer-readable storage medium storing the computer program according to claim 12.
JP2016080071A 2016-04-13 2016-04-13 Input device, input control method, computer program, and storage medium Pending JP2017191426A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016080071A JP2017191426A (en) 2016-04-13 2016-04-13 Input device, input control method, computer program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016080071A JP2017191426A (en) 2016-04-13 2016-04-13 Input device, input control method, computer program, and storage medium

Publications (1)

Publication Number Publication Date
JP2017191426A true JP2017191426A (en) 2017-10-19

Family

ID=60084792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016080071A Pending JP2017191426A (en) 2016-04-13 2016-04-13 Input device, input control method, computer program, and storage medium

Country Status (1)

Country Link
JP (1) JP2017191426A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111228792A (en) * 2020-01-14 2020-06-05 深圳十米网络科技有限公司 Motion sensing game action recognition method and device, computer equipment and storage medium
JP2020101886A (en) * 2018-12-20 2020-07-02 株式会社ガゾウ Head mounted information device and program
CN112565602A (en) * 2020-11-30 2021-03-26 北京地平线信息技术有限公司 Method and apparatus for controlling image photographing apparatus, and computer-readable storage medium
WO2023106640A1 (en) * 2021-12-10 2023-06-15 삼성전자주식회사 Electronic device, and method for preventing misrecognition of gesture in electronic device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020101886A (en) * 2018-12-20 2020-07-02 株式会社ガゾウ Head mounted information device and program
JP7224018B2 (en) 2018-12-20 2023-02-17 株式会社ガゾウ Head-mounted information device and program
CN111228792A (en) * 2020-01-14 2020-06-05 深圳十米网络科技有限公司 Motion sensing game action recognition method and device, computer equipment and storage medium
CN112565602A (en) * 2020-11-30 2021-03-26 北京地平线信息技术有限公司 Method and apparatus for controlling image photographing apparatus, and computer-readable storage medium
WO2023106640A1 (en) * 2021-12-10 2023-06-15 삼성전자주식회사 Electronic device, and method for preventing misrecognition of gesture in electronic device

Similar Documents

Publication Publication Date Title
JP6885935B2 (en) Eye pose identification using eye features
JP5205187B2 (en) Input system and input method
KR101364571B1 (en) Apparatus for hand detecting based on image and method thereof
JP4479194B2 (en) Motion identification device and object posture identification device
KR101612605B1 (en) Method for extracting face feature and apparatus for perforimg the method
US9880634B2 (en) Gesture input apparatus, gesture input method, and program for wearable terminal
KR101631011B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
JP2009009280A (en) Three-dimensional signature authentication system
JP2017191426A (en) Input device, input control method, computer program, and storage medium
JP6141108B2 (en) Information processing apparatus and method
JP2019168954A (en) Visual line direction estimation device, visual line direction estimation method, and visual line direction estimation program
JP6197702B2 (en) Input method, program, and input device
CN105242888A (en) System control method and electronic device
JP7075237B2 (en) Operation judgment device and operation judgment method
KR20130051319A (en) Apparatus for signal input and method thereof
JP5482412B2 (en) Robot, position estimation method and program
JP4675718B2 (en) Operation determination device, operation determination program, and computer-readable recording medium
KR101870542B1 (en) Method and apparatus of recognizing a motion
JP6810442B2 (en) A camera assembly, a finger shape detection system using the camera assembly, a finger shape detection method using the camera assembly, a program for implementing the detection method, and a storage medium for the program.
US9761009B2 (en) Motion tracking device control systems and methods
JP6303918B2 (en) Gesture management system, gesture management program, gesture management method, and pointing recognition device
US11340706B2 (en) Gesture recognition based on depth information and computer vision
US11054941B2 (en) Information processing system, information processing method, and program for correcting operation direction and operation amount
JP2021009552A (en) Information processing apparatus, information processing method, and program
KR20210078378A (en) method and apparatus for human computer interaction based on motion gesture recognition