JP2934190B2 - Hand gesture recognition device - Google Patents

Hand gesture recognition device

Info

Publication number
JP2934190B2
JP2934190B2 JP8221168A JP22116896A JP2934190B2 JP 2934190 B2 JP2934190 B2 JP 2934190B2 JP 8221168 A JP8221168 A JP 8221168A JP 22116896 A JP22116896 A JP 22116896A JP 2934190 B2 JP2934190 B2 JP 2934190B2
Authority
JP
Japan
Prior art keywords
hand
rotation angle
gravity
center
gesture recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP8221168A
Other languages
Japanese (ja)
Other versions
JPH1063864A (en
Inventor
章 内海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EI TEI AARU CHINO EIZO TSUSHIN KENKYUSHO KK
Original Assignee
EI TEI AARU CHINO EIZO TSUSHIN KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EI TEI AARU CHINO EIZO TSUSHIN KENKYUSHO KK filed Critical EI TEI AARU CHINO EIZO TSUSHIN KENKYUSHO KK
Priority to JP8221168A priority Critical patent/JP2934190B2/en
Publication of JPH1063864A publication Critical patent/JPH1063864A/en
Application granted granted Critical
Publication of JP2934190B2 publication Critical patent/JP2934190B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は手振り認識装置に
関し、さらに詳しくは、手のひらを予めモデル化した手
のひらモデルを用いて手の姿勢を実時間で認識する手振
り認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a hand gesture recognition device, and more particularly, to a hand gesture recognition device for recognizing a posture of a hand in real time using a palm model in which the palm is modeled in advance.

【0002】[0002]

【従来の技術】近年、新しいマン−マシンインタフェー
スの構築を目指し、仮想空間提示システムの研究が進め
られている。これまで提案されてきた仮想空間提示シス
テムの多くでは、立体画像表示におけるHMD(ヘッド
マウントディスプレイ)のように利用者が特殊な装置を
身に付ける必要があった。手振りの認識についても、セ
ンサを付加した特殊な手袋の着用が一般的で、着脱の煩
雑さなど、使用者への負担が大きかった。これに対し、
上記と同等のシステムを非着装で実現することが目指さ
れており、手振り認識に関してはビジョンベースの手振
り認識装置が提案され、その開発が進められている。
2. Description of the Related Art In recent years, research on a virtual space presentation system has been advanced with the aim of constructing a new man-machine interface. In many of the virtual space presentation systems proposed so far, it is necessary for a user to wear a special device such as an HMD (head mounted display) for displaying a stereoscopic image. Regarding hand gesture recognition, it is common to wear special gloves to which a sensor is added, and the burden on the user, such as the complexity of putting on and taking off, is large. In contrast,
Aiming at realizing a system equivalent to the above without wearing it, aiming at hand gesture recognition, a vision-based hand gesture recognition device has been proposed and its development is underway.

【0003】中嶋らは、指先と指の付け根からなるモデ
ルを用い単眼で指の動きを追跡した(中嶋正之,柴広
有,仮想現実世界構築のための指の動き検出法,グラフ
ィックスとCAD67−6,pp.41−46,199
4)。しかし、必要な特徴点の検出のために特殊なマー
カーの貼付を必要とし、また単眼であるため復元精度が
高くない。
[0003] Nakajima et al. Tracked finger movement with a single eye using a model consisting of a fingertip and the base of a finger (Masayuki Nakajima, Yuu Shiba, Finger movement detection method for constructing a virtual reality world, Graphics and CAD67). -6, pp. 41-46, 199
4). However, a special marker needs to be attached to detect a necessary feature point, and since it is a single eye, the restoration accuracy is not high.

【0004】岩井らは、時系列の2値画像を用いて、単
眼で3次元復元を行なった(岩井儀雄,八木康史,谷内
田正彦,Virtual reality のための拳の運動復元,信学
技報PRU93−57,pp.23−30,199
3)。この方法は多フレーム間の対応付けによる姿勢復
元が可能であるが、累積誤差が大きくなる。
[0004] Iwai et al. Performed three-dimensional reconstruction with a single eye using time-series binary images (Yoshio Iwai, Yasushi Yagi, Masahiko Yauchida, Fist movement reconstruction for virtual reality, IEICE Technical Report PRU93). −57, pp. 23-30, 199
3). This method can recover the posture by associating the frames with each other, but increases the accumulated error.

【0005】岡村らは、予めいくつかのジェスチャにつ
いて指の長さ等の特徴量を用意し、それとの照合を行な
うことでジェスチャ認識を行なった(岡村泉,隅元昭,
非接触手形状認識とその応用,信学技報HC93−6,
pp.31−38,1993)。この方法では必要なジ
ェスチャの認識に主眼が置かれており、手の姿勢を連続
的に検出することは行なっていない。
[0005] Okamura et al. Prepared a feature amount such as the length of a finger for some gestures in advance, and performed gesture recognition by collating it with the features (Izumi Okamura, Akimoto Sumaki,
Non-contact hand shape recognition and its application, IEICE HC93-6
pp. 31-38, 1993). In this method, the main focus is on recognition of necessary gestures, and continuous detection of hand posture is not performed.

【0006】これに対し、石淵らは、重心と指先点の平
面内での位置により手形状を表現するという比較的単純
なモデルを用い、複数のカメラで手振りを追跡すること
で、マーカーの貼付を必要とせず実時間で運動復元を含
む処理が可能なシステムを構築した(石淵ほか,画像処
理を用いた実時間手形状認識とマンマシンインタフェー
スへの応用,電子情報通信学会秋季大会予稿集,pp.
1−132−1−132,1991、石淵ほか,パイプ
ライン型画像処理装置を用いた実時間手形状認識,電子
情報通信学会春季大会予稿集,pp.1−291−1−
291,1992)。このシステムでは複数のカメラを
用いるため、上述した中嶋ら、岩井ら、および岡村らの
方法では考慮されていなかった手の回転に対しても対応
することが可能である。
On the other hand, Ishibuchi et al. Used a relatively simple model of expressing the hand shape by the position of the center of gravity and the fingertip point in the plane, and used a plurality of cameras to track the hand gesture, thereby attaching a marker. We have constructed a system that can perform processing including motion reconstruction in real time without the need for realization (Ishibuchi et al., Real-time hand shape recognition using image processing and application to man-machine interface, Proceedings of IEICE Autumn Meeting, pp.
1-132-1-132, 1991, Ishibuchi et al., Real-time hand shape recognition using a pipeline type image processing device, Proceedings of IEICE Spring Conference, pp. 139-138. 1-21-1-1
291, 1992). Since this system uses a plurality of cameras, it is possible to cope with a hand rotation that was not taken into account by the methods of Nakajima et al., Iwai et al., And Okamura et al.

【0007】本出願人は既に、使用者が半袖の衣服を着
ている場合であっても手の姿勢を実時間で正確に認識で
きる手振り認識装置を提案している(Akira Utsumi, Ts
utomu Miyasato and Fumio Kishino,Multi-camera han
d pose recognition systemusing skeleton image,In
4th IEEE International Workshop on Robot and Human
Communication,pp.219−224,1995、特
願平7−334860)。この装置では、まず、画像の
色および輝度情報から肌色領域を手領域として切出し、
2値画像を得る。得られた2値画像を距離変換しその極
大点から重心候補を選び、また水平方向射影の極小点か
ら手首部分の候補を選んだ後、重心候補および手首候補
の組合せについて3次元復元位置等のいくつかの確信度
評価を行なうことで、重心位置を決定する。手の3次元
方向は、上記2値画像で得られるエッジの主方向を対応
付けることで求められる。
The present applicant has already proposed a hand gesture recognition device that can accurately recognize the posture of the hand in real time even when the user is wearing short-sleeved clothes (Akira Utsumi, Ts.
utomu Miyasato and Fumio Kishino, Multi-camera han
d pose recognition systemusing skeleton image , In
4th IEEE International Workshop on Robot and Human
Communication, pp. 219-224, 1995, and Japanese Patent Application No. 7-334860. In this device, first, a skin color region is cut out from the color and luminance information of an image as a hand region,
Obtain a binary image. After distance conversion of the obtained binary image, a candidate for the center of gravity is selected from the local maximum point, and a candidate for the wrist part is selected from the local minimum point of the horizontal projection. The position of the center of gravity is determined by performing some confidence evaluations. The three-dimensional direction of the hand is obtained by associating the main directions of the edges obtained in the binary image.

【0008】[0008]

【発明が解決しようとする課題】しかしながら、上述し
た従来の装置では、姿勢検出のために指先点の対応がと
れることを前提としているため、使用者が指をすべて曲
げた場合などに姿勢を安定して求めることかができない
といった問題点があった。
However, in the above-described conventional apparatus, since it is assumed that the fingertip points can be corresponded for posture detection, the posture is stabilized when the user bends all the fingers. There was a problem that it was not possible to ask for it.

【0009】この発明はこのような問題点を解決するた
めになされたもので、手の形状によらず手の姿勢を安定
して認識することができる手振り認識装置を提供するこ
とである。
The present invention has been made to solve such a problem, and an object of the present invention is to provide a hand gesture recognition device capable of stably recognizing a posture of a hand regardless of the shape of the hand.

【0010】[0010]

【課題を解決するための手段】この発明に係る手振り認
識装置は、手のひらを予めモデル化した手のひらモデル
を用いて手の姿勢を実時間で認識するものであって、手
を互いに異なる角度から撮影する複数の撮影手段と、撮
影手段によって撮影された手の画像上において手の重心
から手の輪郭までの距離を示す重心スケルトン値を算出
する距離変換手段と、距離変換手段によって算出された
重心スケルトン値を手のひらモデルに適用して手の主軸
まわりの回転角を最尤法により推定する最尤推定手段と
を備える。
A hand gesture recognition apparatus according to the present invention recognizes a posture of a hand in real time using a palm model in which the palm is modeled in advance, and captures hands from different angles. A plurality of photographing means, a distance converting means for calculating a center-of-gravity skeleton value indicating a distance from the center of gravity of the hand to the contour of the hand on the image of the hand photographed by the photographing means, and a center-of-gravity skeleton calculated by the distance converting means Maximum likelihood estimating means for applying the value to the palm model and estimating the rotation angle about the main axis of the hand by the maximum likelihood method.

【0011】上記最尤推定手段は、回転角として予想さ
れる回転角候補を手のひらモデルに適用して上記重心ス
ケルトン値が観測され得る確率を算出する確率算出手段
と、回転角候補の中から確率が極大になるものを回転角
として決定する回転角決定手段とを含む。
The maximum likelihood estimating means includes: a probability calculating means for applying a rotation angle candidate predicted as a rotation angle to a palm model to calculate a probability that the barycenter skeleton value can be observed; And a rotation angle determining means for determining a rotation angle at which the maximum value is obtained as a rotation angle.

【0012】[0012]

【発明の実施の形態】以下、この発明の実施の形態を図
面を参照して詳しく説明する。なお、図中同一符号は同
一または相当部分を示す。
Embodiments of the present invention will be described below in detail with reference to the drawings. In the drawings, the same reference numerals indicate the same or corresponding parts.

【0013】まず、この発明の実施の形態による手振り
認識装置で用いられる手の形状モデルについて説明す
る。この装置では、手の位置および姿勢を重心と手のひ
らの方向によって、また各指の曲げを重心と各指先点の
位置関係によって表現する。詳細は「大西ほか,手振り
認識のための手形状記述について,テレビジョン学会技
術報告Vol.15,No.25,pp.25−29,
May1991」を援用する。図1において、Ohは手
1の重心を示し、Xhは手1の方向を示す。これらは画
像中の手1のひら領域の重心点、手1のひら部分のエッ
ジの手方向でそれぞれ近似する。複数のカメラからの情
報を組合せれば、手1の位置と方向が算出できる。ま
た、手のひらの特徴点は同一平面内にあると仮定し、指
先点の移動は求めた平面上への投影点の動きとして表現
する。
First, a hand shape model used in the hand gesture recognition device according to the embodiment of the present invention will be described. In this device, the position and posture of the hand are expressed by the center of gravity and the direction of the palm, and the bending of each finger is expressed by the positional relationship between the center of gravity and each fingertip point. For details, see "Onishi et al., Hand Shape Description for Hand Gesture Recognition, Technical Report of the Institute of Television Engineers of Japan, Vol. 15, No. 25, pp. 25-29,
May 1991 ". In FIG. 1, Oh indicates the center of gravity of the hand 1, and Xh indicates the direction of the hand 1. These are approximated in the direction of the center of gravity of the palm area of the hand 1 in the image and the direction of the edge of the palm of the hand 1. By combining information from a plurality of cameras, the position and direction of the hand 1 can be calculated. Also, assuming that the characteristic points of the palm are in the same plane, the movement of the fingertip point is expressed as the movement of the projection point on the obtained plane.

【0014】この実施の形態による手振り認識装置は、
図2に示されるように、手を互いに異なる角度から撮影
する複数のカメラ11〜1kと、カメラ11〜1kによ
って得られた入力画像中の肌色領域を色情報および輝度
情報を用いて分割する領域分割部21〜2kと、ソーベ
ル(Sobel )フィルタの結果から平均エッジ方向を求
め、それを2次元上の手の方向(主軸)とする主軸検出
部31〜3kと、主軸検出部31〜3kで得られた手の
方向に基づいて指先が上方を向くように画像を回転する
回転変換部41〜4kと、手の画像を構成する画素の各
々から手の画像の輪郭までの最短距離を示す距離変換値
(スケルトン値)を算出する距離変換部51〜5kと、
それらのスケルトン値に基づいて手の重心たり得る確信
度を参照し、手1の3次元上の重心Ohを決定するとと
もに、複数のカメラ11〜1kで得られた手の方向をス
テレオマッチングすることにより3次元上の手1の方向
Xhを決定する3次元重心点・方向検出部6と、複数の
カメラ11〜1kで得られた手の重心における距離変換
値(重心スケルトン値)に基づいて手1の主軸(Xh)
まわりの回転角rを決定する回転角検出部7と、得られ
た重心位置、手方向および回転角を持つ面(手平面)に
対し最も垂直に近い光軸を持つカメラを選択するカメラ
選択部8と、選択されたカメラから得られた画像をラベ
リング処理することにより指先候補点を抽出して手平面
に投影する指先点検出部9と、回転角検出部7からの回
転角rおよび指先点に基づいて手1のモデルを復元する
手モデル復元部10とを備える。
The hand gesture recognition device according to this embodiment is:
As shown in FIG. 2, a plurality of cameras 11 to 1k for photographing hands from different angles and an area for dividing a skin color area in an input image obtained by the cameras 11 to 1k using color information and luminance information. An average edge direction is determined from the results of the dividing units 21 to 2k, a Sobel filter, and the main axis detecting units 31 to 3k, which use the average edge direction as a two-dimensional hand direction (main axis), and the main axis detecting units 31 to 3k. Rotation conversion units 41 to 4k that rotate the image so that the fingertips face upward based on the obtained hand direction, and a distance indicating the shortest distance from each of the pixels forming the hand image to the contour of the hand image Distance conversion units 51 to 5k for calculating conversion values (skeleton values);
Referencing the certainty that can be the center of gravity of the hand based on those skeleton values, determining the three-dimensional center of gravity Oh of the hand 1, and stereo-matching the hand directions obtained by the plurality of cameras 11 to 1k. The three-dimensional center-of-gravity point / direction detection unit 6 determines the direction Xh of the hand 1 on the three-dimensional basis, and the hand based on the distance conversion value (centroid skeleton value) at the center of gravity of the hand obtained by the plurality of cameras 11 to 1k. 1 spindle (Xh)
A rotation angle detection unit 7 for determining the rotation angle r around the camera, and a camera selection unit for selecting a camera having an optical axis that is most perpendicular to a plane (hand plane) having the obtained center of gravity position, hand direction and rotation angle. 8, a fingertip point detection unit 9 that extracts a fingertip candidate point by performing labeling processing on an image obtained from the selected camera and projects it on the hand plane, a rotation angle r and a fingertip point from the rotation angle detection unit 7 And a hand model restoring unit 10 for restoring the model of the hand 1 based on the

【0015】次に、このように構成された手振り認識装
置の動作を説明する。カメラ11〜1kで得られた画像
は領域分割部21〜2kにそれぞれ与えられる。領域分
割部21〜2kでは、入力画像の肌色領域が色と強度の
情報を用いて他の領域から分離され、図3の(a)に示
されるような2値化画像が得られる。主軸検出部31〜
3kでは、エッジ検出されたエッジセグメントの主軸が
手1の方向として検出される。回転変換部41〜4kで
は、画像の軸が垂直軸と一致するように回転させられ
る。距離変換部51〜5kでは、図3の(b)に示され
るような距離変換画像と、図3の(c)に示されるよう
な射影画像とが得られる。
Next, the operation of the hand gesture recognition device thus configured will be described. The images obtained by the cameras 11 to 1k are provided to the area dividing units 21 to 2k, respectively. In the area division units 21 to 2k, the skin color area of the input image is separated from other areas using the information of color and intensity, and a binarized image as shown in FIG. 3A is obtained. Spindle detectors 31 to
In 3k, the main axis of the edge segment whose edge has been detected is detected as the direction of the hand 1. The rotation converters 41 to 4k rotate the image so that the axis of the image coincides with the vertical axis. In the distance conversion units 51 to 5k, a distance conversion image as shown in FIG. 3B and a projected image as shown in FIG. 3C are obtained.

【0016】3次元重心点・方向検出部6では、重心の
候補として距離変換された画像の極大点が抽出され、手
首の候補として射影の極小点が抽出される。図3の
(b)では、スケルトン値が大きい画素ほど黒く表わさ
れ、スケルトン値が小さい画素ほど白く表されている。
したがって、手の輪郭から遠ざかるにつれて画素は徐々
に濃くなっている。得られた重心候補および手首候補
(手首候補については得られた主軸に対する垂直位置で
の手領域の中点を候補とする)のすべての組の画像間で
の対応付けから確信度処理により3次元上の重心が決定
される。3次元の重心が決定されると、各画像上での重
心スケルトン値s1 〜sk が得られる。
The three-dimensional center-of-gravity point / direction detection unit 6 extracts the maximum point of the distance-converted image as a candidate for the center of gravity, and extracts the minimum point of the projection as a candidate for the wrist. In FIG. 3B, a pixel having a larger skeleton value is represented as black, and a pixel having a smaller skeleton value is represented as white.
Therefore, the pixels gradually become darker as the distance from the contour of the hand increases. From the correspondence between all sets of images of the obtained center of gravity candidate and the wrist candidate (for the wrist candidate, the midpoint of the hand region at the vertical position with respect to the obtained main axis is used as a candidate), three-dimensional processing is performed by confidence processing. The upper center of gravity is determined. When three-dimensional center of gravity is determined, the center of gravity skeleton values s 1 ~s k on each image is obtained.

【0017】回転角検出部7では、手1のひらをモデル
化した所定の手のひらモデルに基づき、手1の主軸まわ
りの回転角rが重心スケルトン値s1 〜sk から推定さ
れる。ここでは、問題を単純化するため、実装にあたっ
ては指を除いた手1のひら部を表現するために図4に示
す楕円体モデル2が用いられる。ここで、カメラ11
(〜1k)で撮影された画像上における楕円体の幅sと
して重心スケルトン値を用いる。弱透視変換を仮定する
と、カメラの光軸と手のひらの法線とがなす角をθとし
て、観測される重心スケルトン値sは次の式(1)に従
う。
[0017] In the rotation angle detecting unit 7, based on a predetermined palm model that models the palm of hand 1, the rotation angle r around the main axis of the hand 1 is estimated from the centroid skeleton values s 1 ~s k. Here, in order to simplify the problem, the ellipsoid model 2 shown in FIG. 4 is used to represent the palm of the hand 1 excluding the fingers when mounting. Here, the camera 11
The centroid skeleton value is used as the width s of the ellipsoid on the image captured at ((1k). Assuming that the weak perspective transformation is performed, an angle formed between the optical axis of the camera and the normal of the palm is θ, and the observed center-of-gravity skeleton value s follows Expression (1).

【0018】[0018]

【数1】 (Equation 1)

【0019】ここで、Lは手の重心からカメラまでの距
離であり、aおよびbは定数である。
Here, L is the distance from the center of gravity of the hand to the camera, and a and b are constants.

【0020】観測がガウス誤差を伴うと仮定すると、重
心スケルトン値sが観測される確率p(s|θ)は次の
式(2)のように表わされる。
Assuming that the observation involves a Gaussian error, the probability p (s | θ) of observing the center of gravity skeleton value s is expressed by the following equation (2).

【0021】[0021]

【数2】 (Equation 2)

【0022】ここでは、定数a,bと誤差の分散σs
学習用データにより推定する。手1の姿勢は図1に示さ
れるようにオイラー角(a,e,r)により表現でき
る。ここでaは方位角、eは仰角、rは回転角を表わす
が、a,eは手1の主軸方向Xhにより決定されるの
で、主軸まわりの回転角rのみが未知数となる。
Here, the constants a and b and the error variance σ s are estimated from the learning data. The posture of the hand 1 can be represented by Euler angles (a, e, r) as shown in FIG. Here, a represents an azimuth angle, e represents an elevation angle, and r represents a rotation angle. Since a and e are determined by the main axis direction Xh of the hand 1, only the rotation angle r around the main axis is an unknown number.

【0023】手のひらの法線ベクトルNは次の式(3)
で表わされる。 N=Rz (a)Ry (e)Rx (r)ez …(3) ここで、Rz ,Ry ,Rx はそれぞれz,y,x軸に関
する回転行列を示し、ez はz軸方向の単位ベクトルを
示す。
The normal vector N of the palm is given by the following equation (3).
Is represented by N = R z (a) R y (e) R x (r) e z ... (3) where, R z, R y, R x each represent a rotation matrix z, y, the x-axis, e z Indicates a unit vector in the z-axis direction.

【0024】手1の主軸まわりの回転角をrとすると、
i番目のカメラの光軸ベクトルCと手のひらの法線ベク
トルNとがなす角θci(r)は次の式(4)で表わされ
る。
Assuming that the rotation angle of the hand 1 about the main axis is r,
The angle θ ci (r) formed by the optical axis vector C of the i-th camera and the normal vector N of the palm is represented by the following equation (4).

【0025】 θci(r)=cos-1T C …(4) なお、式(4)中のNT は法線ベクトルNの転置ベクト
ルを示す。
[0025] θ ci (r) = cos -1 N T C ... (4) In addition, N T in the equation (4) denotes the transpose vector of a normal vector N.

【0026】k台のカメラ11〜1kによって重心スケ
ルトン値の組W(s1 ,s2 ,…,sk )が観測される
確率P(W|r)は上記式(2)より次の式(5)で表
わされる。
The probability P (W | r) that the set of centroid skeleton values W (s 1 , s 2 ,..., S k ) is observed by k cameras 11 to 1 k is given by the following equation from the above equation (2). It is represented by (5).

【0027】[0027]

【数3】 (Equation 3)

【0028】ここで、si はi番目のカメラによって観
測された重心スケルトン値を示す。P(W|r)を最大
とするrを回転角の推定値とする。
Here, s i indicates the center-of-gravity skeleton value observed by the i-th camera. Let r that maximizes P (W | r) be the estimated value of the rotation angle.

【0029】上記のような方法により回転角rを検出す
る回転角検出部7は、図5に示されるように、回転角r
として予想される回転角候補rC を楕円体モデル2に適
用して重心スケルトン値s1 〜sk が観測され得る確率
P(si |θCi(r))を算出する複数の算出部711
〜71kと、k台のカメラ11〜1kによってs1 ,s
2 ,…,sk という重心スケルトン値の組合せが観測さ
れ得る確率P(W|r)を算出する算出部72と、算出
された確率P(W|r)が極大になる回転角候補rC
回転角rとして決定する回転角決定部73とを備える。
The rotation angle detector 7 for detecting the rotation angle r by the above-described method has a rotation angle r as shown in FIG.
Multiple calculation unit 711 for calculating a | (θ Ci (r) s i) the center of gravity Skeleton value s 1 ~s k by applying the rotation angle candidate r C to ellipsoidal model 2 is expected probability P may be observed as
S 1 , s by k cameras 11 to 1 k
2, ..., s k that centroid skeleton value probability P combination may be observed in | a calculating unit 72 for calculating the (W r), the calculated probability P | rotation angle candidate r C to (W r) becomes maximal Is determined as a rotation angle r.

【0030】たとえば算出部711では、回転角rがr
C であるとき、カメラ11から重心スケルトン値s1
得られる確率P(s1 |θC1(rC ))が楕円体モデル
2に基づいて算出される。
For example, the calculation unit 711 determines that the rotation angle r is r
If C , the probability P (s 1 | θ C1 (r C )) of obtaining the centroid skeleton value s 1 from the camera 11 is calculated based on the ellipsoid model 2.

【0031】ここで、図6を参照して、重心スケルトン
値と手1の回転角rとの間に対応関係があることを説明
する。図6の(a)に示されるように、手1の法線がカ
メラ11(〜1k)の光軸に一致するとき、カメラ11
(〜1k)によって撮影された手の画像上において手1
の重心から手1の輪郭までの最短距離は最大になるの
で、その重心スケルトン値もまた最大になる。図6の
(a)には、このように撮影された手1のひらの楕円体
モデル2が示されている。この場合における楕円体モデ
ル2は真円として観測される。したがって、楕円体モデ
ル2の重心Oeから輪郭までの最短距離が最大になり、
この場合の重心スケルトン値もまた最大になる。
Referring now to FIG. 6, it will be described that there is a correspondence between the center of gravity skeleton value and the rotation angle r of the hand 1. As shown in FIG. 6A, when the normal line of the hand 1 coincides with the optical axis of the camera 11 (11k),
(1k) on the image of the hand
Since the shortest distance from the center of gravity of the hand 1 to the contour of the hand 1 is maximized, the skeleton value of the center of gravity is also maximized. FIG. 6A shows an ellipsoidal model 2 of the palm of the hand 1 photographed in this manner. The ellipsoid model 2 in this case is observed as a perfect circle. Therefore, the shortest distance from the center of gravity Oe of the ellipsoidal model 2 to the contour is maximized,
The center of gravity skeleton value in this case is also maximized.

【0032】図6の(b)に示されるように、手1の法
線がカメラ11(1k)の光軸に対して鋭角をなしてい
ると、カメラ11(〜1k)によって撮影された手1の
画像上においては手1の重心から手1の輪郭までの最短
距離は(a)の場合よりも短くなるので、この場合の重
心スケルトン値は(a)の場合よりも小さくなる。この
場合の楕円体モデル2は、(a)の場合に比べて図上横
方向に圧縮された形に観測される。したがって、楕円体
モデル2の重心Oeから輪郭までの最短距離は(a)の
場合よりも短くなり、この場合の重心スケルトン値は
(a)の場合よりも小さくなる。
As shown in FIG. 6B, if the normal line of the hand 1 forms an acute angle with respect to the optical axis of the camera 11 (1k), the hand imaged by the camera 11 (11k) is obtained. Since the shortest distance from the center of gravity of the hand 1 to the outline of the hand 1 on the image 1 is shorter than in the case of FIG. 7A, the skeleton value of the center of gravity in this case is smaller than in the case of FIG. The ellipsoid model 2 in this case is observed in a form compressed in the horizontal direction in the figure as compared with the case of (a). Accordingly, the shortest distance from the center of gravity Oe of the ellipsoid model 2 to the contour is shorter than in the case of (a), and the skeleton value of the center of gravity in this case is smaller than in the case of (a).

【0033】図6の(c)に示されるように、手1の法
線がカメラ11(〜1k)の光軸に対して直交する場合
は、カメラ11(〜1k)によって撮影された手1の画
像上においては手1の重心から輪郭までの最短距離は最
小になるので、この場合の重心スケルトン値もまた最小
になる。この場合の楕円体モデル2は、図6の(c)に
示されるように(b)の場合に比べて図上横方向にさら
に圧縮された形に観察される。したがって、楕円体モデ
ル2の重心Oeから輪郭までの最短距離は最小になり、
この場合の重心スケルトン値もまた最小になる。
As shown in FIG. 6C, when the normal of the hand 1 is perpendicular to the optical axis of the camera 11 (〜1 k), the hand 1 photographed by the camera 11 (〜1 k) is used. Since the shortest distance from the center of gravity of the hand 1 to the contour is minimized on the image of (1), the skeleton value of the center of gravity in this case is also minimized. The ellipsoid model 2 in this case is observed in a more compressed form in the horizontal direction on the figure than in the case of (b), as shown in (c) of FIG. Therefore, the shortest distance from the center of gravity Oe of the ellipsoid model 2 to the contour is minimized,
The centroid skeleton value in this case is also minimized.

【0034】このように手のひらを楕円体モデル2でモ
デル化し、k台のカメラ11〜1kから実際に得られた
重心スケルトン値s1 〜sk がどのような回転角rのと
きに得られるのかを楕円体モデル2を用いて最尤法によ
り推定する。
[0034] Is this way models the palm ellipsoidal model 2, the center of gravity skeleton values actually obtained from k cameras 11~1k s 1 ~s k is obtained when what rotation angle r Is estimated by the maximum likelihood method using the ellipsoid model 2.

【0035】以上のように、この手振り認識装置によれ
ば、手のひらをモデル化した楕円体モデル2を用いて重
心スケルトン値s1 〜sk から手の回転角rを推定する
ため、手1の姿勢を指の形状によらず安定して認識する
ことができる。
[0035] As described above, according to the gesture recognition apparatus by using the ellipsoidal model 2 models the palm from the center of gravity skeleton values s 1 ~s k to estimate the rotation angle r of the hand, the hand 1 The posture can be stably recognized regardless of the shape of the finger.

【0036】[0036]

【実施例】この発明の有効性を明らかにするため、次の
ようなシミュレーション実験を行なった。実験環境とし
ては、画像入力に3台のカメラを用い、手の領域の切出
しが輝度のみで可能となるよう背景に暗幕を用いた。学
習用データとしては、手の回転動作を含む約300フレ
ームの画像を、同時に磁気センサにより検出した回転角
のデータとともに用いた。図7に学習用データの分布を
示す。図中、実線は推定された楕円体モデルを示し、実
線と破線との間の距離は上記式(2)中の分散σs の大
きさを示す。実験に用いた入力画像は、手のひら部のみ
が領域分割されるよう長袖の服を着用して撮影したもの
と、上腕部分までが含まれるよう袖のない服を着用して
撮影したものの2通りを用いた。手の主軸を水平に保っ
たもの、約30°上方に向けたもの、約60°上方に向
けたものの3通りに、手を回転させた。
EXAMPLES In order to clarify the effectiveness of the present invention, the following simulation experiments were performed. As an experimental environment, three cameras were used for image input, and a dark curtain was used as a background so that a hand region could be cut out only by luminance. As the learning data, an image of about 300 frames including the rotation of the hand was used together with the rotation angle data detected by the magnetic sensor. FIG. 7 shows the distribution of the learning data. In the figure, the solid line indicates the estimated ellipsoid model, and the distance between the solid line and the broken line indicates the magnitude of the variance σ s in the above equation (2). The input images used in the experiment were taken with long-sleeved clothes so that only the palms were divided into areas, and with the sleeveless clothes so that only the upper arm was included. Using. The hand was rotated in three ways: one with the main axis of the hand kept horizontal, one with the hand turned up about 30 °, and one with the hand turned up about 60 °.

【0037】実験結果を図8および図9に示す。図8
は、長袖服着用の画像のうち主軸を水平に保った条件に
ついて処理を行なったものである。図中、実線は比較例
として磁気センサにより得られた回転角を示し、破線は
この実施例により得られた回転角を示す。手の回転は、
図8の下部に示す6通りの形状について行なった。いず
れの手形状についても適切に回転角が検出されているこ
とがわかる。
The experimental results are shown in FIGS. FIG.
Is an image obtained by processing the condition of keeping the main axis horizontal in the image of wearing long-sleeved clothes. In the drawing, a solid line shows a rotation angle obtained by a magnetic sensor as a comparative example, and a broken line shows a rotation angle obtained by this embodiment. Hand rotation
This was performed for the six shapes shown in the lower part of FIG. It can be seen that the rotation angle is appropriately detected for any hand shape.

【0038】図9は、その他の場合についての結果を併
せて示したものである。ここに見られるように、この実
施例により服装の違いや主軸方向の変化によらず、回転
角を安定して検出することができることが明らかになっ
た。
FIG. 9 also shows the results for other cases. As can be seen from this example, it has been clarified that the rotation angle can be detected stably irrespective of differences in clothes and changes in the direction of the main shaft.

【0039】[0039]

【発明の効果】この発明に係る手振り認識装置によれ
ば、手の画像から得られた重心スケルトン値を手のひら
を予めモデル化した手のひらモデルに適用して手の主軸
まわりの回転角を最尤法により推定するため、手の形状
がいかなるものであってもその回転角を検出でき、その
結果、手の姿勢を安定して認識することができる。
According to the hand gesture recognition apparatus of the present invention, the center of gravity skeleton value obtained from the hand image is applied to the palm model in which the palm is pre-modeled, and the rotation angle around the main axis of the hand is determined by the maximum likelihood method. Therefore, the rotation angle can be detected regardless of the shape of the hand, and as a result, the posture of the hand can be stably recognized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施の形態による手振り認識装置で
用いられる手の形状モデルを示す図である。
FIG. 1 is a diagram showing a hand shape model used in a hand gesture recognition device according to an embodiment of the present invention.

【図2】この発明の実施の形態による手振り認識装置の
全体構成を示すブロック図である。
FIG. 2 is a block diagram showing an overall configuration of a hand gesture recognition device according to the embodiment of the present invention.

【図3】図1の手振り認識装置における距離変換および
射影処理を示す模式図であり、(a)は2値化画像であ
り、(b)は距離変換画像であり、(c)は射影画像で
ある。
3A and 3B are schematic diagrams illustrating distance conversion and projection processing in the hand gesture recognition device in FIG. 1, wherein FIG. 3A is a binarized image, FIG. 3B is a distance conversion image, and FIG. It is.

【図4】図2の手振り認識装置で用いられる手のひらの
楕円体モデルを示す図である。
4 is a diagram showing an ellipsoidal model of a palm used in the hand gesture recognition device of FIG. 2;

【図5】図2の手振り認識装置における回転角検出部の
構成を示すブロック図である。
FIG. 5 is a block diagram illustrating a configuration of a rotation angle detection unit in the hand gesture recognition device of FIG. 2;

【図6】図2の手振り認識装置において楕円体モデルに
より手の回転角を検出できる原理を示す説明図である。
FIG. 6 is an explanatory diagram showing a principle in which a hand rotation angle can be detected by an ellipsoid model in the hand gesture recognition device of FIG. 2;

【図7】図2の手振り認識装置の実施例に用いられた学
習用データの分布を示すグラフである。
FIG. 7 is a graph showing a distribution of learning data used in the embodiment of the hand gesture recognition device of FIG. 2;

【図8】図2の手振り認識装置の実施例による回転角の
認識結果を示すグラフである。
8 is a graph showing a result of recognition of a rotation angle by the embodiment of the hand gesture recognition device of FIG. 2;

【図9】図2の手振り認識装置の実施例による回転角の
認識結果を示すグラフである。
9 is a graph showing a result of recognition of a rotation angle by the embodiment of the hand gesture recognition device of FIG. 2;

【符号の説明】[Explanation of symbols]

1 手 2 楕円体モデル 6 3次元重心点・方向検出部 7 回転角検出部 11〜1k カメラ 51〜5k 距離変換部 711〜71k,72 算出部 73 回転角決定部 Reference Signs List 1 hand 2 ellipsoid model 6 3D barycentric point / direction detection unit 7 rotation angle detection unit 11-1k camera 51-5k distance conversion unit 711-71k, 72 calculation unit 73 rotation angle determination unit

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平8−263629(JP,A) 特開 平7−239218(JP,A) 特開 平7−105371(JP,A) 特開 平3−195909(JP,A) 特開 平7−311849(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06T 1/00 G06T 7/00 ────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-8-263629 (JP, A) JP-A-7-239218 (JP, A) JP-A-7-105371 (JP, A) JP-A-3- 195909 (JP, A) JP-A-7-311849 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) G06T 1/00 G06T 7/00

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 手のひらを予めモデル化した手のひらモ
デルを用いて前記手の姿勢を実時間で認識する手振り認
識装置であって、 前記手を互いに異なる角度が撮影する複数の撮影手段
と、 前記撮影手段によって撮影された手の画像上において前
記手の重心から前記手の輪郭までの距離を示す重心スケ
ルトン値を算出する距離変換手段と、 前記距離変換手段によって算出された重心スケルトン値
を前記手のひらモデルに適用して前記手の主軸まわりの
回転角を最尤法により推定する最尤推定手段とを備え
る、手振り認識装置。
1. A hand gesture recognition device for recognizing a posture of a hand in real time using a palm model in which a palm is pre-modeled, a plurality of photographing means for photographing the hand at different angles from each other; Distance conversion means for calculating a center of gravity skeleton value indicating a distance from the center of gravity of the hand to the contour of the hand on the image of the hand taken by the means; and a palm model for calculating the center of gravity skeleton value calculated by the distance conversion means. And a maximum likelihood estimating means for estimating a rotation angle of the hand about a main axis by a maximum likelihood method.
【請求項2】 前記最尤推定手段は、 前記回転角として予想される回転角候補を前記手のひら
モデルに適用して前記重心スケルトン値が観測され得る
確率を算出する確率算出手段と、 前記回転角候補の中から前記確率が極大になるものを前
記回転角として決定する回転角決定手段とを含む、請求
項1に記載の手振り認識装置。
2. The maximum likelihood estimating means: a probability calculating means for applying a rotation angle candidate predicted as the rotation angle to the palm model to calculate a probability that the barycenter skeleton value can be observed; The hand gesture recognition device according to claim 1, further comprising: a rotation angle determining unit that determines, as the rotation angle, a candidate having the maximum probability among the candidates.
JP8221168A 1996-08-22 1996-08-22 Hand gesture recognition device Expired - Fee Related JP2934190B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8221168A JP2934190B2 (en) 1996-08-22 1996-08-22 Hand gesture recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8221168A JP2934190B2 (en) 1996-08-22 1996-08-22 Hand gesture recognition device

Publications (2)

Publication Number Publication Date
JPH1063864A JPH1063864A (en) 1998-03-06
JP2934190B2 true JP2934190B2 (en) 1999-08-16

Family

ID=16762546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8221168A Expired - Fee Related JP2934190B2 (en) 1996-08-22 1996-08-22 Hand gesture recognition device

Country Status (1)

Country Link
JP (1) JP2934190B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602004006190T8 (en) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Device, method and program for gesture recognition
CN103562822A (en) 2011-04-28 2014-02-05 Nec软件系统科技有限公司 Information processing device, information processing method, and recording medium
JP6170696B2 (en) * 2013-03-18 2017-07-26 スタンレー電気株式会社 Image processing apparatus and image processing method
JP6165513B2 (en) * 2013-06-14 2017-07-19 国立大学法人埼玉大学 Hand gesture tracking system

Also Published As

Publication number Publication date
JPH1063864A (en) 1998-03-06

Similar Documents

Publication Publication Date Title
Yao et al. Contour model-based hand-gesture recognition using the Kinect sensor
Bobick et al. The recognition of human movement using temporal templates
Zhou et al. A novel finger and hand pose estimation technique for real-time hand gesture recognition
Sato et al. Fast tracking of hands and fingertips in infrared images for augmented desk interface
Lee et al. Handy AR: Markerless inspection of augmented reality objects using fingertip tracking
Pan et al. A real-time multi-cue hand tracking algorithm based on computer vision
CN108509026B (en) Remote maintenance support system and method based on enhanced interaction mode
JP2004157850A (en) Motion detector
JP5598751B2 (en) Motion recognition device
Abe et al. Virtual 3-D interface system via hand motion recognition from two cameras
Triesch et al. Robotic gesture recognition
Yao et al. Real-time hand pose estimation from RGB-D sensor
JP2986455B1 (en) Hand gesture recognition device
JP5526465B2 (en) Nail position data detection device, nail position data detection method, and nail position data detection program
Plouffe et al. Natural human-computer interaction using static and dynamic hand gestures
CN104951753B (en) One kind having marker 6DOF Visual Tracking System and its implementation
JP2000331170A (en) Hand motion recognizing device
Zou et al. Automatic reconstruction of 3D human motion pose from uncalibrated monocular video sequences based on markerless human motion tracking
CN114495273A (en) Robot gesture teleoperation method and related device
JP2868449B2 (en) Hand gesture recognition device
Utsumi et al. Multi-camera hand pose recognition system using skeleton image
KR20200076267A (en) Gesture Recognition Method and Processing System using Skeleton Length Information
JP2934190B2 (en) Hand gesture recognition device
KR102456872B1 (en) System and method for tracking hand motion using strong coupling fusion of image sensor and inertial sensor
JPH08212327A (en) Gesture recognition device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990511

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080528

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110528

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120528

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120528

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130528

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140528

Year of fee payment: 15

LAPS Cancellation because of no payment of annual fees