JP2000331170A - Hand motion recognizing device - Google Patents

Hand motion recognizing device

Info

Publication number
JP2000331170A
JP2000331170A JP11141483A JP14148399A JP2000331170A JP 2000331170 A JP2000331170 A JP 2000331170A JP 11141483 A JP11141483 A JP 11141483A JP 14148399 A JP14148399 A JP 14148399A JP 2000331170 A JP2000331170 A JP 2000331170A
Authority
JP
Japan
Prior art keywords
hand
image
unit
hands
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11141483A
Other languages
Japanese (ja)
Inventor
Akira Uchiumi
章 内海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Media Integration and Communication Research Laboratories
Original Assignee
ATR Media Integration and Communication Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Media Integration and Communication Research Laboratories filed Critical ATR Media Integration and Communication Research Laboratories
Priority to JP11141483A priority Critical patent/JP2000331170A/en
Publication of JP2000331170A publication Critical patent/JP2000331170A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a hand motion recognizing device which can stable recognize the motions of a plurality of hands in real time. SOLUTION: This hand motion recognizing device takes the picture of a plurality of hands from different directions by means of a plurality of cameras. A visual point selecting section 4 selects the optimum visual point for processing out of a plurality of visual points (of the cameras). A feature extracting section 6 selects such an image that does not cause occlusion based on the feature point of the image. A chase processing section 8 predicts the positions of the hands by means of a Kalman filter. The visual point selecting section 4 operates based on the predicted results. The chase processing section 8 selects the images which recognize the shapes of the hands based on the angles of rotations of the hands and recognizes the shapes of the hands based on a P-type Fourier descripter. The hand motion recognizing device recognizes hand motion by integrating the shapes of the hands.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は手振り認識装置に関
し、さらに詳しくは、複数の手の動きを実時間で認識す
る手振り認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a hand gesture recognition device, and more particularly, to a hand gesture recognition device for recognizing a plurality of hand movements in real time.

【0002】[0002]

【従来の技術】直感的で使いやすいインタフェースとし
て、手振りを有するシステムをこれまで数多く提案され
ている。これらのシステムの大半は、データグローブ
(登録商標)に代表されるように、センサを付加した特
殊な手袋の着用を利用者に求めるものであり、着脱の煩
雑さなど使用者の負担が大きく、広く普及するには至っ
ていない。これに対して、同等のシステムを非接触で実
現するために、画像処理により手振りを検出する手法が
提案されている。
2. Description of the Related Art A number of systems having hand gestures have been proposed as intuitive and easy-to-use interfaces. Most of these systems require the user to wear special gloves with sensors, as represented by Data Gloves (registered trademark), which imposes a heavy burden on the user such as the complexity of putting on and taking off. It has not spread widely. On the other hand, in order to realize an equivalent system in a non-contact manner, a method of detecting a hand gesture by image processing has been proposed.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
画像処理を基本としたシステムでは、手同士のオクルー
ジョン、自己オクルージョン(たとえば、人指し指を延
ばした手の形状と、人指し指と中指を延ばした手の形状
とは、手を側方から観察する場合は識別しがたい。)と
いったカメラの光軸に対する手の姿勢変化による撮影像
の変形が大きな問題となる。
However, in the conventional system based on image processing, the occlusion between hands and the self-occlusion (for example, the shape of the hand with the extended index finger and the shape of the hand with the extended index finger and middle finger) are considered. This means that deformation of the captured image due to a change in the posture of the hand with respect to the optical axis of the camera is a major problem.

【0004】画像処理に基づくシステムでは、3次元情
報を再構成して追跡するためには、検出した特徴点と画
像とのマッチングをとる必要がある。しかしながら、手
のような対象物を動かした場合、上述したオクルージョ
ンの発生と形状変化とのため、連続的に特徴点を検出し
かつマッチングをとることが困難であった。
In a system based on image processing, in order to reconstruct and track three-dimensional information, it is necessary to match a detected feature point with an image. However, when an object such as a hand is moved, it is difficult to continuously detect and match feature points due to the occurrence of occlusion and a change in shape described above.

【0005】本発明者は、この問題点を解決するため、
多数のカメラを用いた手の位置・姿勢の推定法を提案し
ている(特開平10−63864号公報、内海章,宮里
勉,岸野文郎,大谷淳,中津良平:距離変換処理を用い
た多視点画像による手姿勢推定法,映像情報メディア学
会誌,Vol.51, No.12, pp.2116-2125 (1997). )。こ
の方法では、複数の視点から得られるロバストな特徴量
により、手の形状変化にかかわらず3次元位置・姿勢を
安定に求めることができる。しかしながら、この方法
は、複数の手を同時に処理することができない。また、
手の形状が認識できない。
The present inventor has sought to solve this problem.
A method for estimating the position and posture of a hand using a large number of cameras has been proposed (Japanese Patent Laid-Open Publication No. Hei 10-63864, Akira Utsumi, Tsutomu Miyazato, Fumio Kishino, Jun Ohtani, Ryohei Nakatsu: Hand posture estimation method using viewpoint images, Journal of the Institute of Image Information and Television Engineers, Vol.51, No.12, pp.2116-2125 (1997). According to this method, a three-dimensional position / posture can be stably obtained irrespective of a change in the shape of a hand, based on robust feature amounts obtained from a plurality of viewpoints. However, this method cannot handle multiple hands simultaneously. Also,
The shape of the hand cannot be recognized.

【0006】これに対して、カルマンフィルタ等の予測
フィルタを用いたステレオカメラによる複数の手の追跡
に関する研究が行なわれている(Ali Azarbayejani and
Alex Pentland. Real-time self-calibrating stereo
person tracking using 3-dshape estimation from blo
d feature. In 13th International Conference onPatt
ern Recognition,pp. 627-632, 1996.)。しかしなが
ら、この手法では、両手位置を追跡できるが、姿勢や形
状を認識できない。
[0006] On the other hand, research on tracking a plurality of hands by a stereo camera using a prediction filter such as a Kalman filter has been conducted (Ali Azarbayejani and
Alex Pentland. Real-time self-calibrating stereo
person tracking using 3-dshape estimation from blo
d feature.In 13th International Conference onPatt
ern Recognition, pp. 627-632, 1996.). However, in this method, the position of both hands can be tracked, but the posture and shape cannot be recognized.

【0007】これに対し、手指の3次元モデルを用いて
形状復元を目指す研究も行なわれてきたが(Rehg, J.M.
and Kanade, T.: Visual Tracking og High DOF Artic
ulated Structures: an Application to Human Hand Tr
acking, Computer Vision-ECCV '94, LNCS vol. 801, p
p.35-46 (1994). 、中嶋正之,柴広有:仮想現実世界
構築のための指の動き検出法,グラフィックスとCAD
67-6, pp.41-46 (1994). 、岩井儀雄,八木康史,谷
内田正彦:単眼動画像からの手の3次元運動と位置の推
定,信学論(D-II), Vol.J80-D-II, No. 1, pp.44-55
(1997). )、これらの手法は精緻な姿勢情報が得られ
ることが期待できる一方で、手指の関節の自由度が大き
く計算コストが膨大になるという問題がある。また、オ
クルージョンを回避する検討もなされておらず、処理の
前提となる画像特徴がオクルージョンにより検出できな
い場合、やはり推定が困難になるという問題がある。
[0007] On the other hand, researches aimed at shape recovery using a three-dimensional model of a finger have been conducted (Rehg, JM
and Kanade, T .: Visual Tracking og High DOF Artic
ulated Structures: an Application to Human Hand Tr
acking, Computer Vision-ECCV '94, LNCS vol. 801, p
p.35-46 (1994)., Masayuki Nakajima, Yuyu Shiba: Finger Motion Detection Method for Constructing Virtual Reality World, Graphics and CAD
67-6, pp.41-46 (1994)., Y. Iwai, Y. Yagi, and M. Yauchida: Estimation of 3D hand movement and position from monocular video, IEICE (D-II), Vol. -D-II, No. 1, pp.44-55
(1997).), While these methods can be expected to provide precise posture information, they have the problem that the degree of freedom of finger joints is large and the calculation cost is enormous. Further, no consideration has been given to avoiding occlusion, and there is a problem that estimation becomes difficult when image features that are prerequisites for processing cannot be detected by occlusion.

【0008】それゆえ、この発明の目的は、複数の手の
動きを安定して認識することが可能な手振り認識装置を
提供することである。
Therefore, an object of the present invention is to provide a hand gesture recognition device capable of stably recognizing a plurality of hand movements.

【0009】[0009]

【課題を解決するための手段】請求項1に係る手振り認
識装置は、複数の手の動きを認識する手振り認識装置で
あって、互いに異なる方向から複数の手を撮影して複数
の画像を得る複数の撮像手段と、複数の画像のうち複数
の手の動きを認識するための画像を選択的に出力する第
1選択手段と、第1選択手段で選択した画像の特徴点を
抽出し、特徴点に基づいて追跡対象とする画像を選択す
る特徴抽出手段と、複数の手のそれぞれに対応して設け
られ、対応する手の動きを追跡する複数の追跡処理手段
とを備え、複数の追跡処理手段のそれぞれは、追跡対象
とされる画像の特徴点を用いて、手の状態を予測する予
測手段と、追跡対象とされる画像に基づいて手の法線方
向の算出して、法線方向に最も近い方向から手の撮影し
た結果得られる画像を選択する第2選択手段と、第2選
択手段の選択する画像に基づき、手の形状を認識する認
識手段とを含み、第1選択手段は、複数の画像のうち前
記予測手段において前記予測した状態からオクルージョ
ンが起こりにくいと判断される画像を選択する。
According to a first aspect of the present invention, there is provided a hand gesture recognition apparatus for recognizing a plurality of hand movements, wherein a plurality of hands are photographed from different directions to obtain a plurality of images. A plurality of image pickup means, a first selection means for selectively outputting an image for recognizing a plurality of hand movements among the plurality of images, and a feature point of the image selected by the first selection means, A feature extraction unit for selecting an image to be tracked based on a point; and a plurality of tracking processing units provided for each of the plurality of hands and tracking the movement of the corresponding hand. Each of the means is a prediction means for predicting the state of the hand using the feature points of the image to be tracked, and the normal direction of the hand is calculated based on the image to be tracked. Image obtained by shooting the hand from the direction closest to And a recognition unit for recognizing the shape of the hand based on the image selected by the second selection unit, wherein the first selection unit performs the prediction in the prediction unit among a plurality of images. An image that is determined to be less likely to occlude from the state is selected.

【0010】請求項2に係る手振り認識装置は、請求項
1に係る手振り認識装置であって、特徴抽出手段は、抽
出された特徴点の位置と手の幅との比により、オクルー
ジョンの発生を検出し、オクルージョンが検出された画
像を非選択とする。
According to a second aspect of the present invention, in the first aspect of the present invention, the feature extracting unit determines occurrence of occlusion based on a ratio between the position of the extracted feature point and the width of the hand. An image for which occlusion has been detected is detected and is not selected.

【0011】請求項3に係る手振り認識装置は、請求項
2に係る手振り認識装置であって、認識手段は、第2選
択手段で選択した画像中の手の輪郭線を抽出する輪郭線
抽出手段と、輪郭線抽出手段により抽出された手の輪郭
線をP型フーリエ記述子で記述するP型フーリエ記述手
段と、P型フーリエ記述手段からのP型フーリエ記述子
に基づいて手の形状を特定する形状特定手段とを含む。
A hand gesture recognition device according to a third aspect is the hand gesture recognition device according to the second aspect, wherein the recognition unit extracts a contour line of the hand in the image selected by the second selection unit. P-type Fourier description means for describing the contour of the hand extracted by the contour-line extraction means with a P-type Fourier descriptor, and specifying the hand shape based on the P-type Fourier descriptor from the P-type Fourier description means And a shape specifying means.

【0012】[0012]

【発明の実施の形態】[実施の形態1]本発明の実施の
形態における手振り認識装置について、図面を参照しな
がら説明する。なお、図中同一または相当部分には同一
符号を付しその説明は繰返さない。本発明の実施の形態
における手振り認識装置は、異なる方向から手を撮影す
る多数の視点のなかから処理に最適な複数の視点を選択
することにより、複数の手の動き(位置、姿勢、形状を
含む)を実時間で安定して認識する。以下、一例として
右手・左手を追跡する手振り認識装置1000について
説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [Embodiment 1] A hand gesture recognition device according to an embodiment of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding portions have the same reference characters allotted, and description thereof will not be repeated. The hand gesture recognition apparatus according to the embodiment of the present invention selects a plurality of viewpoints optimal for processing from among a large number of viewpoints for photographing a hand from different directions, thereby enabling a plurality of hand movements (position, posture, shape). ) In real time. Hereinafter, the hand gesture recognition device 1000 that tracks the right hand and the left hand will be described as an example.

【0013】図1は、本発明の実施の形態1における手
振り認識装置1000の要部の構成を示すブロック図で
ある。手振り認識装置1000は、複数の視点から得ら
れる連続する画像を用いて右手・左手の動きを追跡して
いく。図1に示す手振り認識装置1000は、カメラ2
#1〜2#nと、視点選択部4と、特徴抽出部6と、追
跡処理部8と、ジェスチャ認識部14とを備える。
FIG. 1 is a block diagram showing a configuration of a main part of a hand gesture recognition device 1000 according to Embodiment 1 of the present invention. The hand gesture recognition apparatus 1000 tracks the movement of the right hand and the left hand using continuous images obtained from a plurality of viewpoints. The hand gesture recognition device 1000 shown in FIG.
# 1 to #n, a viewpoint selection unit 4, a feature extraction unit 6, a tracking processing unit 8, and a gesture recognition unit 14.

【0014】カメラ2#1〜2#nは、互いに異なる方
向から手を撮影して手の画像を得る。視点選択部4は、
複数のカメラによって得られた複数の画像の中から処理
に最適な画像を選択する。特徴抽出部6は、選択された
カメラから受ける画像を用いて距離変換値(スケルトン
値)を算出し、重心点(特徴点)を抽出する。この時点
で、手と手との間のオクルージョンが発生した画像に対
しては、形状認識の対象から外す。
The cameras 2 # 1 to 2 # n capture hands from different directions to obtain hand images. The viewpoint selection unit 4
An image optimal for processing is selected from a plurality of images obtained by a plurality of cameras. The feature extraction unit 6 calculates a distance conversion value (skeleton value) using an image received from the selected camera, and extracts a center of gravity (feature point). At this point, the image in which the occlusion between the hands has occurred is excluded from the target of shape recognition.

【0015】追跡処理部8は、左手対応の追跡部10と
右手対応の追跡部12とを含む。追跡部10、12のそ
れぞれは、後述するようにカルマンフィルタで対応する
手の動きを予測する。視点選択部4は、当該位置予測結
果に基づき次フレームにおける視点(カメラ)を選択す
る。これにより、オクルージョンの発生確率を低く抑え
ることが可能となる。
The tracking processor 8 includes a left-handed tracking unit 10 and a right-handed tracking unit 12. Each of the tracking units 10 and 12 predicts a corresponding hand movement by a Kalman filter as described later. The viewpoint selecting unit 4 selects a viewpoint (camera) in the next frame based on the position prediction result. This makes it possible to reduce the probability of occurrence of occlusion.

【0016】追跡部10、12はさらに、手の回転角に
基づき、処理対象となる1つの視点を選択して対応する
手の形状を認識する。ジェスチャ認識部14は、追跡部
10、12の結果に基づき、ジェスチャを認識する。認
識結果に対応するコマンドが、アプリケーションプログ
ラムに対して発行される。
The tracking units 10 and 12 further select one viewpoint to be processed based on the rotation angle of the hand and recognize the corresponding hand shape. The gesture recognition unit 14 recognizes a gesture based on the results of the tracking units 10 and 12. A command corresponding to the recognition result is issued to the application program.

【0017】ここで、特徴抽出部6の構成について、図
2を用いて説明する。図2は、図1に示す特徴抽出部6
の構成の概要を示すブロック図である。図2を参照し
て、特徴抽出部6は、領域分割部20#1〜20#n、
主軸検出部22#1〜22#n、回転変換部24#1〜
24#n、および特徴点算出部26#1〜26#nを含
む。領域分割部20#1〜20#n、主軸検出部22#
1〜22#n、回転変換部24#1〜24#nおよび特
徴点算出部26#1〜26#nのそれぞれは、カメラ2
#1〜2#nに対応して設けられる。
Here, the configuration of the feature extracting unit 6 will be described with reference to FIG. FIG. 2 shows the feature extraction unit 6 shown in FIG.
FIG. 2 is a block diagram showing an outline of the configuration of FIG. Referring to FIG. 2, feature extracting section 6 includes area dividing sections 20 # 1 to 20 # n,
Spindle detectors 22 # 1 to 22 # n, rotation converters 24 # 1
24 # n and feature point calculation units 26 # 1 to 26 # n. Area dividing units 20 # 1 to 20 # n, spindle detecting unit 22 #
1 to 22 # n, rotation conversion units 24 # 1 to 24 # n, and feature point calculation units 26 # 1 to 26 # n
It is provided corresponding to # 1 to #n.

【0018】以下、総称的に、領域分割部20#1〜2
0#nを領域分割部20と、主軸検出部22#1〜22
#nを主軸検出部22と、回転変換部24#1〜24#
nを回転変換部24と、特徴点算出部26#1〜26#
nを特徴点算出部26とそれぞれ記す。
Hereinafter, the area dividing units 20 # 1-2 will be generically referred to.
0 # n is assigned to the area dividing unit 20 and the spindle detecting units 22 # 1 to 22 # 22.
#N is the spindle detection unit 22, and the rotation conversion units 24 # 1 to 24 #
n is a rotation conversion unit 24 and feature point calculation units 26 # 1 to 26 #
n is described as a feature point calculator 26.

【0019】領域分割部20は、対応するカメラによっ
て得られた入力画像中の肌色領域を色情報および輝度情
報を用いて分割する。主軸検出部22は、ソーベル(So
bel)フィルタの結果から平均エッジ方向を求め、これ
を2次元上の手の方向(主軸)とする。
The area dividing section 20 divides a skin color area in an input image obtained by a corresponding camera using color information and luminance information. The spindle detection unit 22 is a sobel (So
bel) The average edge direction is obtained from the result of the filter, and this is defined as the hand direction (main axis) in two dimensions.

【0020】回転変換部24は、主軸検出部22で得ら
れた手の方向に基づいて指先が上の方を向くように画像
を回転する。特徴点算出部26は、回転変換部24の出
力を受けて、手を構成する画素の各々から手の画像の輪
郭までの最短距離を示す距離変換値を算出する。
The rotation conversion unit 24 rotates the image based on the hand direction obtained by the main axis detection unit 22 so that the fingertip points upward. The feature point calculation unit 26 receives the output of the rotation conversion unit 24 and calculates a distance conversion value indicating the shortest distance from each of the pixels constituting the hand to the contour of the image of the hand.

【0021】たとえば、領域分割部20からは、図3
(a)に示されるような入力2値画像(シルエット画
像)が出力される。主軸検出部22では、得られたシル
エット画像にソーベルフィルタを適用して手領域の平均
エッジ方向を求める。この平均エッジ方向が、図3
(b)に示されるように手の指先方向(図中記号Φ)と
みなされる(石淵耕一,岩崎圭介,竹村治雄,岸野文
郎:画像処理を用いた実時間手振り推定とヒューマンイ
ンタフェースへの応用,信学論(D-II), Vol.J79-D-I
I,No.7, pp.1218-1229(1996). )。
For example, from the area dividing section 20, FIG.
An input binary image (silhouette image) as shown in FIG. The main axis detection unit 22 obtains an average edge direction of the hand region by applying a Sobel filter to the obtained silhouette image. This average edge direction is shown in FIG.
As shown in (b), it is regarded as the fingertip direction (Φ in the figure) (Koichi Ishibuchi, Keisuke Iwasaki, Haruo Takemura, Fumio Kishino: Real-time hand gesture estimation using image processing and application to human interface, IEICE (D-II), Vol.J79-DI
I, No. 7, pp. 1218-1229 (1996).).

【0022】回転変換部24では、図3(b)で求めら
た平均エッジ方向(指先方向)Φが画像上において上方
を向くように、画像を回転する。たとえば、画像を回転
角γiだけ回転させる。これにより、図3(c)に示さ
れる画像が得られる。
The rotation converter 24 rotates the image so that the average edge direction (fingertip direction) Φ obtained in FIG. 3B is directed upward on the image. For example, the image is rotated by the rotation angle γi. Thus, the image shown in FIG. 3C is obtained.

【0023】特徴点算出部26は、図3(c)に示され
る画像を受けて、図3(d)に示される距離変換画像を
算出する。図3(d)では、距離変換値が大きい画素ほ
ど黒く表わされ、距離変換値が小さい画素ほど白く表わ
されている。したがって、手の輪郭から遠ざかるにつれ
て画素が徐々に濃くなっている。そして、距離変換値
(スケルトン値)の最も大きい点(図中記号COG)を
抽出する。これが、重心点(特徴点)となる。
The feature point calculator 26 receives the image shown in FIG. 3C and calculates the distance conversion image shown in FIG. 3D. In FIG. 3D, a pixel having a larger distance conversion value is represented as black, and a pixel having a smaller distance transformation value is represented as white. Therefore, the pixels gradually become darker as the distance from the hand outline increases. Then, a point (symbol COG in the figure) having the largest distance conversion value (skeleton value) is extracted. This is the center of gravity (feature point).

【0024】重心点間の距離をsとすると、距離sと手
のシルエットの縦方向幅wとの比(w/s)が、あるし
きい値以上より大きい場合には、手同士のオクルージョ
ンが発生していると判定する。オクルージョンが発生し
ていない画像は、追跡処理部8における追跡処理の対象
とし、オクルージョンが発生している画像については、
追跡処理の対象からはずす。
Assuming that the distance between the center of gravity points is s, if the ratio (w / s) of the distance s to the vertical width w of the silhouette of the hand is greater than a certain threshold value, the occlusion between the hands is reduced. It is determined that it has occurred. Images for which occlusion has not occurred are subjected to tracking processing in the tracking processing unit 8, and for images for which occlusion has occurred,
Remove from tracking processing.

【0025】次に、追跡処理部8について、図4を用い
て説明する。図4は、図1に示す追跡処理部8の構成の
概要を示すブロック図である。図4を参照して、追跡処
理部8は、3次元位置・方向検出部30#1〜30#
2、回転角検出部31#1〜31#2、視点選択部32
#1〜32#2、および手形状認識部33#1〜33#
2を含む。
Next, the tracking processing section 8 will be described with reference to FIG. FIG. 4 is a block diagram showing an outline of the configuration of the tracking processing unit 8 shown in FIG. Referring to FIG. 4, tracking processing unit 8 includes three-dimensional position / direction detection units 30 # 1 to 30 #.
2, rotation angle detectors 31 # 1-31 # 2, viewpoint selector 32
# 1 to 32 # 2 and hand shape recognition units 33 # 1 to 33 #
2 inclusive.

【0026】3次元位置・方向検出部30#1、回転角
検出部31#1、視点選択部32#1および手形状認識
部33#1は、左手対応の追跡部10に、3次元位置・
方向検出部30#2、回転角検出部31#2、視点選択
部32#2および手形状認識部33#2は、右手対応の
追跡部12にそれぞれ含まれる。
The three-dimensional position / direction detection unit 30 # 1, rotation angle detection unit 31 # 1, viewpoint selection unit 32 # 1, and hand shape recognition unit 33 # 1 provide a three-dimensional position / direction
The direction detecting unit 30 # 2, the rotation angle detecting unit 31 # 2, the viewpoint selecting unit 32 # 2, and the hand shape recognizing unit 33 # 2 are included in the tracking unit 12 corresponding to the right hand.

【0027】以下、総称的に、3次元位置・方向検出部
30#1〜30#2を3次元位置・方向検出部30と、
回転角検出部31#1〜31#2を回転角検出部31
と、視点選択部32#1〜32#2を視点選択部32
と、手形状認識部33#1〜33#2を手形状認識部3
3と記す。
Hereinafter, the three-dimensional position / direction detecting units 30 # 1 to 30 # 2 are generally referred to as a three-dimensional position / direction detecting unit 30,
The rotation angle detectors 31 # 1-31 # 2 are replaced with the rotation angle detector 31.
And the viewpoint selecting units 32 # 1 to 32 # 2
And the hand shape recognition units 33 # 1 to 33 # 2
Write 3.

【0028】3次元位置・方向検出部30は、追跡処理
の対象とされる画像から得られる特徴点に基づき、カル
マンフィルタで対応する手の動きを予測する。回転角検
出部31は、対応する手の回転角を検出する。視点選択
部32は、回転角検出部31の検出結果に基づき、追跡
処理の対象とされる画像(カメラ)から対応する手の形
状を認識するための画像(カメラ)を選択する。手形状
認識部33は、選択されたカメラおよび対応する手の回
転角に基づき、対応する手の形状を認識する。
The three-dimensional position / direction detection unit 30 predicts a corresponding hand movement by a Kalman filter based on feature points obtained from an image to be tracked. The rotation angle detector 31 detects the rotation angle of the corresponding hand. The viewpoint selecting unit 32 selects an image (camera) for recognizing a corresponding hand shape from an image (camera) to be tracked based on the detection result of the rotation angle detecting unit 31. The hand shape recognition unit 33 recognizes the corresponding hand shape based on the selected camera and the corresponding hand rotation angle.

【0029】3次元位置・方向検出部30について、図
5を用いて説明する。図5は、カルマンフィルタにおけ
る観測モデルについて説明するための図である。図5に
おいて、記号X、Y、Zは、世界座標系の3軸を、添字
iはカメラの番号を、添字jは左手または右手をそれぞ
れ表わす。なお、画像1は、カメラ2♯iの観測によっ
て得られる。
The three-dimensional position / direction detector 30 will be described with reference to FIG. FIG. 5 is a diagram for describing an observation model in the Kalman filter. In FIG. 5, symbols X, Y, and Z represent three axes of the world coordinate system, a subscript i represents a camera number, and a subscript j represents a left hand or a right hand, respectively. Note that the image 1 is obtained by observation of the camera 2 # i.

【0030】位置(Xhj,Yhj,Zhj)にある手
(左手または右手)が、位置(Xci,Yci)にある
カメラ2♯i(i=1〜nのいずれか)により観測され
ているものとする。ここで、この観測はガウス誤差を含
んでいるものとする(共分散をΣで表わす)。
It is assumed that the hand (left hand or right hand) at the position (Xhj, Yhj, Zhj) is observed by the camera 2 # i (i = 1 to n) at the position (Xci, Yci). I do. Here, this observation is assumed to include a Gaussian error (covariance is represented by Σ).

【0031】ここで、Lhj,iを、手hjとカメラ2
♯iとの距離、liを、カメラCiの焦点距離とする。
また、whj,iをエピポーラ線とY−Z平面との角
度、vhj,iをZ軸とエピポーラ線のY−Z平面への
投影結果との角度とする。さらに、Rwhj,i、Rv
hj,iを、対応するエピポーラ線を回転してZ軸に平
行にするための回転行列とする。
Here, Lhj, i is the hand hj and the camera 2
距離 Let the distance to i, li be the focal length of the camera Ci.
Also, let whj, i be the angle between the epipolar line and the YZ plane, and let vhj, i be the angle between the Z axis and the projection result of the epipolar line on the YZ plane. Further, Rwhj, i, Rv
Let hj, i be a rotation matrix for rotating the corresponding epipolar line to make it parallel to the Z-axis.

【0032】手が一定の速度で動くものと仮定すると、
点の位置Xhj,tは、式(1)〜(4)で表わされ
る。なお、式(2)〜(4)は、X、Y、Z軸における
手hjの速度をそれぞれ表わしている。なお、行列に付
される“′”の記号は、転置を意味する。
Assuming that the hand moves at a constant speed,
The position Xhj, t of the point is represented by equations (1) to (4). Expressions (2) to (4) represent the speed of the hand hj on the X, Y, and Z axes, respectively. The symbol "'" added to the matrix means transposition.

【0033】[0033]

【数1】 (Equation 1)

【0034】手hjが、N個のカメラで観測されたもの
とする。∧Xhj,t−1を、時刻(t−1)における
手hjの位置の推定値とし、∧Shj,t−1を推定値
∧Xhj,t−1の分散行列とする。時刻tでの状態
は、式(5)〜(7)で表現される。なお、以下の式に
おいては、添字“∧”、“/”はそれぞれ、対応する変
数の上に標記するものとする。
It is assumed that the hand hj is observed by N cameras. ∧Xhj, t-1 is an estimated value of the position of the hand hj at time (t-1), and ∧Shj, t-1 is a variance matrix of the estimated value ∧Xhj, t-1. The state at time t is expressed by equations (5) to (7). In the following formulas, the subscripts “∧” and “/” are respectively described above the corresponding variables.

【0035】[0035]

【数2】 (Equation 2)

【0036】行列Fは、遷移行列を、行列Qは、遷移に
おいて発生する誤差の共分散行列をそれぞれ表わしてい
る。ここで、カメラ2♯iの状態Ciを式(8)と表わ
すと、カメラの状態とエピポーラ軸whj,i、vh
j,iとにより、式(9)〜(10)の観測式が得られ
る。なお、式(9)のeは、観測誤差を表わしている
(平均を[0 0]′、共分散行列をΣhj,iとす
る)。共分散行列Σhj,iは、観測するカメラからの
距離が大きくなるにつれて増大すると考え、式(11)
のように表わす。カメラ2♯iと手hjとの実際の距離
Lhj,iは未知数のため、カメラ2♯iと予測位置/
Hhj,tとの距離/Lhj,i,tを近似値として使
用する。
The matrix F represents a transition matrix, and the matrix Q represents a covariance matrix of errors occurring in transitions. Here, if the state Ci of the camera 2♯i is expressed by Expression (8), the state of the camera and the epipolar axes whj, i, vh
The observation formulas (9) to (10) are obtained from j and i. Note that e in equation (9) represents an observation error (the mean is [0 0] ', and the covariance matrix is Σhj, i). Considering that the covariance matrix Σhj, i increases as the distance from the camera to be observed increases, Equation (11)
It is expressed as follows. Since the actual distance Lhj, i between the camera 2 @ i and the hand hj is unknown, the camera 2 @ i and the predicted position /
The distance / Lhj, i, t from Hhj, t is used as an approximate value.

【0037】[0037]

【数3】 (Equation 3)

【0038】式(9)の観測式は、左辺が観測情報を表
わし、右辺が手の位置を画像に投影した結果を表わして
いる。これらの観測結果および推定値(式(5)、
(6))により、手hjの状態が式(12)および(1
3)に示すように更新(予測)される。なお、式(1
2)および(13)におけるΣiは、1つの手に関し
て、追跡可能な全ての画像(オクルージョンを発生させ
ない画像)について総和を取ることを表わしている。
In the observation formula (9), the left side represents the observation information, and the right side represents the result of projecting the position of the hand on the image. These observations and estimates (Equation (5),
According to (6)), the state of the hand hj is determined by the equations (12) and (1).
It is updated (predicted) as shown in 3). Note that the expression (1)
Σi in 2) and (13) indicates that the sum of all traceable images (images that do not cause occlusion) is calculated for one hand.

【0039】[0039]

【数4】 (Equation 4)

【0040】このようにして、観測モデルの3次元位置
および速度が更新される。なお、方向についても、同様
に予測可能である。
Thus, the three-dimensional position and velocity of the observation model are updated. Note that the direction can be similarly predicted.

【0041】カルマンフィルタは、予測値をガウス分布
で与える。図1に示す視点選択部4では、予測位置と特
徴点との対応付けを行なう。より具体的には、予測位置
を示すガウス分布N(/Xhj,t、/Shj,t)を
それぞれ画像上に弱透視投影する。そして、マハラノビ
ス距離を用いて、投影した分布と特徴点との近さを算出
する。投影した分布にもっとも近い特徴点によりフィル
タを更新する。
The Kalman filter gives a predicted value in a Gaussian distribution. The viewpoint selecting unit 4 shown in FIG. 1 associates a predicted position with a feature point. More specifically, the Gaussian distribution N (/ Xhj, t, / Shj, t) indicating the predicted position is weakly perspective projected on the image. Then, the proximity between the projected distribution and the feature point is calculated using the Mahalanobis distance. The filter is updated with the feature points closest to the projected distribution.

【0042】追跡処理部8および視点選択部4の有効性
を説明するため、図7〜図8に示す実験を行なった。図
7〜図8は、連続するシーケンスにおいて右手と左手と
を追跡した実験結果を示す図である。5台のカメラを配
置し、右手と左手とをX軸方向において微小な距離で交
わらせた場面を撮影する。図7(a)は、X軸方向の追
跡結果を、図7(b)は、Y軸方向の追跡結果を、図7
(c)は、Z軸方向の追跡結果をそれぞれ示している。
図7(a)から、手振り認識装置1000は、近接する
右手(記号“+”)と左手(記号“◇”)とを追跡して
いることがわかる。
In order to explain the effectiveness of the tracking processing unit 8 and the viewpoint selecting unit 4, experiments shown in FIGS. FIG. 7 and FIG. 8 are diagrams showing experimental results of tracking the right hand and the left hand in a continuous sequence. Five cameras are arranged, and a scene in which the right hand and the left hand cross at a small distance in the X-axis direction is photographed. 7A shows a tracking result in the X-axis direction, and FIG. 7B shows a tracking result in the Y-axis direction.
(C) shows the tracking results in the Z-axis direction, respectively.
From FIG. 7A, it can be seen that the hand gesture recognition apparatus 1000 is tracking the right hand (symbol “+”) and the left hand (symbol “◇”) that are close to each other.

【0043】図8は、図7に対する視点選択部4の処理
結果を示す図である。図8の縦軸は、カメラを示し、横
軸はフレームを示している。図8において、各記号は、
各フレームにおいて選択されたカメラを示している。図
8では、各フレームにおいて、3つの視点が選択されて
いる。なお、図中、記号“×”、記号“□”はそれぞ
れ、後の処理で右手、左手の形状認識に使われた視点を
示している。手の予測位置に従ってカメラを切替えなが
ら手を追跡することにより、2つの手を適切に追跡して
いることがわかる。
FIG. 8 is a diagram showing the processing result of the viewpoint selecting unit 4 with respect to FIG. The vertical axis in FIG. 8 indicates a camera, and the horizontal axis indicates a frame. In FIG. 8, each symbol is
The camera selected in each frame is shown. In FIG. 8, three viewpoints are selected in each frame. In the drawing, the symbol “x” and the symbol “□” indicate the viewpoints used for the shape recognition of the right and left hands, respectively, in later processing. By tracking the hand while switching the camera according to the predicted position of the hand, it can be seen that the two hands are properly tracked.

【0044】次に、図4で説明した回転角検出部31に
ついて説明する。手の位置および主軸の方向はすでに求
められているので、回転角検出部31は、所定の手のひ
らモデルに基づき、残る手の主軸周りの回転角を重心点
のスケルトン値から推定する。図9は、回転角検出部3
1における手のひらモデルを用いた回転角の検出につい
て説明するための図である。図9を参照して、手のひら
モデルとして、楕円体を用いる。重心点のスケルトン値
を、カメラ2♯iで撮影された画像上における楕円体の
幅sとする。弱透視変換を仮定すると、光軸と手のひら
モデルの回転軸の長軸とがなす角θと、重心点のスケル
トン値sとの関係は、式(14)に従うことになる。式
(14)におけるLは、手の位置とカメラ2との距離、
aおよびbは定数を表わしている。ここで、θは、手の
ひらの回転角を意味する。なお、定数a,bは、予めサ
ンプルデータを用いて決定しておく。観測がガウス誤差
を含む仮定すると、m個のカメラで観測される重心スケ
ルトン値s1,…,smに対して確率P(s1,…,s
k|θ)を最大にする値θが、手の主軸周りの回転角と
なる(式(15)〜(16)参照)。
Next, the rotation angle detector 31 described with reference to FIG. 4 will be described. Since the position of the hand and the direction of the main axis have already been obtained, the rotation angle detection unit 31 estimates the rotation angle around the main axis of the remaining hand from the skeleton value of the center of gravity based on a predetermined palm model. FIG. 9 shows the rotation angle detector 3.
FIG. 2 is a diagram for describing detection of a rotation angle using a palm model in FIG. Referring to FIG. 9, an ellipsoid is used as a palm model. The skeleton value of the center of gravity is defined as the width s of the ellipsoid on the image captured by the camera 2 # i. Assuming the weak perspective transformation, the relationship between the angle θ between the optical axis and the long axis of the rotation axis of the palm model and the skeleton value s of the center of gravity follows Expression (14). L in equation (14) is the distance between the position of the hand and the camera 2;
a and b represent constants. Here, θ means the rotation angle of the palm. Note that the constants a and b are determined in advance using sample data. Assuming that the observations include Gaussian errors, the probability P (s1,..., S for the centroid skeleton values s1,.
The value θ that maximizes k | θ) is the rotation angle around the main axis of the hand (see equations (15) to (16)).

【0045】[0045]

【数5】 (Equation 5)

【0046】この手法により、姿勢推定におけるステレ
オマッチングの必要性がなくなる。これにより、推定の
安定性が増す。なお、重心点のスケルトン値は、指曲げ
などの形状変化の影響を受けにくい。このため、回転角
検出部31により算出される手の主軸周りの回転角は、
形状変化に対して安定しているという特徴を有する。
This method eliminates the need for stereo matching in posture estimation. This increases the stability of the estimation. Note that the skeleton value at the center of gravity is hardly affected by shape changes such as finger bending. For this reason, the rotation angle around the main axis of the hand calculated by the rotation angle detection unit 31 is
It has the feature that it is stable against shape changes.

【0047】図10は、回転角検出部31の有効性を説
明するための実験結果を示す図である。図10(b)の
白黒画像に表わされる5つの異なる手の形状について回
転角を検出した。図10(a)のグラフ上における各々
のドットは回転角検出部31により検出された角度を、
点線は参考のため磁気センサーを用いて計測した回転角
をそれぞれ示している。図10(a)に示すように、回
転角検出部31は、手の形状に影響されることなく回転
角を検出することが可能であることがわかる。
FIG. 10 is a diagram showing experimental results for explaining the effectiveness of the rotation angle detecting unit 31. In FIG. The rotation angles were detected for five different hand shapes shown in the black and white image of FIG. 10B. Each dot on the graph of FIG. 10A indicates the angle detected by the rotation angle detection unit 31.
The dotted lines indicate the rotation angles measured using a magnetic sensor for reference. As shown in FIG. 10A, it is understood that the rotation angle detection unit 31 can detect the rotation angle without being affected by the shape of the hand.

【0048】次に、図4で説明した視点選択部32につ
いて説明する。視点選択部32は、回転角検出部31か
ら出力される回転角に基づき、オクルージョンが発生し
ていない視点(カメラ)のなかから、手のひらに対して
最も垂直に近い光軸を持つカメラを選択する。より具体
的には、手の指先方向(主軸)と手の主軸周りの回転角
とを定めることにより、図11に示すような手のひらの
法線ベクトルNを定めることができる。図11に示され
るようにカメラ2♯iの光軸ベクトルをCiとしたと
き、光軸ベクトルCiが法線ベクトルNとなす角度θi
が最小になるカメラiが選択される。手指間のオクルー
ジョンは、手のひらを正面から撮影する場合に最も起こ
りにくいため、このような視点の選択によりオクルージ
ョンを回避することができる。
Next, the viewpoint selecting section 32 described with reference to FIG. 4 will be described. Based on the rotation angle output from the rotation angle detection unit 31, the viewpoint selection unit 32 selects a camera having an optical axis that is most perpendicular to the palm from viewpoints (cameras) in which occlusion has not occurred. . More specifically, the normal vector N of the palm as shown in FIG. 11 can be determined by determining the fingertip direction (main axis) of the hand and the rotation angle about the main axis of the hand. As shown in FIG. 11, when the optical axis vector of the camera 2 # i is Ci, the angle θi that the optical axis vector Ci forms with the normal vector N
Is selected. Since occlusion between fingers is most unlikely to occur when a palm is photographed from the front, occlusion can be avoided by selecting such a viewpoint.

【0049】図12は、視点選択部32の有効性を説明
するための実験結果を示す図である。図12に示す実験
では、3つのカメラを等間隔に配置し、中央のカメラ
(図中記号カメラ1)を中心として手の姿勢を変化させ
た。図12(a)は、各フレームにおいて検出した回転
角を、図12(b)は、図12(a)に対応して選択さ
れたカメラを示している。この結果から、手のひらの回
転角の変化に伴い、逐次、3つのカメラから最も適切な
1つのカメラが選択されることがわかる。
FIG. 12 is a diagram showing experimental results for explaining the effectiveness of the viewpoint selecting unit 32. In the experiment shown in FIG. 12, three cameras were arranged at equal intervals, and the posture of the hand was changed around the center camera (the symbol camera 1 in the figure). FIG. 12A shows a rotation angle detected in each frame, and FIG. 12B shows a camera selected corresponding to FIG. 12A. From this result, it can be understood that the most appropriate one camera is sequentially selected from the three cameras as the rotation angle of the palm changes.

【0050】次に、図4で説明した手形状認識部33に
ついて説明する。手形状認識部33では、対応する視点
選択部32で選択された画像を用いて、P型フーリエ記
述素子により対応する手の形状を判別する。
Next, the hand shape recognition section 33 described with reference to FIG. 4 will be described. The hand shape recognition unit 33 determines a corresponding hand shape by a P-type Fourier description element using the image selected by the corresponding viewpoint selection unit 32.

【0051】図13は、手形状認識部33の構成を示す
ブロック図である。図13に示すように、手形状認識部
33は、視点選択部32により選択されたカメラからの
手の画像に基づいてその画像中の手の輪郭線を抽出する
輪郭線抽出部81と、輪郭線抽出部81により抽出され
た手の輪郭線を、回転角検出部31により算出された法
線ベクトルに一致する方向から手を撮影したならば得ら
れたであろう手の輪郭線に補正する輪郭線補正部82
と、輪郭線抽出部81により抽出されかつ輪郭線補正部
82により補正された手の輪郭線をP型フーリエ記述子
で記述するP型フーリエ記述部83と、P型フーリエ記
述部83からのP型フーリエ記述子に含まれる複数のフ
ーリエ係数のうち所定次数よりも低い次数のフーリエ係
数をそれぞれベクトル成分とする特徴ベクトルを算出す
る特徴ベクトル算出部84と、手の形状と特徴ベクトル
との関係を学習するために複数の既知形状を有する手を
撮影して得た多数のサンプル画像に基づいてもし撮影さ
れた手の形状がある既知形状であったならば得られたで
あろう確率を定義する確率定義部85と、確率定義部8
5により定義された確率に基づいて上記複数の既知形状
のうち特徴ベクトル算出部84により算出された特徴ベ
クトルが得られる確率が最も高い既知形状を手の形状と
して選択する形状選択部86とを含む。すなわち、特徴
ベクトル算出部84、確率定義部85および形状選択部
86は、P型フーリエ記述部83からのP型フーリエ記
述子に基づいて手の形状を特定し、その形状を認識結果
として出力する。
FIG. 13 is a block diagram showing the configuration of the hand shape recognition unit 33. As shown in FIG. 13, the hand shape recognition unit 33 includes a contour extraction unit 81 that extracts a contour of the hand in the image based on the image of the hand from the camera selected by the viewpoint selection unit 32, The outline of the hand extracted by the line extraction unit 81 is corrected to the outline of the hand that would have been obtained if the hand was photographed from a direction that matches the normal vector calculated by the rotation angle detection unit 31. Contour correction unit 82
And a P-type Fourier description unit 83 that describes the outline of the hand extracted by the outline extraction unit 81 and corrected by the outline correction unit 82 using a P-type Fourier descriptor. A feature vector calculation unit 84 that calculates a feature vector having a Fourier coefficient of a lower order than a predetermined order as a vector component among a plurality of Fourier coefficients included in the type Fourier descriptor, and a relation between the shape of the hand and the feature vector. Based on a number of sample images obtained by capturing a hand with multiple known shapes for learning, define the probability that the captured hand shape would have been obtained if it had a known shape Probability definition unit 85 and probability definition unit 8
And a shape selecting unit 86 that selects, as a hand shape, a known shape having the highest probability of obtaining the feature vector calculated by the feature vector calculating unit 84 among the plurality of known shapes based on the probability defined by the step S5. . That is, the feature vector calculation unit 84, the probability definition unit 85, and the shape selection unit 86 specify a hand shape based on the P-type Fourier descriptor from the P-type Fourier description unit 83, and output the shape as a recognition result. .

【0052】次に、このように構成された手形状認識部
の動作について説明する。輪郭線抽出部81では、選択
されたカメラ2♯iの画像から手の輪郭線が抽出され
る。ここでは、特に手形状を特徴付ける手指部分の輪郭
線のみが抽出される。上述したように、入力2値画像は
重心点(特徴点)検出の前処理として指先が上方を向く
よう角度γiの回転変換を受けているため、図14に示
されるように、手の領域内で重心点よりも上方部分のみ
の輪郭線を抽出することで手指部分の形状が得られる。
より具体的には、図14に示されるようなシルエット画
像上で重心点よりも上方に位置する白色画素のうち黒色
画素に隣接する画素が輪郭線として抽出される。ここ
で、輪郭線の抽出は右回りとして、抽出した各画素の座
標を(a(t),b(t))とする(t=0,…,m−
1,mは輪郭線を構成する全画素数)。
Next, the operation of the thus configured hand shape recognition unit will be described. The contour extraction unit 81 extracts a contour of the hand from the image of the selected camera 2 # i. Here, only the outline of the finger portion that particularly characterizes the hand shape is extracted. As described above, since the input binary image has been subjected to the rotation transformation of the angle γi so that the fingertip is directed upward as preprocessing for the detection of the center of gravity (feature point), as shown in FIG. By extracting the contour of only the portion above the center of gravity, the shape of the finger portion can be obtained.
More specifically, a pixel adjacent to a black pixel among white pixels located above the center of gravity on a silhouette image as shown in FIG. 14 is extracted as a contour line. Here, the outline is extracted clockwise, and the coordinates of each extracted pixel are set to (a (t), b (t)) (t = 0,..., M−
1, m is the total number of pixels constituting the contour line).

【0053】このようにして抽出された輪郭線は、手の
ひらの法線ベクトルNとカメラ2♯iの光軸ベクトルC
iのなす角θiの変化に応じて、投影による変形を受け
ている。そこで、輪郭線補正部82では、抽出された手
の輪郭線が、手のひらを正面から撮影したならば得られ
たはずの輪郭線に補正される。より具体的には、カメラ
選択の結果、θi<<90°であると考え、弱透視変換
を仮定すると、観測される画像は、図11に示されるよ
うに手の法線ベクトルNをカメラiの撮像面に投影した
Ni′の方向(画像内の水平軸xCiとなす角をφiとす
る。)にcosθi倍の縮小を受けていることになる。
そこで、抽出された輪郭線の各画素の座標(a(t),
b(t))は、次の式(17)で補正され、(a′
(t),b′(t))となる(t=0,…,m−1)。
ここで、R(α)は角度αの回転変換行列である。
The contour line extracted in this way is composed of the normal vector N of the palm and the optical axis vector C of the camera 2♯i.
In response to a change in the angle θi made by i, the image is deformed by projection. Therefore, the contour correction unit 82 corrects the extracted contour of the hand to a contour that would have been obtained if the palm was photographed from the front. More specifically, assuming that θi << 90 ° as a result of the camera selection and assuming a weak perspective transformation, the observed image has a camera normal vector N as shown in FIG. Is reduced by cos θi times in the direction of Ni ′ projected on the image pickup surface (the angle between the horizontal axis x Ci in the image and φi).
Therefore, the coordinates (a (t),
b (t)) is corrected by the following equation (17), and (a ′)
(T), b '(t)) (t = 0,..., M-1).
Here, R (α) is a rotation transformation matrix of the angle α.

【0054】[0054]

【数6】 (Equation 6)

【0055】P型フーリエ記述部83では、抽出された
輪郭線が折れ線で近似され、P型フーリエ記述子で記述
される。P型フーリエ記述子は、上坂によって提案され
たもので(上坂吉則:開曲線にも適用できる新しいフー
リエ記述子,信学論(A),Vol.J67-A, No.3, PP.166-
173 (1984). )、種々のパターンを少ないパラメータ
で記述できる、平行移動・拡大縮小について不変であ
る、開曲線に適用できるといった形状認識に優れた特徴
を持ち、これまでにも部品形状の認識(伊藤豪俊,平田
達也,石井直宏:フーリエ記述子を用いた部品の形状認
識と処理,信学論(D),Vol.J71-D, No.6, pp.1065-1
073 (1988). )、文字認識(大友照彦,原健一:P型
フーリエ記述子を用いたオンライン手書き漢字認識,情
処学論,Vol.34, No.2, pp.281-288(1993). )、人間
の横顔認識(相原恒博,大上健二,松岡靖:人間の横顔
認識におけるP型フーリエ記述子の有効成分の個数につ
いて,信学論(D-II), Vol.J74-DII, No.10, pp.1486-
1487(1991). )などに広く利用されてきたものであ
る。
In the P-type Fourier description unit 83, the extracted contour is approximated by a polygonal line, and is described by a P-type Fourier descriptor. The P-type Fourier descriptor was proposed by Kamisaka (Yoshinori Uesaka: New Fourier descriptor applicable to open curves, IEICE (A), Vol.J67-A, No.3, PP.166-
173 (1984).), Which has excellent features in shape recognition, such as being able to describe various patterns with few parameters, being invariant in translation and scaling, and being applicable to open curves. (Toshiya Ito, Tatsuya Hirata, Naohiro Ishii: Shape Recognition and Processing of Parts Using Fourier Descriptors, IEICE (D), Vol.J71-D, No.6, pp.1065-1
073 (1988).), Character Recognition (Tomohiko Otomo, Kenichi Hara: Online Handwritten Kanji Character Recognition Using P-Type Fourier Descriptors, Theory of Information Processing, Vol.34, No.2, pp.281-288 (1993) ), Human Profile Recognition (Tsunehiro Aihara, Kenji Ohgami, Yasushi Matsuoka: Number of active components of P-type Fourier descriptor in human profile recognition, IEICE (D-II), Vol.J74-DII, No.10, pp.1486-
1487 (1991).).

【0056】P型フーリエ記述子では、2次元の曲線を
複素平面上の点列と考え、長さの等しい線分からなる折
れ線で近似する。折れ線の各頂点をz(j)=x(j)
+iy(j)とするとき(|z(j+1)−z(j)|
=δ;j=0,…,n−1)、各折れ線をその長さδで
正規化して、式(18)で表わされるような折れ線のP
表現w(j)を得る。そして、w(j)の離散フーリエ
展開により、フーリエ係数c(k)が式(19)により
求まる。
In the P-type Fourier descriptor, a two-dimensional curve is considered as a sequence of points on a complex plane, and is approximated by a polygonal line composed of line segments having the same length. Each vertex of the polygonal line is represented by z (j) = x (j)
+ Iy (j) (| z (j + 1) -z (j) |
= Δ; j = 0,..., N−1), each polygonal line is normalized by its length δ, and the P of the polygonal line represented by the equation (18) is obtained.
Obtain the expression w (j). Then, a Fourier coefficient c (k) is obtained by Expression (19) by discrete Fourier expansion of w (j).

【0057】[0057]

【数7】 (Equation 7)

【0058】ここで、係数の集合{c(k);k=−
N,…,0,…,N}がN時のP型フーリエ記述子であ
る。この実施の形態では、c(k)の大きさ|c(k)
|を輪郭線の記述に利用する。
Here, a set of coefficients {c (k); k = −
N,..., 0,..., N} are P-type Fourier descriptors at the time of N. In this embodiment, the magnitude of c (k) | c (k)
Is used to describe the outline.

【0059】特徴ベクトル算出部84では、P型フーリ
エ記述子{c(k)}に含まれるフーリエ係数のうち所
定次数よりも低い次数の(2N+1)個(たとえばN=
4または5)のフーリエ係数を用いて式(20)で定義
される特徴ベクトルVが算出される。ここで、At はベ
クトルAの転置ベクトルを表わす。
The feature vector calculator 84 calculates (2N + 1) (for example, N = 4) orders lower than a predetermined order among the Fourier coefficients included in the P-type Fourier descriptor {c (k)}.
The feature vector V defined by equation (20) is calculated using the Fourier coefficients of 4 or 5). Here, A t represents the transposed vector of the vector A.

【0060】[0060]

【数8】 (Equation 8)

【0061】確率定義部85では、手形状の認識に先立
ち、手のいくつかの既知形状と特徴ベクトルの対応関係
が学習され、各形状sごとに特徴ベクトルVが観測され
る確率P(V|s)が式(21)で表わされる正規分布
により定義される。
Prior to recognizing the hand shape, the probability definition unit 85 learns the correspondence between some known shapes of the hand and the feature vector, and the probability P (V |) that the feature vector V is observed for each shape s. s) is defined by the normal distribution represented by equation (21).

【0062】[0062]

【数9】 (Equation 9)

【0063】ここで、Vmsは、ある既知形状の手を撮
影して得られた多数のサンプル画像に基づいて算出され
たその既知形状sの特徴ベクトルVの平均ベクトル(た
とえば多数の特徴ベクトルのベクトル成分の平均値をベ
クトル成分とするもの)である。また、Σsは行分散行
列である。このような確率関数が各既知形状ごとに予め
用意される。
Here, Vms is an average vector (for example, a vector of a large number of feature vectors) of the feature vector V of the known shape s calculated based on a large number of sample images obtained by photographing a hand having a known shape. The average value of the components as a vector component). Σs is a row variance matrix. Such a probability function is prepared in advance for each known shape.

【0064】形状選択部86では、算出された特徴ベク
トルVが得られる確率が最も高い既知形状が手の形状と
して選択される。すなわち、算出された特徴ベクトルV
が観測される確率P(V|s)がすべての既知形状sに
ついて求められ、その求められた確率P(V|s)が最
大になる既知形状sがこの場合の手の形状として認識さ
れる。
The shape selecting section 86 selects a known shape having the highest probability of obtaining the calculated feature vector V as a hand shape. That is, the calculated feature vector V
Is obtained for all the known shapes s, and the known shape s at which the obtained probability P (V | s) is maximized is recognized as the hand shape in this case. .

【0065】以上のように、手の姿勢に基づいて形状認
識に用いる最適なカメラを選択しているため、オクルー
ジョンを回避し、手の形状を安定して認識することがで
きる。また、画像から抽出した手の輪郭を記述するため
に、形状の画像内の平行移動、拡大・縮小などに対して
不変なP型フーリエ記述子を用いているため、上記カメ
ラ選択と組合せることにより手の姿勢に関係なく手形状
を安定して認識することができる。
As described above, since the optimal camera used for shape recognition is selected based on the posture of the hand, occlusion can be avoided and the shape of the hand can be recognized stably. Also, in order to describe the outline of the hand extracted from the image, a P-type Fourier descriptor that is invariant to translation, enlargement / reduction, etc. in the image of the shape is used. Thereby, the hand shape can be stably recognized regardless of the posture of the hand.

【0066】また、抽出した手の輪郭線を手のひらの垂
直方向に一致する方向から手を撮影したならば得られた
であろう手の輪郭線に補正しているため、選択されたカ
メラが手のひらを真正面から撮影していない場合であっ
ても正確に手の形状を認識することができる。
Since the extracted contour of the hand is corrected to the contour of the hand that would have been obtained if the hand was photographed from a direction that coincides with the vertical direction of the palm, the selected camera is Can be accurately recognized even when the image is not taken directly in front of the camera.

【0067】また、相対的に低い次数のフーリエ係数を
用いて特徴ベクトルVを算出しているため、抽出された
手の輪郭線に含まれる高周波ノイズ(高次フーリエ係数
として現れる)を除去し、真の手の輪郭線(低次フーリ
エ係数として現れる)のみを正確に特定することができ
る。その結果、手形状をより安定して認識することがで
きる。
Since the feature vector V is calculated using the Fourier coefficients of a relatively low order, high-frequency noise (appearing as higher-order Fourier coefficients) contained in the extracted hand contour is removed. Only true hand contours (appearing as low-order Fourier coefficients) can be accurately identified. As a result, the hand shape can be more stably recognized.

【0068】なお、上記式では、カメラ選択において手
のひらの表裏の違いが考慮されておらず、そのため、同
じ手形状について表裏2種類の画像入力があり得る。こ
のような輪郭線の左右の判定に対し、得られるP型フー
リエ記述子の式(22)で表わされる。ここで、c′
(k)は反転後の係数を示し、c(−k)の上線はその
共役複素数を示す。そこで、手の表裏の判定を考慮し、
式(23)で表わされるように特徴ベクトルVの成分を
並べ変えたV* を定義する。
In the above equation, the difference between the front and back of the palm is not taken into account in the camera selection. Therefore, two types of image input can be performed for the same hand shape. Such determination of the left and right of the contour is represented by Expression (22) of the obtained P-type Fourier descriptor. Where c ′
(K) indicates the coefficient after inversion, and the upper line of c (-k) indicates its conjugate complex number. Therefore, considering the judgment of the front and back of the hand,
Define V * in which the components of the feature vector V are rearranged as represented by equation (23).

【0069】[0069]

【数10】 (Equation 10)

【0070】手形状の認識においては、P(V|s)お
よびP(V* |s)の両方を評価することで、入力画像
の表裏の違いに対応する。すなわち、選択画像から抽出
された輪郭線からV,V* を計算し、すべての形状sに
対するP(V|s)、P(V * |s)のうち最大値をと
る分布を選択し、対応する形状sを認識結果とする。
In recognizing the hand shape, P (V | s) and
And P (V*| S) to evaluate the input image
Corresponds to the difference between the front and back. That is, extracted from the selected image
V, V from the contour*And calculate all the shapes s
P (V | s), P (V *| S)
Is selected, and the corresponding shape s is set as a recognition result.

【0071】[0071]

【実施例】以下の実験のために、次のように画像の撮影
を行なった。実験では、図6に示すように、同心円上に
中央に向けて所定の間隔で5台のカメラを配置し、手を
撮影する。図15に示す7種類の手形状shape 1〜7そ
れぞれについて約600フレーム分の画像を撮影した。
撮影画像は、手のひらの回転と移動を含む。5台のカメ
ラで得られた画像は5台の追記型ビデオディスクに記録
した後に、コマ送りにより1フレームごとに処理した。
全フレームのうち300フレームを学習用に、残りを認
識実験用に用いた。
EXAMPLES For the following experiments, images were taken as follows. In the experiment, as shown in FIG. 6, five cameras are arranged at predetermined intervals on the concentric circle toward the center, and the hand is photographed. Images of about 600 frames were taken for each of the seven types of hand shapes 1 to 7 shown in FIG.
The captured image includes rotation and movement of the palm. Images obtained by the five cameras were recorded on five write-once video disks, and then processed frame by frame by frame advance.
Of all the frames, 300 frames were used for learning, and the rest were used for recognition experiments.

【0072】パラメータ学習時には、各形状について処
理フレームの画像から上記実施の形態で述べた方法によ
り特徴ベクトルV0 を抽出した。2フレーム以降につい
ては、特徴ベクトルV,V* のうち、ユークリッド距離
が特徴ベクトルV0 に近いものを選んで記録した。形状
ごとに得られた、300サンプルの特徴ベクトルをもと
に上記実施の形態で述べた確率分布を決定した。
At the time of parameter learning, a feature vector V 0 was extracted from the image of the processing frame for each shape by the method described in the above embodiment. For two frames later, feature vector V, of V *, the Euclidean distance is recorded by selecting those closer to the feature vector V 0. The probability distribution described in the above embodiment was determined based on the feature vectors of 300 samples obtained for each shape.

【0073】認識実験用の各形状約300フレームの画
像に対する形状認識結果を図16に示す。図16に示さ
れるように、いずれの形状についても87%以上、特に
形状shape 1,2,6,7について99%以上という安
定した認識結果が得られた。これにより、この発明によ
る手振り認識装置の有効性が示されたといえる。なお、
形状shape 3,4,5については自己オクルージョンに
よる誤判別を起こしていると考えられるが、このような
オクルージョンによる誤判別は、視点数の増加により視
点選択の機会を増やすことにより回避することができ
る。
FIG. 16 shows a shape recognition result for an image of about 300 frames for each shape for a recognition experiment. As shown in FIG. 16, a stable recognition result of 87% or more was obtained for all the shapes, and particularly 99% or more for the shapes 1, 2, 6, and 7. Thus, it can be said that the effectiveness of the hand gesture recognition device according to the present invention has been demonstrated. In addition,
It is considered that erroneous determination due to self-occlusion is caused for shapes shape 3, 4, and 5, but such erroneous determination due to occlusion can be avoided by increasing the number of viewpoints and increasing the opportunity for viewpoint selection. .

【0074】上述した手振り認識装置を利用し、対話的
に仮想空間を操作できるシステムを構築した。利用者
は、手振りによってコマンドを発することで、基本的な
形状を有する3次元の仮想物体を作成し、仮想物体の配
置・削除・拡大縮小などの操作を行なうことができる。
Using the above-described hand gesture recognition device, a system capable of interactively operating a virtual space was constructed. By issuing a command by hand gesture, a user can create a three-dimensional virtual object having a basic shape and perform operations such as arranging, deleting, and scaling the virtual object.

【0075】実験では、図17に示すコマンドを、図1
6に示す7種類の手形状に対応させた。図17における
“手の位置”は、利用者の手が、仮想物体の内側にある
か外側にあるかを示している。また、図17における
“形状遷移”は、手の形状の変化を意味する。形状shap
e 7の提示後、他の形状shape 1〜6を提示することで
コマンドが実行あるいは開始される。
In the experiment, the command shown in FIG.
Six types of hand shapes shown in FIG. The “hand position” in FIG. 17 indicates whether the user's hand is inside or outside the virtual object. “Shape transition” in FIG. 17 means a change in the shape of the hand. Shape shap
After the presentation of e7, the command is executed or started by presenting the other shapes 1-6.

【0076】コンピュータグラフィックスで表示される
仮想空間には、図18〜図19に示すように、利用者の
手の3次元位置を表わす指示ポインタが描画されてお
り、利用者は自分の手を動かすことにより操作対象とな
る仮想物体の内部にポインタを移動させることで、操作
対象を直接指定することができる。
In the virtual space displayed by the computer graphics, as shown in FIGS. 18 to 19, an instruction pointer indicating the three-dimensional position of the user's hand is drawn. By moving the pointer inside the virtual object to be operated by moving the object, the operation object can be directly designated.

【0077】「作成」(手の軌道に沿って仮想物体の形
状を特定する)コマンドでは、手を閉じる(shape7→
1)。そして、手を動かすことで軌道を描く。閉じた手
を開いて「作成」コマンドを終了させると、仮想物体が
作成される。
The “create” (specify the shape of the virtual object along the trajectory of the hand) command closes the hand (shape 7 →
1). Then draw a trajectory by moving your hand. Opening the closed hand and ending the “create” command creates a virtual object.

【0078】「作成」コマンドを除くすべてのコマンド
では、手を3次元空間において仮想物体の内側に移動さ
せる。
In all commands except the “create” command, the hand is moved inside the virtual object in the three-dimensional space.

【0079】「削除」コマンド(仮想物体を消去す
る)、「結合」コマンド(近接する複数の仮想物体を結
合する)、「分割」(仮想物体の結合を解除する)の3
コマンドについては、それぞれ操作対象内にポインタを
移動させた後、各コマンドに対応する形状遷移を提示す
ることで、当該コマンドが実行される。
The three commands are a "delete" command (to delete a virtual object), a "combination" command (to combine a plurality of adjacent virtual objects), and a "division" (to release the combination of virtual objects).
The command is executed by moving the pointer into the operation target and presenting a shape transition corresponding to each command.

【0080】「把持・移動」コマンド(仮想物体を掴ん
で移動させる)、「拡大・縮小」コマンド(仮想物体の
大きさを変更する)、「色・テクスチャ変更」コマンド
(仮想物体表面の色・テクスチャを変化させる)につい
ては、ポインタによる指示、対応する形状遷移に続い
て、さらに手を移動させることで、変更対象となる物体
パラメータ(位置、大きさ、色など)が移動量に応じて
変化する。パラメータの変更は、手形状を形状shape 7
に再び遷移させることで終了する。
A “grasping / moving” command (grasping and moving the virtual object), an “enlarge / reduce” command (changing the size of the virtual object), a “color / texture changing” command (color / texture of the virtual object surface) For changing the texture), following the instruction by the pointer and the corresponding shape transition, moving the hand further changes the object parameters (position, size, color, etc.) to be changed according to the amount of movement. I do. To change the parameters, change the hand shape to shape 7
The process is terminated by making a transition again to.

【0081】「伸張」(仮想物体の長さを変える)コマ
ンドを除くすべてのコマンドは、右手・左手をそれぞれ
独立して発行することができる。「伸張」コマンドで
は、右手と左手とで仮想物体を把持し、相対的に手を移
動させる。
All commands except the "stretch" (change the length of the virtual object) command can be issued independently of the right hand and the left hand. In the “extension” command, the virtual object is grasped by the right hand and the left hand, and the hand is relatively moved.

【0082】以上の次第で、多数カメラを用いた手振り
認識装置とそれを利用した仮想シーン生成システムにつ
いて述べた。本システムは、多数視点の画像から抽出さ
れた最適な少数の画像から、手の動き(3次元位置、手
振り)を再構築する。より具体的には、追跡結果に従い
オクルージョンを生じない画像のうちの最適な画像が、
それぞれの手に対して選択される。この視点選択のメカ
ニズムにより、精緻な3次元モデルを用いることなく自
己オクルージョンや手同士のオクルージョンの発生を効
果的に減少させることができる。
As described above, a hand gesture recognition device using a large number of cameras and a virtual scene generation system using the same have been described. The present system reconstructs hand movements (three-dimensional position, hand movements) from a small number of optimal images extracted from images of many viewpoints. More specifically, the best image that does not cause occlusion according to the tracking result is
Selected for each hand. With this viewpoint selection mechanism, the occurrence of self-occlusion and occlusion between hands can be effectively reduced without using a sophisticated three-dimensional model.

【0083】またこれにより、モデルの生成・モデルの
再構成のためのコンピュータ上のコストを削減すること
が可能となる。
Further, this makes it possible to reduce the cost on the computer for generating the model and reconstructing the model.

【0084】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
The embodiments disclosed this time are to be considered in all respects as illustrative and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

【0085】[0085]

【発明の効果】以上のようにこの発明によれば、カルマ
ンフィルタによる予測に基づいて複数のカメラのうち最
適なカメラの画像を選択して手の動きを追跡する。この
ため、オクルージョンを回避して、安定して、しかも実
時間で複数の手に対する動きを追跡・認識することが可
能となる。
As described above, according to the present invention, an optimum camera image is selected from a plurality of cameras based on the prediction by the Kalman filter, and the hand movement is tracked. For this reason, it becomes possible to avoid occlusion and to track and recognize the movements of a plurality of hands stably and in real time.

【0086】また、選択された画像の特徴点に基づき、
手同士のオクルージョンを回避するようにさらに処理対
象とする画像の絞込みをおこなう。これにより、安定し
て、しかも実時間で複数の手に対する動きを追跡・認識
することが可能となる。
Also, based on the feature points of the selected image,
The image to be processed is further narrowed down so as to avoid occlusion between hands. This makes it possible to track and recognize the movements of a plurality of hands stably and in real time.

【0087】さらに、手の形状認識にあたり、形状の画
像内の平行移動、拡大・縮小などに対して不変なP型フ
ーリエ記述子を用いるため、低計算コストで安定して手
の形状を認識することができる。
Further, in recognizing the hand shape, a P-type Fourier descriptor which is invariant to translation, enlargement / reduction, etc. in the image of the shape is used, so that the hand shape can be stably recognized at low calculation cost. be able to.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1における手振り認識装置
1000の要部の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a main part of a hand gesture recognition device 1000 according to Embodiment 1 of the present invention.

【図2】図1に示す特徴抽出部6の構成の概要を示すブ
ロック図である。
FIG. 2 is a block diagram showing an outline of a configuration of a feature extracting unit 6 shown in FIG.

【図3】特徴抽出部6の動作を説明するための図であ
る。
FIG. 3 is a diagram for explaining the operation of a feature extraction unit 6;

【図4】図1に示す追跡処理部8の構成の概要を示すブ
ロック図である。
FIG. 4 is a block diagram illustrating an outline of a configuration of a tracking processing unit 8 illustrated in FIG. 1;

【図5】カルマンフィルタにおける観測モデルについて
説明するための図である。
FIG. 5 is a diagram for describing an observation model in a Kalman filter.

【図6】追跡処理部8および視点選択部4の有効性を説
明するための実験環境を示す図である。
FIG. 6 is a diagram showing an experimental environment for explaining the effectiveness of the tracking processing unit 8 and the viewpoint selecting unit 4;

【図7】連続するシーケンスにおいて右手と左手とを追
跡した実験結果を示す図である。
FIG. 7 is a diagram showing an experimental result of tracking a right hand and a left hand in a continuous sequence.

【図8】連続するシーケンスにおいて右手と左手とを追
跡した実験結果を示す図である。
FIG. 8 is a diagram showing an experimental result of tracking a right hand and a left hand in a continuous sequence.

【図9】回転角検出部31における手のひらモデルを用
いた回転角の検出について説明するための図である。
FIG. 9 is a diagram for explaining detection of a rotation angle using a palm model in a rotation angle detection unit 31;

【図10】回転角検出部31の有効性を説明するための
実験結果を示す図である。
FIG. 10 is a diagram showing experimental results for explaining the effectiveness of the rotation angle detection unit 31.

【図11】視点選択部32の動作について説明するため
の図である。
FIG. 11 is a diagram for describing an operation of a viewpoint selection unit 32.

【図12】視点選択部32の有効性を説明するための実
験結果を示す図である。
FIG. 12 is a diagram showing experimental results for explaining the effectiveness of the viewpoint selecting unit 32.

【図13】手形状認識部33の構成を示すブロック図で
ある。
13 is a block diagram illustrating a configuration of a hand shape recognition unit 33. FIG.

【図14】輪郭線抽出部81の動作について説明するた
めの図である。
FIG. 14 is a diagram for explaining the operation of a contour line extraction unit 81.

【図15】認識実験に使用する手形状を説明するための
図である。
FIG. 15 is a diagram for explaining a hand shape used in a recognition experiment.

【図16】図15に示す手形状に対する認識結果を示す
図である。
16 is a diagram illustrating a recognition result for the hand shape illustrated in FIG. 15;

【図17】手振り認識装置に基づく対話型システムにお
けるコマンドと手との関係を示す図である。
FIG. 17 is a diagram illustrating a relationship between a command and a hand in an interactive system based on a hand gesture recognition device.

【図18】手振り認識装置に基づく対話型システムにお
ける指示ポインタの状況を表わした図である。
FIG. 18 is a diagram illustrating a state of an instruction pointer in an interactive system based on a hand gesture recognition device.

【図19】手振り認識装置に基づく対話型システムにお
ける指示ポインタの状況を表わした図である。
FIG. 19 is a diagram illustrating a state of an instruction pointer in an interactive system based on a hand gesture recognition device.

【符号の説明】[Explanation of symbols]

2、2♯1〜2♯n カメラ 4、33 視点選択部 6 特徴抽出部 8 追跡処理部 10、12 追跡部 14 ジェスチャ認識部 20♯1〜20♯n 領域分割部 22♯1〜22♯n 主軸検出部 24♯1〜24♯n 回転変換部 26♯1〜26♯n 特徴点算出部 30♯1〜30♯2 3次元位置・方向検出部 31♯1〜31♯2 回転角検出部 32♯1〜32♯2 視点選択部 33♯1〜33♯2 手形状認識部 81 輪郭線抽出部 82 輪郭線補正部 83 P型フーリエ記述部 84 特徴ベクトル算出部 85 確率定義部 86 形状選択部 1000 手振り認識装置 2, 2♯1-2♯n Camera 4, 33 Viewpoint selection unit 6 Feature extraction unit 8 Tracking processing unit 10, 12 Tracking unit 14 Gesture recognition unit 20 # 1-20♯n Area division unit 22 # 1-22♯n Spindle detection unit 24 # 1 to 24 # n Rotation conversion unit 26 # 1 to 26 # n Feature point calculation unit 30 # 1 to 30 # 2 Three-dimensional position / direction detection unit 31 # 1 to 31 # 2 Rotation angle detection unit 32 ♯1-32♯2 viewpoint selection unit 33 ♯1-33♯2 hand shape recognition unit 81 contour extraction unit 82 contour correction unit 83 P-type Fourier description unit 84 feature vector calculation unit 85 probability definition unit 86 shape selection unit 1000 Hand gesture recognition device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 15/70 350H 460B Fターム(参考) 2F065 AA04 AA17 AA37 AA39 AA51 CC16 FF01 FF04 JJ03 JJ05 JJ19 JJ26 QQ16 QQ17 QQ27 QQ31 QQ42 5B057 AA20 BA02 CA01 CA12 CD03 DA08 DB02 DB05 DB08 DC05 DC09 DC17 DC34 5L096 AA07 BA08 CA05 EA16 FA06 FA60 FA66 FA67 HA05 HA09 JA11 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06F 15/70 350H 460B F-term (Reference) 2F065 AA04 AA17 AA37 AA39 AA51 CC16 FF01 FF04 JJ03 JJ05 JJ19 JJ26 QQ16 QQ17 QQ27 QQ31 QQ42 5B057 AA20 BA02 CA01 CA12 CD03 DA08 DB02 DB05 DB08 DC05 DC09 DC17 DC34 5L096 AA07 BA08 CA05 EA16 FA06 FA60 FA66 FA67 HA05 HA09 JA11

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 複数の手の動きを認識する手振り認識装
置であって、 互いに異なる方向から前記複数の手を撮影して複数の画
像を得る複数の撮像手段と、 前記複数の画像のうち前記複数の手の動きを認識するた
めの画像を選択的に出力する第1選択手段と、 前記第1選択手段で選択した画像の特徴点を抽出し、前
記特徴点に基づいて追跡対象とする画像を選択する特徴
抽出手段と、 前記複数の手のそれぞれに対応して設けられ、対応する
手の動きを追跡する複数の追跡処理手段とを備え、 前記複数の追跡処理手段のそれぞれは、 前記追跡対象とされる画像の特徴点を用いて、手の状態
を予測する予測手段と、 前記追跡対象とされる画像に基づいて手の法線方向の算
出して、前記法線方向に最も近い方向から手の撮影した
結果得られる画像を選択する第2選択手段と、 前記第2選択手段の選択する画像に基づき、手の形状を
認識する認識手段とを含み、 前記第1選択手段は、 前記複数の画像のうち前記予測手段において前記予測し
た状態の近傍に特徴点が位置する画像を選択する、手振
り認識装置。
1. A hand gesture recognition device for recognizing a plurality of hand movements, comprising: a plurality of image pickup means for photographing the plurality of hands from different directions to obtain a plurality of images; First selecting means for selectively outputting an image for recognizing a plurality of hand movements; extracting feature points of the image selected by the first selecting means; and an image to be tracked based on the feature points And a plurality of tracking processing means provided for each of the plurality of hands and tracking the movement of the corresponding hand, wherein each of the plurality of tracking processing means Prediction means for predicting the state of the hand using the feature points of the target image; calculating the normal direction of the hand based on the image to be tracked; the direction closest to the normal direction Image obtained as a result of hand shooting from A second selecting unit for selecting, and a recognizing unit for recognizing a hand shape based on the image selected by the second selecting unit, wherein the first selecting unit includes the A hand gesture recognition device for selecting an image in which a feature point is located near a predicted state.
【請求項2】 前記特徴抽出手段は、 抽出された前記特徴点の位置と手の幅との比により、オ
クルージョンの発生を検出し、前記オクルージョンが検
出された画像を非選択とする、請求項1記載の手振り認
識装置。
2. The method according to claim 1, wherein the feature extraction unit detects occurrence of occlusion based on a ratio between the position of the extracted feature point and a width of a hand, and deselects an image in which the occlusion is detected. The hand gesture recognition device according to 1.
【請求項3】 前記認識手段は、 前記第2選択手段で選択した画像中の手の輪郭線を抽出
する輪郭線抽出手段と、 前記輪郭線抽出手段により抽出された前記手の輪郭線を
P型フーリエ記述子で記述するP型フーリエ記述手段
と、 前記P型フーリエ記述手段からのP型フーリエ記述子に
基づいて前記手の形状を特定する形状特定手段とを含
む、請求項2記載の手振り認識装置。
3. The method according to claim 1, wherein the recognizing means extracts a contour of the hand in the image selected by the second selecting means, and extracts the contour of the hand extracted by the contour extracting means into P. 3. The hand gesture according to claim 2, further comprising: a P-type Fourier description unit described by a type-Fourier descriptor; Recognition device.
JP11141483A 1999-05-21 1999-05-21 Hand motion recognizing device Pending JP2000331170A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11141483A JP2000331170A (en) 1999-05-21 1999-05-21 Hand motion recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11141483A JP2000331170A (en) 1999-05-21 1999-05-21 Hand motion recognizing device

Publications (1)

Publication Number Publication Date
JP2000331170A true JP2000331170A (en) 2000-11-30

Family

ID=15292963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11141483A Pending JP2000331170A (en) 1999-05-21 1999-05-21 Hand motion recognizing device

Country Status (1)

Country Link
JP (1) JP2000331170A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002358526A (en) * 2001-06-01 2002-12-13 Nhk Engineering Services Inc Device for detecting and tracking video object
JP2005115649A (en) * 2003-10-08 2005-04-28 Hitachi Ltd Recognition processing system
KR100575504B1 (en) 2003-08-11 2006-05-03 미츠비시 후소 트럭 앤드 버스 코포레이션 Hand pattern switch device
CN100353380C (en) * 2004-10-08 2007-12-05 富士通株式会社 Biometrics authentication system registration method, biometrics authentication system, and program for same
JP2008250774A (en) * 2007-03-30 2008-10-16 Denso Corp Information equipment operation device
KR100939831B1 (en) 2008-09-19 2010-02-02 가부시키가이샤 덴소 Operating input device for reducing input error and information device operation apparatus
JP2011065652A (en) * 2004-05-14 2011-03-31 Honda Motor Co Ltd Sign based man-machine interaction
US7999957B2 (en) 2006-02-16 2011-08-16 Seiko Epson Corporation Input position setting method, input position setting device, input position setting program, and information input system
JP2012221088A (en) * 2011-04-06 2012-11-12 Fujitsu Ltd Image processing device, image processing method, and image processing program
CN103661165A (en) * 2012-09-19 2014-03-26 阿尔卑斯电气株式会社 Movement prediction device and input apparatus using the same
JP2014509103A (en) * 2011-01-12 2014-04-10 ミュエシュトロ インターアクティーフェ ゲーエムベーハー Remote control device and interface module for controlling mechanism based on moving object
JP2015001804A (en) * 2013-06-14 2015-01-05 国立大学法人埼玉大学 Hand gesture tracking system
CN106500695A (en) * 2017-01-05 2017-03-15 大连理工大学 A kind of human posture recognition method based on adaptive extended kalman filtering
EP2601615A4 (en) * 2010-09-17 2017-11-22 Sony Corporation Gesture recognition system for tv control
KR101812672B1 (en) * 2015-07-31 2017-12-27 (주) 씨제이오쇼핑 Mobile Media Control System, Server, Method and Application By Using Magazine
CN108898624A (en) * 2018-06-12 2018-11-27 浙江大华技术股份有限公司 A kind of method, apparatus of moving body track, electronic equipment and storage medium
WO2018235198A1 (en) * 2017-06-21 2018-12-27 日本電気株式会社 Information processing device, control method, and program

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002358526A (en) * 2001-06-01 2002-12-13 Nhk Engineering Services Inc Device for detecting and tracking video object
KR100575504B1 (en) 2003-08-11 2006-05-03 미츠비시 후소 트럭 앤드 버스 코포레이션 Hand pattern switch device
JP2005115649A (en) * 2003-10-08 2005-04-28 Hitachi Ltd Recognition processing system
JP2011065652A (en) * 2004-05-14 2011-03-31 Honda Motor Co Ltd Sign based man-machine interaction
CN100353380C (en) * 2004-10-08 2007-12-05 富士通株式会社 Biometrics authentication system registration method, biometrics authentication system, and program for same
US7999957B2 (en) 2006-02-16 2011-08-16 Seiko Epson Corporation Input position setting method, input position setting device, input position setting program, and information input system
JP2008250774A (en) * 2007-03-30 2008-10-16 Denso Corp Information equipment operation device
US8023698B2 (en) 2007-03-30 2011-09-20 Denso Corporation Information device operation apparatus
DE102008016215B4 (en) * 2007-03-30 2017-08-24 Denso Corporation Information device operating unit
KR100939831B1 (en) 2008-09-19 2010-02-02 가부시키가이샤 덴소 Operating input device for reducing input error and information device operation apparatus
EP2601615A4 (en) * 2010-09-17 2017-11-22 Sony Corporation Gesture recognition system for tv control
JP2014509103A (en) * 2011-01-12 2014-04-10 ミュエシュトロ インターアクティーフェ ゲーエムベーハー Remote control device and interface module for controlling mechanism based on moving object
US9451237B2 (en) 2011-01-12 2016-09-20 Myestro Interactive Gmbh Remote control device for controlling a mechanism with the aid of a movable object and an interface module based on movement and distance of the movable object with respect to a camera
JP2012221088A (en) * 2011-04-06 2012-11-12 Fujitsu Ltd Image processing device, image processing method, and image processing program
CN103661165A (en) * 2012-09-19 2014-03-26 阿尔卑斯电气株式会社 Movement prediction device and input apparatus using the same
JP2015001804A (en) * 2013-06-14 2015-01-05 国立大学法人埼玉大学 Hand gesture tracking system
KR101812672B1 (en) * 2015-07-31 2017-12-27 (주) 씨제이오쇼핑 Mobile Media Control System, Server, Method and Application By Using Magazine
CN106500695A (en) * 2017-01-05 2017-03-15 大连理工大学 A kind of human posture recognition method based on adaptive extended kalman filtering
CN106500695B (en) * 2017-01-05 2019-02-01 大连理工大学 A kind of human posture recognition method based on adaptive extended kalman filtering
WO2018235198A1 (en) * 2017-06-21 2018-12-27 日本電気株式会社 Information processing device, control method, and program
JPWO2018235198A1 (en) * 2017-06-21 2020-04-09 日本電気株式会社 Information processing apparatus, control method, and program
JP2021177399A (en) * 2017-06-21 2021-11-11 日本電気株式会社 Information processor, control method, and program
JP7197171B2 (en) 2017-06-21 2022-12-27 日本電気株式会社 Information processing device, control method, and program
JP7332183B2 (en) 2017-06-21 2023-08-23 日本電気株式会社 Information processing device, control method, and program
US11763463B2 (en) 2017-06-21 2023-09-19 Nec Corporation Information processing apparatus, control method, and program
CN108898624A (en) * 2018-06-12 2018-11-27 浙江大华技术股份有限公司 A kind of method, apparatus of moving body track, electronic equipment and storage medium
CN108898624B (en) * 2018-06-12 2020-12-08 浙江大华技术股份有限公司 Moving object tracking method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
EP2400370B1 (en) Information processing device and information processing method
Urtasun et al. Monocular 3D tracking of the golf swing
Zhao et al. Combining marker-based mocap and rgb-d camera for acquiring high-fidelity hand motion data
Tran et al. 3-D posture and gesture recognition for interactivity in smart spaces
US8879787B2 (en) Information processing device and information processing method
Reale et al. A multi-gesture interaction system using a 3-D iris disk model for gaze estimation and an active appearance model for 3-D hand pointing
EP2372653B1 (en) Image processing device and image processing method
JP2000331170A (en) Hand motion recognizing device
Hu et al. Hand pointing estimation for human computer interaction based on two orthogonal-views
Schröder et al. Real-time hand tracking using synergistic inverse kinematics
JP5595655B2 (en) Image processing apparatus and image processing method
JP2986455B1 (en) Hand gesture recognition device
JP5598751B2 (en) Motion recognition device
Yao et al. Real-time hand pose estimation from RGB-D sensor
Bandouch et al. A self-training approach for visual tracking and recognition of complex human activity patterns
Aristidou Hand tracking with physiological constraints
Lee et al. 3D hand reconstruction from a monocular view
Ma et al. Real-time and robust hand tracking with a single depth camera
Chang et al. Visual tracking in high-dimensional state space by appearance-guided particle filtering
JP5468773B2 (en) Image processing apparatus and image processing method
López-Méndez et al. Real-time upper body tracking with online initialization using a range sensor
Hsiao et al. Proactive sensing for improving hand pose estimation
Kondori et al. A direct method for 3d hand pose recovery
Yu et al. Real time fingertip detection with kinect depth image sequences
Zhang et al. MultiModal, robust and accurate hand tracking

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030218