JPH09245178A - Gesture moving image recognizing method - Google Patents

Gesture moving image recognizing method

Info

Publication number
JPH09245178A
JPH09245178A JP8047510A JP4751096A JPH09245178A JP H09245178 A JPH09245178 A JP H09245178A JP 8047510 A JP8047510 A JP 8047510A JP 4751096 A JP4751096 A JP 4751096A JP H09245178 A JPH09245178 A JP H09245178A
Authority
JP
Japan
Prior art keywords
moving image
gesture
motion
locus
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8047510A
Other languages
Japanese (ja)
Other versions
JP3426076B2 (en
Inventor
Shigeki Nagaya
茂喜 長屋
Susumu Seki
進 関
Ryuichi Oka
隆一 岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GIJUTSU KENKYU KUMIAI SHINJOHO SHIYORI KAIHATSU KIKO
Hitachi Ltd
Sharp Corp
Original Assignee
GIJUTSU KENKYU KUMIAI SHINJOHO SHIYORI KAIHATSU KIKO
Hitachi Ltd
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GIJUTSU KENKYU KUMIAI SHINJOHO SHIYORI KAIHATSU KIKO, Hitachi Ltd, Sharp Corp filed Critical GIJUTSU KENKYU KUMIAI SHINJOHO SHIYORI KAIHATSU KIKO
Priority to JP04751096A priority Critical patent/JP3426076B2/en
Publication of JPH09245178A publication Critical patent/JPH09245178A/en
Application granted granted Critical
Publication of JP3426076B2 publication Critical patent/JP3426076B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To recognize the same kind of gestures by a single standard pattern without receiving influence from a position by regarding plural frame images constituting a moving image as dots in a vector space and regarding an operation locus formed by the points as a feature parameter. SOLUTION: Based on an idea that the shape of a triangle does not change even if its position varies or rotates, e.g. the operation locus arranging frame image data time sequentially is handled as the feature parameter. At the time of regarding image data at the point of a time as one dot in the vector space, two line segments are formed by the locus of adjacent three points and an angle formed by these two line segments hardly changes even if the position and the angle of the gesture change. Namely at the time of setting an angle formed by P, Q and R in a pattern space to be θPQR when the pattern on the frame image varies P-Q-R, an angle θ'PQR formed by PQ and QR becomes equal with θPQR when the pattern is linear-transformed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、撮像された動画像
の中で示される人間の身振り、手振りを画像処理装置に
より認識するためのジェスチャ動画像認識方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a gesture moving image recognition method for recognizing a human gesture or hand gesture shown in a captured moving image by an image processing device.

【0002】[0002]

【従来の技術】人間のジェスチャを撮像し、撮像された
動画像を画像処理装置により認識する方式の研究として
は (1) Takahashi,Seki,Kojima and Oka : "Spotting
Recognition of HumanGesture from Time-Varying Ima
ges", Trans. of IEICE(D-II), J77-DII, 8, pp.1552-1
561. (1994). (2) Seki, Kojima, Nagaya and Oka : "Efficient g
esture recognition algorithm based of Continuous D
ynamic Programing", Proc. of RWC Symposium Technic
al Report, pp47-48. (1995). (3)Nagaya, Seki and Oka : "Gesture Recognition
Using Multiple Resolution Feature", Technical Repo
rt of IEICE, PRU95-99, pp.121-126, (1995). (4) Yamato, Ohya and Ishii : "Recognizing Human
Action in Time-Sequential Images Using Hidden Mar
kov Models", Trans. of IEICE(D-II), J76-DII,12, p
p.2556-2563. (1993). (5) Murase and Nayar : "Learning and Recognitio
n of 3D Object from Appearance", Technical Report
of IEICE, PRU93-120, pp.31-38, (1994). 代表的な一例として上記文献1に示されているシステム
構成を図1に示す。図1において、TVカメラ13によ
り被写体のジェスチャを撮像し、この撮像結果として得
られる動画像から複数の静止画像(以下、フレーム画像
と称する)をフレームグラバ11により取得する。フレ
ーム画像の被写体を画像処理装置10が識別できるよう
に輪郭線画像が画像処理装置10により抽出される。こ
の輪郭線画像の画像データからジェスチャーの特徴を示
す各種特徴パラメータが取り出される。なお、上記動画
像はリアルタイムディスク12、リライタブルLD14に
保存することも可能であり、VTR15により再生可能
である。
2. Description of the Related Art As a research on a method of capturing a human gesture and recognizing the captured moving image by an image processing device (1) Takahashi, Seki, Kojima and Oka: "Spotting
Recognition of HumanGesture from Time-Varying Ima
ges ", Trans. of IEICE (D-II), J77-DII, 8, pp.1552-1
561. (1994). (2) Seki, Kojima, Nagaya and Oka: "Efficient g
esture recognition algorithm based of Continuous D
ynamic Programming ", Proc. of RWC Symposium Technic
al Report, pp47-48. (1995). (3) Nagaya, Seki and Oka: "Gesture Recognition
Using Multiple Resolution Feature ", Technical Repo
rt of IEICE, PRU95-99, pp.121-126, (1995). (4) Yamato, Ohya and Ishii: "Recognizing Human
Action in Time-Sequential Images Using Hidden Mar
kov Models ", Trans. of IEICE (D-II), J76-DII, 12, p
p.2556-2563. (1993). (5) Murase and Nayar: "Learning and Recognitio
n of 3D Object from Appearance ", Technical Report
of IEICE, PRU93-120, pp.31-38, (1994). As a typical example, the system configuration shown in the above document 1 is shown in FIG. In FIG. 1, the TV camera 13 images a gesture of a subject, and a frame grabber 11 acquires a plurality of still images (hereinafter, referred to as frame images) from a moving image obtained as a result of the imaging. The contour line image is extracted by the image processing device 10 so that the image processing device 10 can identify the subject of the frame image. From the image data of the contour line image, various characteristic parameters indicating the characteristics of the gesture are extracted. The moving image can be stored in the real-time disc 12 and the rewritable LD 14 and can be reproduced by the VTR 15.

【0003】特徴パラメータの種類をどのように定める
かについては各種提案されている。一例としては、被写
体の人が特定色の手袋をはめ、輪郭線画像データの中に
含まれる上記特定色の画素データの位置を特定パラメー
タとすることが知られている。基準パターンの作成時に
は各静止画像から取り出された特徴パラメータをフレー
ム画像の取得順に並べ(これを特徴パラメータ系列と呼
んでいる)、このときのジェスチャの内容を示す識別情
報と共に画像処理装置10内に標準パターンとして記憶
される。認識対象の動画像から取り出された特徴パラメ
ータ系列と基準パターンの特徴パラメータ系列とを連続
DPの手法を用いて比較し、一致した場合あるいは最も
類似するものが得られた場合、その識別情報が認識結果
として画像処理装置10から出力される。
Various proposals have been made on how to determine the types of characteristic parameters. As an example, it is known that a person as a subject wears gloves of a specific color and the position of the pixel data of the specific color included in the contour line image data is used as the specific parameter. When the reference pattern is created, the characteristic parameters extracted from each still image are arranged in the order in which the frame images are acquired (this is referred to as a characteristic parameter series), and are stored in the image processing apparatus 10 together with identification information indicating the content of the gesture at this time. It is stored as a standard pattern. When the characteristic parameter series extracted from the moving image to be recognized and the characteristic pattern series of the reference pattern are compared using the continuous DP method, and when they match or the most similar one is obtained, the identification information is recognized. As a result, it is output from the image processing apparatus 10.

【0004】このような画像処理を実行することにより
今までは機械認識が不可能であったジェスチャをコンピ
ュータにより認識することが可能となってきた。
By performing such image processing, it has become possible for a computer to recognize gestures that were not possible by machine recognition until now.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、これま
でに発表されている提案は認識の対象となる手等の位置
が予め標準パターン採取時の手の位置と異なると認識率
が落ちるという不具合があった。より具体的には、手を
頭の位置で横に振った場合の動画像から標準パターンを
作成し、手を胴体近くで振った場合の動画像を認識しよ
うとすると、手を同じように振っても手の位置が異なる
ので、動画像から得られる特徴パラメータ系列が異なっ
たものとなり、最悪の場合、認識結果が得られなくな
る。このため、従来では、認識率を高めようとする場合
には、手の位置を変えた同一種のジェスチャを撮像して
複数の標準パターンを作成しなければならないという不
具合があった。
However, the proposals published so far have a problem that the recognition rate is lowered when the position of the hand or the like to be recognized is different from the position of the hand when the standard pattern is sampled in advance. It was More specifically, when a standard pattern is created from a moving image when the hand is shaken horizontally at the head position, and the user tries to recognize the moving image when the hand is shaken near the body, the hand is shaken in the same way. However, since the positions of the hands are different, the characteristic parameter series obtained from the moving image are different, and in the worst case, the recognition result cannot be obtained. Therefore, conventionally, when trying to increase the recognition rate, there is a problem that a plurality of standard patterns must be created by imaging the same type of gesture with different hand positions.

【0006】そこで、本発明は、同一種のジェスチャを
単一の標準パターンで位置の影響を受けることなく認識
できるジェスチャ動画像認識方法を提供することを目的
とする。
Therefore, an object of the present invention is to provide a gesture moving image recognition method capable of recognizing the same type of gesture with a single standard pattern without being affected by the position.

【0007】[0007]

【課題を解決するための手段】このような目的を達成す
るために、請求項1の発明は、ジェスチャを撮像して得
られる動画像から画像処理装置により特徴パラメータを
抽出し、基準パターンを作成しておき、認識対象の動画
像から前記特徴パラメータを抽出し、当該抽出された特
徴パラメータと前記基準パターンの特徴パラメータとを
比較することによりジェスチャの認識を行うジェスチャ
動画像の認識方法において、前記動画像を構成する複数
のフレーム画像の各々をベクトル空間上の点とみなし、
当該点により形成する動作軌跡を前記特徴パラメータと
することを特徴とする。
In order to achieve such an object, the invention of claim 1 creates a reference pattern by extracting a characteristic parameter from a moving image obtained by capturing a gesture by an image processing device. In the recognition method of the gesture moving image, the characteristic parameter is extracted from the moving image to be recognized, and the gesture is recognized by comparing the extracted characteristic parameter with the characteristic parameter of the reference pattern. Each of the plurality of frame images that make up the moving image is regarded as a point on the vector space,
It is characterized in that the motion locus formed by the points is used as the characteristic parameter.

【0008】請求項2の発明は、請求項1の発明に加え
て、前記動作軌跡の軌跡形状を特徴づける代表的な点を
複数選択し、当該代表的な点を頂点とする多角形で、前
記動作軌跡を近似することを特徴とする。
According to a second aspect of the present invention, in addition to the first aspect of the invention, a plurality of representative points that characterize the locus shape of the motion locus are selected, and a polygon having the representative points as vertices, It is characterized in that the motion locus is approximated.

【0009】請求項3の発明は、請求項2の発明に加え
て、前記動作軌跡の曲率の極大および極小点に基づいて
前記代表的な点を決定することを特徴とする。
The invention of claim 3 is characterized in that, in addition to the invention of claim 2, the representative point is determined based on the maximum and minimum points of the curvature of the motion locus.

【0010】請求項4の発明は、請求項3の発明に加え
て、請求項1に記載の特徴パラメータの比較に連続DP
の手法を用いることを特徴とする。
The invention of claim 4 is, in addition to the invention of claim 3, continuous DP for comparing the characteristic parameters of claim 1.
It is characterized by using the method of.

【0011】[0011]

【発明の実施の形態】以下、図面を参照して本発明の実
施例を説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0012】本実施例では、例えば3角形の形状は位置
が変わっても、回転しても変化しないという着想のもと
に、フレーム画像データを時系列に並べた動作軌跡を特
徴パラメータとして取り扱う。すなわち、ある時点の画
像データをベクトル空間上の1つの点とみなすと隣接す
る3つの点の軌跡により2つの線分が形成され、この2
つの線分で構成される角度はジェスチャの位置や角度が
変わってもほとんど変化しないということを本願発明者
達が発見し、この知見に基づき以下に示すジェスチャ動
画像認識方法を発明した。以下、その説明を行う。 1:動作軌跡の定義 1.1 パターン空間の定義と性質 二次元平面上の有限な領域I={(x,y)|0≦x<
W,0≦y<H}の上で定義された実数値関数の中で条
In the present embodiment, the operation locus in which the frame image data is arranged in time series is treated as a characteristic parameter under the idea that, for example, the shape of a triangle does not change even if the position changes or rotates. That is, if the image data at a certain time point is regarded as one point on the vector space, two line segments are formed by the loci of three adjacent points.
The inventors of the present application have found that the angle formed by two line segments hardly changes even if the position or angle of the gesture changes, and based on this finding, the inventors invented the gesture moving image recognition method described below. Hereinafter, the description will be made. 1: Definition of motion locus 1.1 Definition and properties of pattern space Finite area I = {(x, y) | 0 ≦ x <
W, 0 ≦ y <H} in the real-valued function defined above

【0013】[0013]

【数1】∫I |f(→x)|2 d→x<∞ を満たす関数の集合Pを考える。## EQU1 ## Consider a set P of functions satisfying ∫ I | f (→ x) | 2 d → x <∞.

【0014】(パターンの関数定義)f,g∈P,αが
実数のとき,f+g,αfをそれぞれf(→x)+g
(→x),αg(→x)と定義するとPは線形空間をな
す。なお、xはベクトルであるが、表記の関係上、ベク
トルxを→xと表現する。サイズW×Hのフレーム画像
は、この画像領域座標→xの輝度値をf(→x)とする
ことにより、画像パターンはPの要素とみなすことがで
きる。すなわち、パターンをベクトルと考えることがで
きる。そこで、Pをパターン空間と呼ぶことにする。
(Function definition of pattern) When f, gεP and α are real numbers, f + g and αf are f (→ x) + g, respectively.
When defined as (→ x) and αg (→ x), P forms a linear space. Although x is a vector, the vector x is expressed as → x for the sake of notation. For a frame image of size W × H, the image pattern can be regarded as a P element by setting the brightness value of this image area coordinate → x to f (→ x). That is, the pattern can be considered as a vector. Therefore, P is called a pattern space.

【0015】(内積の定義)パターン空間では任意の2
つのパターンの内積を
(Definition of Inner Product) Arbitrary 2 in the pattern space
The dot product of two patterns

【0016】[0016]

【数2】 (f,g)=∫I f(→x)g(→x)d→x と定義することができ、fのノルムを‖f‖=√(f,
f)と自然に導入することができる。またfとgの間の
角度θを考え、内積の定義から数3式とする。
[Number 2] (f, g) = ∫ I f (→ x) g (→ x) d → x and can be defined, ‖f‖ the norm of f = √ (f,
f) can be introduced naturally. In addition, considering the angle θ between f and g, Formula 3 is defined from the definition of the inner product.

【0017】[0017]

【数3】 (Equation 3)

【0018】次に、注目する対象がフレーム画像上から
はみ出さずに映っている場合について、パターン空間の
性質を調べてみることにする。
Next, the properties of the pattern space will be examined for the case where the object of interest is reflected without protruding from the frame image.

【0019】(合同変換)フレーム画像上での対象の形
や大きさを保存する合同変換としては、平行移動、及び
回転(鏡像を含む)がある。合同変換(→x)⇒(→
x′)は平行移動→t及び直交行列Oにより数4式で記
述できる。
(Congruent transformation) As the congruent transformation for preserving the shape and size of the object on the frame image, there are parallel movement and rotation (including mirror image). Joint conversion (→ x) ⇒ (→
x ′) can be described by the equation 4 by the translation → t and the orthogonal matrix O.

【0020】[0020]

【数4】→x′=O→x+(→t) このとき、パターン空間における変換f′=Λ(f)
は、
[Expression 4] → x ′ = O → x + (→ t) At this time, the transformation f ′ = Λ (f) in the pattern space
Is

【0021】[0021]

【数5】 f′(→x)=f(→x′)=f(O→x+(→t)) となる。また、任意の実数αに対し、Λ(f+g)=Λ
(f)+Λ(g)はΛ(αf)=αΛ(f)となり、Λ
はパターン空間での線形変換であることが分かる。
F ′ (→ x) = f (→ x ′) = f (O → x + (→ t)) Also, for an arbitrary real number α, Λ (f + g) = Λ
(F) + Λ (g) becomes Λ (αf) = αΛ (f), and Λ
It can be seen that is a linear transformation in the pattern space.

【0022】任意の2つのパターンf, gにおいて、合
同変換によってこれらが画像の外に飛び出さないとする
と、
For any two patterns f and g, assuming that they do not jump out of the image by the congruential transformation,

【0023】[0023]

【数6】 (Equation 6)

【0024】となり、パターン空間では内積が保存され
る。すなわち、フレーム画像上でのパターンへの合同変
換はパターン空間中での直交変換に対応することがわか
る。
Therefore, the inner product is stored in the pattern space. That is, it can be seen that the congruential conversion to the pattern on the frame image corresponds to the orthogonal conversion in the pattern space.

【0025】つぎに、これまでの議論を一般化し、合同
変換をアフィン変換へと拡張する。直交行列Oに代え
て、行列式が非Oの2次行列Aを用いて、→x′=A→
x+(→t)を考える。このときパターン空間での内積
は数7式となり、一般には保存されない。
Next, the above discussion is generalized and the congruential transformation is extended to the affine transformation. Instead of the orthogonal matrix O, using a quadratic matrix A whose determinant is non-O, → x ′ = A →
Consider x + (→ t). At this time, the inner product in the pattern space is the expression (7) and is not generally stored.

【0026】[0026]

【数7】 (Equation 7)

【0027】しかし、f′とg′の間の角度θ′は数8
式となり、fとgの間の角度θは保存される。
However, the angle θ'between f'and g'is
And the angle θ between f and g is preserved.

【0028】[0028]

【数8】 (Equation 8)

【0029】つまり、フレーム画像上での相似変換に対
し、図2に示されるような、任意の二つのパターンの成
す角(図3参照)は保存されることがわかる。
That is, it can be seen that the angle formed by two arbitrary patterns (see FIG. 3) as shown in FIG. 2 is preserved for the similarity transformation on the frame image.

【0030】1.2 動画像の性質 次に動画像のような時間変化が生じる場合について考え
る。時刻t、座標→xでの輝度値をf(→x,t)とす
る。時刻tを固定したとき、輝度値は→xの関数となり
パターン空間中での1つの点と考えられる。これより、
時刻tでのパターンをf(t)とする。
1.2 Properties of Moving Image Next, consider a case where a temporal change like a moving image occurs. The brightness value at time t and coordinate → x is f (→ x, t). When the time t is fixed, the brightness value becomes a function of → x and is considered as one point in the pattern space. Than this,
The pattern at time t is f (t).

【0031】実世界を充分高速な時間分解能Δtで撮影
する場合、f(→x,t)は時間的及び空間的に連続で
あると考えられる。そこで、任意の座標→xでの輝度の
時間的変化は、正の微小量εを用いて、|f(→x,t
+Δt)−f(→x,t)|<εと表すことができる。
これは、パターン空間中でεが充分小さければ、f(t
+Δt)−f(t)のノルムが次のようにOに近づくこ
とを意味する。
When the real world is photographed with a sufficiently high time resolution Δt, f (→ x, t) is considered to be continuous temporally and spatially. Therefore, the temporal change of the luminance at an arbitrary coordinate → x is calculated using | f (→ x, t
+ Δt) -f (→ x, t) | <ε.
This means that if ε is small enough in the pattern space, f (t
It means that the norm of + Δt) -f (t) approaches O as follows.

【0032】[0032]

【数9】 [Equation 9]

【0033】このように、パターンの時間変動は、パタ
ーン空間中に描かれる連続する軌跡として扱うことがで
きる。
As described above, the time variation of the pattern can be treated as a continuous locus drawn in the pattern space.

【0034】図4に示すように、フレーム画像上のパタ
ーンがP⇒Q⇒Rと変化するとき、パターン空間中のP
Q,QRの成す角がθPQR (図5参照)であったとす
る。
As shown in FIG. 4, when the pattern on the frame image changes from P to Q to R, P in the pattern space is changed.
It is assumed that the angle formed by Q and QR is θPQR (see Fig. 5).

【0035】パターンがフレーム画像上で線形変換され
るとき、対応するパターン空間では相似変換となるた
め、PQ,QRのなす角度θ′PQR は、θPQR と等しく
なる。
When the pattern is linearly converted on the frame image, the angle θ'PQR formed by PQ and QR is equal to θPQR because the conversion is similar in the corresponding pattern space.

【0036】1.3 動作軌跡の定義 図6に示すように、フレーム画像上の時間変動の要因
が、一人のジェスチャによるとすると、これに対応する
パターン空間中での軌跡は、人物の位置や大きさに対し
て不変で、ジェスチャの種類に固有の形状となる。
1.3 Definition of Motion Trajectory As shown in FIG. 6, if the cause of the time variation on the frame image is a gesture of one person, the trajectory in the pattern space corresponding to this is the position of the person or It is invariant to size and has a shape unique to the type of gesture.

【0037】そこで本実施例では、ジェスチャによって
パターン空間(本発明のベクトル空間)に描かれる軌跡
(図7参照)を「動作軌跡」と定義し、これを用いてジ
ェスチャの同定を行う。これにより、フレーム画像上で
の人物の位置や向き、あるいは大きさについて、何等補
正することなく、ジェスチャの種類を同定できる。
Therefore, in the present embodiment, the locus (see FIG. 7) drawn by the gesture in the pattern space (the vector space of the present invention) is defined as the "movement locus", and the gesture is identified using this. This makes it possible to identify the type of gesture without correcting the position, orientation, or size of the person on the frame image.

【0038】2: 動作の分節化 2.1 同一動作の変動 図8は、実際のジェスチャを示し、図9はその動作軌跡
を主成分分析により二次元平面上に投影したものを示し
ている。毎回の動作が全く同一であれば、動作軌跡の形
状は全く同一となる。しかし実際には、図9のように微
細な変動が毎回生じ、動作軌跡の形状は少しずつ変化す
る。そこで、こうした変動を吸収し、人間に同一と認め
られる動作では、動作軌跡の形状が同一になるような何
らかの対策が必要になる。
2: Segmentation of motion 2.1 Fluctuation of the same motion FIG. 8 shows an actual gesture, and FIG. 9 shows the motion locus projected on a two-dimensional plane by principal component analysis. If the motions of each time are exactly the same, the shapes of the motion loci are exactly the same. However, in reality, as shown in FIG. 9, a minute fluctuation occurs every time, and the shape of the motion locus gradually changes. Therefore, in a motion that absorbs such a variation and is recognized as the same by humans, some measure is required so that the motion loci have the same shape.

【0039】動作を微小な時間で区切って考えるなら
ば、動作は少しづつ変化するポーズが連続したものと考
えることができる。一種類の動作において、多少の変動
が生じても、人間がその動作を同定できるのは、動作を
いくつかの代表的な構成単位(ポーズ)に分割し、それ
を用いて動作の判定結果を補正していると考られる。
If the motion is divided into minute times, the motion can be considered as a series of poses that change little by little. Even if there is some variation in one type of motion, humans can identify that motion by dividing the motion into a number of typical constituent units (pauses) and using this to determine the motion determination results. It is considered to be corrected.

【0040】そこで、動作軌跡も同様のアプローチを採
用する。すなわち、軌跡形状を特徴づける代表的な点を
いくつか選択し、これらを頂点とする近似多角形で類似
度判定を行って変動を吸収する。選択した頂点は、動作
の代表的な構成要素であると考えられることから、本実
施例では動作素と呼ぶことにする。次節では、動作軌跡
から動作素を決定するアルゴリズムについて詳説する。
Therefore, a similar approach is adopted for the motion locus. That is, some representative points that characterize the trajectory shape are selected, and the similarity is determined using an approximate polygon having these points as vertices to absorb the variation. The selected vertices are considered to be a representative constituent element of the motion, and are therefore referred to as motion elements in this embodiment. In the next section, we explain in detail the algorithm that determines motion elements from motion loci.

【0041】2.2 曲率による動作軌跡の分割 パターン空間での動作軌跡をf(s)とする。ここで、
sは軌跡上のある基準点からの軌跡の長さを表し、時刻
tの関数となる。このとき、軌跡の接線方向の単位ベク
トルtは、数10式で表される。
2.2 Division of Motion Trajectory by Curvature Let the motion locus in the pattern space be f (s). here,
s represents the length of the locus from a certain reference point on the locus and is a function of time t. At this time, the unit vector t in the tangential direction of the locus is represented by Formula 10.

【0042】[0042]

【数10】 (Equation 10)

【0043】また、曲率をK、曲率半径をρ(≧0)、
法線方向の単位ベクトルをνとすると、数11式とな
る。
Further, the curvature is K, the radius of curvature is ρ (≧ 0),
If the unit vector in the normal direction is ν, then Equation 11 is obtained.

【0044】[0044]

【数11】 [Equation 11]

【0045】二次元画像での線形変換Aは、パターン空
間では相似変換となり、その曲率K′は、
The linear transformation A in the two-dimensional image is a similarity transformation in the pattern space, and its curvature K'is

【0046】[0046]

【数12】 (Equation 12)

【0047】となって、元の曲率に比例する。Is proportional to the original curvature.

【0048】数12式から、どんなジェスチャでも、フ
レーム画像上での人物の大きさに関わらず、曲率の極
大、極小は軌跡形状の同一箇所にあらわれることが分か
る。そこで、曲率の極大・極小に基づいて、動作軌跡を
分割する。
From the expression (12), it is understood that the maximum and the minimum of the curvature appear at the same position of the locus shape regardless of the size of the person on the frame image in any gesture. Therefore, the motion locus is divided based on the maximum and minimum of the curvature.

【0049】2.3 動作軌跡の分節化アルゴリズム 動作軌跡を分割するアルゴリズム(図1の画像処理装置
10が実行する処理内容)を図10に示す。曲率を求め
るために二次差分を求める必要があるが、単純なフレー
ム画像間での差分ではノイズの影響を受けやすいので、
分母となるフレーム間差分の大きさが、適当な単位長さ
thとなるまで待つ方式を採用する。
2.3 Motion Trajectory Segmentation Algorithm FIG. 10 shows an algorithm for dividing the motion trajectory (processing contents executed by the image processing apparatus 10 in FIG. 1). It is necessary to find the quadratic difference in order to find the curvature, but since the difference between simple frame images is easily affected by noise,
A method of waiting until the magnitude of the inter-frame difference serving as the denominator becomes an appropriate unit length S th is adopted.

【0050】最新フレーム画像INow を取り込み(ステ
ップS2)、基準画像IB との間の経路長SInを求める
(ステップS2⇒S3)。SIn>Sthならば基準画像を
更新し(IB ⇒INow 、ステップS4⇒S5),曲率K
を求める。
The latest frame image I Now is taken in (step S2), and the path length S In to the reference image I B is obtained (step S2 → S3). S In> S th if updating the reference image (I B ⇒I Now, step S4⇒S5), curvature K
Ask for.

【0051】次に、Kの時系列について極大値・極小値
となる時刻を決定し、そのフレーム画像を動作素として
蓄える(Nnow =Inow 、ステップS7⇒S8)。
Next, the time at which the maximum value / minimum value is reached for the K time series is determined, and the frame image is stored as an action element (N now = I now , step S7 → S8).

【0052】最後に、最新の三動作素からパターン空間
中での成す角θを求め、再び上記の手順を繰り返す。以
上の処理により、ジェスチャは一連の動作素(特定ポー
ズ)を要素とする時系列に分けられる。これは、一つの
ジェスチャを複数の構成要素に分節化する操作と考える
ことができる。そこで、本実施例では、動作軌跡を多角
形近似することによって、構成要素へと分割する操作を
分節化と呼ぶことにする。
Finally, the angle θ formed in the pattern space is obtained from the latest three motion elements, and the above procedure is repeated again. Through the above processing, the gesture is divided into time series having a series of motion elements (specific poses) as elements. This can be considered as an operation of segmenting one gesture into a plurality of constituent elements. Therefore, in the present embodiment, the operation of dividing the motion locus into polygonal components by approximating the motion locus is called segmentation.

【0053】2.4 動作軌跡によるジェスチャ認識方
式 多角形近似された動作軌跡の形状をフレーム毎に判定す
るため、時系列パターンの認識にしばしば用いられる典
型的な方式である連続DPを用いて、あらかじめ作成し
たモデルと映像入力とを照合する。
2.4 Gesture Recognition Method Based on Motion Trajectory In order to determine the shape of the motion trajectory approximated to a polygon for each frame, continuous DP, which is a typical method often used for recognition of time series patterns, is used. Match the model created in advance with the video input.

【0054】連続DPに用いる、モデルと入力との局所
距離は次のように定義する。
The local distance between the model and the input used for continuous DP is defined as follows.

【0055】[0055]

【数13】 (Equation 13)

【0056】ここで、l(英数字エル)は隣り合う三つ
の動作素を結ぶベクトルの長さの比である。図11は局
所距離dlocal の定義を示したものである。モデルと入
力それぞれについて、最新の三動作素間のユークリッド
距離の比となす角から、極座標上に写像して得られる二
点のユークリッド距離を求める。
Here, l (alphanumeric character L) is the ratio of the lengths of the vectors connecting the three adjoining motion elements. FIG. 11 shows the definition of the local distance dlocal. For each model and input, the Euclidean distance of two points obtained by mapping on the polar coordinates is obtained from the angle formed by the ratio of the Euclidean distance between the latest three motion elements.

【0057】局所距離をこのように定義したのは、動作
軌跡の形状は元々のパターン空間と同じ次元数をもつ曲
線であるのに対し、N個の頂点を持つ動作軌跡の多角形
近似では高々(N- 1)次元にしかならず他は不定にな
ってしまうことと、リアルタイム認識の観点から、その
時刻で入手可能な情報のみを用いて、局所的な形状の一
致度を得ることが望ましいからである。
The local distance is defined in this way because the shape of the motion locus is a curve having the same dimension number as that of the original pattern space, whereas the polygonal approximation of the motion locus having N vertices is at most. This is because only the (N-1) dimension becomes indefinite, and from the viewpoint of real-time recognition, it is desirable to obtain the degree of local shape matching by using only the information available at that time. is there.

【0058】2.5 連続DPの適用 上述の2.4節で定義した局所距離を用いて、下記の手
順で連続DPを行い、動作軌跡の形状を判定する。
2.5 Application of Continuous DP Using the local distance defined in Section 2.4 above, continuous DP is performed by the following procedure to determine the shape of the motion locus.

【0059】まず、2.3節の分節化アルゴリズムから
得られる、最新の三動作素を用いて、長さの比l(エ
ル)となす角θを求める。次に、モデルの持つ全ての動
作素について、その時刻における入力との局所距離を求
める。これに重み付けをして動作素毎に加算する。
First, using the latest three motion elements obtained from the segmentation algorithm in Section 2.3, the angle θ with the length ratio l (ell) is obtained. Next, the local distances to the input at that time are obtained for all the action elements of the model. This is weighted and added for each operating element.

【0060】このとき、着目する動作素の前後をあわせ
た三つの内、加算時の総和が最小のものを採用する。全
動作素に対して得られた総距離は、モデルの全動作素数
で正規化する。
At this time, of the three elements including the front and back of the target operating element, the one having the smallest total sum at the time of addition is adopted. The total distance obtained for all motion elements is normalized by the total number of motion elements of the model.

【0061】以上の手続きを全てのモデルについて繰り
返し、総距離が最小のものを採用する。最小距離がしき
い値以上であった場合には、該当無しと判定する。
The above procedure is repeated for all models and the one with the smallest total distance is adopted. If the minimum distance is greater than or equal to the threshold, it is determined that there is no match.

【0062】3:ジェスチャ認識のための予備実験 認識実験を行う前の準備として、動作軌跡の性質を確か
めるために、1) ジェスチャの分節化、2) 軌跡形
状保存の確認、3)角度と長さ比の性質、の三つの予備
実験を行った。
3: Preliminary Experiment for Gesture Recognition As a preparation before conducting the recognition experiment, in order to confirm the characteristics of the motion trajectory, 1) segmentation of the gesture, 2) confirmation of trajectory shape preservation, 3) angle and length We conducted three preliminary experiments on the characteristics of the ratio.

【0063】[0063]

【実施例】3.1 ジェスチャ分節化実験 2.4節の分節化アルゴリズムを、図13に示すような
動作“ByeBye(バイバイ)”に適用した結果を図12に
示す。図12は、動作軌跡の曲率を時系列として表示し
た結果である。この曲率時系列の極大値・極小値で動作
を分節化した結果を図13に示す。それぞれ、各動作素
におけるフレーム画像である。
EXAMPLE 3.1 Gesture segmentation experiment The result of applying the segmentation algorithm of Section 2.4 to the operation "ByeBye" shown in FIG. 13 is shown in FIG. FIG. 12 is a result of displaying the curvature of the movement trajectory as a time series. FIG. 13 shows the result of segmenting the operation with the maximum value and the minimum value of this curvature time series. Each is a frame image in each motion element.

【0064】動作“ByeBye”は、四つの動作素から成る
繰り返し周期があることがわかる。また、腕を振る位置
に対し、両端点は、曲率時系列の極大値点に対応し、真
ん中の二点は極小値点に対応している。
It can be seen that the motion "ByeBye" has a repeating cycle composed of four motion elements. Further, with respect to the position where the arm is swung, both end points correspond to the maximum value points in the curvature time series, and the two middle points correspond to the minimum value points.

【0065】3.2 軌跡形状の保存 図14および図15はバイバイ(図13)について、長
さと角度の組を求め、二次元平面上に多角形としてプロ
ットしたものである。バイバイの一回の動作は、四つの
動作素から構成され、五角形に対応する。図14と図1
5は同じバイバイであるが、図14は肘がほぼ肩と同じ
高さの時のものであり、図15は肘が最も低い位置まで
下がった時のものである。ともに、ほぼ合同の五角形で
あることから、ジェスチャの位置が移動しても、軌跡形
状は保存されていることを示していると考えられる。
3.2 Storage of Trajectory Shape FIGS. 14 and 15 show a pair of length and angle for the bye-bye (FIG. 13) and plotted as a polygon on a two-dimensional plane. One by-bye motion is composed of four motion elements and corresponds to a pentagon. 14 and 1
5 is the same bye bye, but FIG. 14 is when the elbow is almost at the same height as the shoulder, and FIG. 15 is when the elbow is lowered to the lowest position. Since both are almost congruent pentagons, it is considered that the trajectory shape is preserved even if the position of the gesture moves.

【0066】3.3 角度と長さの比の性質 ジェスチャ認識のための予備実験として、局所距離の算
出に用いる、三つの動作素が成す角と長さの比につい
て、性質を調べた。図16は、局所距離算出に用いた角
度と長さ比の変動を一つのグラフにまとめたものであ
る。このグラフから、これら二つの特徴量は、ともに、
動作素と同一周期で変動していることがわかる。
3.3 Properties of Angle-to-Length Ratio As a preliminary experiment for gesture recognition, the properties of the angle-to-length ratio formed by the three motion elements used to calculate the local distance were investigated. FIG. 16 is a graph in which the variations of the angle and the length ratio used for the calculation of the local distance are summarized. From this graph, these two features are
It can be seen that it fluctuates in the same cycle as the operating element.

【0067】両者の関係を散布図として示したものが、
図17である。相関があることがわかるが、一次ではな
いことから、角度と長さ比を組み合わせることの有効性
が期待できる。
A scatter plot showing the relationship between the two is
FIG. It can be seen that there is a correlation, but since it is not linear, the effectiveness of combining the angle and length ratio can be expected.

【0068】本実施例では、ジェスチャ認識のための新
しい特徴量(特徴パラメータ)である、動作軌跡につい
て提案した。いくつかの予備実験の結果から、フレーム
画像における対象者の位置や大きさを正確に補正できな
いような場合でも、これに対応する可能性を示すことが
できたと考える。
In this embodiment, the motion locus, which is a new feature amount (feature parameter) for gesture recognition, was proposed. From the results of some preliminary experiments, even if the position and size of the subject in the frame image cannot be corrected accurately, we believe that we could show the possibility of dealing with this.

【0069】また、動作軌跡の幾何学的な性質から、ジ
ェスチャをその構成要素である動作素へ分節化できるこ
とを示した。これにより、動作そのものの変動に適応す
るだけでなく、人間の動作にコンピュータがタイミング
をあわせて動作するといった新たな機能(例:指揮にあ
わせて、音楽を演奏する等)が実現できる可能性もと考
えられる。
Further, it was shown that the gesture can be segmented into motion elements which are its constituent elements, from the geometrical property of the motion locus. As a result, it is possible to not only adapt to changes in movements themselves, but also realize new functions such as the computer operating in time with human movements (eg, playing music in time with a command). it is conceivable that.

【0070】[0070]

【発明の効果】以上説明したように、請求項1の発明で
は、フレーム画像の時系列的な変化をベクトルと考えた
場合、フレーム画像を点として扱うことができる。動画
を構成するフレーム画像に対応させて上記点の動作軌跡
が同一種のジェスチャの特徴をその位置の影響を受ける
ことなく、表す。これによりジェスチャの標準パターン
の個数を減じ、認識処理の高速化、および認識精度の向
上に寄与することができる。
As described above, according to the first aspect of the invention, when the time series change of the frame image is considered as a vector, the frame image can be treated as a point. The motion loci of the above points represent the features of the same type of gesture in correspondence with the frame images that make up the moving image, without being affected by the position thereof. As a result, the number of standard gesture patterns can be reduced, which can contribute to speeding up of recognition processing and improvement of recognition accuracy.

【0071】請求項2の発明では、動作軌跡を多角形に
近似することで、認識精度を落とさず、かつ、動作軌跡
の取得処理を簡素化することができる。
According to the second aspect of the present invention, by approximating the motion locus to a polygon, it is possible to reduce the recognition accuracy and simplify the process of acquiring the motion locus.

【0072】請求項3の発明では、代表的な点を曲率の
極大、極小となる点とすることで人手に頼らず、自動的
に動作軌跡を分割することができる。
According to the third aspect of the present invention, by setting the representative points as the maximum and minimum points of curvature, the motion locus can be automatically divided without relying on human hands.

【0073】請求項4の発明では、連続DPの手法によ
り動作軌跡についての特徴パラメータの比較を行うこと
により、動画像のような3時限的に変化するジェスチャ
動画像についてもパターンマッチングが可能となる。
According to the fourth aspect of the present invention, by comparing the characteristic parameters of the motion loci by the continuous DP method, it is possible to perform pattern matching even for a gesture moving image that changes in three time periods, such as a moving image. .

【図面の簡単な説明】[Brief description of drawings]

【図1】ジェスチャ認識装置の代表的なシステム構成を
示すブロック図である。
FIG. 1 is a block diagram showing a typical system configuration of a gesture recognition device.

【図2】本発明の原理を示す説明図である。FIG. 2 is an explanatory diagram showing the principle of the present invention.

【図3】本発明の原理を示す説明図である。FIG. 3 is an explanatory diagram showing the principle of the present invention.

【図4】本発明の原理を示す説明図である。FIG. 4 is an explanatory diagram showing the principle of the present invention.

【図5】本発明の原理を示す説明図である。FIG. 5 is an explanatory diagram showing the principle of the present invention.

【図6】動画像と動作軌跡の関係を示す説明図である。FIG. 6 is an explanatory diagram showing a relationship between a moving image and a motion locus.

【図7】動画像と動作軌跡の関係を示す説明図である。FIG. 7 is an explanatory diagram showing a relationship between a moving image and a motion locus.

【図8】実験に用いたジェスチャを示す説明図である。FIG. 8 is an explanatory diagram showing gestures used in an experiment.

【図9】動作軌跡を示す波形図である。FIG. 9 is a waveform diagram showing an operation locus.

【図10】本実施例の処理内容を示すフローチャートで
ある。
FIG. 10 is a flowchart showing the processing contents of this embodiment.

【図11】局所距離を示す説明図である。FIG. 11 is an explanatory diagram showing a local distance.

【図12】動作軌跡の局率を示す特性図である。FIG. 12 is a characteristic diagram showing the locality of the motion locus.

【図13】ジェスチャの内容を示す説明図である。FIG. 13 is an explanatory diagram showing the content of a gesture.

【図14】動作軌跡を示す説明図である。FIG. 14 is an explanatory diagram showing an operation locus.

【図15】動作軌跡を示す説明図である。FIG. 15 is an explanatory diagram showing an operation locus.

【図16】2回の動作軌跡の認識結果を示す特性図であ
る。
FIG. 16 is a characteristic diagram showing the result of recognition of two motion loci.

【図17】2回の動作軌跡の認識結果を示す散布図であ
る。
FIG. 17 is a scatter diagram showing a result of recognizing a motion trajectory twice.

【符号の説明】[Explanation of symbols]

10 画像処理装置 11 フレームグラバ 12 リアルタイムディスク 13 TVカメラ 14 リライタブルLD 15 VTR 10 Image Processing Device 11 Frame Grabber 12 Real Time Disc 13 TV Camera 14 Rewritable LD 15 VTR

───────────────────────────────────────────────────── フロントページの続き (72)発明者 長屋 茂喜 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 関 進 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 (72)発明者 岡 隆一 茨城県つくば市竹園1丁目6番1号 つく ば三井ビル 技術研究組合新情報処理開発 機構 つくば研究センタ内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Shigeki Nagaya 1-280, Higashi Koikeku, Kokubunji, Tokyo Inside the Central Research Laboratory, Hitachi, Ltd. (72) Inventor Susumu Kan 22 22-22 Nagaike-cho, Abeno-ku, Osaka Incorporated (72) Inventor Ryuichi Oka 1-6-1, Takezono, Tsukuba City, Ibaraki Prefecture Tsukuba Mitsui Building Technology Research Association New Information Processing Development Organization Tsukuba Research Center

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 ジェスチャを撮像して得られる動画像か
ら画像処理装置により特徴パラメータを抽出し、基準パ
ターンを作成しておき、認識対象の動画像から前記特徴
パラメータを抽出し、当該抽出された特徴パラメータと
前記基準パターンの特徴パラメータとを比較することに
よりジェスチャの認識を行うジェスチャ動画像認識方法
において、 前記動画像を構成する複数のフレーム画像の各々をベク
トル空間上の点とみなし、 当該点により形成する動作軌跡を前記特徴パラメータと
することを特徴とするジェスチャ動画像認識方法。
1. A feature parameter is extracted from a moving image obtained by capturing a gesture by an image processing apparatus to create a reference pattern, and the feature parameter is extracted from a moving image to be recognized, and the extracted feature parameter is extracted. In a gesture moving image recognition method for recognizing a gesture by comparing a characteristic parameter with a characteristic parameter of the reference pattern, each of a plurality of frame images forming the moving image is regarded as a point on a vector space, and the point A method of recognizing a gesture moving image, characterized in that the motion locus formed by the above is used as the characteristic parameter.
【請求項2】 前記動作軌跡の軌跡形状を特徴づける代
表的な点を複数選択し、当該代表的な点を頂点とする多
角形で、前記動作軌跡を近似することを特徴とする請求
項1に記載のジェスチャ動画像認識方法。
2. The motion locus is approximated by selecting a plurality of representative points that characterize the locus shape of the motion locus and approximating the motion locus with a polygon having the representative points as vertices. The gesture moving image recognition method described in 1.
【請求項3】 前記動作軌跡の曲率の極大および極小点
に基づいて前記代表的な点を決定することを特徴とする
請求項2に記載のジェスチャ動画像認識方法。
3. The gesture moving image recognition method according to claim 2, wherein the representative point is determined based on the maximum and minimum points of the curvature of the movement trajectory.
【請求項4】 請求項1に記載の特徴パラメータの比較
に連続DPの手法を用いることを特徴とする請求項3に
記載のジェスチャ動画像認識方法。
4. The gesture moving image recognition method according to claim 3, wherein a continuous DP method is used for comparing the characteristic parameters according to claim 1.
JP04751096A 1996-03-05 1996-03-05 Gesture video recognition method Expired - Lifetime JP3426076B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04751096A JP3426076B2 (en) 1996-03-05 1996-03-05 Gesture video recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04751096A JP3426076B2 (en) 1996-03-05 1996-03-05 Gesture video recognition method

Publications (2)

Publication Number Publication Date
JPH09245178A true JPH09245178A (en) 1997-09-19
JP3426076B2 JP3426076B2 (en) 2003-07-14

Family

ID=12777117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04751096A Expired - Lifetime JP3426076B2 (en) 1996-03-05 1996-03-05 Gesture video recognition method

Country Status (1)

Country Link
JP (1) JP3426076B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007189664A (en) * 2005-12-14 2007-07-26 Victor Co Of Japan Ltd Electronic appliance
CN111242084A (en) * 2020-01-21 2020-06-05 深圳市优必选科技股份有限公司 Robot control method, device, robot and computer readable storage medium
CN113071438A (en) * 2020-01-06 2021-07-06 北京地平线机器人技术研发有限公司 Control instruction generation method and device, storage medium and electronic equipment

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007189664A (en) * 2005-12-14 2007-07-26 Victor Co Of Japan Ltd Electronic appliance
JP4569555B2 (en) * 2005-12-14 2010-10-27 日本ビクター株式会社 Electronics
CN113071438A (en) * 2020-01-06 2021-07-06 北京地平线机器人技术研发有限公司 Control instruction generation method and device, storage medium and electronic equipment
CN111242084A (en) * 2020-01-21 2020-06-05 深圳市优必选科技股份有限公司 Robot control method, device, robot and computer readable storage medium

Also Published As

Publication number Publication date
JP3426076B2 (en) 2003-07-14

Similar Documents

Publication Publication Date Title
US11288837B2 (en) Method of influencing virtual objects of augmented reality
Pintore et al. Slicenet: deep dense depth estimation from a single indoor panorama using a slice-based representation
Zimmermann et al. Learning to estimate 3d hand pose from single rgb images
Heap et al. Towards 3D hand tracking using a deformable model
US10949649B2 (en) Real-time tracking of facial features in unconstrained video
Sullivan et al. Recognizing and tracking human action
Carlsson et al. Action recognition by shape matching to key frames
US6944315B1 (en) Method and apparatus for performing scale-invariant gesture recognition
Elgammal et al. Tracking people on a torus
Park et al. Articulated pose estimation with tiny synthetic videos
Allaert et al. Micro and macro facial expression recognition using advanced Local Motion Patterns
US11282257B2 (en) Pose selection and animation of characters using video data and training techniques
CN108364302B (en) Unmarked augmented reality multi-target registration tracking method
Yin et al. Analyzing facial expressions using intensity-variant 3D data for human computer interaction
Zhu et al. A two-stage detector for hand detection in ego-centric videos
Bobick Computers Seeing Action.
Waheed et al. Exploiting Human Pose and Scene Information for Interaction Detection
JP2007172627A (en) Method for determining object segment in electronic image
Lee et al. Hierarchical active shape model with motion prediction for real-time tracking of non-rigid objects
US11361467B2 (en) Pose selection and animation of characters using video data and training techniques
KR101350387B1 (en) Method for detecting hand using depth information and apparatus thereof
Wang et al. Hand motion and posture recognition in a network of calibrated cameras
JP3426076B2 (en) Gesture video recognition method
WO2021026281A1 (en) Adaptive hand tracking and gesture recognition using face-shoulder feature coordinate transforms
CN103034859B (en) A kind of method and device obtaining gesture model

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080509

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080509

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090509

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090509

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090509

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090509

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090509

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100509

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100509

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110509

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110509

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120509

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130509

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130509

Year of fee payment: 10

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130509

Year of fee payment: 10

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term