JP2006127541A - Gesture recognition method - Google Patents
Gesture recognition method Download PDFInfo
- Publication number
- JP2006127541A JP2006127541A JP2005352676A JP2005352676A JP2006127541A JP 2006127541 A JP2006127541 A JP 2006127541A JP 2005352676 A JP2005352676 A JP 2005352676A JP 2005352676 A JP2005352676 A JP 2005352676A JP 2006127541 A JP2006127541 A JP 2006127541A
- Authority
- JP
- Japan
- Prior art keywords
- image
- visual sensor
- recognition
- gesture
- gesture recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、被写体を撮像装置により撮影し、画像処理装置において上記撮影画像の特徴パターンを解析することにより被写体のジェスチャーを認識するジェスチャー認識方法および装置に関する。 The present invention relates to a gesture recognition method and apparatus for recognizing a gesture of a subject by photographing the subject with an imaging device and analyzing a feature pattern of the photographed image in an image processing device.
人間の身ぶり手振りを認識する技術は、柔軟なMan−Mchine Interface System(マンマシンインタフェース システム)を構築する上で重要である(黒川隆夫、ノンバーバルインターフェース、オーム社、1994)。特に、動作者にデータグローブ等の接触型センサやマーカーを装着させることなく、人間の動作を捉えた動画像を用いたジェスチャー認識が試みられている(高橋勝彦、関進、小島浩、岡隆一、ジェスチャー動画像のスポッティング認識、信学論(D−II)、Vol.J77−D−IIno.8,pp1552−1561,1994.)。 The technology for recognizing human gestures is important in building a flexible Man-Mchine Interface System (Man Machine Interface System) (Takao Kurokawa, Nonverbal Interface, Ohm, 1994). In particular, gesture recognition using moving images that capture human movements without attempting to attach contact sensors or markers such as data gloves to the operator has been attempted (Katsuhiko Takahashi, Susumu Seki, Hiroshi Kojima, Ryuichi Oka , Spotting recognition of gesture moving images, theory of theory (D-II), Vol. J77-D-Iino.8, pp1552-1561, 1994.).
これまでは、1人の人物のジェスチャー認識が試みられているが、近年では複数人物と計算機のマルチモーダル対話(伊藤慶明、木山次郎、関進、小島浩、帳健新、岡隆一、同時複数対話者の会話音声およびジェスチャーのリアルタイム統合理解によるNovel Interface System、音声言語処理7―3、pp17−22、1995)が重要になっている。すなわち、複数人物間におけるジェスチャーや音声による対話を認識理解し、この対話の円滑化に必要な情報をデータベースから提供するシステムが求められている。そのためには、実時間かつ同時的に複数人物のジェスチャーと音声を認識する必要があった。複数人物間での音声と単一人物のジェスチャー認識については統合が実現されている。また長屋等(長屋茂喜、関進、岡隆一、多重解像度特徴によるジェスチャー認識、信学技報、PRU95−99、pp121−126および長屋茂喜、関進、岡隆一、ジェスチャー認識のための動作軌跡特徴の提案、信学技報、NLC95−37、PRU95ー142、pp45−50)により動作者の位置や人数を特定する手法が提案されている。しかしながら複数人物の実時間ジェスチャー認識システムの実現には現在、到っていない。 So far, gesture recognition of one person has been attempted, but in recent years, multi-modal dialogue between multiple persons and computers (Ito Yoshiaki, Kiyama Jiro, Seki Susumu, Kojima Hiroshi, Book Kenshin, Oka Ryuichi, simultaneous multiple (Novel Interface System, spoken language processing 7-3, pp 17-22, 1995) based on real-time integrated understanding of conversational voices and gestures of dialogue persons is important. That is, there is a need for a system that recognizes and understands a dialogue between gestures and voices between a plurality of persons and provides information necessary for facilitating the dialogue from a database. For that purpose, it was necessary to recognize gestures and voices of a plurality of persons simultaneously in real time. Integration has been realized for voices between multiple persons and gesture recognition of a single person. Nagaya et al. (Shigeki Nagaya, Seki Susumu, Ryuichi Oka, Gesture recognition by multi-resolution features, IEICE Technical Report, PRU95-99, pp121-126 and Shigeki Nagaya, Seki Susumu, Ryuichi Oka, Motion trajectory features for gesture recognition , IEICE Technical Report, NLC95-37, PRU95-142, pp45-50), a method for specifying the positions and number of operators is proposed. However, the realization of a real-time gesture recognition system for a plurality of persons has not yet been realized.
このようなシステムの実現において第1に問題となることは、対象とされる人間の数に等しいカメラと認識システムを用意するかどうかと言うことである。なぜなら上記のジェスチャー動画像のスポッティング認識の報告にも述べられていたように、単一人物の4種類のジェスチャー認識の実時間化に汎用画像処理ボード(Imaging Tchnology Series 150/40)とワークステーション(Iris Crimson)を用いるという負担を強いられるからである。
The first problem in realizing such a system is whether to prepare a camera and a recognition system equal to the number of human subjects. Because, as described in the above-mentioned report of spotting recognition of gesture moving images, a general-purpose image processing board (Imaging Technology
さらにカメラ毎に特定の人物を捉えることは極めて不便であり、対話者が互いに顔を見て話す場合に、それらを捉えることはさらに困難を増すといった状況がある。 Furthermore, it is extremely inconvenient to capture a specific person for each camera, and there are situations in which it is even more difficult to capture them when dialoguers look at each other's faces.
なお、従来技術として、単一人物のジェスチャー認識を目的とした研究についてはいくつか報告されている。大和ら(J.Yamto,J.Ohya,K.Isii,Recognizing Human Action in Time−Sequential Images Using Hidden Markov Model,Proc.CVPR、pp379―385、1992)は、テニスプレーヤーのスイング動作を対象として、Hidden Markov Modelを用いた動作認識法を提案している。この方法では、動作モデルの学習が可能であるが、動作を行っている時間空間のセグメンテーションを人手で行う必要がある。 As a conventional technique, several studies on the gesture recognition of a single person have been reported. Yamato et al. (J. Yamato, J. Ohya, K. Isii, Recognizing Human Action in Time-Sequential Images Using Hidden Markov Model, Proc. CVPR, pp 379-385, 1992) A motion recognition method using the Markov Model has been proposed. In this method, it is possible to learn an action model, but it is necessary to manually segment the time space in which the action is performed.
また、Darrellら(T.J.Darell and A.P.Pentland,Space−Time Gestures,Proc.IJCAI’93 Looking at People Workshop(Aug.1993))は手のひらの動きをその見え方の遷移系列で表し、観測された見え方系列と動作モデルとの対応付けをDynamic Time Warpingで行うことで複数のジェスチャーを認識した。しかしながらこの提案では入力画像の背景が無地である必要が有り、また、同作間の時間的セグメンテーションの方法が示されていない。 Darrell et al. (TJ Darell and AP Pentland, Space-Time Gestures, Proc. IJCAI '93 Looking at People Workshop (Aug. 1993)) expresses the movement of the palm as a transition sequence of its appearance. A plurality of gestures were recognized by associating the observed appearance series with the behavior model by using Dynamic Time Warping. However, in this proposal, the background of the input image needs to be plain, and the method of temporal segmentation between the same works is not shown.
また、石井ら(H.Ishi,K.Mochizuki and F.Kshino,A Motion Recognition Method from Stereo Images for Human Image Synthesis,The Trans.of the ETC,J76−D−II,8,pp1805−1812(1993−08))は、カラー画像処理とステレオマッチングにより手や顔などの肌色部分の3次元位置を求め、その移動量を計測している。しかし、専用の画像処理装置を用いている石井やDarellらのシステムでもビデオレートでの動作認識は実現されていない。 In addition, Ishii et al. (H. Ishi, K. Mochizuki and F. Kshino, A Motion Recognition Method from Stereo Images for Human Image Synthesis, 180-97-TheD. 08)) obtains a three-dimensional position of a skin color portion such as a hand or a face by color image processing and stereo matching, and measures the movement amount. However, motion recognition at the video rate has not been realized even in the systems of Ishii and Darell et al. Using a dedicated image processing apparatus.
複数人物のジェスチャーを同時に認識する場合、その使用環境を自然で良好なものとするために以下の2つの制約を満足する必要がある。 When simultaneously recognizing gestures of a plurality of persons, it is necessary to satisfy the following two constraints in order to make the use environment natural and favorable.
制約1 複数人物が自然な形で対話できる環境を保証する単一カメラの使用できること
これは、例えば、複数の人物を単一のカメラで撮影しようとすると、顔を正面にして複数人物が一列にならなければならず、これは自然な形で対話できる環境ではない。例えば、3人が互いに向き合っている姿を側面から撮影しようとすると、2人のジェスチャーをカメラで撮影することはできないであろう。
Constraint 1 The ability to use a single camera that guarantees an environment where multiple people can interact in a natural way. This is because, for example, when shooting multiple people with a single camera, the multiple people are in a line with their faces in front. This must be a natural environment. For example, if you try to shoot three people facing each other from the side, you will not be able to shoot the gestures of the two people with the camera.
制約2 複数人物のジェスチャリングをリアルタイムでジェスチャー認識すること
これは複数人物のジェスチャー認識に限らないが、認識対象の数が複数になるほど、ジェスチャー認識処理の高速に行わないとリアルタイムで認識結果を得ることはできない。
そこで、本発明の目的は、単一カメラで互いに向き合っている複数人物のジェスチャーを撮影するに好適なコミュニケーション用撮影方法および装置、画像処理装置ならびにジェスチャー認識方法および装置を提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide a communication photographing method and apparatus, an image processing apparatus, and a gesture recognition method and apparatus suitable for photographing gestures of a plurality of persons facing each other with a single camera.
本発明の目的を達成するために、請求項1の発明は、複数の人物が撮像できる位置に設置された単一の全方位視覚センサによりコミュニケーションの様子を撮影することを特徴とする。
In order to achieve the object of the present invention, the invention of
請求項2の発明は、複数の人物が撮像できる位置に設置された単一の全方位視覚センサを有し、前記全方位視覚センサによりコミュニケーションの様子を撮影することを特徴とする。 According to a second aspect of the present invention, there is provided a single omnidirectional visual sensor installed at a position where a plurality of persons can be imaged, and the state of communication is photographed by the omnidirectional visual sensor.
請求項3の発明は、複数の人物が撮像できる位置に設置された単一の全方位視覚センサによりコミュニケーションの様子をとらえた映像データの中から、各人物の映っている領域を分割して画像処理することを特徴とする。
The invention of
請求項4の発明は、複数の人物が撮像できる位置に設置された単一の全方位視覚センサによりコミュニケーションの様子をとらえた映像データの中から、各人物の映っている領域を分割してジェスチャー認識することを特徴とする。
The invention according to
請求項5の発明は、複数の人物が撮像できる位置に設置された単一の全方位視覚センサと、該全方位視覚センサによりによりコミュニケーションの様子をとらえた映像データの中から、各人物の映っている領域を分割する分割手段と、当該分割された領域に映っている人物のジェスチャーを認識するジェスチャー認識手段とを備えたことを特徴とする。
According to the invention of
請求項1〜5の発明は、全方位視覚センサにより複数の被写体のジェスチャー画像が重複することなく、撮像されるので、その撮像結果を分割することで個々の被写体の画像を取得できる。この結果、単一の撮像装置でも複数の被写体のジェスチャーを認識できる。 According to the first to fifth aspects of the present invention, since the gesture images of a plurality of subjects are captured without overlapping by the omnidirectional visual sensor, the images of the individual subjects can be acquired by dividing the imaging results. As a result, gestures of a plurality of subjects can be recognized even with a single imaging device.
請求項1〜5の発明により、円形に並ぶ複数の人間のジェスチャーをすべて認識できることによりたとえば、手話による会話を認識したり、市場のせりの内容を認識し、その認識結果を通信することに遠隔地の人間にもその場の内容を知らせることができる。 According to the first to fifth aspects of the invention, it is possible to recognize all the gestures of a plurality of humans arranged in a circle, for example, to recognize a conversation in sign language, to recognize the contents of a market message, and to communicate the recognition result remotely. The local people can be informed of the contents of the place.
以下、図面を参照して本発明の実施の形態を詳細に説明する。本実施の形態では全方位視覚センサを使用して複数の被写体を撮像したことに第1の特徴がある。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. This embodiment has a first feature in that a plurality of subjects are imaged using an omnidirectional visual sensor.
全方位視覚センサは双曲面ミラー(円錐形ミラー)を介してCCDカメラに全方位の画像を導く撮像装置(図13の符号106参照)であり、最近は移動ロボットに搭載することが提案されている(山沢一誠、八木康史等、移動ロボットのナビゲーションのための全方位視覚センサHyperOmni Visionの提案、信学論(D−II)、VolJ79−D−II,no5,pp698−707,1996)。この全方位視覚センサをジェスチャー認識に適用する。また、特徴パターンの抽出時に飽和処理(後述)を施すようにしたことに第2の特徴がある。 An omnidirectional visual sensor is an imaging device (see reference numeral 106 in FIG. 13) that guides an omnidirectional image to a CCD camera via a hyperboloidal mirror (conical mirror). Recently, it has been proposed to be mounted on a mobile robot. (Kazumasa Yamazawa, Yasushi Yagi et al., Proposal of Hyper Omni Vision for Navigation of Mobile Robots, Theory of Science (D-II), Vol. J79-D-II, no5, pp698-707, 1996). This omnidirectional visual sensor is applied to gesture recognition. A second feature is that saturation processing (described later) is performed when feature patterns are extracted.
図1に全方位視覚センサの設置例を示す。符号(a)は円卓での会議中の環境で中央に置かれた全方位視覚センサ1が全ての出席者のジェスチャーを一つの画像中で捕捉している。符号(b)は自律走行ロボット3の上部に全方位視覚センサ1が設置され。自律走行ロボット3周辺の複数人物のジェスチャーが1つの画像中に撮影される。参考のために全方位視覚センサ1により撮影された映像を図8に示す。
FIG. 1 shows an installation example of an omnidirectional visual sensor. Reference numeral (a) indicates that the omnidirectional
このように取得されたイメージは画像処理装置において個々の被写体毎に分割され、次に個々の被写体画像からジェスチャーの特徴パターンが抽出される。この抽出プロセスを従来手法と比較しながら説明する。図2に従来の処理プロセスを示す。図3に本実施の形態の処理プロセスを示す。撮像装置はたとえば、時刻tにおいてi×j画素の画像データを取得するものとする。 The image acquired in this manner is divided for each subject in the image processing apparatus, and then a feature pattern of the gesture is extracted from each subject image. This extraction process will be described in comparison with a conventional method. FIG. 2 shows a conventional processing process. FIG. 3 shows the processing process of the present embodiment. For example, the imaging device acquires image data of i × j pixels at time t.
ある時刻tの入力画像I(i,j,t)が得られると、前時刻t−1の入力画像I(i,j,t−1)との時間差分画像が作成され。この時間差分画像をしきい値と比較すると2値画像Ib (i,j,t)(0≦i,j<L,0≦t)が求められる。これを数式で表すと数1式となる。
When an input image I (i, j, t) at a certain time t is obtained, a time difference image from the input image I (i, j, t-1) at the previous time t-1 is created. When this time difference image is compared with a threshold value, a binary image Ib (i, j, t) (0 ≦ i, j <L, 0 ≦ t) is obtained. When this is expressed by a mathematical formula, the following
ただし、hc は画素値が変化したかを決定するしきい値である。さらに2値画像Ib(i,j,t) をN2 ×N2 に空間リダクションし、特徴ベクトルf(k,v,t)(0≦k,v<N2 )を求める。 Here, hc is a threshold value that determines whether the pixel value has changed. Further, the binary image Ib (i, j, t) is spatially reduced to N 2 × N 2 to obtain a feature vector f (k, v, t) (0 ≦ k, v <N 2 ).
ここで、pとqはともに整数、h=N1 /N2 である。この特徴ベクトルf(k,v,t)はサイズN2 ×N2 のリダクション画像中の各領域において画素値が変化した割合、つまり、被写体の身体部分が動いた画像の割合を示す。この特徴ベクトルf(k,v,t)3フレーム分の平均をとって、その対数をとったものがジェスチャー認識に使用する特徴パターンとなる。 Here, p and q are both integers, and h = N 1 / N 2 . This feature vector f (k, v, t) indicates the rate at which the pixel value changes in each region in the size N 2 × N 2 reduction image, that is, the rate at which the body part of the subject moves. The feature vector f (k, v, t) is averaged over three frames, and the logarithm thereof is a feature pattern used for gesture recognition.
図2の例では64×64画素の入力画像を16×16個のデータに圧縮する例を示している。 The example of FIG. 2 shows an example in which an input image of 64 × 64 pixels is compressed into 16 × 16 data.
これに対して、本実施の形態では、空間リダクションした各領域のデータ、すなわち、特徴ベクトルの値の内、しきい値hmより多き値を飽和させて、しきい値に押さえる。これを式で表すと次式となる。 On the other hand, in the present embodiment, among the data of each area subjected to spatial reduction, that is, the value of the feature vector, a value larger than the threshold value hm is saturated and held to the threshold value. This is expressed by the following equation.
このようにして時刻tの特徴パターンが得られ、次の時刻t+1でも同様の処理を行って、特徴パターンが抽出される。ジェスチャー認識に使用する標準パターンも同様の処理で特徴パターンが抽出される。 In this way, the feature pattern at time t is obtained, and the same processing is performed at the next time t + 1 to extract the feature pattern. For the standard pattern used for gesture recognition, the feature pattern is extracted by the same process.
ジェスチャー認識では上記標準パターンの時系列的な複数組の特徴パターンと認識対象の被写体の映像から抽出した複数組の特徴パターンとマッチングが行われる。このマッチング手法としては連続DPと呼ばれる手法がよく知られている。 In the gesture recognition, matching is performed with a plurality of sets of feature patterns in time series of the standard pattern and a plurality of sets of feature patterns extracted from the video of the subject to be recognized. As this matching method, a method called continuous DP is well known.
連続DPによるスポッティング認識では、上述のようにして入力画像から特徴抽出を行い特徴ベクトルを求める。次に、この入力された特徴ベクトル列と、各ジェスチャーに対応した標準パターンとを連続DPでマッチングする。この標準パターンは、事前に標準動作を捕らえた画像列から入力画像と同様の特徴抽出法で作成した特徴ベクトル列である。最後に、すべての標準パターンとの連続DPマッチングの結果を比較し、最も適合したものをその時点のマッチング結果として出力する。 In spotting recognition by continuous DP, feature extraction is performed from an input image as described above to obtain a feature vector. Next, the input feature vector sequence is matched with a standard pattern corresponding to each gesture by continuous DP. This standard pattern is a feature vector sequence created by a feature extraction method similar to that of an input image from an image sequence obtained by capturing standard operations in advance. Finally, the results of continuous DP matching with all the standard patterns are compared, and the best match is output as the matching result at that time.
以下に、連続DPによる特徴ベクトル列のマッチング方法を具体的に示す。入力の特徴パターンと標準パターンのフレーム間距離をd(t,τ)として累積距離S(t,τ)を以下のように適宜する。
初期条件:
Hereinafter, a feature vector sequence matching method based on continuous DP will be specifically described. The cumulative distance S (t, τ) is appropriately set as follows, where d (t, τ) is the distance between frames of the input feature pattern and the standard pattern.
Initial conditions:
ここで、tは入力の離散時刻を表し、τは標準パターンの長さに対応するパラメータで1≦τ≦T(Tはパターン長)である。連続DPの出力A(t)は Here, t represents an input discrete time, τ is a parameter corresponding to the length of the standard pattern, and 1 ≦ τ ≦ T (T is a pattern length). The output A (t) of the continuous DP is
として定める。 Determine as
このようなジェスチャー認識を行うための実験装置として、SGI社のIndy(R4400 200MHz)と、付属のIndyComというカメラを用いた。実験は、オフィス内で椅子に座った1人の被験者に対して行った。カメラの視野は被験者のジェスチャーが適切に入るように設定した。また、照明は建物の天井に設置されている蛍光灯のみを用いた。 As an experimental device for performing such gesture recognition, Indy (R4400 200 MHz) manufactured by SGI and an attached camera called IndyCom were used. The experiment was performed on one subject sitting on a chair in the office. The field of view of the camera was set so that the subject's gesture entered properly. For the lighting, only fluorescent lamps installed on the ceiling of the building were used.
CCDカメラの出力映像をAD変換して得られる画像は、サイズ160×120、1画素256階調のRGB画像であるが、認識には比較的輝度に強い影響を与えるグリーン成分のみを用いた。この画像を空間的リダクションしサイズN1 ×N1 の画像を特徴抽出部への入力とした。また、数3式の特徴ベクトルを飽和させるhm は0.3とした。
An image obtained by AD conversion of the output image of the CCD camera is an RGB image having a size of 160 × 120 and one pixel and 256 gradations, but only a green component that has a relatively strong influence on luminance is used for recognition. This image was spatially reduced and an image of size N 1 × N 1 was used as an input to the feature extraction unit. Further, hm for saturating the feature vector of
実験に用いたジェスチャーは、(1)ばんざい(両手)、(2)バイバイ(右手)、(3)まる(両手)、(4)手をたたく(両手)、(5)こちらへ(右手)、(6)左へ(左手)、(7)右へ(右手)、(8)いいえ(右手)の8種類である。これを、ジェスチャーv(v=1,2,…,8)と表記する。図4に各ジェスチャーのスナップショット、図5にジェスチャー「バンザイ」の画像系列を示す。被験者は各動作を通常のスピードで行い、画像は15Hzでサンプリングした。また、数1式の閾値hc はカメラの熱雑音を考慮し10とした。
The gestures used in the experiment are: (1) Banzai (both hands), (2) Bye Bye (right hand), (3) Maru (both hands), (4) Clapping hands (both hands), (5) To here (right hand), There are eight types: (6) left (left hand), (7) right (right hand), (8) no (right hand). This is expressed as a gesture v (v = 1, 2,..., 8). FIG. 4 shows a snapshot of each gesture, and FIG. 5 shows an image series of the gesture “Banzai”. The subject performed each operation at normal speed, and the image was sampled at 15 Hz. Further, the threshold value hc in the
標準パターンv(v=1,2,…,8)は、それぞれのジェスチャーを捉えた画像系列から人手でジェスチャー部分のみを切り出し作成した。この実験で用いた標準パターンのフレーム長Tは11から15であった。また、同じジェスチャーを20回繰り返した入力画像列vを作成した。次に、入力画像列vを認識システムに入力し、1位認識率と正解候補率を求めた。 A standard pattern v (v = 1, 2,..., 8) was created by manually cutting out only a gesture portion from an image series capturing each gesture. The frame length T of the standard pattern used in this experiment was 11 to 15. Moreover, the input image sequence v which repeated the same gesture 20 times was created. Next, the input image sequence v was input to the recognition system, and the first recognition rate and the correct candidate rate were obtained.
ここで、正答ジェスチャー数vは入力画像列v中の20個のジェスチャーの内で正しく認識できたジェスチャー数である。また、3フレーム以上連続して同じ認識結果になった場合に「検出」されたとした。 Here, the number v of correct answer gestures is the number of gestures that can be correctly recognized among the 20 gestures in the input image sequence v. In addition, it is assumed that “detection” is made when the same recognition result is obtained continuously for three frames or more.
ここで、入力画像サイズN1 =64として、特徴ベクトルの次元数(N2 ×N2 )の最適な値を求めるため、N2 ={1,2,3,4,5,7,10,16}と変化させた。ここで得られた最適値を用いて入力サイズをN1 ={3,6,9,12,15,30,64}と変化させ最適値を求めた。ここで、衣服および背景の影響を調べるため、
S1 標準パターンの作成時と衣服および背景が等しい場合
S2 標準パターンの作成時と衣服および背景の明るさがともに異なる場合を設定した(図6)。衣服の色はS1のときに灰色、S2のときに黄色であった。標準パターンはS1の場合に作成し、しきい値hvはS1の1位認識率が極力大きくなるよう人手で設定した。S2にはこのS1で作成した標準パターンとしきい値を用いて認識実験を行った。
Here, assuming that the input image size N 1 = 64, the optimal value of the dimension number (N 2 × N 2 ) of the feature vector is obtained, so that N 2 = {1, 2, 3, 4, 5, 7, 10, 16}. Using the optimum value obtained here, the input size was changed to N 1 = {3, 6, 9, 12, 15, 30, 64} to obtain the optimum value. Here, to investigate the effects of clothing and background,
S1 When the standard pattern is created and the clothes and the background are the same S2 When the standard pattern is created and when the brightness of the clothes and the background are different (FIG. 6). The color of the clothes was gray when S1 and yellow when S2. The standard pattern was created in the case of S1, and the threshold value hv was manually set so that the first-rank recognition rate of S1 was as large as possible. In S2, a recognition experiment was performed using the standard pattern and threshold value created in S1.
認識実験の結果を図7に示す。衣服と背景が異なる場合(S2)でも、N2 =3,4,5で約80%と高い1位認識率が得られたため、本手法が衣服と背景の変化にロバストであることが示せた。 The result of the recognition experiment is shown in FIG. Even when the clothes and the background are different (S2), a high first-order recognition rate of about 80% was obtained with N 2 = 3, 4, and 5, indicating that this method is robust to changes in clothes and background. .
約20%の誤差の原因は、衣服と背景が異なる場合に生じる。(1)服のしわのできかたの違い、(2)手の影の違い、(3)着膨れによる人物の大きさの違いが考えられる。計算量を考慮すると、N2 が3のときに今回用いた8種類のジェスチャーに対する最適な認識システムとなる。また、N2 が7以上で1位認識率が低下しているがこれはリダクションサイズが大きすぎて動作の軌跡の変動を吸収できなかったためと考えられる。 An error of about 20% occurs when the clothes and background are different. (1) Differences in how the clothes are wrinkled, (2) Differences in hand shadows, and (3) Differences in the size of the person due to swelling. Considering the amount of calculation, when N 2 is 3, it is an optimal recognition system for the eight types of gestures used this time. In addition, when N 2 is 7 or more, the first-order recognition rate is lowered, but this is considered to be because the reduction size is too large to absorb the fluctuation of the motion trajectory.
次にN2 =3に固定してN1 を変化させたときの認識結果を表1に示す。 Next, Table 1 shows the recognition results when N 1 is changed with N 2 = 3 fixed.
この結果から12≦N1 において約80%の認識率があり、N1 ≦9では認識率が低下している。N2 =12のとき、特徴ベクトル値はN1 /N2 =12/3=4となり、4×4=16段階となっており、連続DPによる認識には十分であるために認識率が悪化しなかったと思われる。 From this result, the recognition rate is about 80% when 12 ≦ N 1 , and the recognition rate is lowered when N 1 ≦ 9. When N 2 = 12, the feature vector value is N 1 / N 2 = 12/3 = 4, which is 4 × 4 = 16 stages, and the recognition rate deteriorates because it is sufficient for recognition by continuous DP. Probably not.
この結果からN1 =12程度と小さな人物画像からでも高い認識率でジェスチャーを認識することが示せた。 From this result, it was shown that gestures can be recognized with a high recognition rate even from a small human image of N 1 = 12.
複数人物の認識実験をも行った。実験は自律移動ロボット上に全方位視覚センサを設置し(図1(b)参照)、自律移動ロボットの周辺に椅子に座った4人の被験者を配置した。書く被験者は自律移動ロボットの方を向いて、ジェスチャーを行う。光源、画像サイズ、しきい値などの実験条件は上述の認識実験と同様とした。このときの全方位視覚センサの映像の一例を図8に模式的に示す。 A recognition experiment of multiple persons was also conducted. In the experiment, an omnidirectional visual sensor was installed on an autonomous mobile robot (see FIG. 1B), and four subjects sitting on a chair were placed around the autonomous mobile robot. The writing subject faces the autonomous mobile robot and makes a gesture. Experimental conditions such as the light source, image size, threshold value, and the like were the same as those in the above recognition experiment. An example of the image of the omnidirectional visual sensor at this time is schematically shown in FIG.
4人の人物は図9に示すように映っている。各人物のセグメンテーションは人物範囲内を3×3に等分割し、各分割領域内に重心がある画素を用いて特徴抽出を行った。この図8のように全方位視覚センサまでの距離により人物の大きさが異なるため、各人物の特徴抽出部bへの入力サイズN1 ×N1 は異なる。もっとも離れた人物(符号51)までの距離が4mであり、そのときの人物の画像サイズは18×15であった。この入力画像から上述の特徴パターンの抽出方法により3×3次元の特徴ベクトルを算出した。なお、全方位視覚センサの歪みは修正していない。 The four persons are shown as shown in FIG. For segmentation of each person, the person range was equally divided into 3 × 3, and feature extraction was performed using pixels having a center of gravity in each divided area. As shown in FIG. 8, since the size of the person differs depending on the distance to the omnidirectional visual sensor, the input size N 1 × N 1 to the feature extraction unit b of each person is different. The distance to the farthest person (reference numeral 51) was 4 m, and the image size of the person at that time was 18 × 15. A 3 × 3-dimensional feature vector was calculated from the input image by the above-described feature pattern extraction method. Note that the distortion of the omnidirectional visual sensor is not corrected.
実験に用いたジェスチャーは上述の実験と同様で8種類とした。図10にジェスチャー“ばんざい”の3フレーム毎の画像系列を示す。入力画像系列は標準パターンの撮影時と同じ服装にて4人の人物が思い思いにジェスチャーを行い撮影した。この入力画像系列のフレーム数は457、この間に4人が行ったジェスチャーは10回から13回であった。 The gestures used for the experiment were the same as the above-mentioned experiment, and eight types were used. FIG. 10 shows an image series for every three frames of the gesture “Banzai”. The input image series was shot with four people in the same clothes as when shooting the standard pattern. The number of frames of this input image series was 457, and the gestures performed by four people during this period were 10 to 13 times.
表2に各人物の認識率を示す。 Table 2 shows the recognition rate of each person.
服装と背景が標準パターン作成時と同様であるものの、約80%という高い認識率で認識できており、本実施の形態のジェスチャー認識方法が有効であることが示せた。 Although the clothes and the background are the same as those at the time of creating the standard pattern, they can be recognized with a high recognition rate of about 80%, indicating that the gesture recognition method of the present embodiment is effective.
さらに、図11に4人の人物動作に対する連続DPの出力値例を示す。横軸はフレーム数であり、この上に描かれた横線は実際に被験者が行ったジェスチャーとその時間区間を示している。また、縦軸のCDP(連続DP)出力はそれぞれのしきい値を引いた値である。したがって、CDP出力の値が負になった場合に認識されたことになる。図11から認識もれの場合でも適切な標準パターンのCDP出力が減少していることがわかる。
Indyを1台を用い本手法を用い本手法を用いた実時間ジェスチャー認識システムを作成した。図12にその外観を示す。
N1 =12、N2 =3、サンプリングレートは15Hzであり、入力画像を実時間で表示、認識し結果を表示する。実時間での認識実験を行った結果、衣服、背景が異なっても約7割の認識率が得られた。
Furthermore, FIG. 11 shows an example of the output value of continuous DP for four person actions. The horizontal axis is the number of frames, and the horizontal line drawn above shows the gesture actually performed by the subject and the time interval. The CDP (continuous DP) output on the vertical axis is a value obtained by subtracting the respective threshold values. Therefore, it is recognized when the value of the CDP output becomes negative. It can be seen from FIG. 11 that the CDP output of the appropriate standard pattern is decreased even in the case of recognition failure.
A real-time gesture recognition system using this method was created using one Indy. FIG. 12 shows its appearance.
N 1 = 12, N 2 = 3, the sampling rate is 15 Hz, the input image is displayed and recognized in real time, and the result is displayed. As a result of real-time recognition experiments, a recognition rate of about 70% was obtained even if the clothes and background were different.
図13に本実施の形態の一システム構成を示す。図13において、CPU100はシステムメモリ101の中のシステムプログラムに基づきシステム全体の制御を行うほか、システムメモリ101にローディングされたジェスチャー認識プログラムに従って本発明に係わるジェスチャー認識処理を実行する。
FIG. 13 shows a system configuration of the present embodiment. In FIG. 13, a
システムメモリ101はROMおよびRAMを有し、上記システムプログラム、システム制御に使用するパラメータ、CPU100に対する入出力データおよびディスプレイ102に表示するイメージをも格納する。ディスプレイ102は全方位視覚センサ106から入力された撮影画像を表示する。また、後述の入力装置105から入力された情報、ジェスチャー認識結果等を表示する。
The system memory 101 includes a ROM and a RAM, and stores the system program, parameters used for system control, input / output data for the
ハードディスク記憶装置(HDD)103は保存用のジェスチャー認識プログラム(図14、図15)およびジェスチャー認識に使用する標準パターンを記憶する。なお、標準パターンは予め1人の被写体が動作の判明しているジェスチャーを行い、その撮影画像から上述の特徴パターン抽出方法により取得する。標準パターンはジェスチャーの異なる特徴パターンと対応のジェスチャー内容を示す識別コードとから構成される。 A hard disk storage device (HDD) 103 stores a gesture recognition program for storage (FIGS. 14 and 15) and a standard pattern used for gesture recognition. The standard pattern is obtained by performing a gesture in which the movement of one subject is known in advance and using the above-described feature pattern extraction method from the captured image. The standard pattern is composed of characteristic patterns with different gestures and identification codes indicating the corresponding gesture contents.
入出力インタフェース(I/O)104は全方位視覚センサ106と接続し、撮影画像をCPU100に引き渡す。入力装置105はキーボードおよびマウスを有し、情報入力を行う。
An input / output interface (I / O) 104 is connected to the omnidirectional visual sensor 106 and delivers a captured image to the
このようなシステム構成において、実行するジェスチャー認識処理を図13および図14を参照して説明する。ジェスチャー認識処理の起動が入力装置105により指示されると、CPU100はHDD103からジェスチャー認識プログラムを読み出してシステムメモリ101にローディングし、実行を開始する。
In such a system configuration, gesture recognition processing to be executed will be described with reference to FIGS. When activation of the gesture recognition process is instructed by the
最初に、CPU100はジェスチャー認識処理で使用する各種パラメータを初期化する(ステップS10)。CPU100はI/O104を介して1画面分の撮影画像(フレームとも称す)を取り込み、複数の被写体を画像分割してシステムメモリ101に一時記憶する(ステップS20)。
First, the
次に2番目の撮影画像が同様に画像分割されたシステムメモリ101に格納される。CPU100は最初に取得したフレームの第1番目の被写体の画像とと2番目に取得したフレームの第1番目の被写体の時間差分画像を作成し、その作成結果をシステムメモリ101に記憶する(ステップS30→40)。
Next, the second captured image is stored in the system memory 101 in which the image is similarly divided. The
CPU100は時間差分画像を2値化用のしきい値と比較してビット1/0のデータに変換する。1画面が16×16個の画素から構成されているとすると、次に予めパラメータとして用意されている圧縮率にしたがって、16×16の画素群を4つの領域、すなわち、縦横2分割した4つの領域に分割する。これにより1つの領域には8×8個の画素が含まれることになる。この1つの領域の中に含まれるビット1の個数をCPU100により計数する。同様にして全ての領域についてビット1の個数を計数する。この個数として仮に1、201、100、59が得られたとする。これにより16×16個の多値(たとえば16ビット)の画像データが4個の16ビットのデータに空間圧縮される(ステップS60)。
The
次にCPU100は上記空間圧縮されたデータ、(1、201、100、59)をしきい値150と個々に比較する。これにより150を超える値201はしきい値と同じ値に変換され、ビット1の個数が150とみなされる。したがって、このような飽和処理の後の空間圧縮データは(1、150、100、59)となる。この空間圧縮データが第1の被写体の時刻tのジェスチャーの特徴パターンとして、システムメモリ101に格納される。
Next, the
CPU100は連続DPの手法と、取得した上記特徴パターンおよび前の時刻に取得した特徴パターンを使用して標準パターンのパターンマッチングを行う。被写体が1人の場合のジェスチャー認識のためのパターンマッチング処理は先に簡単に説明したが周知であり、詳細な説明を要しないであろう(ステップS80)。
The
パターンマッチングの結果、特定の標準パターンに類似していると判定された場合には、その識別コードがディスプレイ102に表示される(ステップS90→S100)。 As a result of pattern matching, when it is determined that the pattern is similar to a specific standard pattern, the identification code is displayed on the display 102 (step S90 → S100).
以下、時刻tのフレームについて他の被写体のジェスチャー認識がステップS40〜S110のループ処理により実行される。このようにして時刻tの全被写体のジェスチャー認識処理が行われると、次に時刻t+1での全方位視覚センサ106の撮影画像が取り込まれ、上述と同様にしてジェスチャー認識処理が行われる(ステップS30〜S120のループ処理)。 Thereafter, gesture recognition of another subject is executed for the frame at time t by the loop processing of steps S40 to S110. When the gesture recognition processing for all subjects at time t is performed in this way, the captured image of the omnidirectional visual sensor 106 at time t + 1 is next captured, and gesture recognition processing is performed as described above (step S30). Loop processing of S120).
入力装置105から終了の指示に応じて図14および図15の処理手順を終了する。
The processing procedures in FIGS. 14 and 15 are terminated in response to the termination instruction from the
以上、述べた実施の形態の他に次の形態を実施できる。
1)上記実施の形態では、個々の被写体に画像分割する際に、手動操作で分割位置を知らせていたが、画像処理装置において自動的に画像分割することができる。その一例としては、時間差分画像では静止画部分が除去される。その除去部分は2値化画像においてビット0となって現れる。この性質を利用すると、被写体と他の被写体の間は静止画像なので、この間隙部分は2値画像においてはビット0の集合となる。そこで、画像の中心位置から画像の外端部までビット0が連続する画素群を画像処理装置により検出する。この画素群が個々の被写体の区切り部分となるので区切り部分で区切られる画像データを取り出す。
2)全方位視覚センサでは被写体画像をセンサに導くミラーを使用するがミラーの形状は円錐に限らずこれまでに知られている種々のものを使用することができる。
3)図13の処理手順では、被写体ごとの画像分割処理を全方位視覚センサ106からの入力画像について行っているが2値化処理までを1画面全体で行って、2値画像について被写体ごとの画像分割を行うこともできる。
4)本実施の形態では入力画像の画素数や空間リダクション後のデータ数を固定的に使用したが任意の値に可変設定できる。この場合には、入力装置105から所望の値を入力し、HDD103にパラメータとして保存しておけばよい。
In addition to the embodiments described above, the following embodiments can be implemented.
1) In the above embodiment, when the image is divided into individual subjects, the division position is informed manually, but the image processing apparatus can automatically perform the image division. As an example, the still image portion is removed from the time difference image. The removed portion appears as
2) The omnidirectional visual sensor uses a mirror that guides the subject image to the sensor. However, the shape of the mirror is not limited to a cone, and various types known so far can be used.
3) In the processing procedure of FIG. 13, the image division processing for each subject is performed on the input image from the omnidirectional visual sensor 106, but the binarization processing is performed for the entire screen, and the binary image is processed for each subject. Image segmentation can also be performed.
4) In this embodiment, the number of pixels of the input image and the number of data after spatial reduction are fixedly used, but can be variably set to arbitrary values. In this case, a desired value may be input from the
1 全方位視覚センサ
2 対話者
3 自律走行ロボット
100 CPU
101 システムメモリ
103 HDD
104 I/O
105 入力装置
106 全方位視覚センサ
DESCRIPTION OF
101
104 I / O
105 Input device 106 Omnidirectional visual sensor
Claims (5)
該全方位視覚センサによりによりコミュニケーションの様子をとらえた映像データの中から、各人物の映っている領域を分割する分割手段と、
当該分割された領域に映っている人物のジェスチャーを認識するジェスチャー認識手段と
を備えたことを特徴とするジェスチャー認識装置。
A single omnidirectional visual sensor installed at a position where multiple persons can image;
A dividing means for dividing an area in which each person is shown out of the video data capturing the state of communication by the omnidirectional visual sensor;
A gesture recognition device comprising gesture recognition means for recognizing a gesture of a person shown in the divided area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005352676A JP2006127541A (en) | 2005-12-06 | 2005-12-06 | Gesture recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005352676A JP2006127541A (en) | 2005-12-06 | 2005-12-06 | Gesture recognition method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP30933896A Division JP3784474B2 (en) | 1996-11-20 | 1996-11-20 | Gesture recognition method and apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006127541A true JP2006127541A (en) | 2006-05-18 |
Family
ID=36722150
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005352676A Pending JP2006127541A (en) | 2005-12-06 | 2005-12-06 | Gesture recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006127541A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009537923A (en) * | 2006-05-24 | 2009-10-29 | ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド | Controlling data processing |
WO2013115092A1 (en) * | 2012-01-30 | 2013-08-08 | 日本電気株式会社 | Video processing system, video processing method, video processing device, and control method and control program therefor |
-
2005
- 2005-12-06 JP JP2005352676A patent/JP2006127541A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009537923A (en) * | 2006-05-24 | 2009-10-29 | ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド | Controlling data processing |
US8654099B2 (en) | 2006-05-24 | 2014-02-18 | Sony Computer Entertainment Europe Limited | Control of data processing based on inter-image motion detection |
WO2013115092A1 (en) * | 2012-01-30 | 2013-08-08 | 日本電気株式会社 | Video processing system, video processing method, video processing device, and control method and control program therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10339386B2 (en) | Unusual event detection in wide-angle video (based on moving object trajectories) | |
US10296783B2 (en) | Image processing device and image display device | |
JP6316023B2 (en) | Camera system and camera control device | |
US9710923B2 (en) | Information processing system, information processing device, imaging device, and information processing method | |
US9542755B2 (en) | Image processor and image processing method | |
CN108648225B (en) | Target image acquisition system and method | |
KR20090062881A (en) | A moving robot and a moving object detecting method thereof | |
KR20200095873A (en) | Apparatus and method for extracting regioin of persion in image and system using the method | |
JP2011186576A (en) | Operation recognition device | |
JP2005309746A (en) | Method and program for tracking moving body, recording medium therefor, and moving body tracking device | |
CN108921881A (en) | A kind of across camera method for tracking target based on homography constraint | |
JP2007019671A (en) | Image communication system and image processing program | |
JP2017117244A (en) | Image analysis device for detecting a person displayed in photographic image of camera | |
JP3784474B2 (en) | Gesture recognition method and apparatus | |
KR101344851B1 (en) | Device and Method for Processing Image | |
JP2010092092A (en) | Image processing apparatus and image processing method | |
JP2006127541A (en) | Gesture recognition method | |
JP2002342758A (en) | Visual recognition system | |
JP3607440B2 (en) | Gesture recognition method | |
Nishimura et al. | Spotting recognition of gestures performed by people from a single time-varying image | |
JP3440644B2 (en) | Hand motion recognition device | |
JP6350331B2 (en) | TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM | |
JP3578321B2 (en) | Image normalizer | |
KR20190066659A (en) | System and method for speech recognition in video conference based on 360 omni-directional | |
CN113778233A (en) | Method and device for controlling display equipment and readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081226 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090417 |