JP2006127541A - Gesture recognition method - Google Patents

Gesture recognition method Download PDF

Info

Publication number
JP2006127541A
JP2006127541A JP2005352676A JP2005352676A JP2006127541A JP 2006127541 A JP2006127541 A JP 2006127541A JP 2005352676 A JP2005352676 A JP 2005352676A JP 2005352676 A JP2005352676 A JP 2005352676A JP 2006127541 A JP2006127541 A JP 2006127541A
Authority
JP
Japan
Prior art keywords
image
visual sensor
recognition
gesture
gesture recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005352676A
Other languages
Japanese (ja)
Inventor
Riyuuichi Oka
嶐一 岡
Takuichi Nishimura
拓一 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Sharp Corp
Original Assignee
NEC Corp
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, Sharp Corp filed Critical NEC Corp
Priority to JP2005352676A priority Critical patent/JP2006127541A/en
Publication of JP2006127541A publication Critical patent/JP2006127541A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To permit recognition of gestures of a plurality of persons by speeding up gesture recognition processing. <P>SOLUTION: With a multidirectional visual sensor, a plurality of photographic subjects are imaged, individual photographic subject image is picked up from the imaging result, and gesture recognition is performed with an image processor. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、被写体を撮像装置により撮影し、画像処理装置において上記撮影画像の特徴パターンを解析することにより被写体のジェスチャーを認識するジェスチャー認識方法および装置に関する。   The present invention relates to a gesture recognition method and apparatus for recognizing a gesture of a subject by photographing the subject with an imaging device and analyzing a feature pattern of the photographed image in an image processing device.

人間の身ぶり手振りを認識する技術は、柔軟なMan−Mchine Interface System(マンマシンインタフェース システム)を構築する上で重要である(黒川隆夫、ノンバーバルインターフェース、オーム社、1994)。特に、動作者にデータグローブ等の接触型センサやマーカーを装着させることなく、人間の動作を捉えた動画像を用いたジェスチャー認識が試みられている(高橋勝彦、関進、小島浩、岡隆一、ジェスチャー動画像のスポッティング認識、信学論(D−II)、Vol.J77−D−IIno.8,pp1552−1561,1994.)。   The technology for recognizing human gestures is important in building a flexible Man-Mchine Interface System (Man Machine Interface System) (Takao Kurokawa, Nonverbal Interface, Ohm, 1994). In particular, gesture recognition using moving images that capture human movements without attempting to attach contact sensors or markers such as data gloves to the operator has been attempted (Katsuhiko Takahashi, Susumu Seki, Hiroshi Kojima, Ryuichi Oka , Spotting recognition of gesture moving images, theory of theory (D-II), Vol. J77-D-Iino.8, pp1552-1561, 1994.).

これまでは、1人の人物のジェスチャー認識が試みられているが、近年では複数人物と計算機のマルチモーダル対話(伊藤慶明、木山次郎、関進、小島浩、帳健新、岡隆一、同時複数対話者の会話音声およびジェスチャーのリアルタイム統合理解によるNovel Interface System、音声言語処理7―3、pp17−22、1995)が重要になっている。すなわち、複数人物間におけるジェスチャーや音声による対話を認識理解し、この対話の円滑化に必要な情報をデータベースから提供するシステムが求められている。そのためには、実時間かつ同時的に複数人物のジェスチャーと音声を認識する必要があった。複数人物間での音声と単一人物のジェスチャー認識については統合が実現されている。また長屋等(長屋茂喜、関進、岡隆一、多重解像度特徴によるジェスチャー認識、信学技報、PRU95−99、pp121−126および長屋茂喜、関進、岡隆一、ジェスチャー認識のための動作軌跡特徴の提案、信学技報、NLC95−37、PRU95ー142、pp45−50)により動作者の位置や人数を特定する手法が提案されている。しかしながら複数人物の実時間ジェスチャー認識システムの実現には現在、到っていない。   So far, gesture recognition of one person has been attempted, but in recent years, multi-modal dialogue between multiple persons and computers (Ito Yoshiaki, Kiyama Jiro, Seki Susumu, Kojima Hiroshi, Book Kenshin, Oka Ryuichi, simultaneous multiple (Novel Interface System, spoken language processing 7-3, pp 17-22, 1995) based on real-time integrated understanding of conversational voices and gestures of dialogue persons is important. That is, there is a need for a system that recognizes and understands a dialogue between gestures and voices between a plurality of persons and provides information necessary for facilitating the dialogue from a database. For that purpose, it was necessary to recognize gestures and voices of a plurality of persons simultaneously in real time. Integration has been realized for voices between multiple persons and gesture recognition of a single person. Nagaya et al. (Shigeki Nagaya, Seki Susumu, Ryuichi Oka, Gesture recognition by multi-resolution features, IEICE Technical Report, PRU95-99, pp121-126 and Shigeki Nagaya, Seki Susumu, Ryuichi Oka, Motion trajectory features for gesture recognition , IEICE Technical Report, NLC95-37, PRU95-142, pp45-50), a method for specifying the positions and number of operators is proposed. However, the realization of a real-time gesture recognition system for a plurality of persons has not yet been realized.

このようなシステムの実現において第1に問題となることは、対象とされる人間の数に等しいカメラと認識システムを用意するかどうかと言うことである。なぜなら上記のジェスチャー動画像のスポッティング認識の報告にも述べられていたように、単一人物の4種類のジェスチャー認識の実時間化に汎用画像処理ボード(Imaging Tchnology Series 150/40)とワークステーション(Iris Crimson)を用いるという負担を強いられるからである。   The first problem in realizing such a system is whether to prepare a camera and a recognition system equal to the number of human subjects. Because, as described in the above-mentioned report of spotting recognition of gesture moving images, a general-purpose image processing board (Imaging Technology Series 150/40) and a workstation ( This is because the burden of using (Iris Crimson) is forced.

さらにカメラ毎に特定の人物を捉えることは極めて不便であり、対話者が互いに顔を見て話す場合に、それらを捉えることはさらに困難を増すといった状況がある。   Furthermore, it is extremely inconvenient to capture a specific person for each camera, and there are situations in which it is even more difficult to capture them when dialoguers look at each other's faces.

なお、従来技術として、単一人物のジェスチャー認識を目的とした研究についてはいくつか報告されている。大和ら(J.Yamto,J.Ohya,K.Isii,Recognizing Human Action in Time−Sequential Images Using Hidden Markov Model,Proc.CVPR、pp379―385、1992)は、テニスプレーヤーのスイング動作を対象として、Hidden Markov Modelを用いた動作認識法を提案している。この方法では、動作モデルの学習が可能であるが、動作を行っている時間空間のセグメンテーションを人手で行う必要がある。   As a conventional technique, several studies on the gesture recognition of a single person have been reported. Yamato et al. (J. Yamato, J. Ohya, K. Isii, Recognizing Human Action in Time-Sequential Images Using Hidden Markov Model, Proc. CVPR, pp 379-385, 1992) A motion recognition method using the Markov Model has been proposed. In this method, it is possible to learn an action model, but it is necessary to manually segment the time space in which the action is performed.

また、Darrellら(T.J.Darell and A.P.Pentland,Space−Time Gestures,Proc.IJCAI’93 Looking at People Workshop(Aug.1993))は手のひらの動きをその見え方の遷移系列で表し、観測された見え方系列と動作モデルとの対応付けをDynamic Time Warpingで行うことで複数のジェスチャーを認識した。しかしながらこの提案では入力画像の背景が無地である必要が有り、また、同作間の時間的セグメンテーションの方法が示されていない。   Darrell et al. (TJ Darell and AP Pentland, Space-Time Gestures, Proc. IJCAI '93 Looking at People Workshop (Aug. 1993)) expresses the movement of the palm as a transition sequence of its appearance. A plurality of gestures were recognized by associating the observed appearance series with the behavior model by using Dynamic Time Warping. However, in this proposal, the background of the input image needs to be plain, and the method of temporal segmentation between the same works is not shown.

また、石井ら(H.Ishi,K.Mochizuki and F.Kshino,A Motion Recognition Method from Stereo Images for Human Image Synthesis,The Trans.of the ETC,J76−D−II,8,pp1805−1812(1993−08))は、カラー画像処理とステレオマッチングにより手や顔などの肌色部分の3次元位置を求め、その移動量を計測している。しかし、専用の画像処理装置を用いている石井やDarellらのシステムでもビデオレートでの動作認識は実現されていない。   In addition, Ishii et al. (H. Ishi, K. Mochizuki and F. Kshino, A Motion Recognition Method from Stereo Images for Human Image Synthesis, 180-97-TheD. 08)) obtains a three-dimensional position of a skin color portion such as a hand or a face by color image processing and stereo matching, and measures the movement amount. However, motion recognition at the video rate has not been realized even in the systems of Ishii and Darell et al. Using a dedicated image processing apparatus.

複数人物のジェスチャーを同時に認識する場合、その使用環境を自然で良好なものとするために以下の2つの制約を満足する必要がある。   When simultaneously recognizing gestures of a plurality of persons, it is necessary to satisfy the following two constraints in order to make the use environment natural and favorable.

制約1 複数人物が自然な形で対話できる環境を保証する単一カメラの使用できること
これは、例えば、複数の人物を単一のカメラで撮影しようとすると、顔を正面にして複数人物が一列にならなければならず、これは自然な形で対話できる環境ではない。例えば、3人が互いに向き合っている姿を側面から撮影しようとすると、2人のジェスチャーをカメラで撮影することはできないであろう。
Constraint 1 The ability to use a single camera that guarantees an environment where multiple people can interact in a natural way. This is because, for example, when shooting multiple people with a single camera, the multiple people are in a line with their faces in front. This must be a natural environment. For example, if you try to shoot three people facing each other from the side, you will not be able to shoot the gestures of the two people with the camera.

制約2 複数人物のジェスチャリングをリアルタイムでジェスチャー認識すること
これは複数人物のジェスチャー認識に限らないが、認識対象の数が複数になるほど、ジェスチャー認識処理の高速に行わないとリアルタイムで認識結果を得ることはできない。
Constraint 2 Recognize gestures of multiple people in real time This is not limited to gesture recognition of multiple people, but as the number of recognition targets increases, the recognition result is obtained in real time unless the gesture recognition process is performed at high speed. It is not possible.

そこで、本発明の目的は、単一カメラで互いに向き合っている複数人物のジェスチャーを撮影するに好適なコミュニケーション用撮影方法および装置、画像処理装置ならびにジェスチャー認識方法および装置を提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide a communication photographing method and apparatus, an image processing apparatus, and a gesture recognition method and apparatus suitable for photographing gestures of a plurality of persons facing each other with a single camera.

本発明の目的を達成するために、請求項1の発明は、複数の人物が撮像できる位置に設置された単一の全方位視覚センサによりコミュニケーションの様子を撮影することを特徴とする。   In order to achieve the object of the present invention, the invention of claim 1 is characterized in that a communication state is photographed by a single omnidirectional visual sensor installed at a position where a plurality of persons can be imaged.

請求項2の発明は、複数の人物が撮像できる位置に設置された単一の全方位視覚センサを有し、前記全方位視覚センサによりコミュニケーションの様子を撮影することを特徴とする。   According to a second aspect of the present invention, there is provided a single omnidirectional visual sensor installed at a position where a plurality of persons can be imaged, and the state of communication is photographed by the omnidirectional visual sensor.

請求項3の発明は、複数の人物が撮像できる位置に設置された単一の全方位視覚センサによりコミュニケーションの様子をとらえた映像データの中から、各人物の映っている領域を分割して画像処理することを特徴とする。   The invention of claim 3 divides an area in which each person appears from image data obtained by capturing a communication state by a single omnidirectional visual sensor installed at a position where a plurality of persons can be imaged. It is characterized by processing.

請求項4の発明は、複数の人物が撮像できる位置に設置された単一の全方位視覚センサによりコミュニケーションの様子をとらえた映像データの中から、各人物の映っている領域を分割してジェスチャー認識することを特徴とする。   The invention according to claim 4 divides the area in which each person is shown from the video data that captures the state of communication by a single omnidirectional visual sensor installed at a position where a plurality of persons can image. It is characterized by recognition.

請求項5の発明は、複数の人物が撮像できる位置に設置された単一の全方位視覚センサと、該全方位視覚センサによりによりコミュニケーションの様子をとらえた映像データの中から、各人物の映っている領域を分割する分割手段と、当該分割された領域に映っている人物のジェスチャーを認識するジェスチャー認識手段とを備えたことを特徴とする。   According to the invention of claim 5, a single omnidirectional visual sensor installed at a position where a plurality of persons can be imaged, and video data obtained by capturing the state of communication by the omnidirectional visual sensor are displayed. And a gesture recognizing unit for recognizing a gesture of a person shown in the divided area.

請求項1〜5の発明は、全方位視覚センサにより複数の被写体のジェスチャー画像が重複することなく、撮像されるので、その撮像結果を分割することで個々の被写体の画像を取得できる。この結果、単一の撮像装置でも複数の被写体のジェスチャーを認識できる。   According to the first to fifth aspects of the present invention, since the gesture images of a plurality of subjects are captured without overlapping by the omnidirectional visual sensor, the images of the individual subjects can be acquired by dividing the imaging results. As a result, gestures of a plurality of subjects can be recognized even with a single imaging device.

請求項1〜5の発明により、円形に並ぶ複数の人間のジェスチャーをすべて認識できることによりたとえば、手話による会話を認識したり、市場のせりの内容を認識し、その認識結果を通信することに遠隔地の人間にもその場の内容を知らせることができる。   According to the first to fifth aspects of the invention, it is possible to recognize all the gestures of a plurality of humans arranged in a circle, for example, to recognize a conversation in sign language, to recognize the contents of a market message, and to communicate the recognition result remotely. The local people can be informed of the contents of the place.

以下、図面を参照して本発明の実施の形態を詳細に説明する。本実施の形態では全方位視覚センサを使用して複数の被写体を撮像したことに第1の特徴がある。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. This embodiment has a first feature in that a plurality of subjects are imaged using an omnidirectional visual sensor.

全方位視覚センサは双曲面ミラー(円錐形ミラー)を介してCCDカメラに全方位の画像を導く撮像装置(図13の符号106参照)であり、最近は移動ロボットに搭載することが提案されている(山沢一誠、八木康史等、移動ロボットのナビゲーションのための全方位視覚センサHyperOmni Visionの提案、信学論(D−II)、VolJ79−D−II,no5,pp698−707,1996)。この全方位視覚センサをジェスチャー認識に適用する。また、特徴パターンの抽出時に飽和処理(後述)を施すようにしたことに第2の特徴がある。   An omnidirectional visual sensor is an imaging device (see reference numeral 106 in FIG. 13) that guides an omnidirectional image to a CCD camera via a hyperboloidal mirror (conical mirror). Recently, it has been proposed to be mounted on a mobile robot. (Kazumasa Yamazawa, Yasushi Yagi et al., Proposal of Hyper Omni Vision for Navigation of Mobile Robots, Theory of Science (D-II), Vol. J79-D-II, no5, pp698-707, 1996). This omnidirectional visual sensor is applied to gesture recognition. A second feature is that saturation processing (described later) is performed when feature patterns are extracted.

図1に全方位視覚センサの設置例を示す。符号(a)は円卓での会議中の環境で中央に置かれた全方位視覚センサ1が全ての出席者のジェスチャーを一つの画像中で捕捉している。符号(b)は自律走行ロボット3の上部に全方位視覚センサ1が設置され。自律走行ロボット3周辺の複数人物のジェスチャーが1つの画像中に撮影される。参考のために全方位視覚センサ1により撮影された映像を図8に示す。   FIG. 1 shows an installation example of an omnidirectional visual sensor. Reference numeral (a) indicates that the omnidirectional visual sensor 1 placed in the center in an environment during a meeting on a round table captures gestures of all attendees in one image. Reference numeral (b) indicates that the omnidirectional visual sensor 1 is installed above the autonomous mobile robot 3. Gestures of a plurality of persons around the autonomous mobile robot 3 are photographed in one image. For reference, an image taken by the omnidirectional visual sensor 1 is shown in FIG.

このように取得されたイメージは画像処理装置において個々の被写体毎に分割され、次に個々の被写体画像からジェスチャーの特徴パターンが抽出される。この抽出プロセスを従来手法と比較しながら説明する。図2に従来の処理プロセスを示す。図3に本実施の形態の処理プロセスを示す。撮像装置はたとえば、時刻tにおいてi×j画素の画像データを取得するものとする。   The image acquired in this manner is divided for each subject in the image processing apparatus, and then a feature pattern of the gesture is extracted from each subject image. This extraction process will be described in comparison with a conventional method. FIG. 2 shows a conventional processing process. FIG. 3 shows the processing process of the present embodiment. For example, the imaging device acquires image data of i × j pixels at time t.

ある時刻tの入力画像I(i,j,t)が得られると、前時刻t−1の入力画像I(i,j,t−1)との時間差分画像が作成され。この時間差分画像をしきい値と比較すると2値画像Ib (i,j,t)(0≦i,j<L,0≦t)が求められる。これを数式で表すと数1式となる。   When an input image I (i, j, t) at a certain time t is obtained, a time difference image from the input image I (i, j, t-1) at the previous time t-1 is created. When this time difference image is compared with a threshold value, a binary image Ib (i, j, t) (0 ≦ i, j <L, 0 ≦ t) is obtained. When this is expressed by a mathematical formula, the following formula 1 is obtained.

Figure 2006127541
Figure 2006127541

ただし、hc は画素値が変化したかを決定するしきい値である。さらに2値画像Ib(i,j,t) をN ×N に空間リダクションし、特徴ベクトルf(k,v,t)(0≦k,v<N )を求める。 Here, hc is a threshold value that determines whether the pixel value has changed. Further, the binary image Ib (i, j, t) is spatially reduced to N 2 × N 2 to obtain a feature vector f (k, v, t) (0 ≦ k, v <N 2 ).

Figure 2006127541
Figure 2006127541

ここで、pとqはともに整数、h=N /N である。この特徴ベクトルf(k,v,t)はサイズN ×N のリダクション画像中の各領域において画素値が変化した割合、つまり、被写体の身体部分が動いた画像の割合を示す。この特徴ベクトルf(k,v,t)3フレーム分の平均をとって、その対数をとったものがジェスチャー認識に使用する特徴パターンとなる。 Here, p and q are both integers, and h = N 1 / N 2 . This feature vector f (k, v, t) indicates the rate at which the pixel value changes in each region in the size N 2 × N 2 reduction image, that is, the rate at which the body part of the subject moves. The feature vector f (k, v, t) is averaged over three frames, and the logarithm thereof is a feature pattern used for gesture recognition.

図2の例では64×64画素の入力画像を16×16個のデータに圧縮する例を示している。   The example of FIG. 2 shows an example in which an input image of 64 × 64 pixels is compressed into 16 × 16 data.

これに対して、本実施の形態では、空間リダクションした各領域のデータ、すなわち、特徴ベクトルの値の内、しきい値hmより多き値を飽和させて、しきい値に押さえる。これを式で表すと次式となる。   On the other hand, in the present embodiment, among the data of each area subjected to spatial reduction, that is, the value of the feature vector, a value larger than the threshold value hm is saturated and held to the threshold value. This is expressed by the following equation.

Figure 2006127541
Figure 2006127541

このようにして時刻tの特徴パターンが得られ、次の時刻t+1でも同様の処理を行って、特徴パターンが抽出される。ジェスチャー認識に使用する標準パターンも同様の処理で特徴パターンが抽出される。   In this way, the feature pattern at time t is obtained, and the same processing is performed at the next time t + 1 to extract the feature pattern. For the standard pattern used for gesture recognition, the feature pattern is extracted by the same process.

ジェスチャー認識では上記標準パターンの時系列的な複数組の特徴パターンと認識対象の被写体の映像から抽出した複数組の特徴パターンとマッチングが行われる。このマッチング手法としては連続DPと呼ばれる手法がよく知られている。   In the gesture recognition, matching is performed with a plurality of sets of feature patterns in time series of the standard pattern and a plurality of sets of feature patterns extracted from the video of the subject to be recognized. As this matching method, a method called continuous DP is well known.

連続DPによるスポッティング認識では、上述のようにして入力画像から特徴抽出を行い特徴ベクトルを求める。次に、この入力された特徴ベクトル列と、各ジェスチャーに対応した標準パターンとを連続DPでマッチングする。この標準パターンは、事前に標準動作を捕らえた画像列から入力画像と同様の特徴抽出法で作成した特徴ベクトル列である。最後に、すべての標準パターンとの連続DPマッチングの結果を比較し、最も適合したものをその時点のマッチング結果として出力する。   In spotting recognition by continuous DP, feature extraction is performed from an input image as described above to obtain a feature vector. Next, the input feature vector sequence is matched with a standard pattern corresponding to each gesture by continuous DP. This standard pattern is a feature vector sequence created by a feature extraction method similar to that of an input image from an image sequence obtained by capturing standard operations in advance. Finally, the results of continuous DP matching with all the standard patterns are compared, and the best match is output as the matching result at that time.

以下に、連続DPによる特徴ベクトル列のマッチング方法を具体的に示す。入力の特徴パターンと標準パターンのフレーム間距離をd(t,τ)として累積距離S(t,τ)を以下のように適宜する。
初期条件:
Hereinafter, a feature vector sequence matching method based on continuous DP will be specifically described. The cumulative distance S (t, τ) is appropriately set as follows, where d (t, τ) is the distance between frames of the input feature pattern and the standard pattern.
Initial conditions:

Figure 2006127541
Figure 2006127541

Figure 2006127541
Figure 2006127541

Figure 2006127541
Figure 2006127541

Figure 2006127541
Figure 2006127541

ここで、tは入力の離散時刻を表し、τは標準パターンの長さに対応するパラメータで1≦τ≦T(Tはパターン長)である。連続DPの出力A(t)は   Here, t represents an input discrete time, τ is a parameter corresponding to the length of the standard pattern, and 1 ≦ τ ≦ T (T is a pattern length). The output A (t) of the continuous DP is

Figure 2006127541
Figure 2006127541

として定める。 Determine as

このようなジェスチャー認識を行うための実験装置として、SGI社のIndy(R4400 200MHz)と、付属のIndyComというカメラを用いた。実験は、オフィス内で椅子に座った1人の被験者に対して行った。カメラの視野は被験者のジェスチャーが適切に入るように設定した。また、照明は建物の天井に設置されている蛍光灯のみを用いた。   As an experimental device for performing such gesture recognition, Indy (R4400 200 MHz) manufactured by SGI and an attached camera called IndyCom were used. The experiment was performed on one subject sitting on a chair in the office. The field of view of the camera was set so that the subject's gesture entered properly. For the lighting, only fluorescent lamps installed on the ceiling of the building were used.

CCDカメラの出力映像をAD変換して得られる画像は、サイズ160×120、1画素256階調のRGB画像であるが、認識には比較的輝度に強い影響を与えるグリーン成分のみを用いた。この画像を空間的リダクションしサイズN ×N の画像を特徴抽出部への入力とした。また、数3式の特徴ベクトルを飽和させるhm は0.3とした。 An image obtained by AD conversion of the output image of the CCD camera is an RGB image having a size of 160 × 120 and one pixel and 256 gradations, but only a green component that has a relatively strong influence on luminance is used for recognition. This image was spatially reduced and an image of size N 1 × N 1 was used as an input to the feature extraction unit. Further, hm for saturating the feature vector of Equation 3 was set to 0.3.

実験に用いたジェスチャーは、(1)ばんざい(両手)、(2)バイバイ(右手)、(3)まる(両手)、(4)手をたたく(両手)、(5)こちらへ(右手)、(6)左へ(左手)、(7)右へ(右手)、(8)いいえ(右手)の8種類である。これを、ジェスチャーv(v=1,2,…,8)と表記する。図4に各ジェスチャーのスナップショット、図5にジェスチャー「バンザイ」の画像系列を示す。被験者は各動作を通常のスピードで行い、画像は15Hzでサンプリングした。また、数1式の閾値hc はカメラの熱雑音を考慮し10とした。   The gestures used in the experiment are: (1) Banzai (both hands), (2) Bye Bye (right hand), (3) Maru (both hands), (4) Clapping hands (both hands), (5) To here (right hand), There are eight types: (6) left (left hand), (7) right (right hand), (8) no (right hand). This is expressed as a gesture v (v = 1, 2,..., 8). FIG. 4 shows a snapshot of each gesture, and FIG. 5 shows an image series of the gesture “Banzai”. The subject performed each operation at normal speed, and the image was sampled at 15 Hz. Further, the threshold value hc in the equation 1 is set to 10 in consideration of the thermal noise of the camera.

標準パターンv(v=1,2,…,8)は、それぞれのジェスチャーを捉えた画像系列から人手でジェスチャー部分のみを切り出し作成した。この実験で用いた標準パターンのフレーム長Tは11から15であった。また、同じジェスチャーを20回繰り返した入力画像列vを作成した。次に、入力画像列vを認識システムに入力し、1位認識率と正解候補率を求めた。   A standard pattern v (v = 1, 2,..., 8) was created by manually cutting out only a gesture portion from an image series capturing each gesture. The frame length T of the standard pattern used in this experiment was 11 to 15. Moreover, the input image sequence v which repeated the same gesture 20 times was created. Next, the input image sequence v was input to the recognition system, and the first recognition rate and the correct candidate rate were obtained.

Figure 2006127541
Figure 2006127541

Figure 2006127541
Figure 2006127541

ここで、正答ジェスチャー数vは入力画像列v中の20個のジェスチャーの内で正しく認識できたジェスチャー数である。また、3フレーム以上連続して同じ認識結果になった場合に「検出」されたとした。   Here, the number v of correct answer gestures is the number of gestures that can be correctly recognized among the 20 gestures in the input image sequence v. In addition, it is assumed that “detection” is made when the same recognition result is obtained continuously for three frames or more.

ここで、入力画像サイズN =64として、特徴ベクトルの次元数(N ×N )の最適な値を求めるため、N ={1,2,3,4,5,7,10,16}と変化させた。ここで得られた最適値を用いて入力サイズをN ={3,6,9,12,15,30,64}と変化させ最適値を求めた。ここで、衣服および背景の影響を調べるため、
S1 標準パターンの作成時と衣服および背景が等しい場合
S2 標準パターンの作成時と衣服および背景の明るさがともに異なる場合を設定した(図6)。衣服の色はS1のときに灰色、S2のときに黄色であった。標準パターンはS1の場合に作成し、しきい値hvはS1の1位認識率が極力大きくなるよう人手で設定した。S2にはこのS1で作成した標準パターンとしきい値を用いて認識実験を行った。
Here, assuming that the input image size N 1 = 64, the optimal value of the dimension number (N 2 × N 2 ) of the feature vector is obtained, so that N 2 = {1, 2, 3, 4, 5, 7, 10, 16}. Using the optimum value obtained here, the input size was changed to N 1 = {3, 6, 9, 12, 15, 30, 64} to obtain the optimum value. Here, to investigate the effects of clothing and background,
S1 When the standard pattern is created and the clothes and the background are the same S2 When the standard pattern is created and when the brightness of the clothes and the background are different (FIG. 6). The color of the clothes was gray when S1 and yellow when S2. The standard pattern was created in the case of S1, and the threshold value hv was manually set so that the first-rank recognition rate of S1 was as large as possible. In S2, a recognition experiment was performed using the standard pattern and threshold value created in S1.

認識実験の結果を図7に示す。衣服と背景が異なる場合(S2)でも、N =3,4,5で約80%と高い1位認識率が得られたため、本手法が衣服と背景の変化にロバストであることが示せた。 The result of the recognition experiment is shown in FIG. Even when the clothes and the background are different (S2), a high first-order recognition rate of about 80% was obtained with N 2 = 3, 4, and 5, indicating that this method is robust to changes in clothes and background. .

約20%の誤差の原因は、衣服と背景が異なる場合に生じる。(1)服のしわのできかたの違い、(2)手の影の違い、(3)着膨れによる人物の大きさの違いが考えられる。計算量を考慮すると、N が3のときに今回用いた8種類のジェスチャーに対する最適な認識システムとなる。また、N が7以上で1位認識率が低下しているがこれはリダクションサイズが大きすぎて動作の軌跡の変動を吸収できなかったためと考えられる。 An error of about 20% occurs when the clothes and background are different. (1) Differences in how the clothes are wrinkled, (2) Differences in hand shadows, and (3) Differences in the size of the person due to swelling. Considering the amount of calculation, when N 2 is 3, it is an optimal recognition system for the eight types of gestures used this time. In addition, when N 2 is 7 or more, the first-order recognition rate is lowered, but this is considered to be because the reduction size is too large to absorb the fluctuation of the motion trajectory.

次にN =3に固定してN を変化させたときの認識結果を表1に示す。 Next, Table 1 shows the recognition results when N 1 is changed with N 2 = 3 fixed.

Figure 2006127541
Figure 2006127541

この結果から12≦N において約80%の認識率があり、N ≦9では認識率が低下している。N =12のとき、特徴ベクトル値はN /N =12/3=4となり、4×4=16段階となっており、連続DPによる認識には十分であるために認識率が悪化しなかったと思われる。 From this result, the recognition rate is about 80% when 12 ≦ N 1 , and the recognition rate is lowered when N 1 ≦ 9. When N 2 = 12, the feature vector value is N 1 / N 2 = 12/3 = 4, which is 4 × 4 = 16 stages, and the recognition rate deteriorates because it is sufficient for recognition by continuous DP. Probably not.

この結果からN =12程度と小さな人物画像からでも高い認識率でジェスチャーを認識することが示せた。 From this result, it was shown that gestures can be recognized with a high recognition rate even from a small human image of N 1 = 12.

複数人物の認識実験をも行った。実験は自律移動ロボット上に全方位視覚センサを設置し(図1(b)参照)、自律移動ロボットの周辺に椅子に座った4人の被験者を配置した。書く被験者は自律移動ロボットの方を向いて、ジェスチャーを行う。光源、画像サイズ、しきい値などの実験条件は上述の認識実験と同様とした。このときの全方位視覚センサの映像の一例を図8に模式的に示す。   A recognition experiment of multiple persons was also conducted. In the experiment, an omnidirectional visual sensor was installed on an autonomous mobile robot (see FIG. 1B), and four subjects sitting on a chair were placed around the autonomous mobile robot. The writing subject faces the autonomous mobile robot and makes a gesture. Experimental conditions such as the light source, image size, threshold value, and the like were the same as those in the above recognition experiment. An example of the image of the omnidirectional visual sensor at this time is schematically shown in FIG.

4人の人物は図9に示すように映っている。各人物のセグメンテーションは人物範囲内を3×3に等分割し、各分割領域内に重心がある画素を用いて特徴抽出を行った。この図8のように全方位視覚センサまでの距離により人物の大きさが異なるため、各人物の特徴抽出部bへの入力サイズN ×N は異なる。もっとも離れた人物(符号51)までの距離が4mであり、そのときの人物の画像サイズは18×15であった。この入力画像から上述の特徴パターンの抽出方法により3×3次元の特徴ベクトルを算出した。なお、全方位視覚センサの歪みは修正していない。 The four persons are shown as shown in FIG. For segmentation of each person, the person range was equally divided into 3 × 3, and feature extraction was performed using pixels having a center of gravity in each divided area. As shown in FIG. 8, since the size of the person differs depending on the distance to the omnidirectional visual sensor, the input size N 1 × N 1 to the feature extraction unit b of each person is different. The distance to the farthest person (reference numeral 51) was 4 m, and the image size of the person at that time was 18 × 15. A 3 × 3-dimensional feature vector was calculated from the input image by the above-described feature pattern extraction method. Note that the distortion of the omnidirectional visual sensor is not corrected.

実験に用いたジェスチャーは上述の実験と同様で8種類とした。図10にジェスチャー“ばんざい”の3フレーム毎の画像系列を示す。入力画像系列は標準パターンの撮影時と同じ服装にて4人の人物が思い思いにジェスチャーを行い撮影した。この入力画像系列のフレーム数は457、この間に4人が行ったジェスチャーは10回から13回であった。   The gestures used for the experiment were the same as the above-mentioned experiment, and eight types were used. FIG. 10 shows an image series for every three frames of the gesture “Banzai”. The input image series was shot with four people in the same clothes as when shooting the standard pattern. The number of frames of this input image series was 457, and the gestures performed by four people during this period were 10 to 13 times.

表2に各人物の認識率を示す。   Table 2 shows the recognition rate of each person.

Figure 2006127541
Figure 2006127541

服装と背景が標準パターン作成時と同様であるものの、約80%という高い認識率で認識できており、本実施の形態のジェスチャー認識方法が有効であることが示せた。   Although the clothes and the background are the same as those at the time of creating the standard pattern, they can be recognized with a high recognition rate of about 80%, indicating that the gesture recognition method of the present embodiment is effective.

さらに、図11に4人の人物動作に対する連続DPの出力値例を示す。横軸はフレーム数であり、この上に描かれた横線は実際に被験者が行ったジェスチャーとその時間区間を示している。また、縦軸のCDP(連続DP)出力はそれぞれのしきい値を引いた値である。したがって、CDP出力の値が負になった場合に認識されたことになる。図11から認識もれの場合でも適切な標準パターンのCDP出力が減少していることがわかる。
Indyを1台を用い本手法を用い本手法を用いた実時間ジェスチャー認識システムを作成した。図12にその外観を示す。
=12、N =3、サンプリングレートは15Hzであり、入力画像を実時間で表示、認識し結果を表示する。実時間での認識実験を行った結果、衣服、背景が異なっても約7割の認識率が得られた。
Furthermore, FIG. 11 shows an example of the output value of continuous DP for four person actions. The horizontal axis is the number of frames, and the horizontal line drawn above shows the gesture actually performed by the subject and the time interval. The CDP (continuous DP) output on the vertical axis is a value obtained by subtracting the respective threshold values. Therefore, it is recognized when the value of the CDP output becomes negative. It can be seen from FIG. 11 that the CDP output of the appropriate standard pattern is decreased even in the case of recognition failure.
A real-time gesture recognition system using this method was created using one Indy. FIG. 12 shows its appearance.
N 1 = 12, N 2 = 3, the sampling rate is 15 Hz, the input image is displayed and recognized in real time, and the result is displayed. As a result of real-time recognition experiments, a recognition rate of about 70% was obtained even if the clothes and background were different.

図13に本実施の形態の一システム構成を示す。図13において、CPU100はシステムメモリ101の中のシステムプログラムに基づきシステム全体の制御を行うほか、システムメモリ101にローディングされたジェスチャー認識プログラムに従って本発明に係わるジェスチャー認識処理を実行する。   FIG. 13 shows a system configuration of the present embodiment. In FIG. 13, a CPU 100 controls the entire system based on a system program in a system memory 101 and executes a gesture recognition process according to the present invention in accordance with a gesture recognition program loaded in the system memory 101.

システムメモリ101はROMおよびRAMを有し、上記システムプログラム、システム制御に使用するパラメータ、CPU100に対する入出力データおよびディスプレイ102に表示するイメージをも格納する。ディスプレイ102は全方位視覚センサ106から入力された撮影画像を表示する。また、後述の入力装置105から入力された情報、ジェスチャー認識結果等を表示する。   The system memory 101 includes a ROM and a RAM, and stores the system program, parameters used for system control, input / output data for the CPU 100, and an image to be displayed on the display 102. The display 102 displays the captured image input from the omnidirectional visual sensor 106. In addition, information input from the input device 105 described later, a gesture recognition result, and the like are displayed.

ハードディスク記憶装置(HDD)103は保存用のジェスチャー認識プログラム(図14、図15)およびジェスチャー認識に使用する標準パターンを記憶する。なお、標準パターンは予め1人の被写体が動作の判明しているジェスチャーを行い、その撮影画像から上述の特徴パターン抽出方法により取得する。標準パターンはジェスチャーの異なる特徴パターンと対応のジェスチャー内容を示す識別コードとから構成される。   A hard disk storage device (HDD) 103 stores a gesture recognition program for storage (FIGS. 14 and 15) and a standard pattern used for gesture recognition. The standard pattern is obtained by performing a gesture in which the movement of one subject is known in advance and using the above-described feature pattern extraction method from the captured image. The standard pattern is composed of characteristic patterns with different gestures and identification codes indicating the corresponding gesture contents.

入出力インタフェース(I/O)104は全方位視覚センサ106と接続し、撮影画像をCPU100に引き渡す。入力装置105はキーボードおよびマウスを有し、情報入力を行う。   An input / output interface (I / O) 104 is connected to the omnidirectional visual sensor 106 and delivers a captured image to the CPU 100. The input device 105 has a keyboard and a mouse and inputs information.

このようなシステム構成において、実行するジェスチャー認識処理を図13および図14を参照して説明する。ジェスチャー認識処理の起動が入力装置105により指示されると、CPU100はHDD103からジェスチャー認識プログラムを読み出してシステムメモリ101にローディングし、実行を開始する。   In such a system configuration, gesture recognition processing to be executed will be described with reference to FIGS. When activation of the gesture recognition process is instructed by the input device 105, the CPU 100 reads a gesture recognition program from the HDD 103, loads it into the system memory 101, and starts execution.

最初に、CPU100はジェスチャー認識処理で使用する各種パラメータを初期化する(ステップS10)。CPU100はI/O104を介して1画面分の撮影画像(フレームとも称す)を取り込み、複数の被写体を画像分割してシステムメモリ101に一時記憶する(ステップS20)。   First, the CPU 100 initializes various parameters used in the gesture recognition process (step S10). The CPU 100 captures a captured image (also referred to as a frame) for one screen via the I / O 104, divides a plurality of subjects into images, and temporarily stores them in the system memory 101 (step S20).

次に2番目の撮影画像が同様に画像分割されたシステムメモリ101に格納される。CPU100は最初に取得したフレームの第1番目の被写体の画像とと2番目に取得したフレームの第1番目の被写体の時間差分画像を作成し、その作成結果をシステムメモリ101に記憶する(ステップS30→40)。   Next, the second captured image is stored in the system memory 101 in which the image is similarly divided. The CPU 100 creates an image of the first subject in the first acquired frame and a time difference image of the first subject in the second acquired frame, and stores the creation result in the system memory 101 (step S30). → 40).

CPU100は時間差分画像を2値化用のしきい値と比較してビット1/0のデータに変換する。1画面が16×16個の画素から構成されているとすると、次に予めパラメータとして用意されている圧縮率にしたがって、16×16の画素群を4つの領域、すなわち、縦横2分割した4つの領域に分割する。これにより1つの領域には8×8個の画素が含まれることになる。この1つの領域の中に含まれるビット1の個数をCPU100により計数する。同様にして全ての領域についてビット1の個数を計数する。この個数として仮に1、201、100、59が得られたとする。これにより16×16個の多値(たとえば16ビット)の画像データが4個の16ビットのデータに空間圧縮される(ステップS60)。   The CPU 100 compares the time difference image with the threshold value for binarization and converts it into bit 1/0 data. Assuming that one screen is composed of 16 × 16 pixels, the 16 × 16 pixel group is divided into four regions, that is, four vertically and horizontally divided according to a compression rate prepared as a parameter in advance. Divide into areas. Thus, 8 × 8 pixels are included in one area. The CPU 100 counts the number of bits 1 included in this one area. Similarly, the number of bits 1 is counted for all areas. It is assumed that 1,201, 100, 59 are obtained as this number. As a result, 16 × 16 multi-value (for example, 16 bits) image data is spatially compressed into four 16-bit data (step S60).

次にCPU100は上記空間圧縮されたデータ、(1、201、100、59)をしきい値150と個々に比較する。これにより150を超える値201はしきい値と同じ値に変換され、ビット1の個数が150とみなされる。したがって、このような飽和処理の後の空間圧縮データは(1、150、100、59)となる。この空間圧縮データが第1の被写体の時刻tのジェスチャーの特徴パターンとして、システムメモリ101に格納される。   Next, the CPU 100 compares the spatially compressed data (1, 201, 100, 59) with the threshold value 150 individually. As a result, the value 201 exceeding 150 is converted to the same value as the threshold value, and the number of bits 1 is regarded as 150. Therefore, the spatially compressed data after such saturation processing is (1, 150, 100, 59). This spatially compressed data is stored in the system memory 101 as a feature pattern of the gesture of the first subject at time t.

CPU100は連続DPの手法と、取得した上記特徴パターンおよび前の時刻に取得した特徴パターンを使用して標準パターンのパターンマッチングを行う。被写体が1人の場合のジェスチャー認識のためのパターンマッチング処理は先に簡単に説明したが周知であり、詳細な説明を要しないであろう(ステップS80)。   The CPU 100 performs pattern matching of the standard pattern using the continuous DP method, the acquired feature pattern, and the feature pattern acquired at the previous time. The pattern matching process for gesture recognition when there is only one subject has been briefly described above, but is well known and will not require detailed description (step S80).

パターンマッチングの結果、特定の標準パターンに類似していると判定された場合には、その識別コードがディスプレイ102に表示される(ステップS90→S100)。   As a result of pattern matching, when it is determined that the pattern is similar to a specific standard pattern, the identification code is displayed on the display 102 (step S90 → S100).

以下、時刻tのフレームについて他の被写体のジェスチャー認識がステップS40〜S110のループ処理により実行される。このようにして時刻tの全被写体のジェスチャー認識処理が行われると、次に時刻t+1での全方位視覚センサ106の撮影画像が取り込まれ、上述と同様にしてジェスチャー認識処理が行われる(ステップS30〜S120のループ処理)。   Thereafter, gesture recognition of another subject is executed for the frame at time t by the loop processing of steps S40 to S110. When the gesture recognition processing for all subjects at time t is performed in this way, the captured image of the omnidirectional visual sensor 106 at time t + 1 is next captured, and gesture recognition processing is performed as described above (step S30). Loop processing of S120).

入力装置105から終了の指示に応じて図14および図15の処理手順を終了する。   The processing procedures in FIGS. 14 and 15 are terminated in response to the termination instruction from the input device 105.

以上、述べた実施の形態の他に次の形態を実施できる。
1)上記実施の形態では、個々の被写体に画像分割する際に、手動操作で分割位置を知らせていたが、画像処理装置において自動的に画像分割することができる。その一例としては、時間差分画像では静止画部分が除去される。その除去部分は2値化画像においてビット0となって現れる。この性質を利用すると、被写体と他の被写体の間は静止画像なので、この間隙部分は2値画像においてはビット0の集合となる。そこで、画像の中心位置から画像の外端部までビット0が連続する画素群を画像処理装置により検出する。この画素群が個々の被写体の区切り部分となるので区切り部分で区切られる画像データを取り出す。
2)全方位視覚センサでは被写体画像をセンサに導くミラーを使用するがミラーの形状は円錐に限らずこれまでに知られている種々のものを使用することができる。
3)図13の処理手順では、被写体ごとの画像分割処理を全方位視覚センサ106からの入力画像について行っているが2値化処理までを1画面全体で行って、2値画像について被写体ごとの画像分割を行うこともできる。
4)本実施の形態では入力画像の画素数や空間リダクション後のデータ数を固定的に使用したが任意の値に可変設定できる。この場合には、入力装置105から所望の値を入力し、HDD103にパラメータとして保存しておけばよい。
In addition to the embodiments described above, the following embodiments can be implemented.
1) In the above embodiment, when the image is divided into individual subjects, the division position is informed manually, but the image processing apparatus can automatically perform the image division. As an example, the still image portion is removed from the time difference image. The removed portion appears as bit 0 in the binarized image. If this property is used, a gap between the subject and another subject is a still image, and this gap portion is a set of bits 0 in the binary image. Therefore, a pixel group in which bit 0 continues from the center position of the image to the outer edge of the image is detected by the image processing apparatus. Since this pixel group becomes a delimiter for each subject, image data delimited by the delimiter is extracted.
2) The omnidirectional visual sensor uses a mirror that guides the subject image to the sensor. However, the shape of the mirror is not limited to a cone, and various types known so far can be used.
3) In the processing procedure of FIG. 13, the image division processing for each subject is performed on the input image from the omnidirectional visual sensor 106, but the binarization processing is performed for the entire screen, and the binary image is processed for each subject. Image segmentation can also be performed.
4) In this embodiment, the number of pixels of the input image and the number of data after spatial reduction are fixedly used, but can be variably set to arbitrary values. In this case, a desired value may be input from the input device 105 and stored in the HDD 103 as a parameter.

全方位視覚センサの設置例を示す斜視図である。It is a perspective view which shows the example of installation of an omnidirectional vision sensor. 飽和処理を行わない場合の画像処理プロセスをお示す説明図である。It is explanatory drawing which shows the image processing process when not performing a saturation process. 飽和処理を行う場合の画像処理プロセスを示す説明図である。It is explanatory drawing which shows the image processing process in the case of performing a saturation process. 時系列的な撮像結果を示す説明図である。It is explanatory drawing which shows a time-sequential imaging result. 時系列的な撮像結果を示す説明図である。It is explanatory drawing which shows a time-sequential imaging result. 衣服と背景の異なる標準パターンを説明すための説明図である。It is explanatory drawing for demonstrating the standard pattern from which clothes and a background differ. リダクションサイズと認識率の関係を示す説明図である。It is explanatory drawing which shows the relationship between a reduction size and a recognition rate. コンピュータの画像処理対象となる全方位視覚センサの撮像結果を示す写真である。It is a photograph which shows the imaging result of the omnidirectional visual sensor used as the image processing target of a computer. 全方位視覚センサの撮像結果の中の被写体の位置を模式的に示す写真である。It is the photograph which shows typically the position of the to-be-photographed object in the imaging result of an omnidirectional vision sensor. ばんざいのジェスチャー画像を示す説明図である。It is explanatory drawing which shows the gesture image of Banzai. 連続DPの出力値を示す説明図である。It is explanatory drawing which shows the output value of continuous DP. 実時間ジェスチャー認識システムの正面外観をを示す正面図である。It is a front view which shows the front external appearance of a real-time gesture recognition system. 実時間ジェスチャー認識システムのシステム構成を示すブロック図である。It is a block diagram which shows the system configuration | structure of a real-time gesture recognition system. 特徴パターン抽出処理手順およびジェスチャー認識処理手順を示すフローチャートである。It is a flowchart which shows the feature pattern extraction process procedure and the gesture recognition process procedure. 特徴パターン抽出処理手順およびジェスチャー認識処理手順を示すフローチャートである。It is a flowchart which shows the feature pattern extraction process procedure and the gesture recognition process procedure.

符号の説明Explanation of symbols

1 全方位視覚センサ
2 対話者
3 自律走行ロボット
100 CPU
101 システムメモリ
103 HDD
104 I/O
105 入力装置
106 全方位視覚センサ
DESCRIPTION OF SYMBOLS 1 Omnidirectional visual sensor 2 Dialogue person 3 Autonomous traveling robot 100 CPU
101 System memory 103 HDD
104 I / O
105 Input device 106 Omnidirectional visual sensor

Claims (5)

複数の人物が撮像できる位置に設置された単一の全方位視覚センサによりコミュニケーションの様子を撮影することを特徴とするコミュニケーション用撮影方法。   A communication photographing method, wherein a communication state is photographed by a single omnidirectional visual sensor installed at a position where a plurality of persons can be photographed. 複数の人物が撮像できる位置に設置された単一の全方位視覚センサを有し、前記全方位視覚センサによりコミュニケーションの様子を撮影することを特徴とするコミュニケーション用撮影装置。   A communication photographing apparatus having a single omnidirectional visual sensor installed at a position where a plurality of persons can be imaged, and photographing a state of communication by the omnidirectional visual sensor. 複数の人物が撮像できる位置に設置された単一の全方位視覚センサによりコミュニケーションの様子をとらえた映像データの中から、各人物の映っている領域を分割して画像処理することを特徴とする画像処理装置。   A feature is that image processing is performed by dividing a region in which each person is shown from video data that captures the state of communication by a single omnidirectional visual sensor installed at a position where a plurality of persons can be imaged. Image processing device. 複数の人物が撮像できる位置に設置された単一の全方位視覚センサによりコミュニケーションの様子をとらえた映像データの中から、各人物の映っている領域を分割してジェスチャー認識することを特徴とするジェスチャー認識方法。   A feature is that gesture recognition is performed by dividing an area where each person is shown from video data that captures the state of communication using a single omnidirectional visual sensor installed at a position where multiple persons can be imaged. Gesture recognition method. 複数の人物が撮像できる位置に設置された単一の全方位視覚センサと、
該全方位視覚センサによりによりコミュニケーションの様子をとらえた映像データの中から、各人物の映っている領域を分割する分割手段と、
当該分割された領域に映っている人物のジェスチャーを認識するジェスチャー認識手段と
を備えたことを特徴とするジェスチャー認識装置。
A single omnidirectional visual sensor installed at a position where multiple persons can image;
A dividing means for dividing an area in which each person is shown out of the video data capturing the state of communication by the omnidirectional visual sensor;
A gesture recognition device comprising gesture recognition means for recognizing a gesture of a person shown in the divided area.
JP2005352676A 2005-12-06 2005-12-06 Gesture recognition method Pending JP2006127541A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005352676A JP2006127541A (en) 2005-12-06 2005-12-06 Gesture recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005352676A JP2006127541A (en) 2005-12-06 2005-12-06 Gesture recognition method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP30933896A Division JP3784474B2 (en) 1996-11-20 1996-11-20 Gesture recognition method and apparatus

Publications (1)

Publication Number Publication Date
JP2006127541A true JP2006127541A (en) 2006-05-18

Family

ID=36722150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005352676A Pending JP2006127541A (en) 2005-12-06 2005-12-06 Gesture recognition method

Country Status (1)

Country Link
JP (1) JP2006127541A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009537923A (en) * 2006-05-24 2009-10-29 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド Controlling data processing
WO2013115092A1 (en) * 2012-01-30 2013-08-08 日本電気株式会社 Video processing system, video processing method, video processing device, and control method and control program therefor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009537923A (en) * 2006-05-24 2009-10-29 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド Controlling data processing
US8654099B2 (en) 2006-05-24 2014-02-18 Sony Computer Entertainment Europe Limited Control of data processing based on inter-image motion detection
WO2013115092A1 (en) * 2012-01-30 2013-08-08 日本電気株式会社 Video processing system, video processing method, video processing device, and control method and control program therefor

Similar Documents

Publication Publication Date Title
US10339386B2 (en) Unusual event detection in wide-angle video (based on moving object trajectories)
US10296783B2 (en) Image processing device and image display device
JP6316023B2 (en) Camera system and camera control device
US9710923B2 (en) Information processing system, information processing device, imaging device, and information processing method
US9542755B2 (en) Image processor and image processing method
CN108648225B (en) Target image acquisition system and method
KR20090062881A (en) A moving robot and a moving object detecting method thereof
KR20200095873A (en) Apparatus and method for extracting regioin of persion in image and system using the method
JP2011186576A (en) Operation recognition device
JP2005309746A (en) Method and program for tracking moving body, recording medium therefor, and moving body tracking device
CN108921881A (en) A kind of across camera method for tracking target based on homography constraint
JP2007019671A (en) Image communication system and image processing program
JP2017117244A (en) Image analysis device for detecting a person displayed in photographic image of camera
JP3784474B2 (en) Gesture recognition method and apparatus
KR101344851B1 (en) Device and Method for Processing Image
JP2010092092A (en) Image processing apparatus and image processing method
JP2006127541A (en) Gesture recognition method
JP2002342758A (en) Visual recognition system
JP3607440B2 (en) Gesture recognition method
Nishimura et al. Spotting recognition of gestures performed by people from a single time-varying image
JP3440644B2 (en) Hand motion recognition device
JP6350331B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
JP3578321B2 (en) Image normalizer
KR20190066659A (en) System and method for speech recognition in video conference based on 360 omni-directional
CN113778233A (en) Method and device for controlling display equipment and readable medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090417