JP5289290B2 - Posture estimation device - Google Patents

Posture estimation device Download PDF

Info

Publication number
JP5289290B2
JP5289290B2 JP2009270562A JP2009270562A JP5289290B2 JP 5289290 B2 JP5289290 B2 JP 5289290B2 JP 2009270562 A JP2009270562 A JP 2009270562A JP 2009270562 A JP2009270562 A JP 2009270562A JP 5289290 B2 JP5289290 B2 JP 5289290B2
Authority
JP
Japan
Prior art keywords
posture
feature
unit
shape
shape feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009270562A
Other languages
Japanese (ja)
Other versions
JP2011113398A (en
Inventor
宏太 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2009270562A priority Critical patent/JP5289290B2/en
Publication of JP2011113398A publication Critical patent/JP2011113398A/en
Application granted granted Critical
Publication of JP5289290B2 publication Critical patent/JP5289290B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像に写った人物の姿勢を推定する姿勢推定装置に関する。   The present invention relates to a posture estimation apparatus that estimates the posture of a person shown in an image.

従来、カメラにより撮影された画像に写った人物の姿勢を推定する技術が研究されている。特に、物体の形状を認識するためのロバストネスに優れた手法として、シェイプコンテキストマッチングと呼ばれる手法が提案されている。そしてシェイプコンテキストマッチングを人物の姿勢推定に応用した技術が開示されている(例えば、非特許文献1及び2を参照)。   Conventionally, techniques for estimating the posture of a person in an image taken by a camera have been studied. In particular, a technique called shape context matching has been proposed as a technique with excellent robustness for recognizing the shape of an object. And the technique which applied shape context matching to a person's attitude | position estimation is disclosed (for example, refer nonpatent literature 1 and 2).

シェイプコンテキストマッチングにおいて用いられる特徴量であるシェイプコンテキストは、以下のように算出される。まず、認識対象となるモデルの輪郭上に複数の特徴点が設定される。これら複数の特徴点のうちの着目特徴点について、着目特徴点から他の特徴点へのベクトルを求め、そのベクトルが画像に対して設定されたX軸、Y軸などの基準線となす角及びそのベクトルの長さ、すなわち、着目特徴点から他の特徴点までの距離を求める。そして着目特徴点を中心とする円形領域を、所定の角度単位及び所定の長さ単位で複数のセクションに区切り、セクションごとに、該当する他の特徴点までのベクトルの長さ及び角度の度数を算出することによりシェイプコンテキストが求められる。すなわち、シェイプコンテキストは、着目特徴点から他の特徴点を結ぶベクトルの角度及び長さの2次元分布を表す。このシェイプコンテキストは、特徴点ごとに求められる。したがって、一つのモデルに対して、特徴点の数だけシェイプコンテキストが求められる。   A shape context, which is a feature amount used in shape context matching, is calculated as follows. First, a plurality of feature points are set on the contour of the model to be recognized. For the target feature point of the plurality of feature points, a vector from the target feature point to another feature point is obtained, and the angle formed by the reference line such as the X axis and Y axis set for the image and the vector The length of the vector, that is, the distance from the feature point of interest to another feature point is obtained. Then, the circular region centered on the feature point of interest is divided into a plurality of sections in a predetermined angle unit and a predetermined length unit, and the length of the vector and the frequency of the angle to the other corresponding feature point are determined for each section. By calculating, a shape context is obtained. That is, the shape context represents a two-dimensional distribution of the angle and length of a vector connecting the feature point of interest to another feature point. This shape context is obtained for each feature point. Therefore, as many shape contexts as the number of feature points are obtained for one model.

シェイプコンテキストマッチングは、既知の複数の形状モデルについて予め求められたシェイプコンテキストのセットのうち、未知のモデルについて求めたシェイプコンテキストのセットと最も一致するものを検出し、未知のモデルを、その検出されたセットに対応する形状モデルとするものである。   Shape context matching detects the best match with the set of shape contexts obtained for an unknown model from the set of shape contexts obtained in advance for a plurality of known shape models, and the unknown model is detected. The shape model corresponding to the set.

S.Belongie, J.Malik, and J.Puzicha, "Shape Matching and Object Recognition Using Shape Contexts", IEEE Transactions on Pattern Analysis and Machine Intelligence, IEEE Computer Society, 2002年, Volume 24 , Issue 4, p.509-522S.Belongie, J.Malik, and J.Puzicha, "Shape Matching and Object Recognition Using Shape Contexts", IEEE Transactions on Pattern Analysis and Machine Intelligence, IEEE Computer Society, 2002, Volume 24, Issue 4, p.509- 522 G.Mori, and J.Malik, "Recovering 3D Human Body Configurations Using Shape Contexts", IEEE Transactions on Pattern Analysis and Machine Intelligence, IEEE Computer Society, 2006年, Volume 28 , Issue 7, p.1052-1062G.Mori, and J.Malik, "Recovering 3D Human Body Configurations Using Shape Contexts", IEEE Transactions on Pattern Analysis and Machine Intelligence, IEEE Computer Society, 2006, Volume 28, Issue 7, p.1052-1062

手足など、人体の一部の部位の関節の角度が変わっても、その部位から離れたところに設定された特徴点についてのシェイプコンテキストの値は大きく変化しない。一方、例えば、単純に立っている姿勢と立ちながら携帯電話を用いて通話する姿勢のように、二つの姿勢の違いが、一方の腕の角度が異なるだけということもある。
このように人体の部位の一部の形状のみが異なる複数の姿勢を正確に識別しようとすれば、認識対象となる人物の像について求めたシェイプコンテキストのセットを、それら複数の姿勢のそれぞれに対応する複数のモデルから求めたシェイプコンテキストのセットと、それぞれマッチング処理を行う必要がある。そのため、従来技術による姿勢推定方法では、人物の姿勢を正確に識別するためには、非常に多くの演算処理が必要であり、姿勢推定結果を得るまでに長時間を要してしまう。現実的な計算負荷にするためには、モデルの数を絞らざるを得ず、結果として正確な推定を行えない場合があった。そのため、人物の姿勢の推定結果を有効に利用できない可能性があった。
Even if the joint angle of a part of the human body such as a limb changes, the value of the shape context for the feature point set away from the part does not change greatly. On the other hand, the difference between the two postures, for example, the posture of simply standing and the posture of talking using a mobile phone while standing, may be that the angle of one arm is different.
In this way, if you want to accurately identify multiple postures that differ only in the shape of a part of the human body part, the shape context set obtained for the image of the person to be recognized corresponds to each of these multiple postures. It is necessary to perform matching processing with a set of shape contexts obtained from a plurality of models. Therefore, in the posture estimation method according to the prior art, in order to accurately identify the posture of the person, a great amount of calculation processing is required, and it takes a long time to obtain the posture estimation result. In order to achieve a realistic calculation load, the number of models must be reduced, and as a result, accurate estimation may not be possible. Therefore, there is a possibility that the estimation result of the person's posture cannot be used effectively.

そこで、本発明は、画像に写った人物の姿勢を正確に推定可能な姿勢推定装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a posture estimation device that can accurately estimate the posture of a person shown in an image.

本発明の一つの実施形態によれば、画像に写った人物の姿勢を推定する姿勢推定装置が提供される。かかる姿勢推定装置は、画像においてエッジを検出し、そのエッジ上に複数の特徴点を設定する特徴点設定部と、複数の特徴点のそれぞれについて、他の複数の特徴点との位置関係の分布を示す形状特徴量を算出する特徴量算出部と、人物の姿勢を表す複数の姿勢モデルのそれぞれに設定された複数の参照特徴点について、予め求められた形状特徴量である参照形状特徴量と、その参照形状特徴量に対応する姿勢モデルの特定部位ごとに関節の角度を表す部位パラメータ値とを記憶する記憶部と、形状特徴量のそれぞれに類似する参照形状特徴量を特徴点ごとに選択する特徴量選択部と、選択された参照形状特徴量に対応する部位パラメータ値について特定部位ごとの分布を求め、部位パラメータ値の分布が集中している部位パラメータ値から画像に写っている人物の特定部位の形状を推定する部位形状推定部と、推定された部位形状を用いて、画像に写っている人物の姿勢を推定する姿勢推定部とを有する。   According to one embodiment of the present invention, a posture estimation device that estimates the posture of a person in an image is provided. Such a posture estimation device detects an edge in an image, sets a plurality of feature points on the edge, and a distribution of positional relationships between each of the plurality of feature points and other feature points A feature amount calculation unit that calculates a shape feature amount indicating a reference feature feature amount that is a shape feature amount obtained in advance for a plurality of reference feature points set in each of a plurality of posture models representing a posture of a person; A storage unit that stores a part parameter value representing a joint angle for each specific part of the posture model corresponding to the reference shape feature quantity, and a reference shape feature quantity similar to each of the shape feature quantities is selected for each feature point A feature parameter selection unit and a part parameter value corresponding to the selected reference shape feature value to obtain a distribution for each specific part and determine whether the part parameter value distribution is concentrated. It has a region shape estimation unit that estimates a shape of the specific part of the person in the image, by using the estimated site shape and a posture estimation unit configured to estimate the posture of the person in the image.

かかる姿勢推定装置において、記憶部は、参照形状特徴量と関連付けて、参照特徴点から姿勢モデルの全身の位置を表すための参照基準点までの方向及び距離を表す指標を記憶することが好ましい。この場合において、姿勢推定装置は、特徴量選択部により選択された参照形状特徴量のそれぞれについて、参照形状特徴量に関連付けられた指標と、その参照形状特徴量に類似する形状特徴量に対応した特徴点の位置から画像上での人物の位置を表す基準点についての投票位置を求め、投票位置が最も集中する最頻位置から所定範囲内に投票位置を有する参照形状特徴量を選択する全身基準点特定部をさらに有し、部分形状推定部は、参照形状特徴量のうち、全身基準点特定部により選択された参照形状特徴量のみを人物の部位形状の推定に使用することが好ましい。   In such a posture estimation apparatus, the storage unit preferably stores an index representing the direction and distance from the reference feature point to the reference standard point for representing the position of the whole body of the posture model in association with the reference shape feature amount. In this case, the posture estimation apparatus corresponds to an index associated with the reference shape feature value and a shape feature value similar to the reference shape feature value for each of the reference shape feature values selected by the feature value selection unit. A whole body criterion for obtaining a voting position for a reference point representing the position of a person on the image from the position of the feature point, and selecting a reference shape feature quantity having a voting position within a predetermined range from the most frequent position where the voting position is most concentrated It is preferable that the image processing apparatus further includes a point specifying unit, and the partial shape estimation unit uses only the reference shape feature quantity selected by the whole body reference point specification unit among the reference shape feature quantities for estimation of the person's part shape.

かかる姿勢推定装置において、記憶部は、参照形状特徴量と関連付けて、姿勢モデルの太り度合いをさらに記憶し、全身基準点特定部は、特徴量選択部により選択された参照形状特徴量を用いて求めた画像上での基準点の位置と、参照形状特徴量に関連付けられた太り度合いとを含む多次元値として投票位置を決定することが好ましい。   In such a posture estimation apparatus, the storage unit further stores the degree of weight of the posture model in association with the reference shape feature amount, and the whole body reference point specifying unit uses the reference shape feature amount selected by the feature amount selection unit. It is preferable to determine the voting position as a multidimensional value including the position of the reference point on the obtained image and the degree of weight associated with the reference shape feature amount.

本発明に係る姿勢推定装置は、画像に写った人物の姿勢を正確に推定することができる。   The posture estimation apparatus according to the present invention can accurately estimate the posture of a person shown in an image.

一つの実施形態に係る画像監視装置の概略構成図である。It is a schematic block diagram of the image monitoring apparatus which concerns on one embodiment. (a)は、人物が写っている監視画像の一例を示す図であり、(b)は、(a)に示された監視画像を領域分割した一例を示す図であり、(c)は、(b)に示された領域の境界上に設定された特徴点の一例を示す図である。(A) is a figure which shows an example of the monitoring image in which the person is reflected, (b) is a figure which shows an example which divided | segmented the monitoring image shown in (a), (c), It is a figure which shows an example of the feature point set on the boundary of the area | region shown by (b). (a)は、人物の輪郭上に設定された一つの特徴点についての各セクションと、他の特徴点との位置関係を表す図であり、(b)は部分形状特徴量の一例を示す図である。(A) is a figure showing the positional relationship between each section about one feature point set on the outline of a person and other feature points, and (b) is a figure showing an example of a partial shape feature amount It is. 検索リストの一例を示すである。It is an example of a search list. 参照形状特徴量リストの一例を示す図である。It is a figure which shows an example of a reference shape feature-value list | wrist. 図2(c)に示された各特徴点を基準とした、参照形状特徴量に対応する基準方向ベクトルの一例を示す図である。It is a figure which shows an example of the reference | standard direction vector corresponding to a reference shape feature-value on the basis of each feature point shown by FIG.2 (c). (a)は、部位パラメータに含まれる各パラメータの一例を示す図であり、(b)は、姿勢モデルと各パラメータの対応関係を示す図である。(A) is a figure which shows an example of each parameter contained in a site | part parameter, (b) is a figure which shows the correspondence of a posture model and each parameter. 姿勢判定テーブルの一例を示す図である。It is a figure which shows an example of an attitude | position determination table. (a)〜(c)は、それぞれ、人物の姿勢の輪郭の一例を示す図である。(A)-(c) is a figure which shows an example of the outline of a person's attitude | position, respectively. 異常検出処理の動作フローチャートである。It is an operation | movement flowchart of an abnormality detection process. 異常検出処理の動作フローチャートである。It is an operation | movement flowchart of an abnormality detection process.

以下、図を参照しつつ、一つの実施形態による姿勢推定装置を利用した画像監視装置について説明する。この画像監視装置は、画像中のエッジ上に設定した複数の特徴点について、シェイプコンテキストを他の特徴点との位置関係の分布を表す部分形状特徴量として求める。そしてこの画像監視装置は、各特徴点の部分形状特徴量を、人物の姿勢モデルの手足など、特定の部位に設定された参照特徴点について求めた部分形状特徴量と比較して、類似するものだけを用いることにより、その特定部位の形状を推定する。本実施の形態においては、部位の形状とは、四肢の関節の角度で表されるものとする。例えば、腕には肩と肘とに関節があり、肩関節に対する上腕の方向は3方向の角度で表され、また上腕に対する前腕の方向は肘関節の角度に相当する1個の角度で表される。よって、腕の形状は合計4個の角度をパラメータとして特定される。脚も同様に、股関節に対する大腿の方向は3方向の角度で表され、大腿に対する下腿の方向は、膝関節の角度に相当する1個の角度で表される。よって、脚の形状も合計4個の角度をパラメータとして特定される。そしてこの画像監視装置は、部位ごとの形状を組み合わせて人物全身の姿勢を推定する。   Hereinafter, an image monitoring apparatus using an attitude estimation apparatus according to an embodiment will be described with reference to the drawings. This image monitoring apparatus obtains a shape context as a partial shape feature amount representing a distribution of positional relationship with other feature points for a plurality of feature points set on an edge in an image. The image monitoring apparatus compares the partial shape feature amount of each feature point with a partial shape feature amount obtained for a reference feature point set in a specific part such as a limb of a person's posture model. By using only, the shape of the specific part is estimated. In the present embodiment, the shape of the part is represented by the angle of the joint of the limb. For example, the arm has joints at the shoulder and elbow, the direction of the upper arm with respect to the shoulder joint is represented by three angles, and the direction of the forearm with respect to the upper arm is represented by one angle corresponding to the angle of the elbow joint. The Therefore, the shape of the arm is specified with a total of four angles as parameters. Similarly, in the leg, the direction of the thigh with respect to the hip joint is represented by three angles, and the direction of the lower leg with respect to the thigh is represented by one angle corresponding to the angle of the knee joint. Therefore, the shape of the leg is also specified with a total of four angles as parameters. The image monitoring apparatus estimates the posture of the whole person by combining the shapes of the parts.

図1は、一つの実施形態による画像監視装置1の概略構成図である。画像監視装置1は、撮像部2と、姿勢推定装置3とを有する。そして姿勢推定装置3は、インターフェース部4と、記憶部5と、出力部6と、制御部7とを有する。   FIG. 1 is a schematic configuration diagram of an image monitoring apparatus 1 according to one embodiment. The image monitoring device 1 includes an imaging unit 2 and a posture estimation device 3. The posture estimation device 3 includes an interface unit 4, a storage unit 5, an output unit 6, and a control unit 7.

撮像部2は、CCDまたはC-MOSなど、可視光または近赤外光に感度を有する光電変換器で構成された2次元検出器と、その2次元検出器上に監視領域の像を結像する結像光学系などを有する。撮像部2は、例えば、NTSC規格に従って、連続的に撮影を行うカメラとすることができる。あるいは、撮像部2は、いわゆるハイビジョンなど、より高解像度な画像を生成するものでもよい。そして撮像部2は、監視領域を撮影した監視画像を、例えば、各画素の輝度が256階調で表される濃淡画像あるいはカラー画像として生成する。
撮像部2の画像出力は、姿勢検出装置3のインターフェース部4と接続されており、撮像部2は、監視画像を生成する度に、その生成した監視画像を姿勢推定装置3へ出力する。
The imaging unit 2 forms a two-dimensional detector composed of a photoelectric converter having sensitivity to visible light or near-infrared light, such as CCD or C-MOS, and an image of a monitoring region on the two-dimensional detector. And an imaging optical system. The imaging unit 2 can be, for example, a camera that continuously shoots according to the NTSC standard. Alternatively, the imaging unit 2 may generate a higher resolution image such as so-called high vision. Then, the imaging unit 2 generates a monitoring image obtained by capturing the monitoring area, for example, as a grayscale image or a color image in which the luminance of each pixel is represented by 256 gradations.
The image output of the imaging unit 2 is connected to the interface unit 4 of the posture detection device 3, and the imaging unit 2 outputs the generated monitoring image to the posture estimation device 3 every time a monitoring image is generated.

姿勢推定装置3のインターフェース部4は、姿勢推定装置3と撮像部2とを接続するインターフェース及びその制御回路を有する。インターフェース部4は、撮像部2が準拠する画像通信規格に適用した構成を有する。なお、インターフェース部4は、監視画像がアナログ画像として生成される場合、監視画像をデジタル画像に変換するアナログ−デジタル変換回路を有していてもよい。
インターフェース部4は制御部7と接続されており、撮像部2から受信した監視画像を制御部7へ渡す。
The interface unit 4 of the posture estimation device 3 includes an interface that connects the posture estimation device 3 and the imaging unit 2 and a control circuit thereof. The interface unit 4 has a configuration applied to an image communication standard that the imaging unit 2 complies with. The interface unit 4 may include an analog-digital conversion circuit that converts the monitoring image into a digital image when the monitoring image is generated as an analog image.
The interface unit 4 is connected to the control unit 7 and passes the monitoring image received from the imaging unit 2 to the control unit 7.

姿勢推定装置3の記憶部5は、フラッシュメモリなどの不揮発性半導体メモリ、揮発性半導体メモリ、または磁気ディスク(HDD)などの記憶装置を有する。
記憶部5は、画像監視装置1で使用される各種のプログラム及びデータを記憶する。また記憶部5は、例えば、画像監視装置1が起動したとき、あるいは定期的に撮像部2から取得した、侵入者の写っていない監視画像を背景画像として記憶してもよい。
また記憶部5は、人物の姿勢モデルの手足などの部位に、より好適には姿勢モデルの輪郭上に設定された参照特徴点について求めた、他の参照特徴点との位置関係の分布を表す参照形状特徴量を記憶する。さらに記憶部5は、参照形状特徴量と、参照形状特徴量に対応する参照特徴点から見た姿勢モデルの全身の位置を表す参照基準点の位置とを示す参照形状特徴量リストを記憶する。さらに記憶部5は、姿勢モデルの各部位の形状と人物の姿勢との関係、及びその人物の姿勢が正常か異常かを表す判定フラグとの関係を表す姿勢判定テーブルを記憶する。なお、記憶部5に記憶されるこれらのデータの詳細については後述する。
The storage unit 5 of the posture estimation device 3 includes a storage device such as a nonvolatile semiconductor memory such as a flash memory, a volatile semiconductor memory, or a magnetic disk (HDD).
The storage unit 5 stores various programs and data used in the image monitoring apparatus 1. In addition, the storage unit 5 may store, as a background image, for example, a monitoring image in which an intruder is not captured, which is acquired from the imaging unit 2 when the image monitoring device 1 is activated or periodically.
In addition, the storage unit 5 represents a distribution of positional relationships with other reference feature points obtained for reference feature points set on a contour of the posture model, more preferably on a part such as a limb of the person's posture model. The reference shape feature value is stored. Further, the storage unit 5 stores a reference shape feature quantity list indicating the reference shape feature quantity and the position of a reference standard point representing the position of the whole body of the posture model viewed from the reference feature point corresponding to the reference shape feature quantity. Furthermore, the storage unit 5 stores a posture determination table that represents the relationship between the shape of each part of the posture model and the posture of the person, and the determination flag that indicates whether the posture of the person is normal or abnormal. Details of these data stored in the storage unit 5 will be described later.

姿勢推定装置3の出力部6は、構内LANまたは公衆回線網などの通信ネットワークに接続する通信インターフェース及びその制御回路を有している。そして出力部6は、制御部7により異常の発生が検知されたことを示す異常検出信号を制御部7から受け取って、その異常検出信号を画像監視装置1と通信ネットワークを介して接続された警備装置または監視センタ装置へ出力してもよい。また出力部6は、異常検出信号とともに、異常検知時及びその後に取得された監視画像、推定した人物の姿勢の名称などを制御部7から受け取って、その監視画像及び推定した人物の姿勢の名称などを警備装置または監視センタ装置へ出力してもよい。   The output unit 6 of the posture estimation apparatus 3 includes a communication interface connected to a communication network such as a local area LAN or a public line network and a control circuit thereof. The output unit 6 receives an abnormality detection signal indicating that an abnormality has been detected by the control unit 7 from the control unit 7, and the abnormality detection signal is connected to the image monitoring apparatus 1 via a communication network. You may output to an apparatus or a monitoring center apparatus. The output unit 6 also receives from the control unit 7 the monitoring image acquired at and after the abnormality detection, the estimated name of the posture of the person, etc. from the control unit 7 together with the abnormality detection signal. Or the like may be output to the security device or the monitoring center device.

姿勢推定装置3の制御部7は、例えば、1個または複数個のマイクロプロセッサユニットとその周辺回路とを有する。そして制御部7は、画像監視装置1全体を制御する。また制御部7は、撮像部2からインターフェース部4を介して受け取った監視画像及び記憶部5に記憶されたデータに基づいて、監視領域内の人物の姿勢を推定する。そして制御部7は、推定した姿勢に基づいて、異常が発生したか否かを判定する。
そのために、制御部7は、特徴点設定部71と、部分形状特徴量算出部72と、類似度算出部73と、特徴量選択部74と、全身基準点特定部75と、部位形状推定部76と、姿勢推定部77と、判定部78とを有する。制御部7が有するこれらの各部は、例えば、マイクロプロセッサユニット上で動作するプログラムの機能モジュールとして実装される。
The control unit 7 of the posture estimation device 3 includes, for example, one or a plurality of microprocessor units and their peripheral circuits. The control unit 7 controls the entire image monitoring apparatus 1. Further, the control unit 7 estimates the posture of the person in the monitoring area based on the monitoring image received from the imaging unit 2 via the interface unit 4 and the data stored in the storage unit 5. And the control part 7 determines whether abnormality generate | occur | produced based on the estimated attitude | position.
Therefore, the control unit 7 includes a feature point setting unit 71, a partial shape feature amount calculation unit 72, a similarity calculation unit 73, a feature amount selection unit 74, a whole body reference point specifying unit 75, and a part shape estimation unit. 76, a posture estimation unit 77, and a determination unit 78. Each of these units included in the control unit 7 is mounted as a functional module of a program that operates on the microprocessor unit, for example.

特徴点設定部71は、監視画像に写っている人物の輪郭を含むエッジ上に、後述する部分形状特徴量を算出するための参照点となる特徴点を複数設定する。
そのために、特徴点設定部71は、例えば、監視画像に対してセグメンテーション処理を行い、監視画像を類似する特徴を持つ複数の領域に分割する。特徴点設定部71は、セグメンテーション処理として、例えば、平均シフト分割(Mean Shift Segmentation)法を用いることができる。この平均シフト分割法は、例えば、D.Comaniciu, P.Meer, "Mean Shift: A Robust Approach. Toward Feature Space Analysis", IEEE Transactions on Pattern Analysis and Machine Intelligence, IEEE Computer Society, 2002年, Volume 24 , Issue 5, p.603-619、に開示されている。
The feature point setting unit 71 sets a plurality of feature points that serve as reference points for calculating a partial shape feature amount, which will be described later, on the edge including the outline of the person shown in the monitoring image.
For this purpose, for example, the feature point setting unit 71 performs segmentation processing on the monitoring image and divides the monitoring image into a plurality of regions having similar features. The feature point setting unit 71 can use, for example, a mean shift segmentation method as the segmentation process. This average shift division method is described in, for example, D. Comaniciu, P. Meer, "Mean Shift: A Robust Approach. Toward Feature Space Analysis", IEEE Transactions on Pattern Analysis and Machine Intelligence, IEEE Computer Society, 2002, Volume 24, Issue 5, p. 603-619.

特徴点設定部71は、領域の境界をエッジとし、その境界上に所定数の特徴点を設定する。なお、設定される特徴点の個数は、撮影条件または制御部7の処理能力に応じて決定され、例えば、特徴点の個数は25個、50個あるいは100個とすることができる。   The feature point setting unit 71 sets the boundary of the region as an edge, and sets a predetermined number of feature points on the boundary. Note that the number of feature points to be set is determined according to the shooting conditions or the processing capability of the control unit 7. For example, the number of feature points can be 25, 50, or 100.

特徴点設定部71は、領域の境界を表す画素に順次番号を付与し、乱数を発生させて、その乱数に対応した番号が付された画素を特徴点として設定する。
または、特徴点設定部71は、例えば、所定の基準位置(例えば、監視画像の左上あるいは中心)に最も近い境界上の画素を特徴点として設定し、その特徴点からランダムに定めた距離だけ離れた位置にある境界上の画素を次の特徴点として設定する。その後、特徴点設定部71は、設定した特徴点の数が所定数に達するまで同様の処理を繰り返し実行する。その際、特徴点設定部71は、新たに設定しようとする特徴点と、既に設定されている特徴点間の距離が所定以上(例えば、5画素以上)離れるように特徴点を設定してもよい。
The feature point setting unit 71 sequentially assigns numbers to the pixels representing the boundary of the region, generates a random number, and sets the pixels assigned the number corresponding to the random number as the feature points.
Alternatively, the feature point setting unit 71 sets, for example, a pixel on the boundary closest to a predetermined reference position (for example, the upper left or the center of the monitoring image) as a feature point, and is separated from the feature point by a randomly determined distance. The pixel on the boundary at the specified position is set as the next feature point. Thereafter, the feature point setting unit 71 repeatedly executes the same process until the number of set feature points reaches a predetermined number. At that time, the feature point setting unit 71 may set the feature point so that the distance between the feature point to be newly set and the already set feature point is more than a predetermined distance (for example, 5 pixels or more). Good.

また特徴点設定部71は、領域の境界の密度が高いところほど、多数の特徴点を設定してもよい。この場合、特徴点設定部71は、例えば、監視画像を横4区画×縦4区画に分割し、各区画内に含まれる領域の境界上に位置する画素の数をカウントする。そして特徴点設定部71は、区画ごとに、その区画に含まれる境界上の画素の数を監視画像全体の境界上の画素の総数で割った値に、設定する特徴点の総数を乗じることにより、区画ごとの特徴点の数を決定する。そして特徴点設定部71は、各区画について、上記と同様に特徴点を設定する。   The feature point setting unit 71 may set a larger number of feature points as the density of the boundary between regions is higher. In this case, for example, the feature point setting unit 71 divides the monitoring image into 4 horizontal sections × 4 vertical sections, and counts the number of pixels located on the boundary of the area included in each section. Then, for each section, the feature point setting unit 71 multiplies the value obtained by dividing the number of pixels on the boundary included in the section by the total number of pixels on the boundary of the entire monitoring image by the total number of feature points to be set. Determine the number of feature points for each section. And the feature point setting part 71 sets a feature point similarly to the above about each division.

図2(a)は、人物が写っている監視画像の一例を示す図であり、図2(b)は、図2(a)に示された監視画像を領域分割した一例を示す図であり、図2(c)は、図2(b)に示された領域の境界上に設定された特徴点の一例を示す図である。
図2(a)に示された監視画像200には、屋内において直立した一人の人物201が写っている。図2(b)では、各領域の境界が実線で表されている。図2(b)に示されるように、監視画像200が複数の領域に分割されたことにより、人物201が含まれる領域が他の領域と区別されている。例えば、領域210には、人物の右手部分が写っており、他の部分とは異なる領域として区別されている。また図2(c)において、複数の点211は、各領域の境界上に設定された特徴点を表す。図2(c)では、特徴点は、各領域の境界上に均等に設定されている。本実施形態では、後述する処理により、人物の輪郭に相当する境界上に設定された特徴点に関する情報のみが選択される。そのため、図2(c)に示した点211aのように、人物の輪郭以外のところに特徴点が設定されてもよい。
FIG. 2A is a diagram illustrating an example of a monitoring image in which a person is shown, and FIG. 2B is a diagram illustrating an example in which the monitoring image illustrated in FIG. 2A is divided into regions. FIG. 2C is a diagram illustrating an example of feature points set on the boundary of the region illustrated in FIG.
In the monitoring image 200 shown in FIG. 2A, a single person 201 standing upright is shown indoors. In FIG. 2 (b), the boundary of each region is represented by a solid line. As shown in FIG. 2B, the monitoring image 200 is divided into a plurality of areas, so that the area including the person 201 is distinguished from other areas. For example, in the area 210, the right hand part of the person is shown, and is distinguished as an area different from other parts. In FIG. 2C, a plurality of points 211 represent feature points set on the boundary of each region. In FIG.2 (c), the feature point is set equally on the boundary of each area | region. In the present embodiment, only information relating to feature points set on the boundary corresponding to the outline of the person is selected by processing described later. Therefore, a feature point may be set at a place other than the outline of the person like a point 211a shown in FIG.

あるいは、特徴点設定部71は、監視画像を領域分割する代わりに、監視画像に対して、sobelフィルタまたはLaplacianフィルタなどのエッジ検出フィルタを用いてエッジ検出処理を実行することにより、監視画像上のエッジを抽出してもよい。この場合も、特徴点設定部71は、領域分割することにより得られた領域境界上に特徴点を設定する場合と同様の処理を行うことにより、所定のエッジ強度よりも強いエッジ強度を持つエッジ上に所定数の特徴点を設定する。   Alternatively, the feature point setting unit 71 performs an edge detection process on the monitoring image by using an edge detection filter such as a sobel filter or a Laplacian filter instead of dividing the monitoring image into regions. Edges may be extracted. Also in this case, the feature point setting unit 71 performs the same processing as that for setting the feature points on the region boundary obtained by dividing the region, so that the edge having an edge strength stronger than the predetermined edge strength is obtained. A predetermined number of feature points are set on the top.

さらに特徴点設定部71は、監視画像と、監視領域内に検知対象となる人物が写っていないときの監視領域の画像である背景画像との背景差分処理を行うことにより、人物が写っている可能性のある領域である人物領域を抽出してもよい。そして特徴点設定部71は、人物領域の輪郭をエッジとして、その輪郭上に所定数の特徴点を設定する。この場合、特徴点設定部71は、例えば、人物領域の輪郭画素数をカウントすることにより人物領域の輪郭の長さを求める。そして特徴点設定部71は、予め定められた特徴点の個数でその輪郭長を割ることにより、隣接する特徴点同士の間隔を表す特徴点間距離を決定する。
特徴点設定部71は、人物領域の輪郭上の任意の輪郭画素を最初の特徴点とする。特徴点設定部71は、最初の特徴点から順に、人物領域の輪郭に沿って時計回りまたは反時計回りに、一つ前に設定された特徴点から特徴点間距離だけ離れる度に、対応する輪郭画素を次の特徴点として設定する。
特徴点設定部71は、設定した特徴点の位置座標を部分形状特徴量算出部72へ渡す。
Furthermore, the feature point setting unit 71 performs background difference processing between the monitoring image and a background image that is an image of the monitoring area when the person to be detected is not captured in the monitoring area, so that the person is captured. A person area that is a possible area may be extracted. The feature point setting unit 71 sets a predetermined number of feature points on the contour of the person region as an edge. In this case, the feature point setting unit 71 obtains the contour length of the person area by, for example, counting the number of contour pixels of the person area. And the feature point setting part 71 determines the distance between the feature points showing the space | interval of adjacent feature points by dividing the outline length by the predetermined number of feature points.
The feature point setting unit 71 sets an arbitrary contour pixel on the contour of the person region as the first feature point. The feature point setting unit 71 responds in order from the first feature point in the clockwise or counterclockwise direction along the outline of the person area, each time the feature point is separated from the feature point set immediately before by the distance between the feature points. The contour pixel is set as the next feature point.
The feature point setting unit 71 passes the position coordinates of the set feature points to the partial shape feature amount calculation unit 72.

部分形状特徴量算出部72は、各特徴点について、人体の特定の部位の輪郭形状の特徴を表す部分形状特徴量を算出する。本実施形態では、部分形状特徴量算出部72は、部分形状特徴量としてシェイプコンテキストを算出する。すなわち、部分形状特徴量算出部72は、着目特徴点から他の特徴点へのベクトルを求め、そのベクトルが画像に対して定義されたX軸またはY軸などの基準線となす角度θ及びそのベクトルの長さ、すなわち、着目特徴点から他の特徴点までの距離rを求める。そして部分形状特徴量算出部72は、着目特徴点を中心とする円形領域を、所定の角度単位及び所定の長さ単位で複数のセクションに区切り、セクションごとに、該当する他の特徴点までのベクトルの長さr及び角度θの度数、すなわち、そのセクションに存在する他の特徴点の数を算出する。そして部分形状特徴量算出部72は、各セクションの度数をそのセクションの面積で割って正規化することにより、シェイプコンテキストを求める。なお、本実施形態では、基準線は、着目特徴点から右方向へ向かう水平線とした。また所定の角度単位は30°とし、所定の長さは10画素とした。なお、所定の長さ単位は、着目特徴点からの距離が長くなるにつれて大きくなるように、例えば、セクションの境界に対応する距離の対数が等間隔となるように定められてもよい。また、所定の長さ単位は、各セクションの面積が等しくなるように決定されてもよい。   The partial shape feature value calculation unit 72 calculates a partial shape feature value representing the feature of the contour shape of a specific part of the human body for each feature point. In the present embodiment, the partial shape feature quantity calculation unit 72 calculates a shape context as the partial shape feature quantity. That is, the partial shape feature amount calculation unit 72 obtains a vector from the feature point of interest to another feature point, an angle θ that the vector forms with a reference line such as an X axis or a Y axis defined for the image, and the angle θ The length of the vector, that is, the distance r from the feature point of interest to another feature point is obtained. Then, the partial shape feature quantity calculation unit 72 divides the circular region centered on the feature point of interest into a plurality of sections in a predetermined angle unit and a predetermined length unit, and for each section up to the corresponding other feature point. The frequency of the vector length r and the angle θ, that is, the number of other feature points existing in the section is calculated. Then, the partial shape feature amount calculation unit 72 obtains the shape context by normalizing the frequency of each section by dividing it by the area of the section. In the present embodiment, the reference line is a horizontal line that goes to the right from the feature point of interest. The predetermined angle unit was 30 °, and the predetermined length was 10 pixels. Note that the predetermined length unit may be determined so that the logarithm of the distance corresponding to the boundary of the section is equally spaced, for example, so as to increase as the distance from the target feature point increases. Further, the predetermined length unit may be determined so that the areas of the sections are equal.

図3(a)は、人物の輪郭300上に設定された一つの特徴点301についての各セクションと、他の特徴点との位置関係を表す図であり、図3(b)は、部分形状特徴量の一例を示す図である。図3(a)において、特徴点301を中心とする、同心円状でかつ放射状に区切られた部分環状領域のそれぞれが一つのセクションに対応する。例えば、セクション302には、二つの特徴点303、304が含まれているので、セクション302の度数は2となる。一方、セクション305には、一つの特徴点306が含まれているので、セクション305の度数は1となる。
図3(b)に示されるように、部分形状特徴量310は、角θと距離rの正規化2次元ヒストグラムであり、横軸は角度θを表し、縦軸は距離rを表す。そして高さ方向軸は正規化度数を表す。この例では、角度θに関して12個、距離rに関して6個のセクションが設定されている。そして、各セクションの正規化度数311は立体棒グラフとして表されている。
部分形状特徴量算出部72は、各特徴点の位置座標及び各特徴点について得られた部分形状特徴量を類似度算出部73へ渡す。
FIG. 3A is a diagram showing the positional relationship between each section of one feature point 301 set on the person's outline 300 and other feature points, and FIG. 3B is a partial shape. It is a figure which shows an example of the feature-value. In FIG. 3A, each of the concentric and radially segmented partial annular regions centering on the feature point 301 corresponds to one section. For example, since the section 302 includes two feature points 303 and 304, the frequency of the section 302 is 2. On the other hand, since the section 305 includes one feature point 306, the frequency of the section 305 is 1.
As shown in FIG. 3B, the partial shape feature quantity 310 is a normalized two-dimensional histogram of the angle θ and the distance r, the horizontal axis represents the angle θ, and the vertical axis represents the distance r. The height axis represents the normalized frequency. In this example, 12 sections are set for the angle θ and 6 sections for the distance r. The normalized frequency 311 of each section is represented as a solid bar graph.
The partial shape feature amount calculation unit 72 passes the position coordinates of each feature point and the partial shape feature amount obtained for each feature point to the similarity calculation unit 73.

類似度算出部73は、各特徴点について得られた部分形状特徴量について、記憶部5に記憶されている複数の参照形状特徴量のそれぞれとの類似度を算出する。ここで、各参照形状特徴量は、人物の特定の姿勢を表す姿勢モデル上に、より好適にはその輪郭上に複数の特徴点を設定し、その姿勢モデルの特定部位(例えば、腕または脚)の輪郭上に設定された参照特徴点について、部分形状特徴量算出部72と同様の手法により求めたシェイプコンテキストである。そのため、参照形状特徴量も、部分形状特徴量と同様に、着目する参照特徴点から他の参照特徴点までの距離r及びそれら二つの参照特徴点を結ぶベクトルと基準線とのなす角度θのセクションごとの正規化度数を表す2次元ヒストグラムである。また参照形状特徴量は、互いに異なる姿勢を表す複数の姿勢モデルに対してそれぞれ複数個求められる。そして参照形状特徴量は、その識別番号とともに記憶部5に予め記憶される。なお、参照形状特徴量は、画像上に合成されたモデルとは別個に算出され、シミュレーションなどによってその参照形状特徴量がどのような姿勢を持つモデルのどの部位の参照特徴点に対応するものかが決定されてもよい。   The similarity calculation unit 73 calculates the similarity between each partial shape feature amount obtained for each feature point and each of the plurality of reference shape feature amounts stored in the storage unit 5. Here, each reference shape feature amount is set on a posture model representing a specific posture of a person, more preferably a plurality of feature points on its contour, and a specific part (for example, arm or leg) of the posture model. ) Is a shape context obtained by a method similar to that of the partial shape feature amount calculation unit 72. Therefore, similarly to the partial shape feature quantity, the reference shape feature quantity also includes the distance r from the target reference feature point to another reference feature point, and the angle θ formed by the vector connecting the two reference feature points and the reference line. It is a two-dimensional histogram showing the normalized frequency for every section. Further, a plurality of reference shape feature amounts are obtained for each of a plurality of posture models representing different postures. The reference shape feature quantity is stored in advance in the storage unit 5 together with the identification number. The reference shape feature value is calculated separately from the model synthesized on the image, and which part of the model the reference shape feature value corresponds to which reference feature point by the simulation etc. May be determined.

類似度算出部73は、例えば、参照形状特徴量及び部分形状特徴量に含まれる2次元ヒストグラムの各正規化度数を、それぞれ一つの要素とみなして計算したマンハッタン距離に基づいて類似度を決定する。すなわち、類似度算出部73は、i番目の特徴点に対する部分形状特徴量piと記憶部5に記憶されているj番目の参照形状特徴量rjの類似度sijを、次式にしたがって算出する。
なお、Nは、部分形状特徴量に含まれるセクションの総数である。またpi=(pi1, pi2,...,piN)は、i番目の特徴点に対応する部分形状特徴量を表し、その要素pik(k=1,2,...,N)は、k番目のセクションの正規化度数を表す。なお、セクションの順序の決め方は任意でよい。またrj=(rj1, rj2,...,rjN)は、j番目の参照形状特徴量を表し、その要素rjkは、k番目のセクションの正規化度数を表す。得られた類似度は、0〜1の範囲に含まれる値であり、部分形状特徴量piと参照形状特徴量rjが完全に一致する場合に1となる。
なお、類似度算出部73は、部分形状特徴量と参照形状特徴量間の距離を、インターセクション(対応するセクションの二つの度数のうちの最小値の和)あるいはEarth Mover's Distanceなど、他の距離尺度により算出してもよい。
類似度算出部73は、各特徴点の位置座標及び各特徴点について得られた類似度及びその類似度に対応する参照形状特徴量の識別番号を特徴量選択部74に渡す。
The similarity calculation unit 73 determines the similarity based on the Manhattan distance calculated by regarding each normalized frequency of the two-dimensional histogram included in the reference shape feature quantity and the partial shape feature quantity as one element, for example. . That is, the similarity calculation unit 73 calculates the similarity s ij of the partial shape feature quantity p i for the i-th feature point and the j-th reference shape feature quantity r j stored in the storage unit 5 according to the following equation. calculate.
N is the total number of sections included in the partial shape feature amount. P i = (p i1 , p i2 , ..., p iN ) represents the partial shape feature quantity corresponding to the i-th feature point, and its element p ik (k = 1,2, ..., N) represents the normalized frequency of the kth section. The section order may be determined arbitrarily. R j = (r j1 , r j2 ,..., R jN ) represents the j-th reference shape feature amount, and its element r jk represents the normalized frequency of the k-th section. The obtained similarity is a value included in the range of 0 to 1, and becomes 1 when the partial shape feature quantity p i and the reference shape feature quantity r j completely match.
The similarity calculation unit 73 sets the distance between the partial shape feature value and the reference shape feature value to another distance such as an intersection (the sum of the minimum values of the two frequencies in the corresponding section) or Earth Mover's Distance. You may calculate by a scale.
The similarity calculation unit 73 passes the position coordinates of each feature point, the similarity obtained for each feature point, and the identification number of the reference shape feature amount corresponding to the similarity to the feature amount selection unit 74.

特徴量選択部74は、各特徴点について、類似度が高い方から順に、所定個数の参照形状特徴量を選択する。所定個数は、例えば、3、5あるいは10とすることができる。
あるいは、特徴量選択部74は、記憶部5を参照して、各特徴点について、類似度が所定の閾値以上となる参照形状特徴量を選択してもよい。所定の閾値は、例えば、人物の輪郭上に存在すると分かっている複数の特徴点について算出された類似度の分布と、人物の輪郭以外に設定された複数の特徴点について算出された類似度の分布とに対して判別分析を行うことにより、それら二つの類似度分布を最も分離できる閾値として予め決定される。例えば、所定の閾値は0.5〜0.7程度の値に設定される。
特徴量選択部74は、各特徴点について、その位置座標及び選択された参照形状特徴量の類似度及び識別番号を含む検索リストを作成し、その検索リストを記憶部5に記憶する。
The feature amount selection unit 74 selects a predetermined number of reference shape feature amounts in order from the highest similarity for each feature point. The predetermined number can be set to 3, 5, or 10, for example.
Alternatively, the feature amount selection unit 74 may refer to the storage unit 5 and select a reference shape feature amount having a similarity equal to or higher than a predetermined threshold for each feature point. The predetermined threshold is, for example, a distribution of similarity calculated for a plurality of feature points known to exist on the outline of a person, and a similarity calculated for a plurality of feature points set other than the outline of the person. By performing discriminant analysis on the distribution, the two similarity distributions are determined in advance as threshold values that can be most separated. For example, the predetermined threshold is set to a value of about 0.5 to 0.7.
For each feature point, the feature quantity selection unit 74 creates a search list including the position coordinates, the similarity of the selected reference shape feature quantity, and the identification number, and stores the search list in the storage unit 5.

図4は、検索リストの一例を示すである。検索リスト400において、左の列から順番に、各列には、それぞれ、監視画像上に設定された特徴点の識別番号401、その特徴点の監視画像上の位置座標402、その特徴点に対して選択された参照形状特徴量の識別番号403、選択された参照形状特徴量に対する類似度404が表される。例えば、検索リスト400を参照すると、識別番号"01"の特徴点について、その特徴点の位置座標が(100, 150)であり、識別番号"123"、"456"、"789"の3個の参照形状特徴量が選択されており、そして、選択された各参照形状特徴量に対する類似度が、それぞれ、0.8、0.7、0.85であることが示されている。   FIG. 4 shows an example of the search list. In the search list 400, in order from the left column, each column has a feature point identification number 401 set on the monitoring image, a position coordinate 402 of the feature point on the monitoring image, and the feature point. The identification number 403 of the selected reference shape feature amount and the similarity 404 with respect to the selected reference shape feature amount are displayed. For example, referring to the search list 400, for the feature point with the identification number “01”, the position coordinates of the feature point are (100, 150), and there are three identification numbers “123”, “456”, and “789”. The reference shape feature quantities are selected, and the similarities to the selected reference shape feature quantities are 0.8, 0.7, and 0.85, respectively.

全身基準点特定部75は、検索リストに登録されている参照形状特徴量から、監視画像上での人物の全身の位置を表す基準点を特定し、その参照形状特徴量に対応する特徴点と基準点との位置関係が、参照形状特徴量に対応する参照特徴点と参照基準点との位置関係とほぼ同じである参照形状特徴量を選択する。そこで全身基準点特定部75は、各特徴点について選択された参照形状特徴量に対応する参照特徴点から、姿勢モデルの全身位置を表す参照基準点までのベクトルを用いる。なお参照基準点は、例えば、参照特徴点が設定された姿勢モデルの重心位置に設定される。あるいは、参照基準点は、姿勢モデルの重心位置以外、例えば、姿勢モデルの臍に相当する点のように、姿勢モデルの胴体内に位置する点といった、姿勢モデルの全身の位置を代表できる点であればよい。   The whole body reference point specifying unit 75 specifies a reference point representing the position of the whole body of the person on the monitoring image from the reference shape feature amount registered in the search list, and a feature point corresponding to the reference shape feature amount A reference shape feature quantity is selected whose positional relationship with the reference point is substantially the same as the positional relation between the reference feature point corresponding to the reference shape feature quantity and the reference reference point. Therefore, the whole body reference point specifying unit 75 uses a vector from the reference feature point corresponding to the reference shape feature amount selected for each feature point to the reference reference point representing the whole body position of the posture model. The reference reference point is set, for example, at the barycentric position of the posture model in which the reference feature point is set. Alternatively, the reference reference point is a point that can represent the position of the whole body of the posture model, such as a point located in the body of the posture model, such as a point corresponding to the navel of the posture model, other than the center of gravity position of the posture model. I just need it.

全身基準点特定部75は、検索リストを参照し、各特徴点について選択された参照形状特徴量の識別番号を特定する。そして全身基準点特定部75は、記憶部5に記憶されている、参照形状特徴量リストを参照することにより、その参照形状特徴量に対応する参照特徴点から参照基準点へのベクトルを求める。   The whole body reference point specifying unit 75 refers to the search list and specifies the identification number of the reference shape feature value selected for each feature point. Then, the whole body reference point specifying unit 75 refers to the reference shape feature value list stored in the storage unit 5 to obtain a vector from the reference feature point corresponding to the reference shape feature value to the reference reference point.

図5は、参照形状特徴量リストの一例を示す図である。参照形状特徴量リスト500において、左の列から順番に、各列には、それぞれ、参照形状特徴量の識別番号501、その参照形状特徴量に対応する全身パラメータ502、その参照形状特徴量が対応する手足の形状として、手足に含まれる関節の角度を表す部位パラメータ503が表される。   FIG. 5 is a diagram illustrating an example of the reference shape feature amount list. In the reference shape feature quantity list 500, in order from the left column, each column corresponds to a reference shape feature quantity identification number 501, a whole body parameter 502 corresponding to the reference shape feature quantity, and the reference shape feature quantity, respectively. A part parameter 503 representing the angle of the joint included in the limb is represented as the shape of the limb to be performed.

全身パラメータ502には、参照形状特徴量に対応する参照特徴点が設定された姿勢モデルの太り度合いを表す太り度511と、その参照特徴点から参照基準点の方向及び距離を表す指標である基準方向ベクトル512が含まれる。太り度511は、例えば、標準的な体型に対応する姿勢モデルに対して1.0とし、標準的な体型の姿勢モデルの胴体部分の直径に対する、着目する姿勢モデルの胴体部分の直径の比として表される。腕及び脚の直径は、胴体の直径の比に応じて変化させる。胴体の直径の比、腕の直径の比、及び脚の直径の比を独立に可変として、それぞれの組み合わせを考えてもよい。したがって、太り度511は、標準的な体型よりも痩せている度合いが強い姿勢モデルほど小さな値となり、逆に標準的な体型よりも太っている度合いが強い姿勢モデルほど大きな値となる。例えば、太り度511が0.8〜1.2の範囲内に含まれ、かつ0.01単位で増減するように、姿勢モデルは設定される。   The whole body parameter 502 includes a weight 511 that represents the degree of weight of the posture model in which a reference feature point corresponding to the reference shape feature value is set, and a standard that is an index that represents the direction and distance of the reference reference point from the reference feature point. A direction vector 512 is included. The degree of fatness 511 is, for example, 1.0 for a posture model corresponding to a standard body shape, and is expressed as a ratio of the diameter of the body portion of the posture model of interest to the diameter of the body portion of the posture model of the standard body shape. The The diameters of the arms and legs are changed according to the ratio of the trunk diameters. Each combination may be considered by making the ratio of the diameter of the trunk, the ratio of the diameter of the arm, and the ratio of the diameter of the legs independently variable. Accordingly, the fatness degree 511 has a smaller value for a posture model that is more lean than the standard body shape, and conversely has a larger value for a posture model that is more fat than the standard body shape. For example, the posture model is set so that the degree of fatness 511 is included in the range of 0.8 to 1.2 and is increased or decreased by 0.01 units.

部位パラメータ503には、右肩の関節の角度と右肘の関節の角度を表す右腕パラメータ521と、左肩の関節の角度と左肘の関節の角度を表す左腕パラメータ522と、右股関節の角度と右膝の関節の角度を表す右脚パラメータ523と、左股関節の角度と左膝の関節の角度を表す左脚パラメータ524とが含まれる。なお、部位パラメータの詳細については後述する。   The site parameter 503 includes a right arm parameter 521 representing the angle of the right shoulder joint and the angle of the right elbow, a left arm parameter 522 representing the angle of the left shoulder joint and the left elbow joint, and the angle of the right hip joint. A right leg parameter 523 representing the angle of the right knee joint and a left leg parameter 524 representing the angle of the left hip joint and the angle of the left knee joint are included. Details of the site parameter will be described later.

全身基準点特定部75は、検索リストに登録されている各参照形状特徴量について、参照形状特徴量リストに示された対応する基準方向ベクトルに、その参照形状特徴量が類似するとして選択された特徴点の位置座標を加えることにより、監視画像の座標系における基準点の位置を求める。   The whole body reference point specifying unit 75 is selected for each reference shape feature amount registered in the search list as having a similar reference shape feature amount to the corresponding reference direction vector indicated in the reference shape feature amount list. The position of the reference point in the coordinate system of the monitoring image is obtained by adding the position coordinates of the feature points.

図6は、図2(c)に示された各特徴点を基準とした、特徴量選択部74により選択された参照形状特徴量に対応する基準方向ベクトルの一例を示す図である。図6において、点601〜603は、それぞれ特徴点を表す。また矢印601a〜601eは、それぞれ、特徴点601に対して選択された参照形状特徴量に対応する基準方向ベクトルを、特徴点601を原点として表したものである。同様に、矢印602a〜602e及び矢印603a〜603eは、それぞれ、特徴点602及び603に対して選択された参照形状特徴量に対応する基準方向ベクトルを、特徴点602及び603を原点として表したものである。   FIG. 6 is a diagram illustrating an example of a reference direction vector corresponding to the reference shape feature quantity selected by the feature quantity selection unit 74 based on each feature point shown in FIG. In FIG. 6, points 601 to 603 each represent a feature point. In addition, arrows 601a to 601e respectively represent a base direction vector corresponding to the reference shape feature amount selected for the feature point 601 with the feature point 601 as the origin. Similarly, arrows 602a to 602e and arrows 603a to 603e represent reference direction vectors corresponding to the reference shape feature quantities selected for the feature points 602 and 603, respectively, with the feature points 602 and 603 as the origin. It is.

特徴点と、その特徴点について選択された参照形状特徴量に対応する参照特徴点とが、類似する姿勢でかつ同じ部位のうちの近接した場所に設定された特徴点であれば、その特徴点について求めた基準点は、姿勢モデルに対する参照基準点の位置とほぼ同じ位置を表すことになる。例えば、このような場合、参照基準点が姿勢モデルの臍に設定されていれば、基準点も、監視画像上での人物の像の臍近辺に位置することになる。そのため、各特徴点について、監視画像に写っている人物の姿勢と同じ姿勢を持つ姿勢モデル上の同じ部位に設定された参照特徴点の参照形状特徴量が選択されていれば、図6に示されるように、複数の特徴点について算出された基準点の位置(すなわち、複数の特徴点から向けられた基準方向ベクトルの先の位置)がほぼ同じとなる。逆に、各特徴点について、監視画像に写っている人物の姿勢と異なる姿勢をもつ姿勢モデルに設定された参照特徴点、またはその人物と同じ姿勢をもつ姿勢モデルに設定されているものの、特徴点とは異なる部位に設定されている参照特徴点の参照形状特徴量が選択されていれば、各特徴点について算出された基準点の位置は、互いに異なることとなる。
したがって、例えば、図6の領域604のように、基準方向ベクトルの先が最も集中している領域内に基準方向ベクトルの先が位置する参照形状特徴量に対応する参照特徴点は、監視画像に写っている人物と同じ姿勢を持つ姿勢モデルに設定され、かつ、対応する特徴点と同じ部位に付された特徴点である可能性が高い。
If the feature point and the reference feature point corresponding to the reference shape feature amount selected for the feature point are feature points set in a similar posture and close to the same part, the feature point The reference point obtained with respect to represents a position substantially the same as the position of the reference reference point with respect to the posture model. For example, in such a case, if the reference reference point is set on the navel of the posture model, the reference point is also located near the navel of the person image on the monitoring image. Therefore, for each feature point, if the reference shape feature quantity of the reference feature point set in the same part on the posture model having the same posture as the posture of the person shown in the monitoring image is selected, it is shown in FIG. As described above, the positions of the reference points calculated for the plurality of feature points (that is, the positions ahead of the reference direction vectors directed from the plurality of feature points) are substantially the same. Conversely, for each feature point, a reference feature point set in a posture model that has a posture different from the posture of the person in the monitoring image or a feature model that is set in a posture model that has the same posture as that person If the reference shape feature amount of the reference feature point set in a part different from the point is selected, the positions of the reference points calculated for each feature point are different from each other.
Therefore, for example, a reference feature point corresponding to a reference shape feature amount where the tip of the reference direction vector is located in an area where the tip of the reference direction vector is most concentrated, such as a region 604 in FIG. There is a high possibility that the feature point is set to the posture model having the same posture as the person in the image and is attached to the same part as the corresponding feature point.

そこで、全身基準点特定部75は、各参照形状特徴量について求めた基準点が最も集中している領域を最頻領域として特定する。そして全身基準点特定部75は、検索リストに登録されている参照形状特徴量のうち、対応する基準方向ベクトルに特徴点の位置座標を加えた投票位置と、その最頻領域を代表する位置である最頻度位置との距離が所定距離以内の参照形状特徴量を抽出し、その他の参照形状特徴量を検索リストから削除する。   Therefore, the whole body reference point specifying unit 75 specifies the region where the reference points obtained for each reference shape feature amount are most concentrated as the most frequent region. Then, the whole-body reference point specifying unit 75, among the reference shape feature amounts registered in the search list, is a voting position obtained by adding the position coordinates of the feature point to the corresponding reference direction vector and a position representing the most frequent region. A reference shape feature quantity whose distance from a certain most frequent position is within a predetermined distance is extracted, and other reference shape feature quantities are deleted from the search list.

全身基準点特定部75は、最頻領域を決定するために、例えば、監視画像を複数のブロックに分割する。そして全身基準点特定部75は、複数のブロックのうち、検索リストに登録されている参照形状特徴量と対応する基準方向ベクトルに特徴点の位置座標を加えた投票位置が含まれる度数が最も多い領域を最頻領域とする。この場合、各ブロックは、例えば、水平方向及び垂直方向にそれぞれ5画素の幅を持つ領域とすることができる。
あるいは、全身基準点特定部75は、所定の形状及びサイズを持つ探索領域を監視画像上で移動させつつ、探索領域内に投票位置が含まれる度数を調べてもよい。この場合、全身基準点特定部75は、度数が最も高くなったときの位置における探索領域を、最頻領域とする。探索領域は、例えば、半径5画素の円形とすることができる。
For example, the whole body reference point specifying unit 75 divides the monitoring image into a plurality of blocks in order to determine the most frequent region. Then, the whole body reference point specifying unit 75 has the highest frequency that includes a voting position obtained by adding the position coordinates of the feature point to a reference direction vector corresponding to the reference shape feature amount registered in the search list among the plurality of blocks. Let the region be the most frequent region. In this case, each block can be, for example, an area having a width of 5 pixels in the horizontal direction and the vertical direction.
Alternatively, the whole body reference point specifying unit 75 may check the frequency at which the voting position is included in the search area while moving the search area having a predetermined shape and size on the monitoring image. In this case, the whole body reference point specifying unit 75 sets the search area at the position where the frequency is the highest as the most frequent area. The search area can be, for example, a circle with a radius of 5 pixels.

また、全身基準点特定部75は、最頻領域を、監視画像上の水平座標及び垂直座標と、太り度により表される3次元空間において定めてもよい。これにより、全身基準点特定部75は、監視領域に写っている人物の体型に応じた特徴点間の位置関係の変化による部分形状特徴量のバラツキも考慮することができる。そのため、全身基準点特定部75は、監視画像に写っている人物の姿勢と同じ姿勢を持つ姿勢モデルに設定された参照特徴点に対応する参照形状特徴量をより正確に選択できる。   Further, the whole body reference point specifying unit 75 may determine the most frequent region in a three-dimensional space represented by the horizontal and vertical coordinates on the monitoring image and the degree of weight. Accordingly, the whole body reference point specifying unit 75 can also take into account variations in the partial shape feature amount due to a change in the positional relationship between the feature points according to the body shape of the person shown in the monitoring area. Therefore, the whole body reference point specifying unit 75 can more accurately select the reference shape feature amount corresponding to the reference feature point set in the posture model having the same posture as the posture of the person shown in the monitoring image.

この場合、全身基準点特定部75は、検索リストに登録されている参照形状特徴量と対応する基準方向ベクトルに特徴点の位置座標を加えた2次元座標値と、その参照形状特徴量と対応する太り度との3個の値で投票位置を表す。また全身基準点特定部75は、監視画像の水平方向及び垂直方向と、太り度とをそれぞれ直交する軸とする3次元空間を、所定のサイズのブロックに分割し、各ブロックについて投票位置の度数を求める。そして全身基準点特定部75は、最も投票度数の高いブロックを最頻領域とする。この場合、各ブロックは、例えば、水平方向及び垂直方向にそれぞれ5画素の幅を持ち、太り度について0.05の幅を持つ3次元空間とすることができる。
また、全身基準点特定部75は、所定の形状及びサイズを持つ探索領域を移動させつつ、探索領域内に含まれる投票位置の度数が最も高くなる探索領域の位置を決定することにより、最頻領域を決定してもよい。
In this case, the whole body reference point specifying unit 75 corresponds to the two-dimensional coordinate value obtained by adding the position coordinates of the feature point to the reference direction vector corresponding to the reference shape feature value registered in the search list, and the reference shape feature value. The voting position is represented by three values of the fatness degree. The whole-body reference point specifying unit 75 divides a three-dimensional space having axes that are orthogonal to the horizontal and vertical directions of the monitoring image and the degree of weight, into blocks of a predetermined size, and the frequency of the voting position for each block Ask for. The whole body reference point specifying unit 75 sets the block with the highest vote count as the most frequent region. In this case, for example, each block can be a three-dimensional space having a width of 5 pixels in each of the horizontal direction and the vertical direction and a width of 0.05 with respect to the thickness.
In addition, the whole body reference point specifying unit 75 moves the search area having a predetermined shape and size, and determines the position of the search area where the frequency of the voting position included in the search area is the highest, so that The region may be determined.

全身基準点特定部75は、最頻領域の中心、または、最頻領域に含まれる、投票位置の重心を最頻度位置とする。そして全身基準点特定部75は、検索リストに登録されている参照形状特徴量のそれぞれについて求めた投票位置と最頻度位置の距離を算出する。そして全身基準点特定部75は、求めた距離が予め定められた閾値よりも大きい参照形状特徴量を検索リストから削除する。なお閾値は、例えば、最頻領域を決定するための探索領域の半径またはブロックの中心から端点までの距離と同一の値、あるいは、探索領域の半径またはブロックの中心から端点までの距離に、0.5〜2を乗じた値とすることができる。   The whole body reference point specifying unit 75 sets the center of the most frequent area or the center of gravity of the voting position included in the most frequent area as the most frequent position. Then, the whole body reference point specifying unit 75 calculates the distance between the vote position and the most frequent position obtained for each of the reference shape feature values registered in the search list. Then, the whole body reference point specifying unit 75 deletes the reference shape feature quantity whose calculated distance is larger than a predetermined threshold from the search list. The threshold value is, for example, the radius of the search region for determining the most frequent region or the same value as the distance from the center of the block to the end point, or the radius of the search region or the distance from the center of the block to the end point, 0.5 It can be a value multiplied by ~ 2.

部位形状推定部76は、全身基準点特定部75により選択された参照形状特徴量に対応する部位パラメータに基づいて、腕または脚などの各部位の形状、すなわち、各部位に含まれる関節の角度を推定する。   The part shape estimation unit 76, based on the part parameter corresponding to the reference shape feature amount selected by the whole body reference point specifying unit 75, the shape of each part such as an arm or a leg, that is, the angle of the joint included in each part Is estimated.

図7(a)は、部位パラメータに含まれる各パラメータの一例を示す図であり、図7(b)は、姿勢モデルと各パラメータの対応関係を示す図である。
左右の肩関節及び左右の股関節の自由度は3であるため、それらの関節の角度は3個のパラメータで表される。また左右の肘関節及び左右の膝関節の自由度は1であるため、それらの関節の角度は1個のパラメータで表される。したがって、図7(a)に示されるように、右腕パラメータ701は、右肩関節の角度を表す3個のパラメータαr、βr、γrと、右肘関節の角度を表す1個のパラメータφrを持つ。同様に、左腕パラメータ702、右脚パラメータ703及び左脚パラメータ704は、それぞれ、角度を表す4個のパラメータを持つ。
FIG. 7A is a diagram illustrating an example of each parameter included in the part parameter, and FIG. 7B is a diagram illustrating a correspondence relationship between the posture model and each parameter.
Since the degree of freedom of the left and right shoulder joints and the left and right hip joints is 3, the angles of these joints are represented by three parameters. Further, since the degree of freedom of the left and right elbow joints and the left and right knee joints is 1, the angles of those joints are represented by one parameter. Therefore, as shown in FIG. 7A, the right arm parameter 701 has three parameters αr, βr, and γr representing the angle of the right shoulder joint and one parameter φr representing the angle of the right elbow joint. . Similarly, the left arm parameter 702, the right leg parameter 703, and the left leg parameter 704 each have four parameters representing an angle.

図7(b)において、座標系711は、右肩関節のパラメータに対応する座標系を示す。本実施形態では、右上腕が姿勢モデルの鉛直方向軸となす角をαrとし、姿勢モデルの水平方向軸となす角をβrとし、姿勢モデルの鉛直方向軸及び水平方向軸と直交し、姿勢モデルの前方に向かう方向を正とする軸となす角をγrとする。
座標系712は、右肘関節のパラメータに対する座標系を表す。本実施形態では、右前腕と右上腕とがなす角をφrとする。
また座標系713は、、右股関節のパラメータに対応する座標系を示す。本実施形態では、右大腿が姿勢モデルの鉛直方向軸となす角をψrとし、姿勢モデルの水平方向軸となす角をηrとし、姿勢モデルの鉛直方向軸及び水平方向軸と直交し、姿勢モデルの前方に向かう方向を正とする軸となす角をζrとする。
座標系714は、右膝関節のパラメータに対する座標系を表す。本実施形態では、右大腿と右下腿とがなす角をξrとする。
なお、左半身に対する部位パラメータに含まれる関節の角度は、右半身用の座標系を左右に反転した座標系に基づいて決定される。
In FIG. 7B, a coordinate system 711 indicates a coordinate system corresponding to the parameters of the right shoulder joint. In this embodiment, the angle formed by the upper right arm and the vertical axis of the posture model is αr, the angle formed by the horizontal axis of the posture model is βr, and the posture model is orthogonal to the vertical and horizontal axes of the posture model. Let γr be the angle formed by the positive axis in the direction toward the front.
A coordinate system 712 represents a coordinate system for parameters of the right elbow joint. In the present embodiment, the angle formed by the right forearm and the upper right arm is φr.
A coordinate system 713 indicates a coordinate system corresponding to the right hip joint parameter. In this embodiment, the angle formed by the right thigh with the vertical axis of the posture model is ψr, the angle formed with the horizontal axis of the posture model is ηr, and is orthogonal to the vertical and horizontal axes of the posture model. Let ζr be an angle formed with an axis that is positive in the direction toward the front of.
A coordinate system 714 represents a coordinate system for parameters of the right knee joint. In the present embodiment, an angle formed by the right thigh and the right lower leg is assumed to be ξr.
In addition, the angle of the joint included in the part parameter with respect to the left half is determined based on a coordinate system obtained by inverting the coordinate system for the right half to the left and right.

部位形状推定部76は、検索リストに登録されている参照形状特徴量のそれぞれに対応する部位パラメータを所定の角度範囲ごとに集計し、右腕、左腕、右脚、左脚それぞれについて4個の部位パラメータから定義される4次元のパラメータ空間内において、度数分布を求める。そして部位形状推定部76は、度数の最頻値が属する角度範囲の代表値を、その部位の姿勢と決定する。これにより、部位形状推定部76は、監視画像に写っている人物の各部位についての関節の角度、すなわち、右腕を上方に伸ばしている、あるいは右脚を曲げているといった、各四肢の部位形状を推定できる。なお、代表値は、例えば、最頻値が属する角度範囲に含まれる部位パラメータのそれぞれの角度パラメータの平均値、あるいは、最頻値が属する角度範囲の重心を表す角度値とすることができる。
なお、度数算出に用いる方法は、例えば、全身基準点特定部75が最頻領域を決定するのに用いる方法と同様の方法とすることができる。またそれぞれの関節の角度パラメータに対する角度単位は、例えば、5°、10°または30°とすることができる。
部位形状推定部76は、各部位の関節の角度を姿勢推定部77へ通知する。
The part shape estimation unit 76 aggregates part parameters corresponding to each of the reference shape feature values registered in the search list for each predetermined angle range, and four parts for each of the right arm, the left arm, the right leg, and the left leg. A frequency distribution is obtained in a four-dimensional parameter space defined from parameters. Then, the part shape estimation unit 76 determines the representative value of the angle range to which the mode value of the frequency belongs as the posture of the part. Thereby, the part shape estimation part 76 has the joint angle for each part of the person shown in the monitoring image, that is, the part shape of each limb such that the right arm is extended upward or the right leg is bent. Can be estimated. The representative value can be, for example, an average value of the angle parameters of the part parameters included in the angle range to which the mode value belongs, or an angle value representing the center of gravity of the angle range to which the mode value belongs.
In addition, the method used for the frequency calculation can be the same method as the method used by the whole-body reference point specifying unit 75 to determine the most frequent region, for example. The angle unit for each joint angle parameter may be, for example, 5 °, 10 °, or 30 °.
The part shape estimation unit 76 notifies the posture estimation unit 77 of the angle of the joint of each part.

姿勢推定部77は、部位形状推定部76により決定された各部位の関節の角度に基づいて、監視画像に写っている人物の姿勢を推定する。
本実施形態では、姿勢推定部77は、人物の姿勢ごとに対応する各部位の関節の角度範囲を関連付けた姿勢判定テーブルを参照する。
The posture estimation unit 77 estimates the posture of the person shown in the monitoring image based on the joint angle of each part determined by the part shape estimation unit 76.
In the present embodiment, the posture estimation unit 77 refers to a posture determination table that associates the angle ranges of the joints of each part corresponding to each posture of the person.

図8は、姿勢判定テーブルの一例を示す図である。姿勢判定テーブル800において、左の列から順番に、各列には、それぞれ、人物全体の姿勢を一意に識別するための識別番号801、人物全体の姿勢に対応する各部位の関節の角度範囲802、人物全体の姿勢の名称803、及びその姿勢が正常か異常かを表す判定フラグ804が表される。また各関節の角度範囲802は、四肢ごとに4個の角度パラメータの範囲、すなわち、合計16個の角度パラメータの範囲を示す。
姿勢推定部77は、姿勢の識別番号で特定される姿勢ごとに、各部位の関節の角度パラメータが、それぞれの関節ごとに定められた角度範囲に含まれるか否か判定する。そして姿勢推定部77は、全ての角度パラメータが関節ごとに定められた対応する角度範囲に含まれる場合、監視領域に写っている人物の姿勢は、その角度範囲に対応する識別番号で表される姿勢であると推定する。
姿勢推定部77は、推定された姿勢の識別番号を判定部78へ渡す。
FIG. 8 is a diagram illustrating an example of the posture determination table. In the posture determination table 800, in order from the left column, each column includes an identification number 801 for uniquely identifying the posture of the entire person, and the joint angle range 802 corresponding to the posture of the entire person. , A posture name 803 of the whole person and a determination flag 804 indicating whether the posture is normal or abnormal are displayed. An angle range 802 of each joint indicates a range of four angle parameters for each limb, that is, a total of 16 angle parameter ranges.
The posture estimation unit 77 determines, for each posture specified by the posture identification number, whether or not the angle parameter of the joint of each part is included in the angle range defined for each joint. Then, when all angle parameters are included in the corresponding angle range determined for each joint, the posture estimation unit 77 represents the posture of the person shown in the monitoring area by an identification number corresponding to the angle range. Estimated to be posture.
The posture estimation unit 77 passes the estimated posture identification number to the determination unit 78.

判定部78は、姿勢推定部77から受け取った姿勢の識別番号に基づいて、異常が発生したか否か判定する。具体的には、判定部78は、姿勢判定テーブルを参照し、姿勢推定部77から受け取った姿勢の識別番号に対応する判定フラグが正常であることを示す値となっているか、それとも異常であることを示す値になっているかを調べる。
そして判定部78は、判定フラグの値が正常であることを示していれば、監視画像に写っている人物に異常は無いと判定する。一方、判定部78は、判定フラグの値が異常であることを示していれば、監視画像に写っている人物に異常が発生したと判定する。
なお、判定部78は、一定期間の間に連続して取得されたそれぞれの監視画像について、上記の判定結果が異常となったときに、監視画像に写っている人物に異常が発生したと判定してもよい。
The determination unit 78 determines whether an abnormality has occurred based on the posture identification number received from the posture estimation unit 77. Specifically, the determination unit 78 refers to the posture determination table, and the determination flag corresponding to the posture identification number received from the posture estimation unit 77 is a value indicating normal or abnormal. Check whether the value indicates that.
If the determination unit 78 indicates that the value of the determination flag is normal, the determination unit 78 determines that there is no abnormality in the person shown in the monitoring image. On the other hand, if the determination unit 78 indicates that the value of the determination flag is abnormal, the determination unit 78 determines that an abnormality has occurred in the person shown in the monitoring image.
Note that the determination unit 78 determines that an abnormality has occurred in the person shown in the monitoring image when the above determination result becomes abnormal for each monitoring image acquired continuously during a certain period of time. May be.

図9(a)〜(c)は、それぞれ、人物の姿勢の輪郭の一例を示す図である。
図9(a)に示された姿勢の輪郭901は、人物が歩行している姿勢を表している。また図9(b)に示された姿勢の輪郭902は、人物が立ち止まって携帯電話を用いて通話をしている姿勢を表している。そして図9(c)に示された姿勢の輪郭903は、人物が両手を挙げている姿勢を表している。この姿勢は、例えば、人が他人に凶器を突きつけられているような場合に取る姿勢に対応する。そのため、推定された人物の姿勢が、図9(c)に示される姿勢となっている場合、画像監視装置1は、監視画像に写っている人物に何らかの異常が発生したと判定できる。一方、推定された人物の姿勢が、図9(a)または図9(b)に示される姿勢となっている場合、画像監視装置1は、監視画像に写っている人物に異常はないと判定できる。なお、監視画像に写っている人物の姿勢が同じでも、設定される監視領域によって正常か異常かの判定基準は異なる。そのため、姿勢判定テーブルの判定フラグの値は、監視領域に応じて設定されることが好ましい。
FIGS. 9A to 9C are diagrams each showing an example of a contour of a person's posture.
A posture outline 901 shown in FIG. 9A represents a posture in which a person is walking. A posture outline 902 shown in FIG. 9B represents a posture in which a person stops and makes a call using a mobile phone. A posture outline 903 shown in FIG. 9C represents a posture in which a person raises both hands. This posture corresponds to, for example, a posture that is taken when a person is hit with a weapon by another person. Therefore, when the estimated posture of the person is the posture shown in FIG. 9C, the image monitoring apparatus 1 can determine that some abnormality has occurred in the person shown in the monitoring image. On the other hand, when the estimated posture of the person is the posture shown in FIG. 9A or 9B, the image monitoring apparatus 1 determines that there is no abnormality in the person shown in the monitoring image. it can. Even if the posture of the person shown in the monitoring image is the same, the criterion for determining whether the person is normal or abnormal differs depending on the set monitoring area. Therefore, the value of the determination flag in the posture determination table is preferably set according to the monitoring area.

判定部78が監視領域内で異常が発生したと判定すると、制御部7は、出力部6へ異常検出信号を送信し、出力部6に警報を発報させる。   When the determination unit 78 determines that an abnormality has occurred in the monitoring area, the control unit 7 transmits an abnormality detection signal to the output unit 6 and causes the output unit 6 to issue an alarm.

図10及び図11に示したフローチャートを参照しつつ、姿勢推定処理を含む異常検出処理の動作を説明する。なお、この動作は、姿勢推定装置3の制御部7によって制御される。そして以下の動作は、監視画像の撮影間隔で繰り返される。
異常検出処理が開始されると、制御部7は、撮像部2により撮影された監視領域の監視画像を、インターフェース部4を介して取得する(ステップS101)。次に、制御部7の特徴点設定部71は、監視画像から検出したエッジ上に複数の特徴点を設定する(ステップS102)。
The operation of the abnormality detection process including the attitude estimation process will be described with reference to the flowcharts shown in FIGS. This operation is controlled by the control unit 7 of the posture estimation device 3. The following operations are repeated at the monitoring image capturing interval.
When the abnormality detection process is started, the control unit 7 acquires a monitoring image of the monitoring area captured by the imaging unit 2 via the interface unit 4 (step S101). Next, the feature point setting unit 71 of the control unit 7 sets a plurality of feature points on the edge detected from the monitoring image (step S102).

その後、制御部7の部分形状特徴量算出部72は、各特徴点について部分形状特徴量を算出する(ステップS103)。
次に、制御部7は、i番目の特徴点を着目特徴点に設定する(ステップS104)。なお、最初に選択される特徴点に対して、iは1に設定される。また制御部7は、j番目の参照特徴点に対応する参照形状特徴量を記憶部5から読み込む(ステップS105)。なお、最初に読み込まれる参照形状特徴量に対して、jは1に設定される。そして類似度算出部73は、i番目の特徴点の部分形状特徴量とj番目の参照形状特徴量の類似度Sijを算出する(ステップS106)。
Thereafter, the partial shape feature value calculation unit 72 of the control unit 7 calculates a partial shape feature value for each feature point (step S103).
Next, the control unit 7 sets the i-th feature point as the feature point of interest (step S104). Note that i is set to 1 for the feature point selected first. The control unit 7 reads the reference shape feature amount corresponding to the jth reference feature point from the storage unit 5 (step S105). Note that j is set to 1 with respect to the reference shape feature amount read first. Then, the similarity calculation unit 73 calculates the similarity Sij between the partial shape feature quantity of the i-th feature point and the j-th reference shape feature quantity (step S106).

制御部7の特徴量選択部74は、類似度算出部73により求められた類似度Sijが、予め定められた閾値Lよりも大きいか否か判定する(ステップS107)。類似度Sijが閾値Lよりも大きい場合、特徴量選択部74は、i番目の特徴点について算出された部分形状特徴量と、j番目の参照形状特徴量は類似すると判定する。そして特徴量選択部74は、i番目の特徴点に関連付けてj番目の参照形状特徴量の識別番号を検索リストに登録する(ステップS108)。
また制御部7の全身基準点特定部75は、j番目の参照形状特徴量に対応する全身パラメータのうち、基準方向ベクトルとそのj番目の参照形状特徴量と類似すると判定された部分形状特徴量を持つi番目の特徴点の位置座標から投票位置を算出する(ステップS109)。
The feature amount selection unit 74 of the control unit 7 determines whether or not the similarity Sij obtained by the similarity calculation unit 73 is greater than a predetermined threshold L (step S107). When the similarity Sij is larger than the threshold value L, the feature amount selection unit 74 determines that the partial shape feature amount calculated for the i-th feature point is similar to the j-th reference shape feature amount. Then, the feature quantity selection unit 74 registers the identification number of the j-th reference shape feature quantity in the search list in association with the i-th feature point (step S108).
In addition, the whole body reference point specifying unit 75 of the control unit 7 among the whole body parameters corresponding to the jth reference shape feature amount, the partial shape feature amount determined to be similar to the reference direction vector and the jth reference shape feature amount. The voting position is calculated from the position coordinates of the i-th feature point having (step S109).

ステップS109の後、あるいはステップS107にて類似度Sijが閾値L以下である場合、制御部7は、jが記憶部5に記憶されている参照形状特徴量の総数よりも小さいか否か判定する(ステップS110)。jが参照形状特徴量の総数よりも小さい場合、制御部7はjを1インクリメントする(ステップS111)。そして制御部7は、ステップS105〜S110の処理を繰り返す。
一方、jが参照形状特徴量の総数と等しい場合、制御部7は、iが設定された特徴点の総数よりも小さいか否か判定する(ステップS112)。iが特徴点の総数よりも小さい場合、制御部7はiを1インクリメントする(ステップS113)。そして制御部7は、ステップS104〜S112の処理を繰り返す。
After step S109 or when the similarity Sij is equal to or smaller than the threshold value L in step S107, the control unit 7 determines whether j is smaller than the total number of reference shape feature amounts stored in the storage unit 5. (Step S110). When j is smaller than the total number of reference shape feature values, the control unit 7 increments j by 1 (step S111). And the control part 7 repeats the process of step S105-S110.
On the other hand, when j is equal to the total number of reference shape feature amounts, the control unit 7 determines whether i is smaller than the total number of feature points set (step S112). When i is smaller than the total number of feature points, the control unit 7 increments i by 1 (step S113). And the control part 7 repeats the process of step S104-S112.

図11に示されるように、全身基準点特定部75は、監視画像を分割した複数のブロックまたは監視画像上を移動しつつ設定される探索領域のうち、含まれる投票位置の度数が最も高いブロックまたは探索領域の位置を最頻領域として決定する。そして全身基準点特定部75は、最頻領域に含まれる投票位置の重心または最頻領域の中心を最頻度値位置として決定する(ステップS114)。   As shown in FIG. 11, the whole-body reference point specifying unit 75 includes a plurality of blocks obtained by dividing the monitoring image or a block having the highest frequency of voting positions included in a search area set while moving on the monitoring image. Alternatively, the position of the search area is determined as the most frequent area. Then, the whole body reference point specifying unit 75 determines the centroid of the voting position included in the most frequent area or the center of the most frequent area as the most frequent value position (step S114).

最頻度値位置が決定されると、制御部7は、検索リストに登録されているk番目の参照形状特徴量を着目特徴量に設定する(ステップS115)。なお、検索リストの最初に登録されている参照形状特徴量に対して、kは1に設定される。
その後、全身基準点特定部75は、着目特徴量に対応する投票位置と最頻度値位置の距離dを算出する(ステップS116)。そして全身基準点特定部75は、距離dが予め定められた閾値Kよりも大きいか否か判定する(ステップS117)。距離dが閾値Kよりも大きい場合、全身基準点特定部75は着目特徴量を検索リストから削除する(ステップS118)。一方、距離dが閾値K以下である場合、制御部7の部位形状推定部76は、着目特徴量に対応する部位パラメータに含まれる関節の角度を表すパラメータを用い、4次元のパラメータ空間内において対応する角度範囲の度数を1インクリメントする(ステップS119)。
ステップS118またはS119の後、制御部7は、kが検索リストに登録されている参照形状特徴量の総数よりも小さいか否か判定する(ステップS120)。そしてkが検索リストに登録されている参照形状特徴量の総数よりも小さい場合、制御部7は、kを1インクリメントする(ステップS121)。そして制御部7は、ステップS116〜S120の処理を繰り返す。
When the most frequent value position is determined, the control unit 7 sets the k-th reference shape feature value registered in the search list as the feature value of interest (step S115). Note that k is set to 1 for the reference shape feature amount registered at the beginning of the search list.
Thereafter, the whole body reference point specifying unit 75 calculates the distance d between the voting position corresponding to the feature of interest and the most frequent value position (step S116). Then, the whole body reference point specifying unit 75 determines whether or not the distance d is greater than a predetermined threshold value K (step S117). When the distance d is larger than the threshold value K, the whole body reference point specifying unit 75 deletes the target feature amount from the search list (step S118). On the other hand, when the distance d is equal to or less than the threshold value K, the part shape estimation unit 76 of the control unit 7 uses a parameter representing the angle of the joint included in the part parameter corresponding to the feature amount of interest in the four-dimensional parameter space. The frequency of the corresponding angle range is incremented by 1 (step S119).
After step S118 or S119, the control unit 7 determines whether k is smaller than the total number of reference shape feature amounts registered in the search list (step S120). If k is smaller than the total number of reference shape feature amounts registered in the search list, the control unit 7 increments k by 1 (step S121). And the control part 7 repeats the process of step S116-S120.

一方、kが検索リストに登録されている参照形状特徴量の総数と等しい場合、部位形状推定部76は、部位ごとに、最も度数の高い角度範囲に基づいて部位の関節の角度を推定する(ステップS122)。そして制御部7の姿勢推定部77は、各部位の関節の角度の組み合わせに対応する姿勢を監視領域に写っている人物の姿勢として推定する(ステップS123)。   On the other hand, when k is equal to the total number of reference shape feature amounts registered in the search list, the part shape estimation unit 76 estimates the joint angle of the part based on the angular range having the highest frequency for each part ( Step S122). Then, the posture estimation unit 77 of the control unit 7 estimates the posture corresponding to the combination of the joint angles of each part as the posture of the person shown in the monitoring area (step S123).

次に、制御部7の判定部78は、記憶部5に記憶されている姿勢判定テーブルを参照することにより、推定された姿勢は異常か否か判定する(ステップS124)。推定された姿勢が正常である場合、制御部7は、異常検出処理を終了する。
一方、推定された姿勢が異常である場合、判定部78は、その人物候補領域に写っている人物に関して何らかの異常が発生したと判定する。そして判定部78は、出力部6へ異常検出信号を出力し、警報を発報させる(ステップS125)。
ステップS125の後、制御部7は、異常検出処理を終了する。
Next, the determination unit 78 of the control unit 7 refers to the posture determination table stored in the storage unit 5 to determine whether or not the estimated posture is abnormal (step S124). When the estimated posture is normal, the control unit 7 ends the abnormality detection process.
On the other hand, when the estimated posture is abnormal, the determination unit 78 determines that some abnormality has occurred with respect to the person in the person candidate area. And the determination part 78 outputs an abnormality detection signal to the output part 6, and issues a warning (step S125).
After step S125, the control unit 7 ends the abnormality detection process.

以上説明してきたように、本発明の一実施形態である、姿勢推定装置を用いた画像監視装置は、各特徴点について求めた部分形状特徴量を、人物の手足など、姿勢モデルのうちの特定の部位に設定された参照特徴点について求めた参照部分形状特徴量と比較して、部分形状特徴量に類似する参照部分形状特徴量だけを選択する。この参照特徴点は、姿勢モデルの輪郭に設定することが好適なものである。そしてこの画像監視装置は、選択された参照部分形状特徴量が表す各部位の形状、すなわち、関節の角度に基づいて、監視画像に写っている人物の各部位の形状を推定する。そしてこの画像監視装置は、推定された部位ごとの形状を組み合わせることにより、人物の全身の姿勢を推定する。このように、この画像監視装置は、各部位ごとの形状を推定できるので、監視画像に写った人物の姿勢を、一部の部位の形状だけが異なる姿勢を区別しなければならない場合であっても正確に推定することができる。またこの画像監視装置は、選択された参照形状特徴量の中から、対応する特徴点の位置と基準方向ベクトルから求めた基準点の位置が近いものをさらに選択するので、監視画像に写っている人物の姿勢と類似する姿勢モデルに設定され、かつ特徴点が設定された部位と同じ部位に設定された参照特徴点について求めた参照形状特徴量を正確に選択できる。そのため、この画像監視装置は、監視画像に写っている人物の姿勢を正確に推定できる。
またこの画像監視装置は、手足などの部位単位で参照形状特徴量を利用するので、特定の部位に着目すれば、その部位に含まれる関節の角度が全て同じとなる姿勢モデルは一つあればよい。すなわち、複数の部位のそれぞれについて関節の角度を少しずつ変えて組み合わせた姿勢モデルを準備しなくてもよい。そのため、用意しなければならない姿勢モデルの数を減らすことができるので、参照形状特徴量の数も少なくて済む。これにより、この画像監視装置は、特徴量同士の類似度計算に要する演算量を低減することができるので、姿勢推定全体の演算量も低減できる。
As described above, the image monitoring apparatus using the posture estimation device according to the embodiment of the present invention specifies the partial shape feature amount obtained for each feature point from the posture model such as a person's limb. Only the reference partial shape feature amount similar to the partial shape feature amount is selected as compared with the reference partial shape feature amount obtained for the reference feature point set in the part. This reference feature point is preferably set to the contour of the posture model. The image monitoring apparatus estimates the shape of each part represented by the selected reference partial shape feature amount, that is, the shape of each part of the person shown in the monitoring image, based on the joint angle. The image monitoring apparatus estimates the posture of the person's whole body by combining the shapes of the estimated parts. As described above, since this image monitoring apparatus can estimate the shape of each part, it is a case where the posture of the person shown in the monitoring image must be distinguished from the posture in which only part of the part is different in shape. Can also be estimated accurately. Further, this image monitoring apparatus further selects the reference shape feature value selected from the selected reference shape feature values that are close to the corresponding feature point position and the reference point position obtained from the reference direction vector. It is possible to accurately select a reference shape feature amount obtained for a reference feature point set in a posture model similar to the posture of the person and set in the same part as the part in which the feature point is set. Therefore, this image monitoring apparatus can accurately estimate the posture of the person shown in the monitoring image.
In addition, since this image monitoring device uses the reference shape feature amount in units of parts such as limbs, if attention is paid to a specific part, there is only one posture model in which the angles of the joints included in the part are all the same. Good. That is, it is not necessary to prepare a posture model in which the joint angles are changed little by little for each of the plurality of parts. Therefore, since the number of posture models that must be prepared can be reduced, the number of reference shape feature amounts can be reduced. As a result, the image monitoring apparatus can reduce the amount of calculation required for calculating the similarity between the feature amounts, and thus the amount of calculation for the entire posture estimation can also be reduced.

以上、本発明の好適な実施形態について説明してきたが、本発明はこれらの実施形態に限定されるものではない。例えば、姿勢推定部77は、各部位の関節の角度を表すパラメータを入力とし、姿勢を表す識別番号を出力する識別器を有してもよい。そのような識別器は、例えば、パーセプトロンタイプのニューラルネットワークにより構成できる。この場合、識別器は、予め姿勢が分かっている複数の姿勢モデルから求められた各部位の関節の角度を表すパラメータを用いて、例えばバックプロパゲーションを用いて事前学習される。そのため、姿勢推定部77は、部位形状推定部76により推定された各部位の関節の角度を表すパラメータを識別器に入力することにより、適切な姿勢推定結果を得ることができる。同様に、判定部78も、各部位の関節の角度を表すパラメータを入力とし、正常か異常かを表す値を出力する識別器を有してもよい。この場合も、識別器は、例えば、パーセプトロンタイプのニューラルネットワークにより構成できる。そして識別器は、予め正常か異常かが分かっている複数の姿勢モデルから求められた各部位の関節の角度を表すパラメータを用いて、例えばバックプロパゲーションを用いて事前学習される。   The preferred embodiments of the present invention have been described above, but the present invention is not limited to these embodiments. For example, the posture estimation unit 77 may include a discriminator that receives a parameter representing the joint angle of each part and outputs an identification number representing the posture. Such a discriminator can be constituted by, for example, a perceptron type neural network. In this case, the discriminator is pre-learned using, for example, back propagation, using a parameter representing the joint angle of each part obtained from a plurality of posture models whose postures are known in advance. Therefore, the posture estimation unit 77 can obtain an appropriate posture estimation result by inputting a parameter representing the joint angle of each part estimated by the part shape estimation unit 76 to the discriminator. Similarly, the determination unit 78 may include a discriminator that receives a parameter indicating the angle of the joint of each part and outputs a value indicating whether it is normal or abnormal. Also in this case, the discriminator can be constituted by, for example, a perceptron type neural network. The discriminator is pre-learned using, for example, back propagation, using a parameter representing the angle of the joint of each part obtained from a plurality of posture models that are known in advance as normal or abnormal.

また、姿勢推定に求められる精度によっては、全身基準点特定部の処理は省略されてもよい。この場合、画像監視装置は、特徴量選択部により選択された参照形状特徴量を用いて、直接部分形状推定部の処理を行うことにより、各部位の姿勢を推定する。   Further, depending on the accuracy required for posture estimation, the processing of the whole body reference point specifying unit may be omitted. In this case, the image monitoring apparatus estimates the posture of each part by directly performing the process of the partial shape estimation unit using the reference shape feature value selected by the feature value selection unit.

さらに、監視領域が自動現金預払機の正面に設定される場合のように、撮像部2は、姿勢を推定しようとする人物の一部、例えば、上半身のみを撮影するものであってもよい。この場合、姿勢推定装置3は、例えば、右腕のみ、左腕のみ、あるいは両腕の関節の角度を推定し、それらの部位の関節の角度に応じて、人物の上半身などの姿勢を推定する。
以上のように、当業者は、本発明の範囲内で様々な修正を行うことができる。
Furthermore, as in the case where the monitoring area is set in front of the automatic teller machine, the imaging unit 2 may capture a part of the person whose posture is to be estimated, for example, only the upper body. In this case, for example, the posture estimation device 3 estimates the angles of the joints of only the right arm, only the left arm, or both arms, and estimates the posture of the upper body of the person according to the joint angles of those portions.
As described above, those skilled in the art can make various modifications within the scope of the present invention.

1 画像監視装置
2 撮像部
3 姿勢推定装置
4 インターフェース部
5 記憶部
6 出力部
7 制御部
71 特徴点設定部
72 部分形状特徴量算出部
73 類似度算出部
74 特徴量選択部
75 全身基準点特定部
76 部位形状推定部
77 姿勢推定部
78 判定部
DESCRIPTION OF SYMBOLS 1 Image monitoring apparatus 2 Imaging part 3 Posture estimation apparatus 4 Interface part 5 Memory | storage part 6 Output part 7 Control part 71 Feature point setting part 72 Partial shape feature-value calculation part 73 Similarity degree calculation part 74 Feature-value selection part 75 Whole body reference point specification Unit 76 region shape estimation unit 77 posture estimation unit 78 determination unit

Claims (3)

画像に写った人物の姿勢を推定する姿勢推定装置であって、
前記画像においてエッジを検出し、当該エッジ上に複数の特徴点を設定する特徴点設定部と、
前記複数の特徴点のそれぞれについて、他の複数の特徴点との位置関係の分布を示す形状特徴量を算出する特徴量算出部と、
人物の姿勢を表す複数の姿勢モデルのそれぞれに設定された複数の参照特徴点について、予め求められた前記形状特徴量である参照形状特徴量と、該参照形状特徴量に対応する姿勢モデルの特定部位ごとに関節の角度を表す部位パラメータ値とを記憶する記憶部と、
前記形状特徴量のそれぞれに類似する前記参照形状特徴量を前記特徴点ごとに選択する特徴量選択部と、
前記選択された参照形状特徴量に対応する前記部位パラメータ値について前記特定部位ごとの分布を求め、当該部位パラメータ値の分布が集中している部位パラメータ値から前記画像に写っている人物の特定部位の形状を推定する部位形状推定部と、
前記推定された部位形状を用いて、前記画像に写っている人物の姿勢を推定する姿勢推定部と、
を有する姿勢推定装置。
A posture estimation device for estimating the posture of a person in an image,
A feature point setting unit for detecting an edge in the image and setting a plurality of feature points on the edge;
For each of the plurality of feature points, a feature amount calculation unit that calculates a shape feature amount indicating a distribution of positional relationships with other plurality of feature points;
For a plurality of reference feature points set in each of a plurality of posture models representing a posture of a person, a reference shape feature amount that is the shape feature amount obtained in advance and specification of a posture model corresponding to the reference shape feature amount A storage unit for storing a part parameter value representing a joint angle for each part;
A feature quantity selection unit that selects, for each feature point, the reference shape feature quantity similar to each of the shape feature quantities;
A distribution for each specific part is obtained for the part parameter value corresponding to the selected reference shape feature amount, and the specific part of the person shown in the image from the part parameter value where the distribution of the part parameter value is concentrated A part shape estimation unit for estimating the shape of
A posture estimation unit that estimates a posture of a person shown in the image using the estimated part shape;
A posture estimation device having
前記記憶部は、前記参照形状特徴量と関連付けて、前記参照特徴点から前記姿勢モデルの全身の位置を表すための参照基準点までの方向及び距離を表す指標を記憶し、
前記特徴量選択部により選択された参照形状特徴量のそれぞれについて、当該参照形状特徴量に関連付けられた前記指標と、当該参照形状特徴量に類似する前記形状特徴量に対応した前記特徴点の位置から前記画像上での人物の位置を表す基準点についての投票位置を求め、当該投票位置が最も集中する最頻位置から所定範囲内に前記投票位置を有する前記参照形状特徴量を選択する全身基準点特定部をさらに有し、
前記部分形状推定部は、前記参照形状特徴量のうち、前記全身基準点特定部により選択された前記参照形状特徴量のみを前記人物の部位形状の推定に使用する、請求項1に記載の姿勢推定装置。
The storage unit stores an index representing a direction and a distance from the reference feature point to a reference standard point for representing the position of the whole body of the posture model in association with the reference shape feature amount;
For each reference shape feature value selected by the feature value selection unit, the index associated with the reference shape feature value and the position of the feature point corresponding to the shape feature value similar to the reference shape feature value A whole body criterion for obtaining a voting position for a reference point representing the position of a person on the image from the image and selecting the reference shape feature quantity having the voting position within a predetermined range from the most frequent position where the voting position is most concentrated It further has a point identification part,
The posture according to claim 1, wherein the partial shape estimation unit uses only the reference shape feature amount selected by the whole body reference point specifying unit among the reference shape feature amounts for estimation of the part shape of the person. Estimating device.
前記記憶部は、前記参照形状特徴量と関連付けて、前記姿勢モデルの太り度合いをさらに記憶し、
前記全身基準点特定部は、前記特徴量選択部により選択された前記参照形状特徴量を用いて求めた前記画像上での前記基準点の位置と、当該参照形状特徴量に関連付けられた前記太り度合いとを含む多次元値として前記投票位置を決定する、請求項2に記載の姿勢推定装置。
The storage unit further stores the degree of weight of the posture model in association with the reference shape feature amount,
The whole body reference point specifying unit is configured to determine the position of the reference point on the image obtained by using the reference shape feature value selected by the feature value selection unit, and the fat associated with the reference shape feature value. The posture estimation apparatus according to claim 2, wherein the voting position is determined as a multidimensional value including a degree.
JP2009270562A 2009-11-27 2009-11-27 Posture estimation device Expired - Fee Related JP5289290B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009270562A JP5289290B2 (en) 2009-11-27 2009-11-27 Posture estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009270562A JP5289290B2 (en) 2009-11-27 2009-11-27 Posture estimation device

Publications (2)

Publication Number Publication Date
JP2011113398A JP2011113398A (en) 2011-06-09
JP5289290B2 true JP5289290B2 (en) 2013-09-11

Family

ID=44235668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009270562A Expired - Fee Related JP5289290B2 (en) 2009-11-27 2009-11-27 Posture estimation device

Country Status (1)

Country Link
JP (1) JP5289290B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5617819B2 (en) * 2011-10-28 2014-11-05 株式会社デンソー Pedestrian recognition device
JP5768021B2 (en) * 2012-08-07 2015-08-26 日本電信電話株式会社 Gait measuring device, method and program
KR101307984B1 (en) 2012-09-04 2013-09-26 전남대학교산학협력단 Method of robust main body parts estimation using descriptor and machine learning for pose recognition
JP5962497B2 (en) * 2012-12-25 2016-08-03 富士通株式会社 Image processing method, image processing apparatus, and image processing program
US10275657B2 (en) 2013-06-28 2019-04-30 Nec Corporation Video surveillance system, video processing apparatus, video processing method, and video processing program
JPWO2015068417A1 (en) * 2013-11-11 2017-03-09 日本電気株式会社 Image collation system, image collation method and program
CN110321795B (en) * 2019-05-24 2024-02-23 平安科技(深圳)有限公司 User gesture recognition method and device, computer device and computer storage medium

Also Published As

Publication number Publication date
JP2011113398A (en) 2011-06-09

Similar Documents

Publication Publication Date Title
JP5289290B2 (en) Posture estimation device
JP6448223B2 (en) Image recognition system, image recognition apparatus, image recognition method, and computer program
US9330307B2 (en) Learning based estimation of hand and finger pose
KR101519940B1 (en) Three-dimensional object modelling fitting & tracking
JP6125188B2 (en) Video processing method and apparatus
CN107392086B (en) Human body posture assessment device, system and storage device
Barbosa et al. Re-identification with rgb-d sensors
CN108475439B (en) Three-dimensional model generation system, three-dimensional model generation method, and recording medium
Ohayon et al. Robust 3d head tracking using camera pose estimation
JP6639123B2 (en) Image processing apparatus, image processing method, and program
US9117138B2 (en) Method and apparatus for object positioning by using depth images
US20220383653A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium storing image processing program
CN108628306B (en) Robot walking obstacle detection method and device, computer equipment and storage medium
JP2011113313A (en) Attitude estimation device
JP2010176380A (en) Information processing device and method, program, and recording medium
JPWO2012077286A1 (en) Object detection apparatus and object detection method
Holz et al. Towards semantic scene analysis with time-of-flight cameras
JP5940862B2 (en) Image processing device
JP2010165183A (en) Human body detection device
JP2021105887A (en) Three-dimensional pose obtaining method and device
JP2010267232A (en) Method and device for estimating positional orientation
Brunnström et al. Active fixation for scene exploration
Yang et al. Multiple marker tracking in a single-camera system for gait analysis
Labati et al. Weight estimation from frame sequences using computational intelligence techniques
US20220366716A1 (en) Person state detection apparatus, person state detection method, and non-transitory computer readable medium storing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130604

R150 Certificate of patent or registration of utility model

Ref document number: 5289290

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees