JP5147761B2 - Image monitoring device - Google Patents

Image monitoring device Download PDF

Info

Publication number
JP5147761B2
JP5147761B2 JP2009048410A JP2009048410A JP5147761B2 JP 5147761 B2 JP5147761 B2 JP 5147761B2 JP 2009048410 A JP2009048410 A JP 2009048410A JP 2009048410 A JP2009048410 A JP 2009048410A JP 5147761 B2 JP5147761 B2 JP 5147761B2
Authority
JP
Japan
Prior art keywords
person
path length
unit
person position
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009048410A
Other languages
Japanese (ja)
Other versions
JP2010206405A5 (en
JP2010206405A (en
Inventor
豪二 水戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2009048410A priority Critical patent/JP5147761B2/en
Publication of JP2010206405A publication Critical patent/JP2010206405A/en
Publication of JP2010206405A5 publication Critical patent/JP2010206405A5/ja
Application granted granted Critical
Publication of JP5147761B2 publication Critical patent/JP5147761B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、監視空間が撮像された画像を処理して監視空間内の人物の位置を検出する画像監視装置に関し、特に複数の撮像部により撮像された画像から人物の位置を検出する画像監視装置に関する。   The present invention relates to an image monitoring apparatus that processes an image captured in a monitoring space to detect the position of a person in the monitoring space, and more particularly to an image monitoring apparatus that detects the position of a person from images captured by a plurality of imaging units. About.

広範囲に亘って人物の行動を監視するために、複数のカメラを設置して各カメラにより撮像された画像のそれぞれから人物の位置を検出し、各画像から検出された人物位置の情報を統合することが行われてきた。   In order to monitor a person's behavior over a wide range, a plurality of cameras are installed, the position of the person is detected from each of the images captured by each camera, and the information of the person position detected from each image is integrated. Things have been done.

人物位置の情報を統合するために、特許文献1においては重心位置が近い情報同士を同一人物の情報として統合している(0015段落、0033段落)。   In order to integrate information on person positions, in Patent Document 1, pieces of information with close positions of the center of gravity are integrated as information on the same person (paragraphs 0015 and 0033).

特開平7−49952号公報JP 7-49952 A

しかしながら、検出される人物位置には一般に誤差が含まれ、検出誤差は誤った統合を引き起こしていた。検出誤差の要因は、撮像される人物像の一部又は全部が他の人物や障害物に隠蔽されるオクルージョン、影、量子化誤差など様々である。中でも特にオクルージョンによる検出誤差は大きく、統合を誤る主要因となっていた。   However, the detected person position generally includes an error, and the detection error causes erroneous integration. There are various factors of detection error, such as occlusion, shadow, quantization error, etc. in which a part or all of the captured human image is hidden by another person or an obstacle. In particular, the detection error due to occlusion was large, which was the main cause of erroneous integration.

例えば、図13(a)は、障害物91によるオクルージョンの影響で人物90の下半身部分が隠蔽され、人物90の上半身部分の重心が人物90の重心位置92として検出された様子を表している。人物90の重心は、本来は上半身と下半身を合わせた領域の重心位置93の位置に検出されるべきものである。   For example, FIG. 13A shows a state in which the lower body part of the person 90 is concealed due to the influence of the occlusion by the obstacle 91 and the center of gravity of the upper body part of the person 90 is detected as the center of gravity position 92 of the person 90. The center of gravity of the person 90 should be detected at the position of the center of gravity 93 in the region where the upper body and the lower body are combined.

検出誤差が含まれると、本来同一人物のものである人物位置同士が離間したり、離間した人物位置が他人の人物位置と近接したりしてしまう。そのため、従来技術においては、本来同一人物のものである人物位置同士を別々の人物としてしまったり、本来他人のものである人物位置同士を同一人物としてしまうという問題があった。   If a detection error is included, person positions that are originally the same person are separated from each other, or the separated person positions are close to other person positions. Therefore, in the prior art, there is a problem that person positions originally belonging to the same person are made different persons or person positions originally belonging to other persons are made to be the same person.

また、異なるカメラにより撮像された画像から検出された人物位置の比較は、各人物位置を共通する座標系に射影してから行われる。射影に際しては各人物の身長を設定する必要があり、身長の設定誤差も統合を誤る要因のひとつとなっていた。   Further, comparison of person positions detected from images taken by different cameras is performed after projecting each person position onto a common coordinate system. When projecting, it is necessary to set the height of each person, and an error in setting the height was one of the factors that caused erroneous integration.

本発明は、上記問題を鑑みてなされたものであり、複数の撮像部により撮像された画像から検出された人物位置に誤差が含まれていても、同一人物の人物位置を誤りなくまとめて人物位置の情報を統合できる画像監視装置を提供することを目的とする。   The present invention has been made in view of the above-described problem, and even if an error is included in a person position detected from images picked up by a plurality of image pickup units, the person positions of the same person are collected together without error. An object of the present invention is to provide an image monitoring apparatus capable of integrating position information.

本願発明者は、上記問題点を解決する画像監視装置を実現するために研究を行い、その結果、縦長である人物の検出誤差は人物の幅方向よりも高さ方向に大きく現れること、高さ方向の検出誤差は撮像部から人物への投影線上に現れることが判明した。例えば、図13(a)の例において検出された人物位置92は、図13(b)に示すように投影線96に沿って撮像部から遠ざかる位置に存在する人物像94の重心位置95とみなされてしまうのである。これが複数のカメラ系のそれぞれに言えることから本願発明者は、誤差が含まれていたとしても異なる撮像部により撮像された画像から検出された人物位置への投影線同士が交差する位置に真の人物位置が存在する可能性が最も高いことを導出した。本発明はこの知見を利用したものである。   The inventor of the present application has studied to realize an image monitoring apparatus that solves the above problems, and as a result, the detection error of a vertically long person appears larger in the height direction than the width direction of the person. It was found that the direction detection error appears on the projection line from the imaging unit to the person. For example, the person position 92 detected in the example of FIG. 13A is regarded as the barycentric position 95 of the person image 94 present at a position away from the imaging unit along the projection line 96 as shown in FIG. It will be done. Since this can be said for each of a plurality of camera systems, the inventor of the present application is true at a position where projection lines to a person position detected from images captured by different imaging units intersect even if errors are included. It is derived that the person position is most likely to exist. The present invention utilizes this finding.

本発明にかかる画像監視装置は、互いに視野の一部を共有し当該視野内を移動する人物を互いに異なる方向から撮像して監視画像を出力する複数の撮像部と、監視画像から人物が存在するローカル座標系での人物位置を検出する人物位置検出手段と、撮像部ごとに設定されたローカル座標系から複数の撮像部に共通して設定された共通座標系へ人物位置を射影する座標変換手段と、共通座標系において人物位置と当該人物位置が検出された監視画像を撮像した撮像部の位置とを結ぶ投影線を算出する投影線算出手段と、複数の撮像部により同時に撮像された監視画像の一方から検出された人物位置及び他方の監視画像から検出された人物位置のペアを設定し、一方の人物位置への投影線上及び他方の人物位置への投影線上を通る当該人物位置間の経路長を算出して出力する経路長算出手段と、経路長算出手段により出力された経路長がより短いペアを他のペアよりも優先的に同一人物の人物位置としてまとめることで人物位置の情報を統合する人物位置統合手段と、を備えたことを特徴とする。   An image monitoring apparatus according to the present invention includes a plurality of imaging units that share a part of a field of view and capture a person moving in the field of view from different directions and output a monitoring image, and a person from the monitoring image. Person position detection means for detecting a person position in a local coordinate system, and coordinate conversion means for projecting the person position from a local coordinate system set for each imaging unit to a common coordinate system set in common for a plurality of imaging units And a projection line calculating means for calculating a projection line connecting a person position in the common coordinate system and a position of the imaging unit that captured the monitoring image where the person position was detected, and a monitoring image captured simultaneously by a plurality of imaging units A pair of a person position detected from one of the above and a person position detected from the other monitoring image is set, and the person position passing through the projection line to one person position and the projection line to the other person position The path length calculation means that calculates and outputs the path length of the person, and the pair of shorter path lengths output by the path length calculation means is preferentially collected as the person position of the same person over the other pairs. And a person position integration means for integrating information.

同一人物のペアであればこれらの人物位置への投影線は人物位置から比較的近い位置で交差するため検出誤差が含まれていても比較的短い経路長が算出される。これに対し、他人同士のペアの場合は、その組み合わせの矛盾により投影線が人物位置から離れた位置で交差するため長い経路長が算出される。このように同一人物のペアと他人同士のペアとで顕著な差が現れる経路長に基づき人物位置の情報を統合する上記構成によれば、人物位置に検出誤差が生じても同一人物の人物位置を適切にまとめて人物位置の情報を統合できる。   In the case of a pair of the same person, the projection lines to these person positions intersect at a position relatively close to the person position, so a relatively short path length is calculated even if a detection error is included. On the other hand, in the case of a pair of others, a long path length is calculated because the projection lines intersect at a position away from the person position due to a contradiction in the combination. Thus, according to the above configuration that integrates the information of the person position based on the path length in which a significant difference appears between the pair of the same person and the pair of others, the person position of the same person even if a detection error occurs in the person position It is possible to integrate the information on the person position by appropriately gathering.

また、本発明の好適な態様においては、座標変換手段は人物の身長分布範囲内で複数の身長を設定して射影を行い、経路長算出手段は複数の身長ごとに算出された経路長のうち最小の経路長を出力する。
かかる構成によれば、身長設定の誤りに起因する誤差が減少して同一人物のペアに関する経路長が極小化されるので、同一人物のペアと他人同士のペアの差はより顕著となり、統合精度が向上する。
Further, in a preferred aspect of the present invention, the coordinate conversion means performs projection by setting a plurality of heights within a person's height distribution range, and the path length calculation means includes a path length calculated for each of the plurality of heights. Output the minimum path length.
According to such a configuration, errors due to height setting errors are reduced and the path length for the same person pair is minimized, so the difference between the same person pair and the other person pair becomes more conspicuous, and the integration accuracy Will improve.

また、本発明の好適な態様においては、座標変換手段はさらにペアを構成する各人物位置への投影線の交点を当該人物位置が検出されたローカル座標系へ逆射影し、経路長算出手段は人物位置検出手段により検出された人物位置と逆射影された交点との距離の和を経路長として算出する。
かかる構成によれば、同一人物のペアの交点はこれらの人物位置の近くに存在しローカル座標系において交点と人物位置は同程度の解像度となるため、解像度の格差が是正された経路長を算出できるので、より高い精度で人物位置の情報を統合できる。
Further, in a preferred aspect of the present invention, the coordinate conversion means further back-projects the intersection of the projection lines to each person position constituting the pair to the local coordinate system where the person position is detected, and the path length calculation means includes The sum of the distance between the person position detected by the person position detecting means and the back-projected intersection is calculated as the path length.
According to this configuration, the intersection of the same person pair exists near these person positions, and the intersection point and the person position have the same resolution in the local coordinate system, so the path length with the resolution difference corrected is calculated. As a result, it is possible to integrate the information of the person position with higher accuracy.

また、本発明の好適な態様においては、座標変換手段は人物の身長分布範囲内で複数の高さを設定して交点を逆射影し、経路長算出手段は複数の高さごとに算出された経路長のうち最小の経路長を出力する。
かかる構成によれば、身長設定の誤りに起因する誤差及び解像度の格差が低減された状態で経路長を比較できるので、より高い精度で人物位置の情報を統合できる。
Further, in a preferred aspect of the present invention, the coordinate conversion means sets a plurality of heights within a person's height distribution range and back-projects the intersections, and the path length calculation means calculates for each of the plurality of heights. Outputs the minimum path length among the path lengths.
According to such a configuration, since the path lengths can be compared in a state where the error due to the height setting error and the resolution disparity are reduced, the information on the person position can be integrated with higher accuracy.

また、本発明の好適な態様においては、人物位置統合手段は、同一人物とされたペアへの投影線の交点を当該人物の統合後の位置として算出することで、同一人物の人物位置をひとつにまとめることができる。   Also, in a preferred aspect of the present invention, the person position integration means calculates the intersection of the projection lines on the pair that is the same person as the position after the integration of the person, so that one person position of the same person is obtained. Can be summarized.

本発明によれば、複数の撮像部により撮像された画像から検出された人物位置の情報に検出誤差が生じていても、これらの人物位置の情報を適確に統合できる。   According to the present invention, even if a detection error occurs in the information on the person position detected from the images picked up by the plurality of image pickup units, the information on the person position can be integrated appropriately.

画像監視装置の全体構成図である。1 is an overall configuration diagram of an image monitoring apparatus. 画像監視装置の各部の配置例を示す図である。It is a figure which shows the example of arrangement | positioning of each part of an image monitoring apparatus. 人物位置が検出される様子を例示した図である。It is the figure which illustrated a mode that a person position was detected. 経路長を算出する様子を例示した図である。It is the figure which illustrated a mode that a path length was calculated. 経路長を算出する様子を例示したもうひとつの図である。It is another figure which illustrated a mode that a path length was calculated. 近接度を算出する関数f(・)を例示した図である。It is the figure which illustrated function f (*) which calculates proximity. 近接度、単独度の算出例を示す図である。It is a figure which shows the example of calculation of a proximity and an individuality. 統合評価値の算出例を示す図である。It is a figure which shows the example of calculation of an integrated evaluation value. 画像監視処理のフローチャートである。It is a flowchart of an image monitoring process. 第一の実施形態における人物情報統合処理のフローチャートである。It is a flowchart of person information integration processing in the first embodiment. 第二の実施形態における人物情報統合処理のフローチャートである。It is a flowchart of the person information integration process in 2nd embodiment. ローカル座標系において経路長を算出する様子を例示した図である。It is the figure which illustrated a mode that path length was calculated in a local coordinate system. 人物位置の検出誤差を例示した図である。It is the figure which illustrated the detection error of the person position.

本発明の好適な実施形態の一例として、監視空間を移動する人物の移動軌跡を分析して不審人物を検知する画像監視装置について説明する。   As an example of a preferred embodiment of the present invention, an image monitoring apparatus that detects a suspicious person by analyzing a movement trajectory of a person moving in a monitoring space will be described.

<第一の実施形態>
[画像監視装置の構成]
本発明の第一の実施形態にかかる画像監視装置1の構成を図1,図2を参照して説明する。図1は機能ブロック図、図2は配置例を示している。
<First embodiment>
[Configuration of image monitoring device]
The configuration of the image monitoring apparatus 1 according to the first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a functional block diagram, and FIG. 2 shows an arrangement example.

画像監視装置1は、複数のカメラユニット2と統合ユニット3とがLAN等の通信網4により接続されてなる。カメラユニット2のそれぞれは自身の視野内に存在する人物の位置(人物位置)を検出し、検出された人物位置を統合ユニット3に送信する。統合ユニット3は各カメラユニット2から受信した人物位置の情報を統合する。このとき同一人物による人物位置はひとつにまとめられる。そして統合ユニット3は統合された人物位置を基に人物の行動を認識して不審行動を検知する。画像監視装置1においては統合により広範囲かつ死角の少ない監視が可能となる。また人物位置の情報を基礎とするためカメラユニット2の間でカラーキャリブレーションを行う必要がない、カメラユニット2と統合ユニット3の間の通信量が少ないなどの利点が得られる。尚、各ユニット2及び3は、互いに通信を行うことでタイミングを合わせ、同期して動作しているものとする。   The image monitoring apparatus 1 includes a plurality of camera units 2 and an integrated unit 3 connected via a communication network 4 such as a LAN. Each of the camera units 2 detects the position (person position) of a person existing in its own field of view, and transmits the detected person position to the integrated unit 3. The integration unit 3 integrates the information on the person position received from each camera unit 2. At this time, person positions by the same person are combined into one. The integration unit 3 recognizes the behavior of the person based on the integrated person position and detects suspicious behavior. The image monitoring apparatus 1 can be monitored over a wide range and with few blind spots by integration. In addition, since it is based on the information of the person position, there is an advantage that there is no need to perform color calibration between the camera units 2 and the communication amount between the camera unit 2 and the integrated unit 3 is small. It is assumed that the units 2 and 3 are synchronized with each other and operate in synchronization.

カメラユニット2のそれぞれは、撮像部20と、カメラ記憶部21と、カメラ通信部23とがカメラ制御部22に接続されてなる。   Each of the camera units 2 includes an imaging unit 20, a camera storage unit 21, and a camera communication unit 23 connected to the camera control unit 22.

撮像部20は所謂監視カメラである。各撮像部20は、一定時間おきに監視空間を撮像して監視画像を出力する。各撮像部20は少なくとも隣り合う撮像部20と互いに視野50の一部を共有する程度に離間させて設置され、当該視野内を移動する人物を互いに異なる方向から同時に撮像する。これによりひとつの撮像部20により撮像された監視画像においてオクルージョンが生じている人物について、オクルージョンが生じていない監視画像を別の撮像部20から同時に得ることができる。好適には各撮像部20は、魚眼レンズを有する監視カメラで構成され、その光軸を鉛直下方に向けて設置される。また好適には、各撮像部20の撮像範囲のうち画像処理により人物位置を検出できる解像度が得られる撮像範囲が各視野50とみなす設定が予め為される。   The imaging unit 20 is a so-called surveillance camera. Each imaging unit 20 captures a monitoring space at regular intervals and outputs a monitoring image. Each imaging unit 20 is installed so as to be separated from at least an adjacent imaging unit 20 so as to share a part of the field of view 50, and images a person moving in the field of view simultaneously from different directions. As a result, a monitoring image in which no occlusion has occurred can be simultaneously obtained from another imaging unit 20 for a person in which occlusion has occurred in the monitoring image captured by one imaging unit 20. Preferably, each imaging unit 20 is configured by a surveillance camera having a fisheye lens, and is installed with its optical axis directed vertically downward. Preferably, a setting is made in advance so that an imaging range in which a resolution capable of detecting a person position is obtained by image processing is regarded as each visual field 50 among the imaging ranges of the imaging units 20.

カメラ記憶部21は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置である。カメラ記憶部21は、各ユニットのアドレスや各種プログラムを予め記憶し、また視野内の人物の画像特徴(色ヒストグラム)を表すテンプレート、監視画像、視野内に人物がいないときの背景画像等のデータを必要に応じて記憶する。   The camera storage unit 21 is a memory device such as a ROM (Read Only Memory) or a RAM (Random Access Memory). The camera storage unit 21 stores in advance the address of each unit and various programs, and also represents data such as a template representing an image characteristic (color histogram) of a person in the field of view, a monitoring image, and a background image when no person is in the field of view. Is stored as necessary.

カメラ制御部22は、DSP(Digital Signal Processor)、MCU(Micro Control
Unit)等の演算装置である。カメラ制御部22は、人物位置検出手段220等の動作を記述したプログラムをカメラ記憶部21から読み出して実行することにより各手段として機能する。
The camera control unit 22 includes a DSP (Digital Signal Processor), MCU (Micro Control
Unit). The camera control unit 22 functions as each unit by reading out a program describing the operation of the person position detection unit 220 and the like from the camera storage unit 21 and executing it.

人物位置検出手段220は、監視画像から人物が存在する人物位置を検出し、検出された人物位置をカメラ通信部23に出力する。人物位置の検出は次のようにして探索的に行われる。人物位置検出手段220は、背景画像と監視画像との差分処理により変化領域を抽出し、変化領域内に候補位置を設定して当該候補位置を重心とするテンプレートと同一の形状及び大きさの領域を設定し、当該領域において監視画像から抽出した色ヒストグラムとテンプレートの色ヒストグラムの類似度を算出する。類似度の算出は順次候補位置を移動させながら繰り返され、人物位置検出手段220は、極大且つ予め設定された基準値以上の類似度が算出された候補位置を人物位置として検出する。   The person position detection unit 220 detects a person position where a person is present from the monitoring image, and outputs the detected person position to the camera communication unit 23. The person position is detected in an exploratory manner as follows. The person position detection unit 220 extracts a change area by performing a difference process between the background image and the monitoring image, sets a candidate position in the change area, and has the same shape and size as the template having the candidate position as the center of gravity. And the similarity between the color histogram extracted from the monitoring image and the color histogram of the template in the area is calculated. The calculation of the similarity is repeated while sequentially moving the candidate positions, and the person position detection unit 220 detects the candidate position where the similarity that is the maximum and equal to or higher than a preset reference value is calculated as the person position.

上述したように、人物位置としては人物像の重心位置が検出される。別の実施形態では、人物位置として頭頂を想定した人物像の最上部位置、足元を想定した人物像の最下部位置などを採用することもできる。しかし人物像の外縁部である最上部位置や最下部位置は変化領域抽出の誤差の影響を受けやすい、最上部位置は投影線の俯角が小さくなるため後述する射影の誤差が大きくなる、最下部位置はオクルージョンにより欠落しやすく、その抽出誤差が大きいといった欠点がある。一方、重心位置はこれらの抽出誤差や射影誤差の影響が稀釈されて小さくなる点で最上部位置や最下部位置より優れる。   As described above, the position of the center of gravity of the person image is detected as the person position. In another embodiment, the uppermost position of the person image assuming the top of the head, the lowermost position of the person image assuming the foot, or the like may be employed as the person position. However, the uppermost position and the lowermost position, which are the outer edges of the human image, are easily affected by the error in extracting the change area, and the uppermost position has a large projection error, which will be described later, because the projection angle of the projection line is small The position tends to be lost due to occlusion, and the extraction error is large. On the other hand, the position of the center of gravity is superior to the uppermost position and the lowermost position in that the influence of these extraction errors and projection errors is diluted and becomes smaller.

また、人物位置検出手段220は、変化領域が抽出されないときの監視画像で置き換える背景画像の更新、いずれのテンプレートとも一致しない変化領域の画像特徴を新規追加するテンプレートの更新、いずれの変化領域とも一致しないテンプレートを破棄する更新などのデータ更新を適宜行う。   In addition, the person position detection unit 220 updates the background image to be replaced with the monitoring image when the change area is not extracted, updates the template that newly adds the image feature of the change area that does not match any template, and matches any change area. Data update such as update to discard the template not to be performed is performed as appropriate.

カメラ通信部23は、通信網4に適合した通信回路である。カメラ通信部23は、通信網4に接続され、人物位置検出手段220から入力された人物位置を通信網4経由で統合ユニット3に送信する。   The camera communication unit 23 is a communication circuit suitable for the communication network 4. The camera communication unit 23 is connected to the communication network 4 and transmits the person position input from the person position detection unit 220 to the integrated unit 3 via the communication network 4.

統合ユニット3は、統合通信部30と、操作部31と、統合記憶部32と、出力部34とが統合制御部33に接続されてなる。   The integrated unit 3 includes an integrated communication unit 30, an operation unit 31, an integrated storage unit 32, and an output unit 34 connected to an integrated control unit 33.

統合通信部30は、通信網4に適合した通信回路である。統合通信部30は、通信網4に接続され、カメラユニット2のそれぞれから人物位置を通信網4経由で受信する。   The integrated communication unit 30 is a communication circuit suitable for the communication network 4. The integrated communication unit 30 is connected to the communication network 4 and receives a person position from each of the camera units 2 via the communication network 4.

操作部31は、タッチパネルディスプレイ等のユーザインターフェース装置である。画像監視装置1の管理者が各種設定の入力に用いる。   The operation unit 31 is a user interface device such as a touch panel display. Used by the administrator of the image monitoring apparatus 1 to input various settings.

統合記憶部32は、ROM、RAM等のメモリ装置である。各ユニットのアドレスや各種プログラムを予め記憶し、また各種データを必要に応じて記憶する。各種データには、撮像部20の設置位置CAM、射影規則320及び移動軌跡321が含まれる。   The integrated storage unit 32 is a memory device such as a ROM or a RAM. The address of each unit and various programs are stored in advance, and various data are stored as necessary. The various data includes the installation position CAM of the imaging unit 20, the projection rule 320, and the movement locus 321.

射影規則320は、撮像部20ごとに設定された監視画像面のローカル座標系と全ての撮像部20に共通して設定された共通座標系との間で人物位置を座標変換する座標変換式である。   The projection rule 320 is a coordinate conversion formula for coordinate-converting the person position between the local coordinate system of the monitoring image plane set for each imaging unit 20 and the common coordinate system set in common for all the imaging units 20. is there.

撮像部20−1のローカル座標系は、撮像面51−1上で互いに直交するx1軸及びy1軸で表される。同様に撮像部20−2のローカル座標系は撮像面51−2上で互いに直交するx2軸及びy2軸で表される。   The local coordinate system of the imaging unit 20-1 is represented by an x1 axis and a y1 axis that are orthogonal to each other on the imaging surface 51-1. Similarly, the local coordinate system of the imaging unit 20-2 is represented by an x2 axis and a y2 axis that are orthogonal to each other on the imaging surface 51-2.

共通座標系には、実際の監視空間52を表す3次元の世界座標系における水平面が設定される。すなわち世界座標系を互いに直交するX軸,Y軸,Z軸で表し、Z軸を監視空間52の鉛直方向に設定したときのX−Y平面を共通座標系に設定する。平面のZ座標は任意だが本実施形態では処理を簡単化するためにZ=0の平面とする。   In the common coordinate system, a horizontal plane in the three-dimensional world coordinate system representing the actual monitoring space 52 is set. That is, the world coordinate system is represented by the X axis, the Y axis, and the Z axis orthogonal to each other, and the XY plane when the Z axis is set in the vertical direction of the monitoring space 52 is set as the common coordinate system. Although the Z coordinate of the plane is arbitrary, in this embodiment, the plane is set to Z = 0 in order to simplify the processing.

射影規則320は、撮像部20それぞれのカメラパラメータに公知のピンホールカメラモデル等のカメラモデルを適用することで撮像部20ごとに設定される。カメラパラメータは、撮像部20の焦点距離、画角、画素数及びレンズ歪み、世界座標系における撮像部20の設置位置CAM及び撮像方向等であり、画像監視に先立って操作部31から入力される。   The projection rule 320 is set for each image capturing unit 20 by applying a camera model such as a known pinhole camera model to the camera parameters of each image capturing unit 20. The camera parameters are the focal length, angle of view, number of pixels and lens distortion of the imaging unit 20, the installation position CAM and imaging direction of the imaging unit 20 in the world coordinate system, and are input from the operation unit 31 prior to image monitoring. .

また、ローカル座標系の人物位置を共通座標系の1点に射影するには人物の身長を設定して射影規則320を用いる必要がある。この身長は後述する座標変換手段330により適宜に設定される。   Further, in order to project a person position in the local coordinate system to one point in the common coordinate system, it is necessary to set the height of the person and use the projection rule 320. This height is appropriately set by coordinate conversion means 330 described later.

移動軌跡321は、人物ごとに統合された共通座標系における人物位置の履歴である。   The movement locus 321 is a history of person positions in a common coordinate system integrated for each person.

統合制御部33は、CPU(Central Processing Unit)、DSP等の演算装置である。統合制御部33は、座標変換手段330、投影線算出手段331、経路長算出手段332、人物位置統合手段333、追跡手段334、不審行動検知手段335等の動作を記述したプログラムを統合記憶部32から読み出して実行することにより各手段として機能する。   The integrated control unit 33 is an arithmetic device such as a CPU (Central Processing Unit) or a DSP. The integrated control unit 33 stores programs describing the operations of the coordinate conversion unit 330, the projection line calculation unit 331, the path length calculation unit 332, the person position integration unit 333, the tracking unit 334, the suspicious behavior detection unit 335, and the like. It functions as each means by reading from and executing.

座標変換手段330は射影規則320を用いてローカル座標系と共通座標系との間で人物位置を座標変換する。具体的には座標変換手段330は人物位置検出手段220により検出されたローカル座標系の人物位置が入力されると、所定の身長を設定して当該人物位置を共通座標系に射影して射影後の人物位置を出力する。座標変換手段330は身長を監視対象とする人物群の分布範囲内で設定する。例えばATMコーナーなど成人主体の監視対象であれば、座標変換手段330は150cm〜200cmの範囲で身長を設定する。   The coordinate conversion means 330 uses the projection rule 320 to coordinate the person position between the local coordinate system and the common coordinate system. Specifically, when the person position in the local coordinate system detected by the person position detecting unit 220 is input to the coordinate conversion unit 330, a predetermined height is set, and the person position is projected onto the common coordinate system and then projected. The person position is output. The coordinate conversion means 330 sets the height within the distribution range of the group of persons whose monitoring targets. For example, if the subject is an adult subject such as an ATM corner, the coordinate conversion means 330 sets the height in the range of 150 cm to 200 cm.

投影線算出手段331は、共通座標系において人物位置と当該人物位置が検出された監視画像を撮像した撮像部20の設置位置CAMとを結ぶ直線、すなわち撮像部20から人物位置への投影線を算出する。   The projection line calculation means 331 generates a straight line connecting the person position in the common coordinate system and the installation position CAM of the imaging unit 20 that captured the monitoring image where the person position is detected, that is, a projection line from the imaging unit 20 to the person position. calculate.

経路長算出手段332は、複数の撮像部20により同時に撮像された監視画像の一方から検出された人物位置及び他方の監視画像から検出された人物位置のペアを設定し、ペアの一方の人物位置への投影線上及び当該ペアの他方の人物位置への投影線上を通る当該人物位置間の経路長を算出し、人物位置統合手段333へ出力する。算出された経路長は、経路の両端に位置する人物位置間の近さを表し、これらの人物位置が同一人物のものであるか否かを判定する尺度として用いられる。   The path length calculation unit 332 sets a pair of a person position detected from one of the monitoring images simultaneously captured by the plurality of imaging units 20 and a person position detected from the other monitoring image, and one person position of the pair The path length between the person positions passing through the projection line and the projection line to the other person position of the pair is calculated and output to the person position integration unit 333. The calculated path length represents the closeness between the positions of persons located at both ends of the path, and is used as a scale for determining whether or not these person positions belong to the same person.

移動する人物は立位の姿勢をとっているため縦長の形状、すなわち幅より高さの方が大きい形状で撮像される。そのため人物位置の検出誤差においては高さ方向の成分が支配的となる。そして高さ方向の誤差成分は撮像部20から遠ざかる方向、すなわち撮像部20から人物位置への投影線に沿った方向に現れる。   Since the moving person takes a standing posture, the image is captured in a vertically long shape, that is, a shape whose height is larger than the width. Therefore, the component in the height direction is dominant in the detection error of the person position. The error component in the height direction appears in a direction away from the imaging unit 20, that is, a direction along a projection line from the imaging unit 20 to the person position.

このことから真の人物位置が存在する可能性は、投影線に沿った方向に偏重して高いとするのが尤もらしい。そして2つのカメラユニット2における人物位置の検出結果を得た場合、真の人物位置が存在する可能性は、各人物位置への投影線の交点において最も高いとするのが尤もらしいということになる。上記経路長は、ペアの一方と交点との距離、及びペアの他方と交点との距離の和となっており、真の人物位置が存在する可能性が最も高い位置を基準とした検出誤差を表している。   For this reason, it is likely that the possibility of the presence of a true person position is high in the direction along the projection line. When the detection result of the person position in the two camera units 2 is obtained, the possibility that the true person position exists is likely to be the highest at the intersection of the projection lines to each person position. . The above path length is the sum of the distance between one of the pair and the intersection, and the distance between the other of the pair and the intersection, and the detection error based on the position where the possibility that the true person position is most likely exists is used. Represents.

本来同一人物であるペアにおいて、交点はペアを構成する人物位置の近くに算出されるため、経路長は比較的短く算出される。しかし、本来他人であるペアにおいては、他人同士の人物位置を無理にペアにした矛盾があるため、交点はペアを構成する人物位置から大きく外れた位置に算出され、交点を経由する経路長は長くなる。よってこのような性質を有する経路長を参照すれば同一人物のペアと他人のペアとを適確に識別することが可能となる。   In a pair that is originally the same person, the intersection is calculated near the position of the person making up the pair, so the path length is calculated to be relatively short. However, in the case of a pair who is originally a stranger, there is a contradiction in which the positions of other persons are forcibly paired, so the intersection is calculated at a position far from the position of the person making up the pair, and the path length via the intersection is become longer. Therefore, it is possible to accurately identify the same person pair and the other person pair by referring to the path length having such properties.

因みに人物位置間の距離を検出誤差として評価する従来技術においては、検出された人物位置間の中間位置に真の人物位置が存在する可能性が高いと考えていることになる。本来本人同士であるペアの検出誤差を近似するにはよいかも知れないが、本来他人同士であるペアに対しても不当に小さい距離が算出されて評価を誤る可能性が高まってしまう。   Incidentally, in the prior art in which the distance between person positions is evaluated as a detection error, it is considered that there is a high possibility that a true person position exists at an intermediate position between detected person positions. Although it may be good to approximate the detection error of the pair who is originally the person, the possibility of erroneous evaluation is increased because an unreasonably small distance is calculated even for the pair which is originally the other person.

図4を参照して経路長算出の様子を具体例にて説明する。   With reference to FIG. 4, how the path length is calculated will be described with a specific example.

人物αは撮像部20−1と撮像部20−2の共有視野に存在している。人物αについて、撮像部20−1により撮像された監視画像60−1のローカル座標系において人物位置a1が検出され、撮像部20−2により撮像された監視画像60−2のローカル座標系において人物位置a2が検出されている。但し、監視画像60−1においては障害物53によるオクルージョンが発生しており、人物位置a1は本来の人物位置よりも頭部方向にずれて検出されてしまっている。人物βは撮像部20−2の視野のみに存在している。人物βについて監視画像60−2のローカル座標系において人物位置b2が検出されている。   The person α exists in the shared visual field of the imaging unit 20-1 and the imaging unit 20-2. For the person α, the person position a1 is detected in the local coordinate system of the monitoring image 60-1 captured by the imaging unit 20-1, and the person α is detected in the local coordinate system of the monitoring image 60-2 captured by the imaging unit 20-2. A position a2 is detected. However, in the monitoring image 60-1, the occlusion due to the obstacle 53 has occurred, and the person position a1 has been detected with a deviation from the original person position in the head direction. The person β exists only in the field of view of the imaging unit 20-2. A person position b2 is detected for the person β in the local coordinate system of the monitoring image 60-2.

人物位置a1,a2,b2は座標変換手段330により共通座標系の人物位置A1,A2,B2にそれぞれ射影される。検出誤差の影響でA1はA2から離れてB2に近づいてしまい、A1とA2の間の距離とA1とB2の間の距離には殆ど差がなくなってしまっている。   The person positions a1, a2, and b2 are respectively projected by the coordinate conversion means 330 onto the person positions A1, A2, and B2 in the common coordinate system. Due to the influence of the detection error, A1 moves away from A2 and approaches B2, and there is almost no difference between the distance between A1 and A2 and the distance between A1 and B2.

投影線算出手段331により共通座標系において、A1への投影線CAM1−A1、A2への投影線CAM2−A2、B2への投影線CAM2−B2が算出される。Λ1は投影線CAM1−A1と投影線CAM2−A2の交点、Λ2は投影線CAM1−A1と投影線CAM2−B2の交点をそれぞれ表している。また、D1はA1―Λ1間の距離、D2はA2―Λ1間の距離、D3はA1―Λ2間の距離、D4はB2―Λ2間の距離をそれぞれ表している。経路長算出手段332により、A1−A2間の経路長δは(D1+D2)、A1−B2間の経路長δは(D3+D4)と算出される。   In the common coordinate system, the projection line calculation unit 331 calculates the projection line CAM1-A1 to A1, the projection line CAM2-A2 to A2, and the projection line CAM2-B2 to B2. Λ1 represents the intersection of the projection line CAM1-A1 and the projection line CAM2-A2, and Λ2 represents the intersection of the projection line CAM1-A1 and the projection line CAM2-B2. D1 represents a distance between A1 and Λ1, D2 represents a distance between A2 and Λ1, D3 represents a distance between A1 and Λ2, and D4 represents a distance between B2 and Λ2. The path length calculation means 332 calculates the path length δ between A1 and A2 as (D1 + D2) and the path length δ between A1 and B2 as (D3 + D4).

本来同一人物αのものである人物位置A1とA2に関する交点Λ1は、人物位置A1とA2から比較的近い位置に算出される。特にオクルージョンが生じていない人物位置A2と交点Λ1との間の距離D2は非常に短い。一方、本来他人のものである人物位置A1とA2に関する交点Λ2はA1からもA2からも大きく外れた位置に算出される。そのためA1−A2間の距離とA1−B2間の距離に殆ど差がない本例のような場合でも、A1−A2間の経路長(D1+D2)とA1−B2間の経路長(D3+D4)には顕著な差が現れる。   The intersection Λ1 related to the person positions A1 and A2 that are originally of the same person α is calculated at a position relatively close to the person positions A1 and A2. In particular, the distance D2 between the person position A2 where no occlusion occurs and the intersection Λ1 is very short. On the other hand, the intersection Λ2 relating to the person positions A1 and A2 that are originally belonging to another person is calculated at a position greatly deviating from both A1 and A2. Therefore, even in the case of this example in which there is almost no difference between the distance between A1 and A2 and the distance between A1 and B2, the path length between A1 and A2 (D1 + D2) and the path length between A1 and B2 (D3 + D4) A noticeable difference appears.

こうして算出された経路長を参照すれば経路長の短いA1とA2、すなわち人物位置a1とa2のペアが同一人物であるとの判定を容易に行うことができるのである。   By referring to the path length thus calculated, it is possible to easily determine that A1 and A2 having a short path length, that is, the pair of person positions a1 and a2 are the same person.

ここで、本来同一人物のものである人物位置間の経路長にはオクルージョンによる誤差の他に身長の推定誤差が含まれている。座標変換手段330が平均身長を規定して射影を行ったが、実際には人物の身長は個々に異なるため推定誤差が生じる。例えば図4の例では、身長185cmの人物αの位置を平均身長170cmで射影している。距離D2に身長の推定誤差が現れ、距離D1はオクルージョンによる誤差と身長の推定誤差が複合して現れている。   Here, the path length between person positions that are originally the same person includes an estimation error of height in addition to an error due to occlusion. The coordinate conversion means 330 defines the average height and performs projection. However, since the height of the person is actually different, an estimation error occurs. For example, in the example of FIG. 4, the position of a person α having a height of 185 cm is projected with an average height of 170 cm. An estimation error of height appears at the distance D2, and an error due to occlusion and an estimation error of height appear in combination at the distance D1.

そこで、経路長算出手段332は、各人物位置のペアに対して監視対象の人物の身長の分布範囲内で複数の身長を設定して身長ごとに経路長を算出し、最小の経路長を当該ペアの経路長とする。これにより身長の推定誤差が低減された経路長が算出されるので、同一人物の人物位置をより適確に識別することが可能となる。   Therefore, the path length calculation unit 332 sets a plurality of heights within the height distribution range of the person being monitored for each pair of person positions, calculates the path length for each height, and sets the minimum path length to The path length of the pair. As a result, the path length in which the estimation error of the height is reduced is calculated, so that the person position of the same person can be more accurately identified.

図5(a)は身長185cmを設定したときの経路長算出の様子を示している。この設定は本来同一人物のものである人物位置A1とA2のペアにおける最小経路長が算出される設定である。距離D2及びD1はともに減少し、距離D2に至っては0となっている。図5(b)は身長150cmを設定したときの経路長算出の様子を示している。この設定は本来他人のものである人物位置A1とB2のペアにおける最小経路長が算出されたときの設定である。距離D3及びD4はともに減少しているが、身長の分布範囲内では減少には限界があり、同一人物の場合ほど経路長は短くならない。別のケースでは距離D3は減少するが距離D4は増加したり、距離D4は減少するが距離D3は増加し、やはり同一人物の場合ほど経路長は短くならない。   FIG. 5A shows how the path length is calculated when the height is 185 cm. This setting is a setting for calculating the minimum path length in the pair of person positions A1 and A2 that are originally the same person. Both the distances D2 and D1 decrease and become 0 when reaching the distance D2. FIG. 5B shows how the path length is calculated when a height of 150 cm is set. This setting is a setting when the minimum path length is calculated for the pair of person positions A1 and B2, which is originally belonging to another person. Although both the distances D3 and D4 are decreasing, there is a limit to the decrease within the height distribution range, and the path length is not shortened as in the case of the same person. In another case, the distance D3 decreases but the distance D4 increases, or the distance D4 decreases but the distance D3 increases, and the path length is not as short as the case of the same person.

このように身長に関する探索を行うことで同一人物に関する経路長は極小化され、他人に関する経路長と差が開き易くなるため、経路長に基づき同一人物の人物位置をより適確に識別することが可能となる。   By searching for height in this way, the path length related to the same person is minimized, and the difference from the path length related to other persons can be easily opened. Therefore, the person position of the same person can be more accurately identified based on the path length. It becomes possible.

人物位置統合手段333は、経路長算出手段332により算出された経路長を比較して経路長がより短いペアを他のペアよりも優先的に同一人物の人物位置としてまとめることで人物位置の情報を統合し、統合結果を追跡手段334へ出力する。このとき人物位置統合手段333は1対多の統合(例えば人物位置A1とA2のペアと人物位置A1とB2のペアの同時成立など)が生じないようペアを排他的に組み合わせて統合を行う。人物位置統合手段333は、同一人物によるものとされたペアの人物位置への投影線の交点を統合後の人物位置とすることで同一人物の人物位置をひとつにまとめる。尚、同一人物によるものとしてまとめられない単独の人物位置については、人物位置統合手段333は当該人物位置をそのまま統合後の人物位置とする。   The person position integration unit 333 compares the path lengths calculated by the path length calculation unit 332 and summarizes pairs with shorter path lengths as person positions of the same person preferentially over other pairs. Are integrated, and the integration result is output to the tracking means 334. At this time, the person position integration unit 333 performs integration by exclusively combining pairs so that one-to-many integration (for example, simultaneous establishment of a pair of person positions A1 and A2 and a pair of person positions A1 and B2) does not occur. The person position integration means 333 combines the person positions of the same person into one by setting the intersection of the projection lines to the pair of person positions determined by the same person as the integrated person position. Note that for a single person position that is not grouped by the same person, the person position integration unit 333 sets the person position as it is as the person position after integration.

人物位置統合手段333は経路長を人物位置間の近さを表す近接度に変換して近接度を比較することで経路長の比較を行う。近接度が大きいほど経路長が短いということになる。変換は経路長δが短いほど大きな値を出力するよう予め設定された関数f(・)に経路長δを入力することで行われる。図6に示す関数70−1は関数f(・)の具体例である。すなわち関数70−1は、δ=0のときに上限値を出力し、0≦δ<Δのときにδの増加とともに出力が減少し、δ≧Δのときに下限値を出力する。別の実施形態においては、関数70−2或いは関数70−3のように区間0≦δ<Δで加重を掛けた関数f(・)が設定される。   The person position integration unit 333 compares the path lengths by converting the path lengths into proximity degrees representing the proximity between the person positions and comparing the proximity degrees. The greater the proximity, the shorter the path length. The conversion is performed by inputting the path length δ to a function f (·) set in advance so that a larger value is output as the path length δ is shorter. A function 70-1 shown in FIG. 6 is a specific example of the function f (•). That is, the function 70-1 outputs the upper limit value when δ = 0, the output decreases as δ increases when 0 ≦ δ <Δ, and outputs the lower limit value when δ ≧ Δ. In another embodiment, a function f (·) that is weighted with an interval 0 ≦ δ <Δ is set as in the function 70-2 or 70-3.

ここで、人物位置検出手段220により検出された人物位置の全てがペアを有しているとは限らない。すなわち、一方の撮像部20の視野内に居るが他方の撮像部20の視野外に居る人物、或いは両方の撮像部20の視野内に居るがオクルージョンにより一方の撮像部20からはほぼ撮像されない人物については1つの人物位置検出手段220からしか人物位置は検出されない。このような人物位置は、ペアの一方の人物位置として統合されるのではなく、単独の人物位置として統合されるべきである。   Here, not all of the person positions detected by the person position detecting means 220 have a pair. That is, a person who is in the field of view of one imaging unit 20 but is not in the field of view of the other imaging unit 20, or a person who is in the field of view of both imaging units 20 but is hardly captured from one imaging unit 20 due to occlusion. The person position is detected only from one person position detecting means 220. Such person positions should not be integrated as one person position in the pair, but as a single person position.

そこで、人物位置統合手段333は、人物位置が単独である蓋然性の尺度を表す単独度を算出し、単独度が近接度より高い人物位置はまとめずに統合する。単独度は次式により算出する。尚、式中の1.0は上述した近接度の上限値である。
人物位置の単独度=1.0−当該人物位置に関する近接度の最大値 …式(1)
例えば図7の例において、人物位置A1の単独度81は1.0−max{0.8,0.6}=0.2と算出される。同様にして人物位置A2,B2の単独度81はそれぞれ0.2,0.4と算出される。
Therefore, the person position integration unit 333 calculates a single degree representing a probability scale that the single person position is independent, and integrates the person positions having a single degree higher than the proximity without collecting them. The degree of isolation is calculated by the following formula. Note that 1.0 in the equation is the upper limit value of the proximity described above.
Individuality of the person position = 1.0−maximum value of the proximity regarding the person position (1)
For example, in the example of FIG. 7, the individuality 81 of the person position A1 is calculated as 1.0−max {0.8, 0.6} = 0.2. Similarly, the individuality 81 of the person positions A2 and B2 is calculated as 0.2 and 0.4, respectively.

具体的には、人物位置統合手段333は、近接度及び単独度を加味して人物位置を統合するために、可能な限り人物位置のペアを組んだ場合、一部の人物位置を単独として残りの人物位置でペアを組んだ場合、及び全ての人物位置が単独の場合を網羅した組み合わせ(以下、統合パターンと称する)を設定し、各統合パターンに応じた近接度及び/又は単独度を選択的に総和することで統合評価値を算出し、最も高い統合評価値が算出された統合パターンを選定する。   Specifically, the person position integration unit 333, when combining person positions as much as possible in order to integrate the person positions in consideration of proximity and singleness, leaves some person positions alone. Set a combination (hereinafter referred to as “integrated pattern”) that covers a pair of people positions and a case where all human positions are single, and select the proximity and / or singleness according to each integrated pattern Then, the integrated evaluation value is calculated by summing up and the integrated pattern for which the highest integrated evaluation value is calculated is selected.

このように統合パターンを決定することで、近接度がより高いペアは他のペアよりも優先的に同一人物の人物位置としてまとめられ、さらに単独度が近接度より高い人物位置はまとめずに統合される。結果、低めの近接度が算出されたペアを無理にまとめることがなくなり、より高い精度で人物位置の情報を統合できる。   By determining the integration pattern in this way, pairs with higher proximity are preferentially grouped as person positions of the same person over other pairs, and person positions with higher individuality are integrated without being combined. Is done. As a result, pairs of lower proximity calculated are not forcibly collected, and information on person positions can be integrated with higher accuracy.

例えば図3の例のようにカメラユニット2−1において1つの人物位置が検出され、カメラユニット2−2において2つの人物位置が検出されている場合、図8のように3個の統合パターン#1〜#3のそれぞれについて統合評価値が1.2,0.8,0.8と算出され、統合評価値が最大である統合パターン#1が選定される。すなわち、図3〜図8にて示してきた例では、「人物位置A1とA2を同一人物の人物位置、且つ人物位置B2を単独の人物位置として統合する」ことが決定される。この決定は、まず近接度及び単独度の中で値が最も高いA1とA2のペアを第一に優先して選定し、次に既に選定されたA1,A2に関する近接度及び単独度を除いた中でB2の単独度が最も高いことを第二に優先して選定したことを意味している。   For example, when one person position is detected in the camera unit 2-1 and two person positions are detected in the camera unit 2-2 as in the example of FIG. 3, three integrated patterns # are displayed as shown in FIG. The integrated evaluation values are calculated as 1.2, 0.8, and 0.8 for each of 1 to # 3, and the integrated pattern # 1 having the maximum integrated evaluation value is selected. That is, in the example shown in FIGS. 3 to 8, it is determined that “the person positions A1 and A2 are integrated as a person position of the same person and the person position B2 is integrated as a single person position”. In this determination, first, the pair of A1 and A2 having the highest value in proximity and singleness is selected first, and then the proximity and singleness related to A1 and A2 already selected are excluded. This means that the highest singleness of B2 is selected with priority on the second.

そして人物位置統合手段333は投影線CAM1−A1とCAM2−A2の交点を人物αの位置、人物位置B2を人物βの位置と算出する。   The person position integration unit 333 calculates the intersection of the projection lines CAM1-A1 and CAM2-A2 as the position of the person α and the person position B2 as the position of the person β.

追跡手段334は、前後する時刻において人物位置統合手段333から出力された統合後の人物位置を人物位置の整合性に基づいて対応付けることで人物ごとの移動軌跡321を生成する。具体的には、追跡手段334は、一時刻前までに生成された移動軌跡321から現時刻における各人物の人物位置を予測し、各予測位置に予め設定された距離しきい値の範囲内で最も近い統合後の人物位置を当該予測位置と対応する人物のものとして移動軌跡321に追記する。予測位置は移動軌跡321に等速運動モデル等の運動モデル、又はカルマンフィルタ等の予測フィルタを適用することで算出できる。   The tracking unit 334 generates a movement trajectory 321 for each person by associating the integrated person positions output from the person position integration unit 333 at the preceding and following times based on the consistency of the person positions. Specifically, the tracking unit 334 predicts the person position of each person at the current time from the movement trajectory 321 generated up to one hour before, and within the range of the distance threshold set in advance for each predicted position. The closest integrated person position is added to the movement locus 321 as the person corresponding to the predicted position. The predicted position can be calculated by applying a motion model such as a constant velocity motion model or a prediction filter such as a Kalman filter to the movement locus 321.

尚、追跡手段334は、いずれの予測位置とも対応付かない人物位置については新規出現の人物であるとして移動軌跡321に新規登録し、いずれの人物位置とも対応付かない予測位置が算出された移動軌跡321については視野外に消失した人物であるとして移動軌跡321から登録抹消する。   Note that the tracking unit 334 newly registers a person position that does not correspond to any predicted position as a newly appearing person in the movement locus 321, and calculates a predicted position that does not correspond to any person position. 321 is deregistered from the movement trajectory 321 because it is a person who has disappeared out of the field of view.

不審行動検知手段335は、移動軌跡321を分析して不審行動の有無を判定し、不審行動を検知すると検知の旨及び不審行動が検知された移動軌跡321を含んだ異常信号を出力部34に出力する。不審行動は、例えば、規定時間を超える滞在や予め設定された立ち入り禁止エリア等への立ち入りである。   The suspicious behavior detecting means 335 analyzes the movement trajectory 321 to determine the presence or absence of the suspicious behavior, and when detecting the suspicious behavior, the output unit 34 outputs an abnormal signal including the detection of the suspicious behavior and the movement trajectory 321 in which the suspicious behavior is detected. Output. The suspicious behavior is, for example, a stay exceeding a specified time, or a pre-set entry area or the like.

出力部34は、スピーカやブザー等の音響出力装置、CRTや液晶ディスプレイ等のモニタ装置、通信網を介して警備センタ等と通信する通信装置などである。出力部34は、異常信号が入力されると音響出力装置を鳴動させて検知の旨を監視員に報知したり、モニタ装置に不審行動が検知された移動軌跡321を表示したり、警備センタへ異常信号を転送したりして異常信号を出力する。   The output unit 34 is a sound output device such as a speaker or a buzzer, a monitor device such as a CRT or a liquid crystal display, or a communication device that communicates with a security center or the like via a communication network. When the abnormal signal is input, the output unit 34 rings the sound output device to notify the monitoring staff of the detection, displays the movement locus 321 in which the suspicious behavior is detected on the monitor device, or to the security center. An abnormal signal is transmitted or an abnormal signal is output.

[画像監視装置の動作]
図9を参照して、画像監視装置1の動作を説明する。
[Operation of image monitoring device]
The operation of the image monitoring apparatus 1 will be described with reference to FIG.

監視空間が無人であることを確認した管理者が電源を投入すると各部、各手段は初期化されて動作を始める。統合制御部33は統合記憶部32に射影規則320が記憶されているかを確認し(S1)、記憶されていなければ(S1にてNO)、管理者にカメラパラメータの入力を要求する。管理者の入力操作により操作部31からカメラパラメータが入力されると(S2)、統合記憶部32はカメラパラメータに基づく射影規則320及び設置位置CAMをカメラ記憶部32に記憶させる(S3)。   When an administrator who confirms that the monitoring space is unmanned, powers on each unit and each unit is initialized and starts operating. The integrated control unit 33 checks whether the projection rule 320 is stored in the integrated storage unit 32 (S1), and if not stored (NO in S1), requests the administrator to input camera parameters. When camera parameters are input from the operation unit 31 by an input operation by the administrator (S2), the integrated storage unit 32 stores the projection rule 320 and the installation position CAM based on the camera parameters in the camera storage unit 32 (S3).

すなわち統合制御部33は、入力された撮像部20−1のカメラパラメータに基づく撮像部20−1のローカル座標系と共通座標系との間の射影規則320及び設置位置CAM1をカメラユニット2−1のアドレスと対応付けて記憶させ、入力された撮像部20−2のカメラパラメータに基づく撮像部20−2のローカル座標系と共通座標系との間の射影規則320及び設置位置CAM2をカメラユニット2−2のアドレスと対応付けて記憶させる。   That is, the integrated control unit 33 sets the projection rule 320 and the installation position CAM1 between the local coordinate system and the common coordinate system of the imaging unit 20-1 based on the input camera parameters of the imaging unit 20-1 to the camera unit 2-1. The camera unit 2 stores the projection rule 320 and the installation position CAM2 between the local coordinate system and the common coordinate system of the imaging unit 20-2 based on the input camera parameters of the imaging unit 20-2. -2 is stored in association with the address -2.

射影規則320等の設定がなされると、或いは既になされていると(S1にてYES)、以降、撮像部20が一定時間間隔で新たな監視画像を撮像するたびにS4〜S11の処理が繰り返される。尚、以下では上記一定時間間隔で刻まれる時間の単位を時刻と称する。   If the projection rule 320 or the like has been set or has already been set (YES in S1), thereafter, the processing of S4 to S11 is repeated each time the imaging unit 20 captures a new monitoring image at regular time intervals. It is. In the following description, the unit of time recorded at the predetermined time interval is referred to as time.

新たな監視画像が入力されると(S4)、各カメラ制御部22の人物位置検出手段220は当該監視画像から人物位置を検出し(S5)、検出された人物位置を統合ユニット3へ送信する。このとき人物位置検出手段220は、送信元アドレスとして自ユニット2のアドレス、送信先アドレスとして統合ユニット3のアドレスを人物位置に付与して出力する。   When a new monitoring image is input (S4), the person position detecting means 220 of each camera control unit 22 detects the person position from the monitoring image (S5) and transmits the detected person position to the integrated unit 3. . At this time, the person position detecting means 220 gives the address of the own unit 2 as the transmission source address and the address of the integrated unit 3 as the transmission destination address, and outputs them.

各カメラユニット2から人物位置の情報を受信した統合ユニット3の統合制御部33はこれらの情報を統合する(S6)。   The integration control unit 33 of the integration unit 3 that has received the information on the person position from each camera unit 2 integrates the information (S6).

図10を参照して、ステップS6の人物情報統合処理の詳細を説明する。   Details of the person information integration processing in step S6 will be described with reference to FIG.

まず統合制御部33の経路長算出手段332は、人物位置のペアを順次生成してループ処理を設定し(S60〜S69)、全てのペアに対して経路長を算出する。ここで、ペアは現時刻において異なる監視画像から検出された人物位置で構成されることに注意されたい。例えば図3の例ではa1とa2,a1とb2の2組のペアが順次生成される。   First, the path length calculation unit 332 of the integrated control unit 33 sequentially generates pairs of person positions and sets a loop process (S60 to S69), and calculates path lengths for all pairs. Here, it should be noted that the pair is composed of person positions detected from different monitoring images at the current time. For example, in the example of FIG. 3, two pairs of a1 and a2, a1 and b2 are sequentially generated.

さらに経路長算出手段332は、人物の身長hを150cm,155cm,160cm,…,200cmと順次設定してループ処理を設定し(S61〜S67)、各ペアについて身長hごとに経路長を算出する。   Further, the path length calculation means 332 sequentially sets the person's height h as 150 cm, 155 cm, 160 cm,..., 200 cm to set loop processing (S61 to S67), and calculates the path length for each pair of heights h. .

ループ処理において、まず統合制御部33の座標変換手段330は射影規則320を用いてペアを構成する2つの人物位置を共通座標系に射影する(S62)。このとき座標変換手段330は、各人物位置に付与されている送信元アドレスから変換元のローカル座標系を特定し、特定したローカル座標系に対応する射影規則320を用いて射影する。また座標変換手段330は各人物位置の高さをh/2に設定して射影を行う。h/2とするのは人物位置が重心位置であるからである。射影結果は元の人物位置と対応付けて一時記憶される。   In the loop processing, first, the coordinate conversion means 330 of the integrated control unit 33 projects the two person positions constituting the pair on the common coordinate system using the projection rule 320 (S62). At this time, the coordinate conversion means 330 specifies the local coordinate system of the conversion source from the transmission source address given to each person position, and projects using the projection rule 320 corresponding to the specified local coordinate system. Further, the coordinate conversion means 330 performs projection by setting the height of each person position to h / 2. The reason for h / 2 is that the position of the person is the position of the center of gravity. The projection result is temporarily stored in association with the original person position.

次に統合制御部33の投影線算出手段331は射影後の各人物位置への投影線を算出する(S63)。このとき投影線算出手段331は投影線の算出に用いる設置位置CAMは各人物位置に付与された送信元アドレスから特定する。   Next, the projection line calculation means 331 of the integrated control unit 33 calculates a projection line to each person position after projection (S63). At this time, the projection line calculation means 331 specifies the installation position CAM used for calculation of the projection line from the transmission source address given to each person position.

続いて経路長算出手段332は、ステップS63にて算出された2つの投影線の交点を算出し(S64)、ステップS62にて算出された射影後の人物位置と交点との距離を算出し(S65)、これらの距離の和を経路長として算出する(S66)。   Subsequently, the path length calculation unit 332 calculates the intersection of the two projection lines calculated in step S63 (S64), and calculates the distance between the projected person position calculated in step S62 and the intersection ( S65), the sum of these distances is calculated as the path length (S66).

こうして複数の身長のそれぞれを想定したときの経路長が算出されると(S67にてYES)、経路長算出手段332は、これらの経路長のうち最小の経路長を処理対象のペアについての経路長δとして選出する(S68)。   When the path length when each of the plurality of heights is assumed is calculated in this way (YES in S67), the path length calculation unit 332 selects the minimum path length among these path lengths for the processing target pair. Selected as the length δ (S68).

全ペアに対して最小の経路長が選出されると(S69にてYES)、統合制御部33の人物位置統合手段333は、各ペアの経路長δを関数f(・)に入力して近接度f(δ)を算出し(S70)、さらに近接度f(δ)に式(1)を適用して各人物位置に対する単独度を算出し(S71)、統合パターンをリストアップして各統合パターンに対する統合評価値を算出する(S72)。   When the minimum path length is selected for all pairs (YES in S69), person position integration means 333 of integrated control unit 33 inputs path length δ of each pair into function f (•) and approaches it. The degree f (δ) is calculated (S70), and the degree of isolation for each person position is calculated by applying the formula (1) to the proximity f (δ) (S71). An integrated evaluation value for the pattern is calculated (S72).

そして、人物位置統合手段333は、最も高い統合評価値が算出された統合パターンを尤もらしい統合パターンと決定し(S73)、決定された統合パターンに従って人物位置を統合する(S74)。すなわちペアと決定された人物位置については当該人物位置への投影線の交点、単独と決定された人物位置については当該人物位置が統合された人物位置として算出される。尚、交点は改めて算出せずにステップS64における算出結果を流用してもよい。   Then, the person position integration unit 333 determines the integrated pattern for which the highest integrated evaluation value is calculated as a likely integrated pattern (S73), and integrates the person positions according to the determined integrated pattern (S74). In other words, the person position determined as a pair is calculated as the intersection of the projection lines to the person position, and the person position determined as independent is calculated as the person position integrated with the person position. In addition, you may divert the calculation result in step S64, without calculating an intersection again.

図9に戻り、統合制御部33の追跡手段334は、統合された現時刻の人物位置をその位置の整合性に基づいて一時刻前までの移動軌跡321と対応付け、対応付け結果に従い現時刻の人物位置で移動軌跡321を更新することで追跡を進捗させる(S7)。   Returning to FIG. 9, the tracking unit 334 of the integrated control unit 33 associates the person position of the integrated current time with the movement locus 321 up to one hour based on the consistency of the position, and the current time according to the association result. The tracking is advanced by updating the movement locus 321 at the person position (S7).

追跡が進捗すると、統合制御部33の不審行動検知手段335は、更新された移動軌跡321を分析して不審行動の有無を判定し(S8)、不審行動を検知すると(S9にてYES)、不審行動が検知された移動軌跡を含む異常信号を生成して出力部34へ出力する(S10)。異常信号が入力された出力部34は、音響出力手段を鳴動させモニタ装置に移動軌跡を表示する、或いは通信装置により異常信号を遠隔地の警備センタへ転送して警備センタの音響出力装置やモニタ装置に表示を行わせる(S11)。これらの表示を見聞きした監視員は案内或いは排除といった対処の必要性を判断し、必要であれば監視空間に急行して対処を行う。   When tracking progresses, the suspicious behavior detection means 335 of the integrated control unit 33 analyzes the updated movement trajectory 321 to determine the presence or absence of suspicious behavior (S8), and when suspicious behavior is detected (YES in S9), An abnormal signal including the movement locus where the suspicious behavior is detected is generated and output to the output unit 34 (S10). The output unit 34 to which the abnormality signal is input sounds the sound output means and displays the movement locus on the monitor device, or transfers the abnormality signal to the remote security center by the communication device, and the sound output device or monitor of the security center. Display is performed on the apparatus (S11). The observer who sees and listens to these displays determines the necessity of countermeasures such as guidance or exclusion, and if necessary, promptly approaches the surveillance space to take countermeasures.

以上の処理を終えると、処理は再びS4へ戻される。   When the above process is completed, the process returns to S4 again.

<第二の実施形態>
監視画像上においては人物像の解像度は一様ではなく、撮像部20から遠い人物に対する解像度は近い人物に比べて低くなる。このことは、同一人物について検出された人物位置同士であっても、当該人物から遠いカメラユニット2において検出された人物位置は、当該人物に近いカメラユニット2において検出された人物位置に比べ、ローカル座標系における1画素の検出誤差が共通座標系において、より大きくなることを意味している。
以下、本発明の第二の実施形態として、撮像部20からの遠近による解像度の格差を考慮して経路長を算出する画像監視装置1について説明する。尚、以下では第一の実施形態と共通する箇所を省略して説明する。
<Second Embodiment>
On the monitoring image, the resolution of the person image is not uniform, and the resolution for the person far from the imaging unit 20 is lower than that of the near person. This means that even if the positions of persons detected for the same person are different, the position of the person detected by the camera unit 2 far from the person is more local than the position of the person detected by the camera unit 2 close to the person. This means that the detection error of one pixel in the coordinate system becomes larger in the common coordinate system.
Hereinafter, as a second embodiment of the present invention, an image monitoring apparatus 1 that calculates a path length in consideration of a resolution difference due to distance from the imaging unit 20 will be described. In addition, below, the part which is common in 1st embodiment is abbreviate | omitted and demonstrated.

[画像監視装置の構成]
本形態にかかる画像監視装置1の構成を、第一の実施形態と共通する図1の構成を参照して説明する。
[Configuration of image monitoring device]
The configuration of the image monitoring apparatus 1 according to the present embodiment will be described with reference to the configuration of FIG. 1 common to the first embodiment.

第一の実施形態において座標変換手段330は人物位置をローカル座標系から共通座標系へ射影した。第二の実施形態における座標変換手段330はさらに、共通座標系で表された投影線の交点が入力されると当該交点をローカル座標系に逆射影し、逆射影後の交点位置を出力する。   In the first embodiment, the coordinate conversion unit 330 projects the person position from the local coordinate system to the common coordinate system. Further, when the intersection of the projection lines expressed in the common coordinate system is input, the coordinate conversion unit 330 in the second embodiment back-projects the intersection to the local coordinate system, and outputs the position of the intersection after the reverse projection.

また第一の実施形態において経路長算出手段332は共通座標系において経路長を算出した。第二の実施形態における経路長算出手段332は共通座標系ではなくローカル座標系において経路長を算出する。そのために経路長算出手段332は人物位置検出手段220により検出された人物位置と逆射影後の交点位置との距離をローカル座標系にて求め、この距離の和を経路長として算出する。   In the first embodiment, the path length calculation unit 332 calculates the path length in the common coordinate system. The route length calculation means 332 in the second embodiment calculates the route length in the local coordinate system instead of the common coordinate system. For this purpose, the path length calculation means 332 obtains the distance between the person position detected by the person position detection means 220 and the intersection position after back projection in the local coordinate system, and calculates the sum of the distances as the path length.

第二の実施形態におけるその余の構成は第一の実施形態と同様である。   The rest of the configuration in the second embodiment is the same as in the first embodiment.

[画像監視装置の動作]
第二の実施形態における画像監視装置1の動作のうち、画像監視処理全体の流れは図9を参照して説明した第一の実施形態のそれと同様である。第二の実施形態と第一の実施形態とではステップS6の人物情報統合処理の細部において動作が異なる。
[Operation of image monitoring device]
Among the operations of the image monitoring apparatus 1 in the second embodiment, the overall flow of the image monitoring process is the same as that of the first embodiment described with reference to FIG. The second embodiment and the first embodiment differ in operation in the details of the person information integration process in step S6.

以下、第二の実施形態における人物情報統合処理について図11及び図12を参照して説明する。   Hereinafter, the personal information integration process in the second embodiment will be described with reference to FIGS. 11 and 12.

まず統合制御部33の座標変換手段330は、射影規則320を用い、現時刻において人物位置検出手段220により検出された全ての人物位置を共通座標系に射影する(S75)。このとき座標変換手段330は、各人物位置に付与されている送信元アドレスから変換元のローカル座標系を特定し、特定したローカル座標系に対応する射影規則320を用いて射影する。また座標変換手段330は、各人物位置の高さを平均身長の1/2すなわち85cmに設定して射影を行う。射影結果は元の人物位置と対応付けて一時記憶される。   First, the coordinate conversion means 330 of the integrated control unit 33 uses the projection rule 320 to project all person positions detected by the person position detection means 220 at the current time onto a common coordinate system (S75). At this time, the coordinate conversion means 330 specifies the local coordinate system of the conversion source from the transmission source address given to each person position, and projects using the projection rule 320 corresponding to the specified local coordinate system. The coordinate conversion means 330 performs projection by setting the height of each person position to 1/2 of the average height, that is, 85 cm. The projection result is temporarily stored in association with the original person position.

次に、統合制御部33の投影線算出手段331は、射影後の全ての人物位置への投影線を算出する(S76)。このとき投影線算出手段331は各人物位置に付与された送信元アドレスから投影線の算出に用いる設置位置CAMを特定する。算出結果は元の人物位置と対応付けて一時記憶される。   Next, the projection line calculation unit 331 of the integrated control unit 33 calculates projection lines to all the positions of the person after projection (S76). At this time, the projection line calculation means 331 specifies the installation position CAM used for calculation of the projection line from the transmission source address given to each person position. The calculation result is temporarily stored in association with the original person position.

続いて、統合制御部33の経路長算出手段332は、射影された人物位置のペアを順次生成してループ処理を設定し(S77〜S86)、全てのペアに対して経路長を算出する。   Subsequently, the path length calculation unit 332 of the integrated control unit 33 sequentially generates projected person position pairs and sets loop processing (S77 to S86), and calculates path lengths for all pairs.

ペアについてのループ処理において、まず経路長算出手段332はステップS76にて算出された投影線のうちペアの各人物位置について算出された2つの投影線の交点を算出する(S78)。 In the loop processing for a pair, firstly the path length calculation unit 332 calculates the intersection of the two projection lines calculated for each person position pairs of the calculated projection line at step S 76 (S78).

続いて経路長算出手段332は、人物の身長hを150cm,155cm,160cm,…,200cmと順次設定してループ処理を設定し(S79〜S84)、身長hごとに経路長を算出する。   Subsequently, the path length calculation unit 332 sequentially sets the person's height h as 150 cm, 155 cm, 160 cm,..., 200 cm and sets a loop process (S79 to S84), and calculates the path length for each height h.

身長hについてのループ処理において、まず経路長算出手段332はステップS78にて算出された交点に高さh/2を付与して交点を3次元座標化する(S80)。交点の座標を(xc,yc)とすると3次元座標化された交点の座標は(xc,yc,h/2)と設定される。 In the loop processing for the height h, firstly the path length calculation unit 332 three-dimensional coordinates of the intersection by assigning the height h / 2 at the intersection calculated in step S 78 (S80). If the coordinates of the intersection point are (xc, yc), the coordinates of the intersection point converted into a three-dimensional coordinate are set to (xc, yc, h / 2).

続いて座標変換手段330は、3次元座標化された交点を当該交点の算出元である2つの人物位置が検出されたローカル座標系のそれぞれに逆射影し(S81)、逆射影された交点位置を出力する。このとき座標変換手段330はペアを構成する各人物位置のデータに付与されている送信元アドレスから変換先のローカル座標系を特定し、特定したローカル座標系に対応する射影規則320を用いて逆射影する。   Subsequently, the coordinate conversion means 330 back-projects the intersection point converted into the three-dimensional coordinates onto each of the local coordinate systems where the two person positions from which the intersection point is calculated are detected (S81), and the back-projected intersection point position Is output. At this time, the coordinate conversion means 330 identifies the local coordinate system of the conversion destination from the transmission source address given to the data of each person position constituting the pair, and reverses it using the projection rule 320 corresponding to the identified local coordinate system. Project.

例えばA1とA2のペアについてh=170cmが設定されているとき、図4の交点Λ1は図12のように、人物位置a1が検出された撮像部20−1のローカル座標系であるx1−y1平面の位置λ1に逆射影され、さらに人物位置a2が検出された撮像部20−2のローカル座標系であるx2−y2平面の位置λ1に逆射影される。   For example, when h = 170 cm is set for the pair of A1 and A2, the intersection Λ1 in FIG. 4 is x1-y1 which is the local coordinate system of the imaging unit 20-1 in which the person position a1 is detected as shown in FIG. The projection is back-projected to the position λ1 on the plane, and further back-projected to the position λ1 on the x2-y2 plane which is the local coordinate system of the imaging unit 20-2 where the person position a2 is detected.

続いて経路長算出手段332は、ステップS81にて逆射影された交点のそれぞれと当該交点の算出元である人物位置との間の距離を算出し(S82)、これらの和を経路長として算出する(S83)。 Then the path length calculation unit 332, as a distance calculates (S82), the path length of these sums between the person position respectively and the intersection of the calculated original reverse the projected intersection at Step S 81 Calculate (S83).

図12の例では、人物位置a1と交点λ1との間の距離d1と、人物位置a2と交点λ1との間の距離d2が算出され、経路長は(d1+d2)と算出される。   In the example of FIG. 12, the distance d1 between the person position a1 and the intersection λ1 and the distance d2 between the person position a2 and the intersection λ1 are calculated, and the path length is calculated as (d1 + d2).

同一人物による人物位置のペアであれば交点はこれらの人物位置の近くに逆射影されるので、ローカル座標系において交点と人物位置は同程度の解像度となる。そして同程度の解像度で表現された交点と人物位置の演算で経路長が算出できるので、解像度の格差が是正された経路長を算出できる。   In the case of a pair of person positions by the same person, the intersection point is projected back to the vicinity of these person positions, so the intersection point and the person position have the same resolution in the local coordinate system. Since the path length can be calculated by calculating the intersection and the person position expressed with the same resolution, the path length in which the resolution disparity is corrected can be calculated.

こうして複数の身長のそれぞれを想定したときの経路長が算出されると(S84にてYES)、経路長算出手段332は、これらの経路長のうち最小の経路長を処理対象のペアについての経路長δとして選出する(S85)。   When the path length when each of the plurality of heights is assumed is calculated in this way (YES in S84), the path length calculation unit 332 calculates the minimum path length among these path lengths for the pair to be processed. Selected as the length δ (S85).

全ペアに対して経路長が算出された後のステップS87,S88,S89,S90,S91における処理は、それぞれ図10を参照して説明したステップS70,S71,S72,S73,S74における処理と同様である。   The processing in steps S87, S88, S89, S90, and S91 after the path length is calculated for all pairs is the same as the processing in steps S70, S71, S72, S73, and S74 described with reference to FIG. It is.

以上の処理を終えると、処理は図9のステップS7へ戻される。   When the above process is completed, the process returns to step S7 in FIG.

以上で述べたように、第二の実施形態によれば、ローカル座標系において経路長を算出することにより解像度の格差が低減された状態で経路長を比較できるので、より高い精度で人物位置の情報を統合できる。   As described above, according to the second embodiment, the path length can be compared in a state where the resolution disparity is reduced by calculating the path length in the local coordinate system. Information can be integrated.

<その他の変形例>
上記実施形態においては、人物位置統合手段333は単独度を算出して近接度と単独度を加味した統合評価値を算出した。別の実施形態において、人物位置統合手段333は、単独度を用いずに統合評価値を算出する。すなわち、人物位置統合手段333は、予め設定された近接度しきい値を下回る近接度が算出されたペアは除外して統合パターンを設定し、設定された統合パターンに応じて近接度を総和して統合評価値を算出する。
<Other variations>
In the embodiment described above, the person position integration unit 333 calculates the integrated evaluation value by calculating the singleness and taking the proximity and singleness into consideration. In another embodiment, the person position integration unit 333 calculates the integrated evaluation value without using the single degree. That is, the person position integration unit 333 sets an integrated pattern by excluding a pair whose proximity is lower than a preset proximity threshold and sets the integration pattern according to the set integration pattern. To calculate the integrated evaluation value.

上記実施形態においては、2つのカメラユニット2が統合ユニット3に接続される。別の実施形態において統合ユニット3には3つ目のカメラユニット2−3が接続される。この場合、統合ユニット3はカメラユニット2−1及びカメラユニット2−2からの人物位置を統合した後、この統合結果とカメラユニット2−3からの人物位置をさらに統合することで3つのカメラユニット2からの人物位置を統合する。尚、4つ以上のカメラユニット2が接続されている場合も以下同様に多段階で統合を行うことで、全てのカメラユニット2からの人物位置を統合できる。   In the above embodiment, two camera units 2 are connected to the integrated unit 3. In another embodiment, a third camera unit 2-3 is connected to the integrated unit 3. In this case, the integration unit 3 integrates the person positions from the camera unit 2-1 and the camera unit 2-2, and then further integrates the integration result and the person position from the camera unit 2-3 to obtain three camera units. The person positions from 2 are integrated. Even when four or more camera units 2 are connected, person positions from all the camera units 2 can be integrated by performing integration in multiple stages in the same manner.

上記実施形態においては、各ペアについて複数の身長ごとに経路長を算出し、最短の経路長を当該ペアの経路長として算出した。別の実施形態においては、身長の設定を固定して当該身長設定における経路長をペアの経路長として算出することで処理負荷を軽減する。この場合、身長推定誤差を極力小さくするには身長の設定を監視対象の平均身長、あるいは最頻身長に固定すればよい。   In the above embodiment, the path length is calculated for each of the plurality of heights for each pair, and the shortest path length is calculated as the path length of the pair. In another embodiment, the processing load is reduced by fixing the height setting and calculating the path length in the height setting as a pair path length. In this case, in order to minimize the height estimation error, the height setting may be fixed to the average height or the most frequent height to be monitored.

上記実施形態においては各カメラユニット2にて人物位置を検出したが、別の実施形態においては統合ユニット3にて人物位置を検出する。すなわち人物位置検出手段220は統合制御部33により実現される。この場合、監視画像が送受信されるため通信網4の通信負荷は上がるが、カメラ制御部22において画像処理を行う必要がなくなりカメラユニット2の調達が容易になる。

In the above embodiment, the person position is detected by each camera unit 2, but in another embodiment, the person position is detected by the integrated unit 3. That is, the person position detection unit 220 is realized by the integrated control unit 33. In this case, since the monitoring image is transmitted and received, the communication load of the communication network 4 increases. However, it is not necessary to perform image processing in the camera control unit 22, and the procurement of the camera unit 2 is facilitated.

1・・・画像監視装置
2・・・カメラユニット
3・・・統合ユニット
20・・・撮像部
21・・・カメラ記憶部
22・・・カメラ制御部
23・・・カメラ通信部
30・・・統合通信部
31・・・操作部
32・・・統合記憶部
33・・・統合制御部
34・・・出力部
220・・・人物位置検出手段
320・・・射影規則
321・・・移動軌跡
330・・・座標変換手段
331・・・投影線算出手段
332・・・経路長算出手段
333・・・人物位置統合手段
334・・・追跡手段
335・・・不審行動検知手段

DESCRIPTION OF SYMBOLS 1 ... Image monitoring apparatus 2 ... Camera unit 3 ... Integrated unit 20 ... Imaging part 21 ... Camera storage part 22 ... Camera control part 23 ... Camera communication part 30 ... Integrated communication unit 31 ... operation unit 32 ... integrated storage unit 33 ... integration control unit 34 ... output unit 220 ... person position detection means 320 ... projection rule 321 ... movement locus 330 ... coordinate conversion means 331 ... projection line calculation means 332 ... path length calculation means 333 ... person position integration means 334 ... tracking means 335 ... suspicious behavior detection means

Claims (5)

互いに視野の一部を共有し当該視野内を移動する人物を互いに異なる方向から撮像して監視画像を出力する複数の撮像部と、
前記監視画像から前記人物が存在するローカル座標系での人物位置を検出する人物位置検出手段と、
前記撮像部ごとに設定された前記ローカル座標系から前記複数の撮像部に共通して設定された共通座標系へ前記人物位置を射影する座標変換手段と、
前記共通座標系において前記人物位置と当該人物位置が検出された監視画像を撮像した撮像部の位置とを結ぶ投影線を算出する投影線算出手段と、
前記複数の撮像部により同時に撮像された前記監視画像の一方から検出された前記人物位置及び他方の前記監視画像から検出された前記人物位置のペアを設定し、前記一方の人物位置への前記投影線上及び前記他方の人物位置への前記投影線上を通る当該人物位置間の経路長を算出して出力する経路長算出手段と、
前記経路長算出手段により出力された経路長がより短い前記ペアを他の前記ペアよりも優先的に同一人物の人物位置としてまとめることで前記人物位置の情報を統合する人物位置統合手段と、
を備えたことを特徴とする画像監視装置。
A plurality of imaging units that share a part of the field of view and image a person moving within the field of view from different directions and output a monitoring image;
Person position detecting means for detecting a person position in a local coordinate system where the person exists from the monitoring image;
Coordinate transformation means for projecting the person position from the local coordinate system set for each imaging unit to a common coordinate system set in common to the plurality of imaging units;
A projection line calculating means for calculating a projection line connecting the position of the person in the common coordinate system and the position of the imaging unit that captured the monitoring image from which the position of the person was detected;
A pair of the person position detected from one of the monitoring images simultaneously captured by the plurality of imaging units and the person position detected from the other monitoring image is set, and the projection onto the one person position is performed. A path length calculation means for calculating and outputting a path length between the person positions passing through the projection line on the line and the other person position;
Person position integration means for integrating the information on the person position by combining the pair having a shorter path length output by the path length calculation means as the person position of the same person preferentially over the other pairs;
An image monitoring apparatus comprising:
前記座標変換手段は、前記人物の身長分布範囲内で複数の身長を設定して前記射影を行い、
前記経路長算出手段は、前記複数の身長ごとに算出された前記経路長のうち最小の経路長を出力する請求項1に記載の画像監視装置。
The coordinate conversion means performs the projection by setting a plurality of heights within the height distribution range of the person,
The image monitoring apparatus according to claim 1, wherein the path length calculation unit outputs a minimum path length among the path lengths calculated for the plurality of heights.
前記座標変換手段は、さらに前記ペアを構成する各人物位置への前記投影線の交点を当該人物位置が検出されたローカル座標系へ逆射影し、
前記経路長算出手段は、前記人物位置検出手段により検出された人物位置と前記逆射影された交点との距離の和を前記経路長として算出する請求項1に記載の画像監視装置。
The coordinate conversion means further back-projects the intersection of the projection lines to each person position constituting the pair to a local coordinate system where the person position is detected,
The image monitoring apparatus according to claim 1, wherein the path length calculation unit calculates a sum of distances between the person position detected by the person position detection unit and the back-projected intersection as the path length.
前記座標変換手段は、前記人物の身長分布範囲内で複数の高さを設定して前記交点を逆射影し、
前記経路長算出手段は、前記複数の高さごとに算出された前記経路長のうち最小の経路長を出力する請求項3に記載の画像監視装置。
The coordinate transformation means reversely projects the intersection by setting a plurality of heights within the height distribution range of the person,
The image monitoring apparatus according to claim 3, wherein the path length calculation unit outputs a minimum path length among the path lengths calculated for each of the plurality of heights.
前記人物位置統合手段は、前記同一人物とされたペアへの前記投影線の交点を当該人物の統合後の位置として算出する請求項1乃至4に記載の画像監視装置。

5. The image monitoring apparatus according to claim 1, wherein the person position integration unit calculates an intersection of the projection lines with respect to the pair set as the same person as a position after integration of the person.

JP2009048410A 2009-03-02 2009-03-02 Image monitoring device Active JP5147761B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009048410A JP5147761B2 (en) 2009-03-02 2009-03-02 Image monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009048410A JP5147761B2 (en) 2009-03-02 2009-03-02 Image monitoring device

Publications (3)

Publication Number Publication Date
JP2010206405A JP2010206405A (en) 2010-09-16
JP2010206405A5 JP2010206405A5 (en) 2012-03-22
JP5147761B2 true JP5147761B2 (en) 2013-02-20

Family

ID=42967462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009048410A Active JP5147761B2 (en) 2009-03-02 2009-03-02 Image monitoring device

Country Status (1)

Country Link
JP (1) JP5147761B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2829597C (en) * 2011-03-07 2015-05-26 Kba2, Inc. Systems and methods for analytic data gathering from image providers at an event or geographic location
JP5669648B2 (en) * 2011-03-30 2015-02-12 セコム株式会社 Anomaly detection device
JP2013008298A (en) * 2011-06-27 2013-01-10 Secom Co Ltd Security system
JP5756709B2 (en) * 2011-08-03 2015-07-29 綜合警備保障株式会社 Height estimation device, height estimation method, and height estimation program
JP5996903B2 (en) * 2012-03-28 2016-09-21 セコム株式会社 Moving object tracking device
JP6484402B2 (en) * 2014-03-20 2019-03-13 株式会社日立国際電気 Image surveillance system
JP6173377B2 (en) * 2015-03-03 2017-08-02 国立大学法人 和歌山大学 Height estimation method and height estimation system
JP6173376B2 (en) * 2015-03-03 2017-08-02 国立大学法人 和歌山大学 Same person detection method and same person detection system
JP6429323B2 (en) * 2015-03-20 2018-11-28 Kddi株式会社 Object extraction method and apparatus
KR102022971B1 (en) 2017-10-18 2019-09-19 한국전자통신연구원 Method for object of image and apparatus for the same
JP6427650B1 (en) 2017-11-21 2018-11-21 三菱電機インフォメーションシステムズ株式会社 Tracking device and tracking program
WO2019155727A1 (en) * 2018-02-08 2019-08-15 三菱電機株式会社 Information processing device, tracking method, and tracking program
JP7251798B2 (en) * 2020-05-01 2023-04-04 株式会社エイビット underwater survey system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3257165B2 (en) * 1993-08-06 2002-02-18 株式会社日立製作所 Moving object monitoring device
JP3577875B2 (en) * 1997-03-06 2004-10-20 松下電器産業株式会社 Moving object extraction device
JP3520050B2 (en) * 2001-01-17 2004-04-19 株式会社国際電気通信基礎技術研究所 Moving object tracking device
JP4070618B2 (en) * 2003-01-15 2008-04-02 日本電信電話株式会社 Object tracking method, object tracking apparatus, object tracking method program, and recording medium recording the program
JP4559874B2 (en) * 2005-03-01 2010-10-13 ティーオーエー株式会社 Motion tracking device
JP2007233523A (en) * 2006-02-28 2007-09-13 Hitachi Ltd Person location estimation method using asynchronous camera image and system therefor

Also Published As

Publication number Publication date
JP2010206405A (en) 2010-09-16

Similar Documents

Publication Publication Date Title
JP5147761B2 (en) Image monitoring device
US10198823B1 (en) Segmentation of object image data from background image data
JP5147760B2 (en) Image monitoring device
JP4541316B2 (en) Video surveillance search system
JP6554169B2 (en) Object recognition device and object recognition system
KR101788269B1 (en) Method and apparatus for sensing innormal situation
WO2020125499A1 (en) Operation prompting method and glasses
JP2014127208A (en) Method and apparatus for detecting object
WO2018101247A1 (en) Image recognition imaging apparatus
US20140049600A1 (en) Method and system for improving surveillance of ptz cameras
JP5956248B2 (en) Image monitoring device
JP7272024B2 (en) Object tracking device, monitoring system and object tracking method
CN110472612A (en) Human bodys&#39; response method and electronic equipment
WO2022227761A1 (en) Target tracking method and apparatus, electronic device, and storage medium
JP5027741B2 (en) Image monitoring device
EP2372652B1 (en) Method for estimating a plane in a range image and range image camera
JP4969291B2 (en) Moving object tracking device
JP5027758B2 (en) Image monitoring device
JP2018061114A (en) Monitoring device and monitoring method
Feng et al. Three-dimensional robot localization using cameras in wireless multimedia sensor networks
WO2022127181A1 (en) Passenger flow monitoring method and apparatus, and electronic device and storage medium
JP2019029935A (en) Image processing system and control method thereof
US11948363B2 (en) Person detection device and person detection method
JP7255173B2 (en) Human detection device and human detection method
WO2020213099A1 (en) Object detection/tracking device, method, and program recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121127

R150 Certificate of patent or registration of utility model

Ref document number: 5147761

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250