JP5027758B2 - Image monitoring device - Google Patents

Image monitoring device Download PDF

Info

Publication number
JP5027758B2
JP5027758B2 JP2008210280A JP2008210280A JP5027758B2 JP 5027758 B2 JP5027758 B2 JP 5027758B2 JP 2008210280 A JP2008210280 A JP 2008210280A JP 2008210280 A JP2008210280 A JP 2008210280A JP 5027758 B2 JP5027758 B2 JP 5027758B2
Authority
JP
Japan
Prior art keywords
image
partial
model
monitoring
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008210280A
Other languages
Japanese (ja)
Other versions
JP2010049297A (en
Inventor
高晴 黒川
史比古 高井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2008210280A priority Critical patent/JP5027758B2/en
Publication of JP2010049297A publication Critical patent/JP2010049297A/en
Application granted granted Critical
Publication of JP5027758B2 publication Critical patent/JP5027758B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、監視空間を撮像した監視画像から対象物体を検出する画像監視装置に関し、特に、対象物体の画像特徴を記憶して当該画像特徴を有する対象物体を、隠蔽を考慮に入れつつ検出する画像監視装置に関する。   The present invention relates to an image monitoring apparatus that detects a target object from a monitoring image obtained by imaging a monitoring space, and in particular, stores an image feature of the target object and detects the target object having the image feature in consideration of concealment. The present invention relates to an image monitoring apparatus.

侵入者検知等のため、監視空間を撮像した監視画像から監視対象の対象物体に関する画像を抽出し、その画像情報に基づいて対象物体の検出や追跡を行う技術が知られている。下記特許文献1は、現フレームの物体候補領域と直前フレームの物体候補領域とが、それら領域の画像特徴量の類似度に基づいて同一の物体の画像を含むかを判定し、直前フレームの物体候補領域に対応付けられる現フレームの物体候補領域を求めることで移動物体の追跡を行う技術を開示している。   In order to detect an intruder or the like, a technique is known in which an image related to a target object to be monitored is extracted from a monitoring image obtained by imaging a monitoring space, and the target object is detected and tracked based on the image information. Patent Document 1 below determines whether the object candidate area of the current frame and the object candidate area of the immediately preceding frame include an image of the same object based on the similarity of the image feature values of these areas, and the object of the immediately preceding frame A technique for tracking a moving object by obtaining an object candidate area of the current frame associated with the candidate area is disclosed.

すなわち、前後する時刻における移動物体像を画像特徴により対応付けるにあたり、直前時刻又は数時刻前の移動物体像の画像特徴を逐次記憶して利用する。
特開2006−318064号公報
That is, when associating the moving object image at the time before and after with the image feature, the image feature of the moving object image at the immediately preceding time or several hours before is sequentially stored and used.
JP 2006-318064 A

従来は、各時刻の監視画像に現れる1つの対象物をひとまとまりの像、すなわち2次元画像として把握・抽出することが多い。その際、基本的には、対象物体の立体的な構造は捨象されてしまう。しかし、現実には、対象物体は立体的な構造を有し、物体の移動によりカメラの撮影方向に対する物体の配置が変化すると、物体を構成する部分間で生じる隠蔽(オクルージョン)の状態が変化し、カメラが撮影した監視画像上にて物体の見え方が変わる。例えば、カメラで俯瞰撮影する場合、人物がカメラの直下から遠ざかるにつれて、頭に隠されていた胴や、胴に隠されていた脚が画像上に現れてくる。このような隠蔽状態の変化により、直前の1フレーム又は数フレームの画像特徴を記憶する従来の方法では、物体のそれまで隠れていた部分が画像に現れ、新たな画像特徴を生じることに対応できない。そのため、現時刻に撮像された監視画像内に存在する対象物体の像と、記憶されている画像特徴との対応付けが困難となり、対象物体の検出や追跡の継続ができなくなるという問題があった。   Conventionally, a single object appearing in a monitoring image at each time is often grasped and extracted as a group of images, that is, a two-dimensional image. At that time, basically, the three-dimensional structure of the target object is discarded. However, in reality, the target object has a three-dimensional structure, and when the arrangement of the object with respect to the shooting direction of the camera changes due to the movement of the object, the state of occlusion that occurs between the parts constituting the object changes. The appearance of the object changes on the monitoring image taken by the camera. For example, when taking a bird's-eye shot with a camera, as the person moves away from just below the camera, the torso hidden in the head and the legs hidden in the torso appear on the image. Due to such a change in the concealment state, the conventional method of storing the image feature of the immediately preceding frame or several frames cannot cope with the occurrence of a new image feature because the previously hidden part of the object appears in the image. . For this reason, there is a problem that it becomes difficult to associate the image of the target object existing in the monitoring image captured at the current time with the stored image feature, and the target object cannot be detected or tracked continuously. .

本発明は上記問題点を解決するためになされたものであり、対象物体の移動に伴って隠蔽状態が変化しても対象物体の検出や追跡の継続を好適に実現できる画像監視装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides an image monitoring apparatus that can suitably realize detection and tracking of a target object even if the concealment state changes as the target object moves. For the purpose.

本発明に係る画像監視装置は、監視空間を透視投影した監視画像についての投影条件と、監視対象となる対象物体の複数の構成部分毎の立体形状を表す部分モデルと当該部分モデル相互の配置関係とで表される前記対象物体の物体モデルと、前記対象物体の前記構成部分毎の参照画像及び参照画像隠蔽度とを記憶する記憶部と、前記監視画像、及び前記監視空間内の位置を入力され、当該位置に前記物体モデルを仮想的に配置して前記投影条件に基づき透視投影を行い、前記部分モデル毎に、その投影像のうち前記透視投影にて手前に位置する他の前記部分モデルによる隠蔽領域を除いた部分モデル可視領域と、前記隠蔽領域による当該投影像の隠蔽度とを求めると共に、前記監視画像から当該部分モデル可視領域に対応する部分を前記対象物体の前記構成部分毎の部分画像として抽出する部分画像抽出手段と、前記対象物体が存在し得る候補位置での前記部分画像と前記参照画像とを複数の前記候補位置について比較し、比較一致した候補位置に基づいて、前記対象物体が存在する物体位置を判定する物体判定手段と、前記物体位置での前記隠蔽度が前記参照画像隠蔽度以下である前記構成部分について、前記参照画像及び前記参照画像隠蔽度を、当該隠蔽度及び当該物体位置での前記部分画像で更新する物体情報更新手段と、を有するものである。   An image monitoring apparatus according to the present invention includes a projection condition for a monitoring image obtained by perspective projection of a monitoring space, a partial model representing a three-dimensional shape for each of a plurality of constituent parts of a target object to be monitored, and an arrangement relationship between the partial models. A storage unit that stores an object model of the target object represented by the reference object, a reference image and a reference image concealment degree for each component of the target object, the monitoring image, and a position in the monitoring space are input. Virtually disposing the object model at the position and performing perspective projection based on the projection condition, and for each partial model, the other partial model positioned in front of the perspective projection among the projection images The partial model visible area excluding the concealed area by the image and the concealment degree of the projection image by the concealed area are obtained, and the part corresponding to the partial model visible area from the monitoring image is the target. The partial image extraction means for extracting as a partial image for each component of the body, the partial image at the candidate position where the target object may exist and the reference image are compared for a plurality of candidate positions, and the comparison matches Object reference means for determining an object position where the target object is present based on a candidate position, and the reference image and the reference for the constituent part in which the concealment degree at the object position is equal to or less than the reference image concealment degree Object information updating means for updating the image concealment degree with the partial image at the concealment degree and the object position.

他の本発明に係る画像監視装置においては、前記物体判定手段が、基準位置に配置した前記物体モデルにより得られる基準投影像上に、前記部分画像を前記投影条件に基づいて写像した基準部分画像と、同じく前記基準投影像上に前記参照画像を写像した基準参照画像とが互いに重複する共通領域を求め、当該共通領域において前記基準部分画像と前記基準参照画像とを比較して前記物体位置を判定する。この本発明の画像監視装置の好適な態様は、前記物体判定手段が、前記候補位置と、前記参照画像の取得に際して配置された前記物体モデルの位置とのうち視点位置からの距離が遠い方を前記基準位置に設定する画像監視装置である。   In another image monitoring apparatus according to the present invention, the object determination unit maps the partial image on the reference projection image obtained by the object model arranged at the reference position based on the projection condition. Similarly, a common area where a standard reference image obtained by mapping the reference image on the standard projection image overlaps is obtained, and the object position is determined by comparing the standard partial image and the standard reference image in the common area. judge. In a preferred aspect of the image monitoring apparatus according to the present invention, the object determination unit determines the candidate position and the position of the object model arranged at the time of acquiring the reference image that is farther from the viewpoint position. The image monitoring apparatus is set to the reference position.

別の本発明に係る画像監視装置においては、前記物体判定手段が、前記部分モデルに高さ方向に層をなして複数の水平帯状領域を設定し、前記共通領域を前記水平帯状領域と対応する複数の小領域に分割し、当該小領域毎に前記基準部分画像と前記基準参照画像とを比較する。   In another image monitoring apparatus according to the present invention, the object determination unit sets a plurality of horizontal strip regions in the height direction on the partial model, and the common region corresponds to the horizontal strip region. The image is divided into a plurality of small areas, and the standard partial image and the standard reference image are compared for each small area.

本発明によれば、隠蔽が少ない参照画像を保持できるので、対象物体が移動して隠蔽状態が変化しても隠蔽部分の画像情報が参照画像から失われず、対象物体の検出や追跡の精度が向上する。   According to the present invention, since a reference image with a small concealment can be held, even if the target object moves and the concealment state changes, the image information of the concealment portion is not lost from the reference image, and the accuracy of detection and tracking of the target object is improved. improves.

また、本発明によれば、部分画像と参照画像とのいずれか一方において隠蔽されている領域を除いて比較するので、部分画像と参照画像との互いに対応する領域(共通領域)に基づく比較が行われ、対象物体の検出や追跡の精度が向上する。   Further, according to the present invention, since the comparison is performed except for the area concealed in either the partial image or the reference image, the comparison based on the mutually corresponding areas (common areas) of the partial image and the reference image is performed. This improves the accuracy of target object detection and tracking.

また、部分画像と参照画像とのうち視点からの距離が近く解像度が高い一方の画像を、距離が遠く解像度が低い他方の画像に合わせて変換するので、解像度を揃えて比較することができる。すなわち、解像度が高い画像が有する高周波成分により生じる誤差を低減した比較が行われ、対象物体の検出や追跡の精度が向上する。   In addition, since one of the partial images and the reference image that has a short distance from the viewpoint and a high resolution is converted in accordance with the other image that has a long distance and a low resolution, comparison can be made with the same resolution. That is, a comparison in which an error caused by a high-frequency component included in an image with high resolution is reduced is performed, and the accuracy of detection and tracking of the target object is improved.

また、同一構成部分内の高さ方向に複数の異なる画像特徴が分布している対象物体をも精度良く判定できる。   It is also possible to accurately determine a target object in which a plurality of different image features are distributed in the height direction within the same component.

以下、本発明の実施の形態(以下実施形態という)である画像監視装置1について、図面に基づいて説明する。画像監視装置1は、例えば、ビルのエントランスや金融機関のATMコーナー等の監視空間にて対象物として人を検出・追跡する。画像監視装置1はさらに、その追跡結果に基づいて、例えば、長時間滞留する不審人物を検出し、異常を報知する等の処理を行うように構成されている。   Hereinafter, an image monitoring apparatus 1 according to an embodiment of the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings. For example, the image monitoring apparatus 1 detects and tracks a person as an object in a monitoring space such as an entrance of a building or an ATM corner of a financial institution. The image monitoring apparatus 1 is further configured to perform processing such as detecting a suspicious person who stays for a long time and notifying an abnormality based on the tracking result.

図1は、実施形態に係る画像監視装置1のブロック構成図である。画像監視装置1は、撮像部2、操作部3、記憶部4、制御部5及び出力部6を含んで構成される。   FIG. 1 is a block configuration diagram of an image monitoring apparatus 1 according to the embodiment. The image monitoring apparatus 1 includes an imaging unit 2, an operation unit 3, a storage unit 4, a control unit 5, and an output unit 6.

撮像部2は、監視カメラであり、監視空間内に設置され、監視空間を所定の時間間隔で撮影する。撮影された監視空間の監視画像は制御部5へ出力される。以下、撮像部2の撮像タイミングを時刻と称する。監視空間をX,Y,Z軸からなる直交座標系で表し、鉛直上方をZ軸の正方向に設定すると、XY平面内での人の位置、移動を把握するため、撮像部2は基本的に人を俯瞰撮影可能な高さに設置され、例えば、本実施形態では撮像部2は、監視カメラの光軸を鉛直下方(Z軸負方向)に向けて天井に設置される。   The imaging unit 2 is a monitoring camera, is installed in the monitoring space, and images the monitoring space at a predetermined time interval. The captured surveillance image of the surveillance space is output to the control unit 5. Hereinafter, the imaging timing of the imaging unit 2 is referred to as time. When the monitoring space is represented by an orthogonal coordinate system composed of X, Y, and Z axes, and the vertically upward direction is set in the positive direction of the Z axis, the imaging unit 2 is basically used to grasp the position and movement of a person in the XY plane. For example, in this embodiment, the imaging unit 2 is installed on the ceiling with the optical axis of the surveillance camera facing vertically downward (Z-axis negative direction).

操作部3は、管理者が制御部5に対して各種設定を行うための入力手段であり、例えば、タッチパネルディスプレイ等のユーザインターフェース装置である。   The operation unit 3 is an input means for the administrator to make various settings for the control unit 5, and is a user interface device such as a touch panel display, for example.

記憶部4は、RAM、ROM、ハードディスク等の記憶装置であり、制御部5に接続される。記憶部4は、制御部5で使用されるプログラムやデータを記憶する。これに記憶されるデータには、物体情報40、移動軌跡41、及び撮像条件42が含まれる。   The storage unit 4 is a storage device such as a RAM, a ROM, and a hard disk, and is connected to the control unit 5. The storage unit 4 stores programs and data used by the control unit 5. The data stored therein includes object information 40, a movement trajectory 41, and an imaging condition 42.

物体情報40は、監視空間内に検出された対象物体に関する情報であり、対象物体ごとに識別可能に記憶される。物体情報40は、物体モデル400、参照画像401、参照画像隠蔽度402、参照画像取得位置404を含む。   The object information 40 is information regarding the target object detected in the monitoring space, and is stored so as to be identifiable for each target object. The object information 40 includes an object model 400, a reference image 401, a reference image concealment degree 402, and a reference image acquisition position 404.

物体モデル400は、対象物体を構成する複数の構成部分毎の立体形状を表す部分モデルと、それら部分モデル相互の配置関係とを記述したデータである。画像監視装置1が監視対象とする対象物体は人であり、本実施形態では、例えば、人の構成部分として頭部、胴部、脚部の3つが設定される。また、各構成部分の立体形状を近似的に表す部分モデルとして、長軸が鉛直方向に設定され短軸が水平方向に設定された楕円を鉛直軸(Z軸)の周りに回転させて得られる回転楕円体を用いる。図2には、XYZ空間内での物体モデル400が模式的に示されている。物体モデル400は、脚部の部分モデルの下端を床面又は地表面等の基準面(Z=0)に接地し、その脚部の部分モデルの上に胴部、頭部の部分モデルを順にZ軸方向に積み重ねた配置関係を有する。基準面から頭部中心までの高さh、胴部の最大幅w(胴部短軸直径)は対象物体毎に設定する。高さhに対する頭部中心から胴部中心までの長さ、頭部中心から脚部中心までの長さ、頭部長軸半径、胴部長軸半径及び脚部長軸半径それぞれの比と、幅wに対する頭部短軸半径及び脚部短軸半径それぞれの比とは、各対象物体に共通の値に設定する。このようにして物体モデル400の高さ及び幅が対象物体毎に設定され、これにより、後述する隠蔽状態の推定及び各構成部分の画像抽出が対象物体の体格差の影響を受けにくくなり、精度良い抽出処理が可能となる。なお、撮像部2との位置関係から、頭部は他の構成部分に隠蔽されにくく、監視画像に良好に現れることから、頭部中心を基準としている。   The object model 400 is data describing a partial model representing a three-dimensional shape for each of a plurality of constituent parts constituting the target object, and an arrangement relationship between the partial models. A target object to be monitored by the image monitoring apparatus 1 is a person. In the present embodiment, for example, three parts of a head, a torso, and a leg are set as a human component. In addition, as a partial model that approximately represents the three-dimensional shape of each component, an ellipse having a major axis set in the vertical direction and a minor axis set in the horizontal direction is obtained by rotating the ellipse around the vertical axis (Z axis). A spheroid is used. FIG. 2 schematically shows an object model 400 in the XYZ space. In the object model 400, the lower end of the leg partial model is grounded to a reference surface (Z = 0) such as a floor surface or the ground surface, and the trunk and head partial models are sequentially placed on the leg partial model. It has an arrangement relationship that is stacked in the Z-axis direction. The height h from the reference plane to the center of the head and the maximum width w of the trunk (the trunk minor axis diameter) are set for each target object. The length from the head center to the trunk center with respect to the height h, the length from the head center to the leg center, the ratio of the head major axis radius, the trunk major axis radius and the leg major axis radius, and the width w The ratios of the head short axis radius and the leg short axis radius with respect to are set to values common to each target object. In this way, the height and width of the object model 400 are set for each target object, so that estimation of a concealment state and image extraction of each component described later are less affected by the physique difference of the target object. A good extraction process is possible. Note that the head is based on the center of the head because the head is not easily concealed by other components due to the positional relationship with the imaging unit 2 and appears well in the monitoring image.

参照画像401は対象物体を特徴付ける画像情報である。参照画像401は、対象物体それぞれについて、構成部分毎に記憶される。追跡の過程で撮像部2により撮像された画像から各対象物体の各構成部分の画像(部分画像)が抽出され、当該部分画像のうち後述の処理に従い選択されたものが参照画像401として記憶される。以下、構成部分pの参照画像401をFと表す。 The reference image 401 is image information that characterizes the target object. The reference image 401 is stored for each component for each target object. An image (partial image) of each constituent part of each target object is extracted from the image captured by the imaging unit 2 during the tracking process, and the part image selected according to the processing described later is stored as the reference image 401. The Hereinafter, the reference image 401 of the component part p is represented as Fp.

参照画像隠蔽度402は、参照画像401の隠蔽状態の度合いを表すデータであり、参照画像401のそれぞれに対応して記憶される。具体的には、構成部分pについて他の構成部分が存在しなければ撮像されたであろう画像のうち、他の構成部分に隠れて参照画像Fに現れていない部分の割合が当該構成部分pの参照画像隠蔽度402である。以下、参照画像Fの参照画像隠蔽度402をEと表す。追跡の過程で部分画像の抽出と共に推定される隠蔽度のうち、参照画像Fとされる部分画像に対応するものが参照画像隠蔽度Eとして記憶される。 The reference image concealment degree 402 is data representing the degree of concealment of the reference image 401 and is stored corresponding to each reference image 401. Specifically, the ratio of the portion that is not captured in the reference image Fp and is hidden in the other component portion of the image that would have been captured if there was no other component portion for the component portion p. The reference image hiding degree 402 of p. Hereinafter, representative of the reference image concealment of 402 of the reference image F p and E p. Of the hiding degree it is estimated with the extraction of a partial image in the process of tracking, which corresponds to the partial image is a reference image F p is stored as a reference picture concealment of E p.

参照画像取得位置404は、対象物体のそれぞれの参照画像401が取得されたときの当該対象物体の位置であり、参照画像401のそれぞれに対応して記憶される。   The reference image acquisition position 404 is a position of the target object when each reference image 401 of the target object is acquired, and is stored corresponding to each of the reference images 401.

移動軌跡41は、各対象物体の位置(以下、物体位置)の履歴である。物体位置は頭部中心の3次元座標とする。   The movement trajectory 41 is a history of the position of each target object (hereinafter, object position). The object position is a three-dimensional coordinate of the head center.

撮像条件42は、撮像部2が監視空間を透視投影した監視画像を撮影する際の投影条件に関する情報を含む。例えば、実際の監視空間における撮像部2の設置位置及び撮像方向といった外部パラメータ、撮像部2の焦点距離、画角、レンズ歪みその他のレンズ特性や、撮像素子の画素数といった内部パラメータを含む。実際に計測するなどして得られたこれらのパラメータが、画像監視装置1の使用に際して予め操作部3から入力され、記憶部4に格納される。   The imaging condition 42 includes information regarding a projection condition when the imaging unit 2 captures a monitoring image obtained by perspective projection of the monitoring space. For example, external parameters such as the installation position and imaging direction of the imaging unit 2 in the actual monitoring space, focal length, angle of view, lens distortion, and other lens characteristics of the imaging unit 2, and internal parameters such as the number of pixels of the imaging element are included. These parameters obtained by actual measurement or the like are input in advance from the operation unit 3 and stored in the storage unit 4 when the image monitoring apparatus 1 is used.

撮像条件42は、監視空間に仮想的に置かれた物体モデル400を撮像部2の撮像面に投影する処理に用いられる。例えば、公知のピンホールカメラモデル等のカメラモデルに撮像条件42を適用して、監視空間の任意の位置座標を監視画像の座標系へ変換する座標変換式や、監視画像内の任意の位置座標を監視空間の座標系へ変換する座標変換式を設定できる。図2は、当該座標変換を説明する模式図であり、XYZ座標系で定義される監視空間70に配置した物体モデル400と撮像面71上の投影像との間の変換を示している。   The imaging condition 42 is used for the process of projecting the object model 400 virtually placed in the monitoring space onto the imaging surface of the imaging unit 2. For example, by applying the imaging condition 42 to a known camera model such as a pinhole camera model, a coordinate conversion formula for converting an arbitrary position coordinate in the monitoring space into a coordinate system of the monitoring image, or an arbitrary position coordinate in the monitoring image Can be set to a coordinate conversion formula that converts to the coordinate system of the surveillance space. FIG. 2 is a schematic diagram for explaining the coordinate transformation, and shows the transformation between the object model 400 arranged in the monitoring space 70 defined by the XYZ coordinate system and the projected image on the imaging surface 71.

上記座標変換式を用いると、監視空間70内の位置Q0に仮想配置された物体モデル400を撮像面71へ投影でき(図中の矢印73)、投影像として2次元画像72aを得ることができる。また、上記座標変換式を用いると、撮像面71から監視空間70への逆射影を行うことができ、これにより、監視画像上の2次元画像72aが、位置Q0に置かれた物体モデル400の表面に投影され(図中の矢印74)、2次元画像72aのテクスチャが物体モデル400の表面に貼り付けられた3次元テクスチャを得ることができる。   Using the above coordinate conversion formula, the object model 400 virtually arranged at the position Q0 in the monitoring space 70 can be projected onto the imaging surface 71 (arrow 73 in the figure), and a two-dimensional image 72a can be obtained as a projected image. . Further, by using the coordinate conversion formula, it is possible to perform back projection from the imaging surface 71 to the monitoring space 70, whereby the two-dimensional image 72a on the monitoring image of the object model 400 placed at the position Q0. A three-dimensional texture that is projected onto the surface (arrow 74 in the figure) and the texture of the two-dimensional image 72 a is pasted on the surface of the object model 400 can be obtained.

さらに、上記座標変換式を用いると、位置Q0と対応する位置にある監視画像上の2次元画像72aを、監視空間70内の別の位置Q1と対応する監視画像上の位置に写像することができる。この写像は、2次元画像72aを位置Q0に仮想配置された物体モデル400の表面に投影し(図中の矢印74)、この物体モデル400を位置Q1に移動又は複製した後(図中の矢印75)、撮像面71へ投影する(図中の矢印76)ことで実現される。   Furthermore, using the coordinate conversion formula, the two-dimensional image 72a on the monitoring image at the position corresponding to the position Q0 can be mapped to the position on the monitoring image corresponding to another position Q1 in the monitoring space 70. it can. In this mapping, the two-dimensional image 72a is projected onto the surface of the object model 400 virtually arranged at the position Q0 (arrow 74 in the figure), and this object model 400 is moved or copied to the position Q1 (arrow in the figure). 75), and is projected onto the imaging surface 71 (arrow 76 in the figure).

制御部5は、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、撮像部2、記憶部4及び出力部6と接続される。制御部5は、記憶部4からプログラムを読み出して実行し、物体像抽出手段50、追跡手段52、異常判定手段54として機能する。制御部5は、撮像部2から入力される監視画像を画像処理して物体の追跡、不審者の検出等を行い、不審者を検出すると異常信号を出力部6へ出力する。   The control unit 5 is configured using an arithmetic device such as a DSP (Digital Signal Processor) or MCU (Micro Control Unit), and is connected to the imaging unit 2, the storage unit 4, and the output unit 6. The control unit 5 reads out and executes the program from the storage unit 4 and functions as the object image extraction unit 50, the tracking unit 52, and the abnormality determination unit 54. The control unit 5 performs image processing on the monitoring image input from the imaging unit 2 to perform tracking of an object, detection of a suspicious person, and the like, and outputs an abnormal signal to the output unit 6 when a suspicious person is detected.

物体像抽出手段50は、撮像部2により得られた監視画像から対象物体の物体像を抽出し、抽出された物体像の情報を物体判定手段526へ出力する。具体的には、物体像抽出手段50は、対象物体が映っていないと判断する監視画像を背景画像に設定し、記憶部4に格納する。そして、物体像抽出手段50は、撮像部2から監視画像を入力されると、当該監視画像と背景画像との差分処理を行い、背景画像に存在しない像を検出し、検出した像のうち所定値以上の大きさを有する像を物体像として抽出する。ここで、所定値はノイズによる像を除去するための閾値であり、予め設定される。   The object image extraction unit 50 extracts the object image of the target object from the monitoring image obtained by the imaging unit 2, and outputs the extracted object image information to the object determination unit 526. Specifically, the object image extraction unit 50 sets a monitoring image for determining that the target object is not reflected as a background image and stores the background image in the storage unit 4. When the monitoring image is input from the imaging unit 2, the object image extraction unit 50 performs a difference process between the monitoring image and the background image, detects an image that does not exist in the background image, and detects a predetermined image among the detected images. An image having a size larger than the value is extracted as an object image. Here, the predetermined value is a threshold value for removing an image due to noise, and is set in advance.

追跡手段52は、監視画像内に参照画像401と一致する像を同定することにより時刻毎に対象物体を検出し、移動軌跡を生成する。追跡手段52は、位置予測手段520、部分画像抽出手段522、物体判定手段526及び物体情報更新手段528を含んで構成される。   The tracking means 52 detects the target object at each time by identifying an image that matches the reference image 401 in the monitoring image, and generates a movement trajectory. The tracking unit 52 includes a position prediction unit 520, a partial image extraction unit 522, an object determination unit 526, and an object information update unit 528.

位置予測手段520は、移動軌跡41(過去の物体位置)に等速運動モデル等の運動モデル、又はカルマンフィルタ等の予測フィルタを適用することにより、現時刻における物体位置を予測する。位置予測手段520は、運動モデル又は予測フィルタにより直接的に得られる現時刻の予測位置に加え、その周りに、運動の変化による予測の誤りを吸収するために複数の予測位置をさらに設定する。その際、中心の予測位置を最頻値とする正規分布等の確率関数を設定し、確率の高い領域ほど予測位置を密に分布させることが好ましい。なお、対象物体は基準面に接地して立っているとの拘束条件から予測位置の高さには物体モデル400の高さhを設定する。   The position prediction unit 520 predicts the object position at the current time by applying a motion model such as a constant velocity motion model or a prediction filter such as a Kalman filter to the movement trajectory 41 (past object position). The position prediction unit 520 further sets a plurality of predicted positions around the current position predicted position obtained directly by the motion model or the prediction filter in order to absorb prediction errors due to motion changes. At that time, it is preferable to set a probability function such as a normal distribution with the central predicted position as the mode value, and to distribute the predicted positions more densely in regions with higher probability. Note that the height h of the object model 400 is set as the height of the predicted position based on the constraint that the target object stands on the reference plane.

部分画像抽出手段522は、位置予測手段520から対象物体の位置を入力されると、監視空間70内の当該位置に物体モデル400を仮想的に配置し、撮像条件42を用いて物体モデル400を撮像部2の撮像面71に投影する。また、部分画像抽出手段522は、各構成部分に対応する部分モデルの投影像と重なる監視画像の一部を当該構成部分の部分画像として抽出するとともに、構成部分間での部分モデルの投影像の重複関係から各構成部分の隠蔽度を算出する。以下、構成部分pに対応して抽出される部分画像をf、構成部分pについて算出される隠蔽度をeと表す。 When the position of the target object is input from the position prediction unit 520, the partial image extraction unit 522 virtually arranges the object model 400 at the position in the monitoring space 70, and uses the imaging condition 42 to set the object model 400. Projecting onto the imaging surface 71 of the imaging unit 2. The partial image extraction unit 522 extracts a part of the monitoring image that overlaps the projection image of the partial model corresponding to each component as a partial image of the component, and also outputs the projection image of the partial model between the components. The degree of concealment of each component is calculated from the overlapping relationship. Hereinafter, the partial image extracted corresponding to the component part p is represented as f p , and the concealment degree calculated for the component part p is represented as ep.

部分画像抽出手段522による処理が行われるのは次の3つの場合であり、それぞれの場合にて、部分画像抽出手段522に入力される位置には違いがある。第1の場合は、新規出現した物体の物体情報40を生成する場合であり、この場合には、物体像抽出手段50が物体像を抽出した位置が入力される。第2の場合は、物体の同定を行う場合であり、この場合には、位置予測手段520により設定された予測位置が入力される。第3の場合は、物体情報40を更新する場合であり、この場合には、物体判定手段526により決定された物体の現在位置が入力される。   The processing by the partial image extraction unit 522 is performed in the following three cases, and in each case, the position input to the partial image extraction unit 522 is different. In the first case, the object information 40 of a newly appearing object is generated. In this case, the position where the object image extracting unit 50 extracts the object image is input. In the second case, an object is identified. In this case, the predicted position set by the position prediction unit 520 is input. In the third case, the object information 40 is updated. In this case, the current position of the object determined by the object determination unit 526 is input.

図3は、部分画像抽出手段522の処理の説明図である。図3を参照して、部分画像抽出手段522の処理を詳細に説明する。   FIG. 3 is an explanatory diagram of the processing of the partial image extraction means 522. With reference to FIG. 3, the process of the partial image extraction means 522 is demonstrated in detail.

まず、撮像条件42を用いて撮像面に各部分モデルを単独で投影し、隠蔽がない場合の各構成部分の投影像の全体領域80を演算する。これにより、頭部の全体領域80a、胴部の全体領域80b、脚部の全体領域80cが求められる。   First, each partial model is independently projected on the imaging surface using the imaging condition 42, and the entire area 80 of the projected image of each component when there is no concealment is calculated. As a result, an entire area 80a of the head, an entire area 80b of the trunk, and an entire area 80c of the legs are obtained.

次に、各構成部分について当該構成部分よりも撮像部2に近い構成部分の部分モデルを投影し、監視画像上で当該構成部分を隠蔽し得る領域である隠蔽領域81を演算する。本実施形態では、各構成部分と撮像部2との距離は頭部・胴部・脚部の順に近く、この順序は予め設定しておくことができる。頭部の部分モデルに対しては、それより投影線上、手前の他の部分モデルはないので、隠蔽領域は存在しない。一方、胴部の部分モデルに対しては、頭部の部分モデルが手前に位置するので、その投影像が胴部に対する隠蔽領域81bとなる。また、脚部の部分モデルに対しては、頭部及び胴部の部分モデルが手前に位置するので、それらの投影像が脚部に対する隠蔽領域81cとなる。   Next, a partial model of a constituent part closer to the imaging unit 2 than the constituent part is projected for each constituent part, and a concealment area 81 that is an area where the constituent part can be concealed on the monitoring image is calculated. In the present embodiment, the distance between each component and the imaging unit 2 is close to the order of the head, the trunk, and the legs, and this order can be set in advance. For the partial model of the head, there is no other partial model on the projection line, and there is no concealment area. On the other hand, since the partial model of the head is positioned in front of the partial model of the trunk, the projection image becomes a concealment region 81b for the trunk. Further, since the partial model of the head and torso is positioned in front of the partial model of the leg part, the projection image thereof becomes a concealment region 81c for the leg part.

なお、上記順序は、撮像部2と各部分モデルとの距離を算出して比較することによって判定してもよい。また、隠蔽領域81はさらに当該対象物体より手前に位置する他の対象物体の部分モデルが投影された領域を減じて演算することもできる。   The order may be determined by calculating and comparing the distance between the imaging unit 2 and each partial model. Further, the concealment area 81 can be further calculated by subtracting an area where a partial model of another target object located in front of the target object is projected.

続いて、各構成部分の全体領域80から当該構成部分の隠蔽領域81との重複部分を除くことにより、監視画像上で現に当該構成部分を観測可能な領域である観測領域82(部分モデル可視領域)を演算する。その結果、頭部に対しては隠蔽を生じていない観測領域82aが得られ、一方、胴部、脚部については楕円の一部が隠蔽された形状の観測領域82b,82cが得られる。   Subsequently, by removing an overlapping portion with the concealment area 81 of the component part from the entire region 80 of each component part, an observation region 82 (partial model visible region) that is actually an area where the component part can be observed on the monitoring image. ) Is calculated. As a result, an observation region 82a that is not concealed from the head is obtained, while observation regions 82b and 82c having a shape in which a part of an ellipse is concealed from the trunk and legs are obtained.

部分画像抽出手段522は、監視画像のうち、こうして求められた各構成部分の観測領域82と重なる部分を各構成部分毎の部分画像として抽出する。また、各構成部分について、次式に示すように、全体領域80の面積S1から観測領域82の面積S2を減じた値を全体領域80の面積S1で除することで隠蔽度eを算出する。
=(S1−S2)/S1 ………(1)
The partial image extraction unit 522 extracts a portion of the monitoring image that overlaps the observation region 82 of each component thus obtained as a partial image for each component. Moreover, for each component, as shown in the following equation to calculate the degree of hiding e p by dividing the value obtained by subtracting the area S2 of the observation region 82 from the area S1 of the entire area 80 in the area S1 of the entire area 80 .
e p = (S1−S2) / S1 (1)

部分画像抽出手段522は、物体の同定を行う場合には、位置予測手段520から入力される予測位置を対象物体が存在し得る監視空間内の候補位置として、当該候補位置に、物体モデル400を仮想的に配置して、部分画像f及び隠蔽度eを求める。 When identifying the object, the partial image extraction unit 522 sets the object model 400 as the candidate position in the monitoring space where the target object can exist, with the predicted position input from the position prediction unit 520 as the candidate position. arranged virtually, we obtain a partial image f p and hiding of e p.

物体判定手段526は、部分画像抽出手段522により抽出された部分画像fと参照画像Fとを画像特徴について構成部分p毎に比較し、その比較結果を対象物体を構成する複数の構成部分について統合して統合類似度Uを算出する。そして、当該統合類似度Uが所定の判定基準を満たした場合に、候補位置に参照画像と同じ対象物体が存在すると判定する。そして、当該候補位置を対象物体の物体位置と定め、当該対象物体の移動軌跡41に追加記憶させる。 The object determination unit 526 compares the partial image f p extracted by the partial image extraction unit 522 and the reference image F p with respect to the image feature for each component part p, and the comparison result is a plurality of component parts constituting the target object. And the integrated similarity U is calculated. Then, when the integrated similarity U satisfies a predetermined determination criterion, it is determined that the same target object as the reference image exists at the candidate position. Then, the candidate position is determined as the object position of the target object, and additionally stored in the movement locus 41 of the target object.

具体的には、まず、物体判定手段526は、部分画像抽出手段522により抽出された現時刻の部分画像fから画像特徴量を抽出し、これと、追跡対象物体の画像情報として記憶部4に記憶されている参照画像401から抽出される画像特徴量とを構成部分p毎に比較して、その比較結果として構成部分毎の類似度uを算出する。例えば、部分画像fを分析して色ヒストグラムをhfpを算出し、また、参照画像Fを分析して色ヒストグラムをhFpを算出し、例えば、次式で定義するように両者のユークリッド距離に−1を乗じた値をuとして用いることができる。なお、Σは色ヒストグラムの全要素に関する総和を意味する。
≡−Σ‖hFp−hfp………(2)
Specifically, first, the object judging unit 526 extracts the image feature quantity from the partial image f p of the current time that has been extracted by partial image extraction unit 522, this and the storage unit 4 as image information of the tracking target object by comparing the image feature amount is extracted from the reference image 401 stored in each component p, the degree of similarity is calculated u p per component as a result of the comparison. For example, the partial image f p is analyzed to calculate the color histogram h fp , and the reference image F p is analyzed to calculate the color histogram h Fp , for example, both Euclidean as defined by the following equation: distance value obtained by multiplying by -1 may be used as u p. Note that Σ means the sum of all elements of the color histogram.
u p ≡−Σ‖h Fp −h fp2 (2)

次に物体判定手段526は、対象物体毎に各構成部分の類似度uを加算することにより、各対象物体についての上述の統合類似度Uを算出する。そして、統合類似度Uを予め定めた閾値と比較し、Uが閾値以上であれば、現時刻に抽出された物体像が参照画像401の対象物体と同一であると判定する。 Next, the object determination unit 526 calculates the above-described integrated similarity U for each target object by adding the similarity u p of each component to each target object. Then, the integrated similarity U is compared with a predetermined threshold. If U is equal to or greater than the threshold, it is determined that the object image extracted at the current time is the same as the target object of the reference image 401.

構成部分毎の類似度uは当該部分に関する画像部分のみを精度良く抽出した上述の部分画像fを用いて算出されたものであるので、当該uを統合して物体像の同定を行うことで、構成部分間で隠蔽が生じる場合であっても高精度の同定が可能となる。 Since the similarity u p per component are those calculated by using the partial image f p above that only the image portion relating to the partial accurately extracted, performs identification of the object image by integrating the u p As a result, even when concealment occurs between components, high-precision identification is possible.

ここで、物体判定手段526は、次式に示すように、構成部分p毎に算出した信頼度gで、部分類似度uを重み付けし、重み付けされた構成部分p毎の類似度を統合して統合類似度Uを算出するように構成できる。ここで次式のΣはpについての総和、すなわち、構成部分(頭部、胴部、脚部)について合計することを意味する。こうすることで、信頼度が高い構成部分ほど同定に大きく寄与させることができ、物体像を高精度に同定できる。
U≡Σg ………(3)
Here, as shown in the following equation, the object determination unit 526 weights the partial similarity u p with the reliability g p calculated for each constituent part p, and integrates the weighted similarity for each constituent part p. Thus, the integrated similarity U can be calculated. Here, Σ in the following expression means the summation of p, that is, summing up the constituent parts (head, trunk, and legs). By doing so, the component part with higher reliability can contribute more to the identification, and the object image can be identified with high accuracy.
U≡Σg p u p ……… (3)

信頼度gは隠蔽度ep、参照画像隠蔽度Eの関数として予め設定される。信頼度gの一例は、次式で定義されるgである。
≡αmax(E,e)+β (但し、α>0,β≧0) ………(4)
Reliability g p is degree of hiding ep, is preset as a function of the reference image concealment of E p. An example of reliability g p is the g p defined by the following equation.
g p ≡αmax (E p , e p ) + β (where α> 0, β ≧ 0) ……… (4)

ちなみに、(4)式の信頼度gを用いることで、部分類似度uが部分画像fと参照画像Fとのうち、部分画像fの隠蔽度eと参照画像隠蔽度Eとのいずれか高い方、すなわち情報量が少ない方の画像に対応した信頼性しか有していないことを考慮に入れた同定が行われる。 Incidentally, (4) By using the reliability g p of equation among partial similarity u p is the reference image F p and the partial image f p, the partial image f p hiding degree e p and the reference image concealment degree E Identification is performed in consideration of having only the reliability corresponding to the image that is higher of p , that is, the image with the smaller amount of information.

ここで、比較される部分画像fと参照画像Fとは、一般的には、互いに異なる物体位置に置かれた物体モデルや対象物体によるものであり、画像の形状や隠蔽状態が異なる。そして、隠蔽状態が異なるもの同士を比較すると、比較結果に誤差が含まれやすい。つまり、部分画像fと参照画像Fとの一方のみで隠蔽されており他方で隠蔽されていない領域は、比較結果の精度を低下させる。そこで、撮像条件42を用いて部分画像fと参照画像Fとを、互いに共通の位置(基準位置)に対象物体又は物体モデルが存在するとした場合の形状に座標変換して、変換後の両画像f,F内の同じ位置を構成部分内の共通の位置に対応付ける。そして、座標変換後の部分画像f(基準部分画像)と座標変換後の参照画像F(基準参照画像)とを互いに重ね合わせて、重複する共通領域を求め、求められた共通領域において上記比較を行う。これによって、部分画像fと参照画像Fとの一方のみで隠蔽されている領域を除いた比較が行われるので、比較結果の精度を向上させることができる。 Here, the partial image f p and the reference image F p to be compared are generally based on object models and target objects placed at different object positions, and the shapes and concealment states of the images are different. And when things with different concealment states are compared, an error is likely to be included in the comparison result. That is, an area that is hidden by only one of the partial image f p and the reference image F p and not hidden by the other reduces the accuracy of the comparison result. Therefore, the reference image F p with partial image f p using the imaging condition 42, and the coordinate transformation to the shape of the case of the target object or object model exists in a common position to one another (reference position), the converted The same position in both the images f p and F p is associated with a common position in the component. Then, the coordinate-converted partial image f p (standard partial image) and the coordinate-converted reference image F p (standard reference image) are overlapped with each other to obtain an overlapping common area. Make a comparison. As a result, the comparison is performed excluding the area that is hidden by only one of the partial image f p and the reference image F p , so that the accuracy of the comparison result can be improved.

図4,図5は、部分画像fと参照画像Fとを基準位置に配置した共通の物体モデルにより得られる基準投影像上に座標変換する具体例を説明する模式図である。 4, FIG. 5 is a schematic diagram illustrating a specific example of the coordinate conversion on the reference projection images obtained by the common object model of arranging the reference image F p with partial image f p to the reference position.

図4に示す例では、基準位置は、参照画像取得位置404に記憶されている物体位置Qに設定される。部分画像f(像90)を参照画像取得位置404(位置Q)に置かれた物体モデルの投影像に射影して射影像92を生成する。この像92は参照画像F(像91)の位置に射影される。そして、当該射影像92と参照画像F(像91)との共通領域を算出し、共通領域における射影像92の色ヒストグラムhfpと参照画像Fの色ヒストグラムhFpを比較する。像90から像92への射影をより詳細に説明すると、位置Qの物体モデル400aの投影像である像90を、当該物体モデルへ逆投影し(逆投影ステップ)、当該物体モデルを位置QRへ座標変換する(移動ステップ)。この物体モデルの座標変換は、位置Qの物体モデル400aにて撮像部2に向いている面が位置Qへの移動後も撮像部2に向くように、撮像部2の光軸を中心とする回転移動と光軸からの距離方向の並進移動とを合成した変換により行うのが好適である。物体モデル400aを位置Qに移動後、これを撮像部2の撮像面71に投影して(投影ステップ)、射影像92を得ることができる。これら逆投影ステップ、移動ステップ及び投影ステップは、図4(a)にて太い矢印で表されている。図4(b)は、像90,92における各部分画像fと、像91における参照画像Fとを模式的に示している。 In the example shown in FIG. 4, the reference position is set to the object position Q R stored in the reference image acquiring position 404. The partial image f p (image 90) is projected onto the projection image of the object model placed at the reference image acquisition position 404 (position Q R ) to generate a projected image 92. This image 92 is projected at the position of the reference image F p (image 91). Then, a common area between the projection image 92 and the reference image F p (image 91) is calculated, and the color histogram h fp of the projection image 92 in the common area and the color histogram h Fp of the reference image F p are compared. To describe from the image 90 of the projection of the image 92 in greater detail, the image 90 is a projection image of the object model 400a of the position Q I, and backprojected to the object model (backprojection step), the position QR to the object model The coordinates are converted into (moving step). Coordinate transformation of the object model, after the movement surface facing the imaging unit 2 in the object model 400a of the position Q I to position Q R also to face the image pickup section 2, about the optical axis of the imaging unit 2 It is preferable to perform the conversion by combining the rotational movement and the translational movement in the distance direction from the optical axis. After moving the object model 400a to position Q R, and projection thereof onto the imaging surface 71 of the imaging unit 2 (the projection step), it is possible to obtain a projection image 92. These back projection step, movement step, and projection step are represented by thick arrows in FIG. FIG. 4 (b), each partial image f p in the image 90 and 92, and the reference image F p in the image 91 shown schematically.

図5に示す例では、基準位置は、部分画像fの投影元となる物体モデル400bの位置、すなわち候補位置Qに設定される。参照画像F(像91)を、位置Qに置かれた物体モデル400bの投影像に射影して射影像93を生成する。この像93は部分画像f(像90)の位置に射影される。そして、当該射影像93と部分画像f(像90)との共通領域を算出し、共通領域における射影像93の色ヒストグラムhFpと部分画像fの色ヒストグラムhfpを比較する。像91から像93への射影は、図4に示す場合とは逆向きに行われ、その一連の逆投影ステップ、移動ステップ及び投影ステップは、図5(a)にて太い矢印で表されている。図5(b)は、像91,93における各参照画像Fと、像90における部分画像fとを模式的に示している。 In the example shown in FIG. 5, the reference position, the position of the object model 400b as a projection original partial image f p, that is, set in the candidate position Q I. The reference image F p (image 91) is projected onto the projection image of the object model 400b placed at the position Q I to generate a projected image 93. This image 93 is projected to the position of the partial image f p (image 90). Then, it calculates a common region of the projected image 93 and the partial image f p (image 90), to compare the color histogram h fp color histogram h Fp partial image f p of the projection image 93 in the common area. The projection from the image 91 to the image 93 is performed in the opposite direction to that shown in FIG. 4, and the series of backprojection steps, movement steps, and projection steps are represented by thick arrows in FIG. Yes. FIG. 5B schematically shows the reference images F p in the images 91 and 93 and the partial image f p in the image 90.

また、部分画像fと参照画像Fとの比較を監視空間70の座標系にて行うことも可能である。図6は、部分画像f及び参照画像Fをそれぞれ監視空間70に配置された物体モデル400a,400bに逆投影して、それら物体モデル間にて部分画像f及び参照画像Fを比較する例を説明する模式図である。この場合には、部分画像f(像90)を候補位置(位置Q)に仮想配置した物体モデル400aに逆投影して3次元テクスチャ94を算出し、参照画像F(像91)を参照画像取得位置404(位置Q)に仮想配置した物体モデル400bに逆投影して3次元テクスチャ95を算出し、2つの物体モデル400a及び400bを重ね合わせて共通領域を算出し、共通領域における色ヒストグラムを比較する。図6(a)は像90,91から物体モデル400a,400bへの逆投影を示す模式図であり、図6(b)は、部分画像fに対応する3次元テクスチャ94と参照画像Fに対応する3次元テクスチャ95との模式図である。 Further, the comparison between the partial image f p and the reference image F p can be performed in the coordinate system of the monitoring space 70. In FIG. 6, the partial image f p and the reference image F p are respectively back-projected onto the object models 400a and 400b arranged in the monitoring space 70, and the partial image f p and the reference image F p are compared between the object models. It is a schematic diagram explaining the example to do. In this case, the partial image f p (image 90) is back-projected onto the object model 400a virtually arranged at the candidate position (position Q I ) to calculate the three-dimensional texture 94, and the reference image F p (image 91) is calculated. A three-dimensional texture 95 is calculated by back-projecting the object model 400b virtually arranged at the reference image acquisition position 404 (position Q R ), and a common area is calculated by superimposing the two object models 400a and 400b. Compare color histograms. FIG. 6A is a schematic diagram showing back projection from the images 90 and 91 onto the object models 400a and 400b, and FIG. 6B shows a three-dimensional texture 94 corresponding to the partial image f p and the reference image F p. It is a schematic diagram with the three-dimensional texture 95 corresponding to.

ここで、部分画像抽出手段522により抽出された部分画像fと参照画像Fとの間の比較誤差は解像度の違いによっても生じる。すなわち、解像度が高いものと低いものとを比較すると解像度が高い側の色ヒストグラムにのみ存在する高周波成分が比較誤差の要因となる。解像度は対象物体と撮像部2との間の距離が遠いほど低くなる。そこで、撮像条件42及び参照画像取得位置404から、撮像部2と参照画像取得位置404の間の距離dを、撮像条件42及び予測位置(候補位置)から撮像部2と予測位置との問の距離dをそれぞれ算出し、これら距離を比較し、距離が遠い側へ射影して上記比較を行う。すなわち、部分画像と参照画像とのうち視点からの距離が近く解像度が高い一方画像を、距離が遠く解像度が低い他方画像に合わせて変換するので、解像度を揃えて比較することができる。これにより、解像度が高い画像が有する高周波成分により生じる誤差を低減した比較が行われ、対象物体の検出や追跡の精度が向上する。 Here, the comparison error between the partial image f p extracted by the partial image extraction means 522 and the reference image F p also occurs due to a difference in resolution. That is, when a high resolution is compared with a low resolution, a high frequency component existing only in the color histogram on the higher resolution side causes a comparison error. The resolution decreases as the distance between the target object and the imaging unit 2 increases. Therefore, the distance d R between the imaging unit 2 and the reference image acquisition position 404 is determined from the imaging condition 42 and the reference image acquisition position 404, and the query between the imaging unit 2 and the prediction position is determined from the imaging condition 42 and the prediction position (candidate position). calculating a distance d I respectively, and compares these distances, distances are projected to the far side performs the comparison. In other words, one of the partial images and the reference image that has a short distance from the viewpoint and a high resolution is converted in accordance with the other image that has a long distance and a low resolution, so that the resolution can be matched and compared. As a result, a comparison in which an error caused by a high-frequency component included in an image with high resolution is reduced is performed, and the accuracy of detection and tracking of the target object is improved.

具体的には、d≦dの場合は、図5を用いて説明したように、参照画像Fを予測位置に対応した像へ射影し、d>dの場合は、図4を用いて説明したように、部分画像fを参照画像取得位置404に対応した像へ射影する。これにより解像度の違いにより生じる比較誤差が低減され、比較結果の精度を向上させることができる。 Specifically, when d R ≦ d I , as described with reference to FIG. 5, the reference image F p is projected onto the image corresponding to the predicted position, and when d R > d I , FIG. as described with reference to, projected to the image corresponding to the partial image f p to the reference image acquisition position 404. Thereby, the comparison error caused by the difference in resolution is reduced, and the accuracy of the comparison result can be improved.

ここで、対象物体には、短いスカートや短パンを着用した人物のように1つの構成部分内に複数の特徴が層をなして分布しているものもある。そこで、物体モデル400を構成する部分モデルの表面に高さ方向に層をなして複数の水平帯状領域を設定し、当該水平帯状領域を撮像面71に投影した投影像に対応させて、共通領域を複数の小領域に分割し、小領域ごとの色ヒストグラムを比較する。これにより、構成部分内において画像特徴が層状に分布している対象物体を精度よく判定できる。   Here, there is a target object in which a plurality of features are distributed in a single component, such as a person wearing a short skirt or short pan. Therefore, a plurality of horizontal belt-like regions are set in the height direction on the surface of the partial model constituting the object model 400, and the common region is set corresponding to the projection image projected on the imaging surface 71. Is divided into a plurality of small areas, and the color histograms of the small areas are compared. As a result, it is possible to accurately determine a target object in which image features are distributed in a layered manner within the component.

なお、監視画像上において、物体モデル400の高さh方向は、監視画像の中心と参照画像取得位置404に対応する点或いは予測位置に対応する点を結ぶ直線の方向として特定できる。また、上記直線は監視空間70に仮想配置された物体モデル400の最下端と最上端を結ぶ直線を監視画像に投影することによって求めることもできる。ちなみに、監視空間70において、高さh方向は鉛直方向である。   On the monitoring image, the height h direction of the object model 400 can be specified as the direction of a straight line connecting the center of the monitoring image and the point corresponding to the reference image acquisition position 404 or the point corresponding to the predicted position. The straight line can also be obtained by projecting a straight line connecting the lowermost end and the uppermost end of the object model 400 virtually arranged in the monitoring space 70 onto the monitoring image. Incidentally, in the monitoring space 70, the height h direction is the vertical direction.

また、小領域への分割は、小領域の高さを固定値として分割してもよいし、小領域の数を固定値として分割してもよいし、監視画像上のスケールで分割してもよいし、物体モデル400上のスケールで分割してもよい。   Further, the division into small areas may be performed by dividing the height of the small area as a fixed value, dividing the number of small areas as a fixed value, or dividing the scale on the monitoring image. Alternatively, it may be divided on a scale on the object model 400.

物体情報更新手段528は、物体判定手段526により位置が判定された対象物体について、判定された位置において部分画像抽出手段522により算出された隠蔽度eが参照画像隠蔽度E以下の場合に、物体情報40を現時刻の画像情報により更新する。逆に、隠蔽度eが参照画像隠蔽度Eを超えている場合は物体情報40の更新を行わない。 Object information updating unit 528, the object whose position is determined by the object determination unit 526, when degree of hiding e p calculated by the partial image extracting unit 522 in the determined position is below the reference image concealment of E p The object information 40 is updated with the image information at the current time. Conversely, it does not update the object information 40 if the degree of hiding e p is greater than the reference image concealment of E p.

物体情報40の更新では、具体的には、参照画像401として記憶されている参照画像Fが、判定された位置において部分画像抽出手段522により抽出された部分画像fにより上書きされる。参照画像隠蔽度402に記憶されている参照画像隠蔽度Eは、判定された位置において部分画像抽出手段522により算出された隠蔽度eにより上書きされる。また、参照画像取得位置404の記憶内容は、判定された物体位置により上書きされる。 In the update of the object information 40, specifically, the reference image F p stored as the reference image 401 is overwritten with the partial image f p extracted by the partial image extraction unit 522 at the determined position. Reference image concealment of E p stored in the reference picture concealment degree 402 is overwritten by the degree of hiding e p calculated by the partial image extracting unit 522 in the determined location. Further, the stored content of the reference image acquisition position 404 is overwritten with the determined object position.

例えば、図7のように監視画像に映る対象物体の像が像100,101,102,103,104と順に変化した場合、最も隠蔽度が小さい像101に基づいた物体情報が記憶される。この場合、像104が得られたときに、もし一時刻前の像103が参照画像として記憶されていれば脚部の類似度が低下するが、本実施形態の画像監視装置1によれば、像101が参照画像として記憶されており、これにより類似度の低下を防ぐことができる。すなわち、過去に最も隠蔽度が小さかったときの物体情報40が保持されるので、隠蔽状態が変化して隠蔽されている領域が広がっても、その部分の情報が参照画像401から失われることを防止できる。そのため、過去に取得された最大限の情報を用いて物体判定ができ、隠蔽による追跡の失敗を最小限に抑えることができる。   For example, as shown in FIG. 7, when the image of the target object shown in the monitoring image changes in order of the images 100, 101, 102, 103, and 104, object information based on the image 101 having the smallest concealment degree is stored. In this case, when the image 104 is obtained, if the image 103 one hour ago is stored as a reference image, the similarity of the legs is reduced. However, according to the image monitoring apparatus 1 of the present embodiment, The image 101 is stored as a reference image, which can prevent a decrease in similarity. That is, since the object information 40 when the degree of concealment was the smallest in the past is held, even if the concealed state changes and the concealed area expands, the information of that part is lost from the reference image 401. Can be prevented. Therefore, object determination can be performed using the maximum information acquired in the past, and tracking failure due to concealment can be minimized.

また、物体情報更新手段528は、物体像抽出手段50により抽出された物体像の中に、物体判定手段526により判定された対象物体の位置のいずれにも存在しない物体像があるとき、当該物体像に関する新たな物体情報40を作成する。一方、部分画像抽出手段522により物体位置なしと判定された対象物体があるとき、当該対象物体の物体情報40を削除する。   Further, the object information updating unit 528 has an object image extracted by the object image extracting unit 50 when there is an object image that does not exist in any of the positions of the target objects determined by the object determining unit 526. New object information 40 relating to the image is created. On the other hand, when there is a target object determined to have no object position by the partial image extraction means 522, the object information 40 of the target object is deleted.

異常判定手段54は、記憶部4に記憶されている移動軌跡41を分析して長時間滞留している物体(不審者)が存在すれば異常と判定して出力部6に異常信号を出力する。具体的には、移動軌跡41のそれぞれに含まれる位置データの数を計数して所定数以上(例 えば10分間相当以上)の位置データを含む移動軌跡41があれば異常と判定する。   The abnormality determination unit 54 analyzes the movement trajectory 41 stored in the storage unit 4 and determines that there is an abnormality if there is an object (suspicious person) staying for a long time, and outputs an abnormality signal to the output unit 6. . Specifically, the number of position data included in each of the movement trajectories 41 is counted, and if there is a movement trajectory 41 including position data of a predetermined number or more (for example, equivalent to 10 minutes or more), it is determined that there is an abnormality.

出力部6は、センタ装置等の外部装置と通信線により接続され、外部装置へ異常信号を送信する通信回路を備える。   The output unit 6 includes a communication circuit that is connected to an external device such as a center device through a communication line and transmits an abnormal signal to the external device.

次に、画像監視装置1の動作について説明する。図8は、画像監視装置1の動作の概略のフロー図である。   Next, the operation of the image monitoring apparatus 1 will be described. FIG. 8 is a schematic flowchart of the operation of the image monitoring apparatus 1.

監視空間が無人であることを確認して管理者が電源を投入すると、画像監視装置1の各部、各手段が動作を開始し、所定の初期化が行われる(S10)。このとき、制御部5は撮像部2からの監視画像を背景画像として記憶部4に記憶させる。   When the administrator turns on the power after confirming that the monitoring space is unattended, each unit and each means of the image monitoring apparatus 1 starts operating and predetermined initialization is performed (S10). At this time, the control unit 5 stores the monitoring image from the imaging unit 2 in the storage unit 4 as a background image.

続いて、制御部5は記憶部4に撮像条件42が設定されているかを確認し(S15)、設定されていなければ管理者による操作部3からの撮像条件42の入力を受け付け、入力された撮像条件42を記憶部4に格納する(S20)。その後、撮像部2から制御部5へ監視画像が新たに入力されるたびにS25〜S75の一連の処理が繰り返される。   Subsequently, the control unit 5 checks whether or not the imaging condition 42 is set in the storage unit 4 (S15). If the imaging condition 42 is not set, the control unit 5 receives and inputs the imaging condition 42 from the operation unit 3 by the administrator. The imaging condition 42 is stored in the storage unit 4 (S20). Thereafter, each time a monitoring image is newly input from the imaging unit 2 to the control unit 5, a series of processes from S25 to S75 is repeated.

まず、制御部5は撮像部2が新たに撮像した監視画像を取得し(S25)、制御部5の物体像抽出手段50は取得された監視画像を、記憶部4に記憶されている背景画像と比較して物体像(人物像)を抽出する(S30)。   First, the control unit 5 acquires a monitoring image newly captured by the imaging unit 2 (S25), and the object image extraction unit 50 of the control unit 5 uses the acquired monitoring image as a background image stored in the storage unit 4. The object image (person image) is extracted in comparison with (S30).

続く物体位置判定処理において制御部5の追跡手段52は、監視画像中に参照画像401が表す対象物体の像を同定することにより、対象物体の現在位置を判定する(S35)。   In the subsequent object position determination process, the tracking unit 52 of the control unit 5 determines the current position of the target object by identifying the target object image represented by the reference image 401 in the monitoring image (S35).

図9は物体位置判定処理S35の概略のフロー図であり、これを用いて当該処理を説明する。制御部5の位置予測手段520は、対象物体の移動軌跡41から当該対象物体の現在位置を予測して、各対象物体それぞれについて複数の予測位置を設定する(S350)。   FIG. 9 is a schematic flowchart of the object position determination process S35, and the process will be described using this. The position predicting means 520 of the control unit 5 predicts the current position of the target object from the movement trajectory 41 of the target object, and sets a plurality of predicted positions for each target object (S350).

追跡手段52は各対象物体の予測位置(分布の中心位置)と撮像部2との距離を求め、求めた距離が近い対象物体から順に処理対象に設定し(S351)、処理対象の対象物体について処理S352〜S385を行う。   The tracking unit 52 obtains the distance between the predicted position (central position of the distribution) of each target object and the imaging unit 2, sets the target objects in order from the closest target object (S351), and sets the target object to be processed. Processes S352 to S385 are performed.

処理S352〜S384は、処理対象として選択された対象物体の複数の予測位置についてのループ処理となっており、予測位置が順次設定され(S352)、当該設定された予測位置に関して処理S353〜S380が行われる。   Processes S352 to S384 are a loop process for a plurality of predicted positions of the target object selected as a process target. The predicted positions are sequentially set (S352), and processes S353 to S380 are performed for the set predicted positions. Done.

まず、制御部5の部分画像抽出手段522は、処理対象の予測位置に物体モデル400を配置して撮像部2の撮像面71に投影することにより各構成部分に対応する部分画像fを抽出し(S353)、抽出した部分画像fのそれぞれについて隠蔽度eを算出する(S354)。 First, the partial image extraction unit 522 of the control unit 5, extracts a partial image f p corresponding to each component by projecting by arranging the object model 400 to predict the position of the processing target on the imaging plane 71 of the imaging unit 2 and (S353), and calculates the degree of hiding e p for each of the extracted partial image f p (S354).

次に、制御部5の物体判定手段526は、S354にて算出された隠蔽度e、及び参照画像隠蔽度Eを(4)式に代入して信頼度gを算出する(S355)。 Then, the object judging unit 526 of the control unit 5 calculates the reliability g p calculated degree of hiding e p, and a reference image concealment of E p (4) is substituted into equation at S354 (S355) .

続いて、制御部5の物体判定手段526は、処理S353にて抽出された部分画像fを参照画像Fと比較して部分類似度uを算出する(S360)。 Subsequently, the object judging unit 526 of the control unit 5 compares the partial image f p extracted by the processing S353 and the reference image F p to calculate the partial similarity u p (S360).

図10は、部分類似度算出処理S360の概略のフロー図であり、これを用いて当該処理を説明する。制御部5の物体判定手段526は、各構成部分を順次処理対象に設定して(S361)、処理対象の構成部分について処理S361〜S370を行う。   FIG. 10 is a schematic flowchart of the partial similarity calculation process S360, and the process will be described using this. The object determination unit 526 of the control unit 5 sequentially sets each component as a processing target (S361), and performs processing S361 to S370 for the processing target component.

まず、制御部5の物体判定手段526は、参照画像取得位置404と撮像条件42の一部として記憶されている撮像部2の設置位置とから両者の間の距離dを算出し(S362)、さらに図9の処理S352にて処理対象に設定された予測位置と撮像部2の位置とから両者の間の距離dを算出し(S363)、距離dと距離dとを比較する(S364)。 First, the object determination unit 526 of the control unit 5 calculates a distance d R between the reference image acquisition position 404 and the installation position of the imaging unit 2 stored as a part of the imaging condition 42 (S362). Further, a distance d I between the predicted position set as the processing target in step S352 of FIG. 9 and the position of the imaging unit 2 is calculated (S363), and the distance d R and the distance d I are compared. (S364).

距離dが距離d以下であれば(S364にてYES)、部分画像fの方が低解像度であるとして参照画像Fを予測位置に対応した像へ射影し、(S365)、射影像と部分画像fとの共通領域を算出する(S366)。 If the distance d R is the distance d I or less (YES in S364), partial towards the image f p is projected onto the image of the reference image F p corresponding to the predicted position as a low resolution, (S365), morphism It calculates a common region of the shadow image and a partial image f p (S366).

一方、距離dが距離dより大きければ(S364にてNO)、参照画像Fの方が低解像度であるとして部分画像fを参照画像取得位置404に対応した像へ射影し、(S367)、射影像と参照画像Fとの共通領域を算出する(S368)。 On the other hand, if distance d R is larger than distance d I (NO in S364), partial image f p is projected onto an image corresponding to reference image acquisition position 404, assuming that reference image F p has a lower resolution ( S367), calculates a common region of the reference image F p and the projection image (S368).

こうして共通領域が算出されると、共通領域において色ヒストグラムを比較して部分類似度uを算出する(S369)。 Thus the common area is calculated, to calculate the partial similarity u p by comparing the color histograms in the common region (S369).

以上の処理が全構成部分について終了すると(S370にてYES)、処理は図9の処理S380へ進む。   When the above process ends for all components (YES in S370), the process proceeds to process S380 in FIG.

図9のフローチャートに戻り、物体位置判定処理の続きを説明する。   Returning to the flowchart of FIG. 9, the continuation of the object position determination process will be described.

制御部5の物体判定手段526は、部分類似度算出処理S360にて算出された部分類似度uを、処理S355にて算出された信頼度gにより重み付け加算し、統合類似度Uを算出する(S380)。こうして処理対象の物体に設定された全予測位置について統合類似度Uが算出されると(S381にてYES)、制御部5の物体判定手段526は、最大の統合類似度Uを選択し、選択した統合類似度Uが予め設定された基準値以上であるか否かを判定する(S382)。 Object determining means 526 of the control unit 5, the partial similarity u p calculated in partial similarity calculating process S360, weighted addition by the reliability g p calculated in the process S355, calculates the integrated similarity U (S380). When the integrated similarity U is calculated for all predicted positions set for the object to be processed in this way (YES in S381), the object determination unit 526 of the control unit 5 selects and selects the maximum integrated similarity U. It is determined whether or not the integrated similarity U is equal to or greater than a preset reference value (S382).

基準値以上であれば(S382にてYES)最大の統合類似度Uが算出された予測位置に存在する画像情報を処理対象の物体の像と同定し、当該予測位置を処理対象の物体の物体位置と判定する(S383)。   If it is equal to or greater than the reference value (YES in S382), the image information existing at the predicted position where the maximum integrated similarity U is calculated is identified as the image of the object to be processed, and the predicted position is the object of the object to be processed. The position is determined (S383).

一方、基準値未満であれば(S382にてNO)処理対象の物体を同定せず、処理対象の物体を消失して物体位置は不明と判定する(S384)。   On the other hand, if it is less than the reference value (NO in S382), the object to be processed is not identified, the object to be processed is lost, and the object position is determined to be unknown (S384).

以上の処理を全ての物体について終えると(S385にてYES)、制御部5は処理を図8の処理S40へ戻す。   When the above process is completed for all objects (YES in S385), control unit 5 returns the process to process S40 in FIG.

再び図8を参照して全体処理の続きを説明する。   The continuation of the entire process will be described with reference to FIG. 8 again.

物体位置判定処理が終わると、制御部5の物体判定手段526は、判定された物体位置を記憶部4の移動軌跡41に追加記憶させる(S40)。なお、処理S30にて抽出された物体像の中に物体位置判定処理S35にて判定された物体位置に存在しない物体像があれば、当該物体像が示す物体位置を新規物体の情報として移動軌跡41に記憶させる。   When the object position determination process ends, the object determination unit 526 of the control unit 5 additionally stores the determined object position in the movement locus 41 of the storage unit 4 (S40). If there is an object image that does not exist in the object position determined in the object position determination process S35 in the object image extracted in the process S30, the object locus indicated by the object image is used as information on the new object. 41 is stored.

続いて、制御部5の物体情報更新手段528は、次時刻における物体位置判定処理に備えて物体情報40の更新を行う(S45)。   Subsequently, the object information updating unit 528 of the control unit 5 updates the object information 40 in preparation for the object position determination process at the next time (S45).

図11は、物体情報更新処理S45の概略のフロー図であり、これを用いて当該処理を説明する。制御部5の物体情報更新手段528は、物体情報40が表す各物体を処理対象に順次、設定し(S450)、処理対象の物体について処理S451〜S456を行う。   FIG. 11 is a schematic flowchart of the object information update process S45, and the process will be described using this. The object information update unit 528 of the control unit 5 sequentially sets each object represented by the object information 40 as a processing target (S450), and performs processing S451 to S456 for the processing target object.

まず、制御部5の物体情報更新手段528は、処理対象の物体が図9の処理S383にて物体位置が判定された物体であるか否かを確認し(S451)、物体位置が判定された物体でなければ消失物体であるとして当該物体の物体情報40を削除する(S452)。   First, the object information updating unit 528 of the control unit 5 confirms whether or not the object to be processed is the object whose object position is determined in the process S383 of FIG. 9 (S451), and the object position is determined. If it is not an object, it is determined that the object is a lost object, and the object information 40 of the object is deleted (S452).

一方、物体位置が判定された物体であれば、制御部5の物体情報更新手段528は、各構成部分を順次、処理対象に設定し(S453)、処理対象の構成部分pについて図9のS354にて算出された隠蔽度eと参照画像隠蔽度Eとを比較し(S454)、隠蔽度eが参照画像隠蔽度Eより小さければ(S454にてYES)、処理対象の構成部分pについて物体情報40の更新を行う(S455)。 On the other hand, if the object position is determined, the object information update unit 528 of the control unit 5 sequentially sets each component as a processing target (S453), and the processing target component p is S354 in FIG. comparing the calculated degree of hiding e p a reference image concealment of E p at (S454), (YES at S454) if hiding of e p is less than the reference image concealment of E p, components to be processed The object information 40 is updated for p (S455).

すなわち、処理S455にて制御部5の物体情報更新手段528は、参照画像Fを、判定された物体位置において図9の処理S353にて抽出された部分画像fに書き換え、参照画像隠蔽度Eを隠蔽度eに書き換え、参照画像取得位置404を、判定された物体位置に書き換える。このように、隠蔽度が最も小さいときの物体情報を保持することで、隠蔽の大小によらない高精度な物体同定が可能になる。 That is, the processing object information updating means 528 of the control unit 5 at S455, the reference image F p, in the determined object position rewritten to the partial image f p extracted by the process S353 of FIG. 9, the reference image concealment of rewritten E p the degree of hiding e p, the reference image acquisition position 404 rewrites the determined object position. In this way, by holding the object information when the degree of concealment is the smallest, it is possible to perform highly accurate object identification regardless of the size of concealment.

以上の更新を全構成部分について終え(S456にてYES)、さらに全対象物体について終えると(S457にてYES)、処理S458へ移行する。   When the above update is completed for all components (YES in S456) and for all target objects (YES in S457), the process proceeds to process S458.

処理S458にて制御部5の物体情報更新手段528は、図8の処理S30にて抽出された物体像の中に図9のS383にて判定された物体位置のいずれにも存在しない物体像があるか否かを確認する。該当する物体像があれば、新規に出現した物体であるとして、当該物体像の画像情報から新たな物体情報40を作成する(S459)。   In process S458, the object information update unit 528 of the control unit 5 includes an object image that does not exist in any of the object positions determined in S383 of FIG. 9 among the object images extracted in process S30 of FIG. Check if it exists. If there is a corresponding object image, it is determined that the object has newly appeared, and new object information 40 is created from the image information of the object image (S459).

すなわち、当該物体像内に複数の探索位置を設定し、各探索位置に物体モデル400の全身を投影し、投影像と物体像の形状を比較する。比較の結果、最も形状が一致する探索位置を物体位置に決定する。   That is, a plurality of search positions are set in the object image, the whole body of the object model 400 is projected at each search position, and the shapes of the projection image and the object image are compared. As a result of the comparison, the search position with the most matching shape is determined as the object position.

そして、決定した物体位置を部分画像抽出手段522に与えて部分画像の抽出と隠蔽度の算出とを行わせ、抽出された各部分画像を参照画像F、算出された各隠蔽度を参照画像隠蔽度E、物体位置を参照画像取得位置404としてそれぞれ記憶部4に記憶させる。 Then, the determined object position is given to the partial image extracting means 522 to perform extraction of the partial image and calculation of the concealment degree, and each extracted partial image is referred to as the reference image F p , and each calculated concealment degree is referred to as the reference image. The concealment degree E p and the object position are stored in the storage unit 4 as the reference image acquisition position 404, respectively.

また、このとき、物体モデル400の高さ及び幅を、標準的な対象物体の高さ及び幅を基準とする所定範囲内で複数設定して探索を行い、最も形状が一致する高さ及び幅を新たな物体情報の物体モデル400の高さh及び幅wとする。   At this time, the height and width of the object model 400 are set within a predetermined range based on the height and width of the standard target object, and a search is performed. Is the height h and width w of the object model 400 of new object information.

こうして物体情報更新処理が終了すると、制御部5は処理を図8の処理S55へ戻す。   When the object information update process ends in this way, the control unit 5 returns the process to step S55 in FIG.

再び図8を参照して全体処理の続きを説明する。   The continuation of the entire process will be described with reference to FIG. 8 again.

物体情報更新処理を終えると、制御部5は、全物体が消失しているか否かを確認する(S55)。全物体が消失している場合(S55にてYES)、制御部5の物体像抽出手段50は記憶部4に記憶されている背景画像を監視画像により更新する(S60)。その後、制御部5は処理をS25へ戻す。   When the object information update process is finished, the control unit 5 confirms whether or not all objects have disappeared (S55). When all the objects have disappeared (YES in S55), the object image extraction means 50 of the control unit 5 updates the background image stored in the storage unit 4 with the monitoring image (S60). Then, the control part 5 returns a process to S25.

一方、1以上の物体が存在する場合(S55にてNO)、制御部5の異常判定手段54は、移動軌跡41を分析して異常な移動軌跡41を有する物体が存在するか否かを判定し(S65)、異常があれば(S70にてYES)異常判定手段54は出力部6に異常を判定された物体の位置及び監視画像を含む異常信号を出力する(S75)。異常信号が入力された出力部6は該信号をセンタ装置へ送信する。センタ装置は異常信号に含まれる情報を表示して監視員へ異常を報知し、表示を見た監視員は不審者の排除などの対処を行う。   On the other hand, when one or more objects exist (NO in S55), abnormality determination unit 54 of control unit 5 analyzes movement locus 41 and determines whether or not an object having abnormal movement locus 41 exists. If there is an abnormality (YES in S70), the abnormality determination means 54 outputs an abnormality signal including the position of the object determined to be abnormal and the monitoring image to the output unit 6 (S75). The output unit 6 to which the abnormal signal is input transmits the signal to the center device. The center device displays information included in the abnormality signal to notify the monitoring person of the abnormality, and the monitoring person who sees the display takes measures such as removing a suspicious person.

一方、異常が判定されない場合(S70にてNO)、処理S75はスキップされる。   On the other hand, when abnormality is not determined (NO in S70), process S75 is skipped.

以上の処理が終了すると、制御部5は処理を再びS25へ戻す。   When the above process ends, the control unit 5 returns the process to S25 again.

上述の実施形態では、部分画像抽出手段522が隠蔽度を算出する例を示したが、これに代えて非隠蔽度を算出してもよい。非隠蔽度は、各構成部分について、当該構成部分の全体領域の面積に対する当該構成部分の観測領域の面積の比(S2/S1)として算出できる。この場合、物体情報更新手段528は非隠蔽度が高い場合に物体情報40を更新すればよい。   In the above-described embodiment, the example in which the partial image extraction unit 522 calculates the concealment degree is shown, but instead, the non-concealment degree may be calculated. The non-concealment degree can be calculated for each component as a ratio (S2 / S1) of the area of the observation region of the component to the area of the entire region of the component. In this case, the object information update unit 528 may update the object information 40 when the non-concealment degree is high.

また、上述の実施形態では、統合類似度Uが最大の候補位置を物体位置と判定した。別の実施形態では、統合類似度Uが判定基準を満たした複数の候補位置を平均して、或いは統合類似度Uにより重み付け平均して、物体位置を算出する。   In the above-described embodiment, the candidate position having the maximum integrated similarity U is determined as the object position. In another embodiment, the object position is calculated by averaging a plurality of candidate positions for which the integrated similarity U satisfies the determination criterion or by averaging the candidate positions using the integrated similarity U.

また、画像特徴量は、色ヒストグラムに限らず、輝度ヒストグラム、エッジ強度のヒストグラム、エッジ方向のヒストグラム、又はテクスチャなど種々の画像特徴量を採用することができる。2以上の画像特徴量を組み合わせても良い。   The image feature amount is not limited to a color histogram, and various image feature amounts such as a luminance histogram, an edge intensity histogram, an edge direction histogram, or a texture can be employed. Two or more image feature amounts may be combined.

本発明の実施形態に係る画像監視装置のブロック構成図である。It is a block block diagram of the image monitoring apparatus which concerns on embodiment of this invention. XYZ座標系で定義される監視空間に配置した物体モデルと撮像面上の投影像との間の変換を示す模式図である。It is a schematic diagram which shows conversion between the object model arrange | positioned in the monitoring space defined by an XYZ coordinate system, and the projection image on an imaging surface. 部分画像抽出手段の処理の説明図である。It is explanatory drawing of the process of a partial image extraction means. 部分画像を参照画像と同様に参照画像取得位置に配置した物体モデルにより得られる投影像上に座標変換する具体例を説明する模式図である。It is a schematic diagram explaining the specific example which carries out coordinate conversion of the partial image on the projection image obtained by the object model arrange | positioned at the reference image acquisition position similarly to a reference image. 参照画像を部分画像と同様に候補位置に配置した物体モデルにより得られる投影像上に座標変換する具体例を説明する模式図である。It is a schematic diagram explaining the specific example which carries out coordinate conversion on the projection image obtained by the object model which has arrange | positioned the reference image to the candidate position similarly to the partial image. 部分画像及び参照画像をそれぞれ監視空間に配置された物体モデルに逆投影して、それら物体モデル間にて部分画像及び参照画像を比較する例を説明する模式図である。It is a schematic diagram explaining the example which backprojects a partial image and a reference image to the object model each arrange | positioned in the monitoring space, and compares a partial image and a reference image between these object models. 監視空間内での対象物体の位置の変化に応じた投影像での隠蔽度の変化を表す模式的な監視画像である。It is a typical monitoring image showing the change of the concealment degree in the projection image according to the change of the position of the target object in the monitoring space. 画像監視装置の動作の概略のフロー図である。It is a schematic flowchart of operation | movement of an image monitoring apparatus. 物体位置判定処理の概略のフロー図である。It is a general | schematic flowchart of an object position determination process. 部分類似度算出処理の概略のフロー図である。It is a general | schematic flowchart of a partial similarity calculation process. 物体情報更新処理の概略のフロー図である。It is a general | schematic flowchart of an object information update process.

符号の説明Explanation of symbols

1 画像監視装置、2 撮像部、3 操作部、4 記憶部、5 制御部、6 出力部、40 物体情報、41 移動軌跡、42 撮像条件、50 物体像抽出手段、52 追跡手段、54 異常判定手段、400 物体モデル、401 参照画像、402 参照画像隠蔽度、404 参照画像取得位置、520 位置予測手段、522 部分画像抽出手段、526 物体判定手段、528 物体情報更新手段。   DESCRIPTION OF SYMBOLS 1 Image monitoring apparatus, 2 imaging part, 3 operation part, 4 memory | storage part, 5 control part, 6 output part, 40 object information, 41 movement locus, 42 imaging conditions, 50 object image extraction means, 52 tracking means, 54 abnormality determination Means, 400 object model, 401 reference image, 402 reference image concealment degree, 404 reference image acquisition position, 520 position prediction means, 522 partial image extraction means, 526 object determination means, 528 object information update means.

Claims (4)

監視空間を透視投影した監視画像についての投影条件と、監視対象となる対象物体の複数の構成部分毎の立体形状を表す部分モデルと当該部分モデル相互の配置関係とで表される前記対象物体の物体モデルと、前記対象物体の前記構成部分毎の参照画像及び参照画像隠蔽度とを記憶する記憶部と、
前記監視画像、及び前記監視空間内の位置を入力され、当該位置に前記物体モデルを仮想的に配置して前記投影条件に基づき透視投影を行い、前記部分モデル毎に、その投影像のうち前記透視投影にて手前に位置する他の前記部分モデルによる隠蔽領域を除いた部分モデル可視領域と、前記隠蔽領域による当該投影像の隠蔽度とを求めると共に、前記監視画像から当該部分モデル可視領域に対応する部分を前記対象物体の前記構成部分毎の部分画像として抽出する部分画像抽出手段と、
前記対象物体が存在し得る候補位置での前記部分画像と前記参照画像とを複数の前記候補位置について比較し、比較一致した候補位置に基づいて、前記対象物体が存在する物体位置を判定する物体判定手段と、
前記物体位置での前記隠蔽度が前記参照画像隠蔽度以下である前記構成部分について、前記参照画像及び前記参照画像隠蔽度を、当該隠蔽度及び当該物体位置での前記部分画像で更新する物体情報更新手段と、
を有することを特徴とする画像監視装置。
A projection condition for a surveillance image obtained by perspective projection of the surveillance space, a partial model representing a three-dimensional shape for each of a plurality of constituent parts of the target object to be monitored, and an arrangement relationship between the partial models. A storage unit for storing an object model, a reference image for each component of the target object, and a reference image concealment degree;
The monitoring image and a position in the monitoring space are input, the object model is virtually arranged at the position, and perspective projection is performed based on the projection condition, and for each partial model, the projection image The partial model visible region excluding the concealed region by the other partial model positioned in front by perspective projection and the concealment degree of the projected image by the concealed region are obtained, and the partial image visible region from the monitoring image is obtained. Partial image extraction means for extracting a corresponding portion as a partial image for each component of the target object;
An object that compares the partial image at the candidate position where the target object can exist and the reference image with respect to a plurality of candidate positions, and determines an object position where the target object exists based on the candidate positions that have been compared and matched A determination means;
Object information for updating the reference image and the reference image concealment degree with the concealment degree and the partial image at the object position for the constituent part in which the concealment degree at the object position is equal to or less than the reference image concealment degree Update means;
An image monitoring apparatus comprising:
請求項1に記載の画像監視装置において、
前記物体判定手段は、基準位置に配置した前記物体モデルにより得られる基準投影像上に、前記部分画像を前記投影条件に基づいて写像した基準部分画像と、同じく前記基準投影像上に前記参照画像を写像した基準参照画像とが互いに重複する共通領域を求め、当該共通領域において前記基準部分画像と前記基準参照画像とを比較して前記物体位置を判定すること、を特徴とする画像監視装置。
The image monitoring apparatus according to claim 1,
The object determination means includes a reference partial image obtained by mapping the partial image on the basis of the projection condition on a reference projection image obtained by the object model arranged at a reference position, and the reference image on the reference projection image. An image monitoring apparatus, comprising: obtaining a common area in which a reference reference image mapped with each other overlaps and determining the object position by comparing the reference partial image and the reference reference image in the common area.
請求項2に記載の画像監視装置において、
前記物体判定手段は、前記候補位置と、前記参照画像の取得に際して配置された前記物体モデルの位置とのうち視点位置からの距離が遠い方を前記基準位置に設定すること、を特徴とする画像監視装置。
The image monitoring apparatus according to claim 2,
The object determination unit sets the reference position as a distance that is farther from a viewpoint position, out of the candidate position and the position of the object model that is arranged when the reference image is acquired. Monitoring device.
請求項2又は請求項3に記載の画像監視装置において、
前記物体判定手段は、前記部分モデルに高さ方向に層をなして複数の水平帯状領域を設定し、前記共通領域を前記水平帯状領域と対応する複数の小領域に分割し、当該小領域毎に前記基準部分画像と前記基準参照画像とを比較すること、を特徴とする画像監視装置。
In the image monitoring apparatus according to claim 2 or 3,
The object determining means sets a plurality of horizontal strip regions in the height direction of the partial model, divides the common region into a plurality of small regions corresponding to the horizontal strip regions, And comparing the reference partial image with the reference reference image.
JP2008210280A 2008-08-19 2008-08-19 Image monitoring device Expired - Fee Related JP5027758B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008210280A JP5027758B2 (en) 2008-08-19 2008-08-19 Image monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008210280A JP5027758B2 (en) 2008-08-19 2008-08-19 Image monitoring device

Publications (2)

Publication Number Publication Date
JP2010049297A JP2010049297A (en) 2010-03-04
JP5027758B2 true JP5027758B2 (en) 2012-09-19

Family

ID=42066353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008210280A Expired - Fee Related JP5027758B2 (en) 2008-08-19 2008-08-19 Image monitoring device

Country Status (1)

Country Link
JP (1) JP5027758B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5667846B2 (en) * 2010-11-15 2015-02-12 セコム株式会社 Object image determination device
JP2012155595A (en) * 2011-01-27 2012-08-16 Secom Co Ltd Target object image determination device
JP5594672B2 (en) * 2011-04-14 2014-09-24 株式会社 日立産業制御ソリューションズ Object recognition apparatus and object recognition method
KR101505557B1 (en) 2013-08-30 2015-03-25 고려대학교 산학협력단 Device and method for processing occlusion of each object in pen
JP6166705B2 (en) * 2014-09-29 2017-07-19 セコム株式会社 Object identification device
JP6924064B2 (en) * 2016-06-21 2021-08-25 キヤノン株式会社 Image processing device and its control method, and image pickup device
JP6851241B2 (en) * 2017-03-31 2021-03-31 セコム株式会社 Image analyzer
CN111753601B (en) * 2019-03-29 2024-04-12 华为技术有限公司 Image processing method, device and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005351814A (en) * 2004-06-11 2005-12-22 Konica Minolta Holdings Inc Detector and detecting method
JP4900204B2 (en) * 2007-11-22 2012-03-21 株式会社Ihi Object recognition method

Also Published As

Publication number Publication date
JP2010049297A (en) 2010-03-04

Similar Documents

Publication Publication Date Title
US10417503B2 (en) Image processing apparatus and image processing method
JP5027758B2 (en) Image monitoring device
JP5487298B2 (en) 3D image generation
JP5027741B2 (en) Image monitoring device
JP5180733B2 (en) Moving object tracking device
JP5687082B2 (en) Moving object tracking device
JP6816058B2 (en) Parameter optimization device, parameter optimization method, program
WO2016199244A1 (en) Object recognition device and object recognition system
JP2019075156A (en) Method, circuit, device, and system for registering and tracking multifactorial image characteristic and code executable by related computer
KR20080020595A (en) Human detection and tracking for security applications
CN111144213B (en) Object detection method and related equipment
WO2022127181A1 (en) Passenger flow monitoring method and apparatus, and electronic device and storage medium
US20220366570A1 (en) Object tracking device and object tracking method
JP5147760B2 (en) Image monitoring device
JP5687035B2 (en) Person tracking device
JP5667846B2 (en) Object image determination device
KR101469099B1 (en) Auto-Camera Calibration Method Based on Human Object Tracking
JP5552069B2 (en) Moving object tracking device
US20220366716A1 (en) Person state detection apparatus, person state detection method, and non-transitory computer readable medium storing program
JP6336935B2 (en) Moving object tracking device
JP6504711B2 (en) Image processing device
JP6548683B2 (en) Object image estimation device and object image determination device
CN117994737B (en) Monitoring alarm system and method for intelligent building site management and control platform
US20230368528A1 (en) Method and device for setting a value of an object property in a sequence of metadata frames corresponding to a sequence of video frames
JP6548682B2 (en) Object image judgment device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120605

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120622

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5027758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees