JP5101429B2 - Image monitoring device - Google Patents

Image monitoring device Download PDF

Info

Publication number
JP5101429B2
JP5101429B2 JP2008206898A JP2008206898A JP5101429B2 JP 5101429 B2 JP5101429 B2 JP 5101429B2 JP 2008206898 A JP2008206898 A JP 2008206898A JP 2008206898 A JP2008206898 A JP 2008206898A JP 5101429 B2 JP5101429 B2 JP 5101429B2
Authority
JP
Japan
Prior art keywords
image
monitoring
area
change area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008206898A
Other languages
Japanese (ja)
Other versions
JP2010045501A (en
Inventor
秀行 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2008206898A priority Critical patent/JP5101429B2/en
Publication of JP2010045501A publication Critical patent/JP2010045501A/en
Application granted granted Critical
Publication of JP5101429B2 publication Critical patent/JP5101429B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、監視空間を撮像した監視画像から対象物体を検出する画像監視装置に関し、特に、背景と似た特徴の画像を生じる対象物体の検出に関する。   The present invention relates to an image monitoring apparatus that detects a target object from a monitoring image obtained by imaging a monitoring space, and more particularly to detection of a target object that generates an image having characteristics similar to a background.

侵入者検知等のため、監視空間を撮像した監視画像から監視対象である対象物体に関する画像を抽出し、その画像情報に基づいて対象物の検出や追跡を行う技術が知られている。当該技術として、監視画像を監視空間に対象物体が存在しないときに得られた背景画像と比較し、その差分領域に基づいて対象物体を検出する手法が存在する。
特開2007−201933号公報
In order to detect an intruder or the like, a technique is known in which an image related to a target object that is a monitoring target is extracted from a monitoring image obtained by imaging the monitoring space, and the target is detected and tracked based on the image information. As this technique, there is a method of comparing a monitoring image with a background image obtained when there is no target object in the monitoring space, and detecting the target object based on the difference area.
JP 2007-201933 A

しかし、対象物体の画像に背景画像と似た特徴を有する部分が存在する場合、当該部分は差分領域に現れにくく、対象物体の検出精度が低下するという問題があった。   However, when there is a portion having a feature similar to the background image in the target object image, the portion is difficult to appear in the difference area, and there is a problem that the detection accuracy of the target object is lowered.

本発明は、上記問題を解決するためになされたものであり、背景画像と似た特徴の画像を生じる対象物体を好適に検出できる画像監視装置を提供することを目的とする。   The present invention has been made to solve the above-described problem, and an object thereof is to provide an image monitoring apparatus that can suitably detect a target object that generates an image having characteristics similar to a background image.

本発明に係る画像監視装置は、第1背景画像が得られる視点から監視空間を撮像し第1監視画像を出力する第1の撮像部と、前記第1背景画像とは異なる第2背景画像が得られる視点から前記監視空間を撮像し第2監視画像を出力する第2の撮像部と、前記第1背景画像、前記第2背景画像及び、前記第2の撮像部の撮像面上の任意の注視点に対し、当該注視点を通る投影線を前記第1の撮像部の撮像面に射影した注視点射影像を対応づける対応規則を記憶する記憶部と、前記第1監視画像を前記第1背景画像と比較して第1変化領域を抽出し、また、前記第2監視画像を前記第2背景画像と比較して第2変化領域を抽出する変化領域抽出手段と、前記対応規則により、前記第2変化領域に包含される前記注視点についての前記注視点射影像を求め、前記第1の撮像部の撮像面内の当該注視点射影像が形成される領域に応じた射影領域と、前記第1変化領域とを合成し、合成変化領域を求める変化領域合成手段と、前記合成変化領域に基づいて前記監視空間における対象物体を検出する物体検出手段と、を有するものである。   The image monitoring apparatus according to the present invention includes a first imaging unit that captures a monitoring space from a viewpoint from which a first background image is obtained and outputs the first monitoring image, and a second background image that is different from the first background image. A second imaging unit that images the monitoring space from the obtained viewpoint and outputs a second monitoring image; the first background image; the second background image; and an arbitrary imaging surface on the second imaging unit A storage unit for storing a correspondence rule for associating a gazing point projection image passing through the gazing point onto an imaging surface of the first imaging unit with respect to the gazing point, and the first monitoring image as the first monitoring image. A change area extracting means for extracting a first change area by comparing with a background image, and extracting a second change area by comparing the second monitoring image with the second background image; The gazing point projection image of the gazing point included in the second change region A change area combining means for determining a combined change area by combining the projection area corresponding to the area on the imaging plane of the first imaging unit in which the gazing point projection image is formed and the first change area; And an object detection means for detecting a target object in the monitoring space based on the composite change area.

他の本発明に係る画像監視装置は、前記変化領域合成手段が、前記第2変化領域において所定の画像特徴を抽出し、前記注視点射影像が形成される領域のうち前記画像特徴を有する部分を前記射影領域として前記合成変化領域を求めるものである。この本発明に係る画像監視装置においては、前記両撮像部の撮像方向が、前記対象物体の表面のうちに前記第1監視画像及び前記第2監視画像に共通して現れる部分を有するように設定され、前記変化領域合成手段が、前記第2変化領域の輪郭のうち前記第1の撮像部に対して表側にある部分に沿って設けられた縁部領域にて前記画像特徴を抽出する構成とすることができる。 In another image monitoring apparatus according to the present invention, the change area synthesizing unit extracts a predetermined image feature in the second change area, and a portion having the image feature in an area where the gazing point projection image is formed. Is used as the projection area to determine the composite change area. In the image monitoring apparatus according to the present invention, the imaging direction of the two imaging units is set to have a portion that appears in common in the first monitoring image and the second monitoring image on the surface of the target object. And the change area synthesis means extracts the image feature in an edge area provided along a portion of the outline of the second change area on the front side with respect to the first imaging unit; can do.

別の本発明に係る画像監視装置においては、前記変化領域抽出手段は、画素値が第1基準値を超えて相違する部分を前記第1変化領域として抽出し、前記変化領域合成手段は、前記第1基準値未満に設定される第2基準値を用い、前記注視点射影像が形成される領域のうち、前記第1監視画像と前記第1背景画像との間で画素値が前記第2基準値を超えて相違する部分を前記射影領域とする。   In another image monitoring apparatus according to the present invention, the change area extraction unit extracts a portion where a pixel value exceeds a first reference value as the first change area, and the change area synthesis unit includes A second reference value set to be less than the first reference value is used, and a pixel value between the first monitoring image and the first background image in the region where the gazing point projection image is formed is the second value. A portion that is different from the reference value is defined as the projection region.

本発明の好適な態様は、所定の物体移動面内での前記対象物体の位置を追跡する追跡手段を有し、前記第1の撮像部が、撮像方向を前記物体移動面に向けて設定され、前記両撮像部が、前記第1監視画像及び前記第2監視画像を時系列に従って順次撮像し、前記追跡手段が、前記物体検出手段により前後する時刻にて前記対象物体が検出された領域の画像情報を比較し、その比較結果に基づいて当該前後する時刻間での前記対象物体の同定を行う画像監視装置である。   A preferred aspect of the present invention includes a tracking unit that tracks a position of the target object in a predetermined object moving plane, and the first imaging unit is set with an imaging direction facing the object moving plane. The image capturing unit sequentially captures the first monitoring image and the second monitoring image in time series, and the tracking unit detects an area in which the target object is detected at a time before and after the object detecting unit. It is an image monitoring apparatus that compares image information and identifies the target object between the preceding and following times based on the comparison result.

本発明によれば、2つの方向から監視画像を撮像することにより、一方の監視画像において対象物体が背景と似ていても、他方の監視画像においては対象物体と背景との間に有意な差が現れ得る。そこで、これら2つの監視画像それぞれから抽出された変化領域の一方を用いて他方を補完することで、背景と似た対象物体の検出精度の向上が可能となる。   According to the present invention, by capturing a monitoring image from two directions, even if the target object is similar to the background in one monitoring image, there is a significant difference between the target object and the background in the other monitoring image. Can appear. Therefore, by using one of the change areas extracted from each of these two monitoring images and complementing the other, it is possible to improve the detection accuracy of the target object similar to the background.

以下、本発明の実施の形態(以下実施形態という)である不正通行検出装置1について、図面に基づいて説明する。不正通行検出装置1は、例えば、建物の出入口を撮像した画像から対象物体である人を検出し追跡することにより、不正通行者を検出する。   Hereinafter, an unauthorized traffic detection apparatus 1 according to an embodiment of the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings. The unauthorized traffic detection device 1 detects an unauthorized passerby, for example, by detecting and tracking a person who is a target object from an image obtained by imaging an entrance of a building.

図1は、実施形態に係る不正通行検出装置1の概略のブロック構成図である。不正通行検出装置1は、撮像部2、操作部3、認証部4、記憶部5、制御部6及び出力部7を含んで構成される。   FIG. 1 is a schematic block diagram of an unauthorized traffic detection device 1 according to the embodiment. The unauthorized traffic detection device 1 includes an imaging unit 2, an operation unit 3, an authentication unit 4, a storage unit 5, a control unit 6, and an output unit 7.

撮像部2は、監視カメラである。不正通行検出装置1は、少なくとも出入口とその近傍に配置される認証部4とを含む監視空間を設定され、撮像部2は当該監視空間を所定の時間間隔にて撮像することで当該監視空間を透視投影した画像を順次、制御部6へ出力する。以下、撮像部2の撮像タイミングを時刻と称する。   The imaging unit 2 is a surveillance camera. The unauthorized traffic detection device 1 is set to a monitoring space including at least an entrance and an authentication unit 4 disposed in the vicinity thereof, and the imaging unit 2 captures the monitoring space by imaging the monitoring space at a predetermined time interval. The fluoroscopically projected images are sequentially output to the control unit 6. Hereinafter, the imaging timing of the imaging unit 2 is referred to as time.

図2は、本装置における撮像部2の配置を示す模式図である。図2(a)は認証部4の前に立った人の側方から監視空間を見た図であり、図2(b)は認証部4の前に立った人の背面から監視空間を見た図である。本装置では図2に示すように、互いに撮影方向が異なる2つの撮像部2-1,2-2が設置される。ここで、監視空間をX,Y,Z軸からなる直交座標系で表し、鉛直上方をZ軸の正方向に設定する。不正通行検出装置1では、XY平面内での人の位置、移動を把握するため、1つの撮像部2-1は、基本的に人を俯瞰撮影可能な高さに設置される。例えば、本実施形態では撮像部2-1は、認証部4を操作する人が立つ位置の真上の天井に光軸80-1を鉛直下方(Z軸負方向)へ向けて設置される。また、もう1つの撮像部2-2は、撮像部2-1の撮影方向とおおよそ直交する方向を撮影するように設置される。例えば、撮像部2-2は認証部4を操作する人と対向する壁面に光軸80-2を水平方向へ向けて設置される。以下、天井カメラとは撮像部2-1を指し、壁カメラとは撮像部2-2を指す。また、撮像部2-1により撮像された画像を第1監視画像、或いは天井カメラ画像と称し、撮像部2-2により撮像された画像を第2監視画像、或いは壁カメラ画像と称する。   FIG. 2 is a schematic diagram showing the arrangement of the imaging unit 2 in the present apparatus. 2A is a view of the monitoring space from the side of a person standing in front of the authentication unit 4, and FIG. 2B is a view of the monitoring space from the back of the person standing in front of the authentication unit 4. It is a figure. In this apparatus, as shown in FIG. 2, two imaging units 2-1 and 2-2 having different shooting directions are installed. Here, the monitoring space is represented by an orthogonal coordinate system composed of the X, Y, and Z axes, and the vertically upward direction is set to the positive direction of the Z axis. In the unauthorized traffic detection device 1, in order to grasp the position and movement of a person in the XY plane, one imaging unit 2-1 is basically installed at a height at which a person can be seen from an overhead view. For example, in the present embodiment, the imaging unit 2-1 is installed on the ceiling directly above the position where the person who operates the authentication unit 4 stands with the optical axis 80-1 vertically downward (Z-axis negative direction). The other imaging unit 2-2 is installed so as to capture a direction approximately perpendicular to the imaging direction of the imaging unit 2-1. For example, the imaging unit 2-2 is installed on the wall surface facing the person who operates the authentication unit 4 with the optical axis 80-2 facing in the horizontal direction. Hereinafter, the ceiling camera refers to the imaging unit 2-1, and the wall camera refers to the imaging unit 2-2. An image captured by the imaging unit 2-1 is referred to as a first monitoring image or a ceiling camera image, and an image captured by the imaging unit 2-2 is referred to as a second monitoring image or a wall camera image.

天井カメラ画像では、壁カメラ画像に比べて、対象物体同士の隠蔽(オクルージョン)が生じにくいため、天井カメラ画像の方が対象物体の追跡に適する。また、撮像部2の光軸が互いに略垂直をなす設定で、曲面からなる立体形状を有する人等の対象物体を撮影した場合、対象物体の表面のうち両画像に共通して現れる部分は、例えば、壁カメラ画像における対象物体像のうち、天井カメラ寄りの縁部に偏在する。この性質を利用すれば、対象物体の特徴を画像から抽出しやすくなる。なお、撮像部2が照明変化に適応して自動的に露光や画質の調整を行う場合、複数の撮像部2の相互間で画像の明るさやカラーバランスが同じ値となるように同調して制御することが、例えば、両画像の比較等に基づいて対象物体を検出する処理の容易化といった観点で好ましい。   The ceiling camera image is more suitable for tracking the target object because the target camera is less likely to be occluded (occlusion) than the wall camera image. Further, when a target object such as a person having a three-dimensional shape formed of a curved surface is photographed with the setting where the optical axes of the imaging unit 2 are substantially perpendicular to each other, the portion of the surface of the target object that appears in common in both images is For example, the target object image in the wall camera image is unevenly distributed at the edge near the ceiling camera. By utilizing this property, it becomes easy to extract the characteristics of the target object from the image. When the imaging unit 2 automatically adjusts exposure and image quality in response to a change in illumination, the image brightness and color balance of the plurality of imaging units 2 are synchronized and controlled to be the same value. For example, it is preferable from the viewpoint of facilitating the process of detecting the target object based on the comparison of both images.

操作部3は、管理者が制御部6に対して各種設定を行うための入力手段であり、例えば、タッチパネルディスプレイ等のユーザインターフェース装置である。   The operation unit 3 is an input unit for the administrator to perform various settings on the control unit 6 and is, for example, a user interface device such as a touch panel display.

認証部4は、カード認証装置、生体認証装置、又は暗証番号認証装置などの認証装置であり、出入口付近に設置される。認証部4は、制御部6及び出入口に設置された電気錠(図示せず)と接続され、出入口の通行を容認されている人物からカードID、指紋、音声、顔、虹彩等の生体情報、又は暗証番号などの固有情報を取得すると認証成功を表す認証信号を制御部6及び電気錠へ出力する。   The authentication unit 4 is an authentication device such as a card authentication device, a biometric authentication device, or a personal identification number authentication device, and is installed near the entrance / exit. The authentication unit 4 is connected to the control unit 6 and an electric lock (not shown) installed at the entrance and exit from a person who is permitted to pass through the entrance and exit from the biometric information such as card ID, fingerprint, voice, face, iris, etc. Alternatively, when unique information such as a password is acquired, an authentication signal indicating successful authentication is output to the control unit 6 and the electric lock.

記憶部5は、RAM、ROM、ハードディスク等の記憶装置であり、制御部6に接続される。記憶部5は、制御部6で使用されるプログラムやデータを記憶する。これに記憶されるデータには、背景画像50、射影規則51が含まれる。   The storage unit 5 is a storage device such as a RAM, a ROM, and a hard disk, and is connected to the control unit 6. The storage unit 5 stores programs and data used by the control unit 6. Data stored therein includes a background image 50 and a projection rule 51.

背景画像50は、複数の撮像部2のそれぞれの視点から撮像された背景の画像である。背景画像50は、撮像部2により撮像された画像(監視画像)と比較され、両画像間で相違する部分が対象物体による変化領域として抽出される。本装置では、2つの撮像部2-1,2-2は監視空間を異なる方向から撮影し、これにより、それぞれの背景画像は基本的に互いに異なる。   The background image 50 is a background image captured from each viewpoint of the plurality of imaging units 2. The background image 50 is compared with an image (monitoring image) captured by the imaging unit 2, and a portion that differs between the two images is extracted as a change region by the target object. In the present apparatus, the two image capturing units 2-1 and 2-2 capture the monitoring space from different directions, and thus the background images are basically different from each other.

具体的には、天井カメラの視点からの背景画像50-1には主として床が撮像されており、壁カメラの視点からの背景画像50-2には主として壁が撮像される。例えば、一般の建造物において床と壁には異なる配色がなされており、背景画像50-1,50-2として、色に基づいて互いを容易に区別可能な画像が得られる。例えば、監視空間に存在している人の服が床と似た色だと天井カメラ画像を背景画像50-1と比較しても当該人物の服の部分を変化領域として抽出できない場合がある。しかし、壁カメラ画像を背景画像50-2と比較すれば当該人物の服の部分を変化領域として抽出できる。このように、互いに視点の異なる複数の背景画像50を用いることで、いずれかの視点において対象物体の一部又は全部に係る変化領域を抽出し損ねる場合であっても、別の視点において当該部分の変化領域を抽出できる。   Specifically, the floor is mainly imaged in the background image 50-1 from the viewpoint of the ceiling camera, and the wall is mainly imaged in the background image 50-2 from the viewpoint of the wall camera. For example, different colors are used on the floor and walls in a general building, and images that can be easily distinguished from each other based on the color are obtained as the background images 50-1 and 50-2. For example, if the clothes of a person existing in the surveillance space are similar in color to the floor, the clothes part of the person may not be extracted as a change area even if the ceiling camera image is compared with the background image 50-1. However, if the wall camera image is compared with the background image 50-2, the clothes portion of the person can be extracted as the change area. As described above, by using a plurality of background images 50 having different viewpoints, even if it is difficult to extract a change area related to a part or all of the target object at any viewpoint, the corresponding part at another viewpoint. Can be extracted.

射影規則51は、壁カメラ(撮像部2-2)の撮像面上の任意の注視点に対し、当該注視点を通る投影線を天井カメラ(撮像部2-1)の撮像面に射影した注視点射影像を対応づける対応規則である。具体的には、壁カメラによる監視画像内の1画素は、当該画素を通る投影線を天井カメラの撮像面に射影した注視点射影像として、エピポーラ線と呼ばれる1本の線に対応付けられる。射影規則51は、実際の監視空間における各撮像部2の設置位置及び撮像方向といった外部パラメータと、各撮像部2の焦点距離、画角、画素数及びレンズ歪みといった内部パラメータとを含むカメラパラメータを、公知のピンホールカメラモデル等のカメラモデルに適用した座標変換関数のプログラムとして設定できる。カメラパラメータは実際に計測するなどして得られ、本装置の運用に先立って操作部3から入力され記憶部5に格納される。   The projection rule 51 projects a projection line passing through the gazing point onto an imaging surface of the ceiling camera (imaging unit 2-1) with respect to an arbitrary gazing point on the imaging surface of the wall camera (imaging unit 2-2). This is a correspondence rule for associating viewpoint projection images. Specifically, one pixel in the monitoring image by the wall camera is associated with one line called an epipolar line as a gazing point projection image obtained by projecting a projection line passing through the pixel onto the imaging surface of the ceiling camera. The projection rule 51 includes camera parameters including external parameters such as an installation position and an imaging direction of each imaging unit 2 in an actual monitoring space, and internal parameters such as a focal length, an angle of view, the number of pixels, and lens distortion of each imaging unit 2. It can be set as a program of a coordinate conversion function applied to a camera model such as a known pinhole camera model. The camera parameters are obtained by actually measuring and the like, and are input from the operation unit 3 and stored in the storage unit 5 prior to operation of the apparatus.

なお、一般には、三次元空間である監視空間にて定義される投影線を、壁カメラの撮像面上の画素(注視点)に対応付けたり、天井カメラの撮像面上の線(エピポーラ線)に対応付けたりする操作が射影と呼ばれるが、本明細書では、当該視線を介して、注視点をエピポーラ線に対応付ける操作も射影と呼ぶ。   In general, a projection line defined in a monitoring space that is a three-dimensional space is associated with a pixel (gaze point) on the imaging surface of the wall camera, or a line (epipolar line) on the imaging surface of the ceiling camera. In this specification, an operation for associating a gazing point with an epipolar line is also referred to as a projection.

後述するように、壁カメラの監視画像から抽出された変化領域内の画素について上記射影規則51に基づくエピポーラ線の生成を繰り返すことで、壁カメラから見た変化領域に対応する位置関係にある領域(以下、射影領域と呼ぶ)を天井カメラの監視画像内に定めることができる。   As will be described later, by repeating the generation of epipolar lines based on the projection rule 51 for pixels in the change area extracted from the monitoring image of the wall camera, an area having a positional relationship corresponding to the change area viewed from the wall camera (Hereinafter referred to as a projection area) can be defined in the monitoring image of the ceiling camera.

以下、図3を用いて、壁カメラ画像から天井カメラ画像への射影についてさらに説明する。図3(a)は壁カメラ画像、図3(b)は天井カメラ画像、図3(c)は監視空間の三次元座標を示す模式図である。簡単のため、壁カメラ画像、天井カメラ画像は、各カメラの歪パラメータを用いてレンズ歪を補正したものであり、ピンホールカメラモデルが適用できるものとして説明する。   Hereinafter, the projection from the wall camera image to the ceiling camera image will be further described with reference to FIG. 3A is a wall camera image, FIG. 3B is a ceiling camera image, and FIG. 3C is a schematic diagram showing three-dimensional coordinates of the monitoring space. For simplicity, the wall camera image and the ceiling camera image are obtained by correcting the lens distortion using the distortion parameter of each camera, and description will be made assuming that a pinhole camera model can be applied.

壁カメラを原点84に配置し、壁カメラの光軸方向をY軸、鉛直上方をZ軸とする右手系のXYZ座標系を設定する。よって、X軸は、監視領域から壁カメラに向かって左向きに設定される。当該座標系にて、壁カメラの光軸はベクトル[0,1,0]の方向となる。天井カメラの座標は[0,Yc,Zc](図3(c)の位置83)であり、天井カメラの光軸はベクトル[0,0,−1]の方向とする。壁カメラ画像はXZ座標で定義される平面であり、Z軸の正の向きを当該画像における上向きと定義する。また、天井カメラ画像はXY座標で定義される平面であり、Y軸の正の向きを当該画像における上向きと定義する。   A wall camera is arranged at the origin 84, and a right-handed XYZ coordinate system is set with the optical axis direction of the wall camera as the Y axis and the vertical upper direction as the Z axis. Therefore, the X axis is set to the left from the monitoring area toward the wall camera. In the coordinate system, the optical axis of the wall camera is in the direction of the vector [0, 1, 0]. The coordinates of the ceiling camera are [0, Yc, Zc] (position 83 in FIG. 3C), and the optical axis of the ceiling camera is in the direction of the vector [0, 0, −1]. The wall camera image is a plane defined by XZ coordinates, and the positive direction of the Z axis is defined as upward in the image. The ceiling camera image is a plane defined by XY coordinates, and the positive direction of the Y axis is defined as the upward direction in the image.

壁カメラ画像上の任意の注視点81の座標を[u,v](画像中心を原点とする)、壁カメラ画像の横方向の画素数を2×W、縦方向の画素数を2×Hとする。また、壁カメラの横方向の画角を2×α、縦方向の画角を2×βとする。このとき、注視点81を監視空間に逆射影すると視線である直線が得られる。この直線上の、原点を始点とするベクトルをV1とすると、ベクトルV1とY軸のなす角のX方向成分はarctan(u/W・tanα)(以下、θu)、Z方向成分はarctan(v/H・tanβ)(以下、θv)と計算できる。従って、ベクトルV1は[tanθu,1,tanθv]と表すことができる。   The coordinates of an arbitrary gazing point 81 on the wall camera image are [u, v] (the center is the image center), the number of horizontal pixels of the wall camera image is 2 × W, and the number of vertical pixels is 2 × H. And Also, the horizontal field angle of the wall camera is 2 × α, and the vertical field angle is 2 × β. At this time, when the gazing point 81 is projected back onto the monitoring space, a straight line as a line of sight is obtained. If the vector on the straight line starting from the origin is V1, the X direction component of the angle formed by the vector V1 and the Y axis is arctan (u / W · tanα) (hereinafter referred to as θu), and the Z direction component is arctan (v / H · tanβ) (hereinafter referred to as θv). Therefore, the vector V1 can be expressed as [tan θu, 1, tan θv].

ベクトルV1を係数T倍してできたベクトルの終点をP1とすると、P1の座標[XP1,YP1,ZP1]は係数Tを用いて、[T・tanθu,T,T・tanθv]と表される。この点P1を天井カメラの撮像面に射影する。以下の計算では簡単のため、天井カメラの内部パラメータは壁カメラと同一のものとする。天井カメラから点P1に向かうベクトルと天井カメラの光軸ベクトル[0,0,−1]とのなす角は、X方向成分がarctan[XP1/(Zc−ZP1)](以下、θuc)、Y方向成分がarctan[(YP1−Yc)/(Zc−ZP1)](以下、θvc)と計算される。従って、点P1を天井カメラ画像に射影したときの画像上の座標P1cは、画像中心を原点とすると[tanθuc/tanα・W,tanθvc/tanβ・H]と求められる。   If the end point of a vector obtained by multiplying the vector V1 by a factor T is P1, the coordinates [XP1, YP1, ZP1] of P1 are expressed as [T · tanθu, T, T · tanθv] using the coefficient T. . This point P1 is projected onto the imaging surface of the ceiling camera. For simplicity in the following calculation, the internal parameters of the ceiling camera are the same as those of the wall camera. The angle between the vector from the ceiling camera to the point P1 and the optical axis vector [0, 0, -1] of the ceiling camera is such that the X-direction component is arctan [XP1 / (Zc-ZP1)] (hereinafter, θuc), Y The direction component is calculated as arctan [(YP1-Yc) / (Zc-ZP1)] (hereinafter, θvc). Therefore, the coordinate P1c on the image when the point P1 is projected onto the ceiling camera image is obtained as [tan θuc / tan α · W, tan θvc / tan β · H], where the image center is the origin.

ここで、係数Tを変えてベクトルV1を定数倍したベクトルの終点を点P2とし、同様に点P2を天井カメラ画像に射影したときの画像上の座標をP2cとする。このようにして点P1と点P2を天井カメラ画像に写像して得られた点P1c,P2cを天井カメラ画像上で結ぶと、エピポーラ線82が求まる。つまり、点P1と点P2を結ぶ線分は注視点81を監視空間に逆射影してできたものであり、この線分を天井カメラ画像に射影した線分がエピポーラ線82である。   Here, the end point of the vector obtained by changing the coefficient T and multiplying the vector V1 by a constant is set as a point P2, and similarly, the coordinates on the image when the point P2 is projected onto the ceiling camera image are set as P2c. When the points P1c and P2c obtained by mapping the points P1 and P2 to the ceiling camera image in this way are connected on the ceiling camera image, the epipolar line 82 is obtained. That is, the line segment connecting the point P1 and the point P2 is formed by back projecting the gazing point 81 onto the monitoring space, and the line segment obtained by projecting this line segment onto the ceiling camera image is the epipolar line 82.

なお、ベクトルV1を係数T倍して点P1,P2を設定したが、点P1のY座標が、監視したい範囲のY座標の最小値となり、点P2のY座標が監視したい範囲のY座標の最大値になるように係数を設定すればよい。たとえば、点P1のY座標が50cm、点P2のY座標が200cmとなるように係数を設定する。   Note that the vector V1 is multiplied by a factor T to set the points P1 and P2, but the Y coordinate of the point P1 becomes the minimum value of the Y coordinate of the range to be monitored, and the Y coordinate of the point P2 is the Y coordinate of the range of the monitoring target. What is necessary is just to set a coefficient so that it may become the maximum value. For example, the coefficient is set so that the Y coordinate of the point P1 is 50 cm and the Y coordinate of the point P2 is 200 cm.

制御部6は、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、撮像部2、操作部3、認証部4、記憶部5及び出力部7と接続される。制御部6は、記憶部5からプログラムを読み出して実行し、変化領域抽出手段60、変化領域合成手段61、物体検出手段62、追跡手段63、異常判定手段64等として機能する。制御部6は撮像部2から入力される画像を処理して対象物体の検出、対象物体の追跡、不正通行の検出等を行い、不正通行を検出すると異常信号を出力部7へ出力する。   The control unit 6 is configured using an arithmetic device such as a DSP (Digital Signal Processor) or MCU (Micro Control Unit), and is connected to the imaging unit 2, the operation unit 3, the authentication unit 4, the storage unit 5, and the output unit 7. The The control unit 6 reads the program from the storage unit 5 and executes it, and functions as a change region extraction unit 60, a change region synthesis unit 61, an object detection unit 62, a tracking unit 63, an abnormality determination unit 64, and the like. The control unit 6 processes the image input from the imaging unit 2 to perform detection of the target object, tracking of the target object, detection of unauthorized traffic, and the like, and outputs an abnormal signal to the output unit 7 when unauthorized traffic is detected.

変化領域抽出手段60は、撮像部2-1から入力された第1監視画像を背景画像50-1と比較して第1変化領域を抽出し、撮像部2-2から入力された第2監視画像を背景画像50-2と比較して第2変化領域を抽出し、抽出した各変化領域の情報を変化領域合成手段61へ出力する。   The change area extraction means 60 compares the first monitoring image input from the imaging unit 2-1 with the background image 50-1, extracts the first change area, and the second monitoring input from the imaging unit 2-2. A second change area is extracted by comparing the image with the background image 50-2, and information on each extracted change area is output to the change area combining means 61.

なお、変化領域抽出手段60は、変化領域の抽出に先立って入力された第1監視画像を用いて第1の背景画像50-1を生成して記憶部5に記憶させ、同じく入力された第2監視画像を用いて第2の背景画像50-2を生成して記憶部5に記憶させておく。具体的には、背景画像50が記憶されていない起動直後は、第1監視画像及び第2監視画像をそのまま背景画像50-1,50-2として記憶部5に記憶させ、その後は少なくとも対象物体が存在しないと判定された領域について第1監視画像及び第2監視画像により、記憶部5に記憶されている背景画像50-1,50-2を更新する。   The change area extraction means 60 generates the first background image 50-1 using the first monitoring image input prior to the extraction of the change area, stores the first background image 50-1, and stores the first background image 50-1 in the same manner. 2 A second background image 50-2 is generated using the monitoring image and stored in the storage unit 5. Specifically, immediately after the start-up in which the background image 50 is not stored, the first monitoring image and the second monitoring image are directly stored in the storage unit 5 as the background images 50-1 and 50-2, and thereafter at least the target object The background images 50-1 and 50-2 stored in the storage unit 5 are updated by the first monitoring image and the second monitoring image for the area determined to be absent.

変化領域抽出手段60は、第1監視画像が新たに入力されると、当該第1監視画像の各画素と背景画像50-1の対応する画素とを比較して、画素値が、予め設定された第1の閾値TH1を超えて相違する部分を第1変化領域として抽出する。具体的には、第1監視画像及び背景画像50-1の注目画素間で輝度値或いは色成分の差を算出し、算出された差が第1の閾値TH1以上である画素を検出し、検出された画素のうち互いの距離が所定範囲内である画素をまとめた領域を第1変化領域として抽出する。また、差の代わりに相関値を算出し、算出された相関値が第1の閾値TH1未満である画素を検出することによっても、第1変化領域を構成する画素を検出できる。   When the first monitoring image is newly input, the change area extraction unit 60 compares each pixel of the first monitoring image with the corresponding pixel of the background image 50-1, and a pixel value is set in advance. A portion that exceeds the first threshold TH1 and is different is extracted as a first change region. Specifically, a difference in luminance value or color component is calculated between the target pixels of the first monitoring image and the background image 50-1, and pixels whose calculated difference is equal to or greater than the first threshold value TH1 are detected and detected. A region in which the pixels whose distances are within a predetermined range is collected as the first change region. Further, by calculating the correlation value instead of the difference and detecting the pixel whose calculated correlation value is less than the first threshold value TH1, the pixels constituting the first change region can be detected.

同様に、変化領域抽出手段60は、第2監視画像が新たに入力されると、当該第2監視画像の各画素と背景画像50−2の対応する画素とを比較し、第1の閾値TH1を超えて相違する画素のまとまりを第2変化領域として抽出する。   Similarly, when the second monitoring image is newly input, the change area extraction unit 60 compares each pixel of the second monitoring image with the corresponding pixel of the background image 50-2, and the first threshold TH1. A group of pixels that are different from each other is extracted as a second change region.

第1の閾値TH1として、影や光により生じる背景の変化を誤抽出しない程度の値が事前の実験を通じて求められ、設定される。なお、第2変化領域を抽出する閾値は、第1の閾値TH1と同値でなくても、第1の閾値TH1と同じ方針にて定められた第3の閾値TH3であってもよい。   As the first threshold value TH1, a value that does not erroneously extract background changes caused by shadows or light is obtained and set through a prior experiment. Note that the threshold value for extracting the second change region may not be the same value as the first threshold value TH1, but may be the third threshold value TH3 determined by the same policy as the first threshold value TH1.

変化領域合成手段61は、第1変化領域、第2変化領域及び必要に応じて第1監視画像、第2監視画像が入力されると、まず、第2変化領域に包含される複数の注視点を射影規則51により射影して注視点射影像を求め、撮像部2-1の撮像面内の当該注視点射影像が形成される領域に応じた射影領域を求める。これにより第2変化領域は第1変化領域と同じ座標系の射影領域に対応付けられる。射影領域は、単に各注視点射影像が形成される領域の和として求めてもよい。この所定条件の詳細は後述する。次に、変化領域合成手段61は、求められた射影領域と第1変化領域とを合成し、合成された変化領域(以下、合成変化領域)を求め、その情報を物体検出手段62へ出力する。なお、合成変化領域を求める処理は、射影領域と第1変化領域との和領域を求める処理とすることができる。また、ノイズ除去及び整形を目的として、求めた和領域に所定回数の収縮・膨張処理を施してもよい。   When the first change area, the second change area, and, if necessary, the first monitoring image and the second monitoring image are input, the change area combining unit 61 first includes a plurality of gazing points included in the second change area. Is projected by the projection rule 51 to obtain a gazing point projection image, and a projection area corresponding to an area where the gazing point projection image is formed in the imaging plane of the imaging unit 2-1. Thus, the second change area is associated with a projection area having the same coordinate system as the first change area. The projection area may be obtained simply as the sum of the areas where the gazing point projection images are formed. Details of the predetermined condition will be described later. Next, the change region combining unit 61 combines the obtained projection region and the first change region, determines a combined change region (hereinafter referred to as a combined change region), and outputs the information to the object detection unit 62. . The process for obtaining the composite change area can be a process for obtaining the sum area of the projection area and the first change area. Further, for the purpose of noise removal and shaping, a predetermined number of contraction / expansion processes may be performed on the obtained sum area.

このように、第1変化領域に、第2変化領域に基づく射影領域を合成することで、第1監視画像からは抽出できない対象物体の一部又は全部を射影領域により補うことが可能となる。   In this way, by synthesizing the projection area based on the second change area with the first change area, it is possible to supplement part or all of the target object that cannot be extracted from the first monitoring image with the projection area.

ここで、第1監視画像及び第2監視画像が撮像される方向が互いに垂直をなしていることから、注視点を、第2変化領域のうち第1監視画像が撮像される方向に面する輪郭線又は輪郭線に沿った領域(以下、縁部領域)に限定することができる。こうすることで第2変化領域の全画素を射影せずに済むため処理を軽減できる。   Here, since the directions in which the first monitoring image and the second monitoring image are captured are perpendicular to each other, the contour that faces the gazing point in the direction in which the first monitoring image is captured in the second change region. It can limit to the area | region (henceforth edge area | region) along a line or an outline. By doing so, it is not necessary to project all the pixels in the second change area, so that the processing can be reduced.

上記輪郭線は、第2監視画像の座標系で第1監視画像の各画素が撮像される方向と同じ方向に走査して第2変化領域との最初の交点を検出することを、第1監視画像が撮像される方向と垂直な方向にずらしながら順次繰り返すことで抽出できる。図4は、当該輪郭線及び縁部領域の抽出処理を説明する模式図であり、図4(a)の斜線部90は壁カメラ画像から抽出された第2変化領域、太線は上記輪郭線を表す。また、上から下への各矢印は上記走査の様子を表しており、矢印の方向が走査方向、すなわち天井カメラの撮像方向である。なお、上記走査は計算を簡単化するために走査線を平行に設定しているが、第2監視画像の座標系において撮像部2-1と各画素を結ぶ線を走査線に設定すればより厳密な輪郭線の検出が可能である。縁部領域は輪郭線を所定画素数だけ内側へずらした領域として求める。図4(b)は図4(a)の第2変化領域の一部を拡大したものであり、各四角は画素を表し、斜線を施された画素は境界線から1画素だけ内側にずらした縁部領域を表している。   The above-mentioned contour line indicates that the first monitoring point is detected by scanning in the same direction as the direction in which each pixel of the first monitoring image is imaged in the coordinate system of the second monitoring image. Extraction can be performed by sequentially repeating while shifting in a direction perpendicular to the direction in which the image is captured. FIG. 4 is a schematic diagram for explaining the extraction processing of the contour line and the edge region. The hatched portion 90 in FIG. 4A is the second change region extracted from the wall camera image, and the bold line indicates the contour line. To express. Each arrow from the top to the bottom represents the above-described scanning state, and the direction of the arrow is the scanning direction, that is, the imaging direction of the ceiling camera. In the above scanning, the scanning lines are set in parallel to simplify the calculation. However, if the line connecting the imaging unit 2-1 and each pixel is set as a scanning line in the coordinate system of the second monitoring image, Strict contour detection is possible. The edge region is obtained as a region in which the contour line is shifted inward by a predetermined number of pixels. FIG. 4B is an enlarged view of a part of the second change area of FIG. 4A. Each square represents a pixel, and the hatched pixel is shifted inward by one pixel from the boundary line. It represents the edge region.

ここで、注視点射影像が形成される領域には背景に係る余分な部分が含まれている。そこで、次の2つの条件を満たす部分を射影領域の対象とする。第1の条件は画像特徴が同一であることであり、第2の条件は背景画像50-1に対する変化があることである。   Here, the area where the gazing point projection image is formed includes an extra portion related to the background. Therefore, a portion satisfying the following two conditions is set as a projection area target. The first condition is that the image features are the same, and the second condition is that there is a change with respect to the background image 50-1.

まず、第1の条件について説明する。第2変化領域において対象物体の画像特徴を抽出し、第1監視画像において、注視点射影像が形成される領域のうち抽出された画像特徴と同じ画像特徴を有する領域を射影領域とする。こうすることで、背景部分が除かれた的確な射影領域を合成の対象とすることができる。画像特徴は輝度値、色成分などとすればよい。   First, the first condition will be described. The image feature of the target object is extracted in the second change region, and the region having the same image feature as the extracted image feature in the region where the gazing point projection image is formed in the first monitoring image is set as the projection region. By doing so, an accurate projection area from which the background portion is removed can be set as a synthesis target. The image feature may be a luminance value, a color component, or the like.

具体的には、第2監視画像の画素のうち注視点として第2変化領域内に設定された画素の画像特徴を抽出する。第1監視画像において、注視点に対応する注視点射影像内(エピポーラ線上)に存在する画素のそれぞれについて当該画素の画像特徴と注視点から抽出された画像特徴との相違度(又は類似度)を算出し、算出された相違度が所定値未満(又は類似度が所定値以上)の画素を射影領域として選出する。   Specifically, an image feature of a pixel set in the second change area as a gazing point is extracted from the pixels of the second monitoring image. In the first monitoring image, for each pixel existing in the gazing point projection image (on the epipolar line) corresponding to the gazing point, the degree of difference (or similarity) between the image feature of the pixel and the image feature extracted from the gazing point And a pixel having a calculated difference of less than a predetermined value (or a similarity of at least a predetermined value) is selected as a projection region.

注視点毎に、ここで述べる第1の条件を適用することで合成対象とする画素の探索範囲が各注視点に対応するエピポーラ線上に限定されるので、画像特徴の共通性・類似性に基づいて注視点に対応付けられる第1監視画像の画素を好適な位置精度で求めることができる。   By applying the first condition described here for each gazing point, the search range of the pixels to be synthesized is limited to the epipolar line corresponding to each gazing point, and therefore based on the commonality / similarity of image features. Thus, the pixels of the first monitoring image associated with the gazing point can be obtained with suitable position accuracy.

ここで、画像の解像度には限りがあることから、第2監視画像において第2変化領域の輪郭線上に相当する画素では、背景と対象物体との輝度成分や色成分が混ざっていることが多い。そこで、注視点を抽出する領域を上述した縁部領域とする。こうすることで、背景の画像成分が混ざっていない画像特徴が確実に抽出される。また、注視点を、縁部領域に限定することは、第1監視画像及び第2監視画像が撮像される方向が互いに垂直をなしている場合に、対象物体の表面のうち第1監視画像及び第2監視画像の双方にて撮像されている領域のみから画像特徴を抽出することも意味する。この限定により第1監視画像にて撮像されていない対象物体の部分(図4(a)における脚の部分など)の画像特徴が抽出されない。以上のように、注視点を縁部領域に限定することで、背景部分を合成の対象とする誤りを防止することができる。   Here, since the resolution of the image is limited, the luminance component and the color component of the background and the target object are often mixed in the pixels corresponding to the outline of the second change area in the second monitoring image. . Therefore, the region from which the gazing point is extracted is defined as the edge region described above. In this way, image features that are not mixed with background image components are reliably extracted. Further, limiting the gazing point to the edge region means that when the first monitoring image and the second monitoring image are captured in directions perpendicular to each other, the first monitoring image and the surface of the target object It also means that image features are extracted from only the area captured in both of the second monitoring images. Due to this limitation, the image feature of the portion of the target object (such as the leg portion in FIG. 4A) not captured in the first monitoring image is not extracted. As described above, by limiting the gazing point to the edge region, it is possible to prevent an error in which the background portion is a synthesis target.

次に第2の条件について説明する。第2の条件では、注視点射影像が形成される領域のうち、第1監視画像と背景画像50-1との間で画素値が第2の閾値TH2を超えて相違する部分が射影領域とされる。ここで、第2の閾値TH2は、第1の閾値TH1より緩く(低く)設定される。具体的には、第1監視画像の各画素と背景画像50-1の対応する画素との間で輝度値或いは色成分の差を算出し、算出された差が第2の閾値TH2以上である画素を検出し、検出された画素からなる領域を射影領域として抽出することができる。また、差の代わりに相関値を算出し、算出された相関値が第2の閾値TH2未満である画素を検出することによっても射影領域を抽出することができる。   Next, the second condition will be described. Under the second condition, a portion of the region where the gazing point projection image is formed that differs from the first monitoring image and the background image 50-1 with a pixel value exceeding the second threshold value TH2 is a projection region. Is done. Here, the second threshold value TH2 is set looser (lower) than the first threshold value TH1. Specifically, a difference in luminance value or color component is calculated between each pixel of the first monitoring image and a corresponding pixel in the background image 50-1, and the calculated difference is equal to or greater than the second threshold value TH2. Pixels can be detected, and an area composed of the detected pixels can be extracted as a projection area. Further, it is also possible to extract the projection area by calculating a correlation value instead of the difference and detecting a pixel whose calculated correlation value is less than the second threshold value TH2.

第2の閾値TH2には、カメラ内部や伝送系にて生じるノイズによる変化を排除できる程度の値が事前の実験等に基づき設定される。例えば、第1監視画像及び第2監視画像の輝度値が256階調であり、輝度値の差により射影領域を抽出する場合、各閾値はTH1=20、TH2=5などと設定される。   The second threshold value TH2 is set to a value that can eliminate a change due to noise generated in the camera or in the transmission system based on a prior experiment or the like. For example, when the luminance values of the first monitoring image and the second monitoring image are 256 gradations and the projection area is extracted based on the difference between the luminance values, the threshold values are set as TH1 = 20, TH2 = 5, and the like.

これにより第1の閾値TH1との比較では厳しすぎて抽出できなかった対象物体の領域が第2の閾値TH2との比較では抽出される。一方、基準緩和による過剰な抽出に対しては、注視点射影像が形成される領域に含まれるという条件や上述した画像特徴の同一性の条件による抑制が働く。すなわち、上述の2つの条件に基づいて、注視点射影像が形成される領域のうち対象物体による変化が生じている部分が抽出され、背景部分が好適に除かれた射影領域を第1変化領域との合成の対象とすることができる。   As a result, the region of the target object that is too strict in comparison with the first threshold value TH1 and cannot be extracted is extracted in comparison with the second threshold value TH2. On the other hand, for excessive extraction due to standard relaxation, suppression by the condition that it is included in the region where the gazing point projection image is formed or the above-described condition of the identity of the image feature works. That is, based on the two conditions described above, a portion in which a change due to the target object is extracted from the region in which the gazing point projection image is formed, and the projection region in which the background portion is suitably removed is defined as the first change region. And can be the target of synthesis.

図5は、変化領域合成手段61により合成変化領域を求める処理の具体例を説明する模式図である。図5(a)の斜線部は壁カメラ画像から抽出された第2変化領域であり、その天井側に面する境界に沿った太線は縁部領域を表している。また、図5(b),(c)はそれぞれ天井カメラ画像、図5(d)は合成対象となる射影領域、図5(e)は天井カメラ画像から抽出された第1変化領域、図5(f)は合成変化領域をそれぞれ表している。   FIG. 5 is a schematic diagram for explaining a specific example of the process for obtaining the combined change region by the change region combining means 61. The shaded area in FIG. 5A is the second change area extracted from the wall camera image, and the bold line along the boundary facing the ceiling side represents the edge area. 5B and 5C are respectively a ceiling camera image, FIG. 5D is a projection area to be synthesized, FIG. 5E is a first change area extracted from the ceiling camera image, and FIG. (F) represents the composite change region.

縁部領域内の1つの画素92を射影し、注視点射影像としてエピポーラ線93を得る。画素92の輝度値Iwを画像特徴として抽出し、エピポーラ線93上の各画素について(1)式及び(2)式を満たす画素を選出し、領域94を得る。ここで、Ic(x,y)は天井カメラ画像の輝度値、Icb(x,y)は背景画像50-1の輝度値である。また、TH3は画像特徴が同一であるとみなせる範囲を規定するしきい値であり、実験等を通じて予め求められ、設定される。
|Ic(x,y)−Iw|<TH3 ………(1)
|Ic(x,y)−Icb(x,y)|≧TH2 ………(2)
One pixel 92 in the edge region is projected to obtain an epipolar line 93 as a gazing point projection image. The luminance value Iw of the pixel 92 is extracted as an image feature, and a pixel that satisfies the expressions (1) and (2) is selected for each pixel on the epipolar line 93 to obtain a region 94. Here, Ic (x, y) is the luminance value of the ceiling camera image, and Icb (x, y) is the luminance value of the background image 50-1. TH3 is a threshold value that defines a range in which the image features can be regarded as the same, and is obtained and set in advance through an experiment or the like.
| Ic (x, y) -Iw | <TH3 (1)
| Ic (x, y) -Icb (x, y) | ≧ TH2 (2)

射影と(1)式及び(2)式による画素の選出とを縁部領域の各画素に対して繰り返し行うと、合成対象とする射影領域95が得られる。   When the projection and the selection of pixels according to equations (1) and (2) are repeated for each pixel in the edge region, a projection region 95 to be synthesized is obtained.

一方、図5に示す例では、対象物体の人物は床の色と似た色の服を着用し、図5(e)に示すように、第1変化領域96は服の大部分について抽出され損ねたものとなっている。そのため、第1変化領域96は、大きさ、形状ともに対象物体としての基準を満たさない。しかしながら、射影領域95を第1変化領域96に合成して得られる合成変化領域97では、服の大部分が補われたものとなり、大きさ、形状ともに対象物体としての基準を満たし、対象物体として検出することができる。   On the other hand, in the example shown in FIG. 5, the person of the target object wears clothes having a color similar to the color of the floor, and as shown in FIG. 5 (e), the first change area 96 is extracted for most of the clothes. It has been damaged. For this reason, the first change region 96 does not satisfy the reference as the target object in both size and shape. However, in the combined change area 97 obtained by combining the projection area 95 with the first change area 96, most of the clothes are supplemented, and both the size and the shape satisfy the standard as the target object, Can be detected.

物体検出手段62は、合成変化領域が入力されると、当該領域に基づいて対象物体を検出し、対象物体が検出された領域の情報を追跡手段63へ出力する。具体的には、合成変化領域の大きさ、形状の一方又は両方を求めて予め定めた基準と比較し、基準を満たす合成変化領域に対象物体の存在を検出する。合成変化領域の形状に関しては例えば、合成変化領域の縦横比を形状を表す値として求め、対象物体の縦横比として許容できる範囲を形状の基準として設定することができる。また、合成変化領域の大きさに関しては例えば、合成変化領域を囲む外接矩形の面積或いは合成変化領域の画素数を、大きさを表す値として求め、対象物体の面積或いは画素数として許容できる範囲を大きさの基準として設定することができる。   When the composite change region is input, the object detection unit 62 detects the target object based on the region, and outputs information on the region where the target object is detected to the tracking unit 63. Specifically, one or both of the size and shape of the composite change area is obtained and compared with a predetermined reference, and the presence of the target object is detected in the composite change area that satisfies the reference. With respect to the shape of the composite change area, for example, the aspect ratio of the composite change area can be obtained as a value representing the shape, and an allowable range for the aspect ratio of the target object can be set as a reference for the shape. In addition, regarding the size of the composite change area, for example, the area of a circumscribed rectangle surrounding the composite change area or the number of pixels of the composite change area is obtained as a value representing the size, and an allowable range as the area or the number of pixels of the target object is obtained. It can be set as a standard for size.

以上のように、第1監視画像から抽出された第1変化領域に、第2監視画像から抽出された第2変化領域の射影領域を合成することで、第1監視画像から抽出できない対象物体の一部又は全部が射影領域により補われるので、背景と似た対象物体をも好適に検出できる。   As described above, by combining the projection area of the second change area extracted from the second monitoring image with the first change area extracted from the first monitoring image, the target object that cannot be extracted from the first monitoring image is synthesized. Since a part or the whole is supplemented by the projection area, a target object similar to the background can also be suitably detected.

追跡手段63は、検出された対象物体の領域の情報が入力されると、第1監視画像における当該領域について色ヒストグラム等の特徴量を演算し、前時刻に演算され追跡物体ごとに記憶部5に記憶されている特徴量との類似度を算出し、当該類似度が所定値以上になることに基づいて現時刻と前時刻との間での同一物体を同定し、同定された対象物体の領域の位置を現時刻における追跡物体の位置(現在位置)と判定する。   When the information of the detected area of the target object is input, the tracking unit 63 calculates a feature amount such as a color histogram for the area in the first monitoring image, and calculates the storage unit 5 for each tracking object calculated at the previous time. The similarity with the feature quantity stored in the is calculated, and the same object is identified between the current time and the previous time based on the similarity being equal to or greater than a predetermined value. The position of the area is determined as the position of the tracking object at the current time (current position).

こうして、前後する時刻に対象物体が検出された領域の画像情報を比較して当該対象物体の位置を追跡する。   Thus, the position of the target object is tracked by comparing the image information of the areas where the target object is detected at the preceding and following times.

追跡手段63は、判定された現時刻の位置を追跡物体ごとに記憶部5に追加記憶する。その結果、追跡物体ごとに移動軌跡(位置の履歴)が蓄積される。また、移動軌跡に「認証者」、「非認証者」を識別する属性を対応付けて管理する。ちなみに、属性の初期値は「非認証者」とする。現時刻において認証部4から認証信号が入力されているときに、現在位置が認証部4の位置に最も近い追跡物体を検出して、検出された追跡物体の移動軌跡の属性を「認証者」に変更する。   The tracking unit 63 additionally stores the determined position at the current time in the storage unit 5 for each tracking object. As a result, the movement trajectory (position history) is accumulated for each tracking object. In addition, an attribute that identifies “authenticator” and “non-authenticated person” is associated with the movement locus and managed. Incidentally, the initial value of the attribute is “non-authenticated”. When an authentication signal is input from the authentication unit 4 at the current time, the tracking object whose current position is closest to the position of the authentication unit 4 is detected, and the attribute of the detected movement trajectory of the tracking object is set to “authenticator”. Change to

異常判定手段64は、不正通行の異常の有無を判定し、異常ありと判定した場合は異常に応じた出力を行う。現時刻の位置が出入口領域の中、且つ属性が「非認証者」である移動軌跡が記憶部5に記憶されているか否かを確認し、該当する移動軌跡が記憶されていれば不正通行の異常ありと判定して異常信号を出力部7へ出力する。   The abnormality determination unit 64 determines whether or not there is an abnormality in illegal traffic. If it is determined that there is an abnormality, the abnormality determination unit 64 performs output according to the abnormality. It is confirmed whether or not a movement trajectory whose current time position is in the entrance / exit area and the attribute is “non-authenticated” is stored in the storage unit 5. It is determined that there is an abnormality, and an abnormality signal is output to the output unit 7.

出力部7は、異常信号が入力されると不正通行を警告する警告音を出力するスピーカー、ブザー等の音響出力手段、同じく異常信号が入力されると通信回線を介して不正通行を通報する通報信号をセンタ装置等の外部機器へ送出する通信手段を含んでなる。   The output unit 7 is a speaker that outputs a warning sound that warns unauthorized traffic when an abnormal signal is input, a sound output means such as a buzzer, and a report that reports unauthorized traffic via a communication line when an abnormal signal is input. Communication means for sending a signal to an external device such as a center device is included.

次に、不正通行検出装置1の動作を説明する。図6は、当該動作の概略の処理フロー図である。監視空間が無人であることを確認した管理者が電源を投入すると各部、各手段が動作を始め、所定の初期化が行われる(S10)。   Next, the operation of the unauthorized traffic detection device 1 will be described. FIG. 6 is a schematic process flow diagram of the operation. When the administrator who has confirmed that the monitoring space is unmanned, the respective units and means start operating and predetermined initialization is performed (S10).

続いて制御部6は、射影規則51が記憶部5に記憶されているか否か、すなわち射影規則51の一部であるカメラパラメータが記憶されているかを確認し(S15)、記憶されていなければ、操作部3から管理者によるカメラパラメータの入力を受け付け、射影規則51をカメラパラメータにより補完した上で記憶部5に記憶させる(S20)。   Subsequently, the control unit 6 checks whether or not the projection rule 51 is stored in the storage unit 5, that is, whether or not a camera parameter that is a part of the projection rule 51 is stored (S15). Then, the camera parameter input by the administrator is received from the operation unit 3, and the projection rule 51 is complemented by the camera parameter and stored in the storage unit 5 (S20).

その後、撮像部2から制御部6へ新たな画像が入力されるたびに、以下に述べるS25〜S60の処理が繰り返される。   Thereafter, each time a new image is input from the imaging unit 2 to the control unit 6, the processes of S25 to S60 described below are repeated.

まず、制御部6は天井カメラが新たに撮像した第1監視画像及び壁カメラが新たに撮像した第2監視画像を取得すると(S25)、背景画像50が記憶部5に記憶されているか否かを確認する(S30)。起動直後であって背景画像50が記憶されていなければ(S30にてNO)、制御部6の変化領域抽出手段60は、第1監視画像を背景画像50-1として記憶部5に記憶させ、第2監視画像を背景画像50-2として記憶部5に記憶させて背景画像50を初期化する(S35)。初期化後、処理はS25へ戻される。   First, when the control unit 6 acquires the first monitoring image newly captured by the ceiling camera and the second monitoring image newly captured by the wall camera (S25), whether or not the background image 50 is stored in the storage unit 5 is determined. Is confirmed (S30). If the background image 50 is not stored immediately after activation (NO in S30), the change area extraction means 60 of the control unit 6 stores the first monitoring image in the storage unit 5 as the background image 50-1, The second monitoring image is stored in the storage unit 5 as the background image 50-2 and the background image 50 is initialized (S35). After initialization, the process returns to S25.

一方、背景画像50が記憶されていれば(S30にてYES)、処理はS40へ進み対象物体検出処理が行われる。対象物体検出処理の詳細は後述する。   On the other hand, if background image 50 is stored (YES in S30), the process proceeds to S40 and the target object detection process is performed. Details of the target object detection process will be described later.

続くS45にて、制御部6は対象物体検出処理の結果を参照して対象物体が検出されたか否かを確認する。対象物体が検出されていなければ(S45にてNO)、制御部6の変化領域抽出手段60は、第1監視画像により背景画像50-1を更新し、第2監視画像により背景画像50-2を更新する(S50)。更新後、処理はS25へ戻される。   In subsequent S45, the control unit 6 refers to the result of the target object detection process to check whether or not the target object has been detected. If the target object is not detected (NO in S45), the change area extraction means 60 of the control unit 6 updates the background image 50-1 with the first monitoring image and the background image 50-2 with the second monitoring image. Is updated (S50). After updating, the process returns to S25.

一方、対象物体が検出されたのであれば(S45にてYES)、制御部6の追跡手段63は、対象物体の追跡処理を行う(S55)。   On the other hand, if the target object is detected (YES in S45), tracking unit 63 of control unit 6 performs the target object tracking process (S55).

すなわち制御部6の追跡手段63は、検出された対象物体の領域の特徴量と記憶部5に記憶されている追跡物体の特徴量とを比較することにより検出された対象物体が追跡物体のいずれであるかを同定し、各追跡物体の現在位置を判定する。そして、判定した現在位置により追跡物体の移動軌跡を更新し、検出された対象物体の特徴量により追跡物体の特徴量を更新する。   That is, the tracking unit 63 of the control unit 6 compares the detected feature quantity of the target object region with the feature quantity of the tracking object stored in the storage unit 5 to determine which of the tracking objects is the target object detected. And the current position of each tracking object is determined. Then, the movement trajectory of the tracking object is updated with the determined current position, and the feature amount of the tracking object is updated with the detected feature amount of the target object.

また、制御部6の追跡手段63は、認証部4からの認証信号の有無を確認し、認証信号が受信されていれば現在位置が認証部4に最も近い追跡物体の属性を「認証者」に変更する。   Further, the tracking unit 63 of the control unit 6 confirms the presence or absence of an authentication signal from the authentication unit 4. If the authentication signal is received, the attribute of the tracking object whose current position is closest to the authentication unit 4 is determined as “authenticator”. Change to

なお、いずれの追跡物体とも同定されなかった対象物体は新規の追跡物体と判定し、当該対象物体の現在位置、特徴量及び属性の初期値「非認証者」を新たに記憶部5に記憶させる。また、いずれの対象物体とも同定されなかった追跡物体は視野外に移動したものと判定し、当該追跡物体の移動軌跡、特徴量及び属性を記憶部5から消去する。   Note that a target object that has not been identified as any tracking object is determined as a new tracking object, and the initial value “non-authenticated person” of the current position, feature amount, and attribute of the target object is newly stored in the storage unit 5. . Further, it is determined that a tracking object that has not been identified as any target object has moved out of the field of view, and the movement locus, feature amount, and attribute of the tracking object are deleted from the storage unit 5.

こうして追跡が進捗すると、制御部6の異常判定手段64は、記憶部5に記憶されている移動軌跡を分析して不正通行者の有無を判定する(S60)。不正通行者の存在が判定されると(S60にてYES)、制御部6の異常判定手段64は出力部7へ異常信号を出力し、出力部7は警告音を出力して不正通行者を威嚇するとともに、センタ装置への通報信号を送信する(S65)。通報信号を受信したセンタ装置は異常の報知や監視画像の表示等を行い、これを受けた警備員は対処行動を行う。   When the tracking progresses in this way, the abnormality determination unit 64 of the control unit 6 analyzes the movement trajectory stored in the storage unit 5 and determines the presence or absence of an unauthorized passerby (S60). If it is determined that there is an unauthorized passerby (YES in S60), the abnormality determining means 64 of the control unit 6 outputs an abnormal signal to the output unit 7, and the output unit 7 outputs a warning sound to identify the unauthorized passerby. While threatening, a notification signal to the center device is transmitted (S65). The center device that has received the notification signal performs notification of abnormality, display of a monitoring image, and the like, and a guard who receives the notification performs a coping action.

以上の処理を終えると、制御部6は処理をS25へ戻す。図7は、対象物体の検出処理S40の概略の処理フロー図である。図7を参照して、対象物体の検出処理を説明する。   When the above process is completed, the control unit 6 returns the process to S25. FIG. 7 is a schematic process flow diagram of the target object detection process S40. The target object detection process will be described with reference to FIG.

まず、制御部6の変化領域抽出手段60は、第1監視画像と背景画像50-1とを比較して第1変化領域を抽出し、第2監視画像と背景画像50-2を比較して第2変化領域を抽出する(S401)。   First, the change area extraction means 60 of the control unit 6 compares the first monitoring image with the background image 50-1, extracts the first change area, and compares the second monitoring image with the background image 50-2. A second change area is extracted (S401).

以下、第1変化領域に第2変化領域を合成する処理となる。制御部6の変化領域合成手段61は、第2変化領域から縁部領域を検出し(S402)、検出した縁部領域内の画素を順次、注視点に設定し(S403)、当該注視点についてS403〜S411のループ処理を行う。制御部6の変化領域合成手段61は、注視点の輝度値Iwを抽出し(S404)、注視点を射影規則51により射影して注視点射影像(エピポーラ線)を求める(S405)。   Hereinafter, the process of combining the second change area with the first change area is performed. The change area combining means 61 of the control unit 6 detects an edge area from the second change area (S402), sequentially sets the pixels in the detected edge area as a gazing point (S403), and about the gazing point. The loop processing of S403 to S411 is performed. The change area synthesis means 61 of the control unit 6 extracts the luminance value Iw of the gazing point (S404), and projects the gazing point according to the projection rule 51 to obtain a gazing point projection image (epipolar line) (S405).

続いて制御部6の変化領域合成手段61は、求めた注視点射影像内の画素を順次、処理対象に設定し(S406)、当該処理対象の画素から合成対象の画素を選別するためにS406〜S410のループ処理を行う。   Subsequently, the change area composing unit 61 of the control unit 6 sequentially sets the pixels in the obtained gazing point projection image as processing targets (S406), and selects the compositing target pixels from the processing target pixels. The loop process of S410 is performed.

制御部6の変化領域合成手段61は、処理対象の画素の輝度値Ic(x,y)と注視点の輝度値Iwとが(1)式を満たしているか否かを判定し(S407)、処理対象の画素の輝度値Ic(x,y)と対応する背景画像50-1の画素の輝度値Icb(x,y)との差|Ic(x,y)−Icb(x,y)|が(2)式を満たしているか否かを判定する(S408)。処理対象の画素が(1)式,(2)式を満たしていれば(S407及びS408にてYES)、当該画素を合成対象に設定する(S409)。   The change area synthesis means 61 of the control unit 6 determines whether or not the luminance value Ic (x, y) of the pixel to be processed and the luminance value Iw of the gazing point satisfy the expression (1) (S407). Difference | Ic (x, y) -Icb (x, y) | between the luminance value Ic (x, y) of the pixel to be processed and the luminance value Icb (x, y) of the corresponding pixel in the background image 50-1 Whether or not satisfies the expression (2) is determined (S408). If the pixel to be processed satisfies the expressions (1) and (2) (YES in S407 and S408), the pixel is set as a composition target (S409).

注視点射影像内の全画素について処理が終わると(S410にてYES)、縁部領域内の1つの注視点に対応する射影領域の部分的な選別が終了し、縁部領域内の全画素について処理が終わると(S411にてYES)、射影領域全体の抽出が終了する。   When the processing is completed for all the pixels in the gazing point projection image (YES in S410), partial selection of the projection area corresponding to one gazing point in the edge area is completed, and all the pixels in the edge area are finished. When the process is finished (YES in S411), the extraction of the entire projection area is finished.

続いて制御部6の変化領域合成手段61は、こうして得られた射影領域をS401にて抽出された第1変化領域に合成して合成変化領域を算出する(S412)。   Subsequently, the change area synthesizing unit 61 of the control unit 6 calculates the composite change area by synthesizing the projection area thus obtained with the first change area extracted in S401 (S412).

合成領域は少なくとも監視空間に存在する対象物体の数だけ算出される。制御部6の物体検出手段62は各合成領域の形状及び大きさが基準の範囲内であるかを確認し、基準の範囲内であれば当該合成変化領域は対象物体によるものであると判定する(S413)。   The composite area is calculated by at least the number of target objects existing in the monitoring space. The object detection means 62 of the control unit 6 confirms whether the shape and size of each composite area is within the reference range, and if within the reference range, determines that the composite change area is due to the target object. (S413).

以上の処理を終えると、制御部6は処理を図6のS45へ戻す。   When the above process is completed, the control unit 6 returns the process to S45 of FIG.

さて、上述の実施形態では対象物体を人としたが、対象物体はこれに限られず、種々の立体物に適用可能である。   In the above-described embodiment, the target object is a person, but the target object is not limited to this, and can be applied to various three-dimensional objects.

また、壁カメラと天井カメラとの光軸が成す角が垂直でない場合にも、お互いの背景が異なり、かつ成す角が90度より小さい場合ならばこの技術は好適に適用可能である。このような場合、対象物体の表面で、両方のカメラから共通に見える部分が大きくなる。そこで、第2変化領域内に設定する注視点を縁部領域の画素のみに限定せず、さらに内側の領域の画素にも設定することがより好適である。   Further, even when the angle formed by the optical axis of the wall camera and the ceiling camera is not vertical, this technique can be suitably applied if the backgrounds are different from each other and the formed angle is smaller than 90 degrees. In such a case, the portion of the surface of the target object that looks common to both cameras becomes large. Therefore, it is more preferable to set the gazing point set in the second change area not only to the pixels in the edge area but also to the pixels in the inner area.

また、射影規則51は予め算出した注視点と注視点射影像の座標との対応関係を記述したテーブルとして記憶してもよい。   Further, the projection rule 51 may be stored as a table describing the correspondence relationship between the gaze point calculated in advance and the coordinates of the gaze point projection image.

本発明の適用例として、検出された対象物体を追跡し、追跡結果に応じて異常を判定する不正通行検出装置1の例を示したが、追跡を行わずに、対象物体が検出されたときに異常と判定して異常信号を出力する侵入検知装置などにも本発明を適用することができる。   As an application example of the present invention, an example of the unauthorized traffic detection device 1 that tracks a detected target object and determines an abnormality according to the tracking result has been shown, but when the target object is detected without tracking The present invention can also be applied to an intrusion detection device or the like that outputs an abnormal signal by determining that an abnormality has occurred.

なお、処理S407又はS408のいずれか一方を省略しても射影領域を抽出することは可能である。   Note that the projection area can be extracted even if either one of the processes S407 and S408 is omitted.

また、図8は、本発明を適用して人を検出する他の処理例を説明する模式図である。図8(a)は第2変化領域、図8(b)は第1変化領域を示しており、ここで示す例は、壁が肌の色と似ていて第2変化領域100において胴部(斜線領域)は抽出できたが頭部(点線で囲む領域)を抽出できず、一方、床が服の色と似ていて第1変化領域101において頭部(斜線領域)は抽出できたが胴部(点線で囲む領域)を抽出できなかった場合である。図8(c)〜(e)はこの場合における他の処理例を説明する図である。   FIG. 8 is a schematic diagram for explaining another example of processing for detecting a person by applying the present invention. FIG. 8A shows the second change region, and FIG. 8B shows the first change region. In the example shown here, the wall is similar to the color of the skin, and the body ( The head (the area surrounded by the dotted line) could not be extracted, while the floor was similar to the color of the clothes and the head (the hatched area) could be extracted in the first change area 101, but the torso This is a case where a part (area surrounded by a dotted line) could not be extracted. FIGS. 8C to 8E are diagrams for explaining other processing examples in this case.

図8(c)は、処理S406からS410の処理に代えて用いることができる合成対象の算出処理を説明する図である。当該処理では、第1変化領域101のY座標の最大値Ymax及び最小値Yminを求め、注視点射影像が形成される領域102からY座標がYmin未満の領域とY座標がYmaxを超える領域とを削除して得られる領域を、射影領域として算出する。これにより射影領域と第1変化領域とを合成した合成変化領域として図8(c)の斜線領域が得られる。   FIG. 8C is a diagram for explaining a calculation process of a synthesis target that can be used in place of the processes in steps S406 to S410. In this processing, the maximum value Ymax and the minimum value Ymin of the Y coordinate of the first change area 101 are obtained, and the area where the Y coordinate is less than Ymin and the area where the Y coordinate exceeds Ymax from the area 102 where the gazing point projection image is formed. An area obtained by deleting is calculated as a projection area. As a result, a hatched area in FIG. 8C is obtained as a combined change area obtained by combining the projection area and the first change area.

図8(d),(e)は、処理S406からS410の処理に代えて用いることができる射影の算出処理及び物体検出処理を説明する模式図である。図8(d),(e)に係る処理は、射影の算出処理として処理S406からS410を行わず、処理S405にて算出した注視点射影像が存在する領域をそのまま射影領域とする。すなわち、図8(d),(e)に係る処理では、処理S412にて、領域102と第1変化領域101とが合成され、合成変化領域が求められる。この合成変化領域は、例えば、対象物体の追跡を行わない侵入者検知に用いることができる。図8(d)は、この合成変化領域から対象物体の存在を検出する処理(S413)の1つの例を示しており、図8(e)はもう1つの例を示している。   FIGS. 8D and 8E are schematic diagrams for explaining projection calculation processing and object detection processing that can be used in place of the processing in steps S406 to S410. In the processes according to FIGS. 8D and 8E, processes S406 to S410 are not performed as the projection calculation process, and the area where the gazing point projection image calculated in process S405 exists is directly used as the projection area. That is, in the processes according to FIGS. 8D and 8E, the area 102 and the first change area 101 are combined in the process S412 to obtain a combined change area. This composite change area can be used, for example, for intruder detection without tracking the target object. FIG. 8D shows one example of the process (S413) for detecting the presence of the target object from this composite change area, and FIG. 8E shows another example.

図8(d)に示す処理では、第1監視画像の座標系における第2の撮像部2-2の位置から合成変化領域を見込む角θiを算出し、θiが予め定めた値(対象物体の最小幅に相当)を超える場合に対象物体が存在すると判定する。   In the process shown in FIG. 8D, an angle θi for looking at the combined change area is calculated from the position of the second imaging unit 2-2 in the coordinate system of the first monitoring image, and θi is a predetermined value (the target object It is determined that the target object is present if it exceeds the minimum width.

図8(e)に示す処理では、合成変化領域の幅W1を算出し、算出された幅W1が予め定めた対象物体の最小幅を超える場合に対象物体が存在すると判定する。幅W1は以下のようにして算出する。まず、第2監視画像の座標系における第2変化領域の下端(足元)の座標を求め、当該座標と第2の撮像部2-2のカメラパラメータを用いて、第2の撮像部2-2から対象物体までの距離dwを算出する。次に監視空間の三次元座標系において、第2の撮像部2-2の位置からの距離がdwであり、2つの撮像部の光軸のいずれとも直交する直線を求め、求めた直線を第1の撮像部2-1の座標系に射影し、直線Laを算出する。直線Laと合成変化領域が重なる長さを求め、これを幅W1とする。   In the process shown in FIG. 8E, the width W1 of the composite change region is calculated, and it is determined that the target object exists when the calculated width W1 exceeds the predetermined minimum width of the target object. The width W1 is calculated as follows. First, the coordinates of the lower end (foot) of the second change area in the coordinate system of the second monitoring image are obtained, and the second imaging unit 2-2 is obtained using the coordinates and the camera parameters of the second imaging unit 2-2. The distance dw from the target object is calculated. Next, in the three-dimensional coordinate system of the monitoring space, a distance from the position of the second imaging unit 2-2 is dw, and a straight line that is orthogonal to both of the optical axes of the two imaging units is obtained. A straight line La is calculated by projecting onto the coordinate system of one imaging unit 2-1. A length in which the straight line La and the composite change region overlap is obtained, and this is defined as a width W1.

本発明の実施形態に係る不正通行検出装置の概略のブロック構成図である。1 is a schematic block diagram of an unauthorized traffic detection device according to an embodiment of the present invention. 本装置における2つの撮像部の配置を示す模式図である。It is a schematic diagram which shows arrangement | positioning of the two imaging parts in this apparatus. 壁カメラ画像、天井カメラ画像、及び監視空間の三次元座標の関係を示す模式図である。It is a schematic diagram which shows the relationship of the three-dimensional coordinate of a wall camera image, a ceiling camera image, and a monitoring space. 輪郭線及び縁部領域の抽出処理を説明する模式図である。It is a schematic diagram explaining the extraction process of an outline and an edge area | region. 変化領域合成手段により合成変化領域を求める処理の具体例を説明する模式図である。It is a schematic diagram explaining the specific example of the process which calculates | requires a synthetic | combination change area | region by a change area synthetic | combination means. 不正通行検出装置の動作の概略の処理フロー図である。It is a processing flow figure of an outline of operation of an unauthorized traffic detection device. 対象物体の検出処理の概略の処理フロー図である。FIG. 10 is a schematic process flow diagram of target object detection processing. 本発明を適用して人を検出する他の処理例を説明する模式図である。It is a schematic diagram explaining the other process example which detects a person by applying this invention.

符号の説明Explanation of symbols

1 不正通行検出装置、2 撮像部、3 操作部、4 認証部、5 記憶部、6 制御部、7 出力部、50 背景画像、51 射影規則、60 変化領域抽出手段、61 変化領域合成手段、62 物体検出手段、63 追跡手段、64 異常判定手段。   DESCRIPTION OF SYMBOLS 1 Unauthorized traffic detection apparatus, 2 Imaging part, 3 Operation part, 4 Authentication part, 5 Storage part, 6 Control part, 7 Output part, 50 Background image, 51 Projection rule, 60 Change area extraction means, 61 Change area synthesis means, 62 object detection means, 63 tracking means, 64 abnormality determination means.

Claims (5)

第1背景画像が得られる視点から監視空間を撮像し第1監視画像を出力する第1の撮像部と、
前記第1背景画像とは異なる第2背景画像が得られる視点から前記監視空間を撮像し第2監視画像を出力する第2の撮像部と、
前記第1背景画像、前記第2背景画像及び、前記第2の撮像部の撮像面上の任意の注視点に対し、当該注視点を通る投影線を前記第1の撮像部の撮像面に射影した注視点射影像を対応づける対応規則を記憶する記憶部と、
前記第1監視画像を前記第1背景画像と比較して第1変化領域を抽出し、また、前記第2監視画像を前記第2背景画像と比較して第2変化領域を抽出する変化領域抽出手段と、
前記対応規則により、前記第2変化領域に包含される前記注視点についての前記注視点射影像を求め、前記第1の撮像部の撮像面内の当該注視点射影像が形成される領域に応じた射影領域と、前記第1変化領域とを合成し、合成変化領域を求める変化領域合成手段と、
前記合成変化領域に基づいて前記監視空間における対象物体を検出する物体検出手段と、
を有することを特徴とする画像監視装置。
A first imaging unit that images the monitoring space from a viewpoint from which the first background image is obtained and outputs the first monitoring image;
A second imaging unit that images the monitoring space from a viewpoint from which a second background image different from the first background image is obtained, and outputs a second monitoring image;
Projecting a projection line passing through the gazing point onto the imaging surface of the first imaging unit with respect to the first background image, the second background image, and an arbitrary gazing point on the imaging surface of the second imaging unit. A storage unit for storing a correspondence rule for associating the gazing point projection image,
A first change area is extracted by comparing the first monitoring image with the first background image, and a second change area is extracted by comparing the second monitoring image with the second background image. Means,
According to the correspondence rule, the gazing point projection image for the gazing point included in the second change area is obtained, and the gazing point projection image in the imaging plane of the first imaging unit is formed according to the area formed. Change area combining means for combining the projected area and the first change area to obtain a combined change area;
Object detection means for detecting a target object in the monitoring space based on the composite change region;
An image monitoring apparatus comprising:
請求項1に記載の画像監視装置において、
前記変化領域合成手段は、前記第2変化領域において所定の画像特徴を抽出し、前記注視点射影像が形成される領域のうち前記画像特徴を有する部分を前記射影領域として前記合成変化領域を求めること、を特徴とする画像監視装置。
The image monitoring apparatus according to claim 1,
The change area synthesizing unit extracts a predetermined image feature in the second change area, and obtains the synthesized change area using the portion having the image feature as the projection area in an area where the gazing point projection image is formed. An image monitoring apparatus characterized by that.
請求項2に記載の画像監視装置において、
前記両撮像部の撮像方向は、前記対象物体の表面のうちに前記第1監視画像及び前記第2監視画像に共通して現れる部分を有するように設定され、
前記変化領域合成手段は、前記第2変化領域の輪郭のうち前記第1の撮像部に対して表側にある部分に沿って設けられた縁部領域にて前記画像特徴を抽出すること、
を特徴とする画像監視装置。
The image monitoring apparatus according to claim 2,
The imaging directions of the two imaging units are set so as to have portions that appear in common in the first monitoring image and the second monitoring image on the surface of the target object,
The change area synthesizing unit extracts the image feature in an edge area provided along a portion of the outline of the second change area on the front side with respect to the first imaging unit;
An image monitoring apparatus characterized by the above.
請求項1から請求項3のいずれか1つに記載の画像監視装置において、
前記変化領域抽出手段は、画素値が第1基準値を超えて相違する部分を前記第1変化領域として抽出し、
前記変化領域合成手段は、前記第1基準値未満に設定される第2基準値を用い、前記注視点射影像が形成される領域のうち、前記第1監視画像と前記第1背景画像との間で画素値が前記第2基準値を超えて相違する部分を前記射影領域とすること、
を特徴とする画像監視装置。
The image monitoring apparatus according to any one of claims 1 to 3,
The change area extraction unit extracts a portion where the pixel value is different from the first reference value as the first change area,
The change area synthesis unit uses a second reference value set to be less than the first reference value, and includes the first monitoring image and the first background image in an area where the gazing point projection image is formed. A portion where the pixel value differs between the second reference value and the projection region,
An image monitoring apparatus characterized by the above.
請求項1から請求項4のいずれか1つに記載の画像監視装置において、
所定の物体移動面内での前記対象物体の位置を追跡する追跡手段を有し、
前記第1の撮像部は、撮像方向を前記物体移動面に向けて設定され、
前記両撮像部は、前記第1監視画像及び前記第2監視画像を時系列に従って順次撮像し、
前記追跡手段は、前記物体検出手段により前後する時刻にて前記対象物体が検出された領域の画像情報を比較し、その比較結果に基づいて当該前後する時刻間での前記対象物体の同定を行うこと、
を特徴とする画像監視装置。
The image monitoring apparatus according to any one of claims 1 to 4,
Tracking means for tracking the position of the target object in a predetermined object movement plane;
The first imaging unit is set with an imaging direction facing the object moving plane,
The imaging units sequentially capture the first monitoring image and the second monitoring image in time series,
The tracking unit compares the image information of the area where the target object is detected at the time before and after the object detection unit, and identifies the target object between the time before and after based on the comparison result. thing,
An image monitoring apparatus characterized by the above.
JP2008206898A 2008-08-11 2008-08-11 Image monitoring device Expired - Fee Related JP5101429B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008206898A JP5101429B2 (en) 2008-08-11 2008-08-11 Image monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008206898A JP5101429B2 (en) 2008-08-11 2008-08-11 Image monitoring device

Publications (2)

Publication Number Publication Date
JP2010045501A JP2010045501A (en) 2010-02-25
JP5101429B2 true JP5101429B2 (en) 2012-12-19

Family

ID=42016539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008206898A Expired - Fee Related JP5101429B2 (en) 2008-08-11 2008-08-11 Image monitoring device

Country Status (1)

Country Link
JP (1) JP5101429B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5177461B2 (en) 2011-07-11 2013-04-03 オプテックス株式会社 Traffic monitoring device
JP5879877B2 (en) * 2011-09-28 2016-03-08 沖電気工業株式会社 Image processing apparatus, image processing method, program, and image processing system
JP6033431B2 (en) * 2013-06-26 2016-11-30 楽天株式会社 Information processing method, information processing apparatus, and information processing program
WO2016208066A1 (en) * 2015-06-26 2016-12-29 三菱電機株式会社 Monitoring apparatus
JP6332703B2 (en) * 2016-02-29 2018-05-30 セコム株式会社 Space recognition device
JP7085812B2 (en) * 2017-08-02 2022-06-17 キヤノン株式会社 Image processing device and its control method
WO2023053229A1 (en) 2021-09-28 2023-04-06 富士通株式会社 Image processing program, image processing apparatus, and image processing method
CN116189089B (en) * 2023-02-14 2024-08-27 国网宁夏电力有限公司石嘴山供电公司 Intelligent video monitoring method and system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4395689B2 (en) * 2001-02-09 2010-01-13 コニカミノルタホールディングス株式会社 Image data processing method and modeling apparatus
JP4607394B2 (en) * 2001-09-27 2011-01-05 株式会社シー・イー・デー・システム Person detection system and person detection program
JP2004211538A (en) * 2002-12-20 2004-07-29 Tokai Riken Kk Entrance-leaving control system
JP2005005912A (en) * 2003-06-10 2005-01-06 Sumitomo Osaka Cement Co Ltd Monitoring device

Also Published As

Publication number Publication date
JP2010045501A (en) 2010-02-25

Similar Documents

Publication Publication Date Title
JP5101429B2 (en) Image monitoring device
CN110738142B (en) Method, system and storage medium for adaptively improving face image acquisition
JP6554169B2 (en) Object recognition device and object recognition system
CN106326832B (en) Device and method for processing image based on object region
JP5127531B2 (en) Image monitoring device
JP4700477B2 (en) MOBILE BODY MONITORING SYSTEM AND MOBILE BODY FEATURE CALCULATION DEVICE
EP3588456A1 (en) Image processing apparatus, image processing method, and program
WO2014155979A1 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
JP6286474B2 (en) Image processing apparatus and area tracking program
JP5015126B2 (en) Image generation method, image authentication method, image generation apparatus, image authentication apparatus, program, and recording medium
JP5730095B2 (en) Face image authentication device
KR20160106514A (en) Method and apparatus for detecting object in moving image and storage medium storing program thereof
JP2009245338A (en) Face image collating apparatus
JP6352208B2 (en) 3D model processing apparatus and camera calibration system
JP6579950B2 (en) Image analysis apparatus, program, and method for detecting person appearing in captured image of camera
KR101821144B1 (en) Access Control System using Depth Information based Face Recognition
KR101444538B1 (en) 3d face recognition system and method for face recognition of thterof
JP6638723B2 (en) Image analysis device, image analysis method, and image analysis program
JP2006343859A (en) Image processing system and image processing method
JP5647459B2 (en) Moving object detection device
JP5667846B2 (en) Object image determination device
JP2008035301A (en) Mobile body tracing apparatus
JP6802923B2 (en) Object detection device and object detection method
JP2002117403A (en) Image processor and image processing method
JP2009301242A (en) Head candidate extraction method, head candidate extraction device, head candidate extraction program and recording medium recording the program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120911

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120926

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5101429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees