JP2013117772A - Image monitoring device - Google Patents

Image monitoring device Download PDF

Info

Publication number
JP2013117772A
JP2013117772A JP2011263817A JP2011263817A JP2013117772A JP 2013117772 A JP2013117772 A JP 2013117772A JP 2011263817 A JP2011263817 A JP 2011263817A JP 2011263817 A JP2011263817 A JP 2011263817A JP 2013117772 A JP2013117772 A JP 2013117772A
Authority
JP
Japan
Prior art keywords
image
period
area
monitoring
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011263817A
Other languages
Japanese (ja)
Other versions
JP5805511B2 (en
Inventor
Ayuko Ibe
鮎子 井部
Yoshitaka Hamaishi
佳孝 濱石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2011263817A priority Critical patent/JP5805511B2/en
Publication of JP2013117772A publication Critical patent/JP2013117772A/en
Application granted granted Critical
Publication of JP5805511B2 publication Critical patent/JP5805511B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately distinguish between a person and a small animal existing close to a device.SOLUTION: An image monitoring device 1 includes an image processing unit 4 including: feature quantity calculation means 4c which obtains a period (intra-region existence period) for which a lower end of a change region to be tracked by tracking means 4b and a lower end of a monitored image are close to each other so as to be regarded as almost contacting each other, within an appearance period from the appearance time of the change region to the determination time, obtains a temporal proportion of the intra-region existence period to an evaluation period and calculates such a feature quantity that the higher temporal proportion indicates that the change region is more likely to represent a person; and determination means 4d which determines whether the change region represents a person's image or not on the basis of the feature quantity.

Description

本発明は、監視空間を撮像した監視画像を順次取得し、この順次取得した監視画像を画像処理して監視空間における人物の有無を判定する画像監視装置に関する。   The present invention relates to an image monitoring apparatus that sequentially acquires monitoring images obtained by imaging a monitoring space, and performs image processing on the sequentially acquired monitoring images to determine the presence or absence of a person in the monitoring space.

従来、例えばカメラなどの撮像装置から入力される画像と過去の画像との変化態様から侵入者等の移動物体の特徴を示す領域を検出し、当該領域が目標移動物体(例えば侵入者)であるか否かを判定するような画像監視装置が知られている。   Conventionally, a region indicating the characteristics of a moving object such as an intruder is detected from a change between an image input from an imaging device such as a camera and a past image, and the region is a target moving object (for example, an intruder). There is known an image monitoring apparatus that determines whether or not.

この種の画像監視装置としては、例えば撮像装置が現在撮影した入力画像と予め記憶している過去の画像とを比較して、両画像の差分を変化領域として抽出し、この抽出された領域について面積や移動速度などを演算し、演算結果を元に監視空間に目標移動物体が存在するか否かを判断するものが知られるところである。そして、下記特許文献1には、この種の画像監視装置に用いられる画像センサとして、撮像部にて順次取得される監視空間の撮像画像と過去の画像との差分から変動領域を抽出するとともに変動領域の移動を追跡するものが開示されている。   As this type of image monitoring device, for example, an input image currently captured by the imaging device is compared with a past image stored in advance, and a difference between both images is extracted as a change region. A device that calculates an area, a moving speed, and the like and determines whether a target moving object exists in the monitoring space based on the calculation result is known. In Patent Document 1 below, as an image sensor used in this type of image monitoring device, a fluctuation region is extracted and extracted from a difference between a captured image of a monitoring space sequentially acquired by an imaging unit and a past image. What tracks the movement of an area is disclosed.

特開2006−318064号公報JP 2006-318064 A

ところで、監視領域を撮影した画像を用いて、監視領域内に侵入する侵入者を検知するにあたっては、画像中に発生した変化領域の特徴を使用して、侵入者が存在するか否かの判定を行っている。この際、侵入者以外にも、様々な要因で画像に変化が起きるため、それらの変化と侵入者による変化とを区別する必要がある。特に、侵入者以外に、画像に変化を引き起こす要因の一例としては、監視領域内に侵入する小動物がある。このため、従来の画像監視装置では、(1)画像中の変化領域の画素数の違い(侵入者:多い、小動物:少ない)、(2)画像中の変化領域の外接矩形の幅から透視変換によって推定される実空間上での推定幅の違い(侵入者:大きい、小動物:小さい)、(3)画像中の変化領域の外接矩形の高さから透視変換によって推定される実空間上での推定高さの違い(侵入者:高い、小動物:低い)を利用して侵入者と小動物とを区別している。   By the way, when detecting an intruder invading into the monitoring area using an image of the monitoring area, it is determined whether or not there is an intruder using the characteristics of the change area generated in the image. It is carried out. At this time, since changes occur in the image due to various factors other than the intruder, it is necessary to distinguish between these changes and changes due to the intruder. In particular, in addition to an intruder, an example of a factor that causes a change in an image is a small animal that enters a surveillance area. Therefore, in the conventional image monitoring apparatus, (1) the difference in the number of pixels in the change area in the image (intruder: many, small animals: few), (2) perspective conversion from the width of the circumscribed rectangle of the change area in the image (3) Differences in the real space estimated by perspective transformation from the height of the circumscribed rectangle of the change area in the image The difference in estimated height (intruder: high, small animal: low) is used to distinguish intruders from small animals.

しかしながら、侵入者が例えばカメラなどの撮像装置の直近に位置している場合、その侵入者の全身像が画像内に映らないことがある。具体的には、図7(a)に示すように、侵入者の下半身がフレームアウトして上半身のみが映る場合がそれに該当する。このように、侵入者の全身像が画面内に映らないと、変化領域として抽出した部分の大きさが画像上小さく見えてしまい、図7(b)に示すように、撮像装置の直近に小動物が映っている状態と類似する。これにより、撮像装置の直近における侵入者と小動物の実空間での推定高さを同等とみなし(図7(a),(b)の矢印で表現)、上述した(1)〜(3)において侵入者と小動物との区別が困難となり、侵入者ではなく小動物であるとして誤判定する恐れがあった。   However, when an intruder is located in the immediate vicinity of an imaging device such as a camera, the whole body image of the intruder may not be reflected in the image. Specifically, as shown in FIG. 7A, this corresponds to the case where the lower body of the intruder is out of frame and only the upper body is shown. As described above, when the whole body image of the intruder is not displayed on the screen, the size of the portion extracted as the change area looks small on the image, and as shown in FIG. It is similar to the state where is shown. Thereby, the estimated height in the real space of the intruder and the small animal in the immediate vicinity of the imaging device is regarded as equivalent (represented by the arrows in FIGS. 7A and 7B), and in the above (1) to (3) It became difficult to distinguish an intruder from a small animal, and there was a risk of misjudging it as a small animal rather than an intruder.

そこで、本発明は上記問題点に鑑みてなされたものであり、変化領域の画像下端に略接している時間的割合(頻度)が、変化領域が人物であるときよりも小動物であるときの方が小さいという特徴があることに着目し、画面下端の接触を含む画面下端から所定領域内に存在する変化領域の時間的割合を効果的に利用することにより、人物と小動物とを精度良く判別することができる画像監視装置を提供することを目的とするものである。   Therefore, the present invention has been made in view of the above problems, and the time ratio (frequency) that is substantially in contact with the lower end of the image of the change area is smaller than when the change area is a person. Focusing on the fact that there is a small feature, it is possible to accurately distinguish between a person and a small animal by effectively using the temporal ratio of the change area existing within the predetermined area from the bottom edge of the screen including the touch at the bottom edge of the screen An object of the present invention is to provide an image monitoring apparatus that can perform the above-described operation.

上記した目的を達成するために、本願請求項1に係る画像監視装置は、監視空間を撮像した監視画像を順次取得し、前記監視画像を画像処理して監視空間における人物の有無を判定する画像監視装置であって、
前記監視画像と予め記憶した監視空間の基準画像とを比較して前記基準画像から変化した変化領域を抽出する抽出部と、
前記変化領域を時間的に追跡する追跡部と、
前記変化領域の出現時刻から人物の有無を判定する判定時刻までにおける所定の評価期間において該変化領域の下端と前記監視画像の下端とが略接しているとみなせる期間である領域内存在期間を求め、該領域内存在期間が前記評価期間に占める割合が大きくなるほど該変化領域が人物像らしいとする特徴量を算出する特徴量算出部と、
前記特徴量を用いて前記変化領域が人物像であるか否かを判定する判定部と、
を備えることを特徴としている。
In order to achieve the above object, an image monitoring apparatus according to claim 1 of the present application sequentially acquires a monitoring image obtained by imaging a monitoring space, and performs image processing on the monitoring image to determine the presence or absence of a person in the monitoring space. A monitoring device,
An extraction unit that compares the monitoring image with a reference image of a monitoring space stored in advance and extracts a changed region from the reference image;
A tracking unit that temporally tracks the change region;
An in-region existence period is obtained in which a lower end of the change region and a lower end of the monitoring image can be regarded as being substantially in contact in a predetermined evaluation period from the appearance time of the change region to a determination time for determining the presence or absence of a person. A feature amount calculation unit that calculates a feature amount that the change region is likely to be a human image as the ratio of the in-region existence period to the evaluation period increases;
A determination unit that determines whether or not the change region is a person image using the feature amount;
It is characterized by having.

かかる構成により、本発明の特徴量算出部は、追跡部にて追跡する変化領域について、所定の評価期間(例えば、変化領域の出現時刻から判定時刻までの出現期間)において、当該変化領域の下端と監視画像の下端とが略接しているとみなせるほど近接している期間(以下、これを「領域内存在期間」という)を求める。そして、本発明の特徴量算出部は、領域内存在期間が評価期間に占める時間的割合(すなわち、領域内存在期間の累積時間と評価期間の累積時間との比率)を求め、当該割合が大きくなるほど変化領域が人物らしいとする特徴量を算出する。そして、本発明の判定部は、当該特徴量に基づいて変化領域が人物像であるか否かを判定する。
これにより、装置直近に存在する移動物体が人物である場合には、変化領域が画像下端との接触を含む画像下端から所定領域内(変化領域の下端と監視画像下端とが略接しているとみなせる範囲内)に存在する時間的割合(頻度)が大きいため人物らしいと判定できる。一方、装置直近に存在する移動物体が小動物の場合には、変化領域が画像下端との接触を含む画像下端から所定領域内に存在する時間的割合(頻度)が比較的少ないため、小動物らしいと判定できる。このように、小動物の変化領域は人物の変化領域と比較して監視画像の下端に略接している時間的割合が小さいといった事象を利用することにより、画像監視装置の直近に存在する移動物体が、侵入者であるか否かを精度良く区別して判定することができる。
With this configuration, the feature amount calculation unit of the present invention has the lower end of the change area in the predetermined evaluation period (for example, the appearance period from the change area appearance time to the determination time) for the change area tracked by the tracking section. And the lower end of the monitoring image are so close that they can be considered to be in close contact (hereinafter referred to as “in-area existence period”). Then, the feature amount calculation unit of the present invention obtains a time ratio that the in-area existence period occupies in the evaluation period (that is, a ratio between the accumulated time in the in-area existence period and the accumulated time in the evaluation period), and the ratio is large. The feature amount that the change area is likely to be a person is calculated. And the determination part of this invention determines whether a change area | region is a person image based on the said feature-value.
As a result, when the moving object in the immediate vicinity of the apparatus is a person, the change area is within a predetermined area from the lower end of the image including contact with the lower end of the image (the lower end of the change area and the lower end of the monitoring image are substantially in contact with each other). It can be determined that the person seems to be a person because the time ratio (frequency) existing within the range that can be considered is large. On the other hand, when the moving object that is in the immediate vicinity of the device is a small animal, since the temporal ratio (frequency) that the change area exists in the predetermined area from the lower end of the image including contact with the lower end of the image is relatively small, Can be judged. In this way, by using an event that the change ratio of the small animal is smaller in time ratio that is substantially in contact with the lower end of the monitoring image than the change area of the person, the moving object that is present in the immediate vicinity of the image monitoring apparatus is Thus, it is possible to accurately determine whether or not the person is an intruder.

本願請求項2に係る画像監視装置は、請求項1の画像監視装置において、
前記特徴量を算出する際、前記変化領域の下端と前記監視画像の下端との距離が大きくなるほど前記領域内存在期間の時間長を小さくするよう補正することを特徴としている。
The image monitoring apparatus according to claim 2 of the present application is the image monitoring apparatus of claim 1,
When calculating the feature amount, correction is performed such that the time length of the in-region existence period is reduced as the distance between the lower end of the change region and the lower end of the monitoring image increases.

かかる構成により、本発明の特徴量算出部は、追跡部にて追跡する変化領域の領域内存在期間を求めた後に特徴量を算出する際、変化領域の下端と監視画像の下端との距離が略接しているとみなせる距離に変化領域があったとしても、その距離が大きくなるほど当該領域内存在期間の時間長が小さくなるよう補正し、当該補正した領域内存在期間と評価期間との時間比率(すなわち、補正した領域内存在期間の累積時間と評価期間の累積時間との比率)に応じて特徴量を算出する。そして、本発明の判定部は、当該特徴量に基づいて変化領域が人物像であるか否かを判定する。
例えば、変化領域の下端と監視画像の下端とが接している場合(すなわち、監視画像の下端領域の全部又は一部を変化領域が包含している場合)、当該変化領域は最も人物らしいとして最も大きい値をとるよう特徴量が算出されることになる。また、たとえ、変化領域の下端が監視画像の下端に接していなくても、その距離が比較的小さいならば、抽出精度の問題に起因する誤差(例えば人物の衣服が背景と非常に似ている箇所を変化領域として抽出されにくいことに起因する誤差)の疑いが強いため、比較的大き目の特徴量が算出されることになる。一方、たとえ、監視画像の下端に略接しているとみなせる距離の範囲内に変化領域があったとしても、その距離が大きいほど、抽出精度の問題に起因する誤差の疑いが弱く小動物の可能性が高いため、人物らしくないとして小さ目の特徴量が算出されることになる。
このように、変化領域の下端と監視画像の下端との距離を考慮して人物らしさの特徴量を算出することにより、変化領域の抽出精度に関わらず、人物と小動物とを精度良く区別して判定することができる。そして、人物を小動物とみなすことによる失報を低減することができ、また、小動物を人物とみなすことによる誤報を低減することができる。
With this configuration, when the feature amount calculation unit of the present invention calculates the feature amount after obtaining the in-region existence period of the change region tracked by the tracking unit, the distance between the lower end of the change region and the lower end of the monitoring image is Even if there is a change region in the distance that can be regarded as being substantially in contact, the time length of the in-region existence period is corrected to decrease as the distance increases, and the time ratio between the corrected in-region existence period and the evaluation period In other words, the feature amount is calculated in accordance with (that is, the ratio between the corrected accumulated time in the region existing period and the accumulated time in the evaluation period). And the determination part of this invention determines whether a change area | region is a person image based on the said feature-value.
For example, when the lower end of the change area is in contact with the lower end of the monitoring image (that is, when the change area includes all or part of the lower end area of the monitoring image), the change area is the most likely person. The feature amount is calculated so as to take a large value. Moreover, even if the lower end of the change area is not in contact with the lower end of the monitoring image, if the distance is relatively small, an error caused by the problem of extraction accuracy (for example, a person's clothes are very similar to the background) Since there is a strong suspicion of an error (because it is difficult to extract a location as a change area), a relatively large feature amount is calculated. On the other hand, even if there is a change area within the range of distance that can be considered to be almost in contact with the lower end of the monitoring image, the larger the distance, the less likely the error is due to the problem of extraction accuracy, and the possibility of small animals Therefore, a small feature amount is calculated as not being a person.
In this way, by calculating the human-like feature quantity in consideration of the distance between the lower end of the change area and the lower end of the monitoring image, the person and the small animal are accurately distinguished and determined regardless of the extraction accuracy of the change area. can do. And the misreporting by considering a person as a small animal can be reduced, and the misinformation by considering a small animal as a person can be reduced.

本願請求項3に係る画像監視装置は、請求項1又は2の画像監視装置において、
前記特徴量算出部は、前記変化領域が所定以上移動している1又は複数の期間のみを前記所定の評価期間として算出することを特徴としている。
The image monitoring apparatus according to claim 3 of the present application is the image monitoring apparatus according to claim 1 or 2,
The feature amount calculation unit calculates only one or a plurality of periods during which the change region has moved by a predetermined amount or more as the predetermined evaluation period.

かかる構成により、本発明の特徴量算出部は、追跡部にて追跡する変化領域の移動量を求め、当該移動量が所定以上である1又は複数の期間のみを所定の評価期間として設定し、当該評価期間における領域内存在期間が当該評価期間に占める割合に応じた特徴量を算出する。そして、本発明の判定部は、当該特徴量に基づいて変化領域が人物像であるか否かを判定する。
小動物が監視画像の下端寄りに滞留していた場合、特徴量が大きく算出され、結果として小動物を誤って人物であると誤判定する恐れがある。そのため、変化領域が小動物であるならば、変化領域が人物である場合と比較して、当該変化領域が移動しているときには監視画像の下端から離れ略接することがなくなり易い、といった特徴を利用することにより、高い精度で人物と小動物とを区別できる。すなわち、変化領域の移動量が所定値以上である期間を評価期間とすることにより、小動物の滞留期間を除外して特徴量を算出することができるため、滞留している小動物を誤って人物と判定することなく、高い精度で人物と小動物とを区別できる。
With such a configuration, the feature amount calculation unit of the present invention obtains the movement amount of the change area tracked by the tracking unit, sets only one or a plurality of periods in which the movement amount is equal to or greater than a predetermined value as a predetermined evaluation period, A feature amount corresponding to the ratio of the in-region existence period in the evaluation period to the evaluation period is calculated. And the determination part of this invention determines whether a change area | region is a person image based on the said feature-value.
If the small animal stays near the lower end of the monitoring image, the feature amount is calculated to be large, and as a result, the small animal may be erroneously determined to be a person. For this reason, if the change area is a small animal, a feature is used in which the change area is more likely to move away from the lower end of the monitoring image when compared with the case where the change area is a person. Thus, it is possible to distinguish a person and a small animal with high accuracy. In other words, by setting the period during which the moving amount of the change region is equal to or greater than the predetermined value as the evaluation period, the feature amount can be calculated by excluding the dwelling period of the small animal. A person and a small animal can be distinguished with high accuracy without determination.

上記のように、本発明の画像監視装置は、装置直近に存在する移動物体が人物である場合には、その変化領域が画像下端と略接しているとみなせる(すなわち、変化領域の接触を含む監視画像下端から所定領域内に存在する)時間的割合(頻度)が多いが、その反面、装置直近に存在する移動物体が小動物の場合には、その変化領域が画像下端と略接しているとみなせる時間的割合(頻度)が比較的少ないといった特徴を積極的に活用することにより、画像監視装置の直近に存在する移動物体が、侵入者であるか否かを精度良く区別して判定することができる。   As described above, when the moving object present in the immediate vicinity of the apparatus is a person, the image monitoring apparatus of the present invention can be considered that the change area is substantially in contact with the lower end of the image (that is, including the contact of the change area). The time ratio (frequency) that exists in the predetermined area from the lower end of the monitoring image is large. On the other hand, if the moving object that is closest to the device is a small animal, the change area is substantially in contact with the lower end of the image. By actively utilizing the feature that the time ratio (frequency) that can be considered is relatively small, it is possible to accurately distinguish and determine whether or not the moving object present in the immediate vicinity of the image monitoring apparatus is an intruder. it can.

本発明に係る画像監視装置の全体構成を示すブロック構成図である。1 is a block configuration diagram showing an overall configuration of an image monitoring apparatus according to the present invention. (a)装置直近に存在する侵入者による追跡ラベル領域が移動したときの様子を示す図である。 (b)装置直近に存在する小動物による追跡ラベル領域が移動したときの様子を示す図である。(A) It is a figure which shows a mode when the tracking label area | region by the intruder who exists nearest to an apparatus moves. (B) It is a figure which shows a mode when the tracking label area | region by the small animal which exists in the immediate vicinity of an apparatus moves. 本発明に係る画像監視装置において定義される各期間の説明図である。It is explanatory drawing of each period defined in the image monitoring apparatus which concerns on this invention. 本発明に係る画像監視装置による全体動作の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the whole operation | movement by the image monitoring apparatus which concerns on this invention. 図4の特徴量算出処理の具体的処理内容の手順を示すフローチャートである。It is a flowchart which shows the procedure of the specific process content of the feature-value calculation process of FIG. 本発明に係る画像監視装置において領域内存在フレーム数を計算する際の評価関数の一例を示す図である。It is a figure which shows an example of the evaluation function at the time of calculating the number of frames existing in an area | region in the image monitoring apparatus which concerns on this invention. (a),(b)従来の画像監視装置による誤報の一例を示す説明図である。(A), (b) It is explanatory drawing which shows an example of the misreport by the conventional image monitoring apparatus.

以下、本発明を実施するための形態について、添付した図面を参照しながら詳細に説明する。尚、この実施の形態によりこの発明が限定されるものではなく、この形態に基づいて当業者などによりなされる実施可能な他の形態、実施例及び運用技術などはすべて本発明の範疇に含まれる。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the present invention is not limited to this embodiment, and all other forms, examples, operation techniques, etc. that can be implemented by those skilled in the art based on this embodiment are included in the scope of the present invention. .

(画像監視装置の全体構成について)
本発明に係る画像監視装置は、監視空間を撮像した監視画像を順次取得し、この順次取得した監視画像を画像処理して監視空間における人物の有無を判定するものである。
(About the overall configuration of the image monitoring device)
The image monitoring apparatus according to the present invention sequentially acquires monitoring images obtained by imaging a monitoring space, and performs image processing on the sequentially acquired monitoring images to determine the presence or absence of a person in the monitoring space.

特に、本発明は、図2(a),(b)に示すように、監視画像の下端において、人の場合は画面外に人体があるために監視画像の下端から所定領域内に存在する頻度(割合)が多いのに対し、小動物の場合は全身がほぼ見えているために監視画像の下端から所定領域内に存在する頻度(割合)が少ないことに着目し、当該頻度(割合)に応じた特徴量を算出する。すなわち、監視画像から抽出される変化領域の出現時刻から侵入者か否かを判定する判定時刻までにおける所定の期間(以下、これを「評価期間」という)において、当該変化領域が監視画面の下端に略接しているとみなせる期間(領域内存在期間)の占める割合(以下、これを「領域内占有割合」という)を特徴量として算出する。なお、本実施例では、変化領域の下端と監視画像の下端との距離を求め、(監視画像下端への接触を含め)当該距離が予め定めた所定範囲内(10ピクセル内)にあるとき「略接している」とみなすこととし、当該範囲内に変化領域が存在している期間を領域内存在期間として求めることとする。そして、算出した領域内占有割合を元に変化領域が人物像であるか否かを判定する機能を含む画像監視装置を提供するものである。   In particular, according to the present invention, as shown in FIGS. 2A and 2B, the frequency at which the human body exists outside the screen at the lower end of the monitoring image and exists within a predetermined area from the lower end of the monitoring image. Focusing on the fact that the whole body is almost visible in the case of small animals, while the frequency (ratio) is small in the predetermined area from the lower end of the monitoring image, and the frequency (ratio) depends on the frequency (ratio). The calculated feature amount is calculated. That is, in a predetermined period (hereinafter referred to as “evaluation period”) from the appearance time of the change area extracted from the monitoring image to the determination time for determining whether the person is an intruder, the change area is the lower end of the monitoring screen. The ratio (hereinafter referred to as “intra-area occupation ratio”) of the period (the intra-area existence period) that can be regarded as being substantially in contact with the image is calculated as a feature amount. In this embodiment, the distance between the lower end of the change area and the lower end of the monitoring image is obtained, and when the distance is within a predetermined range (within 10 pixels) (including contact with the lower end of the monitoring image), “ The period in which the change area exists within the range is determined as the in-area existence period. Then, an image monitoring apparatus including a function for determining whether or not the change area is a person image based on the calculated occupation ratio in the area is provided.

図1に示すように、本例の画像監視装置1は、上述した機能を実現するべく、撮像部2、記憶部3、画像処理部4、出力部5を含んで概略構成される。   As shown in FIG. 1, the image monitoring apparatus 1 of this example is schematically configured to include an imaging unit 2, a storage unit 3, an image processing unit 4, and an output unit 5 in order to realize the above-described functions.

撮像部2は、例えばレンズなどの光学系およびCCDやCMOSなどの2次元アレイ素子を有する二次元イメージセンサで構成され、監視空間を撮像した撮像画像(以下、画像と言う)を画像処理部4に出力している。撮像部2は、天井や壁に設置され上から斜め下方の空間を撮像している。さらに説明すると、二次元イメージセンサによる撮像部2は、監視空間から発した光をレンズなどの光学系によって2次元アレイ素子の受光平面に結像させ、その像の光による明暗を電荷の量に光電変換し、これを順次読み出して電気信号に変換し、各画素が輝度値で表現された画像として画像処理部4に出力する。その際、1フレームの画像を所定の時間間隔で取得して画像処理部4に出力する。   The imaging unit 2 is configured by a two-dimensional image sensor having an optical system such as a lens and a two-dimensional array element such as a CCD or CMOS, for example, and an image processing unit 4 that captures a captured image (hereinafter referred to as an image) obtained by imaging a monitoring space. Is output. The imaging unit 2 is installed on the ceiling or wall and images a space obliquely below from above. More specifically, the imaging unit 2 using the two-dimensional image sensor forms an image of the light emitted from the monitoring space on the light receiving plane of the two-dimensional array element by an optical system such as a lens, and uses the light and darkness of the image as the amount of charge. It performs photoelectric conversion, sequentially reads out and converts it into an electrical signal, and outputs it to the image processing unit 4 as an image in which each pixel is expressed by a luminance value. At that time, an image of one frame is acquired at a predetermined time interval and output to the image processing unit 4.

また、撮像部2は、その設置位置や撮像方向を示す外部パラメータと、焦点距離、画角、レンズ歪み、その他のレンズ特性や撮像素子の画素数を示す内部パラメータとを撮像パラメータとして含む。この撮像パラメータは、実際に計測を行うなどして得ることができ、予め記憶部3に記憶される。   In addition, the imaging unit 2 includes, as imaging parameters, external parameters indicating the installation position and imaging direction, and internal parameters indicating focal length, angle of view, lens distortion, other lens characteristics, and the number of pixels of the imaging element. This imaging parameter can be obtained by actually performing measurement or the like, and is stored in the storage unit 3 in advance.

そして、この撮像パラメータを用いれば、監視画像中の画素位置を撮像部2の撮像面における座標(撮像面座標)と実空間における座標(実座標)との間で座標変換することが可能となる。本実施例では、この撮像パラメータを用いた(1)撮像面座標から実座標への変換及び(2)実座標から撮像面座標への変換の両変換を透視変換と総称している。   Then, using this imaging parameter, the pixel position in the monitoring image can be coordinate-converted between coordinates (imaging plane coordinates) on the imaging plane of the imaging unit 2 and coordinates (real coordinates) in real space. . In this embodiment, both (1) conversion from imaging surface coordinates to real coordinates and (2) conversion from real coordinates to imaging surface coordinates using the imaging parameters are collectively referred to as perspective transformation.

なお、撮像部2としては、所定画素(例えば320×320画素)の赤外線検出素子を有し、監視領域から放射される赤外線を検出し、この検出した赤外線の量に応じた監視領域の温度分布を監視画像として画像処理部4に出力する熱画像センサで構成することもできる。   The imaging unit 2 includes an infrared detection element having predetermined pixels (for example, 320 × 320 pixels), detects infrared rays emitted from the monitoring region, and temperature distribution in the monitoring region according to the detected amount of infrared rays. Can be configured by a thermal image sensor that outputs the image as a monitoring image to the image processing unit 4.

記憶部3は、画像監視装置1に関する設定情報(例えば装置の設置高、俯角など)、画像処理部4の各種処理に使用される情報を記憶している。画像監視装置1に関する設定情報としては、上述した撮像部2の設置環境を含む撮像パラメータが含まれる。また、画像処理部4の各種処理に使用される情報としては、例えばフレーム毎の画像データ、画像データから変化領域を抽出するための基準画像の他、本実施例の処理に用いられる計算式や閾値等の各種パラメータが含まれる。   The storage unit 3 stores setting information related to the image monitoring apparatus 1 (for example, the installation height of the apparatus and the depression angle) and information used for various processes of the image processing unit 4. The setting information related to the image monitoring device 1 includes imaging parameters including the installation environment of the imaging unit 2 described above. The information used for various processes of the image processing unit 4 includes, for example, image data for each frame, a reference image for extracting a change area from the image data, a calculation formula used for the processing of this embodiment, Various parameters such as threshold values are included.

画像処理部4は、CPU等を備えたコンピュータで構成され、撮像部2からデジタル化された画像の入力を受け、後述する図4や図5に示す一連の処理として、抽出処理、ラベリング処理、ラベル統合処理、ノイズ除去処理、トラッキング(物体候補の追跡)処理、特徴量算出処理、侵入者判定処理を実行するべく、抽出手段4a、追跡手段4b、特徴量算出手段4c、判定手段4dを含んでいる。   The image processing unit 4 is configured by a computer having a CPU and the like, receives an input of a digitized image from the imaging unit 2, and includes a series of processes shown in FIGS. 4 and 5 described later as an extraction process, a labeling process, In order to execute label integration processing, noise removal processing, tracking (tracking of object candidate) processing, feature amount calculation processing, and intruder determination processing, an extraction means 4a, tracking means 4b, feature amount calculation means 4c, and determination means 4d are included. It is out.

抽出手段4aは、撮像部2で取得された画像の中から変化のある領域を変化領域として抽出する抽出処理を行っている。また、抽出手段4aは、抽出した変化領域に対し、ラベリング処理によってラベル付けを行っている。さらに、抽出手段4aは、所定範囲にある複数のラベルを一つのラベルに統合するラベル統合処理を行っている。また、抽出手段4aは、個々のラベルに対し、ノイズ抽出であるか否かを判定し、ノイズ抽出と判定された場合に除去するノイズ除去処理を行っている。   The extraction unit 4a performs an extraction process for extracting a changed area from the image acquired by the imaging unit 2 as a changed area. Further, the extracting unit 4a labels the extracted change area by labeling processing. Further, the extracting unit 4a performs a label integration process for integrating a plurality of labels in a predetermined range into one label. Further, the extraction unit 4a determines whether or not noise extraction is performed for each label, and performs noise removal processing to be removed when it is determined that noise extraction is performed.

追跡手段4bは、抽出手段4aが抽出した変化領域を時間的に追跡するもので、抽出手段4aによるラベリング処理で求まったラベル領域(変化領域)に対し、前回取得した画像の追跡ラベル領域との対応付けを行っている。   The tracking unit 4b temporally tracks the change region extracted by the extraction unit 4a, and the label region (change region) obtained by the labeling process by the extraction unit 4a is compared with the tracking label region of the previously acquired image. Corresponding.

なお、追跡ラベル領域とは、これまでに取得した画像において、同一の追跡物体によるラベル領域が常に同じラベルになるように、抽出手段4aによるラベリング処理でのラベルと異なるユニークなラベル(以下、追跡ラベルという)を付与し直したラベル領域のことを指す。   The tracking label area is a unique label (hereinafter referred to as tracking) that is different from the label in the labeling process by the extraction means 4a so that the label area by the same tracking object is always the same label in the images acquired so far. It refers to the label area that has been given a label again.

特徴量算出手段4cは、図5に示すように、追跡ラベル領域の外接矩形座標計算処理、透視変換処理、追跡ラベル領域の移動量計算処理、領域内占有割合算出処理、装置直近の人らしさ算出処理、装置直近以外の人らしさ算出処理、人らしさ算出処理を含む特徴量算出処理を実行し、追跡手段4bにて求めた追跡ラベル領域について、侵入者を判定するための特徴量を算出している。   As shown in FIG. 5, the feature amount calculation unit 4 c is configured to calculate the circumscribed rectangular coordinates of the tracking label area, the perspective conversion process, the movement amount calculation process of the tracking label area, the in-area occupation ratio calculation process, and the humanity closest to the apparatus. Processing, feature amount calculation processing including humanity calculation processing other than the closest to the device, and humanity calculation processing is performed, and a feature amount for determining an intruder is calculated for the tracking label area obtained by the tracking unit 4b. Yes.

特徴量算出処理にて算出される特徴量には、画像上における変化領域の大きさから透視変換によって推定される実空間での大きさ(推定幅・推定高さ)、移動量及び前述した領域内占有割合などが含まれる。なお、特徴量算出処理の詳細については追って説明する。   The feature amount calculated by the feature amount calculation process includes the size in the real space (estimated width / estimated height) estimated by the perspective transformation from the size of the changed region on the image, the moving amount, and the above-described region. In-occupation ratio etc. are included. Details of the feature amount calculation processing will be described later.

判定手段4dは、後述する侵入者判定処理を実行し、予め定められた判定条件に従い、特徴量算出手段4cによって算出された特徴量を元に、対象となる追跡ラベル領域(変化領域)が侵入者か否かを判定している。   The determination unit 4d executes an intruder determination process, which will be described later, and the target tracking label region (change region) enters based on the feature amount calculated by the feature amount calculation unit 4c in accordance with a predetermined determination condition. It is judged whether it is a person.

出力部5は、画像処理部4の判定手段4dにて侵入者ありと判定された旨の判定信号を外部に出力するもので、例えば表示器やブザーなどで構成される。出力部5は、画像処理部4の判定手段4dから侵入者ありの判定信号が入力されると、表示器やブザーを駆動して侵入者ありの旨を報知する。   The output unit 5 outputs a determination signal indicating that an intruder has been determined by the determination unit 4d of the image processing unit 4 to the outside. The output unit 5 includes, for example, a display or a buzzer. When a determination signal indicating that there is an intruder is input from the determination unit 4d of the image processing unit 4, the output unit 5 drives a display or a buzzer to notify that there is an intruder.

なお、出力部5は、不図示の警備装置や遠隔の監視センタなどと通信線を介して接続され、画像処理部4の判定手段4dから入力された侵入者ありの判定信号を通信線に出力する通信I/Fとして構成することもできる。   The output unit 5 is connected to a security device (not shown) or a remote monitoring center via a communication line, and outputs an intruder determination signal input from the determination unit 4d of the image processing unit 4 to the communication line. It can also be configured as a communication I / F.

(画像監視装置1による人物有無の判定処理について)
次に、上記構成による画像監視装置1を用いて監視空間における人物の有無を判定する場合の画像処理部4の処理動作について図4を参照しながら説明する。
(Regarding the presence / absence determination process by the image monitoring apparatus 1)
Next, the processing operation of the image processing unit 4 in the case where the presence or absence of a person in the monitoring space is determined using the image monitoring apparatus 1 having the above configuration will be described with reference to FIG.

画像処理部4は、画像監視装置1の電源がオンされると、設定情報取得処理を実行する(ST1)。設定情報取得処理では、予め設定される画像監視装置1に関する設定情報や画像処理部4の各種処理に使用される情報を取得し、取得した情報を記憶部3に格納する。ここで言う情報とは、撮像部2の設置高や俯角、撮像部2より得られる画像の垂直方向及び水平方向の画素数、垂直画角や水平画角、基準画像、各種閾値などである。   When the image monitoring apparatus 1 is powered on, the image processing unit 4 executes setting information acquisition processing (ST1). In the setting information acquisition process, setting information related to the image monitoring apparatus 1 set in advance and information used for various processes of the image processing unit 4 are acquired, and the acquired information is stored in the storage unit 3. The information referred to here includes the installation height and depression angle of the imaging unit 2, the number of pixels in the vertical and horizontal directions of the image obtained from the imaging unit 2, the vertical angle of view and horizontal angle of view, the reference image, various threshold values, and the like.

次に、画像処理部4は、入力画像取得処理を実行する(ST2)。入力画像取得処理では、撮像部2が監視空間の監視範囲を撮像した画像の取得を行う。   Next, the image processing unit 4 executes an input image acquisition process (ST2). In the input image acquisition process, the imaging unit 2 acquires an image obtained by imaging the monitoring range of the monitoring space.

次に、画像処理部4の抽出手段4aにより抽出処理を実行する(ST3)。抽出処理では、入力画像取得処理で取得された画像から変化領域を抽出する。本実施例では、今回取得した監視画像と予め記憶した監視空間の基準画像との差分をとることにより変化領域を抽出する。この際、基準画像として監視空間の背景画像や、過去に取得した監視画像を適宜選択して採用することができる。   Next, extraction processing is executed by the extraction means 4a of the image processing unit 4 (ST3). In the extraction process, the change area is extracted from the image acquired in the input image acquisition process. In this embodiment, the change area is extracted by taking the difference between the monitoring image acquired this time and the reference image of the monitoring space stored in advance. At this time, a background image of the monitoring space or a monitoring image acquired in the past can be appropriately selected and used as the reference image.

なお、画像として熱画像を撮像部2から取得する場合は、取得した熱画像から温度変化があった領域を変化領域として抽出する。例えば予め過去の熱画像を基準画像として記憶部3に保存しておき、現在の熱画像と基準画像との差分が閾値以上の領域を温度変化があると判定し、この温度変化がある領域を変化領域として抽出する。   In addition, when acquiring a thermal image as an image from the imaging part 2, the area | region where temperature change was extracted from the acquired thermal image as a change area | region. For example, a past thermal image is stored in advance in the storage unit 3 as a reference image, a region where the difference between the current thermal image and the reference image is equal to or greater than a threshold value is determined to have a temperature change, and the region having this temperature change is determined. Extract as a change area.

次に、画像処理部4の抽出手段4aによりラベリング処理を実行する(ST4)。ラベリング処理では、ST3の抽出処理で求めた変化領域についてラベル付けを行う。例えば注目画素の周囲で隣接する抽出画素をひとまとまりとしてラベル領域とする手法などが利用できる。また、ラベリング処理では、所定範囲にある複数のラベルを一つのラベルに統合するラベル統合処理を行う。例えばそれぞれのラベルの抽出領域について、設定情報取得処理で得た設置情報(例えば撮像部2の設置高や俯角などの情報)を活用し、画面上での人想定サイズに基づいた領域の位置と大きさを算出する。そして、算出した領域に別のラベルが付与された抽出領域が含まれる場合は、同一のラベルとなるようにラベルを付与し直す。これに対し、画面内にラベルが1つしか存在しない場合は、何も処理を行わない。   Next, a labeling process is executed by the extraction means 4a of the image processing unit 4 (ST4). In the labeling process, the changed area obtained in the extraction process of ST3 is labeled. For example, it is possible to use a technique in which extracted pixels adjacent around the pixel of interest are grouped into a label area. In the labeling process, a label integration process for integrating a plurality of labels in a predetermined range into one label is performed. For example, for each label extraction area, the installation information obtained by the setting information acquisition process (for example, information such as the installation height and depression angle of the imaging unit 2) is used to determine the position of the area on the screen based on the assumed size of the person. Calculate the size. When the calculated region includes an extraction region to which another label is added, the label is reassigned so that the same label is obtained. On the other hand, if there is only one label in the screen, no processing is performed.

次に、画像処理部4の抽出手段4aによりノイズ除去処理を実行する(ST5)。ノイズ除去処理では、ST4のラベリング処理で得られた個々のラベルがノイズ抽出であるか否かを判定し、ノイズ抽出と判定された場合は除去する。例えばラベルの画素数が設定値以下である場合は、そのラベルをノイズ抽出として除去する。なお、その際の設定値は、予め記憶部3に記憶されている。   Next, noise removal processing is executed by the extraction means 4a of the image processing unit 4 (ST5). In the noise removal process, it is determined whether or not each label obtained in the labeling process of ST4 is noise extraction. If it is determined that noise extraction is performed, the label is removed. For example, when the number of pixels of the label is equal to or less than the set value, the label is removed as noise extraction. Note that the set value at that time is stored in the storage unit 3 in advance.

次に、画像処理部4の追跡手段4bにより追跡処理を実行する(ST6)。追跡処理では、ST4のラベリング処理及びST5のノイズ除去処理が施されたラベル領域に対し、前回取得した画像の追跡ラベル領域との対応付けを行う。具体的には、前回取得した画像の追跡ラベル領域と現在処理中の画像のラベル領域について、画像内での位置関係などをもとに、同一の追跡物体によるものか否かを判別する。そして、同一の追跡物体によるものと判定された場合には、前回取得した画像の追跡ラベル領域と同じ追跡ラベルを付与し直す処理を行う。また、現在処理中の画像に出現しているラベル領域であって、前回の追跡ラベル領域のいずれとも対応付けられないラベル領域については、新規に出現した追跡ラベル領域として追跡を開始し、新たな追跡ラベルを付与する。さらに、前回存在した追跡ラベル領域で、現在処理中の画像に出現したラベル領域のいずれとも対応付けられない追跡ラベル領域については、追跡を終了し、当該ラベルを破棄する。   Next, tracking processing is executed by the tracking means 4b of the image processing unit 4 (ST6). In the tracking process, the label area that has been subjected to the labeling process of ST4 and the noise removal process of ST5 is associated with the tracking label area of the previously acquired image. Specifically, it is determined whether the tracking label area of the previously acquired image and the label area of the currently processed image are based on the same tracking object based on the positional relationship in the image. If it is determined that the tracking object is the same tracking object, the same tracking label as the tracking label area of the previously acquired image is applied again. For a label area that appears in the image currently being processed and is not associated with any of the previous tracking label areas, tracking is started as a newly appearing tracking label area, and a new Give a tracking label. Further, for tracking label areas that existed in the previous time and that are not associated with any of the label areas that appear in the currently processed image, tracking is terminated and the label is discarded.

次に、画像処理部4の特徴量算出手段4cにより特徴量算出処理を実行する(ST7)。特徴量算出処理では、ST6の追跡処理で求めた追跡ラベル領域について、侵入者を判定するための特徴量を算出する。具体的には、透視変換によって推定される実空間での幅・高さや移動量などを用いて、追跡ラベル領域の人らしさを求める。   Next, a feature amount calculation process is executed by the feature amount calculation means 4c of the image processing unit 4 (ST7). In the feature amount calculation process, a feature amount for determining an intruder is calculated for the tracking label area obtained in the tracking process of ST6. Specifically, the humanity of the tracking label area is obtained by using the width / height in the real space estimated by the perspective transformation, the movement amount, and the like.

次に、画像処理部4の判定手段4dにより侵入者判定処理を実行する(ST8)。侵入者判定処理では、ST7の特徴量算出処理で求めた侵入者を判定するための特徴量を用い、予め定められた判定条件に従って追跡ラベル領域が侵入者か否かの判定を行う。例えば後述する特徴量算出処理により追跡ラベル領域の人らしさを1フレーム毎に算出し、判定条件として、出現時刻からの人らしさの累積値が閾値以上で、かつ移動量も閾値以上のときに、追跡ラベル領域が侵入者であると判定する。その際の閾値は、予め記憶部3に記憶されている。   Next, intruder determination processing is executed by the determination means 4d of the image processing unit 4 (ST8). In the intruder determination process, the feature amount for determining the intruder obtained in the feature amount calculation process in ST7 is used to determine whether or not the tracking label area is an intruder according to a predetermined determination condition. For example, the humanity of the tracking label area is calculated for each frame by a feature amount calculation process to be described later, and as a determination condition, when the cumulative value of humanity from the appearance time is equal to or greater than a threshold and the movement amount is equal to or greater than the threshold It is determined that the tracking label area is an intruder. The threshold value at that time is stored in the storage unit 3 in advance.

なお、図4のフローチャートにおいて、ループ1はST2〜ST8の各処理を1フレームの画像取得毎に実行することを意味し、ループ2はST7〜ST8の各処理をラベル領域の数だけ実行することを意味している。   In the flowchart of FIG. 4, loop 1 means that each process of ST2 to ST8 is executed every time one frame of image is acquired, and loop 2 executes each process of ST7 to ST8 by the number of label areas. Means.

(特徴量算出処理の詳細について)
次に、図4のフローチャートにおいて、画像処理部4の特徴量算出手段4cが実行する特徴量算出処理(ST7)について図5を参照しながら説明する。
(Details of feature value calculation processing)
Next, the feature amount calculation processing (ST7) executed by the feature amount calculation means 4c of the image processing unit 4 in the flowchart of FIG. 4 will be described with reference to FIG.

画像処理部4の特徴量算出手段4cは、まず、追跡ラベル領域の外接矩形座標計算処理を実行する(ST11)。追跡ラベル領域の外接矩形座標計算処理では、ST6の追跡処理で求めた追跡ラベル領域について、この追跡ラベル領域に外接する外接矩形の頂点の座標値、外接矩形の幅や高さを算出する。   The feature amount calculation means 4c of the image processing unit 4 first performs circumscribed rectangular coordinate calculation processing of the tracking label area (ST11). In the circumscribed rectangle coordinate calculation process of the tracking label area, the coordinate values of the circumscribed rectangle vertices circumscribing the tracking label area and the width and height of the circumscribed rectangle are calculated for the tracking label area obtained in the tracking process of ST6.

次に、透視変換処理を実行する(ST12)。透視変換処理では、ST11の追跡ラベル領域の外接矩形座標計算処理で求めた外接矩形の頂点の座標値、幅や高さ、記憶部3に記憶されている設定情報である画像監視装置1の設置高・俯角を利用し、追跡ラベル領域の実空間上での推定幅と推定高さを透視変換によって計算する。   Next, a perspective transformation process is executed (ST12). In the perspective transformation process, the coordinate values, widths and heights of circumscribed rectangle vertices obtained in the circumscribed rectangle coordinate calculation process of the tracking label area in ST11, the setting information stored in the storage unit 3, the setting of the image monitoring apparatus 1 is installed. Using the height and depression angle, the estimated width and height of the tracking label area in real space are calculated by perspective transformation.

次に、追跡ラベル領域の移動量計算処理を実行する(ST13)。追跡ラベル領域の移動量計算処理では、ST6の追跡処理で求めた追跡ラベル領域の移動量を計算する。例えば一つ前のフレームの追跡ラベル領域の重心座標と今回の追跡ラベル領域の重心座標からフレーム間の重心移動距離を求め、この重心移動距離の値を移動量とする。   Next, the tracking label area movement amount calculation process is executed (ST13). In the tracking label area movement amount calculation process, the movement amount of the tracking label area calculated in the tracking process of ST6 is calculated. For example, the center-of-gravity movement distance between frames is determined from the center-of-gravity coordinates of the tracking label area of the previous frame and the center-of-gravity coordinates of the current tracking label area, and the value of this center-of-gravity movement distance is used as the movement amount.

なお、ST6の追跡処理にて、対象の追跡ラベル領域が新規に出現した追跡ラベル領域であった場合には、前回の追跡ラベル領域が存在しないため、移動量を0とするとともに、後述する領域内占有割合を0とする。   In the tracking process of ST6, when the target tracking label area is a newly appearing tracking label area, since the previous tracking label area does not exist, the movement amount is set to 0, and an area described later The occupation ratio is 0.

ST13の追跡ラベル領域の移動量計算処理が実行されると、領域内占有割合処理として、まず、追跡ラベルの移動量が予め定めた最小移動量以上であるか否かを判定する(ST14)。ここで最小移動量とは、追跡ラベル領域が移動しているとみなすことができる最小の移動量のことをいい、本実施例では具体的には2ピクセルとして、予め記憶部3に設定されていることとする。ST14にて追跡ラベルの移動量が最小移動量以上であると判定されると、移動期間をインクリメント(+1)する(ST15)。ここで、移動期間とは、ラベル領域が出現した出現時刻から侵入者か否かを判定する判定時刻までの期間において、追跡ラベル領域の移動量が所定の移動量(最小移動量)以上となっている期間であり、本実施例では、ラベル領域が出現したフレームから判定フレームまでにおけるST15にて加算された累積フレーム数として計算される。これに対し、追跡ラベルの移動量が最小移動量以上でないと判定されると、領域内占有割合算出処理を終了して領域内占有割合を算出(更新)せずに、後述するST22の装置直近の人らしさ算出処理に移行する。
このように、本実施例では、ラベル領域の所定時間における移動量が、所定の移動量(最小移動量)以上生じているときにのみ領域内占有割合を算出することになる。すなわち、移動期間を本発明における評価期間とし、当該評価期間(移動期間)における領域内占有割合を算出することに等しい。このように、ラベル領域が小動物であるならば、ラベル領域が人物である場合と比較して、当該ラベル領域が移動しているときには監視画像の下端から離れ略接することがなくなり易い、といった特徴を利用することにより、高い精度で人物と小動物とを区別できる。すなわち、小動物が監視画像の下端寄りに滞留していた場合、上記処理を行わないと、特徴量(領域内占有割合)が大きく算出されるため、その小動物を誤って人物であると誤判定する恐れがある。しかし、上記処理のようにラベル領域の移動量が所定の移動量(最小移動量)以上を生じている期間(移動期間)を評価期間として当該評価期間における領域内占有割合を算出することにより、小動物の滞留期間を評価期間から除外して算出することができるため、滞留している小動物を誤って人物と判別することなく、高い精度で人と小動物とを区別して判定することができる。
なお、ST14では、後述するST21における処理のため、フレーム番号とここでの移動判定結果とを対応付けて記憶部3に記憶しておく。
When the movement amount calculation processing of the tracking label area in ST13 is executed, it is first determined whether or not the movement amount of the tracking label is equal to or larger than a predetermined minimum movement amount as the in-area occupation ratio processing (ST14). Here, the minimum movement amount refers to the minimum movement amount that can be regarded as the tracking label area moving. In this embodiment, the minimum movement amount is specifically set in advance in the storage unit 3 as 2 pixels. Suppose that If it is determined in ST14 that the movement amount of the tracking label is equal to or greater than the minimum movement amount, the movement period is incremented (+1) (ST15). Here, the movement period means that the movement amount of the tracking label area is not less than a predetermined movement amount (minimum movement amount) in the period from the appearance time when the label area appears until the determination time for determining whether or not the intruder is present. In this embodiment, this is calculated as the cumulative number of frames added in ST15 from the frame in which the label area appears to the determination frame. On the other hand, if it is determined that the amount of movement of the tracking label is not equal to or greater than the minimum amount of movement, the in-area occupation ratio calculation process is terminated and the in-area occupation ratio is not calculated (updated), but the apparatus closest to ST22, which will be described later. The process shifts to humanity calculation processing.
As described above, in this embodiment, the in-area occupation ratio is calculated only when the movement amount of the label area in the predetermined time is greater than or equal to the predetermined movement amount (minimum movement amount). That is, it is equivalent to calculating the occupation ratio in the area in the evaluation period (movement period) with the movement period as the evaluation period in the present invention. As described above, if the label area is a small animal, the label area is easily moved away from the lower end of the monitoring image when the label area is moving. By using it, a person and a small animal can be distinguished with high accuracy. That is, when a small animal stays near the lower end of the monitoring image, if the above processing is not performed, the feature amount (occupation ratio in the region) is calculated to be large, so that the small animal is erroneously determined to be a person. There is a fear. However, by calculating the occupancy ratio in the evaluation period as the evaluation period, the period (movement period) in which the movement amount of the label area is greater than or equal to the predetermined movement amount (minimum movement amount) as in the above process, Since it is possible to calculate by excluding the residence period of the small animal from the evaluation period, it is possible to discriminate between the person and the small animal with high accuracy without erroneously discriminating the staying small animal as a person.
In ST14, for the processing in ST21 described later, the frame number and the movement determination result here are stored in the storage unit 3 in association with each other.

次に、ST14にて追跡ラベルの移動量が予め定めた最小移動量以上であると判定され、ST15にて移動期間がインクリメント(+1)されると、追跡ラベル領域が監視画像下端から所定領域内に存在するか否かを判定する(ST16)。すなわち、追跡ラベル領域の外接矩形座標計算処理にて求めた外接矩形の下端y座標が、画面下端から所定のy座標以内(10ピクセル内)に位置しているか否かを判定する。
ST16にて追跡ラベルの下端が監視画像下端から所定領域内に存在すると判定されると、領域内存在期間をインクリメント(+1)する(ST17)。これに対し、追跡ラベルの下端が監視画像下端から所定領域内に存在しないと判定されると、処理をST18に進める。なお、ST17では、後述するST21における処理のため、フレーム番号と領域内存在可否の判定結果とを対応付けて記憶部3に記憶しておく。
Next, when it is determined in ST14 that the movement amount of the tracking label is equal to or greater than the predetermined minimum movement amount, and the movement period is incremented (+1) in ST15, the tracking label area is within the predetermined area from the lower end of the monitoring image. (ST16). That is, it is determined whether or not the lower end y coordinate of the circumscribed rectangle obtained by the circumscribed rectangle coordinate calculation process of the tracking label area is located within a predetermined y coordinate (within 10 pixels) from the lower end of the screen.
If it is determined in ST16 that the lower end of the tracking label exists within the predetermined area from the lower end of the monitoring image, the in-area existence period is incremented (+1) (ST17). On the other hand, if it is determined that the lower end of the tracking label does not exist within the predetermined area from the lower end of the monitoring image, the process proceeds to ST18. In ST17, for the processing in ST21 described later, the frame number and the determination result of the presence / absence of the area are stored in the storage unit 3 in association with each other.

次に、ST16にて追跡ラベル領域が監視画像下端から所定領域内に存在すると判定されると、変化領域の移動期間が予め定めた最小評価期間(例えば、10フレームの固定期間)以上であるか否かを判別する(ST18)。ST18にて移動期間が最小評価期間以上であると判定すると、処理をST19へ進め、ST19〜ST21における領域内占有割合を算出(更新)するための処理を継続する。これに対し、移動期間が最小評価期間以上でないと判定すると、領域内占有割合を算出(更新)せずに、後述するST22の装置直近の人らしさ算出処理に移行する。
このように、本発明における評価期間に相当する移動期間が予め定めた所定期間(最小評価期間)以上であるときに特徴量算出手段4cが特徴量(領域内占有割合)を算出することにより、短い評価期間によって特徴量(領域内占有割合)を算出して判定することを避けることができる。すなわち、短い評価期間によって算出された特徴量(領域内占有割合)は極端な値となって表れ易く、判定結果に誤りが生じ易いため、評価期間が予め定めた所定期間(最小評価期間)以上経過した後に初めて特徴量(領域内占有割合)を算出することにより、信頼性の高い判定結果を得ることができる。
Next, if it is determined in ST16 that the tracking label area exists within the predetermined area from the lower end of the monitoring image, is the moving period of the change area equal to or longer than a predetermined minimum evaluation period (for example, a fixed period of 10 frames)? It is determined whether or not (ST18). If it is determined in ST18 that the movement period is equal to or longer than the minimum evaluation period, the process proceeds to ST19, and the process for calculating (updating) the area occupation ratio in ST19 to ST21 is continued. On the other hand, if it is determined that the movement period is not equal to or shorter than the minimum evaluation period, the process shifts to the personality calculation process closest to the apparatus in ST22, which will be described later, without calculating (updating) the in-area occupation ratio.
As described above, when the movement period corresponding to the evaluation period in the present invention is equal to or longer than a predetermined period (minimum evaluation period), the feature amount calculating unit 4c calculates the feature amount (occupation ratio in the region). It is possible to avoid calculating and determining a feature amount (occupation ratio in the region) with a short evaluation period. That is, the feature amount (occupation ratio in the region) calculated by a short evaluation period is likely to appear as an extreme value, and an error is likely to occur in the determination result. Therefore, the evaluation period is equal to or longer than a predetermined period (minimum evaluation period). A highly reliable determination result can be obtained by calculating the feature amount (occupation ratio in the region) for the first time after elapse.

次に、ST18にて変化領域の移動期間が予め定めた最小評価期間以上であると判定されると、移動期間が予め定めた過去期間(判定時刻から予め定めた期間分だけ過去に遡った期間のこと。例えば20フレームの固定期間)以上であるか否かを判別する(ST19)。移動期間が過去期間以上でないと判定すると、「移動期間における領域内存在期間÷移動期間」により領域内占有割合を算出する(ST20)。すなわち、ST20では、移動期間を本発明における評価期間として領域内占有割合を算出する。
これに対し、移動期間が過去期間以上であると判定すると、移動期間のうち判定時刻から予め定めた過去期間の時間分だけ遡った期間(以下、これを「移動期間内過去期間」という)を求め、当該移動期間内過去期間における領域内存在期間を算出する。具体的には、まず、ST14にて記憶部3に記憶されたフレーム番号と移動判定結果との対応付けを示す情報を読み出して、移動していると判定されたフレーム番号のうち、判定時刻から過去期間のフレーム数(ここでは、20フレーム分)だけ遡ったフレーム番号を抽出することで、移動期間内過去期間に該当するフレーム番号を求める。そして、ST17にて記憶部3に記憶されたフレーム番号と領域内存在可否の判定結果との対応付けを示す情報を読み出して、移動期間内過去期間に該当するフレーム番号において所定領域内に存在していたと判定されたフレーム番号を抽出し、そのフレーム数を「移動期間内過去期間における領域内存在期間」として算出する。なお、移動期間内過去期間は20フレームとなる。続いて、「移動期間内過去期間における領域内存在期間÷移動期間内過去期間」により領域内占有割合を算出する(ST21)。すなわち、ST21では、移動期間内過去期間を本発明における評価期間として領域内占有割合を算出する。
このように、移動期間が過去期間以上であるか否かに基づいて領域内占有割合を算出するための評価期間を切り替えることにより、人物と小動物とを高精度に区別することができる。すなわち、移動物体が移動しながら長時間監視範囲内に存在している場合(移動期間が大きい場合)、移動期間を評価期間として領域内占有割合を算出すると母数の評価期間が大きくなることにより、人物と小動物とを弁別するための特徴量(領域内占有割合)に明確な差異が現れづらくなることがある。そのため、この場合は、移動期間のうち判定時刻から予め定めた過去期間の時間分だけ遡った期間(移動期間内過去期間)を評価期間として特徴量(領域内占有割合)を算出することにより、比較的精度良く人物と小動物とを区別して判定することができる。
Next, when it is determined in ST18 that the moving period of the change area is equal to or longer than a predetermined minimum evaluation period, the moving period is a predetermined past period (a period retroactive to the past by a predetermined period from the determination time). For example, it is determined whether or not it is longer than a fixed period of 20 frames (ST19). If it is determined that the movement period is not equal to or longer than the past period, the in-area occupation ratio is calculated by “in-area existing period in movement period ÷ movement period” (ST20). That is, in ST20, the occupation ratio in the area is calculated using the movement period as the evaluation period in the present invention.
On the other hand, if it is determined that the movement period is equal to or longer than the past period, a period of the movement period that is retroactive from the determination time by a predetermined period of time (hereinafter referred to as “the past period within the movement period”). The intra-region existence period in the past period within the movement period is calculated. Specifically, first, information indicating the association between the frame number stored in the storage unit 3 and the movement determination result in ST14 is read, and the frame number determined to be moving is determined from the determination time. By extracting the frame number that goes back by the number of frames in the past period (here, 20 frames), the frame number corresponding to the past period in the movement period is obtained. Then, in ST17, information indicating the association between the frame number stored in the storage unit 3 and the determination result of the presence / absence of the area is read, and the frame number corresponding to the past period within the moving period exists in the predetermined area. The frame number determined to have been extracted is extracted, and the number of frames is calculated as “the existing period in the area in the past period in the movement period”. The past period within the movement period is 20 frames. Subsequently, the occupation ratio in the area is calculated by “the existing period in the area in the past period in the movement period ÷ the past period in the movement period” (ST21). That is, in ST21, the in-area occupation ratio is calculated using the past period in the movement period as the evaluation period in the present invention.
Thus, by switching the evaluation period for calculating the in-region occupation ratio based on whether or not the movement period is equal to or longer than the past period, it is possible to distinguish the person and the small animal with high accuracy. In other words, if the moving object is in the monitoring range for a long time while moving (when the moving period is long), calculating the occupation ratio in the area with the moving period as the evaluation period will increase the evaluation period of the parameter. In some cases, it is difficult to make a clear difference in the feature amount (occupation ratio in the region) for discriminating between a person and a small animal. Therefore, in this case, by calculating the feature amount (occupation ratio in the region) with the period (the past period in the movement period) that is back by the time of the past period determined in advance from the determination time in the movement period as the evaluation period, It is possible to distinguish and determine a person and a small animal with relatively high accuracy.

なお、最小移動量、最小評価期間、過去期間は、それぞれ予め記憶部3に記憶されている。また、「移動期間」及び「領域内存在期間」は、追跡ラベル領域ごとに対応付けて記憶部3に保持される。また、ST20又はST21にて算出した領域内占有割合については、次に領域内占有割合が計算されて更新されるまで、追跡ラベル領域ごとに保持しておき、領域内占有割合算出処理によって領域内占有割合が算出されなかった場合(すなわち、ST14又はST18にてNoの場合)でも、後述する装置直近の人らしさ算出処理以降の処理で利用できるようにする。   Note that the minimum movement amount, the minimum evaluation period, and the past period are stored in the storage unit 3 in advance. Further, the “movement period” and “in-area existence period” are stored in the storage unit 3 in association with each tracking label area. Further, the area occupation ratio calculated in ST20 or ST21 is held for each tracking label area until the next area occupation ratio is calculated and updated, and the area occupation ratio is calculated by the area occupation ratio calculation process. Even when the occupation ratio is not calculated (that is, in the case of No in ST14 or ST18), it can be used in the process after the humanity calculation process closest to the apparatus described later.

以上のように、本実施例では、人物であるか否かを判定するための特徴量の一つとして、領域内存在期間が評価期間に占める割合である「領域内占有割合」を算出している。すなわち、領域内占有割合は、「評価期間における領域内存在期間÷評価期間」として算出している。
この際、本実施例では、「評価期間」を「出現期間において所定以上の移動量を生じている期間(移動期間)」又は「移動期間のうち判定時刻から予め定めた過去期間の時間分だけ遡った期間(移動期間内過去期間)」とし、当該評価期間における領域内存在期間と当該評価期間との割合として領域内占有割合を算出している。
しかし、これに限らず、「評価期間」を「出現期間」又は「過去期間」とし、当該評価期間における領域内存在期間と当該評価期間との割合として領域内占有割合を算出してもよい。すなわち、これは、ST14にて追跡ラベルの移動量を判定せずに領域内占有割合を算出することに相当する。
したがって、本発明における領域内占有割合は、図3に表すように、(1)出現期間における領域内存在期間が出現期間に占める割合、(2)過去期間における領域内存在期間が過去期間に占める割合、(3)移動期間における領域内存在期間が移動期間に占める割合、(4)移動期間内過去期間における領域内存在期間が過去期間に占める割合、によって算出することができる。
なお、上述した領域内占有割合の計算式は予め記憶部3に記憶されている。
As described above, in this embodiment, as one of the feature amounts for determining whether or not a person is a person, an “area occupation ratio” that is a ratio of the area existing period to the evaluation period is calculated. Yes. That is, the occupation ratio in the area is calculated as “in-area existing period in evaluation period ÷ evaluation period”.
At this time, in this embodiment, the “evaluation period” is set to “a period during which an amount of movement greater than or equal to a predetermined amount in the appearance period (movement period)” or “a past period that is predetermined from the determination time in the movement period”. The period occupied in the area is calculated as the ratio of the period existing in the area and the evaluation period in the evaluation period.
However, the present invention is not limited to this, and the “evaluation period” may be “appearance period” or “past period”, and the in-area occupation ratio may be calculated as the ratio between the in-area existence period and the evaluation period in the evaluation period. That is, this corresponds to calculating the occupation ratio in the region without determining the movement amount of the tracking label in ST14.
Therefore, as shown in FIG. 3, the in-area occupation ratio in the present invention is (1) the ratio of the in-area existence period in the appearance period to the appearance period, and (2) the in-area existence period in the past period in the past period. It can be calculated by the ratio, (3) the ratio of the in-area existence period in the movement period to the movement period, and (4) the ratio of the in-area existence period in the past period in the movement period to the past period.
Note that the above-described formula for calculating the occupation ratio in the area is stored in the storage unit 3 in advance.

ところで、上述した領域内存在期間の算出には、図6に示すように、画面下端のy座標とラベル外接矩形の下端y座標とのピクセル距離(画像下端y座標−ラベル外接矩形の下端y座標)に応じた評価関数を用意しておき、その出力値(領域内存在期間に相当)を利用する方法も考えられる。例えば対象のラベル外接矩形が画面下端から2ピクセルずれた位置に存在したときには、図6の評価関数に基づき、領域内存在期間を+0.8するといったものである。
これにより、ラベル外接矩形の下端と監視画像の下端とが接している場合、当該ラベル領域は最も人物らしいとして大きい領域内占有割合が算出されることになる。また、たとえ、ラベル外接矩形の下端が監視画像の下端に接していなくても、その距離が比較的小さいならば、抽出精度の問題に起因する誤差(例えば人物の衣服が背景と非常に似ている箇所を変化領域として抽出されにくいことに起因する誤差)の疑いが強いため、比較的大き目の領域内占有割合が算出されることになる。一方、たとえ、監視画像の下端に略接しているとみなせる距離の範囲内にラベル領域があったとしても、その距離が大きいほど、抽出精度の問題に起因する誤差の疑いが弱いため、人物らしくないとして小さ目の領域内占有割合が算出されることになる。このように、ラベル領域の下端と監視画像の下端との距離を考慮して領域内占有割合を算出することにより、ラベル領域の抽出精度に関わらず、人物と小動物とを精度良く区別して判定することができる。そして、人物を小動物とみなすことによる失報を低減することができ、また、小動物を人物とみなすことによる誤報を低減することができる。
なお、上記の抽出精度に起因する誤差は、撮像部2として熱画像センサを用いた場合、人物像の衣服の温度と背景温度との差異が明確に表れにくいため、より顕著に現れる。したがって、撮像部2として熱画像センサを用いた場合に上記処理を活用することにより、より効果的に機能し、人物と小動物とを精度良く区別して判定できる。
By the way, as shown in FIG. 6, the pixel existence distance between the lower end y coordinate of the screen and the lower end y coordinate of the label circumscribing rectangle is calculated (the image lower end y coordinate−the lower end y coordinate of the label circumscribing rectangle). It is also possible to prepare an evaluation function in accordance with) and use the output value (corresponding to the in-region existence period). For example, when the target label circumscribing rectangle exists at a position shifted by 2 pixels from the lower end of the screen, the in-region existence period is set to +0.8 based on the evaluation function of FIG.
Thereby, when the lower end of the label circumscribing rectangle and the lower end of the monitoring image are in contact with each other, the label area is most likely to be a person, and a large in-area occupation ratio is calculated. Even if the lower end of the circumscribed rectangle of the label is not in contact with the lower end of the monitoring image, if the distance is relatively small, an error caused by the extraction accuracy problem (for example, the person's clothes are very similar to the background) Since there is a strong suspicion of an error (because it is difficult to extract a certain location as a change area), a relatively large area occupation ratio is calculated. On the other hand, even if there is a label area within the range of distance that can be regarded as being substantially in contact with the lower end of the monitoring image, the larger the distance, the less likely the error is due to the problem of extraction accuracy. If it does not exist, the occupation ratio in the smaller area is calculated. In this way, by calculating the occupancy ratio in the area in consideration of the distance between the lower end of the label area and the lower end of the monitoring image, the person and the small animal are accurately distinguished and determined regardless of the extraction accuracy of the label area. be able to. And the misreporting by considering a person as a small animal can be reduced, and the misinformation by considering a small animal as a person can be reduced.
Note that the error due to the above-described extraction accuracy appears more prominently when a thermal image sensor is used as the imaging unit 2 because the difference between the clothing temperature of the human image and the background temperature does not appear clearly. Therefore, when a thermal image sensor is used as the imaging unit 2, the above processing is utilized to function more effectively, and a person and a small animal can be distinguished and determined with high accuracy.

ST14〜ST21における領域内占有割合算出処理にて領域内占有割合が算出されると、続いて、装置直近の人らしさ算出処理に移行する(ST22)。   When the area occupancy ratio is calculated in the area occupancy ratio calculation process in ST14 to ST21, the process proceeds to the humanity calculation process closest to the apparatus (ST22).

次に、ST22の装置直近の人らしさ算出処理では、ST11の追跡ラベル領域の外接矩形座標計算処理にて求めた外接矩形の下端y座標、ST12の透視変換処理にて求めた追跡ラベル領域外接矩形の実空間上での推定幅・推定高さ、上述した領域内占有割合をパラメータとして、装置直近の人らしさを算出する。ここで求めた人らしさは、ST8の侵入者判定処理において、対象の追跡ラベル領域が侵入者か否かを判定するための情報(特徴量)として利用される。   Next, in the humanity calculation process closest to the apparatus in ST22, the lower end y coordinate of the circumscribed rectangle obtained in the circumscribed rectangle coordinate calculation process of the tracking label area in ST11, and the tracking label area circumscribed rectangle obtained in the perspective transformation process in ST12 Using the estimated width / estimated height in real space and the above-mentioned area occupation ratio as parameters, the humanity closest to the apparatus is calculated. The humanity obtained here is used as information (feature amount) for determining whether or not the target tracking label area is an intruder in the intruder determination process of ST8.

なお、ST22の装置直近の人らしさの算出処理は、前述のパラメータが、それぞれに定められた条件を満たしている場合にのみ、装置直近の人らしさを1とし、それ以外の場合には0とするというように計算する。具体的には、(1)外接矩形の下端y座標が監視画面下端から所定範囲内に存在している、(2)実空間上での推定幅が20cm〜100cmの範囲内、(3)実空間上での推定高さが70cm〜160cmの範囲内、(4)領域内占有割合が0.9〜1.0の範囲内として、各パラメータの条件を定め、(1)〜(4)のすべての条件を満たす場合のみ、装置直近の人らしさを1とし、(1)〜(4)の条件の一つでも満たさない場合は、装置直近の人らしさを0とする。   It should be noted that the personality calculation process closest to the apparatus in ST22 sets the humanity closest to the apparatus to 1 only when the above-described parameters satisfy the respective conditions, and 0 otherwise. Calculate as follows. Specifically, (1) the lower end y-coordinate of the circumscribed rectangle is within a predetermined range from the lower end of the monitoring screen, (2) the estimated width in real space is in the range of 20 cm to 100 cm, (3) the actual The estimated height in space is within the range of 70 cm to 160 cm, (4) the condition of each parameter is defined as the area occupation ratio is within the range of 0.9 to 1.0, and (1) to (4) Only when all the conditions are satisfied, the personality close to the apparatus is set to 1, and when any one of the conditions (1) to (4) is not satisfied, the personality close to the apparatus is set to 0.

続いて、装置直近以外の人らしさ算出処理を実行する(ST23)。この装置直近以外の人らしさ算出処理では、画像監視装置1から離れた場所での侵入者と小動物の区別のための人らしさ(以下、「装置直近以外の人らしさ」と言う)を算出する。具体的には、対象のラベル領域について、(1)実空間上での推定幅が60cm以上100cm以下、(2)実空間上での推定高さが140cm以上200cm以下、(3)領域内占有割合が0〜0.1の範囲内といった条件を定め、(1)〜(3)のすべての条件を満たす場合のみ、装置直近以外の人らしさを1とし、(1)〜(3)の条件の一つでも満たさない場合は、装置直近以外の人らしさを0とする。   Subsequently, a humanity calculation process other than the closest to the apparatus is executed (ST23). In the humanity calculation process other than the apparatus closest to the apparatus, the humanity for distinguishing the intruder and the small animal at a place away from the image monitoring apparatus 1 (hereinafter referred to as “personality other than the apparatus closest to the apparatus”) is calculated. Specifically, for the target label area, (1) the estimated width in the real space is 60 cm to 100 cm, (2) the estimated height in the real space is 140 cm to 200 cm, (3) the area is occupied The condition that the ratio is in the range of 0 to 0.1 is defined, and only when all the conditions (1) to (3) are satisfied, the humanity other than the closest to the apparatus is set to 1, and the conditions (1) to (3) If one of the above is not satisfied, the humanity other than the closest to the device is set to zero.

次に、人らしさ算出処理を実行する(ST24)。この人らしさ算出処理では、上述したST22の装置直近の人らしさ算出処理にて求めた装置直近の人らしさと、ST23の装置直近以外の人らしさ算出処理にて求めた装置直近以外の人らしさとを元に、対象の追跡ラベル領域の人らしさを算出する。具体的には、装置直近の人らしさと装置直近以外の人らしさとを比較し、大きな方の値を人らしさの値として採用する。   Next, humanity calculation processing is executed (ST24). In this humanity calculation process, the humanity closest to the apparatus obtained in the above-described personality calculation process in ST22 and the humanity other than the apparatus immediate obtained in the humanity calculation process other than the apparatus immediate in ST23. Based on the above, the humanity of the target tracking label area is calculated. Specifically, the humanity closest to the apparatus is compared with the humanity other than the apparatus immediate, and the larger value is adopted as the humanity value.

ところで、これまでに示した処理では、対象のラベル領域が装置直近の侵入者によるものの場合は装置直近の人らしさが高くなり、装置から離れた場所での侵入者の場合は装置直近以外の人らしさが高くなるように条件付けをしている。このため、装置直近の人らしさと装置直近以外の人らしさのうち、大きい方の値として採用することで、侵入者の存在位置が、装置直近・装置から離れた場所のいずれであっても、常に人らしさを高くすることができる。   By the way, in the processing shown so far, if the target label area is from an intruder closest to the device, the person-likeness of the device is high, and if the intruder is away from the device, a person other than the device closest to the device Conditioning is performed to increase the appearance. For this reason, by adopting as the larger value of the humanity closest to the device and the humanity other than the device closest, the position of the intruder is either near the device or away from the device, It is always possible to increase humanity.

本発明は、上記実施例に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施例で実施されてもよいものである。また、実施例に記載した効果は、これに限定されるものではない。   The present invention is not limited to the above embodiments, and may be implemented in various different embodiments within the scope of the technical idea described in the claims. Moreover, the effect described in the Example is not limited to this.

前記実施例では、特徴量算出手段4cにおける特徴量算出処理にて、人物と小動物とを判別するための特徴量として、変化領域が監視画面の下端から所定領域内に存在する割合を表す「領域内占有割合」を算出している。
しかし、これに限らず、特徴量算出手段4cは、「領域内占有割合」に代わる特徴量として、評価期間において変化領域(の外接矩形)の下端が監視画面の下端に接している期間の時間的割合を表す「下端接触割合」を算出しても良い。この場合、上記実施例における「領域内存在期間」を、変化領域(の外接矩形)の下端が監視画像の下端と接している期間を表す「下端接触期間」に置き換えて算出すればよい。すなわち、図5のST16における判定では、追跡ラベルが監視画像下端に接しているか否かを判定する。そして、図5のST17におけるインクリメント処理では、「領域内存在期間」を「下端接触期間」として置き換える。そして、図5のST20における下端接触割合の計算式は「下端接触割合=移動期間における下端接触期間÷移動期間」となり、ST21における下端接触割合の計算式は「下端接触割合=移動期間内過去期間における下端接触期間÷過去期間」となる。
このように、監視画像における変化領域が画像下端に接している期間を示す下端接触期間を求め、この下端接触期間が評価期間に占める割合に応じた特徴量に基づいて変化領域が人物像であるか否かを判定することにより、上述した変化領域が監視画像下端から所定領域内に存在する変化領域の割合に応じた特徴量を算出する場合と比較して、人物と小動物とを弁別するためのより特徴的な事象(人物による変化領域は小動物の変化領域と比較して、監視画像下端に接している頻度が大きいといった事象)を捉えて、より高い精度における判定を行うことができる。すなわち、小動物が監視画像下端付近に沿って横方向に移動しているような場合においても、人物像と小動物とを判別することができる。さらに、上述した変化領域が監視画像下端から所定領域内に存在する変化領域の割合に応じた特徴量を算出する場合と比較して、情報量を削減して画像下端近傍における人体と小動物とを区別して判定することができる。
In the above embodiment, as the feature quantity for discriminating between a person and a small animal in the feature quantity calculation process in the feature quantity calculation unit 4c, the “area” represents the ratio of the change area existing within the predetermined area from the lower end of the monitoring screen. The “occupancy ratio” is calculated.
However, the present invention is not limited to this, and the feature quantity calculation means 4c uses the time period during which the lower end of the change area (the circumscribed rectangle) is in contact with the lower end of the monitoring screen as the feature quantity instead of the “occupation ratio in area”. The “lower end contact ratio” representing the target ratio may be calculated. In this case, the “in-area existence period” in the above-described embodiment may be calculated by replacing the “lower end contact period” that represents the period in which the lower end of the change area (the circumscribed rectangle) is in contact with the lower end of the monitoring image. That is, in the determination in ST16 of FIG. 5, it is determined whether or not the tracking label is in contact with the lower end of the monitoring image. In the increment process in ST17 of FIG. 5, the “in-area existence period” is replaced with the “lower end contact period”. The calculation formula of the lower end contact ratio in ST20 of FIG. 5 is “lower end contact ratio = lower end contact period in moving period ÷ movement period”, and the lower end contact ratio calculation formula in ST21 is “lower end contact ratio = past period in moving period”. The lower end contact period in ÷ the past period ”.
Thus, the lower end contact period indicating the period during which the change area in the monitoring image is in contact with the lower end of the image is obtained, and the change area is a person image based on the feature amount corresponding to the ratio of the lower end contact period to the evaluation period. In order to discriminate between a person and a small animal by determining whether or not the above-described change area calculates a feature amount according to the ratio of the change area existing in the predetermined area from the lower end of the monitoring image. It is possible to make a determination with higher accuracy by capturing a more characteristic event (an event in which a change area by a person is more frequently in contact with the lower end of a monitoring image than a change area of a small animal). That is, even when the small animal is moving laterally along the vicinity of the lower end of the monitoring image, it is possible to discriminate between the person image and the small animal. Furthermore, compared to the case where the above-described change area calculates the feature amount according to the ratio of the change area existing in the predetermined area from the lower end of the monitoring image, the information amount is reduced and the human body and the small animal in the vicinity of the lower end of the image are reduced. It can be distinguished and determined.

前記実施例では、特徴量算出手段4cが特徴量として監視画像上における変化領域の大きさから透視変換によって推定される実空間での大きさ(推定幅・推定高さ)、領域内占有割合(又は下端接触割合)などを算出し、これらの特徴量に基づいて人らしさ(装置直近の人らしさ、装置直近以外の人らしさ)を算出し、判定手段4dがこれら人らしさに基づいて変化領域が人物か小動物かを判定している。
しかし、これに限らず、特徴量算出手段4cは、特徴量として領域内占有割合(又は下端接触割合)のみを算出し、当該特徴量に基づいて判定手段4dは、変化領域が人物であるか小動物であるかを判定しても良い。
すなわち、ST22〜ST24において人らしさを算出するための一連の処理を省略し、ST8において判定条件として、例えば「領域内占有割合(又は下端接触割合)が所定値以上であるとき(又は、所定値以上の領域内占有割合が所定フレーム以上継続したとき)に、追跡ラベル領域を侵入者であると判定する」とし、当該判定条件に基づいて判定手段4dが人物であるか小動物であるか判定しても良い。
In the above-described embodiment, the feature amount calculation unit 4c uses the feature space to estimate the size in the real space (estimated width / estimated height) estimated by the perspective transformation from the size of the change region on the monitoring image, and the occupation ratio in the region ( Or the lower end contact ratio), etc., and the humanity (personality close to the apparatus, humanity other than the apparatus closeness) is calculated based on these feature amounts, and the determination means 4d determines the change region based on these humanities. Judging whether a person or a small animal.
However, the present invention is not limited to this, and the feature amount calculation unit 4c calculates only the area occupation ratio (or the lower end contact ratio) as the feature amount. Based on the feature amount, the determination unit 4d determines whether the change region is a person. You may determine whether it is a small animal.
That is, a series of processes for calculating humanity in ST22 to ST24 is omitted, and as a determination condition in ST8, for example, “when the area occupation ratio (or lower end contact ratio) is equal to or higher than a predetermined value (or a predetermined value) When the above occupancy ratio in the area continues for a predetermined frame or more), the tracking label area is determined to be an intruder, and based on the determination condition, it is determined whether the determination means 4d is a person or a small animal. May be.

1 画像監視装置
2 撮像部
3 記憶部
4 画像処理部
4a 抽出手段
4b 追跡手段
4c 特徴量算出手段
4d 判定手段
5 出力部
DESCRIPTION OF SYMBOLS 1 Image monitoring apparatus 2 Imaging part 3 Memory | storage part 4 Image processing part 4a Extraction means 4b Tracking means 4c Feature-value calculation means 4d Determination means 5 Output part

Claims (3)

監視空間を撮像した監視画像を順次取得し、前記監視画像を画像処理して監視空間における人物の有無を判定する画像監視装置であって、
前記監視画像と予め記憶した監視空間の基準画像とを比較して前記基準画像から変化した変化領域を抽出する抽出部と、
前記変化領域を時間的に追跡する追跡部と、
前記変化領域の出現時刻から人物の有無を判定する判定時刻までにおける所定の評価期間において該変化領域の下端と前記監視画像の下端とが略接しているとみなせる期間である領域内存在期間を求め、該領域内存在期間が前記評価期間に占める割合が大きくなるほど該変化領域が人物像らしいとする特徴量を算出する特徴量算出部と、
前記特徴量を用いて前記変化領域が人物像であるか否かを判定する判定部と、
を備えることを特徴とした画像監視装置。
An image monitoring apparatus that sequentially acquires monitoring images obtained by imaging a monitoring space, and performs image processing on the monitoring image to determine the presence or absence of a person in the monitoring space,
An extraction unit that compares the monitoring image with a reference image of a monitoring space stored in advance and extracts a changed region from the reference image;
A tracking unit that temporally tracks the change region;
An in-region existence period is obtained in which a lower end of the change region and a lower end of the monitoring image can be regarded as being substantially in contact in a predetermined evaluation period from the appearance time of the change region to a determination time for determining the presence or absence of a person. A feature amount calculation unit that calculates a feature amount that the change region is likely to be a human image as the ratio of the in-region existence period to the evaluation period increases;
A determination unit that determines whether or not the change region is a person image using the feature amount;
An image monitoring apparatus comprising:
前記特徴量算出部は、前記特徴量を算出する際、前記変化領域の下端と前記監視画像の下端との距離が大きくなるほど前記領域内存在期間の時間長を小さくするよう補正する請求項1に記載の画像監視装置。 The feature amount calculation unit, when calculating the feature amount, corrects the time length of the in-region existence period to be shorter as the distance between the lower end of the change region and the lower end of the monitoring image becomes larger. The image monitoring apparatus described. 前記特徴量算出部は、前記変化領域が所定以上移動している1又は複数の期間のみを前記所定の評価期間として算出する請求項1又は2に記載の画像監視装置。 3. The image monitoring apparatus according to claim 1, wherein the feature amount calculation unit calculates only one or a plurality of periods in which the change region has moved by a predetermined amount or more as the predetermined evaluation period.
JP2011263817A 2011-12-01 2011-12-01 Image monitoring device Active JP5805511B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011263817A JP5805511B2 (en) 2011-12-01 2011-12-01 Image monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011263817A JP5805511B2 (en) 2011-12-01 2011-12-01 Image monitoring device

Publications (2)

Publication Number Publication Date
JP2013117772A true JP2013117772A (en) 2013-06-13
JP5805511B2 JP5805511B2 (en) 2015-11-04

Family

ID=48712324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011263817A Active JP5805511B2 (en) 2011-12-01 2011-12-01 Image monitoring device

Country Status (1)

Country Link
JP (1) JP5805511B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015141635A (en) * 2014-01-29 2015-08-03 セコム株式会社 object detection sensor and program
JP2016038686A (en) * 2014-08-06 2016-03-22 株式会社豊田中央研究所 Monitoring apparatus and program
JP2016532182A (en) * 2013-06-14 2016-10-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated Computer vision application processing
JP2017102500A (en) * 2015-11-30 2017-06-08 富士通株式会社 Area extraction device, area extraction program, and area extraction method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155167A (en) * 2004-11-29 2006-06-15 Secom Co Ltd Image recognition device
JP2008242571A (en) * 2007-03-26 2008-10-09 Honda Motor Co Ltd Object detection device
JP2010039580A (en) * 2008-07-31 2010-02-18 Secom Co Ltd Traveling object tracking device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155167A (en) * 2004-11-29 2006-06-15 Secom Co Ltd Image recognition device
JP2008242571A (en) * 2007-03-26 2008-10-09 Honda Motor Co Ltd Object detection device
JP2010039580A (en) * 2008-07-31 2010-02-18 Secom Co Ltd Traveling object tracking device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015032636; 羽下 哲司: '時空間動き特徴に着目した屋外侵入者監視技術に関する研究' 情報処理学会研究報告 第2006巻 第51号, 20060519, p.259-274, 社団法人情報処理学会 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016532182A (en) * 2013-06-14 2016-10-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated Computer vision application processing
US10091419B2 (en) 2013-06-14 2018-10-02 Qualcomm Incorporated Computer vision application processing
US10694106B2 (en) 2013-06-14 2020-06-23 Qualcomm Incorporated Computer vision application processing
JP2015141635A (en) * 2014-01-29 2015-08-03 セコム株式会社 object detection sensor and program
JP2016038686A (en) * 2014-08-06 2016-03-22 株式会社豊田中央研究所 Monitoring apparatus and program
JP2017102500A (en) * 2015-11-30 2017-06-08 富士通株式会社 Area extraction device, area extraction program, and area extraction method
US10410051B2 (en) 2015-11-30 2019-09-10 Fujitsu Limited Method of extracting a region in a distance image, storage medium, and head mounted display apparatus

Also Published As

Publication number Publication date
JP5805511B2 (en) 2015-11-04

Similar Documents

Publication Publication Date Title
JP4216668B2 (en) Face detection / tracking system and method for detecting and tracking multiple faces in real time by combining video visual information
US10212324B2 (en) Position detection device, position detection method, and storage medium
JP5218168B2 (en) Imaging device, moving object detection method, moving object detection circuit, program, and monitoring system
JP6554169B2 (en) Object recognition device and object recognition system
US20170032192A1 (en) Computer-vision based security system using a depth camera
JP6525545B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND COMPUTER PROGRAM
JP2008192131A (en) System and method for performing feature level segmentation
WO2007086926A2 (en) Human detection and tracking for security applications
JP6436077B2 (en) Image processing system, image processing method, and program
JP5832910B2 (en) Image monitoring device
US12087039B2 (en) Information processing device, information processing method, and program recording medium
JP5805511B2 (en) Image monitoring device
KR20160129402A (en) Method and apparatus for detecting a fainting situation of an object by using thermal image camera
JP2011209794A (en) Object recognition system, monitoring system using the same, and watching system
JP5679760B2 (en) Intruder detection device
JP7243372B2 (en) Object tracking device and object tracking method
JP6831396B2 (en) Video monitoring device
JP5877722B2 (en) Image monitoring device
WO2013136395A1 (en) Sensor device, sensing method, and recording medium storing program
WO2021140844A1 (en) Human body detection device and human body detection method
JP2014048947A (en) Image monitoring device
JP5893400B2 (en) Image monitoring device
JP5865709B2 (en) Image monitoring device
JP6767788B2 (en) Information processing equipment, control methods and programs for information processing equipment
JP2020149132A (en) Image processing apparatus and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150902

R150 Certificate of patent or registration of utility model

Ref document number: 5805511

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250