JP5106356B2 - Image monitoring device - Google Patents

Image monitoring device Download PDF

Info

Publication number
JP5106356B2
JP5106356B2 JP2008293542A JP2008293542A JP5106356B2 JP 5106356 B2 JP5106356 B2 JP 5106356B2 JP 2008293542 A JP2008293542 A JP 2008293542A JP 2008293542 A JP2008293542 A JP 2008293542A JP 5106356 B2 JP5106356 B2 JP 5106356B2
Authority
JP
Japan
Prior art keywords
image
area
monitoring
discriminator
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008293542A
Other languages
Japanese (ja)
Other versions
JP2010122746A (en
Inventor
修 徳見
匠 宗片
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2008293542A priority Critical patent/JP5106356B2/en
Publication of JP2010122746A publication Critical patent/JP2010122746A/en
Application granted granted Critical
Publication of JP5106356B2 publication Critical patent/JP5106356B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、監視領域内に侵入した物体を、監視領域を撮影した画像から検出する画像監視装置に関する。   The present invention relates to an image monitoring apparatus that detects an object that has entered a monitoring area from an image obtained by photographing the monitoring area.

従来より、対象物体が存在する画像と対象物体が存在しない画像とを用いて事前学習させた識別器に画像を入力し、その識別器により画像中の対象物体を検出する物体検出装置が提案されている。   Conventionally, an object detection device has been proposed in which an image is input to a classifier trained in advance using an image in which the target object exists and an image in which the target object does not exist, and the target object in the image is detected by the classifier. ing.

例えば、特許文献1には、ブースティングにより集団学習された複数の弱判別器とこれらの出力を重み付き多数決する加算器とからなる判別器を有する対象物体検出装置が開示されている。
また、特許文献2には、複数の識別器と識別結果統合部とを有する統合識別器を有する被写体識別装置が開示されている。そして特許文献2には、各識別器が、所定の被写体の画像、もしくは所定の被写体の画像とその被写体以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型の識別器であることが記載されている。
さらに、特許文献3には、人物追跡装置が開示されている。その人物追跡装置は、パーティクルフィルタを用いて人物の状態遷移を推定し、時刻tにおける人物の状態を示すN個の仮説を生成する。そして人物追跡装置は、複数の識別器のうち、生成された仮説に適用される識別器を選択するとともに、その識別器の識別結果に基づいてN個の仮説を統合し、統合後の仮説を用いて人物を追跡する。また特許文献3には、各識別器が、仮説の評価にHaar-like特徴を用いているカスケード型AdaBoostベース識別器であることが記載されている。
For example, Patent Document 1 discloses a target object detection device having a discriminator including a plurality of weak discriminators subjected to collective learning by boosting and an adder that performs weighted majority determination of these outputs.
Patent Document 2 discloses a subject identification device having an integrated classifier having a plurality of classifiers and an identification result integration unit. Patent Document 2 discloses a learning discriminating type discriminator in which each discriminator discriminates by learning learning data based on a predetermined subject image or both a predetermined subject image and an image other than the subject. It is described that.
Furthermore, Patent Document 3 discloses a person tracking device. The person tracking apparatus estimates the state transition of the person using the particle filter, and generates N hypotheses indicating the state of the person at time t. The person tracking device selects a classifier to be applied to the generated hypothesis among a plurality of classifiers, integrates the N hypotheses based on the identification result of the classifier, and determines the combined hypothesis. Use to track a person. Patent Document 3 describes that each classifier is a cascade type AdaBoost-based classifier that uses Haar-like features for hypothesis evaluation.

特開2005−157679号公報JP 2005-157679 A 特開2006−18707号公報JP 2006-18707 A 特開2008−26974号公報JP 2008-26974 A

上述したような物体検出装置では、識別器に検出対象となる物体を事前学習させている。そのため、識別器を学習する時点において、物体検出装置が特定の場所に設置されることが想定されていない場合、物体検出装置の設置場所によっては、その事前学習による学習結果が、設置場所に適合したものとならないおそれがあった。例えば、学習に使用された画像に含まれた検出対象物体(例えば、人)と類似した物体(例えば、マネキンまたはハンガーに掛けられた服)が監視領域内に存在すると、物体検出装置は、その監視領域を撮影した監視画像に検出対象物体が存在すると誤判定してしまうおそれがある。   In the object detection apparatus as described above, an object to be detected is learned in advance by a classifier. Therefore, when it is not assumed that the object detection device is installed at a specific location at the time of learning the discriminator, the learning result of the prior learning may match the installation location depending on the installation location of the object detection device. There was a risk that it would not be. For example, when an object (for example, clothes hung on a mannequin or a hanger) similar to a detection target object (for example, a person) included in the image used for learning exists in the monitoring area, the object detection device There is a risk of erroneous determination that a detection target object exists in the monitoring image obtained by photographing the monitoring area.

そこで、本発明の目的は、監視領域内に検出対象物体と類似する物体が存在する場合でも、その類似物体を検出対象物体として誤検出することを防止可能な画像監視装置を提供することにある。   Therefore, an object of the present invention is to provide an image monitoring apparatus capable of preventing erroneous detection of a similar object as a detection target object even when an object similar to the detection target object exists in the monitoring region. .

かかる課題を解決するための本発明は、特定の監視領域を撮影した画像から検出対象物を検出する画像監視装置を提供する。係る画像監視装置は、監視領域を撮影した監視画像を取得する画像入力部と、監視領域に検出対象物が存在しない状況において監視領域を撮影した画像である背景画像を記憶する記憶部と、監視画像及び背景画像の所定領域における検出対象物らしさの度合いを算出する識別器を有し、その識別器により、画像入力部により取得された監視画像の所定領域についてのその度合いを信頼度として算出し、かつ、その識別器により、監視画像の所定領域に対応する背景画像の所定領域についてのその度合いを類似度として算出する識別部と、信頼度と類似度との相対関係により、監視領域内に検出対象物が存在するか否かを判定する判定部とを有する。   This invention for solving this subject provides the image monitoring apparatus which detects a detection target object from the image which image | photographed the specific monitoring area | region. The image monitoring apparatus includes an image input unit that acquires a monitoring image obtained by photographing a monitoring region, a storage unit that stores a background image that is an image obtained by photographing the monitoring region in a situation where a detection target does not exist in the monitoring region, and a monitoring It has a discriminator that calculates the degree of likelihood of a detection object in a predetermined area of the image and the background image, and the discriminator calculates the degree of the predetermined area of the monitoring image acquired by the image input unit as the reliability. And an identification unit that calculates the degree of the predetermined area of the background image corresponding to the predetermined area of the monitoring image as a similarity by the identifier, and the relative relationship between the reliability and the similarity, And a determination unit that determines whether or not a detection target exists.

また、本発明に係る画像監視装置において、判定部は、信頼度から類似度を引いた差が所定の閾値よりも大きいとき、監視領域内に検出対象物が存在すると判定することが好ましい。   In the image monitoring apparatus according to the present invention, it is preferable that the determination unit determines that the detection target exists in the monitoring area when the difference obtained by subtracting the similarity from the reliability is larger than a predetermined threshold.

さらに、本発明に係る画像監視装置において、識別部が有する識別器は、複数の識別器が直列に接続されたカスケード型識別器であり、直列に接続された複数の識別器のそれぞれは、所定の領域に検出対象物が存在するか否かの識別結果を出力するとともに、カスケード型識別器は、何れかの段の識別器が検出対象物が存在しないとの識別結果を出力するまで、次の段の識別器が識別結果を出力し、かつ信頼度及び類似度は、カスケード型識別器において、所定の領域に検出対象物が存在するとの識別結果を出力した最後の識別器の段数であることが好ましい。   Furthermore, in the image monitoring apparatus according to the present invention, the classifier included in the classifier is a cascade type classifier in which a plurality of classifiers are connected in series, and each of the plurality of classifiers connected in series is a predetermined classifier. The identification result indicating whether or not the detection target exists in the region of the output is output at the same time, and the cascade type discriminator continues until the discriminator at any stage outputs the identification result that the detection target does not exist. The discriminator at the stage outputs the discrimination result, and the reliability and similarity are the number of stages of the last discriminator that output the discrimination result that the detection target exists in the predetermined area in the cascade discriminator. It is preferable.

さらに、本発明に係る画像監視装置において、識別部が有する識別器は、複数の識別器が並列に接続された並列型識別器であり、並列に接続された複数の識別器のそれぞれは、所定の領域に検出対象物が存在するか否かの識別結果を出力するとともに、並列型識別器は、並列に接続された複数の識別器のうち、検出対象物が存在するとの識別結果を出力した識別器の数を信頼度及び類似度とすることが好ましい。   Furthermore, in the image monitoring apparatus according to the present invention, the classifier included in the classifier is a parallel classifier in which a plurality of classifiers are connected in parallel, and each of the plurality of classifiers connected in parallel is a predetermined classifier. The identification result indicating whether or not the detection target exists in the region of the output is output, and the parallel type discriminator outputs the identification result that the detection target exists among the plurality of classifiers connected in parallel. It is preferable that the number of discriminators be reliability and similarity.

さらに、本発明に係る画像監視装置において、識別部が有する識別器は、所定の領域から抽出された検出対象物の特徴情報と、記憶部に記憶された検出対象物の特徴情報との一致度を入力することにより、信頼度及び類似度を算出することが好ましい。   Furthermore, in the image monitoring apparatus according to the present invention, the discriminator included in the discriminating unit has a degree of coincidence between the feature information of the detection target extracted from the predetermined area and the feature information of the detection target stored in the storage unit. It is preferable to calculate reliability and similarity by inputting.

また、本発明に係る画像監視装置は、監視画像と背景画像との差分処理を行って、監視画像と背景画像間で輝度差のある変化領域を抽出する変化領域抽出部をさらに有し、識別部は、変化領域を所定の領域として、信頼度及び類似度を算出することが好ましい。   The image monitoring apparatus according to the present invention further includes a change area extracting unit that performs a difference process between the monitor image and the background image to extract a change area having a luminance difference between the monitor image and the background image, and It is preferable that the unit calculates the reliability and the similarity with the change area as a predetermined area.

本発明に係る画像監視装置は、監視領域内に検出対象物体と類似する物体が存在する場合でも、その類似物体を検出対象物体として誤検出することを防止することができるという効果を奏する。   The image monitoring apparatus according to the present invention has an effect that even when an object similar to the detection target object exists in the monitoring area, it is possible to prevent erroneous detection of the similar object as the detection target object.

以下、本発明の一実施形態である画像監視装置について図を参照しつつ説明する。
この画像監視装置は、検出対象物体について事前学習された識別器に監視領域を撮影した監視画像を入力することにより、検出対象物体を検出するものである。特に、この画像監視装置は、監視領域内に検出対象となる物体が存在しないことが分かっているときに監視領域を撮影した画像を背景画像として記憶しておく。そして画像監視装置は、背景画像を識別器に入力することにより得られる検出対象との紛らわしさの度合いである類似度を算出する。そして、監視画像を識別器に入力することにより、検出対象物体の存在を判定する際に、背景画像における類似度が高い領域に対応する監視画像中の領域については、検出対象物体を検出し難くする。これにより、画像監視装置は、監視領域内に存在する、検出対象物体と紛らわしい物体を検出対象物体として誤って検出することを防止する。なお、本実施形態では、画像監視装置は監視領域内に侵入した侵入者を検出対象物体として検出する。しかし、本発明における検出対象物体は人に限られず、予め監視領域に侵入することが想定され、検出対象として識別器に事前学習させることが可能な物体であればよい。
Hereinafter, an image monitoring apparatus according to an embodiment of the present invention will be described with reference to the drawings.
This image monitoring apparatus detects a detection target object by inputting a monitoring image obtained by capturing a monitoring area to a discriminator previously learned about the detection target object. In particular, this image monitoring apparatus stores an image obtained by photographing a monitoring area as a background image when it is known that an object to be detected does not exist in the monitoring area. Then, the image monitoring apparatus calculates a similarity that is a degree of confusingness with the detection target obtained by inputting the background image to the discriminator. When determining the presence of the detection target object by inputting the monitoring image to the discriminator, it is difficult to detect the detection target object for a region in the monitoring image corresponding to a region having a high similarity in the background image. To do. As a result, the image monitoring apparatus prevents erroneous detection of an object that exists in the monitoring area and is confused with the detection target object as the detection target object. In the present embodiment, the image monitoring apparatus detects an intruder that has entered the monitoring area as a detection target object. However, the detection target object in the present invention is not limited to a person, and may be any object that can be preliminarily learned as a detection target by assuming that it enters the monitoring area in advance.

図1は、本発明の一実施形態である画像監視装置1の概略構成を示す図である。図1に示すように、画像監視装置1は、画像入力部2と、記憶部3と、出力部4と、信号処理部5を有する。   FIG. 1 is a diagram showing a schematic configuration of an image monitoring apparatus 1 according to an embodiment of the present invention. As illustrated in FIG. 1, the image monitoring apparatus 1 includes an image input unit 2, a storage unit 3, an output unit 4, and a signal processing unit 5.

画像入力部2は、CCDなど、可視光または近赤外光に感度を有する光電変換器で構成された2次元検出器と、その2次元検出器上に監視領域の像を結像する結像光学系などを有する。また画像入力部2は、一定の時間間隔(例えば1/5秒)ごとに撮影を行う。そして画像入力部2は、監視領域を撮影した監視画像を、例えば、横340画素×縦240画素を持ち、各画素の輝度が256階調で表される濃淡画像として生成する。なお、画像入力部2は、監視領域を一定以上の照度に保つために、複数の赤外LEDなど、監視領域を照明する照明光源を有していてもよい。
なお、監視領域を撮影するカメラは画像監視装置1と別個に設けられてもよい。この場合、そのカメラは画像監視装置1と通信ネットワークを介して接続され、画像入力部2は、カメラと画像監視装置1とを接続する通信ネットワークに対する通信インターフェース及びその制御回路とすることができる。
画像入力部2で取得された監視画像は、信号処理部5へ送られる。
The image input unit 2 is a two-dimensional detector composed of a photoelectric converter having sensitivity to visible light or near-infrared light, such as a CCD, and an image for forming an image of a monitoring region on the two-dimensional detector. It has an optical system. Further, the image input unit 2 performs imaging at regular time intervals (for example, 1/5 second). Then, the image input unit 2 generates a monitoring image obtained by capturing the monitoring area as a grayscale image having, for example, horizontal 340 pixels × vertical 240 pixels, and the luminance of each pixel expressed by 256 gradations. The image input unit 2 may have an illumination light source that illuminates the monitoring area, such as a plurality of infrared LEDs, in order to keep the monitoring area at a certain level of illuminance.
Note that the camera that captures the monitoring area may be provided separately from the image monitoring apparatus 1. In this case, the camera is connected to the image monitoring apparatus 1 via a communication network, and the image input unit 2 can be a communication interface for the communication network connecting the camera and the image monitoring apparatus 1 and its control circuit.
The monitoring image acquired by the image input unit 2 is sent to the signal processing unit 5.

記憶部3は、フラッシュメモリなどの不揮発性半導体メモリ、揮発性半導体メモリ、または磁気ディスク(HDD)などの記憶装置を有する。そして記憶部3は、画像監視装置1で使用される各種のプログラム及びデータを記憶する。また記憶部3は、例えば、画像監視装置1が起動したときなどに画像入力部2から取得した、侵入者の写っていない監視領域の画像を背景画像として記憶する。   The storage unit 3 includes a storage device such as a nonvolatile semiconductor memory such as a flash memory, a volatile semiconductor memory, or a magnetic disk (HDD). The storage unit 3 stores various programs and data used in the image monitoring apparatus 1. In addition, the storage unit 3 stores, as a background image, an image of a monitoring area in which an intruder is not obtained, which is acquired from the image input unit 2 when the image monitoring device 1 is activated, for example.

出力部4は、スピーカまたはLEDなどの発光デバイスを有する。そして出力部4は、信号処理部5により監視領域内への侵入者が検出されると、信号処理部5からの警報信号に従って音声を発したり、発光または点滅することによって警報を発する。
また出力部4は、構内LANまたは公衆回線網などの通信ネットワークに接続する通信インターフェース及びその制御回路を有していてもよい。そして出力部4は、信号処理部5により監視領域内への侵入者が検出されたことを示す異常検出信号または侵入者が写っている監視画像を信号処理部5から受け取って、その異常検出信号または監視画像を画像監視装置1と通信ネットワークを介して接続された警備装置または監視センタ装置へ出力してもよい。
The output unit 4 includes a light emitting device such as a speaker or an LED. When an intruder into the monitoring area is detected by the signal processing unit 5, the output unit 4 emits a sound according to an alarm signal from the signal processing unit 5, or emits an alarm by emitting or blinking.
The output unit 4 may include a communication interface connected to a communication network such as a local area LAN or a public line network and a control circuit thereof. The output unit 4 receives from the signal processing unit 5 an abnormality detection signal indicating that an intruder into the monitoring area has been detected by the signal processing unit 5 or a monitoring image showing the intruder, and the abnormality detection signal. Alternatively, the monitoring image may be output to a security device or a monitoring center device connected to the image monitoring device 1 via a communication network.

信号処理部5は、組み込み型のマイクロプロセッサユニットとその周辺回路を有する。そして信号処理部5は、画像監視装置1全体を制御する。また信号処理部5は、画像入力部2から受け取った監視画像及び記憶部3に記憶された背景画像に基づいて、監視領域内の侵入者を検出する。そのために、信号処理部5は、変化領域抽出部51と、識別部52と、判定部53と、背景画像更新部54を有する。信号処理部5が有するこれらの各部は、例えば、マイクロプロセッサユニット上で動作するプログラムの機能モジュールとして実装される。   The signal processing unit 5 has an embedded microprocessor unit and its peripheral circuits. The signal processing unit 5 controls the entire image monitoring apparatus 1. The signal processing unit 5 detects an intruder in the monitoring area based on the monitoring image received from the image input unit 2 and the background image stored in the storage unit 3. For this purpose, the signal processing unit 5 includes a change area extraction unit 51, an identification unit 52, a determination unit 53, and a background image update unit 54. Each of these units included in the signal processing unit 5 is mounted as a functional module of a program that operates on the microprocessor unit, for example.

変化領域抽出部51は、最新の監視画像において侵入者が写っている可能性のある領域を人物候補領域として抽出する。そのために、変化領域抽出部51は、最新の監視画像と背景画像との間で、対応画素間の輝度差を求め、各画素の画素値がその輝度差の絶対値で表される差分画像を作成する。そして変化領域抽出部51は、差分画像の各画素について、その輝度差の絶対値が所定の閾値以上となる画素を変動画素とし、一方、輝度差の絶対値が所定の閾値未満となる画素を背景画素となるように2値化した差分2値化画像を作成する。なお、所定の閾値は、例えば、差分画像の各画素値の平均値とすることができる。変化領域抽出部51は、公知のラベリング手法などを用いることにより、変動画素同士が一つに連結された領域を変動領域として検出する。そして変化領域抽出部51は、その変動領域の外接矩形領域を人物候補領域とする。
変化領域抽出部51は、人物候補領域を示す情報、例えば、人物候補領域の左上端点の座標及び縦方向と横方向のサイズを、識別部52へ渡す。
The change area extraction unit 51 extracts an area where an intruder may appear in the latest monitoring image as a person candidate area. Therefore, the change area extraction unit 51 obtains a luminance difference between corresponding pixels between the latest monitoring image and the background image, and calculates a difference image in which the pixel value of each pixel is represented by the absolute value of the luminance difference. create. Then, for each pixel of the difference image, the change area extraction unit 51 sets a pixel whose absolute value of the luminance difference is equal to or greater than a predetermined threshold as a variable pixel, while selecting a pixel whose absolute value of the luminance difference is less than the predetermined threshold. A difference binarized image binarized so as to be a background pixel is created. The predetermined threshold value can be, for example, an average value of the pixel values of the difference image. The change area extraction unit 51 detects, as a change area, an area in which change pixels are connected together by using a known labeling method or the like. Then, the change area extraction unit 51 sets a circumscribed rectangular area of the change area as a person candidate area.
The change area extraction unit 51 passes information indicating the person candidate area, for example, the coordinates of the upper left end point of the person candidate area and the sizes in the vertical and horizontal directions to the identification unit 52.

図2(a)〜図2(c)を参照しつつ、変化領域抽出部51の処理を説明する。図2(a)は、背景画像200を示す。背景画像200には、植栽201が写っている。また図2(b)は、最新の監視画像205を示す。監視画像205には、背景画像200に写っている植栽201に対応する植栽207が写っている。さらに監視画像205には、侵入者206が写っている。
また図2(c)は、変化領域抽出部51が監視画像205と背景画像200との間で対応画素間の差分処理を行って2値化することにより作成された差分2値化画像210を示す。差分2値化画像210では、監視画像205に写っている侵入者206に対応する矩形領域が、人物候補領域211として抽出されることになる。さらに、監視領域内に存在する植栽が風などの影響によって揺れると、背景画像200における植栽201と監視画像205における植栽207とが完全に一致しない。そのため、差分2値化画像210において、植栽の揺れによって輝度が変化した領域212も人物候補領域として抽出されることになる。そこで、そのような検出対象でない物が写っている人物候補領域に基づいて、侵入者を誤検出することを防ぐために、信号処理部5は、抽出された各人物候補領域について、侵入者か否かを識別する必要がある。
The process of the change area extraction unit 51 will be described with reference to FIGS. 2 (a) to 2 (c). FIG. 2A shows a background image 200. The planting 201 is reflected in the background image 200. FIG. 2B shows the latest monitoring image 205. The monitoring image 205 shows a planting 207 corresponding to the planting 201 shown in the background image 200. Further, the intruder 206 is shown in the monitoring image 205.
FIG. 2C shows a difference binarized image 210 created by the change region extraction unit 51 performing binarization by performing difference processing between corresponding pixels between the monitoring image 205 and the background image 200. Show. In the difference binarized image 210, a rectangular area corresponding to the intruder 206 shown in the monitoring image 205 is extracted as the person candidate area 211. Furthermore, if the planting existing in the monitoring area is shaken by the influence of wind or the like, the planting 201 in the background image 200 and the planting 207 in the monitoring image 205 do not completely match. Therefore, in the difference binarized image 210, an area 212 whose luminance has changed due to planting shake is also extracted as a person candidate area. Therefore, in order to prevent erroneous detection of an intruder based on a person candidate area in which an object that is not a detection target is shown, the signal processing unit 5 determines whether or not each extracted person candidate area is an intruder. It is necessary to identify.

識別部52は、そのため、監視画像中の何れかの人物候補領域に関する情報を識別器に入力することにより、その人物候補領域の侵入者らしさの度合いを表す信頼度を求める。また識別部52は、何れかの人物候補領域に対応する背景画像中の領域に関する情報を、信頼度の算出に用いられる識別器と同じ識別器に入力することにより、その人物候補領域と対応する領域の侵入者との紛らわしさの度合いを表す類似度を求める。   Therefore, the identification unit 52 obtains a reliability indicating the degree of intruder-likeness of the person candidate area by inputting information on any person candidate area in the monitoring image to the classifier. Further, the identification unit 52 inputs information related to the region in the background image corresponding to any one of the candidate human regions to the candidate human region by inputting the information to the same classifier used for calculating the reliability. Find the degree of similarity that represents the degree of confusion with the intruder in the area.

図3に、本実施形態において使用される識別器の概略構成を示す。図3に示されるように、識別部52が有するカスケード型識別器300は、4個の識別器310、320、330及び340が直列に接続された構成を有する。そして、各識別器310、320、330及び340は、監視画像中の人物候補領域またはその人物候補領域に対応する背景画像中の領域に関する情報が入力されると、その領域に侵入者が写っているか否かの識別結果を出力する。そして、カスケード型識別器300は、第1段目の識別器310から順番に識別を実行し、何れかの識別器が、その領域には侵入者は写っていないとの識別結果を出力するまで、識別を繰り返す。そしてカスケード型識別器300は、その領域に侵入者が写っているとの識別結果を出力した最後の識別器の段数を出力する。識別部52は、カスケード型識別器300が出力した識別器の段数を信頼度Riまたは類似度Rbとする。識別部52は、このようなカスケード型識別器300を利用して信頼度及び類似度を求めることにより、侵入者らしくない領域ほど識別処理を実行する識別器の数が少なくなる。そのため、信号処理部5は、侵入物体検出処理全体としての演算量を少なくして、短時間でその検出処理を行うことができる。   FIG. 3 shows a schematic configuration of a discriminator used in the present embodiment. As shown in FIG. 3, the cascade type discriminator 300 included in the discriminating unit 52 has a configuration in which four discriminators 310, 320, 330, and 340 are connected in series. When each classifier 310, 320, 330, and 340 receives information on a person candidate area in the monitoring image or an area in the background image corresponding to the person candidate area, an intruder appears in that area. The identification result of whether or not there is output. Then, the cascade type discriminator 300 executes discrimination in order from the first stage discriminator 310 until one of the discriminators outputs an identification result indicating that no intruder is shown in the area. , Repeat identification. Cascade type discriminator 300 then outputs the number of stages of the last discriminator that has output the discrimination result that an intruder appears in the area. The discriminator 52 sets the number of discriminators output from the cascade discriminator 300 as the reliability Ri or the similarity Rb. The identification unit 52 obtains the reliability and the similarity by using the cascade type classifier 300 as described above, so that the number of classifiers that perform the classification process is reduced in a region that is not like an intruder. Therefore, the signal processing unit 5 can perform the detection process in a short time by reducing the calculation amount as the entire intruding object detection process.

以下、監視画像中の人物候補領域に関する情報をカスケード型識別器300に入力することにより、信頼度を求めるときの識別部52の動作の一例を説明する。なお、識別部52は、監視画像中の人物候補領域に関する情報の代わりに、その人物候補領域に対応する背景画像中の領域に関する情報をカスケード型識別器300に入力することにより、類似度を求めることができる。   Hereinafter, an example of the operation of the identification unit 52 when the reliability is obtained by inputting information related to the person candidate region in the monitoring image to the cascade type identification device 300 will be described. Note that the identification unit 52 obtains the similarity by inputting information about the area in the background image corresponding to the person candidate area to the cascade classifier 300 instead of the information about the person candidate area in the monitoring image. be able to.

識別部52は、先ず、監視画像中の人物候補領域に関する情報を、第1段目の識別器310に入力する。識別器310が、その領域に侵入者は写っていないとの識別結果(False)を出力すると、カスケード型識別器300は信頼度として0を出力する。一方、識別器310が、その領域に侵入者が写っているとの識別結果(True)を出力すると、人物候補領域に対応する監視画像中の領域に関する情報が第2段目の識別器320に入力される。そして識別器320が、その領域に侵入者は写っていないとの識別結果(False)を出力すると、カスケード型識別器300は信頼度として1を出力する。一方、識別器320が、その領域に侵入者が写っているとの識別結果(True)を出力すると、監視画像中の人物候補領域に関する情報が第3段目の識別器330に入力される。以下、同様の処理が第4段目の識別器340による識別が行われるまで繰り返される。そして、識別器340がその領域に侵入者が写っているとの識別結果(True)を出力すると、カスケード型識別器300は信頼度として4を出力する。   First, the identification unit 52 inputs information related to the person candidate area in the monitoring image to the first-stage classifier 310. When the discriminator 310 outputs a discrimination result (False) that no intruder is shown in the area, the cascade discriminator 300 outputs 0 as the reliability. On the other hand, when the discriminator 310 outputs a discrimination result (True) that an intruder is captured in the area, information regarding the area in the monitoring image corresponding to the person candidate area is stored in the second-stage discriminator 320. Entered. When the discriminator 320 outputs a discrimination result (False) indicating that no intruder is shown in the area, the cascade discriminator 300 outputs 1 as the reliability. On the other hand, when the discriminator 320 outputs a discrimination result (True) indicating that an intruder appears in the area, information on the person candidate area in the monitoring image is input to the third-stage discriminator 330. Thereafter, the same processing is repeated until identification by the fourth-stage classifier 340 is performed. When the discriminator 340 outputs an identification result (True) indicating that an intruder appears in the area, the cascade discriminator 300 outputs 4 as the reliability.

本実施形態では、各段の識別器310、320、330及び340は、Haar-like特徴を用いたAdaboost識別器とした。Haar-like特徴は、入力された画像領域中に任意に設定された複数の隣接矩形領域間の輝度差である。また、Adaboost識別器は、複数の弱識別器と、各弱識別器の判定結果を統合して判定する強識別器とから構成される。そこで、本実施形態では、各識別器310〜340に入力される、監視画像中の人物候補領域に関する情報とは、その人物候補領域に含まれる各画素の輝度値である。同様に、人物候補領域に対応する背景画像の領域に関する情報とは、その人物候補領域に対応する背景画像の領域に含まれる各画素の輝度値である。   In the present embodiment, the classifiers 310, 320, 330, and 340 at each stage are Adaboost classifiers using Haar-like features. The Haar-like feature is a luminance difference between a plurality of adjacent rectangular areas arbitrarily set in the input image area. The Adaboost classifier includes a plurality of weak classifiers and a strong classifier that is determined by integrating the determination results of the weak classifiers. Therefore, in the present embodiment, the information related to the person candidate area in the monitoring image that is input to each of the classifiers 310 to 340 is the luminance value of each pixel included in the person candidate area. Similarly, the information related to the background image area corresponding to the person candidate area is the luminance value of each pixel included in the background image area corresponding to the person candidate area.

各弱識別器は、入力された画像領域から、それぞれ異なるHaar-like特徴を算出し、算出されたHaar-like特徴に基づいて入力された画像領域に侵入者が写っているか否かの識別結果を出力する。例えば、弱識別器は、入力された画像領域に侵入者が写っていると判定した場合、1を出力し、一方、入力された画像領域に侵入者が写っていないと判定した場合、-1を出力する。一方、強識別器は、各弱識別器による出力結果をそれぞれ重み付けして、その重み付け和を求める。そして強識別器は、得られた重み付け和が所定の閾値(例えば、0)よりも高い場合、入力された画像領域に侵入者が写っていると判定する。   Each weak classifier calculates different Haar-like features from the input image area, and whether or not an intruder appears in the input image area based on the calculated Haar-like feature Is output. For example, if the weak classifier determines that an intruder appears in the input image area, it outputs 1, while if it determines that no intruder appears in the input image area, -1 Is output. On the other hand, the strong classifier weights the output result from each weak classifier, and obtains the weighted sum. Then, when the obtained weighted sum is higher than a predetermined threshold (for example, 0), the strong classifier determines that an intruder appears in the input image area.

また、画像領域中のどの位置に関するHaar-like特徴を識別に利用する弱識別器が使用されるか、及び弱識別器に対する重みは、人が写っていない複数のサンプル画像と人が写っている複数のサンプル画像とを用いた事前学習により決定される。学習手順の概略は以下の通りである。
(1)使用可能な全ての弱識別器について、Haar-like特徴の値に基づいて、入力された画像領域に侵入者が写っているか否かを識別する閾値を設定する。
(2)各サンプル画像に対する重みを決定する。重みの初期値は、各サンプル画像に対して同じ値とする。
(3)全ての弱識別器に対して各サンプル画像を入力して、弱識別器ごとに識別に失敗したサンプル画像に付けられた重みを合計する。そしてその重みの合計を評価値とする。
(4)評価値が最も小さい弱識別器をAdaboost識別器で使用する弱識別器として選択する。そして評価値から選択された弱識別器の出力に付される重みを決定する。
(5)選択された弱識別器が識別に失敗したサンプル画像の重みを大きくする。
(6)(3)〜(5)の手順を繰り返す。
なお、Haar-like特徴及びAdaboost識別器の詳細については、例えば、Paul Viola and Michael Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE CVPR, vol.1, pp.511-518, 2001に開示されている。
また、各段の識別器は、例えば、別のサンプル画像を用いて事前学習することにより、互いに異なる識別器を構築することができる。
In addition, the weak classifier that uses Haar-like features for identification in which position in the image area is used, and the weight for the weak classifier includes a plurality of sample images that do not show people and people It is determined by prior learning using a plurality of sample images. The outline of the learning procedure is as follows.
(1) For all the weak classifiers that can be used, a threshold value is set for identifying whether or not an intruder appears in the input image area based on the value of the Haar-like feature.
(2) The weight for each sample image is determined. The initial value of the weight is the same value for each sample image.
(3) Each sample image is input to all weak classifiers, and the weights assigned to the sample images that have failed to be identified for each weak classifier are summed. The sum of the weights is used as the evaluation value.
(4) The weak classifier having the smallest evaluation value is selected as the weak classifier used in the Adaboost classifier. Then, the weight assigned to the output of the weak classifier selected from the evaluation value is determined.
(5) The weight of the sample image for which the selected weak classifier has failed to be identified is increased.
(6) Repeat steps (3) to (5).
For details of the Haar-like feature and the Adaboost discriminator, see, for example, Paul Viola and Michael Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE CVPR, vol.1, pp.511-518, 2001. Is disclosed.
In addition, the classifiers at each stage can construct different classifiers by learning in advance using different sample images, for example.

識別部52は、監視画像中の各人物候補領域について求めた信頼度及び各人物候補領域に対応する背景画像中の領域について求めた類似度を判定部53へ渡す。   The identification unit 52 passes the reliability obtained for each candidate person region in the monitoring image and the similarity obtained for the region in the background image corresponding to each person candidate region to the determination unit 53.

判定部53は、識別部52から受け取った信頼度と類似度の相対関係に基づいて、対応する人物候補領域に侵入者が写っているか否か判定する。ここで判定部53は、求められた類似度が大きいほど、その類似度に対応する人物候補領域については、侵入者が写っていると判定する基準を厳しくする。例えば、判定部53は、着目する人物候補領域について求められた信頼度が、所定の閾値Th1よりも大きく、かつ、その人物候補領域に対応する背景画像中の領域について求められた類似度よりも大きい場合、その人物候補領域に侵入者が写っていると判定する。
なお、所定の閾値Th1は、画像監視装置に対して、侵入者の誤検出が許容される精度に応じて設定される。本実施形態では、所定の閾値Th1を2とした。すなわち、少なくとも3段目の識別器330が、着目する人物候補領域に侵入者が写っているとの識別結果(True)を出力したときに、信頼度は所定の閾値Th1より大きくなる。また、侵入者の誤検出が許容される精度が厳しくなければ、所定の閾値Th1を0としてもよい。すなわち、信頼度と所定の閾値Th1との比較を省略してもよい。
The determination unit 53 determines whether or not an intruder appears in the corresponding person candidate area based on the relative relationship between the reliability and the similarity received from the identification unit 52. Here, the determination unit 53 increases the criteria for determining that an intruder is shown in the person candidate region corresponding to the similarity as the obtained similarity is larger. For example, the determination unit 53 has a degree of reliability obtained for the target person candidate area that is greater than a predetermined threshold Th1 and a degree of similarity obtained for the area in the background image corresponding to the person candidate area. If it is larger, it is determined that an intruder is shown in the person candidate area.
The predetermined threshold Th1 is set in accordance with the accuracy with which the intruder is allowed to be erroneously detected with respect to the image monitoring apparatus. In the present embodiment, the predetermined threshold Th1 is set to 2. That is, when at least the third-stage discriminator 330 outputs an identification result (True) indicating that an intruder appears in the target human candidate area, the reliability is greater than the predetermined threshold value Th1. In addition, the predetermined threshold Th1 may be set to 0 if the accuracy with which the intruder is allowed to be erroneously detected is not strict. That is, the comparison between the reliability and the predetermined threshold value Th1 may be omitted.

また、監視画像において、着目する人物候補領域に侵入者と紛らわしいものが写っていた場合には、識別部52によりその人物候補領域について求められる信頼度の値は高くなる。そのため、判定部53が信頼度の値にのみ基づいて侵入者の有無を判定すると、監視領域中に存在する人と紛らわしい物体を侵入者として誤検出してしまうおそれがある。しかし、その着目する人物候補領域に写っている物体が、もともと監視領域内に存在する物体であれば、背景画像においても、人物候補領域に対応する領域に同じ物体が写っていることになる。そのため、識別部52により、その着目する人物候補領域に対応する背景画像中の領域について求められる類似度の値も、信頼度と同様に高くなる。そこで、判定部53は、上記のように、着目する人物候補領域について求められた信頼度がその人物候補領域に対応する背景画像中の領域について求められた類似度よりも大きいときにのみ、その人物候補領域に侵入者が写っていると判定することで、侵入者の誤検出を防止することができる。   In addition, in the monitoring image, when a person candidate area of interest is confused with an intruder, the reliability value required for the person candidate area by the identification unit 52 is increased. Therefore, if the determination unit 53 determines the presence or absence of an intruder based only on the reliability value, there is a possibility that an object that is confused with a person existing in the monitoring area is erroneously detected as an intruder. However, if the object shown in the person candidate area of interest is an object that originally exists in the monitoring area, the same object is shown in the area corresponding to the person candidate area in the background image. For this reason, the similarity value obtained by the identification unit 52 for the region in the background image corresponding to the target human candidate region also increases in the same manner as the reliability. Therefore, as described above, the determination unit 53 determines that only when the reliability obtained for the target candidate candidate region is higher than the similarity obtained for the region in the background image corresponding to the person candidate region. By determining that an intruder appears in the person candidate area, it is possible to prevent erroneous detection of the intruder.

図2(c)に示された人物候補領域211及び212を例として判定部53の処理の概要を説明する。この場合、人物候補領域211に関しては、図2(a)に示された背景画像200において背景となる景色が写っているだけであり、侵入者と紛らわしいものは存在しない。そのため、識別部52により人物候補領域211に対応する背景画像200中の領域について求められる類似度は低い値となる。一方、図2(b)に示された監視画像205では、人物候補領域211に侵入者が写っている。そのため、識別部52により人物候補領域211について求められる信頼度は高い値となる。そのため、判定部53は、人物候補領域211について、信頼度が類似度よりも高くなるので、侵入者が写っていると判定できる。   An outline of the process of the determination unit 53 will be described by taking the person candidate areas 211 and 212 shown in FIG. In this case, regarding the person candidate area 211, the background image 200 shown in FIG. 2A only shows a background scene, and there is nothing that is confusing with an intruder. Therefore, the similarity obtained by the identification unit 52 for the area in the background image 200 corresponding to the person candidate area 211 is a low value. On the other hand, in the monitoring image 205 shown in FIG. 2B, an intruder is shown in the person candidate area 211. Therefore, the reliability calculated for the candidate person area 211 by the identification unit 52 is a high value. Therefore, the determination unit 53 can determine that an intruder is captured because the reliability of the person candidate region 211 is higher than the similarity.

一方、人物候補領域212に関しては、図2(a)に示された背景画像200及び図2(b)に示された監視画像205の何れにおいても、植栽が写っている。そのため、識別部52により人物候補領域212について求められる信頼度及び類似度は同じ値となる可能性が高い。そのため、判定部53は、人物候補領域212について得られた信頼度が高い場合でも、侵入者が写っていると判定しない。このように、判定部53は、侵入者と紛らわしい物体が写っている領域が人物候補領域として抽出されたとしても、侵入者が写っていると誤判定することを防止できる。   On the other hand, regarding the person candidate region 212, planting is shown in both the background image 200 shown in FIG. 2A and the monitoring image 205 shown in FIG. Therefore, there is a high possibility that the reliability and the similarity obtained for the person candidate area 212 by the identification unit 52 have the same value. For this reason, the determination unit 53 does not determine that an intruder is captured even when the reliability obtained for the person candidate region 212 is high. As described above, the determination unit 53 can prevent erroneous determination that an intruder is captured even if an area where an object that is confused with the intruder is extracted as a person candidate region.

なお、判定部53は、着目する人物候補領域について求められた信頼度から類似度を引いた差が、所定の閾値Th2よりも高い場合に、その着目する人物候補領域に侵入者が写っていると判定するようにしてもよい。ただし、所定の閾値Th2は0以上の実数であり、Th2が0の場合には、単に信頼度と類似度を比較する上記の実施形態と同じとなる。あるいは、判定部53は、着目する人物候補領域について求められた信頼度に所定の係数α(ただしαは正の値)を乗じた値が、類似度よりも大きい場合に、その着目する人物候補領域に侵入者が写っていると判定するようにしてもよい。このように、判定部53は、信頼度と類似度の単なる大小により侵入者が写っているか否かを判定する場合よりも、背景画像における着目人物候補領域と監視画像における着目人物候補領域の侵入者らしさの差が大きいときにその着目人物候補領域に侵入者が写っていると判定するので、侵入者の誤検出をさらに生じ難くすることができる。   In addition, the determination part 53 shows the intruder in the focused candidate candidate area when the difference obtained by subtracting the similarity from the reliability calculated for the focused candidate candidate area is higher than a predetermined threshold Th2. May be determined. However, the predetermined threshold Th2 is a real number greater than or equal to 0, and when Th2 is 0, it is the same as the above embodiment in which the reliability and the similarity are simply compared. Alternatively, when the value obtained by multiplying the reliability obtained for the target human candidate region by a predetermined coefficient α (where α is a positive value) is greater than the similarity, the determination unit 53 determines the target human candidate to be focused on. It may be determined that an intruder appears in the area. In this way, the determination unit 53 intrudes the target person candidate area in the background image and the target person candidate area in the monitoring image, rather than determining whether or not the intruder is captured based on the mere magnitude of the reliability and the similarity. Since it is determined that the intruder is reflected in the target person candidate area when the difference in personiness is large, erroneous detection of the intruder can be further prevented.

さらに、判定部53は、連続的に取得された監視画像の複数のフレームにわたって抽出された人物候補領域からそれぞれ求められた信頼度の平均値と、各フレームの人物候補領域に対応する背景画像の領域から抽出された類似度の平均値あるいは類似度の最大値との差が所定の閾値Th2よりも大きい場合に、その一連の人物候補領域に侵入者が写っていると判定してもよい。このように、複数のフレームについて求められた信頼度及び類似度を判断基準とすることにより、判定部53は、何らかの理由で瞬間的に侵入者と紛らわしくなった領域を、侵入者として誤検出することを防止できる。
なお、この場合には、各フレームで抽出された人物候補領域のうち、同一物体に関連する領域を関連付けるために、信号処理部5は、公知の様々なトラッキング処理の何れかを利用することができる。
Further, the determination unit 53 determines the average value of the reliability obtained from the person candidate areas extracted over a plurality of frames of the continuously acquired monitoring image and the background image corresponding to the person candidate area of each frame. If the difference between the average value of the similarities extracted from the area or the maximum value of the similarities is larger than a predetermined threshold value Th2, it may be determined that an intruder appears in the series of person candidate areas. In this way, by using the reliability and similarity obtained for a plurality of frames as determination criteria, the determination unit 53 erroneously detects an area that has been confused with an intruder for some reason as an intruder. Can be prevented.
In this case, the signal processing unit 5 may use any one of various known tracking processes in order to associate areas related to the same object among the candidate human areas extracted in each frame. it can.

また、判定部53は、信頼度及び類似度を入力とし、人物候補領域に侵入者が写っているか否かを出力する判別関数、パーセプトロンタイプのニューラルネットワークまたはサポートベクトルマシンのような識別器を用いて、その人物候補領域に侵入者が写っているか否かを判定してもよい。この場合においても、それら判別関数及び識別器は、人が写っている複数の画像と人が写っていない複数の画像のそれぞれについて求められた信頼度及び類似度を用いて事前学習される。そして、それら判別関数及び識別器も、類似度が大きいほど、その類似度に対応する人物候補領域については、侵入者が写っていると判定する基準が厳しくなるように学習される。   Further, the determination unit 53 uses a discriminator such as a discriminant function, a perceptron type neural network, or a support vector machine that outputs whether or not an intruder is shown in the person candidate area, with the reliability and similarity as inputs. Then, it may be determined whether or not an intruder appears in the person candidate area. Even in this case, the discriminant function and the discriminator are pre-learned using the reliability and similarity obtained for each of a plurality of images in which a person is photographed and a plurality of images in which a person is not photographed. The discriminant function and the discriminator are also learned so that the higher the similarity, the stricter the criterion for determining that an intruder is in the person candidate area corresponding to the similarity.

判定部53は、何れかの人物候補領域について、侵入者が写っていると判定すると、監視領域内に侵入者がいると判定し、一方、全ての人物候補領域について、侵入者が写っていないと判定すると、監視領域内に侵入者はいないと判定する。   If the determination unit 53 determines that an intruder is present in any person candidate area, the determination unit 53 determines that an intruder is present in the monitoring area, while no intruder is present in all person candidate areas. If it is determined that there is no intruder in the monitoring area, it is determined.

判定部53が監視領域への侵入者がいると判定すると、信号処理部5は、出力部4へ警報信号を送信し、出力部4に警報を発報させる。   When the determination unit 53 determines that there is an intruder into the monitoring area, the signal processing unit 5 transmits an alarm signal to the output unit 4 and causes the output unit 4 to issue an alarm.

背景画像更新部54は、記憶部3に記憶されている背景画像を、判定部53により侵入者はいないと判定されたときの監視画像で置換することにより更新する。このように、背景画像を常に監視領域の最新の状態を表すものにしておくことで、信号処理部5は、変動領域抽出部51の背景差分による人物候補領域抽出処理において、天候の変化、太陽の日周変動などに起因する人物候補領域の誤検出を軽減できる。また、識別部52における類似度の算出処理についても、監視領域の最新の状態を表す背景画像に対する類似度が得られる。そのため、信号処理部5は、判定部53においてその最新の状態に対する類似度と信頼度を比較できるので、判定結果の信頼性を向上させることができる。なお、背景画像更新部54は、上記の背景画像の更新処理を、監視画像が取得される度ではなく、一定周期(例えば、10分間隔)ごとに行うようにしてもよい。   The background image update unit 54 updates the background image stored in the storage unit 3 by replacing it with a monitoring image when the determination unit 53 determines that there is no intruder. In this way, the background processing image always represents the latest state of the monitoring region, so that the signal processing unit 5 can perform the change in weather, the sun in the person candidate region extraction process based on the background difference of the variation region extraction unit 51. It is possible to reduce false detection of a human candidate region caused by the daily fluctuation of the person. Also, with respect to the similarity calculation processing in the identification unit 52, the similarity to the background image representing the latest state of the monitoring area is obtained. Therefore, since the signal processing unit 5 can compare the similarity and the reliability with respect to the latest state in the determination unit 53, the reliability of the determination result can be improved. Note that the background image update unit 54 may perform the background image update process at regular intervals (for example, every 10 minutes), not every time a monitoring image is acquired.

図4に示したフローチャートを参照しつつ、画像監視装置による侵入者検出処理の動作を説明する。なお、この動作は、信号処理部5によって制御される。そして以下の動作は、監視画像の撮影間隔で繰り返される。
検出処理が開始されると、信号処理部5は、画像入力部2により撮影された監視領域の監視画像を取得する(ステップS101)。次に、信号処理部5の変化領域抽出部51は、取得された監視画像と記憶部3に記憶された背景画像との背景差分処理を行って、人物候補領域を抽出する(ステップS102)。変化領域抽出部51は、抽出された全ての人物候補領域を示す情報を信号処理部5の識別部52へ渡す。
The operation of the intruder detection process by the image monitoring apparatus will be described with reference to the flowchart shown in FIG. This operation is controlled by the signal processing unit 5. The following operations are repeated at the monitoring image capturing interval.
When the detection process is started, the signal processing unit 5 acquires a monitoring image of the monitoring area captured by the image input unit 2 (step S101). Next, the change area extraction unit 51 of the signal processing unit 5 performs background difference processing between the acquired monitoring image and the background image stored in the storage unit 3 to extract a person candidate area (step S102). The change area extraction unit 51 passes information indicating all extracted person candidate areas to the identification unit 52 of the signal processing unit 5.

次に、識別部52は、各人物候補領域の中から着目する人物候補領域を選択する。そして識別部52は、監視画像における、着目する人物候補領域の情報を識別器に入力することにより、その人物候補領域の侵入者らしさの度合いを表す信頼度Riを求める(ステップS103)。そして識別部52は、求めた信頼度Riを信号処理部5の判定部53へ渡す。判定部53は、信頼度Riが所定の閾値Th1よりも高いか否か判定する(ステップS104)。ステップS104において、信頼度Riが所定の閾値Th1以下であった場合、信号処理部5は制御をステップS108へ移行する。
一方、ステップS104において、信頼度Riが所定の閾値Th1よりも高い場合、判定部53はその旨を識別部52へ通知する。そして識別部52は、着目する人物候補領域に対応する背景画像中の領域の情報を識別器に入力することにより、侵入者との紛らわしさの度合いを表す類似度Rbを求める(ステップS105)。そして識別部52は、求めた類似度Rbを判定部53へ渡す。
Next, the identification unit 52 selects a person candidate area of interest from each person candidate area. And the identification part 52 calculates | requires the reliability Ri showing the degree of intruder-likeness of the person candidate area | region by inputting the information of the person candidate area | region to which attention is paid to a discriminator in the monitoring image (step S103). Then, the identification unit 52 passes the obtained reliability Ri to the determination unit 53 of the signal processing unit 5. The determination unit 53 determines whether or not the reliability Ri is higher than a predetermined threshold Th1 (step S104). In step S104, when the reliability Ri is equal to or less than the predetermined threshold Th1, the signal processing unit 5 shifts the control to step S108.
On the other hand, when the reliability Ri is higher than the predetermined threshold Th1 in step S104, the determination unit 53 notifies the identification unit 52 to that effect. Then, the identification unit 52 obtains the similarity Rb indicating the degree of confusingness with the intruder by inputting information on the region in the background image corresponding to the target human candidate region to the classifier (step S105). Then, the identification unit 52 passes the obtained similarity Rb to the determination unit 53.

判定部53は、信頼度Riが類似度Rbよりも高いか否か判定する(ステップS106)。ステップS106において、信頼度Riが類似度Rb以下であった場合、信号処理部5は制御をステップS108へ移行する。一方、ステップS106において、信頼度Riが類似度Rbよりも高い場合、判定部53はその着目人物候補領域に侵入者が写っていると判定する。そして侵入者が写っているとの判定結果を表す検出フラグを記憶部3に一時的に記憶する(ステップS107)。   The determination unit 53 determines whether or not the reliability Ri is higher than the similarity Rb (step S106). In step S106, when the reliability Ri is equal to or less than the similarity Rb, the signal processing unit 5 shifts the control to step S108. On the other hand, in step S106, when the reliability Ri is higher than the similarity Rb, the determination unit 53 determines that an intruder appears in the target person candidate area. And the detection flag showing the determination result that the intruder is reflected is temporarily memorize | stored in the memory | storage part 3 (step S107).

ステップS107の後、あるいは、ステップS106において、信頼度Riが類似度Rb以下であった場合、若しくは、ステップS104において、信頼度Riが所定の閾値Th1以下であった場合、信号処理部5は、全ての人物候補領域について侵入者が写っているか否かの判定処理が終わったか否か判定する(ステップS108)。ステップS108において、何れかの人物候補領域に関して侵入者が写っているか否かの判定処理が終了していない場合、信号処理部5は、その判定処理が終了していない人物候補領域を着目する人物候補領域とする。そして信号処理部5は、ステップS103〜S108の処理を実行する。   After step S107 or when the reliability Ri is equal to or less than the similarity Rb in step S106, or when the reliability Ri is equal to or less than the predetermined threshold Th1 in step S104, the signal processing unit 5 It is determined whether or not the determination process for determining whether or not an intruder has been captured for all person candidate areas has been completed (step S108). In step S108, when the process for determining whether or not an intruder is shown in any person candidate area has not been completed, the signal processing unit 5 focuses on the person candidate area for which the determination process has not been completed. Let it be a candidate area. And the signal processing part 5 performs the process of step S103-S108.

一方、ステップS108において、全ての人物候補領域について侵入者が写っているか否かの判定処理が終了している場合、判定部53は、記憶部3を参照して、検出フラグが記憶されているか否かを調べることにより、監視領域内に侵入者が存在するか否か判定する(ステップS109)。ステップS109において、記憶部3に検出フラグが記憶されており、判定部53が監視領域内に侵入者が存在すると判定すると、信号処理部5は、出力部4を介して警報を発する(ステップS110)。また信号処理部5は、監視領域内に侵入者が存在することを示す異常検出信号などを、画像監視装置1と通信ネットワークを介して接続された警備装置または監視センタ装置へ出力してもよい。その後、信号処理部5は、記憶部3に記憶された検出フラグを消去する。   On the other hand, if it is determined in step S108 whether or not the intruder has been captured for all person candidate areas, the determination unit 53 refers to the storage unit 3 and stores a detection flag. By checking whether or not there is an intruder in the monitoring area, it is determined (step S109). In step S109, if the detection flag is stored in the storage unit 3 and the determination unit 53 determines that an intruder exists in the monitoring area, the signal processing unit 5 issues an alarm via the output unit 4 (step S110). ). In addition, the signal processing unit 5 may output an abnormality detection signal indicating that an intruder exists in the monitoring area to a security device or a monitoring center device connected to the image monitoring device 1 via a communication network. . Thereafter, the signal processing unit 5 erases the detection flag stored in the storage unit 3.

一方、ステップS109において、記憶部3に検出フラグが記憶されておらず、判定部53が監視領域内に侵入者が存在しないと判定すると、信号処理部5の背景画像更新部54は、記憶部3に記憶された背景画像を最新の監視画像で置換することにより、背景画像を更新する(ステップS111)。
ステップS110またはS111の後、信号処理部5は、一連の制御を終了する。
On the other hand, in step S109, if the detection flag is not stored in the storage unit 3 and the determination unit 53 determines that there is no intruder in the monitoring area, the background image update unit 54 of the signal processing unit 5 The background image is updated by replacing the background image stored in 3 with the latest monitoring image (step S111).
After step S110 or S111, the signal processing unit 5 ends a series of controls.

以上説明してきたように、本発明の一実施形態である画像監視装置は、監視領域を撮影した監視画像において、背景画像との間で輝度差があった領域に相当する人物候補領域に関する情報を識別器に入力して、その領域の侵入者らしさの度合いを表す信頼度を求めるとともに、背景画像中の対応する領域に関する情報を同じ識別器に入力することによって、その領域の侵入者との紛らわしさの度合いを表す類似度を求める。そして画像監視装置は、類似度が高い人物候補領域ほど、侵入者として検出され難くすることにより、監視領域内に侵入者と紛らわしい物体が写っていたとしても、その紛らわしい物体を侵入者と誤って検出することを防止できる。   As described above, the image monitoring apparatus according to an embodiment of the present invention provides information on a candidate human area corresponding to an area having a luminance difference from a background image in a monitoring image obtained by capturing the monitoring area. Input to the classifier to obtain the reliability indicating the degree of intruder-likeness of the area, and input the information about the corresponding area in the background image to the same classifier to disguise the intruder in the area. Find the degree of similarity that represents the degree of height. The image monitoring apparatus makes it difficult to detect a person candidate area having a higher degree of similarity as an intruder, so that even if an object confusing with the intruder appears in the monitoring area, the confusing object is mistakenly identified as an intruder. Detection can be prevented.

以上、本発明の好適な実施形態について説明してきたが、本発明はこれらの実施形態に限定されるものではない。例えば、信号処理部5の識別部52で使用される識別器を、監視画像全体を走査して、監視画像中の部分領域に対する信頼度を求めるように構築すれば、変化領域抽出部51は省略してもよい。この場合、識別部52は、画像入力部2により得られた監視画像そのもの、あるいは監視画像に対して前処理を施した画像を識別器に入力することにより、監視画像中の各部分領域に対する信頼度を求める。なお、前処理は、例えば、画像全体の輝度の平均値を一定にする輝度補正処理、画像中の輝度の最大値と最小値の差を一定にするコントラスト補正処理などである。同様に、識別部52は、背景画像を識別器に入力することにより、背景画像中の各部分領域に対する類似度を求める。そして判定部53は、監視画像と背景画像の対応する部分領域について求められた信頼度と類似度に基づいて、その部分領域に検出対象物体が写っているか否か判定する。   The preferred embodiments of the present invention have been described above, but the present invention is not limited to these embodiments. For example, if the discriminator used by the discriminating unit 52 of the signal processing unit 5 is constructed so as to obtain the reliability for the partial region in the monitoring image by scanning the entire monitoring image, the change region extracting unit 51 is omitted. May be. In this case, the identification unit 52 inputs the monitoring image itself obtained by the image input unit 2 or an image obtained by performing preprocessing on the monitoring image to the discriminator, so that the reliability for each partial region in the monitoring image is obtained. Find the degree. The pre-processing includes, for example, a luminance correction process for making the average value of the luminance of the entire image constant, and a contrast correction process for making the difference between the maximum value and the minimum value of the luminance in the image constant. Similarly, the identification unit 52 obtains the similarity to each partial region in the background image by inputting the background image to the classifier. Then, the determination unit 53 determines whether or not the detection target object is captured in the partial area based on the reliability and similarity obtained for the corresponding partial areas of the monitoring image and the background image.

また、信号処理部5の識別部52で使用される識別器は、カスケード型識別器に限られない。
図5に、識別部52において使用可能な識別器の他の例を示す。図5に示される並列型識別器500は、4個のAdaboost識別器510〜540が並列に接続された構成を有する。この並列型識別器500は、監視画像中の人物候補領域に関する情報または人物候補領域に対応する背景画像中の領域に関する情報を各識別器510〜540に入力することにより、それぞれその領域に侵入者が写っているか否かの識別結果を出力させる。そして並列型識別器500は、各識別器510〜540のうち、入力された領域に侵入者が写っているとの識別結果を出力した識別器の数を信頼度Riまたは類似度Rbとする。
また、図3に示したカスケード型識別器300が有する識別器の数は4個に限られない。同様に、図5に示した並列型識別器500が有する識別器の数も4個に限られない。
Further, the discriminator used in the discriminating unit 52 of the signal processing unit 5 is not limited to the cascade type discriminator.
FIG. 5 shows another example of a classifier that can be used in the classifier 52. The parallel type discriminator 500 shown in FIG. 5 has a configuration in which four Adaboost discriminators 510 to 540 are connected in parallel. This parallel type discriminator 500 inputs information related to the person candidate area in the monitoring image or information related to the area in the background image corresponding to the person candidate area to each of the discriminators 510 to 540, so that an intruder enters the area. The identification result of whether or not is shown is output. The parallel type discriminator 500 sets the number of discriminators that output the discrimination result that the intruder appears in the input area among the discriminators 510 to 540 as the reliability Ri or the similarity Rb.
Further, the number of classifiers included in the cascade classifier 300 illustrated in FIG. 3 is not limited to four. Similarly, the number of classifiers included in the parallel classifier 500 shown in FIG. 5 is not limited to four.

また、識別器で用いられる特徴は、Haar-like特徴に限られない。例えば、図3に示したカスケード型識別器300の各段の識別器310〜340あるいは図5に示した並列型識別器500の各識別器510〜540は、EOH(Edge of Orientation Histograms)、HOG(Histograms of Oriented Gradients)、Edgelet、Joint-Haar-like、Joint HOG、Shapeletなどの特徴量を入力された画像領域から算出して、識別に用いてもよい。あるいは、カスケード型識別器300の各段の識別器310〜340または並列型識別器500の各識別器510〜540は、上記の何れかの特徴量のうち、互いに異なる種類の特徴量を算出して、識別に利用してもよい。   In addition, the feature used in the classifier is not limited to the Haar-like feature. For example, the classifiers 310 to 340 of each stage of the cascade type classifier 300 shown in FIG. 3 or the classifiers 510 to 540 of the parallel type classifier 500 shown in FIG. 5 have an EOH (Edge of Orientation Histograms), HOG. Features such as (Histograms of Oriented Gradients), Edgelet, Joint-Haar-like, Joint HOG, and Shapelet may be calculated from the input image area and used for identification. Alternatively, the classifiers 310 to 340 at each stage of the cascade type classifier 300 or the classifiers 510 to 540 of the parallel type classifier 500 calculate different types of feature quantities from among any of the above feature quantities. May be used for identification.

また、各識別器は、監視画像または背景画像中の所定領域から抽出された様々な特徴量と、画像上に写った人が有する対応する特徴量との一致度合いを表す一致度を識別のために用いてもよい。例えば、画像上に写った人が有する形状、または上記のEOH、HOGなどの特徴量をテンプレートとして予め記憶部3に記憶させておく。識別部52は、入力された監視画像あるいは背景画像の所定領域から、それらテンプレートと同じ種類の特徴量を抽出し、抽出された特徴量とテンプレートとの一致度を求める。そして各識別器は、その一致度を入力として、その所定領域に侵入者が写っているか否かに識別結果を出力する。なお、一致度は、例えば、テンプレートが所定の値であれば、入力された画像の所定領域から抽出された特徴量の値とそのテンプレートの値との差をδ、δの取り得る最大値をδmaxとして、(δmax-δ)/δmaxとすることができる。またテンプレートがm×n画素の画像ブロック(ただし、m、nは自然数)であれば、テンプレートと入力された画像の所定領域のパターンマッチングにより算出される相関値の最大値が一致度として算出される。 Each discriminator is used to identify the degree of coincidence representing the degree of coincidence between various feature amounts extracted from a predetermined area in the monitoring image or the background image and the corresponding feature amount of the person shown on the image. You may use for. For example, the shape of a person shown on the image or the feature amount such as EOH or HOG is stored in advance in the storage unit 3 as a template. The identification unit 52 extracts feature amounts of the same type as those templates from a predetermined region of the input monitoring image or background image, and obtains the degree of coincidence between the extracted feature amounts and the template. Each discriminator receives the matching degree as an input and outputs a discrimination result as to whether or not an intruder is shown in the predetermined area. For example, if the template has a predetermined value, the difference between the feature value extracted from the predetermined area of the input image and the value of the template is δ, and the maximum value that δ can take. As δ max , (δ max −δ) / δ max can be set. If the template is an image block of m × n pixels (where m and n are natural numbers), the maximum correlation value calculated by pattern matching between the template and a predetermined area of the input image is calculated as the degree of coincidence. The

さらに、図3に示したカスケード型識別器の各段の識別器あるいは図5に示した並列型識別器の各識別器は、Adaboost識別器に限られない。これらの各識別器は、サポートベクトルマシン、パーセプトロン型ニューラルネットワークなどであってもよい。
さらに、識別部52が使用する識別器は、監視画像または背景画像、若しくはそれらの部分領域を入力することにより、信頼度または類似度を3段階以上の多値で出力する識別器であれば、単独の識別器であってもよい。そのような識別器として、例えば、ベイジアンネットワークのような確率モデルを用いることができる。例えば、識別器としてベイジアンネットワークが用いられる場合、識別器は、そのベイジアンネットワークが持つ少なくとも一つの入力ノードに、監視画像中の所定領域から求められる上記のような特徴量を入力することにより、各入力ノードに入力された特徴量の値の組み合わせに対する事後確率として、信頼度を出力する。同様に、その識別器は、ベイジアンネットワークが持つ少なくとも一つの入力ノードに、監視画像中の所定領域に対応する背景画像中の領域から求められる上記のような特徴量を入力することにより、各入力ノードに入力された特徴量の値の組み合わせに対する事後確率として、類似度を出力する。そして判定部53は、上述した判定基準と同様の基準、例えば、信頼度が類似度よりも高いとき、その所定領域に侵入者が写っていると判定できる。
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。
Furthermore, each classifier of the cascade classifier shown in FIG. 3 or each of the parallel classifiers shown in FIG. 5 is not limited to the Adaboost classifier. Each of these classifiers may be a support vector machine, a perceptron type neural network, or the like.
Furthermore, if the discriminator used by the discriminating unit 52 is a discriminator that outputs a reliability or similarity in multiple levels of three or more levels by inputting a monitoring image or a background image, or a partial region thereof, A single discriminator may be used. As such a discriminator, for example, a stochastic model such as a Bayesian network can be used. For example, when a Bayesian network is used as a discriminator, the discriminator inputs each feature amount as described above obtained from a predetermined region in the monitoring image to at least one input node of the Bayesian network. The reliability is output as a posterior probability for the combination of feature value values input to the input node. Similarly, the discriminator inputs each feature amount as described above, which is obtained from an area in the background image corresponding to a predetermined area in the monitoring image, to at least one input node of the Bayesian network. Similarity is output as a posteriori probability for a combination of feature value values input to a node. And the determination part 53 can determine with the same reference | standard as the determination criterion mentioned above, for example, when a reliability is higher than a similarity degree, that the intruder is reflected in the predetermined area | region.
As described above, those skilled in the art can make various modifications in accordance with the embodiment to be implemented within the scope of the present invention.

本発明の一実施形態である画像監視装置の概略構成図である。It is a schematic block diagram of the image monitoring apparatus which is one Embodiment of this invention. (a)は背景画像の一例を示す図であり、(b)は監視画像の一例を示す図であり、(c)は背景画像と監視画像の差分2値化画像の一例を示す図である。(A) is a figure which shows an example of a background image, (b) is a figure which shows an example of a monitoring image, (c) is a figure which shows an example of the difference binarized image of a background image and a monitoring image. . 画像監視装置で使用される識別器の一例であるカスケード型識別器の概略構成図である。It is a schematic block diagram of the cascade type discriminator which is an example of the discriminator used with an image monitoring apparatus. 画像監視装置による侵入者検出処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the intruder detection process by an image monitoring apparatus. 画像監視装置で使用される識別器の他の一例である並列型識別器の概略構成図である。It is a schematic block diagram of the parallel classifier which is another example of the classifier used with an image monitoring apparatus.

符号の説明Explanation of symbols

1 画像監視装置
2 画像入力部
3 記憶部
4 出力部
5 信号処理部
51 変化領域抽出部
52 識別部
53 判定部
54 背景画像更新部
300 カスケード型識別器
500 並列型識別器
DESCRIPTION OF SYMBOLS 1 Image monitoring apparatus 2 Image input part 3 Memory | storage part 4 Output part 5 Signal processing part 51 Change area extraction part 52 Discriminator 53 Judgment part 54 Background image update part 300 Cascade type discriminator 500 Parallel type discriminator

Claims (6)

特定の監視領域を撮影した画像から検出対象物を検出する画像監視装置であって、
前記監視領域を撮影した監視画像を取得する画像入力部と、
前記監視領域に検出対象物が存在しない状況において前記監視領域を撮影した画像である背景画像を記憶する記憶部と、
前記監視画像及び背景画像の所定領域における検出対象物らしさの度合いを算出する識別器を有し、該識別器により、前記画像入力部により取得された監視画像の所定領域についての当該度合いを信頼度として算出し、かつ、該識別器により、当該監視画像の所定領域に対応する前記背景画像の所定領域についての当該度合いを類似度として算出する識別部と、
前記類似度が大きくなるほど厳しくなる判定基準を前記信頼度が満たしたとき、前記監視領域内に前記検出対象物が存在すると判定する判定部と、
を有することを特徴とする画像監視装置。
An image monitoring device for detecting a detection target from an image obtained by photographing a specific monitoring area,
An image input unit for acquiring a monitoring image obtained by photographing the monitoring area;
A storage unit that stores a background image that is an image of the monitoring area in a situation where there is no detection target in the monitoring area;
A discriminator that calculates the degree of likelihood of a detection object in a predetermined area of the monitoring image and the background image, and the reliability of the degree of the predetermined area of the monitoring image acquired by the image input unit by the discriminator; And an identification unit that calculates the degree of the predetermined region of the background image corresponding to the predetermined region of the monitoring image as the similarity by the identifier.
A determination unit that determines that the detection target exists in the monitoring area when the reliability satisfies a determination criterion that becomes more severe as the similarity increases ;
An image monitoring apparatus comprising:
前記判定基準は、前記信頼度から前記類似度を引いた差が所定の閾値よりも大きいことであり、前記判定部は、前記信頼度から前記類似度を引いた差が所定の閾値よりも大きいとき、前記監視領域内に検出対象物が存在すると判定する、請求項1に記載の画像監視装置。 The determination criterion is that a difference obtained by subtracting the similarity from the reliability is greater than a predetermined threshold, and the determination unit determines that a difference obtained by subtracting the similarity from the reliability is greater than a predetermined threshold. The image monitoring apparatus according to claim 1, wherein it is determined that a detection target exists in the monitoring area. 前記識別器は、複数の識別器が直列に接続されたカスケード型識別器であり、当該直列に接続された複数の識別器のそれぞれは、前記所定の領域に検出対象物が存在するか否かの識別結果を出力するとともに、前記カスケード型識別器は、何れかの段の識別器が検出対象物が存在しないとの識別結果を出力するまで、次の段の識別器が識別結果を出力し、かつ前記信頼度及び前記類似度は、前記カスケード型識別器において、前記所定の領域に検出対象物が存在するとの識別結果を出力した最後の識別器の段数である、請求項1または2に記載の画像監視装置。   The discriminator is a cascade type discriminator in which a plurality of discriminators are connected in series, and each of the plurality of discriminators connected in series has a detection object in the predetermined region. The cascade type discriminator outputs the discrimination result until the discriminator of the next stage outputs the discrimination result that the detection target does not exist. The reliability and the similarity are the number of stages of the last discriminator that outputs a discrimination result that the detection target exists in the predetermined region in the cascade discriminator. The image monitoring apparatus described. 前記識別器は、複数の識別器が並列に接続された並列型識別器であり、当該並列に接続された複数の識別器のそれぞれは、前記所定の領域に検出対象物が存在するか否かの識別結果を出力するとともに、前記並列型識別器は、当該並列に接続された複数の識別器のうち、検出対象物が存在するとの識別結果を出力した識別器の数を前記信頼度及び前記類似度とする、請求項1または2に記載の画像監視装置。   The discriminator is a parallel discriminator in which a plurality of discriminators are connected in parallel, and each of the plurality of discriminators connected in parallel has a detection object in the predetermined area. And the parallel type classifier outputs the number of classifiers that output the identification result that the detection target exists among the plurality of classifiers connected in parallel with the reliability and the The image monitoring apparatus according to claim 1, wherein the image monitoring apparatus has similarity. 前記識別器は、前記所定の領域から抽出された検出対象物の特徴情報と、前記記憶部に記憶された検出対象物の特徴情報との一致度を入力することにより、前記信頼度及び前記類似度を算出する、請求項1〜4の何れか一項に記載の画像監視装置。   The discriminator inputs the degree of coincidence between the feature information of the detection target extracted from the predetermined area and the feature information of the detection target stored in the storage unit, so that the reliability and the similarity The image monitoring apparatus according to claim 1, wherein the degree is calculated. 前記監視画像と前記背景画像との差分処理を行って、前記監視画像と前記背景画像間で輝度差のある変化領域を抽出する変化領域抽出部をさらに有し、
前記識別部は、前記変化領域を前記所定の領域として、前記信頼度及び前記類似度を算出する、請求項1〜5の何れか一項に記載の画像監視装置。
It further includes a change area extraction unit that performs a difference process between the monitor image and the background image, and extracts a change area having a luminance difference between the monitor image and the background image,
The image monitoring apparatus according to claim 1, wherein the identification unit calculates the reliability and the similarity using the change area as the predetermined area.
JP2008293542A 2008-11-17 2008-11-17 Image monitoring device Active JP5106356B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008293542A JP5106356B2 (en) 2008-11-17 2008-11-17 Image monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008293542A JP5106356B2 (en) 2008-11-17 2008-11-17 Image monitoring device

Publications (2)

Publication Number Publication Date
JP2010122746A JP2010122746A (en) 2010-06-03
JP5106356B2 true JP5106356B2 (en) 2012-12-26

Family

ID=42324059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008293542A Active JP5106356B2 (en) 2008-11-17 2008-11-17 Image monitoring device

Country Status (1)

Country Link
JP (1) JP5106356B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012208793A (en) * 2011-03-30 2012-10-25 Sogo Keibi Hosho Co Ltd Security system
JP5832910B2 (en) * 2012-01-26 2015-12-16 セコム株式会社 Image monitoring device
JP5728534B2 (en) * 2013-07-02 2015-06-03 日本電信電話株式会社 Integrated classifier learning apparatus, integrated classifier learning method, and integrated classifier learning program
JP5646716B2 (en) * 2013-10-08 2014-12-24 株式会社東芝 Video display device and video display method
JP6188147B2 (en) * 2013-10-15 2017-08-30 国立大学法人広島大学 Recognition system
US20190179333A1 (en) 2016-08-25 2019-06-13 Lg Electronics Inc. Mobile robot and control method for controlling the same
JP7063052B2 (en) 2018-03-28 2022-05-09 富士通株式会社 Goodness-of-fit calculation program, goodness-of-fit calculation method, goodness-of-fit calculation device, identification program, identification method and identification device
JP7123306B2 (en) * 2018-11-07 2022-08-23 オムロン株式会社 Image processing device and image processing method
US11308365B2 (en) * 2019-06-13 2022-04-19 Expedia, Inc. Image classification system
JP7355553B2 (en) 2019-08-16 2023-10-03 セコム株式会社 Image processing device and image processing program
JP2021110973A (en) * 2020-01-06 2021-08-02 オムロン株式会社 Human body detection apparatus and human body detection method
CN113723305A (en) * 2021-08-31 2021-11-30 北京百度网讯科技有限公司 Image and video detection method, device, electronic equipment and medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002279429A (en) * 2001-03-15 2002-09-27 Hitachi Kokusai Electric Inc Method for detecting infiltrating object
JP4517633B2 (en) * 2003-11-25 2010-08-04 ソニー株式会社 Object detection apparatus and method

Also Published As

Publication number Publication date
JP2010122746A (en) 2010-06-03

Similar Documents

Publication Publication Date Title
JP5106356B2 (en) Image monitoring device
KR101964397B1 (en) Information processing apparatus and information processing method
JP5567853B2 (en) Image recognition apparatus and method
US9047505B2 (en) Collating device
US20140177946A1 (en) Human detection apparatus and method
CN108171158B (en) Living body detection method, living body detection device, electronic apparatus, and storage medium
JP5832910B2 (en) Image monitoring device
US9633284B2 (en) Image processing apparatus and image processing method of identifying object in image
KR100824757B1 (en) Gait recognition method
JP5726596B2 (en) Image monitoring device
JP2017053699A (en) Wavelength decision method of near-infrared image capturing used in substance determination, and substance determination method using near-infrared image
KR101769741B1 (en) Method and apparatus for recognizing iris through pupil detection
JP5851108B2 (en) Image monitoring device
JP5726595B2 (en) Image monitoring device
JP7074174B2 (en) Discriminator learning device, discriminator learning method and computer program
JP5752977B2 (en) Image monitoring device
JP5154461B2 (en) Moving object tracking device
US10140503B2 (en) Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus
JP2009181220A (en) Object detector
JP7337541B2 (en) Information processing device, information processing method and program
JP2007060468A (en) Image sensor
JP6124739B2 (en) Image sensor
JP4544955B2 (en) Image monitoring device
JP6053504B2 (en) Object detection device
JP5828785B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121002

R150 Certificate of patent or registration of utility model

Ref document number: 5106356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250