JP2013045188A - Object detection method - Google Patents

Object detection method Download PDF

Info

Publication number
JP2013045188A
JP2013045188A JP2011181030A JP2011181030A JP2013045188A JP 2013045188 A JP2013045188 A JP 2013045188A JP 2011181030 A JP2011181030 A JP 2011181030A JP 2011181030 A JP2011181030 A JP 2011181030A JP 2013045188 A JP2013045188 A JP 2013045188A
Authority
JP
Japan
Prior art keywords
processing
image
input image
detection
car
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011181030A
Other languages
Japanese (ja)
Inventor
Miyuki Fujii
幸 藤井
Wataru Ito
渡 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2011181030A priority Critical patent/JP2013045188A/en
Publication of JP2013045188A publication Critical patent/JP2013045188A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve the problems that individual size becomes small and it cannot be recognized that a car exists by a fact that one object is detected by being separated into a plurality of objects depending on a binarization threshold since the binarization threshold becomes higher or lower according to environmental change when a fact that the car exists in a monitoring area is recognized by difference, binarization, noise removal, labeling, and size determination processing under environment that both of a person and the car enter the monitoring area.SOLUTION: Authentication accuracy of an existence area of an object is raised by using normalization correlation. As a result, performance for recognizing that a car exists is raised by stopping processing for prevention of erroneous detection when the car exists in the monitoring area, and combining the normalization correlation processing and differential processing when an intruder is detected when the car does not exist.

Description

本発明は、侵入者あるいは侵入物を監視する監視用CCTV(Closed Circuit Tele-Vision)装置における侵入者あるいは侵入物の検知手法に関する。   The present invention relates to a technique for detecting an intruder or an intruder in a CCTV (Closed Circuit Tele-Vision) device for monitoring an intruder or an intruder.

監視領域内に入ってきた人を検知する画像処理装置において、車が入ってきた場合には処理を停止する動作について、図4を用いて説明する。図4は、従来の物体検出方法について説明するためのフローチャートである。   In the image processing apparatus that detects a person who enters the monitoring area, an operation of stopping the process when a car enters will be described with reference to FIG. FIG. 4 is a flowchart for explaining a conventional object detection method.

図4において、まず、ステップ401〜ステップ403では、背景画像および閾値画像の初期化を行う。   In FIG. 4, first, in steps 401 to 403, the background image and the threshold image are initialized.

入力画像取込ステップ401では、カメラから背景画像作成、閾値作成、および、物体検出に用いる入力画像を取込む。
背景画像・閾値作成ステップ402では、取込んだ入力画像を加重平均することにより、監視領域内に人や車等の検出すべき物体のない、基準となる背景画像の作成、および、検知に用いる閾値の作成を行う(例えば、特許文献1参照。)。
背景画像作成終了判定ステップ403では、フレームの処理回数を判定し、フレームの処理回数が規定値以上であるか否かを判定する。フレームの処理回数が規定値未満である場合には入力画像取込ステップ401に戻りステップ401〜ステップ403の処理を繰り返し、フレームの処理回数が規定値以上である場合には、入力画像取込ステップ404の処理に移行する。
In an input image capture step 401, an input image used for background image creation, threshold creation, and object detection is captured from the camera.
In the background image / threshold creation step 402, the acquired input image is weighted and averaged, and used to create and detect a reference background image having no object to be detected such as a person or a vehicle in the monitoring area. A threshold value is created (for example, refer to Patent Document 1).
In the background image creation end determination step 403, the number of frame processes is determined, and it is determined whether or not the number of frame processes is equal to or greater than a specified value. If the number of frame processing is less than the specified value, the process returns to the input image capturing step 401 and the processing of steps 401 to 403 is repeated. If the number of frame processing is greater than or equal to the specified value, the input image capturing step The process proceeds to 404.

物体の検知処理は、入力画像取込ステップ404、差分処理ステップ405、二値化処理ステップ406、ノイズ除去処理ステップ407、ラベリング処理ステップ408、大きさによる検知処理停止判定ステップ409、物体判定処理ステップ410、侵入者判定ステップ411で物体検出処理を行い、警報処理ステップ412で警報処理を行い、映像表示処理ステップ414で映像表示処理を行う。また、警報処理ステップ412と映像表示処理ステップ414の間で、背景画像・閾値作成処理ステップ413を行う。   Object detection processing includes input image capture step 404, difference processing step 405, binarization processing step 406, noise removal processing step 407, labeling processing step 408, size detection processing stop determination step 409, object determination processing step. 410, an intruder determination step 411 performs an object detection process, an alarm process step 412 performs an alarm process, and an image display process step 414 performs an image display process. In addition, a background image / threshold creation step 413 is performed between the alarm processing step 412 and the video display processing step 414.

入力画像取込ステップ404では、ステップ401と同様に、カメラから映像を取込み、入力画像を作成する。
差分処理ステップ405では、取込んだ入力画像と、背景画像・閾値作成処理ステップ402または413で作成された最新の背景画像との差分を算出し、差分画像を作成する。なお、差分処理は、入力画像−背景画像の算出について、正負の符号付で算出しても、絶対値でもどちらでも良い。
二値化処理ステップ406では、差分処理ステップ405で得られた差分画像を、背景画像・閾値作成処理ステップ(ステップ402またはステップ413)で得られた最新の閾値に、係数Kを乗じた値で二値化を行う(Kは、例えば、1〜255の整数)。
二値化処理ステップで得られた二値画像には、数画素で構成されているノイズが含まれている。このため、ノイズ除去処理ステップ407では、二値画像から数画素で構成されるノイズを除去し、ノイズ除去画像を作成する。
ラベリング処理ステップ408では、ノイズ除去ステップ407で得られたノイズ除去画像について、かたまり毎に、ラベル付け、幅、高さ、および面積算出を行う。
In the input image capture step 404, as in step 401, a video is captured from the camera and an input image is created.
In the difference processing step 405, the difference between the captured input image and the latest background image created in the background image / threshold creation step 402 or 413 is calculated, and a difference image is created. Note that the difference process may be performed with a positive or negative sign or an absolute value for the calculation of the input image-background image.
In the binarization processing step 406, the difference image obtained in the difference processing step 405 is obtained by multiplying the latest threshold value obtained in the background image / threshold value creation processing step (step 402 or step 413) by a coefficient K. Binarization is performed (K is an integer of 1 to 255, for example).
The binary image obtained in the binarization processing step includes noise composed of several pixels. For this reason, in the noise removal processing step 407, noise composed of several pixels is removed from the binary image to create a noise-removed image.
In the labeling processing step 408, labeling, width, height, and area calculation are performed for each clump for the noise-removed image obtained in the noise removing step 407.

大きさによる処理停止判定ステップ409では、ラベリング処理ステップ408で得られたかたまり毎の幅および高さから決定される物体の大きさを用いて、車のサイズに相当する物体が存在するか否かを判定する。車が存在する場合には、判定処理を行わず、背景画像・閾値作成処理ステップ413の処理に移行する。車が存在しない場合には、物体判定処理ステップ410の処理に移行する。
物体判定処理ステップ410では、物体の大きさ(幅と高さ)、滞在時間、移動距離等を用いて、ラベリング処理ステップ408で得られたかたまりごとに、侵入者か否かを判定する。
侵入者判定ステップ411では、物体判定処理ステップ410で侵入者と判定された物体があるか否かを判定する。侵入者があった場合には警報処理ステップ412の処理に移行し、侵入者がいない場合には背景画像・閾値作成処理ステップ413の処理に移行する。
警報処理ステップ412では、回転灯や積層式表示灯を点灯する等、外部機器に対して警報出力を行う。警報出力としては、この外に、ブザーを鳴らす、記録装置に通知する等があり、少なくともいずれか1つを実行する。
In the process stop determination step 409 based on the size, it is determined whether or not there is an object corresponding to the size of the vehicle using the size of the object determined from the width and height of each block obtained in the labeling process step 408. Determine. If there is a vehicle, the process proceeds to the background image / threshold creation step 413 without performing the determination process. If there is no vehicle, the process proceeds to the object determination processing step 410.
In the object determination processing step 410, it is determined whether or not the person is an intruder for each cluster obtained in the labeling processing step 408 using the size (width and height) of the object, the staying time, the moving distance, and the like.
In the intruder determination step 411, it is determined whether or not there is an object determined as an intruder in the object determination processing step 410. If there is an intruder, the process proceeds to the alarm processing step 412, and if there is no intruder, the process proceeds to the background image / threshold creation processing step 413.
In an alarm processing step 412, an alarm is output to an external device, such as turning on a rotating lamp or a laminated display lamp. Other alarm outputs include sounding a buzzer and notifying the recording device, and at least one of them is executed.

次に、背景画像・閾値作成処理ステップ413では、撮影環境の変化に対応して時々刻々と変わる映像状態に追従するため、入力画像を取込むたびに、背景画像・閾値作成ステップ402と同様の処理、即ち、基準となる背景画像の作成、および、検知に用いる閾値の作成を行う。
そして、映像表示処理ステップ414では、侵入者ありの場合には「侵入者検知」の文字、検知部分を示すマーカを入力映像に重畳し、侵入者なしの場合には入力画像を出力し、監視員の監視するモニタに表示する。
映像表示処理ステップ414の処理後は、再び入力画像取込ステップ404の処理に移行し、物体の検知処理を続行する。
Next, in the background image / threshold value creation processing step 413, every time an input image is captured, the same as the background image / threshold value creation step 402 is performed in order to follow the video state that changes every moment in response to a change in the shooting environment. Processing, that is, creation of a reference background image and creation of a threshold used for detection.
In the video display processing step 414, when there is an intruder, the characters “intruder detection” and a marker indicating the detected portion are superimposed on the input video, and when there is no intruder, an input image is output and monitored. Displayed on the monitor monitored by the employee.
After the video display processing step 414, the process proceeds to the input image capturing step 404 again, and the object detection processing is continued.

特開2009−282975号公報JP 2009-282975 A

図4と図5によって、上述の従来技術での車判定の弱点を説明する。図5は、従来の物体検出方法の一例を説明するための模式図である。501は入力画像、502〜505は入力画像501内から検出された侵入者や侵入物体等の物体である。物体502は侵入者、物体503〜505は、侵入物体(例えば、侵入車)の一部である。
上述の従来技術では、画素ごとに、背景画像・閾値作成処理ステップ402で得られた閾値に係数を乗じた値で二値化処理を行う。このため、例えば、日照変化や照明の点滅等の影響で、影があった部分が増えたり無くなったりすることにより、一定時間、閾値が大きな値となっている画素が存在する。このような場合には、図5に示す入力画像501のように、例えば、人は物体502として1つの物体と認識できる。しかし、車は、物体503〜505に分かれて検出されてしまう場合がある。
図5の場合、物体503〜505それぞれに対して、車のサイズか否かを判定するため、車のサイズよりも高さが小さく算出され、車が存在すると認識できない。
従来の物体検出方法では、加重平均を用いて、画素ごとに二値化閾値を決定するため、日照変化が発生した場合、一定時間は二値化閾値が比較的大きな値に設定され、物体が複数に分かれて検出される確率が増加する。物体が複数に分かれて検出された場合、個々の物体サイズは小さくなるため、車が存在するにもかかわらず車が存在しないと判定してしまうことがある。
The weak point of the vehicle determination in the above-described prior art will be described with reference to FIGS. FIG. 5 is a schematic diagram for explaining an example of a conventional object detection method. Reference numeral 501 denotes an input image, and reference numerals 502 to 505 denote objects such as an intruder or an intruding object detected from the input image 501. The object 502 is an intruder, and the objects 503 to 505 are part of an intruding object (for example, an intruding vehicle).
In the conventional technique described above, binarization processing is performed for each pixel by a value obtained by multiplying the threshold value obtained in the background image / threshold value creation processing step 402 by a coefficient. For this reason, for example, there is a pixel having a large threshold value for a certain period of time due to an increase or disappearance of a shadowed portion due to the influence of sunshine change or blinking of illumination. In such a case, for example, a person can recognize the object 502 as one object as in the input image 501 shown in FIG. However, the car may be detected by being divided into objects 503 to 505.
In the case of FIG. 5, in order to determine whether or not each of the objects 503 to 505 is a car size, the height is calculated to be smaller than the car size, and it cannot be recognized that a car exists.
In the conventional object detection method, since the binarization threshold is determined for each pixel using a weighted average, when a change in sunshine occurs, the binarization threshold is set to a relatively large value for a certain period of time, The probability of being divided and detected increases. When an object is detected in a plurality of parts, the size of each object is small, so it may be determined that there is no car even though the car exists.

上述のように、従来、監視領域に車が存在することを、差分、二値化、ノイズ除去、ラベリング、大きさ判定処理で行った場合には、二値化のしきい値は環境変化に応じて高くなったり、低くなったりするため、二値化しきい値によっては、1つの物体が複数に分かれて検出されることにより、個々のサイズが小さくなり、車が存在することを認識することができなかった。
本発明の目的は、上記のような問題に鑑み、物体の検出精度が向上する物体検出方法を提供することにある。
As described above, when the existence of a vehicle in the monitoring area is conventionally performed by difference, binarization, noise removal, labeling, and size determination processing, the threshold for binarization changes to the environment. Depending on the binarization threshold, one object is detected in multiple parts, so that the individual size is reduced and there is a car. I could not.
In view of the above problems, an object of the present invention is to provide an object detection method with improved object detection accuracy.

上記の目的を達成するため、本発明の物体検出方法は、監視領域を撮像するカメラから入力画像を取込み、該取込んだ入力画像を画像処理して物体検出処理し、前記監視領域内の侵入者あるいは侵入物を検出する物体検出装置の物体検出方法において、前記入力画像を複数のブロックに分割し、該分割したブロックごとの相関値および差分値から物体の存在領域を判定し、該物体の存在領域が所定の閾値以上の場合には、前記物体検出処理を停止するものである。   In order to achieve the above object, an object detection method of the present invention takes an input image from a camera that images a monitoring area, performs image processing on the acquired input image, performs object detection processing, and intrudes into the monitoring area. In the object detection method of the object detection device for detecting a person or an intruder, the input image is divided into a plurality of blocks, an existence region of the object is determined from a correlation value and a difference value for each of the divided blocks, and the object When the presence area is equal to or greater than a predetermined threshold, the object detection process is stopped.

本発明によれば、正規化相関を用いることにより、物体存在領域の認識精度の向上が可能となる。また、正規化相関で認識するためには、ある程度の大きさ・パターンが必要であることから、画素ごとではなくブロックごとに物体存在領域を判断することになり、物体存在領域が分割され難くなる。   According to the present invention, it is possible to improve the recognition accuracy of the object existence region by using the normalized correlation. In addition, since a certain size and pattern are necessary for recognition by normalized correlation, the object existence area is determined not for each pixel but for each block, and the object existence area is difficult to be divided. .

本発明の物体検出方法の一実施例における検知停止判定処理ステップを説明するためのフローチャートである。It is a flowchart for demonstrating the detection stop determination process step in one Example of the object detection method of this invention. 本発明の物体検出方法の一実施例を説明するための模式図である。It is a schematic diagram for demonstrating one Example of the object detection method of this invention. 本発明の物体検出方法の一実施例について説明するためのフローチャートである。It is a flowchart for demonstrating one Example of the object detection method of this invention. 従来の物体検出方法について説明するためのフローチャートである。It is a flowchart for demonstrating the conventional object detection method. 従来の物体検出方法の一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of the conventional object detection method. 本発明に係る監視装置の構成を示す図である。It is a figure which shows the structure of the monitoring apparatus which concerns on this invention.

本発明は、監視領域に人、車の両方が入ってくる環境において、監視領域に車が存在するときには誤検知防止のために処理を停止し、車が存在しないときに侵入者の検知を行う場合、正規化相関処理、差分処理を組合せることにより、車が存在することを認識する性能を向上するものである。
上記の処理において、正規化相関を使用することで物体の存在領域の認識精度を向上する。また、正規化相関は、アスファルト等均一なパターン(明るさ)の部分では相関が低く出る場合があるため、正規化相関以外に、差分も組合せ、正規化相関が一定以下でかつ、存在領域検知用の閾値(物体検出よりは小さな値)以上の差分が発生する部分を物体存在領域とすることで、正規化相関に認識精度低下を補う。
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、既に従来技術で説明した図4および図5も含め、各図の説明において、共通な機能を有する構成要素には同一の参照番号を付し、できるだけ説明の重複を避ける。
また、以下の説明は、本発明の一実施形態を説明するためのものであり、本願発明の範囲を制限するものではない。従って、当業者であればこれらの各要素若しくは全要素をこれと均等なものに置換した実施形態を採用することが可能であり、これらの実施形態も本願発明の範囲に含まれる。
In an environment where both people and vehicles enter the monitoring area, the present invention stops processing to prevent false detection when a vehicle exists in the monitoring area, and detects an intruder when there is no vehicle. In this case, the performance of recognizing the presence of a vehicle is improved by combining the normalized correlation process and the difference process.
In the above processing, the recognition accuracy of the object existing area is improved by using the normalized correlation. In addition, since normalized correlation may be low in areas with uniform patterns (brightness) such as asphalt, in addition to normalized correlation, differences are also combined, normalized correlation is less than a certain level, and presence area detection A portion where a difference greater than or equal to a threshold value (a value smaller than object detection) occurs is set as an object existence region, thereby compensating for a reduction in recognition accuracy in the normalized correlation.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In addition, in the description of each drawing including FIG. 4 and FIG. 5 which have already been described in the prior art, the same reference numerals are assigned to the components having a common function, and the description is avoided as much as possible.
Moreover, the following description is for describing one embodiment of the present invention, and does not limit the scope of the present invention. Accordingly, those skilled in the art can employ embodiments in which these elements or all of the elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.

図6は、本発明に係る監視用CCTV装置の構成を示す図である。監視用CCTV装置は、カメラ601、物体検出装置600、指示装置609、および表示装置610で構成される。
物体検出装置600は、映像入力回路602と、画像処理プロセッサ603と、プログラムメモリ604と、ワークメモリ605と、外部I/F回路606と、映像出力回路607と、バス608とを具備している。映像入力回路602と、画像処理プロセッサ603と、プログラムメモリ604と、ワークメモリ605と、外部I/F回路606と、映像出力回路607は、バス608に接続されている。バス608は、物体検出装置600内の各機器が、それぞれ、相互にアクセスするためのデータバスである。
FIG. 6 is a diagram showing a configuration of a monitoring CCTV apparatus according to the present invention. The surveillance CCTV device includes a camera 601, an object detection device 600, an instruction device 609, and a display device 610.
The object detection apparatus 600 includes a video input circuit 602, an image processor 603, a program memory 604, a work memory 605, an external I / F circuit 606, a video output circuit 607, and a bus 608. . The video input circuit 602, the image processor 603, the program memory 604, the work memory 605, the external I / F circuit 606, and the video output circuit 607 are connected to the bus 608. A bus 608 is a data bus for each device in the object detection apparatus 600 to access each other.

カメラ601は、監視の対象となる領域(監視領域)を撮像し、撮像した画像を入力画像として物体検出装置600に出力する。
物体検出装置600において、カメラ601から入力された画像は、映像入力回路602に入力される。映像入力回路602は、入力画像を取込み、ワークメモリ605に出力する。ワークメモリ605は、入力画像を記録する。
画像処理プロセッサ603は、プログラムメモリ604に記録されているプログラムに従って、ワークメモリ605内に記録された入力画像を処理し、その処理結果を映像出力回路607を介して表示装置610に出力する。
表示装置610は、映像出力回路607から入力された処理結果を表示部に表示する。
また、指示装置609は、例えばマウス、キーボードなどの指示装置609を使って、オペレータが物体検出装置600を操作する入力装置である。画像処理プロセッサ603は、指示装置609から、外部I/F回路606を介して入力されるオペレータからの指示に基づいて、プログラムメモリ604に記憶されているプログラムのパラメータを変更および修正しながら、入力画像の処理をする。
The camera 601 captures an area to be monitored (monitoring area), and outputs the captured image to the object detection apparatus 600 as an input image.
In the object detection device 600, an image input from the camera 601 is input to the video input circuit 602. The video input circuit 602 takes an input image and outputs it to the work memory 605. The work memory 605 records an input image.
The image processor 603 processes the input image recorded in the work memory 605 according to the program recorded in the program memory 604, and outputs the processing result to the display device 610 via the video output circuit 607.
The display device 610 displays the processing result input from the video output circuit 607 on the display unit.
The instruction device 609 is an input device for an operator to operate the object detection device 600 using an instruction device 609 such as a mouse or a keyboard. The image processor 603 changes the program parameters stored in the program memory 604 based on an instruction from the operator input via the external I / F circuit 606 from the instruction device 609 while changing and correcting the parameters of the program. Process the image.

図3によって、本発明の物体検出方法の一実施例を説明する。図3は、本発明の物体検出方法の一実施例について説明するためのフローチャートである。なお、図3のフローチャートの処理は、図6で説明した物体検出装置600の画像処理プロセッサ603が、プログラムメモリ604に記録されているプログラムに従って実行する。
図3は、図4で説明した従来の物体検出方法のフローチャートに対して、大きさによる処理停止判定ステップ409を削除し、差分処理ステップ405の前に、検知停止判定処理ステップ301および、検知処理実行判定ステップ302を追加したものである。検知停止判定処理ステップ301の詳細については、後述する。
検知処理実行判定ステップ302では、検知停止判定処理ステップ301で判定された結果(「検知処理実行」、または「検知処理停止」)に基づいて、「検知処理実行」と判定された場合にのみ、差分処理ステップ405、二値化処理ステップ406、ノイズ除去処理ステップ407、ラベリング処理ステップ408、物体判定処理ステップ410、侵入者判定ステップ411、警報処理ステップ412、背景画像・閾値作成処理ステップ413、および映像表示処理ステップ414を行う。
なお、検知停止判定処理ステップ301が「検知処理停止」と判定した場合には、入力画像取込ステップ404の処理に戻り、次の入力画像を取込んで、物体の検知処理を行う。
An embodiment of the object detection method of the present invention will be described with reference to FIG. FIG. 3 is a flowchart for explaining an embodiment of the object detection method of the present invention. 3 is executed by the image processing processor 603 of the object detection apparatus 600 described with reference to FIG. 6 in accordance with a program recorded in the program memory 604.
3 deletes the process stop determination step 409 depending on the size from the flowchart of the conventional object detection method described in FIG. 4, and before the difference process step 405, the detection stop determination process step 301 and the detection process. An execution determination step 302 is added. Details of the detection stop determination processing step 301 will be described later.
In the detection process execution determination step 302, only when it is determined as “detection process execution” based on the result (“detection process execution” or “detection process stop”) determined in the detection stop determination process step 301, Difference processing step 405, binarization processing step 406, noise removal processing step 407, labeling processing step 408, object determination processing step 410, intruder determination step 411, warning processing step 412, background image / threshold generation processing step 413, and A video display processing step 414 is performed.
If the detection stop determination processing step 301 determines “detection processing stop”, the process returns to the input image capture step 404 to capture the next input image and perform object detection processing.

次に、検知停止判定処理ステップ301の詳細について、図1および図2を用いて説明する。図1は、本発明の物体検出方法の一実施例における検知停止判定処理ステップを説明するためのフローチャートである。図2は、本発明の物体検出方法の一実施例を説明するための模式図である。図2(a)は背景画像201、図2(b)は入力画像202を示す。図2(a)および図2(b)は、どちらも、画像の幅を(M+1)個のブロックに分割し、画像の高さを(N+1)個のブロックに分割した処理を説明するものである。Br00〜BrM0は背景画像201の1行目の0〜M番目のブロック、Br0N〜BrMNは背景画像201のN行目の0〜M番目のブロックである。また、Bn00〜BnM0は入力画像202の1行目の0〜M番目のブロック、Bn0N〜BnMNは入力画像202のN行目の0〜M番目のブロックである。さらに、背景画像201および入力画像202において、1ブロックの幅はW、高さはHである。
またさらに、図2の背景画像201および入力画像202では、門を通過する人および車を監視している。従って、背景画像201には、門と塀がある画像が映り、入力画像202には、門と塀に加え、人を示す物体203と車を示す物体204が映っている。
検知停止判定処理ステップ301は、背景画像および入力画像を、画像の幅を(M+1)個のブロック、画像の高さを(N+1)個のブロックに分割し、分割したブロックごとに正規化相関の値および差分値により、物体存在領域を判定する処理である。
なお、図1のフローチャートの処理もまた、図6で説明した物体検出装置600の画像処理プロセッサ603が、プログラムメモリ604に記録されているプログラムに従って実行する。
Next, details of the detection stop determination processing step 301 will be described with reference to FIGS. 1 and 2. FIG. 1 is a flowchart for explaining detection stop determination processing steps in an embodiment of the object detection method of the present invention. FIG. 2 is a schematic diagram for explaining an embodiment of the object detection method of the present invention. 2A shows the background image 201 and FIG. 2B shows the input image 202. FIG. 2A and FIG. 2B both illustrate processing in which the image width is divided into (M + 1) blocks and the image height is divided into (N + 1) blocks. is there. B r00 to B rM0 are the 0th to Mth blocks in the first row of the background image 201, and Br0N to BrMN are the 0th to Mth blocks in the Nth row of the background image 201. B n00 to B nM0 are the 0th to Mth blocks in the first row of the input image 202, and Bn0N to BnMN are the 0th to Mth blocks in the Nth row of the input image 202. Further, in the background image 201 and the input image 202, the width of one block is W B and the height is H B.
Furthermore, in the background image 201 and the input image 202 in FIG. 2, a person and a vehicle passing through the gate are monitored. Therefore, the background image 201 shows an image with a gate and a fence, and the input image 202 shows an object 203 indicating a person and an object 204 indicating a car in addition to the gate and the fence.
The detection stop determination processing step 301 divides the background image and the input image into (M + 1) blocks and the image height (N + 1) blocks, and normalization correlation of each divided block. This is a process for determining an object presence area based on a value and a difference value.
1 is also executed by the image processing processor 603 of the object detection apparatus 600 described in FIG. 6 according to a program recorded in the program memory 604.

図1において、物体存在領域数初期化ステップ101では、物体存在領域のカウンタCを0で初期化する(C=0)。
処理回数N判定ステップ102では、画像の高さ方向のブロック処理回数PnがN以下か否かを判定する。処理回数PnがN以下(Pn≦N)であれば処理回数M判定ステップ103の処理に移行し、処理回数PnがNより大きい(Pn>N)であれば物体存在領域判定処理ステップ108の処理に移行する。なお、判定後、Pnに1を加えて次の処理に移行する(Pn=Pn+1)。
処理回数M判定ステップ103では、画像の幅方向のブロック処理回数PmがM以下か否かを判定する。処理回数PmがN以下(Pm≦M)であれば平均相関値算出ステップ104の処理に移行し、処理回数PmがMより大きい(Pn>N)であれば処理回数N判定ステップ102の処理に移行する。なお、判定後、Pmに1を加えて次の処理に移行する(Pm=Pm+1)。
In FIG. 1, in the object existence area number initialization step 101, the object existence area counter C is initialized to 0 (C = 0).
In the processing count N determination step 102, it is determined whether or not the block processing count Pn in the height direction of the image is N or less. If the processing number Pn is N or less (Pn ≦ N), the process proceeds to the processing number M determination step 103. If the processing number Pn is greater than N (Pn> N), the object presence region determination processing step 108 is performed. Migrate to After the determination, 1 is added to Pn and the process proceeds to the next process (Pn = Pn + 1).
In the process count M determination step 103, it is determined whether or not the block process count Pm in the width direction of the image is M or less. If the number of processing times Pm is N or less (Pm ≦ M), the process proceeds to the process of calculating the average correlation value 104. If the number of processing times Pm is greater than M (Pn> N), the process of the processing number N determination step 102 Transition. After the determination, 1 is added to Pm and the process proceeds to the next process (Pm = Pm + 1).

平均相関値算出ステップ104では、処理回数Pn=0、処理回数Pm=0の場合、背景画像201のBr00と、入力画像202のBn00の正規化相関を算出する。正規化相関を用いることにより、差分よりも日照変化等が発生しレベルが変化した場合でも影響を受け難いため、差分処理よりも物体の存在領域の認識精度が高い。
平均差分値算出ステップ105では、背景画像201のBr00と、入力画像202のBn00の各画素に対して、差分(入力画像−背景画像、正負の符号付で算出しても、絶対値でもどちらでも良い)を算出し、平均差分値を算出する。
正規化相関では、パターンが無い部分は相関値が正しく得られないため、正規化相関値が0.95未満でも平均差分値の低い部分は物体が存在しないと判定する。
In the average correlation value calculation step 104, when the number of processing times Pn = 0 and the number of processing times Pm = 0, the normalized correlation between Br 00 of the background image 201 and Bn 00 of the input image 202 is calculated. By using the normalized correlation, even if a sunshine change or the like occurs rather than the difference and the level changes, it is difficult to be affected. Therefore, the recognition accuracy of the object existing area is higher than the difference processing.
In the average difference value calculation step 105, the difference (input image-background image, with a positive or negative sign, or absolute value) is calculated for each pixel of Br 00 of the background image 201 and Bn 00 of the input image 202. Either may be calculated) and an average difference value is calculated.
In the normalized correlation, since the correlation value cannot be obtained correctly in the portion without the pattern, it is determined that there is no object in the portion having a low average difference value even if the normalized correlation value is less than 0.95.

相関値および差分を用いた物体領域判定ステップ106では、平均相関値算出ステップ104で得られた平均相関値Raを予め定められた閾値Thcと比較し、かつ、平均差分値算出ステップ105で得られた平均差分値Daを予め定められた閾値Thsと比較し、物体が存在する領域であるか否かを判定する。
即ち、Ra<Thcであり、かつ、Da>Thsであった場合には、物体が存在すると判定し、物体存在領域インクリメントステップ107の処理に移行する。また、それ以外であれば、処理回数M判定ステップ103の処理に戻る。
物体存在領域インクリメントステップ107では、物体存在領域をカウントアップする。本実施例では、Thc=0.95(背景と5%以上異なる場合、物体が存在する)、Ths=9(差分が9以上の場合、物体が存在する)とした。例えば、平均相関値算出ステップ104で、処理回数Pn=0、処理回数Pm=0の場合、このステップ107の処理の結果、処理回数Pn=0、処理回数Pm=1となり、背景画像201のBr10と、入力画像202のBn10に対して、平均相関値算出ステップ104、平均差分値算出ステップ105、相関値および差分を用いた物体領域判定ステップ106で物体が存在しているか否かを判定し、物体が存在していると判断した場合、物体存在領域インクリメントステップ107で、物体存在領域をカウントアップする。
この処理を、処理回数Pn=N、処理回数Pm=Mとなるまで繰り返す。処理回数Pn=N、処理回数Pm=Mとなった場合には、検知処理停止判定ステップ108の処理に移行する。
In the object region determination step 106 using the correlation value and the difference, the average correlation value Ra obtained in the average correlation value calculation step 104 is compared with a predetermined threshold value Thc and obtained in the average difference value calculation step 105. The average difference value Da is compared with a predetermined threshold Ths, and it is determined whether or not the object is in an area.
That is, if Ra <Thc and Da> Ths, it is determined that an object is present, and the process proceeds to the object presence area increment step 107. Otherwise, the process returns to the process M determination step 103.
In the object presence area increment step 107, the object presence area is counted up. In this embodiment, Thc = 0.95 (the object exists when it differs from the background by 5% or more), and Ths = 9 (the object exists when the difference is 9 or more). For example, when the processing count Pn = 0 and the processing count Pm = 0 in the average correlation value calculation step 104, the processing count Pn = 0 and the processing count Pm = 1 are obtained as a result of the processing in step 107, and Br of the background image 201 is obtained. 10 and Bn 10 of the input image 202, it is determined whether or not an object exists in an average correlation value calculation step 104, an average difference value calculation step 105, and an object region determination step 106 using the correlation value and the difference. If it is determined that an object exists, the object presence area is incremented in an object presence area increment step 107.
This process is repeated until the number of processes Pn = N and the number of processes Pm = M. When the processing number Pn = N and the processing number Pm = M, the process proceeds to the detection process stop determination step 108.

検知処理停止判定ステップ108では、「物体存在領域 > ThA」
が成立した場合には、車が存在すると判定し、検知処理停止フラグ設定ステップ110の処理に移行する。また、「物体存在領域 > ThA」が成立しなかった場合には、検知処理実行フラグ設定ステップ109の処理に移行する。
検知処理実行フラグ設定ステップ109では、検知処理実行フラグを設定する。
検知処理停止フラグ設定ステップ110では、検知処理停止フラグを設定する。
In the detection process stop determination step 108, “object existence area> ThA”
When is established, it is determined that a vehicle is present, and the process proceeds to the detection process stop flag setting step 110. If “object existence area> ThA” is not established, the process proceeds to the detection process execution flag setting step 109.
In a detection process execution flag setting step 109, a detection process execution flag is set.
In the detection process stop flag setting step 110, a detection process stop flag is set.

図1〜図3の実施例によれば、正規化相関を使用することで物体の存在領域の認識精度を向上する。正規化相関以外に、差分も組合せることにより、パターンが少ない(明るさが均一)内場所での認識精度の低下を防ぐことができる。また、画素ごとではなく、ブロックごとに物体存在領域を判断するため、物体存在領域が分割され難くなる。
その結果、監視領域に人、車の両方が入ってくる環境において、監視領域に車が存在するときには誤検知防止のために処理を停止し、車が存在しないときに侵入者の検知を行う場合、正規化相関処理、差分処理を組合せることにより、車が存在することを認識する性能(認識精度)が向上した。
According to the embodiment of FIGS. 1 to 3, the recognition accuracy of the existence region of the object is improved by using the normalized correlation. In addition to the normalized correlation, the combination of the differences can also prevent the recognition accuracy from being lowered at an inner place where the pattern is small (brightness is uniform). Further, since the object existence area is determined for each block, not for each pixel, the object existence area is difficult to be divided.
As a result, in an environment where both people and vehicles enter the monitoring area, when there is a vehicle in the monitoring area, processing is stopped to prevent false detection, and intruder detection is performed when there is no vehicle. The performance (recognition accuracy) for recognizing the presence of a vehicle is improved by combining the normalized correlation processing and the difference processing.

101:物体存在領域数初期化ステップ、 102:処理回数N判定ステップ、 103:処理回数M判定ステップ、 104:平均相関値算出ステップ、 105:平均差分値算出ステップ、 106:物体領域判定ステップ、 107:物体存在領域インクリメントステップ、 108:検知処理停止判定ステップ、 109:検知処理実行フラグ設定ステップ、 110:検知処理停止フラグ設定ステップ、 201:背景画像、 202:入力画像、 203、204:物体、 301:検知停止判定処理ステップ、 302:検知処理実行判定ステップ、 401:入力画像取込ステップ、 402:背景画像・閾値作成ステップ、 403:背景画像作成終了判定ステップ、 404:入力画像取込ステップ、 405:差分処理ステップ、 406:二値化処理ステップ、 407:ノイズ除去処理ステップ、 408:ラベリング処理ステップ、 409:大きさによる検知処理停止判定ステップ、 410:物体判定処理ステップ、 411:侵入者判定ステップ、 412:警報処理ステップ、 413:背景画像・閾値作成処理ステップ、414:映像表示処理ステップ414、 501:入力画像、 502〜505:物体、 600:物体検出装置、 601:カメラ、 602:映像入力回路、 603:画像処理プロセッサ、 604:プログラムメモリ、 605:ワークメモリ、 606:外部I/F回路、 607:映像出力回路、 608:通信路、 609:指示装置、 610:表示装置。   101: Object existence region number initialization step, 102: Processing number N determination step, 103: Processing number M determination step, 104: Average correlation value calculation step, 105: Average difference value calculation step, 106: Object region determination step : Object presence region increment step, 108: detection process stop determination step, 109: detection process execution flag setting step, 110: detection process stop flag setting step, 201: background image, 202: input image, 203, 204: object, 301 , Detection stop determination processing step, 302: detection processing execution determination step, 401: input image capture step, 402: background image / threshold creation step, 403: background image creation end determination step, 404: input image capture step, 405 : Difference processing step, 406: Binarization processing step, 407: Noise removal processing step, 408: Labeling processing step, 409: Detection processing stop determination step based on size, 410: Object determination processing step, 411: Intruder determination step, 412: Alarm processing Step 413: Background image / threshold creation processing step 414: Video display processing step 414, 501: Input image, 502-505: Object, 600: Object detection device, 601: Camera, 602: Video input circuit, 603: Image Processor 604: Program memory 605: Work memory 606: External I / F circuit 607: Video output circuit 608: Communication path 609: Instruction device 610: Display device

Claims (1)

監視領域を撮像するカメラから入力画像を取込み、該取込んだ入力画像を画像処理して物体検出処理し、前記監視領域内の侵入者あるいは侵入物を検出する物体検出装置の物体検出方法において、前記入力画像を複数のブロックに分割し、該分割したブロックごとの相関値および差分値から物体の存在領域を判定し、該物体の存在領域が所定の閾値以上の場合には、前記物体検出処理を停止することを特徴とする物体検出方法。   In the object detection method of the object detection device for capturing an input image from a camera that captures a monitoring area, subjecting the captured input image to image detection processing, and detecting an intruder or intruder in the monitoring area, The input image is divided into a plurality of blocks, an object existing area is determined from a correlation value and a difference value for each of the divided blocks, and the object detection process is performed when the object existing area is equal to or greater than a predetermined threshold. The object detection method characterized by stopping.
JP2011181030A 2011-08-23 2011-08-23 Object detection method Withdrawn JP2013045188A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011181030A JP2013045188A (en) 2011-08-23 2011-08-23 Object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011181030A JP2013045188A (en) 2011-08-23 2011-08-23 Object detection method

Publications (1)

Publication Number Publication Date
JP2013045188A true JP2013045188A (en) 2013-03-04

Family

ID=48009070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011181030A Withdrawn JP2013045188A (en) 2011-08-23 2011-08-23 Object detection method

Country Status (1)

Country Link
JP (1) JP2013045188A (en)

Similar Documents

Publication Publication Date Title
US10068343B2 (en) Method and apparatus for recognizing moving target
CN102348128B (en) Surveillance camera system having camera malfunction detection function
US7916944B2 (en) System and method for feature level foreground segmentation
JP5518359B2 (en) Smoke detector
US8208733B2 (en) Method, medium, and apparatus with estimation of background change
US20180115749A1 (en) Surveillance system and surveillance method
US7982774B2 (en) Image processing apparatus and image processing method
JP4729610B2 (en) Smoke detector
US20230005176A1 (en) Throwing position acquisition method and apparatus, computer device and storage medium
CN109886117A (en) A kind of method and apparatus of goal behavior detection
Tripathi et al. A framework for abandoned object detection from video surveillance
WO2023039781A1 (en) Method for detecting abandoned object, apparatus, electronic device, and storage medium
JP2010097412A (en) Smoke detecting apparatus
KR101646000B1 (en) Surveillance System And Method To Object And Area
Alqaysi et al. Detection of abnormal behavior in dynamic crowded gatherings
JP6214426B2 (en) Object detection device
US20120257052A1 (en) Electronic device and method for detecting abnormities of image capturing device
US9607210B2 (en) Video surveillance system and method for fraud detection
Verma et al. Analysis of moving object detection and tracking in video surveillance system
CN108184098B (en) Method and system for monitoring safety area
US20140147011A1 (en) Object removal detection using 3-d depth information
CN114764895A (en) Abnormal behavior detection device and method
KR20040018586A (en) Motion detecting device using face characteristics and monitoring system adapting it
KR101581162B1 (en) Automatic detection method, apparatus and system of flame, smoke and object movement based on real time images
JP2013045188A (en) Object detection method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141104