JP2005050382A - Object detection method, device, and program - Google Patents

Object detection method, device, and program Download PDF

Info

Publication number
JP2005050382A
JP2005050382A JP2004321686A JP2004321686A JP2005050382A JP 2005050382 A JP2005050382 A JP 2005050382A JP 2004321686 A JP2004321686 A JP 2004321686A JP 2004321686 A JP2004321686 A JP 2004321686A JP 2005050382 A JP2005050382 A JP 2005050382A
Authority
JP
Japan
Prior art keywords
image
difference
input
pixel
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004321686A
Other languages
Japanese (ja)
Other versions
JP4291251B2 (en
Inventor
Wataru Ito
渡 伊藤
Hirotada Ueda
博唯 上田
Toshimichi Okada
俊道 岡田
Miyuki Fujii
幸 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2004321686A priority Critical patent/JP4291251B2/en
Publication of JP2005050382A publication Critical patent/JP2005050382A/en
Application granted granted Critical
Publication of JP4291251B2 publication Critical patent/JP4291251B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an intruding object detection method and an intruding object monitoring device for detecting a target object having intruded into an imaging range by reducing the erroneous detection of a moving object other than the target object. <P>SOLUTION: A differential image of a predetermined number of frames is obtained by respectively calculating differences on the basis of pixels from different image signals; a combined differential image is created by combining the predetermined number of differential images at a predetermined ratio; a binarized image is created by binarizing the combined differential image by a predetermined threshold value; and a binarized object in the binarized image is detected as an intruding object in a monitoring visual field. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、撮像装置を用いて物体検出を行う物体検出方法及び物体検出装置並びに物体検出プログラムに関し、特に、木々や波などの揺れが観測される環境下において、撮像範囲内への物体を検出すべき対象物体として、撮像装置から入力する映像信号の中から自動的に検出する物体検出方法及び物体検出装置並びに物体検出プログラムに関する。   The present invention relates to an object detection method, an object detection device, and an object detection program that detect an object using an imaging device, and in particular, detects an object within an imaging range in an environment where shaking such as trees and waves is observed. The present invention relates to an object detection method, an object detection device, and an object detection program for automatically detecting a target object to be detected from a video signal input from an imaging device.

カメラ等の撮像装置を画像入力手段として用いた侵入物体監視装置は、従来の監視員による有人監視ではなく、監視視野内の侵入物体を検出したり、物体の種類を確認したりして、自動的に所定の報知や警報処置が得られるようにしたものである。このようなシステムを実現するためには、先ず、カメラ等の画像入力手段より得られた入力画像と基準背景画像(即ち、検出すべき物体の写っていない画像)や該入力画像と異なる時刻に得られた入力画像とを比較し、画素毎に差分を求め、その差分の大きい領域を物体として抽出する方法がある。この方法は、差分法と呼ばれ従来から広く用いられている。特に、入力画像と基準背景画像との差分を用いる方法は背景差分法、異なる時刻に得られた入力画像間での差分を用いる方法はフレーム間差分法と呼ばれる。   An intruding object monitoring device using an imaging device such as a camera as an image input means automatically detects an intruding object within the monitoring field of view or confirms the type of object, rather than being manually monitored by a conventional observer. Thus, a predetermined notification and warning treatment can be obtained. In order to realize such a system, first, an input image obtained from image input means such as a camera, a reference background image (that is, an image in which an object to be detected is not shown), and a time different from the input image are obtained. There is a method of comparing the obtained input image, obtaining a difference for each pixel, and extracting a region having a large difference as an object. This method is called a difference method and has been widely used. In particular, a method using a difference between an input image and a reference background image is called a background difference method, and a method using a difference between input images obtained at different times is called an interframe difference method.

まず、背景差分法の処理を、図5を用いて説明する。図5は、背景差分法における物体検出の処理原理を説明するための図で、101は入力画像、105は基準背景画像、501は背景差分法による差分画像、502は差分画像501の二値化画像、112は減算器、115は二値化器である。   First, the background difference method will be described with reference to FIG. FIG. 5 is a diagram for explaining the processing principle of object detection in the background difference method, where 101 is an input image, 105 is a reference background image, 501 is a difference image by the background difference method, and 502 is a binarization of the difference image 501. An image, 112 is a subtractor, and 115 is a binarizer.

図5において、減算器112は、2フレームの画像(この図では入力画像101と基準背景画像105)の画素毎の輝度値の差分を計算して差分画像501を出力し、二値化器115は差分画像501の画素毎の輝度値が所定のしきい値Th未満の輝度値を“0”、しきい値Th以上の画素の輝度値を“255”(1画素の輝度値を8ビットで計算)として、二値化画像502を得る。   In FIG. 5, a subtractor 112 calculates a difference in luminance value for each pixel of an image of two frames (in this figure, the input image 101 and the reference background image 105), outputs a difference image 501, and a binarizer 115. Indicates that the luminance value of each pixel of the difference image 501 is “0” when the luminance value is less than the predetermined threshold Th, and “255” is the luminance value of the pixel equal to or higher than the threshold Th (the luminance value of one pixel is 8 bits). As a calculation, a binarized image 502 is obtained.

これによって、入力画像101に写った人型の物体503は、減算器112によって差分が生じた領域504として計算され、二値化器115によって輝度値“255”のかたまりの画像505として検出される。背景差分法を応用した例としては、例えば、特開平9−288732号公報がある。   As a result, the humanoid object 503 shown in the input image 101 is calculated as a region 504 in which a difference is generated by the subtractor 112 and is detected as an image 505 having a luminance value “255” by the binarizer 115. . An example of applying the background subtraction method is, for example, Japanese Patent Laid-Open No. 9-288732.

次にフレーム間差分法の処理を、図6を用いて説明する。図6は、フレーム間差分法における物体検出の処理原理を説明するための図で、101は第1の入力画像、102は第1の入力画像101と同一の視野範囲を第1の入力画像101と異なる時刻に撮像して得られた第2の入力画像、601はフレーム間差分法による差分画像、602は差分画像601の二値化画像、112は減算器、115は二値化器である。   Next, processing of the interframe difference method will be described with reference to FIG. FIG. 6 is a diagram for explaining the processing principle of object detection in the inter-frame difference method, where 101 is a first input image, 102 is the same field of view as the first input image 101, and the first input image 101 is the same. A second input image obtained by imaging at different times, 601 is a difference image by the inter-frame difference method, 602 is a binary image of the difference image 601, 112 is a subtractor, and 115 is a binarizer. .

図6において、減算器112は前記図5の場合と同様に2フレームの画像(この図では第1の入力画像101と第2の入力画像102)の画素毎の輝度値の差分を計算し差分画像601を出力し、二値化器115は前記図5の場合と同様に差分画像601の画素毎の輝度値が所定のしきい値Th未満の輝度値を“0”、しきい値Th以上の画素の輝度値を“255”(1画素の輝度値を8ビットで計算)として、二値化画像602を得る。   In FIG. 6, the subtractor 112 calculates the difference between the luminance values for each pixel of the image of two frames (in this figure, the first input image 101 and the second input image 102) as in the case of FIG. The image 601 is output, and the binarizer 115 sets the luminance value of each pixel of the difference image 601 to a luminance value less than a predetermined threshold value “0” and equal to or more than the threshold value Th as in the case of FIG. The binarized image 602 is obtained by setting the luminance value of each pixel to “255” (the luminance value of one pixel is calculated by 8 bits).

これによって、第1の入力画像101及び第2の入力画像102に写った人型の物体603及び604は、減算器112によって差分が生じた領域605として計算され、二値化器115によって輝度値“255”のかたまりの画像606として検出される。フレーム間差分を応用した例としては、例えば、特許登録番号第2633694号公報がある。   Thereby, the humanoid objects 603 and 604 shown in the first input image 101 and the second input image 102 are calculated as a region 605 in which a difference is generated by the subtractor 112, and the luminance value is calculated by the binarizer 115. It is detected as an image 606 of a cluster of “255”. An example of applying the interframe difference is, for example, Japanese Patent Registration No. 2633694.

しかし、背景差分法では、対象物体の入力画像上での見かけの移動速度が小さい場合でも対象物体を検出できるという特徴があるものの、木の葉や波などの揺れのような動く物体がある場合には、動く物体を誤って検出してしまうという課題がある。また、フレーム間差分法では、木の葉や波などの揺れのような動く物体がある場合に、差分処理を行う2フレームの画像を取得する時間間隔を適切に設定する(2フレームの画像間で木の葉や波の揺れの変化が小さくなるように設定する)ことで動く物体を誤って検出すること(誤検出)が低減できるという特徴があるものの、検出すべき対象物体の入力画像上での見かけの移動速度が小さい場合には対象物体として検出されないという課題がある。   However, the background subtraction method has the feature that the target object can be detected even when the apparent moving speed of the target object on the input image is low, but when there is a moving object such as a leaf or wave. There is a problem that a moving object is erroneously detected. In addition, in the inter-frame difference method, when there is a moving object such as a tree leaf or a wave such as a wave, a time interval for acquiring a two-frame image to be subjected to difference processing is appropriately set (a leaf of a tree between two frame images). Although it is possible to reduce the detection of moving objects by mistake (false detection) by setting the change of the fluctuation of the wave and the wave to be small), the appearance of the target object to be detected on the input image There is a problem that the moving object is not detected as a target object when the moving speed is low.

本発明の目的は、対象物体以外の動く物体の誤検出を低減して、撮像範囲内の対象物体を検出する物体検出方法及び物体検出装置並びに物体検出プログラムを提供することにある。   An object of the present invention is to provide an object detection method, an object detection device, and an object detection program for detecting a target object within an imaging range by reducing erroneous detection of a moving object other than the target object.

上記目的を達成するため、本例に係る物体検出方法では、撮像手段から得られる画像中の物体を検出する物体検出方法であって、撮像手段からの距離が遠い領域に対しては背景差分法に基づく差分処理を行い、撮像手段からの距離が近い領域に対してはフレーム間差分法に基づく差分処理を行う。   In order to achieve the above object, the object detection method according to the present example is an object detection method for detecting an object in an image obtained from an imaging unit, and for a region far from the imaging unit, a background difference method The difference processing based on the interframe difference method is performed on the region where the distance from the imaging means is short.

また、上記目的を達成するため、本例に係る物体検出装置では、撮像手段から得られる画像中の物体を検出する物体検出装置であって、撮像手段からの距離が遠い領域に対しては背景差分法に基づく差分処理を行い、撮像手段からの距離が近い領域に対してはフレーム間差分法に基づく差分処理を行う。   In order to achieve the above object, the object detection device according to the present example is an object detection device that detects an object in an image obtained from an imaging unit, and has a background for a region far from the imaging unit. Difference processing based on the difference method is performed, and difference processing based on the interframe difference method is performed on an area that is close to the imaging unit.

また、上記目的を達成するため、本例に係る物体検出プログラムでは、撮像手段から得られる画像中の物体を検出する物体検出プログラムであって、撮像手段からの距離が遠い領域に対しては背景差分法に基づく差分処理を、撮像手段からの距離が近い領域に対してはフレーム間差分法に基づく差分処理をコンピュータに行わせる。   In order to achieve the above object, the object detection program according to the present example is an object detection program for detecting an object in an image obtained from an image pickup unit, and is used for an area far from the image pickup unit. Difference processing based on the difference method is performed on a computer by performing difference processing based on the inter-frame difference method on an area having a short distance from the imaging unit.

フレーム間差分法と背景差分法の長所短所を整理すると以下のようになる。
フレーム間差分法の長所:差分処理を行う2フレームの画像を取得する時間間隔を適切に設定する(2フレームの画像間で木の葉や波の揺れの変化が小さくなるように設定する)ことで誤検出の割合を低減できる。
The advantages and disadvantages of the interframe difference method and the background difference method are summarized as follows.
Advantages of inter-frame difference method: Set the time interval for acquiring two-frame images to be subjected to differential processing appropriately (set so that changes in leaves and wave fluctuations between the two-frame images are small). The detection rate can be reduced.

フレーム間差分法の短所:見かけの動きが小さい(時間間隔△tにおける画像上の移動量が小さい)物体は検出できない。
背景差分法の長所:見かけの動きが小さい物体も検出可能(停止物体も検出可能)。
Disadvantages of inter-frame difference method: An object with a small apparent motion (a small amount of movement on the image at the time interval Δt) cannot be detected.
Advantages of the background subtraction method: It can detect objects with small apparent movements (it can also detect stopped objects).

背景差分法の短所:検出すべき対象物体以外の動く物体も検出してしまう。
本発明者等がフレーム間差分法と背景差分法を洋上侵入監視船の検出に適用した実験(フレーム時間間隔△t=100msec)の結果、以下のことが分かった。
Disadvantages of background subtraction method: Moving objects other than the target object to be detected are also detected.
As a result of an experiment (frame time interval Δt = 100 msec) in which the present inventors applied the interframe difference method and the background difference method to the detection of an ocean invasion monitoring ship, the following was found.

フレーム間差分法を使えば海面に写る夕日の反射は抑制可能である(検出されたとしても誤検出領域の面積は小さい)。背景差分法では夕日の反射の誤検出は抑制できない(誤検出領域の面積が大きい)。夕日の反射の誤検出は、画像手前部分に多い(画像手前になるほど波が大きく見えるため)。フレーム間差分法では遠方の船舶は検出できない(見かけの移動量が小さいため)。   If the inter-frame difference method is used, the reflection of the sunset reflected on the sea surface can be suppressed (the area of the false detection area is small even if it is detected). The background subtraction method cannot suppress erroneous detection of sunset reflection (the area of the erroneous detection area is large). There are many false detections of sunset reflections (because the waves appear larger the closer to the image). The inter-frame difference method cannot detect a distant ship (because the apparent movement amount is small).

これらの結果から、画面手前(近くの物体)を検出する場合は、フレーム間差分法が有効であり、画面奥(遠方の物体)を検出する場合は、背景差分法が有効であると結論できる。   From these results, it can be concluded that the inter-frame difference method is effective when detecting the near side of the screen (near object), and the background difference method is effective when detecting the back of the screen (distant object). .

従って、本発明では、テレビジョンカメラの画面手前ではフレーム間差分法を適用し、画面奥では背景差分法を適用するようなハイプリッド化によって物体検出性能を向上させるようにしたことを1つの特徴としたものである。   Therefore, in the present invention, one feature is that the object detection performance is improved by applying a hybrid method in which the inter-frame difference method is applied in front of the screen of the television camera and the background difference method is applied in the back of the screen. It is a thing.

本発明によれば、撮像範囲内の対象物体を、対象物体以外の動く物体の誤検出を低減して、検出する物体検出方法及び物体検出装置並びに物体検出プログラムを提供することができる。   According to the present invention, it is possible to provide an object detection method, an object detection apparatus, and an object detection program for detecting a target object within an imaging range by reducing erroneous detection of a moving object other than the target object.

以下、本発明の実施例を図面に言及して説明する。全図面を通じて同様な部材には同様な参照符号を付す。
図4は、本発明を適用した侵入物体監視システムのハードウエア構成を示すブロック図である。最初に、図4に言及してこの侵入物体監視システムを説明する。
Embodiments of the present invention will be described below with reference to the drawings. Like reference numerals refer to like parts throughout the drawings.
FIG. 4 is a block diagram showing a hardware configuration of an intruding object monitoring system to which the present invention is applied. First, the intruding object monitoring system will be described with reference to FIG.

図4において、401はテレビジョンカメラ(以下TVカメラと呼ぶ)、402は画像入力I/F、403はCPU、404はプログラムメモリ、405は画像メモリ、406はワークメモリ、407は出力1/F、408は画像出力1/F、409は警告灯、410は監視モニタ、411はデータバスである。   In FIG. 4, 401 is a television camera (hereinafter referred to as a TV camera), 402 is an image input I / F, 403 is a CPU, 404 is a program memory, 405 is an image memory, 406 is a work memory, and 407 is an output 1 / F. 408 is an image output 1 / F, 409 is a warning light, 410 is a monitor monitor, and 411 is a data bus.

TVカメラ401は画像入力I/F402に接続され、監視モニタ410は画像出力I/F408に接続され、警告灯409は出力I/F407に接続されている。また、画像入力I/F402、CPU403、プログラムメモリ404、画像メモリ405、ワークメモリ406、出力I/F407及び画像出力I/F408は、データバス411に接続されている。   The TV camera 401 is connected to the image input I / F 402, the monitoring monitor 410 is connected to the image output I / F 408, and the warning lamp 409 is connected to the output I / F 407. The image input I / F 402, CPU 403, program memory 404, image memory 405, work memory 406, output I / F 407, and image output I / F 408 are connected to the data bus 411.

図4において、TVカメラ401は監視対象区域を含めた撮像視野内を撮像する。TVカメラ401は、撮像した画像を映像信号に変換し、該映像信号を画像入力I/F402に入力する。画像入力I/F402は、入力した該映像信号を侵入物体監視システムで扱うフォーマット(例えば、幅320pix、高さ240pix、8bit/pix)の画像データに変換し、データバス411を介して画像メモリ405に送る。画像メモリ405は、画像入力I/F402から送られてきた画像デ―夕を蓄積する。   In FIG. 4, the TV camera 401 captures an image within the imaging field including the monitoring target area. The TV camera 401 converts the captured image into a video signal, and inputs the video signal to the image input I / F 402. The image input I / F 402 converts the input video signal into image data in a format (for example, width 320 pix, height 240 pix, 8 bits / pix) that is handled by the intruding object monitoring system, and the image memory 405 via the data bus 411. Send to. The image memory 405 stores the image data sent from the image input I / F 402.

CPU403は、プログラムメモリ404に保存されている動作プログラムに従って、ワークメモリ406内で画像メモリ405に蓄積された画像の解析を行う。以上の解析結果、TVカメラ401の撮像視野内に侵入物体が侵入した等の情報を得る。CPU403は、データバス411から画像出力I/F408を介して監視モニタ410に、例えば、処理結果画像を表示し、出力I/F407を介して警告灯409を点灯する。   The CPU 403 analyzes the image stored in the image memory 405 in the work memory 406 according to the operation program stored in the program memory 404. As a result of the above analysis, information indicating that an intruding object has entered the imaging field of view of the TV camera 401 is obtained. The CPU 403 displays, for example, a processing result image from the data bus 411 via the image output I / F 408 on the monitor monitor 410 and turns on the warning lamp 409 via the output I / F 407.

また、前記画像出力I/F408は、CPU403からの信号を前記監視モニタ410が使用できるフォーマット(例えば、NTSC映像信号)に変換して、監視モニタ410に送る。監視モニタ410は、例えば、侵入物体検出結果画像を表示する。   The image output I / F 408 converts the signal from the CPU 403 into a format (for example, NTSC video signal) that can be used by the monitor monitor 410 and sends the converted signal to the monitor monitor 410. For example, the monitoring monitor 410 displays an intruding object detection result image.

図2は本発明の侵入物体の検出の第1の処理フローを示す図である。この処理フローは、図4の侵入物体監視システムのハードウエア構成を用いて実行される。
この図2の第1の処理フローは、図4のTVカメラ401から入力した入力画像101と、画像メモリ405に保存されている所定のフレーム数(2フレーム以上)の前の入力画像との差分画像を、図6に表されるフレーム間差分法によって計算し、得られた所定フレーム数の差分画像に重み付けして加算し、得られた合成差分画像を所定のしきい値で二値化することによって、TVカメラ401の視野内に侵入した物体を検出する方法である。
FIG. 2 is a diagram showing a first processing flow of detection of an intruding object according to the present invention. This processing flow is executed using the hardware configuration of the intruding object monitoring system of FIG.
The first processing flow in FIG. 2 is a difference between the input image 101 input from the TV camera 401 in FIG. 4 and a previous input image of a predetermined number of frames (two frames or more) stored in the image memory 405. The image is calculated by the inter-frame difference method shown in FIG. 6, weighted and added to the obtained difference image of the predetermined number of frames, and the obtained synthesized difference image is binarized with a predetermined threshold value. This is a method for detecting an object that has entered the field of view of the TV camera 401.

まず、画像入力ステップ201では、TVカメラ401によって撮像される入力映像信号を、例えば、320×240画素(pix)の入力画像101として得る。次にフレームカウンタクリアステップ202では、フレーム間差分の対象となる画像番号を管理するための変数であるフレームカウンタの値を1に設定する。   First, in an image input step 201, an input video signal imaged by the TV camera 401 is obtained as an input image 101 of 320 × 240 pixels (pix), for example. Next, in the frame counter clear step 202, the value of the frame counter, which is a variable for managing the image number that is the subject of the inter-frame difference, is set to 1.

次に、フレーム間差分処理ステップ203では、入力画像101(ここではa(x,y)と表記する。(x,y)は画像上の画素の位置を表す)と画像メモリ405に保存されている前の入力画像(ここではbi(x,y)と表記する。iはフレームカウンタの値を表す)との差分(ci(x,y)と表記する)を計算する。   Next, in the inter-frame difference processing step 203, the input image 101 (in this case, expressed as a (x, y). (X, y) represents the pixel position on the image) and the image memory 405 are stored. The difference (denoted as ci (x, y)) from the previous input image (denoted as bi (x, y) here, i represents the value of the frame counter) is calculated.

このとき、対象となる画像メモリ405に保存されている入力画像は、前記フレーム番号によって決定され、例えば、フレームカウンタの値が1の場合は、一番最近(例えば、1フレーム前)に保存された入力画像画像(bi(x,y))を表す。画素毎の差分は、以下のようにして計算される。   At this time, the input image stored in the target image memory 405 is determined by the frame number. For example, when the value of the frame counter is 1, it is stored most recently (for example, one frame before). The input image image (bi (x, y)). The difference for each pixel is calculated as follows.

次に、フレームカウンタ増加ステップ204では、フレームカウンタの値を1増加させる。
フレーム終了判定ステップ205では、フレームカウンタの値が所定の値N未満の場合にフレーム間差分ステップ203に分岐し、所定の値N(例えば、N=3)以上の場合には差分画像合成ステップ206へ分岐する。ここで、所定の値Nは、入力画像101とフレーム間差分を行う場合に使用する画像の数、即ち、画像メモリ401に保存する入力画像の数を表し、例えば、N=4とした場合、画像メモリ401に保存されている入力画像の数は4である。そして、この場合、差分画像も4フレーム(ci(x,y)、i=1〜4)得られる。
Next, in the frame counter increment step 204, the value of the frame counter is incremented by one.
In the frame end determination step 205, if the value of the frame counter is less than the predetermined value N, the process branches to the inter-frame difference step 203. If the value is greater than or equal to the predetermined value N (for example, N = 3), the difference image composition step 206 Branch to Here, the predetermined value N represents the number of images used when performing the inter-frame difference with the input image 101, that is, the number of input images stored in the image memory 401. For example, when N = 4, The number of input images stored in the image memory 401 is four. In this case, four frames (ci (x, y), i = 1 to 4) are also obtained.

次に、差分画像合成ステップ206では、得られたNフレームの差分画像を所定の加重係数画像di(x,y)によって重み付けして加算し、合成差分画像e(x,y)を得る。合成差分画像e(x,y)は、以下のようにして計算される。   Next, in the difference image synthesis step 206, the obtained N frame difference images are weighted by a predetermined weight coefficient image di (x, y) and added to obtain a synthesized difference image e (x, y). The composite difference image e (x, y) is calculated as follows.

ただし、加重係数画像di(x,y)は、 However, the weighting coefficient image di (x, y) is

となるように予め設定しておく。
この加重係数画像di(x,y)は、各差分画像ci(x,y)が合成差分画像e(x,y)に対してどの位寄与するかを表し、例えばdl(100,100)=255の場合は、座標(100.100)において第1の差分画像(cl(x,y))が合成差分画像e(x,y)に対して100%の寄与率を持っていることを表す(加重係数画像は、1画素8ビットの画像として表されており、加重係数画像の画素値が0の場合は寄与率が0%、画素値が255の場合は寄与率が100%であることを意味する)。
It sets beforehand so that it may become.
This weighted coefficient image di (x, y) represents how much each difference image ci (x, y) contributes to the combined difference image e (x, y). For example, dl (100, 100) = In the case of 255, it represents that the first difference image (cl (x, y)) has a contribution rate of 100% with respect to the synthesized difference image e (x, y) at the coordinates (100.100). (The weighted coefficient image is represented as an image of 8 bits per pixel. When the pixel value of the weighted coefficient image is 0, the contribution rate is 0%, and when the pixel value is 255, the contribution rate is 100%. Means).

図14は、本発明の一実施例の差分画像、加重係数画像、及び合成差分画像を説明するための図である。図14は、差分画像のフレーム数が2、即ち、ci(x,y)、i=1,2の例である。説明を簡単にするため、差分画像、加重係数画像、及び合成差分画像それぞれの4点の画素位置(1)〜(4)について説明する。差分画像c1(x,y)の画素位置(1)〜(4)のそれぞれの差分の輝度値は乗算器113に出力され、差分画像c2(x,y)の画素位置(1)〜(4)のそれぞれの差分の輝度値は乗算器113′に出力される。また、加重係数画像d1(x,y)は差分画像と同一の画素位置(1)〜(4)の加重係数が輝度値と同じ次元の値で与えられ、例えば、画素位置(1)の加重係数d1(1)を255、また、画素位置(2)の加重係数d1(2)を127、画素位置(3)の加重係数d1(3)を127、画素位置(4)の加重係数d1(4)を0としている。同様に、加重係数画像d2(x,y)では、d2(1)を0、d2(2)とd2(3)を128、d2(4)を255とする。したがって、乗算器113と113′でそれぞれの画素毎に乗算し、乗算した出力が加算器114で加算されさらに255で除算することにより、合成差分画像e(x,y)が得られる。   FIG. 14 is a diagram for explaining a difference image, a weighted coefficient image, and a combined difference image according to an embodiment of the present invention. FIG. 14 shows an example in which the number of frames of the difference image is 2, that is, ci (x, y) and i = 1,2. In order to simplify the description, the four pixel positions (1) to (4) of the difference image, the weighting coefficient image, and the combined difference image will be described. The luminance values of the differences of the pixel positions (1) to (4) of the difference image c1 (x, y) are output to the multiplier 113, and the pixel positions (1) to (4) of the difference image c2 (x, y) are output. ) Are output to the multiplier 113 '. In addition, the weighting coefficient image d1 (x, y) is given the weighting coefficient at the same pixel position (1) to (4) as the difference image by the value of the same dimension as the luminance value. For example, the weighting of the pixel position (1) The coefficient d1 (1) is 255, the weighting coefficient d1 (2) at the pixel position (2) is 127, the weighting coefficient d1 (3) at the pixel position (3) is 127, and the weighting coefficient d1 ( 4) is set to 0. Similarly, in the weighted coefficient image d2 (x, y), d2 (1) is 0, d2 (2) and d2 (3) are 128, and d2 (4) is 255. Therefore, multiplication is performed for each pixel by the multipliers 113 and 113 ′, and the multiplied output is added by the adder 114 and further divided by 255 to obtain a composite difference image e (x, y).

更に、この加重係数画像の設定を、図7から図13を用いて説明する。図7と図8は、洋上監視に対して本発明を適用した場合の加重係数画像の設定例である。図7において701は監視対象の視野範囲を撮像して得られる入力画像を表し、図8は、所定の値NをN=4とした場合の例で、4つの加重係数画像di(x,y)、i=1〜4を重ねて表示したものである。   Furthermore, the setting of the weighting coefficient image will be described with reference to FIGS. 7 and 8 are setting examples of weighting coefficient images when the present invention is applied to offshore monitoring. In FIG. 7, reference numeral 701 denotes an input image obtained by imaging the visual field range to be monitored, and FIG. 8 shows an example in which the predetermined value N is N = 4, and four weighting coefficient images di (x, y). ), I = 1 to 4 are displayed in an overlapping manner.

図8の例では、加重係数の値によって、海面の領域とそれ以外の領域(防波堤及び灯台の領域)804を分けており、海面領域は更に、TVカメラ401からの距離に応じて、3つの領域801〜803に分けている。   In the example of FIG. 8, the sea surface area and other areas (breakwater and lighthouse areas) 804 are divided according to the value of the weighting coefficient, and the sea surface area is further divided into three areas according to the distance from the TV camera 401. It is divided into areas 801 to 803.

海面に発生する波の揺れは、TVカメラ401に近い程大きく観測される。このため、TVカメラ401に近い領域では波の揺れによる輝度値の変化を少なくするようにフレーム間差分を行わなければならない。従って、2フレームの画像入力時間を短くする必要がある。即ち、海面、画面手前の領域801に対しては差分画像c1(x,y)(2フレームの画像入力時間を短い間隔、例えば、100msec)を使い、TVカメラ401から離れた領域802(例えば、TVカメラ401から30m以上離れた領域)に対しては、差分画像c2(x,y)(2フレームの画像入力時間間隔を中くらい、例えば、500msec)を使い、TVカメラ401から更に離れた領域803、例えば、TVカメラ401から100m以上離れた領域)に対しては、差分画像c3(x,y)(2フレームの画像入力時間間隔を長く、例えば、3sec)を使うようにする。   Waves generated on the sea surface are observed to be larger as they are closer to the TV camera 401. For this reason, in the region close to the TV camera 401, the inter-frame difference must be performed so as to reduce the change in the luminance value due to the wave shaking. Therefore, it is necessary to shorten the image input time of two frames. That is, a difference image c1 (x, y) (two-frame image input time is short, for example, 100 msec) is used for the area 801 in front of the sea surface and the screen, and the area 802 separated from the TV camera 401 (for example, For an area 30 m or more away from the TV camera 401, an area further away from the TV camera 401 using the difference image c <b> 2 (x, y) (intermediate image input time interval of 2 frames, for example, 500 msec). For 803, for example, an area 100 m or more away from the TV camera 401, the difference image c3 (x, y) (the image input time interval of two frames is long, for example, 3 sec) is used.

ただし、波の揺れが存在しない領域804については、2フレームの画像入力時間間隔を長くできるので、差分画像c4(x,y)を使うようにする。
従って、加重係数画像d1(x,y)は、領域801の画素を255、それ以外の画素を0にする。
However, in the region 804 where there is no wave shaking, the image input time interval of two frames can be increased, and therefore the difference image c4 (x, y) is used.
Accordingly, in the weighting coefficient image d1 (x, y), the pixels in the region 801 are set to 255, and the other pixels are set to 0.

同様に、加重係数画像d2(x,y)は領域802の画素を255、それ以外の画素を0、加重係数画像d3(x,y)は領域803の画素を255、それ以外の画素を0、加重係数画像d4(x,y)は領域804の画素を255、それ以外の画素を0とする。   Similarly, in the weighted coefficient image d2 (x, y), the pixel in the area 802 is 255, the other pixels are 0, and in the weighted coefficient image d3 (x, y), the pixel in the area 803 is 255, and the other pixels are 0. In the weighting coefficient image d4 (x, y), the pixel in the region 804 is 255, and the other pixels are 0.

これを図示すると、図11のA〜Dのようになる。図11は、図7の場面において、加重係数画像di(x,y)の画素値を0、255の2つの値で設定した例である。図11Aの画像1101は加重係数画像d1(x,y)を表し、加重係数画像d1(x,y)は、領域1101a及び領域1101bを画素値255に設定し、それ以外の画素を0にする。図11Bの画像1102は加重係数画像d2(x,y)を表し、加重係数画像d2(x,y)は、領域1102a及び領域1102bを画素値255に設定し、それ以外の画素を0にする。図11Cの画像1103は加重係数画像d3(x,y)を表し、加重係数画像d3(x,y)は、領域1103aを画素値255に設定し、それ以外の画素を0にする。更に、図11Dの画像1104は加重係数画像d4(x,y)を表し、加重係数画像d4(x,y)は、領域1104aを画素値255に設定し、それ以外の画素を0にする。   This is illustrated as A to D in FIG. FIG. 11 is an example in which the pixel values of the weighted coefficient image di (x, y) are set to two values 0 and 255 in the scene of FIG. An image 1101 in FIG. 11A represents a weighted coefficient image d1 (x, y). In the weighted coefficient image d1 (x, y), the area 1101a and the area 1101b are set to a pixel value 255, and the other pixels are set to 0. . An image 1102 in FIG. 11B represents a weighted coefficient image d2 (x, y). In the weighted coefficient image d2 (x, y), the area 1102a and the area 1102b are set to a pixel value 255, and the other pixels are set to 0. . An image 1103 in FIG. 11C represents a weighted coefficient image d3 (x, y), and the weighted coefficient image d3 (x, y) sets the area 1103a to a pixel value 255 and sets the other pixels to 0. Furthermore, the image 1104 in FIG. 11D represents the weighted coefficient image d4 (x, y), and the weighted coefficient image d4 (x, y) sets the region 1104a to the pixel value 255 and sets the other pixels to 0.

もちろん各領域の境界に近い画素では、加重係数を255より小さい値に設定することも可能で、例えば、領域801と領域802の境界に当たる画素に対しては、d1(x,y)=127、d2(x,y)=128としても良い。これを図示すると、図12のようになる。   Of course, it is possible to set the weighting coefficient to a value smaller than 255 for pixels close to the boundary of each region. For example, for a pixel corresponding to the boundary between the region 801 and the region 802, d1 (x, y) = 127, It is good also as d2 (x, y) = 128. This is illustrated in FIG.

図12は、境界の幅を30pixとした例で、画像di(x,y)の画素値を0、127、255の3つの値で設定した例である。尚、画素値の最大値255は、2で割り切れないために、加重係数(寄与率)の配分で生じる余り分を加重係数画像のいずれかに割り振るようにする。加重係数画像の画素値127と128は、最大加重係数255に対して0.4%の差しかなく、同じ加重係数とみなせるので、ここでは127とした。   FIG. 12 is an example in which the boundary width is 30 pix, and the pixel value of the image di (x, y) is set to three values 0, 127, and 255. Since the maximum value 255 of the pixel value is not divisible by 2, the remainder generated by the distribution of the weighting coefficient (contribution rate) is assigned to one of the weighting coefficient images. The pixel values 127 and 128 of the weighting coefficient image are assumed to be 127 here because they can be regarded as the same weighting coefficient without any difference of 0.4% with respect to the maximum weighting coefficient 255.

画像1201は加重係数画像d1(x,y)を表し、加重係数画像d1(x,y)は、領域1201a及び領域1201bを画素値255に設定し、領域1201c及び領域1201dを画素値127に設定し、それ以外の画素を0にする。画像1202は加重係数画像d2(x,y)を表し、加重係数画像d2(x,y)は、領域1202a(領域1201cと同じ)及び領域1202b(領域1201dと同じ)を画素値128に設定し、領域1202c及び領域1202dを画素値255に設定し、領域1202e及び領域1202fを画素値127に設定し、それ以外の画素を0にする。画像1203は加重係数画像d3(x,y)を表し、加重係数画像d3(x,y)は、領域1203a(領域1202eと同じ)及び領域1203b(領域1202fと同じ)を画素値128に設定し、領域1203cを画素値255に設定し、それ以外の画素を0にする。さらに、画像1204は加重係数画像d4(x,y)を表し、加重係数画像d4(x,y)は、領域1204aを画素値255に設定し、それ以外の画素を0にする。   An image 1201 represents a weighted coefficient image d1 (x, y). In the weighted coefficient image d1 (x, y), the area 1201a and the area 1201b are set to the pixel value 255, and the area 1201c and the area 1201d are set to the pixel value 127. Then, other pixels are set to 0. An image 1202 represents a weighted coefficient image d2 (x, y), and the weighted coefficient image d2 (x, y) sets a region 1202a (same as region 1201c) and a region 1202b (same as region 1201d) to a pixel value 128. , The region 1202c and the region 1202d are set to the pixel value 255, the region 1202e and the region 1202f are set to the pixel value 127, and the other pixels are set to 0. An image 1203 represents a weighted coefficient image d3 (x, y), and the weighted coefficient image d3 (x, y) sets a region 1203a (same as the region 1202e) and a region 1203b (same as the region 1202f) to a pixel value 128. , The region 1203c is set to a pixel value 255, and the other pixels are set to zero. Further, the image 1204 represents the weighted coefficient image d4 (x, y), and the weighted coefficient image d4 (x, y) sets the area 1204a to the pixel value 255 and sets the other pixels to 0.

尚、この設定例では、d4(x,y)については、図11Dのように0と255の2値で表す。これは、領域804が、他の領域801,802,803のように画像下部になる程(TVカメラとの距離が小さくなる程)波が大きく見えるという特性ではなく、単一のフレーム時間間隔(フレーム間差分)あるいは背景差分を適用すれば良いためである。   In this setting example, d4 (x, y) is represented by binary values of 0 and 255 as shown in FIG. 11D. This is not the characteristic that the area 804 becomes lower in the image (as the distance from the TV camera becomes smaller) like the other areas 801, 802, and 803, but the wave appears to be larger. This is because a difference between frames) or a background difference may be applied.

上記図11、図12の例では、加重係数画像の加重係数を2値、あるいは3値で設定したものであるが、それ以外の加重係数の設定方法でも良い。この加重係数の設定方法の一例を図13を用いて説明する。図13は、各加重係数画像の画素値を0〜255の256通りの値に割り当てる例であり、画像1301は図7と同じ場面を表しており、グラフ1302は寄与率配分を表している。寄与率配分を表すグラフ1302は、縦方向の位置が画像1301のy座標に対応し、横方向の幅が合成差分画像e(x,y)への寄与率(加重係数の値)を表す。グラフ1302は、3つの領域1302a、1302b、1302cに分けられており、それぞれ差分画像c1(x,y)、c2(x,y)、c3(x,y)の加重係数画像d1(x,y)、d2(x,y)、d3(x,y)に対応する。領域1302aと領域1302bは、点1302g(y座標220に対応)と点1302h(y座標80に対応)を結ぶ線によって分けられており、領域1302bと領域1302cは、点1302i(y座標120に対応)と点1302j(y座標20に対応)を結ぶ線によって分けられている。これらの点は、TVカメラ401からの距離に応じて経験的に設定され、例えば、点1302gはTVカメラ401から10m、点1302iは30m、点1302hは80m、点1302jは150mの距離に対応する画像上のy座標に対応させて設定する。この図のように領域を分割すると、領域1302a、領域1302b、領域1302cの幅(d1(x,y)、d2(x,y)、d3(x,y)の加重係数)は、   In the example of FIGS. 11 and 12, the weighting coefficient of the weighting coefficient image is set as binary or ternary, but other weighting coefficient setting methods may be used. An example of the weighting coefficient setting method will be described with reference to FIG. FIG. 13 is an example in which the pixel values of each weighted coefficient image are assigned to 256 values from 0 to 255. An image 1301 represents the same scene as in FIG. 7, and a graph 1302 represents a contribution ratio distribution. In the graph 1302 representing the contribution ratio distribution, the position in the vertical direction corresponds to the y coordinate of the image 1301, and the width in the horizontal direction represents the contribution ratio (value of the weighting coefficient) to the composite difference image e (x, y). The graph 1302 is divided into three regions 1302a, 1302b, and 1302c, and the weighting coefficient images d1 (x, y) of the difference images c1 (x, y), c2 (x, y), and c3 (x, y), respectively. ), D2 (x, y), d3 (x, y). The region 1302a and the region 1302b are separated by a line connecting the point 1302g (corresponding to the y coordinate 220) and the point 1302h (corresponding to the y coordinate 80), and the region 1302b and the region 1302c correspond to the point 1302i (corresponding to the y coordinate 120). ) And a point 1302j (corresponding to the y coordinate 20). These points are set empirically according to the distance from the TV camera 401. For example, the point 1302g corresponds to a distance of 10m from the TV camera 401, the point 1302i corresponds to 30m, the point 1302h corresponds to a distance of 80m, and the point 1302j corresponds to a distance of 150m. It is set corresponding to the y coordinate on the image. When the areas are divided as shown in this figure, the widths of the areas 1302a, 1302b, and 1302c (weighting coefficients of d1 (x, y), d2 (x, y), and d3 (x, y)) are as follows.

として算出することができる。ここで、例えば画像1301の位置1301a(y=100)における加重係数を算出すると、d1(x,y)=36(幅1302d)、d2(x,y)=168(幅1302e)、d3(x,y)=51(幅1302f)となる。ただし、波の揺れが存在しない領域804(背景差分法を適用できる領域)については、di(x,y)=0(I<4)、d4(x,y)=255とする。なお、本実施例では、図13のグラフ1302のように、加重係数画像の寄与率を決める領域1302a、1302b、1302cを、基準となる点1302g、1302h、1302i、1302jを結ぶ直線を用いて分割しているが、これを曲線を用いて分割するようにしても良い。 Can be calculated as Here, for example, when the weighting coefficient at the position 1301a (y = 100) of the image 1301 is calculated, d1 (x, y) = 36 (width 1302d), d2 (x, y) = 168 (width 1302e), d3 (x , Y) = 51 (width 1302f). However, for a region 804 where there is no wave shaking (region where the background difference method can be applied), di (x, y) = 0 (I <4) and d4 (x, y) = 255. In this embodiment, areas 1302a, 1302b, and 1302c that determine the contribution ratio of the weighted coefficient image are divided using straight lines connecting the reference points 1302g, 1302h, 1302i, and 1302j, as in the graph 1302 of FIG. However, this may be divided using a curve.

図9、図10は、屋外監視に対して本発明を適用した場合の加重係数画像の設定例である。図9は入力画像901、図10はN=3とした例で加重係数画像dl(x,y)、i=1〜3を重ねて表示したものである。この例では、建物、地面及び空の領域と草木の領域を分けており、車木の領域はさらに草木の種類に応して2つに分けている。   9 and 10 are setting examples of weighting coefficient images when the present invention is applied to outdoor monitoring. FIG. 9 shows an input image 901, and FIG. 10 shows an example in which N = 3, in which weighting coefficient images dl (x, y) and i = 1 to 3 are displayed in an overlapping manner. In this example, the area of the building, the ground and the sky is divided from the area of the vegetation, and the area of the vehicle tree is further divided into two according to the type of the vegetation.

図9の例では、画像上の見かけの動きの大きさは、画像上方の木の方が画像中央の草より大きいとしている。揺れが大きい領域では、木々の揺れの変化を少なくするようにフレーム間差分を行なう2フレームの画像入力時間間隔を短くする必要がある。すなわち、木の領域1002に対しては差分画像c1(x,y)を使い、草の領域1001に対しては差分画像c2(x,y)を使うようにする。ただし、木々の揺れが存在しない領域1003については、2フレームの画像入力時間間隔を長くできるので、差分画像c3(x,y)を使うようにする。   In the example of FIG. 9, the magnitude of the apparent movement on the image is such that the tree above the image is larger than the grass at the center of the image. In the region where the shaking is large, it is necessary to shorten the image input time interval of two frames for performing the inter-frame difference so as to reduce the change in the shaking of the trees. That is, the difference image c1 (x, y) is used for the tree region 1002, and the difference image c2 (x, y) is used for the grass region 1001. However, in the region 1003 where there is no shaking of the trees, the image input time interval of 2 frames can be increased, and therefore the difference image c3 (x, y) is used.

したがって、加重係数画像dl(x,y)は、領域1002の画素を255、それ以外の画素を0にする。同様に、加重係数画像d2(x,y)は領域1001の画素を255、それ以外の画素を0、d3(x,y)は領域1003の画素を255、それ以外の画素を0とする。もちろん、前述の図7、図8の場合と同様に、各領域の境界に近い領域では加重係数を255より小さい値に設定することが可能で、例えば、領域1001との境界に当たる画素に対しては、c1(x,y)=128、c2(x,y)=127としても良い。   Therefore, in the weighting coefficient image dl (x, y), the pixels in the region 1002 are set to 255, and the other pixels are set to 0. Similarly, in the weighting coefficient image d2 (x, y), the pixel in the region 1001 is 255, the other pixels are 0, d3 (x, y) is the pixel in the region 1003, and the other pixels are 0. Of course, as in the case of FIG. 7 and FIG. 8 described above, the weighting coefficient can be set to a value smaller than 255 in the region close to the boundary of each region. For example, for the pixel corresponding to the boundary with the region 1001 May be c1 (x, y) = 128 and c2 (x, y) = 127.

さらには、図13で説明したように、加重係数画像を0〜255の256通りの値で割り当てるようにしても良い。図13では、カメラ401からの距離に応じて加重係数を割り当てるようにしているが、図9の例では、カメラ401に写る物体が画像上でどの程度動いて観測されるかに応じて加重係数を割り当てるようにする(大きく動いて観測される領域(例えば、1002)では、差分法に用いるフレーム間隔が短いd1(x,y)の寄与率が高くなるように、ほとんど動かないで観測される領域(例えば、1003)では、差分法に用いるフレーム間隔が長い、あるいは背基準景画像との差分であるd3(x,y)の寄与率が高くなるように設定する)。   Furthermore, as described in FIG. 13, the weighting coefficient image may be assigned with 256 values from 0 to 255. In FIG. 13, a weighting coefficient is assigned according to the distance from the camera 401. However, in the example of FIG. 9, the weighting coefficient is determined according to how much an object captured by the camera 401 is observed on the image. (In an area that is observed to move greatly (for example, 1002), it is observed with little movement so that the contribution ratio of d1 (x, y) with a short frame interval used in the difference method becomes high. In the region (for example, 1003), the frame interval used for the difference method is set to be long or the contribution rate of d3 (x, y), which is the difference from the back reference scene image, is set high).

尚、加重係数画像の設定は、侵入物体監視システムの設置時に1度だけ行えばよいため、後述する図2及び図3のフローチャートでは、加重係数画像の設定ステップを省略し含んでいない。   Since the setting of the weighting coefficient image only needs to be performed once at the time of installation of the intruding object monitoring system, the steps of setting the weighting coefficient image are not omitted in the flowcharts of FIGS.

次に、図2の二値化処理ステップ207では、差分画像合成処理ステップ206によって得られた合成差分画像e(x,y)を、所定のしきい値Th(例えば、Th=20)を用いて、合成差分画像e(x,y)の画素毎の輝度値が所定のしきい値Th未満の輝度値を0、しきい値Th以上の画素の輝度値を255(1画素の輝度値を8ビットで計算)として二値化画像f(x,y)を得る。   Next, in the binarization processing step 207 of FIG. 2, the composite difference image e (x, y) obtained in the difference image composition processing step 206 is used with a predetermined threshold Th (for example, Th = 20). Thus, the luminance value for each pixel of the composite difference image e (x, y) is 0 when the luminance value is less than the predetermined threshold Th, and the luminance value of the pixel that is equal to or higher than the threshold Th is 255 (the luminance value of one pixel is A binarized image f (x, y) is obtained as 8 bits).

次に、侵入物体判定ステップ208では、得られた二値化画像f(x,y)で輝度値255の画素のかたまりが存在するか否か(画素が所定数(例えば、100個)以上かたまって存在するか否か)を判定し、輝度値255の画素のかたまりが存在した場合、それを侵入物体とみなして分岐ステップ209において警報・モニタ表示ステップ210へ分岐し、輝度値255の画素の塊が存在しない場合、入力画像保存ステップ211へ分岐する。   Next, in the intruding object determination step 208, whether or not there is a cluster of pixels having a luminance value of 255 in the obtained binarized image f (x, y) (the number of pixels is more than a predetermined number (for example, 100)). If there is a cluster of pixels having a luminance value of 255, it is regarded as an intruding object, branching to the alarm / monitor display step 210 in the branching step 209, and the pixel of the luminance value 255 If there is no block, the process branches to the input image storage step 211.

警報・モニタ表示ステップ210では、出力I/F407を介して警告灯409を点灯させたり、画像出力I/F408を介して監視モニタ410に例えば監視処理結果を表示する。   In the alarm / monitor display step 210, the warning lamp 409 is turned on via the output I / F 407, or the monitoring processing result is displayed on the monitoring monitor 410 via the image output I / F 408, for example.

次に、入力画像保存ステップ211では、入力画像111を1フレーム前の入力画像b1(x,y)として画像メモリ405に保存する。その際に、これまでに保存した入力画像b1(x,y)からbN−1(x,y)は、それぞれb2(x,y)からbN(x,y)へコピーされる。このようにすることで、画像メモリ405には、Nフレーム前までの入力画像を保存できる。   Next, in the input image storing step 211, the input image 111 is stored in the image memory 405 as the input image b1 (x, y) one frame before. At that time, the input images b1 (x, y) to bN-1 (x, y) stored so far are copied from b2 (x, y) to bN (x, y), respectively. In this way, input images up to N frames before can be stored in the image memory 405.

このようにすることで、撮像装置の視野内に存在する対象物体以外の動く物体が差分として差分画像に現れることを抑制し、正確な侵入物体検出が可能となる。
図3は、本発明の侵入物体の検出の第2の処理フローを示す図である。図3は、図2で示されるフローチヤートに、背景差分ステップ301と、基準背景画像更新ステップ302を追加したものである。
By doing in this way, it can suppress that the moving object other than the target object which exists in the visual field of an imaging device appears in a difference image as a difference, and an exact intrusion object detection is attained.
FIG. 3 is a diagram showing a second processing flow of detection of an intruding object according to the present invention. FIG. 3 is obtained by adding a background difference step 301 and a reference background image update step 302 to the flow chart shown in FIG.

背景差分ステップ301では、入力画像101と基準背景画像105との画素毎の差分を計寡する(これをc(x,y)とする)。差分画像合成ステップ206では、図2で示される処理フローで説明したN番目のフレーム間差分画像の代わりに背景差分による差分画像c(x,y)を合成する。この際、前述の第1の処理フローの例では、図8の領域804に対して4フレーム前の差分画像c4(x,y)を適用したが、この第2の処理フローでは、背景差分による背景差分画像c(x,y)を適用させるようにする。   In the background difference step 301, a difference for each pixel between the input image 101 and the reference background image 105 is calculated (this is assumed to be c (x, y)). In the difference image synthesis step 206, a difference image c (x, y) based on the background difference is synthesized instead of the Nth inter-frame difference image described in the processing flow shown in FIG. At this time, in the example of the first processing flow described above, the difference image c4 (x, y) four frames before is applied to the region 804 in FIG. The background difference image c (x, y) is applied.

基準背景画像更新ステップ302では、例えば、入力画像と基準背景画像の画素を平均化し、新たな基準背景画像とする。これ以外のステップは図2のフローチャートで示される処理フローと同様であるため説明を省略する。   In the reference background image update step 302, for example, the pixels of the input image and the reference background image are averaged to obtain a new reference background image. The other steps are the same as the processing flow shown in the flowchart of FIG.

次に、この一連の処理の流れを図1を用いて説明する。図1では、フレーム間差分に3フレーム使用し、更に背景差分法も使用した例である。図1において、画像101は入力画像、画像102は別時刻に入力した入力画像(例えば、1フレーム前の入力画像)、画像103は更に別時刻に入力した入力画像(例えば、2フレーム前の入力画像)、画像104はまた更に別の時刻に入力した入力画像(例えば。3フレーム前の入力画像)、画像105は基準背景画像を表す。また、画像106は入力画像101と入力画像102との差分画像に対する加重係数画像、画像107は入力画像101と入力画像103との差分画像に対する加重係数画像画像、108は入力画像101と入力画像104との差分画像に対する加重係数画像画像、109は入力画像101と基準背景画像105との差分画像に対する加重係数画像を表す。   Next, a flow of this series of processing will be described with reference to FIG. FIG. 1 shows an example in which three frames are used for the inter-frame difference and the background difference method is also used. In FIG. 1, an image 101 is an input image, an image 102 is an input image input at another time (for example, an input image one frame before), and an image 103 is an input image input at another time (for example, an input two frames before) The image 104 represents an input image (for example, an input image three frames before), and the image 105 represents a reference background image. The image 106 is a weighted coefficient image for the difference image between the input image 101 and the input image 102, the image 107 is a weighted coefficient image for the difference image between the input image 101 and the input image 103, and 108 is the input image 101 and the input image 104. , 109 represents a weighting coefficient image for the difference image between the input image 101 and the reference background image 105.

入力画像101と入力画像102は、差分器112−1によって各画素の差分が計算され、その結果得られる差分画像は乗算器113−1によって加重係数画像106との画素毎の積が計算されて、加算器114に入力される。入力画像101と入力画像103は、差分器112−2によって各画素の差分が計算され、その結果得られる分画像は乗算器113−2によって加重係数画像107との画素毎の積が計算されて、加算器114に入力される。入力画像101と入力画像104は、差分器112−3によって各画素の差分が計算され、その結果得られる差分画像は乗算器113−3によって加重係数画像108との画素毎の積が計算されて、加算器114に入力される。入力画像101と背景画像105は、差分器112−4によって各画素の差分が計算され、その結果得られる差分画像は乗算器113−4によって加重係数画像109との画素毎の積が計算されて、加算器114に入力される。   In the input image 101 and the input image 102, the difference of each pixel is calculated by the difference unit 112-1, and the product of the difference image obtained as a result is calculated by the multiplier 113-1 for each pixel with the weighted coefficient image 106. , And input to the adder 114. In the input image 101 and the input image 103, the difference of each pixel is calculated by the differentiator 112-2, and the resulting image is obtained by calculating the product for each pixel with the weighted coefficient image 107 by the multiplier 113-2. , And input to the adder 114. In the input image 101 and the input image 104, the difference of each pixel is calculated by the difference unit 112-3, and the product of the difference image obtained as a result is calculated by the multiplier 113-3 for each pixel with the weighted coefficient image 108. , And input to the adder 114. The difference between the input image 101 and the background image 105 is calculated for each pixel by the difference unit 112-4, and the resulting difference image is a product for each pixel with the weighted coefficient image 109 calculated by the multiplier 113-4. , And input to the adder 114.

加算器114では、入力された4フレームの差分画像を画素毎に加算し、合成差分画像110を得る。得られた合成差分画像110は、二値化器115によって画素毎に所定のしきい値と比較され、しきい値以上の輝度値を255、しきい値未満の輝度値を0として二値化画像111を得る。このようにすることで、撮像装置の視野内に存在する対象物体以外の動く物体が差分として差分画像に現れることを抑制し、正確な侵入物体検出が可能となる。   The adder 114 adds the input four-frame difference image for each pixel to obtain a synthesized difference image 110. The obtained composite difference image 110 is compared with a predetermined threshold value for each pixel by the binarizer 115 and binarized with a luminance value equal to or higher than the threshold value 255 and a luminance value lower than the threshold value set to 0. An image 111 is obtained. By doing in this way, it can suppress that the moving object other than the target object which exists in the visual field of an imaging device appears in a difference image as a difference, and an exact intrusion object detection is attained.

したがって、本発明の実施例によれば、監視対象とする監視範囲内に存在する、木の葉や波などといった対象物体以外の動く物体に対しては、異なるフレーム時間間隔の入力画像から得られたフレーム間差分画像、入力画像と基準背景画像との背景差分画像を所定の重みを付けて合成することで、対象物体以外の動く物体が差分として差分画像に現れることを抑制することができ、侵入物体検出装置の適用範囲を大きく広げることができる。   Therefore, according to the embodiment of the present invention, for moving objects other than the target object, such as leaves and waves, that exist within the monitoring range to be monitored, frames obtained from input images at different frame time intervals. By combining the difference image between the input image and the background difference image between the input image and the reference background image with a predetermined weight, it is possible to prevent moving objects other than the target object from appearing in the difference image as differences. The application range of the detection device can be greatly expanded.

本発明の侵入物体の検出処理の一実施例の動作を説明するための図。The figure for demonstrating operation | movement of one Example of the detection process of the intruding object of this invention. 本発明の第1の実施例による処理手順を示す図。The figure which shows the process sequence by 1st Example of this invention. 本発明の第2の実施例による処理手順を示す図。The figure which shows the process sequence by the 2nd Example of this invention. 本発明の侵入物体検出方法を適用した侵入物体監視システムの一実施例の構成を示すブロック図。The block diagram which shows the structure of one Example of the intrusion object monitoring system to which the intrusion object detection method of this invention is applied. 従来のフレーム間差分法における物体検出の処理原理を説明するための図。The figure for demonstrating the processing principle of the object detection in the conventional inter-frame difference method. 従来のフレーム間差分法における物体検出の処理原理を説明するための図。The figure for demonstrating the processing principle of the object detection in the conventional inter-frame difference method. 本発明を洋上監視に適用した場合の入力画像の一実施例を示す図。The figure which shows one Example of the input image at the time of applying this invention to offshore monitoring. 本発明を洋上監視に適用した場合の加重係数画像の一実施例を示す図。The figure which shows one Example of the weighting coefficient image at the time of applying this invention to offshore monitoring. 本発明を屋外監視に適用した場合の入力画像の一実施例を示す図。The figure which shows one Example of the input image at the time of applying this invention to outdoor monitoring. 本発明を屋外監視に適用した場合の加重係数画像の一実施例を示す図。The figure which shows one Example of the weighting coefficient image at the time of applying this invention to outdoor monitoring. 図8の加重係数画像の設定を更に詳細に説明するための図。The figure for demonstrating in detail the setting of the weighting coefficient image of FIG. 本発明の加重係数画像の加重係数を3値で設定する一実施例を示す図。The figure which shows one Example which sets the weighting coefficient of the weighting coefficient image of this invention by 3 values. 本発明の加重係数画像の画素値を多値で設定する一実施例を示す図。The figure which shows one Example which sets the pixel value of the weighting coefficient image of this invention by multiple values. 本発明の差分画像、加重係数画像、及び合成差分画像を説明するための図。The figure for demonstrating the difference image of this invention, a weighting coefficient image, and a synthetic | combination difference image.

符号の説明Explanation of symbols

101:入力画像、102:1フレーム前の入力画像、103:2フレーム前の入力画像、104:3フレーム前の入力画像、105:基準背景画像、106:1フレーム前の入力画像によるフレーム間差分画像に対応する加重係数画像、107:2フレーム前の入力画像によるフレーム間差分画像に対応する加重係数画像、108:3フレーム前の入力画像によるフレーム間差分画像に対応する加重係数画像、109:背景差分画像に対応する加重係数画像、110:合成差分画像、111:二値化画像、112−1,112−2,112−3,112−4:差分器、113−1,113−2,113−3,113−4:乗算器、114:加算器、115:二値化器。
101: input image, 102: 1 input image before frame, 103: input image before 2 frame, 104: input image before 3 frame, 105: reference background image, difference between frames of input image before 106: 1 frame Weighting coefficient image corresponding to the image, 107: weighting coefficient image corresponding to the inter-frame difference image based on the input image two frames before, 108: weighting coefficient image corresponding to the inter-frame difference image based on the input image three frames before, 109: Weighted coefficient image corresponding to the background difference image, 110: composite difference image, 111: binarized image, 112-1, 112-2, 112-3, 112-4: differentiator, 113-1, 113-2, 113-3, 113-4: multiplier, 114: adder, 115: binarizer.

Claims (3)

撮像手段から得られる画像中の物体を検出する物体検出方法であって、
撮像手段からの距離が遠い領域に対しては、背景差分法に基づく差分処理を行い、
撮像手段からの距離が近い領域に対しては、フレーム間差分法に基づく差分処理を行う、
ことを特徴とする物体検出方法。
An object detection method for detecting an object in an image obtained from an imaging means,
For areas far from the imaging means, perform difference processing based on the background difference method,
For areas close to the imaging means, perform difference processing based on the interframe difference method,
An object detection method characterized by the above.
撮像手段から得られる画像中の物体を検出する物体検出装置であって、
撮像手段からの距離が遠い領域に対しては、背景差分法に基づく差分処理を行い、
撮像手段からの距離が近い領域に対しては、フレーム間差分法に基づく差分処理を行う、
ことを特徴とする物体検出装置。
An object detection device for detecting an object in an image obtained from an imaging means,
For areas far from the imaging means, perform difference processing based on the background difference method,
For areas close to the imaging means, perform difference processing based on the interframe difference method,
An object detection apparatus characterized by that.
撮像手段から得られる画像中の物体を検出する物体検出プログラムであって、
撮像手段からの距離が遠い領域に対しては、背景差分法に基づく差分処理を、
撮像手段からの距離が近い領域に対しては、フレーム間差分法に基づく差分処理を、
コンピュータに行わせることを特徴とする物体検出プログラム。
An object detection program for detecting an object in an image obtained from an imaging means,
For regions that are far from the imaging means, the difference processing based on the background difference method,
For regions close to the imaging means, difference processing based on the interframe difference method is performed.
An object detection program that is executed by a computer.
JP2004321686A 2000-09-28 2004-11-05 Object detection method, object detection apparatus, and object detection program Expired - Lifetime JP4291251B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004321686A JP4291251B2 (en) 2000-09-28 2004-11-05 Object detection method, object detection apparatus, and object detection program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000296995 2000-09-28
JP2004321686A JP4291251B2 (en) 2000-09-28 2004-11-05 Object detection method, object detection apparatus, and object detection program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001301352A Division JP3625440B2 (en) 2000-09-28 2001-09-28 Object detection method and object detection apparatus

Publications (2)

Publication Number Publication Date
JP2005050382A true JP2005050382A (en) 2005-02-24
JP4291251B2 JP4291251B2 (en) 2009-07-08

Family

ID=34276983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004321686A Expired - Lifetime JP4291251B2 (en) 2000-09-28 2004-11-05 Object detection method, object detection apparatus, and object detection program

Country Status (1)

Country Link
JP (1) JP4291251B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007028123A (en) * 2005-07-15 2007-02-01 Sony Corp Imaging device and imaging method
JP2010152791A (en) * 2008-12-26 2010-07-08 Nippon Syst Wear Kk Image processor for detecting object, method, program, and computer readable medium storing the program
JP2010271817A (en) * 2009-05-20 2010-12-02 Hitachi Kokusai Electric Inc Image processing method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007028123A (en) * 2005-07-15 2007-02-01 Sony Corp Imaging device and imaging method
JP4613724B2 (en) * 2005-07-15 2011-01-19 ソニー株式会社 Imaging apparatus and imaging method
US7889241B2 (en) 2005-07-15 2011-02-15 Sony Corporation Imaging device and imaging method
US8081233B2 (en) 2005-07-15 2011-12-20 Sony Corporation Imaging device and imaging method
JP2010152791A (en) * 2008-12-26 2010-07-08 Nippon Syst Wear Kk Image processor for detecting object, method, program, and computer readable medium storing the program
JP2010271817A (en) * 2009-05-20 2010-12-02 Hitachi Kokusai Electric Inc Image processing method

Also Published As

Publication number Publication date
JP4291251B2 (en) 2009-07-08

Similar Documents

Publication Publication Date Title
US7215795B2 (en) Intruding object detecting method and intruding object monitoring apparatus employing the method
JP4878644B2 (en) Moving object noise removal processing apparatus and moving object noise removal processing program
KR101071352B1 (en) Apparatus and method for tracking object based on PTZ camera using coordinate map
KR100659781B1 (en) Smoke Detecting Method and System using CCD Image
KR101051459B1 (en) Apparatus and method for extracting edges of an image
CN101065964A (en) Motion stabilization
EP2064671B1 (en) Method and apparatus for interpolating an image
CN106991418B (en) Winged insect detection method and device and terminal
JP2008046903A (en) Apparatus and method for detecting number of objects
JP3486229B2 (en) Image change detection device
Huo et al. Image dehazing with dark channel prior and novel estimation model
KR100623835B1 (en) Object detecting method and apparatus
Zhiwei et al. New method of background update for video-based vehicle detection
JP3625440B2 (en) Object detection method and object detection apparatus
JP2013101612A (en) Method and device for detecting moving object in video image sequence
JP4291251B2 (en) Object detection method, object detection apparatus, and object detection program
CN111199177A (en) Automobile rearview pedestrian detection alarm method based on fisheye image correction
JP2004222200A (en) Method and device for detecting intruding object
JP5710230B2 (en) Monitoring system and monitoring method
JP2011077981A (en) Surveillance camera system
JP5709255B2 (en) Image processing method and monitoring apparatus
JP6275022B2 (en) Image monitoring device
JP2012147083A (en) Image processor, image processing method, and program
JP2000137877A (en) Fire detecting device
JP2002279429A (en) Method for detecting infiltrating object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090331

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090402

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120410

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130410

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140410

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250