JP5142416B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP5142416B2
JP5142416B2 JP2011150884A JP2011150884A JP5142416B2 JP 5142416 B2 JP5142416 B2 JP 5142416B2 JP 2011150884 A JP2011150884 A JP 2011150884A JP 2011150884 A JP2011150884 A JP 2011150884A JP 5142416 B2 JP5142416 B2 JP 5142416B2
Authority
JP
Japan
Prior art keywords
image
image data
background
person
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011150884A
Other languages
Japanese (ja)
Other versions
JP2011258214A (en
Inventor
茂哲 本岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2011150884A priority Critical patent/JP5142416B2/en
Publication of JP2011258214A publication Critical patent/JP2011258214A/en
Application granted granted Critical
Publication of JP5142416B2 publication Critical patent/JP5142416B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、監視エリアに設置された盗撮カメラや忘れ物を検出する技術に関する。   The present invention relates to a technology for detecting a voyeur camera or a forgotten item installed in a monitoring area.

ATMなどに盗撮カメラが設置される被害が発生している。ATMでは、利用者が暗証番号の入力を行うため、このような行為は徹底して排除されなければならない。また、ATMやロビー、カウンターなどに忘れ物が発見されるケースがある。忘れ物を放置しておくと、時間の経過とともに持ち主の手元に戻る可能性は下がる。また、悪意ある者に持ち去られる場合もある。したがって、忘れ物についても早期の発見が重要である。   Damage to the installation of voyeur cameras at ATMs has occurred. In ATM, since a user inputs a personal identification number, such an act must be thoroughly eliminated. There are also cases where forgotten items are found in ATMs, lobby, counters, etc. If you leave a forgotten item, the possibility of returning to the owner's hand over time decreases. It can also be taken away by a malicious person. Therefore, early detection of forgotten items is important.

これら不法な設置物や忘れ物を自動で検出する方法として、撮像画像の解析を行う方法がある。監視エリア内にカメラを設置し、逐次取得される撮像画像と基準となる画像との差分をとることで不正な設置物や忘れ物の検出を行うのである。   As a method of automatically detecting these illegal installations and forgotten items, there is a method of analyzing a captured image. A camera is installed in the monitoring area, and an illegal installation or forgotten object is detected by taking a difference between a captured image acquired sequentially and a reference image.

特許文献1では、予め監視対象物の存在しない監視エリアの背景画像を取得しておき、この背景画像と任意時間の画像との差分を取得することで、静止物を監視することとしている。   In Patent Document 1, a background image of a monitoring area where a monitoring target does not exist is acquired in advance, and a stationary object is monitored by acquiring a difference between the background image and an image at an arbitrary time.

特開平6−105312号公報JP-A-6-105312

上記のように、背景画像と現在の画像との差分画像を取得し、その差分画像を解析することで放置された物体を検出する方法が提案されている。しかし、これらの方法において、背景画像の精度が物体検出の精度に影響を与えることになる。   As described above, a method has been proposed in which a difference image between a background image and a current image is acquired and the left object is detected by analyzing the difference image. However, in these methods, the accuracy of the background image affects the accuracy of object detection.

上記特許文献1のように、予め背景画像を用意する方法は環境の変動に弱いという問題がある。照明の変化など環境が変動した場合には、監視エリア内の背景画像が変化することになるが、予め用意されている背景画像を固定的に利用している場合には、環境の変化を物体の検出と判断する場合がある。   As in Patent Document 1, the method of preparing a background image in advance has a problem that it is vulnerable to environmental fluctuations. When the environment changes, such as changes in lighting, the background image in the monitoring area will change. However, if the background image prepared in advance is used fixedly, the change in the environment will be May be detected.

これに対して、背景画像を定期的に更新する方法がある。これにより、環境の変動に追随して背景画像も更新される。しかし、銀行ATMなど、人の出入りの多い場所では、背景画像の更新は困難である。複数のフレーム画像から取得した背景画像の平均画像を得る方法などもあるが、人の出入りが多い場所では、精度に問題がある。   On the other hand, there is a method of periodically updating the background image. As a result, the background image is also updated following the environmental change. However, it is difficult to update the background image in places where there are many people such as bank ATMs. Although there is a method of obtaining an average image of background images acquired from a plurality of frame images, there is a problem in accuracy in a place where people go in and out.

そこで、本発明は前記問題点に鑑み、人の出入りが多いエリアなど、画像の変化が頻繁に発生する監視エリアにおいて、放置された物体などを精度よく検出する技術を提供することを目的とする。   SUMMARY OF THE INVENTION In view of the above problems, the present invention has an object to provide a technique for accurately detecting an abandoned object or the like in a monitoring area where image changes frequently occur, such as an area where many people come and go. .

上記課題を解決するため、請求項1記載の発明は、監視エリアを撮像する撮像装置と、前記撮像装置から出力された画像から背景画像を取得し、定期的に背景画像の更新を行う更新手段と、前記撮像装置から出力された現在の画像と最新の背景画像との差分情報から人物の検出を行う人物検出手段と、前記撮像装置から出力された現在の画像と最新の背景画像との差分画像から孤立点を除去する手段と、孤立点が除去された差分画像をフレーム間隔より長い間隔をおいて複数取得し、それら複数の差分画像の論理積をとることにより生成される論理積画像から物体領域を抽出する手段と、を備え、前記更新手段は、前記撮像装置から出力された画像において前記人物検出手段により人物が検出されている間は、背景画像の更新を行わないことを特徴とする。請求項2記載の発明は、請求項1に記載の物体検出装置であって、前記物体領域について、背景カラー画像と現在のカラー画像の色相を比較することで、物体の有無を判定する手段、をさらに備えることを特徴とする。
In order to solve the above-described problem, the invention described in claim 1 is an image pickup apparatus that picks up an image of a monitoring area, and an update unit that acquires a background image from an image output from the image pickup apparatus and periodically updates the background image. A person detection unit that detects a person from difference information between the current image output from the imaging device and the latest background image; and a difference between the current image output from the imaging device and the latest background image A means for removing isolated points from an image, and a logical image generated by obtaining a plurality of difference images from which isolated points have been removed at intervals longer than the frame interval and taking the logical product of the plurality of differential images and means for extracting the object region, wherein the updating means, while the person is detected by the person detecting means in the image output from the imaging device, it does not update the background image And features. Invention of Claim 2 is the object detection apparatus of Claim 1, Comprising: The means which determines the presence or absence of an object by comparing the hue of a background color image and the present color image about the said object area | region, Is further provided.

本発明の物体検出装置は、孤立点が除去された差分画像をフレーム間隔より長い間隔をおいて複数取得し、それら複数の差分画像の論理積をとることにより生成される論理積画像から物体領域を抽出する。孤立点除去により2次元方向の雑音成分が除去され、論理積演算により時間方向の雑音成分が除去される。さらに、時間間隔のあいたフレームの論理積画像を利用するので、輝度むらの影響を排除することができる。   The object detection apparatus of the present invention acquires a plurality of difference images from which isolated points are removed at intervals longer than the frame interval, and obtains an object region from a logical product image generated by calculating a logical product of the plurality of difference images. To extract. The noise component in the two-dimensional direction is removed by the isolated point removal, and the noise component in the time direction is removed by the AND operation. Further, since the logical product images of frames with a time interval are used, the influence of luminance unevenness can be eliminated.

ATM内に設置された物体検出装置を示す図である。It is a figure which shows the object detection apparatus installed in ATM. ATMに対向する位置に設置されたカメラの撮像範囲を示す図である。It is a figure which shows the imaging range of the camera installed in the position facing ATM. 物体検出装置のブロック図である。It is a block diagram of an object detection apparatus. 画像解析処理のメインフローチャートである。It is a main flowchart of an image analysis process. 背景画像の算出処理のイメージ図である。It is an image figure of the calculation process of a background image. 背景画像の更新タイミングを示す図である。It is a figure which shows the update timing of a background image. 物体検出処理のフローチャートである。It is a flowchart of an object detection process.

以下、図面を参照しつつ本発明の実施の形態について説明する。図1は、本実施の形態に係る物体検出装置1が設置された銀行ATM室内の図である。ATM5は、図1および図2に示すように、パーティション6で囲われている。このように、ATM5をパーティション6で囲むことにより、利用者7がATM5を操作する際に、暗証番号の入力操作などが外部から見えないようにしている。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram of a bank ATM room in which an object detection device 1 according to the present embodiment is installed. The ATM 5 is surrounded by a partition 6 as shown in FIGS. Thus, by enclosing the ATM 5 with the partition 6, when the user 7 operates the ATM 5, the password input operation or the like is not visible from the outside.

そして、本実施の形態の物体検出装置1は、カメラ2と制御装置3とから構成されており、カメラ2が図1および図2に示すように、ATM5と対向する位置に配置されている。そして、カメラ2が、ATM5を正面から撮像するように位置調整されている。言い換えると、利用者7がATM5を操作している際には、カメラ2は、利用者7の背中側から撮像を行い、利用者7とAMT5が撮像範囲に収まるように位置、角度調整されている。   And the object detection apparatus 1 of this Embodiment is comprised from the camera 2 and the control apparatus 3, and the camera 2 is arrange | positioned in the position facing ATM5 as shown in FIG.1 and FIG.2. The position of the camera 2 is adjusted so that the ATM 5 is imaged from the front. In other words, when the user 7 is operating the ATM 5, the camera 2 takes an image from the back side of the user 7, and the position and angle are adjusted so that the user 7 and the AMT 5 are within the imaging range. Yes.

図1および図2で示したカメラ2の設置位置、設置角度などは一例である。このカメラ2は、このATM5の1つのブースを撮像範囲に収めればよいので、たとえば、ATM5の真上にカメラ2を設置し、カメラ2がATM5を上方から撮像するような形態であってもよい。   The installation position and installation angle of the camera 2 shown in FIGS. 1 and 2 are examples. Since this camera 2 only needs to put one booth of this ATM 5 in the imaging range, for example, even if the camera 2 is installed directly above the ATM 5 and the camera 2 images the ATM 5 from above, Good.

図3は、制御装置3のブロック図である。制御装置3は、ATM5が設置されている部屋とは別の場所に設置されている。そして、制御装置3とカメラ2とは映像ケーブルで接続されている。   FIG. 3 is a block diagram of the control device 3. The control device 3 is installed in a place different from the room in which the ATM 5 is installed. The control device 3 and the camera 2 are connected by a video cable.

制御装置3は、図に示すように、画像処理部31、バッファメモリ32、背景画像更新部33、人物検出部34、物体検出部35、背景画像メモリ36、通知部37、ワークメモリ38を備えている。画像解析に関わる処理部31,33,34,35は、ハードウェアで構成されていてもよいし、CPU上で動作するソフトウェアで実現されていてもよい。また、処理部の一部がハードウェアで構成されていてもよい。   As shown in the figure, the control device 3 includes an image processing unit 31, a buffer memory 32, a background image update unit 33, a person detection unit 34, an object detection unit 35, a background image memory 36, a notification unit 37, and a work memory 38. ing. The processing units 31, 33, 34, and 35 related to the image analysis may be configured by hardware, or may be realized by software operating on the CPU. Further, a part of the processing unit may be configured by hardware.

画像処理部31は、映像ケーブルを介してカメラ2から出力された画像信号を入力する。画像処理部31は、カメラ2から出力されたアナログの画像信号に画像処理を施した後、A/D変換する。さらに、デジタルの画像信号に対して画像処理を施して撮像画像データ41を生成し、撮像画像データ41をバッファメモリ32に格納する。撮像画像データ41は、カラーの画像データである。たとえば、RGB色成分を有するカラー画像データである。また、撮像輝度画像データ42は、撮像画像データ41の輝度成分から生成されるデータである。たとえば、撮像画像データ41がRGB画像データである場合には、このRGB画像データをYCrCb画像データに変換して、輝度成分(Y成分)を取得する。   The image processing unit 31 inputs an image signal output from the camera 2 via a video cable. The image processing unit 31 subjects the analog image signal output from the camera 2 to image processing, and then performs A / D conversion. Further, image processing is performed on the digital image signal to generate captured image data 41, and the captured image data 41 is stored in the buffer memory 32. The captured image data 41 is color image data. For example, color image data having RGB color components. The captured luminance image data 42 is data generated from the luminance component of the captured image data 41. For example, when the captured image data 41 is RGB image data, the RGB image data is converted into YCrCb image data, and a luminance component (Y component) is acquired.

背景画像更新部33は、バッファメモリ32に格納された撮像画像データ41および撮像輝度画像データ42から背景画像データ43および背景輝度画像データ44を生成し、背景画像メモリ36に格納する。背景画像データ43は、カラー画像データである。背景画像更新部33は、所定の時間間隔をおいて定期的に背景画像データ43および背景輝度画像データ44(これらを総称して単に背景画像と呼ぶことにする。)を作成し、背景画像メモリ36に格納している背景画像の更新を行う。   The background image update unit 33 generates background image data 43 and background luminance image data 44 from the captured image data 41 and the captured luminance image data 42 stored in the buffer memory 32 and stores them in the background image memory 36. The background image data 43 is color image data. The background image update unit 33 periodically creates background image data 43 and background luminance image data 44 (collectively referred to as background images) at a predetermined time interval, and a background image memory. The background image stored in 36 is updated.

ただし、後で詳しく説明するが、制御装置3がATM室内の人物を検出している間は、背景画像更新部33は、背景画像データ43および背景輝度画像データ44の更新を行わない。また、人物を検出しなくなってからも、物体検出処理中においては、背景画像の更新は行わない。   However, as will be described in detail later, the background image update unit 33 does not update the background image data 43 and the background luminance image data 44 while the control device 3 detects a person in the ATM room. Even when the person is no longer detected, the background image is not updated during the object detection process.

人物検出部34は、バッファメモリ32に格納されている撮像画像データ41と背景画像メモリ36に格納されている背景画像データ43とからカメラ2の撮像範囲内にいる人物を検出する。   The person detection unit 34 detects a person within the imaging range of the camera 2 from the captured image data 41 stored in the buffer memory 32 and the background image data 43 stored in the background image memory 36.

人物の検出アルゴリズムは特に限定されるものではない。本実施の形態においては、人物検出部34は、撮像輝度画像データ42と背景輝度画像データ44との差分画像データを生成し、この差分画像データの分散状態により人物を検出する。つまり、差分画像データの各画素の輝度値について分散を算出し、分散が所定の閾値を超えた場合に人物が存在すると判定するのである。あるいは、撮像画像データ41と背景画像データ43との差分画像データ(ある色成分について)を生成し、この差分画像データの分散状態より人物を検出するようにしてもよい。   The human detection algorithm is not particularly limited. In the present embodiment, the person detection unit 34 generates difference image data between the captured luminance image data 42 and the background luminance image data 44, and detects a person based on the distribution state of the difference image data. That is, the variance is calculated for the luminance value of each pixel of the difference image data, and it is determined that a person exists when the variance exceeds a predetermined threshold. Alternatively, difference image data (for a certain color component) between the captured image data 41 and the background image data 43 may be generated, and a person may be detected from the distribution state of the difference image data.

本実施の形態においては、上述したように、カメラ2は、1つのATM5のブースを大きく撮像するようにしている。つまり、ATM室内の全体(複数のATMが配列されていれば、それら全体)を撮像するのではなく、1つのATM5が収まる範囲を撮像範囲としている。したがって、ATM5の前に利用者7が立っている場合には、差分画像データの分散が非常に大きくなるので、精度よく人物を検出することが可能である。   In the present embodiment, as described above, the camera 2 takes a large image of one ATM 5 booth. That is, the entire ATM room (if a plurality of ATMs are arranged, the whole) is not imaged, but the range in which one ATM 5 is contained is set as the imaging range. Therefore, when the user 7 stands in front of the ATM 5, the difference image data is greatly dispersed, so that a person can be detected with high accuracy.

物体検出部35は、バッファメモリ32に格納されている撮像画像データ41および撮像輝度画像データ42と、背景画像メモリ36に格納されている背景画像データ43および背景輝度画像データ44とからATM室内に不正に設置された盗撮カメラや、置き忘れられた物などを検出する。物体検出部35の物体検出アルゴリズムについては、後で詳しく説明する。   The object detection unit 35 receives the captured image data 41 and the captured brightness image data 42 stored in the buffer memory 32 and the background image data 43 and the background brightness image data 44 stored in the background image memory 36 in the ATM room. Detects illegally installed voyeur cameras or misplaced objects. The object detection algorithm of the object detection unit 35 will be described in detail later.

通知部37は、ネットワークを介してセンタ8に接続しており、物体検出部35が物体を検出したときにセンタ8に対して物体検出情報を送信する。あるいは、通知部37は、銀行ATMに隣接している銀行店舗内に物体検出情報を送信する。これにより、不正に設置された盗撮カメラや忘れ物を早期に回収することが可能である。   The notification unit 37 is connected to the center 8 via a network, and transmits object detection information to the center 8 when the object detection unit 35 detects an object. Or the notification part 37 transmits object detection information in the bank store adjacent to bank ATM. Thereby, it is possible to collect illegally installed voyeur cameras and forgotten items at an early stage.

以上の通り構成された物体検出装置1による背景更新処理、人物更新処理、物体検出処理の流れについて、図4ないし図7を参照しながら説明する。図4は、物体検出装置1において実行される画像解析処理のメインフローチャートである。   A background update process, a person update process, and an object detection process performed by the object detection apparatus 1 configured as described above will be described with reference to FIGS. FIG. 4 is a main flowchart of image analysis processing executed in the object detection apparatus 1.

まず、物体検出装置1は、カメラ2より撮像画像を入力する(ステップS11)。たとえば、カメラ2は、30フレーム/秒などのフレームレートで撮像画像を出力する。この撮像画像はたとえばRGBなどのカラー画像である。画像処理部31は、入力した画像信号に画像処理を施した後、撮像画像データ41としてバッファメモリ32に格納する。バッファメモリ32には、過去所定時間分(所定フレーム数分)の撮像画像データ41が蓄積される。   First, the object detection apparatus 1 inputs a captured image from the camera 2 (step S11). For example, the camera 2 outputs captured images at a frame rate such as 30 frames / second. This captured image is a color image such as RGB. The image processing unit 31 performs image processing on the input image signal and stores the captured image data 41 in the buffer memory 32. The buffer memory 32 stores the captured image data 41 for the past predetermined time (the predetermined number of frames).

次に、人物検出部34が、バッファメモリ32に格納されている撮像輝度画像データ42と背景画像メモリ36に格納されている背景輝度画像データ44とから人物検出処理を実行する(ステップS12)。上述したように、本実施の形態においては、人物検出部34は、撮像輝度画像データ42と背景輝度画像データ44との差分画像の分散を算出することで、人物の有無を判定する。あるいは、撮像画像データ41と背景画像データ43との差分画像の分散を算出して、人物の有無を検出する。   Next, the person detection unit 34 performs person detection processing from the captured luminance image data 42 stored in the buffer memory 32 and the background luminance image data 44 stored in the background image memory 36 (step S12). As described above, in the present embodiment, the person detection unit 34 determines the presence or absence of a person by calculating the variance of the difference image between the captured luminance image data 42 and the background luminance image data 44. Alternatively, the variance of the difference image between the captured image data 41 and the background image data 43 is calculated to detect the presence or absence of a person.

そして、人物検出部34において人物を検出しなかった場合(ステップS13でNO)、背景画像の更新タイミングであるかどうかを判定する(ステップS14)。まだ、背景画像の更新タイミングでない場合にはステップS11に戻る。背景画像の更新タイミングが経過している場合には、背景画像更新部33により背景画像データ43および背景輝度画像データ44の更新処理が行われる(ステップS15)。   If no person is detected by the person detection unit 34 (NO in step S13), it is determined whether it is the update timing of the background image (step S14). If it is not yet the update timing of the background image, the process returns to step S11. If the background image update timing has elapsed, the background image update unit 33 performs update processing of the background image data 43 and the background luminance image data 44 (step S15).

図5は、背景画像更新部33による背景画像更新処理の処理イメージ図である。本実施の形態において背景画像更新部33は、複数フレームの撮像輝度画像データ42を利用して背景輝度画像データ44を生成する。   FIG. 5 is a processing image diagram of background image update processing by the background image update unit 33. In the present embodiment, the background image update unit 33 generates background luminance image data 44 using the captured luminance image data 42 of a plurality of frames.

具体的には、複数の撮像輝度画像データ42,42・・・の各画素位置の輝度値(濃度)をソートし、その中間値を当該画素の輝度値とする背景輝度画像データ44を生成するのである。つまり、複数フレームの撮像輝度画像データ42について、ある画素位置(座標位置)に注目し、その画素位置の輝度値を小さいものから順に並べ替える。そして、ソートされた輝度値の中で中間値の値をとる輝度値を、当該画素について背景輝度値として採用するのである。   Specifically, the luminance values (density) of each pixel position of the plurality of imaged luminance image data 42, 42,... Are sorted, and background luminance image data 44 having the intermediate value as the luminance value of the pixel is generated. It is. That is, with respect to the captured luminance image data 42 of a plurality of frames, attention is paid to a certain pixel position (coordinate position), and the luminance values at the pixel positions are rearranged in ascending order. Then, a luminance value taking an intermediate value among the sorted luminance values is adopted as the background luminance value for the pixel.

このようにして作成された背景輝度画像データ44は背景画像メモリ36に格納される。ただし、カメラ2から出力された全ての撮像画像データ41(たとえば30フレーム/秒の撮像画像データ41)を全て用いて計算するのではなく、所定のフレーム間隔で撮像画像データ41を抽出して撮像輝度画像データ42を生成し、その間引かれた撮像輝度画像データ42から背景輝度画像データ44を生成するようにしている。このようにして処理の高速化を図っている。また、背景輝度画像データ44を生成するために用いる撮像画像データ41のフレーム数は、バッファメモリ32に格納されている全てのフレームを利用してもよいし、その一部のフレームを利用してもよい。   The background luminance image data 44 created in this way is stored in the background image memory 36. However, instead of calculating using all the captured image data 41 output from the camera 2 (for example, the captured image data 41 of 30 frames / second), the captured image data 41 is extracted at a predetermined frame interval. Luminance image data 42 is generated, and background luminance image data 44 is generated from the thinned captured luminance image data 42. In this way, the processing speed is increased. Further, the number of frames of the captured image data 41 used for generating the background luminance image data 44 may use all the frames stored in the buffer memory 32, or may use some of the frames. Also good.

なお、背景輝度画像データ44の生成方法は、上記の方法に限定されるものではない。ステップS13で人物を検出しないことを判定しているので、最新の撮像輝度画像データ42をそのまま背景輝度画像データ44として更新してもよい。   Note that the method of generating the background luminance image data 44 is not limited to the above method. Since it is determined in step S13 that no person is detected, the latest captured luminance image data 42 may be updated as the background luminance image data 44 as it is.

背景画像データ43についても、最新の撮像画像データ41をそのまま採用してもよい。この場合には、最新の撮像画像データ41を背景画像データ43として背景画像メモリ36に格納する。あるいは、過去複数フレームの撮像画像データ41の平均値を求めて背景画像データ43を作成してもよい。また、撮像輝度画像データ44を作成した処理と同様の処理を行って、背景画像データ43を作成してもよい。つまり、輝度成分のみならず、色成分についても複数フレームの画素の中間値を求め、その中間値を用いて背景画像データ43を作成してもよい。   As for the background image data 43, the latest captured image data 41 may be employed as it is. In this case, the latest captured image data 41 is stored as background image data 43 in the background image memory 36. Alternatively, the background image data 43 may be created by obtaining an average value of the captured image data 41 of a plurality of past frames. Further, the background image data 43 may be created by performing the same process as the process for creating the captured luminance image data 44. That is, not only the luminance component but also the color component may be obtained by obtaining an intermediate value of pixels of a plurality of frames, and the background image data 43 may be created using the intermediate value.

ステップS13において人物を検出していると判定した場合、人物検出部34は、人物を検出しなくなるまで、判定を繰り返す(ステップS16)。そして、人物を検出しなくなった時点で物体検出処理(ステップS17)に移行する。   If it is determined in step S13 that a person is detected, the person detection unit 34 repeats the determination until no person is detected (step S16). Then, when no person is detected, the process proceeds to the object detection process (step S17).

このように、本実施の形態の物体検出装置1は、人物を検出していない場合のみ背景画像データ43および背景輝度画像データ44の更新を行い、人物を検出している間は背景画像データ43および背景輝度画像データ44の更新を行わず、また、物体検出処理も開始しない。図6は、人物検出と背景画像の更新タイミングを表した図である。図に示すように、人物検出前においては、所定の時間間隔で背景画像を更新する。そして、人物検出中においては、背景画像の更新タイミングが経過しても背景画像データ43および背景輝度画像データ44の更新を行わないようにしている。つまり、人物検出前の背景画像データ43および背景輝度画像データ44が最新のものとして保存されるのである。人物検出処理においても、人物が検出されていない直近の背景画像が利用される。さらに、この後、物体検出処理(ステップS17)が実行されるが、この間も背景画像の更新は行われない。   As described above, the object detection apparatus 1 according to the present embodiment updates the background image data 43 and the background luminance image data 44 only when no person is detected, and the background image data 43 while the person is detected. The background luminance image data 44 is not updated, and the object detection process is not started. FIG. 6 is a diagram showing person detection and background image update timing. As shown in the figure, the background image is updated at predetermined time intervals before the person is detected. During the person detection, the background image data 43 and the background luminance image data 44 are not updated even when the background image update timing elapses. That is, the background image data 43 and the background luminance image data 44 before the person detection are saved as the latest. In the person detection process, the latest background image in which no person is detected is used. Thereafter, the object detection process (step S17) is executed, but the background image is not updated during this time.

次に、図7を参照しつつ物体検出部35により実行される物体検出処理の流れについて説明する。物体検出部35は、まず、背景用の輝度エッジ画像を作成する(ステップS21)。たとえば、背景画像メモリ36に格納されている背景輝度画像データ44に8隣接ラプラシアンフィルタを施し、輝度エッジ画像を作成するのである。   Next, the flow of object detection processing executed by the object detection unit 35 will be described with reference to FIG. First, the object detection unit 35 creates a luminance edge image for background (step S21). For example, an 8-adjacent Laplacian filter is applied to the background luminance image data 44 stored in the background image memory 36 to create a luminance edge image.

次に、ステップS21で作成した輝度エッジ画像を2値化する(ステップS22)。つまり、所定の閾値と輝度エッジ画像の各画素の輝度値を比較し、閾値以下の輝度値を持つ画素に“0”を、閾値を上回る輝度値を持つ画素に“1”を割り当てる。   Next, the luminance edge image created in step S21 is binarized (step S22). That is, the luminance value of each pixel of the luminance edge image is compared with a predetermined threshold value, and “0” is assigned to a pixel having a luminance value equal to or lower than the threshold value, and “1” is assigned to a pixel having a luminance value exceeding the threshold value.

次に、バッファメモリ32に格納されている最新の撮像輝度画像データ42に対して輝度エッジ画像を作成する(ステップS23)。たとえば、撮像輝度画像データ42に8隣接ラプラシアンフィルタを施し、輝度エッジ画像を作成する。   Next, a brightness edge image is created for the latest captured brightness image data 42 stored in the buffer memory 32 (step S23). For example, an 8-adjacent Laplacian filter is applied to the captured luminance image data 42 to create a luminance edge image.

次に、ステップS23で作成した輝度エッジ画像についても2値化する(ステップS24)。処理の内容はステップS22と同様である。   Next, the luminance edge image created in step S23 is also binarized (step S24). The contents of the process are the same as in step S22.

そして、ステップS22で作成された背景2値化画像とステップS24で作成された現在の2値化画像との差分画像を作成する(ステップS25)。ここで、背景輝度画像データ44は、人物を検出する前に更新されていたものである。したがって、人物検出前に存在しなかった盗撮カメラや忘れ物がATM内に残されている場合には、この差分画像にそれら物体が含まれることになる。   Then, a difference image between the background binarized image created in step S22 and the current binarized image created in step S24 is created (step S25). Here, the background luminance image data 44 has been updated before the person is detected. Therefore, when a voyeur camera or a forgotten object that did not exist before the person detection is left in the ATM, these objects are included in this difference image.

次に、物体検出部35は、差分画像から孤立点除去を行う(ステップS26)。これにより、差分画像から雑音成分が取り除かれる。ステップS26において、作成された孤立点除去された差分画像はワークメモリ38に保存される。ワークメモリ38には、過去所定フレーム分の孤立点除去された差分画像が保存されている。   Next, the object detection unit 35 performs isolated point removal from the difference image (step S26). Thereby, the noise component is removed from the difference image. In step S <b> 26, the created difference image from which isolated points have been removed is stored in the work memory 38. The work memory 38 stores a differential image from which isolated points for a past predetermined frame have been removed.

次に、物体検出部35は、ワークメモリ38に保存されている過去3フレーム分の孤立点除去された差分画像の論理積画像を作成する(ステップS27)。上述したように、差分画像は2値化された画像の差分画像であるので、差分画像も2値化画像である(差分が負の符号の場合も正の符号に変換されるものとする。)。したがって、ステップS27では、各画素位置の画素について、輝度値が3フレーム全て“1”である画素のみ、論理積画像の輝度値として“1”が割り当てられる。   Next, the object detection unit 35 creates a logical product image of the difference images from which the isolated points have been removed for the past three frames stored in the work memory 38 (step S27). As described above, since the difference image is a difference image of the binarized image, the difference image is also a binarized image (even if the difference is a negative sign, it is converted to a positive sign. ). Accordingly, in step S27, for the pixel at each pixel position, “1” is assigned as the luminance value of the logical product image only for the pixels whose luminance values are “1” in all three frames.

また、本実施の形態において、論理積画像を作成するために使用する3フレームの差分画像は、所定の時間間隔を持った差分画像である。つまり、ステップS21からステップS26までの処理は、バッファメモリ32に格納される最新の撮像輝度画像データ42に対してそれぞれ処理されるので、ステップS26にワークメモリに格納される差分画像も撮像画像データ41と同じフレームレートで保存される。しかし、物体検出部35が、論理積画像を作成する際には、連続するフレームの差分画像に対して処理を行うのではなく、フレーム間引きされた差分画像に対して論理積画像を作成するのである。このように、時間間隔の空いた差分画像から論理積画像を作成するので、輝度むらなどの影響が排除され、定常的に存在する差分成分のみを抽出可能である。   In the present embodiment, the three-frame difference image used to create the logical product image is a difference image having a predetermined time interval. That is, since the processing from step S21 to step S26 is performed on the latest captured luminance image data 42 stored in the buffer memory 32, the difference image stored in the work memory in step S26 is also captured image data. 41 is stored at the same frame rate. However, when the object detection unit 35 creates a logical product image, it does not process the difference image of successive frames, but creates a logical product image for the difference image thinned out of the frames. is there. In this way, the logical product image is created from the difference images having time intervals, so that the influence of luminance unevenness and the like can be eliminated, and only the difference component that exists regularly can be extracted.

また、上記のように、物体検出部35は、孤立点除去処理をした後に、論理積画像を作成するようにしている。したがって、孤立点除去処理により2次元領域の雑音成分が除去され、論理積画像作成処理により、時間方向の雑音成分が除去される。   Further, as described above, the object detection unit 35 creates a logical product image after performing isolated point removal processing. Therefore, the noise component in the two-dimensional region is removed by the isolated point removal process, and the noise component in the time direction is removed by the logical product image creation process.

次に、物体検出部35は、論理積画像のセグメント化を行い、物体領域を抽出する(ステップS28)。つまり、論理積画像において、輝度値が“1”の画素が連続する領域を抽出するのである。たとえば、丸い物体がATM内に放置されていたならば、論理積画像の中には、輝度値が“1”である画素集合が円状の領域として抽出される。このようにして、人物検出前に存在しなかった物体の領域が検出される。   Next, the object detection unit 35 performs segmentation of the logical product image and extracts an object region (step S28). That is, in the logical product image, an area where pixels having a luminance value of “1” continue is extracted. For example, if a round object is left in the ATM, a pixel set having a luminance value “1” is extracted as a circular area in the logical product image. In this way, the region of the object that did not exist before the person detection is detected.

さらに、物体検出部35は、ステップS28において抽出された物体領域について、撮像画像データ41と背景画像データ43の色相を比較する(ステップS29)。つまり、カラー画像データである撮像画像データ41と背景画像データ43を用いて、背景と現在の画像の色相を比較するのである。そして、色相の変化が一定以上検出された場合、ステップS28で求められた物体領域には物体が存在すると判定するのである(ステップS30)。たとえば、カラー画像がRGB画像であれば、赤色(R)や青色(B)の画素成分についてセグメント化された領域の画素値の差を求め、画素値の差が閾値以上である場合に物体が存在すると判断する。あるいは、カラー画像がYCrCb画像であれば、Cr、Cb成分で比較すればよい。   Further, the object detection unit 35 compares the hues of the captured image data 41 and the background image data 43 for the object region extracted in step S28 (step S29). That is, the hues of the background and the current image are compared using the captured image data 41 and the background image data 43 which are color image data. If a change in hue is detected above a certain level, it is determined that an object exists in the object region obtained in step S28 (step S30). For example, if the color image is an RGB image, the difference between pixel values of segmented regions for red (R) and blue (B) pixel components is obtained, and the object is detected when the pixel value difference is greater than or equal to a threshold value. Judge that it exists. Alternatively, if the color image is a YCrCb image, the comparison may be made using Cr and Cb components.

このように、ステップS21〜ステップS28により、輝度成分を用いて物体領域を検出した後、さらに、その物体領域についてカラー成分を比較して物体の存在を判定するようにしている。これにより、照明の変化などにより、誤って物体を検出することを防止できる。つまり、輝度成分のみの判定では、照明、日差しなど輝度の変化により物体領域を検出してしまう可能性があるが、この領域について色成分の比較を行うことで、より精度よく物体の検出を行うようにしている。   As described above, after the object region is detected using the luminance component in steps S21 to S28, the presence of the object is determined by comparing the color components of the object region. Thereby, it can prevent detecting an object accidentally by the change of illumination, etc. In other words, in the determination of only the luminance component, there is a possibility that the object region may be detected due to a change in luminance such as lighting, sunlight, etc., but the object is detected more accurately by comparing the color component for this region. I am doing so.

物体を検出した場合(ステップS30でYES)、通知部37により、物体検出情報がセンタ8に通報される。あるいは、通知部37により、隣接する銀行店舗内に物体検出情報が通知される。これにより、たとえば、盗撮カメラが設置されている場合には、早急に盗撮カメラの除去を行うことが可能である。また、忘れ物を早期に発見することが可能である。   If an object is detected (YES in step S30), the notification unit 37 notifies the center 8 of object detection information. Alternatively, the notification unit 37 notifies the object detection information in the adjacent bank store. Thereby, for example, when a voyeur camera is installed, it is possible to remove the voyeur camera immediately. It is also possible to find forgotten items at an early stage.

再び、図4のフローチャートに戻る。物体検出処理(ステップS17)が終了すると、物体検出装置1は、再び、ステップS11に戻り処理を開始する。そして、人物を検出していなければ、背景画像の更新を行うのである。このように、人物検出中および物体検出処理中には、背景画像の更新は行わず、物体検出処理が終了してから背景画像の更新を行うようにしている(図6参照)。これにより、人物や物体が含まれる画像から背景画像が作成されることはなく、適切な背景画像を取得して、更新することが可能である。   Again, it returns to the flowchart of FIG. When the object detection process (step S17) ends, the object detection apparatus 1 returns to step S11 again and starts the process. If no person is detected, the background image is updated. As described above, during the person detection and the object detection process, the background image is not updated, and the background image is updated after the object detection process is completed (see FIG. 6). Thus, a background image is not created from an image including a person or an object, and an appropriate background image can be acquired and updated.

以上の通り本実施の形態の物体検出装置1を用いることにより、ATMなどの監視エリアに不正に設置された物や忘れ物を精度よく検出することが可能である。特に、人物が検出された場合には、背景画像の更新を中断するとともに、物体の検出処理も行わない。人物を検出しなくなった時点で物体の検出処理を開始するのである。また、物体の検出処理中においても背景画像の更新は行わない。これにより、人物や物体の存在しない状態で適切な背景画像を取得可能である。   As described above, by using the object detection apparatus 1 according to the present embodiment, it is possible to accurately detect an object that is illegally installed or a forgotten object in a monitoring area such as an ATM. In particular, when a person is detected, the update of the background image is interrupted and the object detection process is not performed. The object detection process is started when no person is detected. Also, the background image is not updated during the object detection process. As a result, an appropriate background image can be acquired in the absence of a person or object.

また、人物を検出した後に物体の検出処理を実行するので効率がよい。つまり、監視エリア内に物体が放置される場合には、その前に物体を放置した人物が訪れたはずである。そこで、人物を検出していない間には、背景画像の更新のみを行い、物体検出処理は行わないのである。これにより、物体検出処理の実行を必要最小限に留めることができる。   Further, since the object detection process is executed after the person is detected, the efficiency is high. That is, when an object is left in the monitoring area, a person who left the object must have visited before that. Therefore, while the person is not detected, only the background image is updated and the object detection process is not performed. Thereby, the execution of the object detection process can be kept to the minimum necessary.

上記実施の形態においては、単一のATM5を撮像範囲として、物体検出を行った。しかし、これは一例であり、たとえば、2台のATM5を撮像範囲に入れて物体検出処理を行っても良い。この場合には、たとえば、画面中央で撮像画像データを2つに分割し、それぞれの領域について上記実施の形態と同様の処理を実行すればよい。あるいは、4台のATM5を撮像範囲に入れて、画像を4分割して同様の処理を実行してもよい。   In the above embodiment, object detection is performed using a single ATM 5 as an imaging range. However, this is only an example, and for example, the object detection processing may be performed by putting two ATMs 5 in the imaging range. In this case, for example, the captured image data may be divided into two at the center of the screen, and the same processing as in the above embodiment may be executed for each region. Alternatively, four ATMs 5 may be put in the imaging range, and the image may be divided into four to execute similar processing.

1 物体検出装置
2 カメラ
3 制御装置
5 ATM
6 パーティション
7 利用者
DESCRIPTION OF SYMBOLS 1 Object detection apparatus 2 Camera 3 Control apparatus 5 ATM
6 Partition 7 User

Claims (2)

監視エリアを撮像する撮像装置と、
前記撮像装置から出力された画像から背景画像を取得し、定期的に背景画像の更新を行う更新手段と、
前記撮像装置から出力された現在の画像と最新の背景画像との差分情報から人物の検出を行う人物検出手段と、
前記撮像装置から出力された現在の画像と最新の背景画像との差分画像から孤立点を除去する手段と、
孤立点が除去された差分画像をフレーム間隔より長い間隔をおいて複数取得し、それら複数の差分画像の論理積をとることにより生成される論理積画像から物体領域を抽出する手段と、
を備え
前記更新手段は、前記撮像装置から出力された画像において前記人物検出手段により人物が検出されている間は、背景画像の更新を行わないことを特徴とする物体検出装置。
An imaging device for imaging the monitoring area;
An update unit that acquires a background image from an image output from the imaging device and periodically updates the background image;
A person detecting means for detecting a person from difference information between the current image output from the imaging device and the latest background image;
Means for removing isolated points from the difference image between the current image and the latest background image output from the imaging device;
Means for acquiring a plurality of differential images from which isolated points have been removed at intervals longer than the frame interval and extracting an object region from a logical product image generated by taking a logical product of the plurality of differential images;
Equipped with a,
The update means does not update a background image while a person is detected by the person detection means in an image output from the imaging device.
前記物体領域について、背景カラー画像と現在のカラー画像の色相を比較することで、物体の有無を判定する手段、Means for determining the presence or absence of an object by comparing the hue of a background color image and a current color image for the object region;
をさらに備える、請求項1に記載の物体検出装置。The object detection device according to claim 1, further comprising:
JP2011150884A 2011-07-07 2011-07-07 Object detection device Expired - Fee Related JP5142416B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011150884A JP5142416B2 (en) 2011-07-07 2011-07-07 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011150884A JP5142416B2 (en) 2011-07-07 2011-07-07 Object detection device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006128274A Division JP4811653B2 (en) 2006-05-02 2006-05-02 Object detection device

Publications (2)

Publication Number Publication Date
JP2011258214A JP2011258214A (en) 2011-12-22
JP5142416B2 true JP5142416B2 (en) 2013-02-13

Family

ID=45474243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011150884A Expired - Fee Related JP5142416B2 (en) 2011-07-07 2011-07-07 Object detection device

Country Status (1)

Country Link
JP (1) JP5142416B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5933482B2 (en) * 2013-05-01 2016-06-08 三菱電機株式会社 Image processing device for monitoring
JP6343769B2 (en) * 2013-08-23 2018-06-20 中嶋 公栄 Lost and found prevention system, information provision method for passenger car crew, computer program
EP3035238A1 (en) * 2014-12-19 2016-06-22 Tata Consultancy Services Limited Video surveillance system and method for fraud detection
CN111832349A (en) 2019-04-18 2020-10-27 富士通株式会社 Method and device for identifying error detection of carry-over object and image processing equipment

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05205175A (en) * 1992-01-24 1993-08-13 Hitachi Ltd Body detection device
JP4506308B2 (en) * 2004-07-02 2010-07-21 三菱電機株式会社 Image processing apparatus and image monitoring system using the image processing apparatus
JP3995671B2 (en) * 2004-08-20 2007-10-24 松下電器産業株式会社 Image processing device

Also Published As

Publication number Publication date
JP2011258214A (en) 2011-12-22

Similar Documents

Publication Publication Date Title
JP4811653B2 (en) Object detection device
JP5241782B2 (en) Surveillance camera system having a camera abnormality detection device
JP5159677B2 (en) Method, computer program, and computer system for detecting abandoned object and removed object in a video stream
US7778445B2 (en) Method and system for the detection of removed objects in video images
US10235599B2 (en) Method and system to characterize video background changes as abandoned or removed objects
US10445590B2 (en) Image processing apparatus and method and monitoring system
JP6233624B2 (en) Information processing system, information processing method, and program
JP5669082B2 (en) Verification device
WO2018056355A1 (en) Monitoring device
AU2016225841B2 (en) Predicting accuracy of object recognition in a stitched image
JP2009217835A (en) Non-motion detection
JP2011165008A (en) Image recognition apparatus and method
KR20080022189A (en) Object detection device, and object detection device for elevator
JP2010122746A (en) Image monitoring device
JP5321615B2 (en) Water level detection device, water level detection system, and water level detection method
JP5142416B2 (en) Object detection device
KR20120035734A (en) A method for detecting fire or smoke
JP2009140307A (en) Person detector
TW201140470A (en) System and method for monitoring objects and key persons of the objects
KR20120014515A (en) Apparatus for separating foreground from background and method thereof
KR101371647B1 (en) Apparatus for detecting fire flame based image data and method of the same
JP5865584B2 (en) Specific person detection system and detection method
KR101395666B1 (en) Surveillance apparatus and method using change of video image
Wang Research and implementation of intrusion detection algorithm in video surveillance
JP6058720B2 (en) Information output device, detection device, program, and information output method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121119

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151130

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5142416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees