JP2010015469A - Still area detection method, and apparatus, program and recording medium therefor - Google Patents

Still area detection method, and apparatus, program and recording medium therefor Download PDF

Info

Publication number
JP2010015469A
JP2010015469A JP2008176262A JP2008176262A JP2010015469A JP 2010015469 A JP2010015469 A JP 2010015469A JP 2008176262 A JP2008176262 A JP 2008176262A JP 2008176262 A JP2008176262 A JP 2008176262A JP 2010015469 A JP2010015469 A JP 2010015469A
Authority
JP
Japan
Prior art keywords
image
background
foreground
difference
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008176262A
Other languages
Japanese (ja)
Other versions
JP4999794B2 (en
Inventor
Katsuya Yamashita
勝也 山下
Hiroyuki Arai
啓之 新井
Kazuyuki Iso
和之 磯
Hisami Shinsenji
久美 秦泉寺
Akira Kojima
明 小島
Hitoshi Nakazawa
斉 仲澤
Kyoko Sudo
恭子 数藤
Hideki Koike
秀樹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008176262A priority Critical patent/JP4999794B2/en
Publication of JP2010015469A publication Critical patent/JP2010015469A/en
Application granted granted Critical
Publication of JP4999794B2 publication Critical patent/JP4999794B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To robustly detect a still area even under conditions with various disturbance factors. <P>SOLUTION: An initial background creation unit 2 in a still area detection apparatus 10 creates a background image by calculating a weighted mean image by using images acquired from an image input means and creates a threshold image by modeling steady fluctuation by normal distribution. A foreground portion extraction unit 3 calculates a foreground by performing differential calculation between the acquired image and the created background image based on a threshold image. Then, the foreground portion extraction unit 3 calculates a foreground by differential calculation for comparing the acquired image with the created background image by calculating an index value based on the created background image, and then calculates a foreground area by calculating a logical AND of the two foregrounds. A sequential background updating processing unit 5 newly creates background models for an area which is not determined as a foreground by the foreground extraction unit 3 and an area determined as a still area by a still portion evaluation unit 4 by using the acquired images and the created background model. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は映像中で静止している領域を検出する方法とその装置及びプログラムとその記録媒体に関する。   The present invention relates to a method for detecting a still area in an image, an apparatus and program therefor, and a recording medium therefor.

映像モニタリングにおいて、放置された物体、持ち去られた物体など映像中で静止する領域を検出する機能がある。映像から静止領域を検出するには、一般に背景画像を作成し、背景画像と現在の画像を比較することで前景を計算し、前景の静止時間を評価する方法が用いられる。   In video monitoring, there is a function to detect a stationary area in a video, such as a left object or a removed object. In order to detect a still area from an image, a method is generally used in which a background image is created, a foreground is calculated by comparing the background image with the current image, and the foreground still time is evaluated.

ここで問題となるのは、画像に含まれるさまざまな外乱である。静止領域検出の際に問題となる外乱は、例えば日照変動など照明環境の変化、通行人による移動物体の一時的な遮り、木の葉の揺れなど定常ノイズ、カメラのAGC:Auto Gain Control、AWB:Auto White Balance、撮像素子のノイズなどがある。   The problem here is various disturbances included in the image. Disturbances that cause problems when detecting a still region include, for example, changes in the lighting environment such as sunshine fluctuations, stationary noise such as temporary blockage of moving objects by passers-by, passing through of leaves, camera AGC: Auto Gain Control, AWB: Auto There are White Balance and noise of the image sensor.

ロバストに検出を行うためには、複合的にかかってくる前記外乱を効率よく軽減する必要がある。外乱を除去する方法には、入力画像における高域除去フィルタ、低域除去フィルタなどのノイズ除去処理、背景差分方法における適応的閾値法など、静止領域検出にかかる各ステップにおいて、多岐にわたる方法がある。   In order to perform detection robustly, it is necessary to efficiently reduce the disturbance that is applied in a complex manner. There are various methods for removing disturbances, such as noise removal processing such as high-frequency removal filter and low-frequency removal filter in the input image, adaptive threshold method in background difference method, etc. .

定常的な揺らぎや一時的な遮蔽に対応する方法として適応的な背景の更新方法がある。例えば、背景の揺らぎをモデル化する方法として、非特許文献1などがあるが、これらの方法のみでは定常的ではない日照変動や、物体の影の影響に対応することが困難である。   There is an adaptive background update method as a method for dealing with steady fluctuation and temporary shielding. For example, there is Non-Patent Document 1 as a method for modeling the fluctuation of the background, but it is difficult to deal with the effects of sunshine fluctuations and object shadows that are not steady with these methods alone.

日照や物体の影にロバストな方法としては、微分を用いるものや相関を用いるものがある。例えば、相関を用いるものであれば非特許文献2等があるが、相関や微分を用いる方法は、高周波ノイズに弱く木の葉の揺れのようなノイズや素子ノイズの影響を排除することが難しい。
Zoran Zivkovic,Improved Adaptive Gaussian Mixture Model for Background Subtraction,ICPR2004 伊藤誠也,金子俊一,選択的正規化相関による高速なロバスト画像照合,電気学会(実環境におけるマシンビジョン適用技術特集号),2004 奈良先端科学技術大学院大学,OpenCV,プログラミングブック制作チーム著,OpenCV,プログラミングブック,2007 特開2004−241945
Some methods that are robust to sunshine and object shadows use differentiation and correlation. For example, there is Non-Patent Document 2 or the like as long as it uses correlation, but the method using correlation or differentiation is weak against high-frequency noise, and it is difficult to eliminate the influence of noise such as shaking of leaves and element noise.
Zoran Zivkovic, Improved Adaptive Gaussian Mixture Model for Background Subtraction, ICPR2004 Seiya Ito, Shunichi Kaneko, Fast Robust Image Matching by Selective Normalization Correlation, IEEJ (Special Issue on Machine Vision Application Technology in Real Environments), 2004 Nara Institute of Science and Technology, OpenCV, Programming book production team, OpenCV, Programming book, 2007 JP2004-241945

上記のように従来の静止領域を検出する技術では前記外乱のうち一部のみに対応する手法は様々なものがあり用いられているが、実用途で用いるには複数の外乱要因に同時に対応しなければ誤検出、検出漏れが発生し、安定性に問題が起こる。   As described above, in the conventional technology for detecting a static region, there are various methods for dealing with only a part of the disturbance, but for use in actual applications, a plurality of disturbance factors can be dealt with simultaneously. If not, false detection and detection omission occur, causing a problem in stability.

本発明は、かかる事情に鑑みなされたもので、静止領域の検出に関わる処理を複数のステップに分けそれぞれにおいて外乱に強い方法を用いることで同時に複数の外乱があっても安定して静止領域の検出が可能な静止領域検出方法とその装置、プログラム及び記録媒体の提供にある。   The present invention has been made in view of such circumstances, and the processing related to detection of a stationary region is divided into a plurality of steps, and a method that is resistant to disturbances is used in each of the steps. The present invention provides a still area detection method capable of detection, an apparatus thereof, a program, and a recording medium.

そこで、前記課題を解決するための請求項1の静止領域検出方法は、画像から静止領域を検出する静止領域検出方法であって、初期背景作成手段が画像入力装置から取得された画像を用いて背景画像と各画素値が静止判定閾値である閾値画像とから成る背景モデルを作成する初期背景作成手順と、前景箇所抽出手段が前記取得された画像と前記作成された背景モデルとを背景差分演算により比較して前景領域を抽出する前景箇所抽出手順と、静止箇所評価手段が前記抽出された前景領域が前景として継続的に現れた回数をカウントして得た静止時間が予め定めた静止判定閾値以上になった箇所を静止領域として判断する静止箇所評価手順と、逐次背景更新手段が、前記取得された画像と前記作成された背景モデルを用いて、前記前景箇所抽出手順で前景と判断されなかった領域と前記静止箇所評価手順で静止領域と判断された領域について新たな背景モデルを作成する逐次背景更新手順とを有し、前記初期背景作成手順は、前記画像入力装置から取得された複数の画像を用いて加重平均画像を計算することで前記背景画像を作成する手順と、定常的な揺らぎを正規分布によってモデル化することで前記閾値画像を作成する手順とを有し、前記前景箇所抽出手順は、前記画像入力装置から取得された画像と前記作成された背景画像との差分計算を前記閾値画像に基づき行うことで前景を算出する背景差分手順と、前記画像入力装置から取得された画像と前記作成された背景画像に基づく指標値を計算することで前記両者の画像を比較する差分計算によって前景を算出する指標値計算差分手順と、前記背景差分手順で算出した前景と前記指標値計算差分手順で算出した前景の論理積を計算することにより前景領域を算出する前景判定手順とを有する。   Accordingly, a still area detection method according to claim 1 for solving the above-mentioned problem is a still area detection method for detecting a still area from an image, wherein the initial background creation means uses an image acquired from an image input device. An initial background creation procedure for creating a background model composed of a background image and a threshold image in which each pixel value is a stillness determination threshold, and a foreground location extraction unit calculates a background difference between the acquired image and the created background model A foreground location extraction procedure for extracting a foreground area by comparing with the above, and a stillness determination threshold in which a still time obtained by the stationary location evaluation means counting the number of times the extracted foreground region continuously appears as a foreground The stationary part evaluation procedure for determining the above-described part as a stationary region, and the sequential background update means extract the foreground part using the acquired image and the created background model. A sequential background update procedure for creating a new background model for a region not determined as a foreground in order and a region determined as a static region in the static part evaluation procedure, and the initial background generation procedure includes the image input A procedure for creating the background image by calculating a weighted average image using a plurality of images acquired from the apparatus, and a procedure for creating the threshold image by modeling steady fluctuations with a normal distribution. The foreground location extraction procedure includes: a background difference procedure for calculating a foreground by calculating a difference between an image acquired from the image input device and the created background image based on the threshold image; and Index value calculation difference for calculating the foreground by calculating the index value based on the image acquired from the input device and the created background image and comparing the images of the two A procedure, a foreground determining step of calculating the foreground area by calculating the logical product of the foreground and the calculated foreground calculated by the background subtraction procedure by the index value calculating difference procedure.

請求項2の静止領域検出方法は、請求項1の静止領域検出方法において、前記指標値計算差分手順では、前記画像入力装置から取得した画像と前記初期背景作成手順で作成した背景画像の対数微分画像の比を前記指標値として計算する。   The still region detection method according to claim 2 is the still region detection method according to claim 1, wherein, in the index value calculation difference procedure, logarithmic differentiation of an image acquired from the image input device and a background image created by the initial background creation procedure. The image ratio is calculated as the index value.

請求項3の静止領域検出方法は、請求項1の静止領域検出方法において、前記指標値計算差分手順では、前記画像入力装置から取得した画像と前記初期背景作成手順で作成した背景画像の注目画素周辺の領域について正規化相互相関と正規化2乗差を計算し、前記注目領域周辺の領域における画素値の偏差に基づく重みに従って前記正規化相互相関の値と前記正規化2乗差の値の重み付き和を前記指標値として計算する。   The still region detection method according to claim 3 is the still region detection method according to claim 1, wherein in the index value calculation difference procedure, the target pixel of the image acquired from the image input device and the background image created by the initial background creation procedure The normalized cross-correlation and the normalized square difference are calculated for the surrounding area, and the normalized cross-correlation value and the normalized square difference value are calculated according to the weight based on the deviation of the pixel value in the surrounding area of the attention area. A weighted sum is calculated as the index value.

請求項4の静止領域検出方法は、請求項1から3のいずれかの静止領域検出方法において、前記静止箇所評価手順は、前記画像入力装置から取得される画像における予め定められた注目領域内の静止領域の判定結果に基づき前記注目領域内への物体の侵入を検出する手順をさらに有する。   The still region detection method according to claim 4 is the still region detection method according to any one of claims 1 to 3, wherein the still portion evaluation procedure is performed in a predetermined region of interest in an image acquired from the image input device. The method further includes a procedure of detecting entry of an object into the attention area based on a determination result of the stationary area.

請求項5の静止領域検出装置は、画像から静止領域を検出する静止領域検出装置であって、画像入力装置から取得された画像を用いて、背景画像と各画素値が静止判定閾値である閾値画像とから成る背景モデルを作成する初期背景作成手段と、前記画像入力装置から取得された画像と前記作成された背景モデルとを背景差分演算により比較して前景領域を抽出する前景箇所抽出手段と、前記抽出された前景領域が前景として継続的に現れた回数をカウントして得た静止時間が予め定めた静止判定閾値以上になった箇所を静止領域として判断する静止箇所評価手段と、前記取得された画像と前記作成された背景モデルを用いて、前記前景箇所抽出手順で前景と判断されなかった領域と前記静止箇所評価手順で静止領域と判断された領域について新たな背景モデルを作成する逐次背景更新手段とを有し、前記初期背景作成手段は、前記画像入力装置から取得された複数の画像を用いて加重平均画像を計算することで前記背景画像を作成する手段と、定常的な揺らぎを正規分布によってモデル化することで前記閾値画像を作成する手段とを有し、前記前景箇所抽出手段は、前記画像入力装置から取得された画像と前記作成された背景画像との差分計算を前記閾値画像に基づき行うことで前景を算出する背景差分手段と、前記画像入力装置から取得された画像と前記作成された背景画像に基づく指標値を計算することで前記両者の画像を比較する差分計算によって前景を算出する指標値計算差分手段と、前記背景差分手段によって算出した前景と前記指標値計算差分手段によって算出した前景の論理積を計算することにより前景領域を算出する前景判定手段とを有する。   The still region detection device according to claim 5 is a still region detection device that detects a still region from an image, and uses the image acquired from the image input device to set a threshold value in which a background image and each pixel value are still determination threshold values. Initial background creation means for creating a background model composed of images, and foreground location extraction means for extracting a foreground area by comparing the image acquired from the image input device with the created background model by background difference calculation; , A stationary part evaluation means for judging, as the stationary area, a part where the stationary time obtained by counting the number of times the extracted foreground area continuously appears as a foreground is equal to or more than a predetermined stationary judgment threshold, and the acquisition Using the generated image and the created background model, a region that was not determined to be a foreground by the foreground location extraction procedure and a region that was determined to be a static region by the still location evaluation procedure A sequential background update unit that creates a background model, and the initial background creation unit creates the background image by calculating a weighted average image using a plurality of images acquired from the image input device. And means for creating the threshold image by modeling steady fluctuations with a normal distribution, and the foreground location extracting means includes the image obtained from the image input device and the created image By calculating a foreground by performing a difference calculation with a background image based on the threshold image, and calculating an index value based on the image acquired from the image input device and the created background image An index value calculation difference unit that calculates a foreground by a difference calculation that compares both images, a foreground calculated by the background difference unit, and a foreground calculated by the index value calculation difference unit And a foreground determining means for calculating a foreground region by calculating the logical product.

請求項6の静止領域検出装置は、請求項5の静止領域検出装置において、前記指標値計算差分手段は、前記画像入力装置から取得した画像と前記初期背景作成手段によって作成した背景画像の対数微分画像の比を前記指標値として計算する。   The still area detection apparatus according to claim 6 is the still area detection apparatus according to claim 5, wherein the index value calculation difference means is a logarithmic differentiation between the image acquired from the image input apparatus and the background image created by the initial background creation means. The image ratio is calculated as the index value.

請求項7の静止領域検出装置は、請求項5の静止領域検出装置において、前記指標値計算差分手段は、前記画像入力装置から取得した画像と前記初期背景作成手段によって作成した背景画像の注目画素周辺の領域について正規化相互相関と正規化2乗差を計算し、前記注目領域周辺の領域における画素値の偏差に基づく重みに従って前記正規化相互相関の値と前記正規化2乗差の値の重み付き和を前記指標値として計算する。   The still region detection device according to claim 7 is the still region detection device according to claim 5, wherein the index value calculation difference unit is an attention pixel of an image acquired from the image input device and a background image generated by the initial background generation unit. The normalized cross-correlation and the normalized square difference are calculated for the surrounding area, and the normalized cross-correlation value and the normalized square difference value are calculated according to the weight based on the deviation of the pixel value in the surrounding area of the attention area. A weighted sum is calculated as the index value.

請求項8の静止領域検出装置は、請求項5から7のいずれかの静止領域検出装置において、前記静止箇所評価手段は、前記画像入力装置から取得された画像における予め定められた注目領域内の静止領域の判定結果に基づき前記注目領域内への物体の侵入を検出する。   The still region detection device according to claim 8 is the still region detection device according to any one of claims 5 to 7, wherein the still portion evaluation means is located within a predetermined region of interest in the image acquired from the image input device. Based on the determination result of the still area, the intrusion of the object into the attention area is detected.

請求項9のプログラムは、請求項5から8のいずれかの静止領域検出装置を構成する各手段としてコンピュータを機能させるプログラムである。   A program according to a ninth aspect is a program for causing a computer to function as each means constituting the still area detecting device according to any one of the fifth to eighth aspects.

請求項10の記録媒体は、請求項9のプログラムを記録したコンピュータ読み取り可能な記録媒体である。   A recording medium according to a tenth aspect is a computer-readable recording medium on which the program according to the ninth aspect is recorded.

以上の発明によれば外乱要因のある条件のもとでもロバストに静止領域を検出できる。   According to the above invention, a stationary region can be detected robustly even under conditions with disturbance factors.

図1は発明の実施形態に係る静止領域検出装置の概略構成を示したブロック図である。   FIG. 1 is a block diagram showing a schematic configuration of a still area detection apparatus according to an embodiment of the invention.

静止領域検出装置10は入力画像取得処理部1と初期背景作成部2と前景箇所抽出部3と静止箇所評価部4と逐次背景更新部5とを備える。   The static region detection apparatus 10 includes an input image acquisition processing unit 1, an initial background creation unit 2, a foreground location extraction unit 3, a static location evaluation unit 4, and a sequential background update unit 5.

静止領域検出装置10は通常のコンピュータの構成要素、例えばCPU(Central Processor Unit)、メモリ(RAM)、ハードディスクドライブ装置、通信デバイスなどのハートウェア資源を備え、このハードウェア資源とインストール済みのソフトウェアとの協働によって前記各機能ブロック1〜5に係る処理が実行される。そして、この処理によって得られた画像は図示省略のディスプイ(表示装置)にて表示できるようになっている。   The static area detection apparatus 10 includes hardware resources such as a CPU (Central Processor Unit), a memory (RAM), a hard disk drive device, and a communication device, and the hardware resources and installed software and the like. The processing according to each of the functional blocks 1 to 5 is executed by the cooperation. The image obtained by this process can be displayed on a display (display device) (not shown).

入力画像取得処理部1はS101の入力画像取得ステップを実行する。具体的にはカメラ、DVR、VTRなどの画像入力装置から画像を取得する。入力画像取得部2は前記画像入力装置と接続された既知の通信デバイスなどで実現できる。   The input image acquisition processing unit 1 executes the input image acquisition step of S101. Specifically, an image is acquired from an image input device such as a camera, DVR, or VTR. The input image acquisition unit 2 can be realized by a known communication device connected to the image input device.

初期背景作成処理部2はS102の初期背景作成ステップを実行する。S102ではS101の入力画像取得ステップで取得された一枚または複数の画像を用いて背景モデルを作成する。このS102では、画像の揺らぎが正規分布をなすと想定して背景モデルを作成する方法を用いることで、背景領域に存在する木の葉が風で揺れるなどの定常的な揺らぎの影響をモデル化することができる。この方法は非特許文献3に記載の正規分布を用いた背景差分法の方法で実現することができる。   The initial background creation processing unit 2 executes the initial background creation step of S102. In S102, a background model is created using one or a plurality of images acquired in the input image acquisition step of S101. In S102, by using a method of creating a background model on the assumption that image fluctuations have a normal distribution, modeling the effects of steady fluctuations such as the leaves of trees in the background area swaying in the wind. Can do. This method can be realized by the background difference method using the normal distribution described in Non-Patent Document 3.

前記背景モデルは背景画像と閾値画像から構成される。画像の閾値処理において通常は全画素同一の閾値が用いられる。画素毎に異なる閾値を用いる場合、各画素に対応した閾値を記録する画像でこれを表現する。この画像を閾値画像と称している。例えば、画像Aの座標(x,y)について閾値処理を行う際の閾値は、閾値画像の座標(x,y)を参照することで得られる。   The background model is composed of a background image and a threshold image. In the threshold processing of an image, the same threshold value is normally used for all pixels. When a different threshold value is used for each pixel, this is expressed by an image that records a threshold value corresponding to each pixel. This image is referred to as a threshold image. For example, the threshold value when threshold processing is performed for the coordinates (x, y) of the image A is obtained by referring to the coordinates (x, y) of the threshold image.

前記背景画像は複数枚の画像の加重平均をとることにより計算され、閾値画像は定常的な揺らぎを正規分布によってモデル化することにより計算される。これにより一時的な揺らぎの影響を受けにくい背景画像を作成できる。   The background image is calculated by taking a weighted average of a plurality of images, and the threshold image is calculated by modeling steady fluctuations with a normal distribution. This makes it possible to create a background image that is not easily affected by temporary fluctuations.

各閾値画像の各画素値は、Nフレーム分の画素値の標準偏差を計算することによって求められる。または次式のように各画素における背景差分値の自系列の平均値を用いてもよい。すなわち、既にある閾値画像Tの画素値をT(x,y)、差分画像Dの画素値をD(x,y)とすると、新しい閾値画像T’の画素値T’(x,y)は以下の式で表せる。   Each pixel value of each threshold image is obtained by calculating a standard deviation of pixel values for N frames. Or you may use the average value of the own series of the background difference value in each pixel like following Formula. That is, assuming that the pixel value of the existing threshold image T is T (x, y) and the pixel value of the difference image D is D (x, y), the pixel value T ′ (x, y) of the new threshold image T ′ is It can be expressed by the following formula.

T’(x,y)=(1−α)×T(x,y)+α×D(x,y)
背景画像は画像の加重平均によって求められる。すなわち、既にある背景画像Mの画素値をM(x,y)、現在の画像Iの画素値をI(x,y)とすると、新しい背景画像M’の画素値M’(x,y)は以下の式で表せる。
T ′ (x, y) = (1−α) × T (x, y) + α × D (x, y)
The background image is obtained by a weighted average of the images. That is, if the pixel value of the existing background image M is M (x, y) and the pixel value of the current image I is I (x, y), the pixel value M ′ (x, y) of the new background image M ′. Can be expressed by the following equation.

M’(x,y)=(1−α)×M(x,y)+α×I(x,y)
Mの初期値は、最初に取得した1枚、あるいは複数の画像の平均を用いればよい。
M ′ (x, y) = (1−α) × M (x, y) + α × I (x, y)
The initial value of M may be an average of one or a plurality of images acquired first.

閾値画像をTとしたとき、背景差分計算は、MとIの絶対差Dが、閾値にある定数kをかけた値よりも大きい場合に差分ありとする。   When the threshold image is T, the background difference calculation determines that there is a difference when the absolute difference D between M and I is larger than a value obtained by multiplying the threshold by a constant k.

D(x,y)=|M(x,y)−I(x,y)|
D(x,y)≧k×T(x,y) :前景
D(x,y)<k×T(x,y) :背景
前景箇所抽出部3はS103の前景箇所抽出ステップを実行する。S103ではS101の入力画像取得ステップで取得された画像と既に作成されている背景を比較して差分のある箇所を前景として抽出する。
D (x, y) = | M (x, y) -I (x, y) |
D (x, y) ≧ k × T (x, y): Foreground D (x, y) <k × T (x, y): Background The foreground location extraction unit 3 executes the foreground location extraction step of S103. In S103, the image acquired in the input image acquisition step of S101 is compared with the background that has already been created, and a portion having a difference is extracted as the foreground.

より具体的には前景箇所抽出部3はS101で取得された画像とS102で作成された背景画像との差分計算を前記閾値画像に基づき行うことで前景を算出する(背景差分手順)。次に、S101で取得された画像とS102で作成された背景画像に基づく指標値を計算することで前記両者の画像を比較する差分計算によって前景を算出する(指標値計算差分手順)。そして、前記背景差分手順で算出した前景と前記指標値計算差分手順で算出した前景の論理積を計算することにより前景領域を算出する(前景判定手順)。前記指標値としては、例えば、S101で取得された画像とS102で作成された背景画像の対数微分画像の比が挙げられる。他の指標値としては、S101で取得された画像とS102で作成された背景画像の注目画素周辺の領域について正規化相互相関と正規化2乗差を計算し、前記注目領域周辺の領域における画素値の標準偏差に基づく重みに従って算出された前記正規化相互相関の値と前記正規化2乗差の値の重み付き和が例示される。   More specifically, the foreground location extraction unit 3 calculates the foreground by performing a difference calculation between the image acquired in S101 and the background image created in S102 based on the threshold image (background difference procedure). Next, by calculating an index value based on the image acquired in S101 and the background image generated in S102, a foreground is calculated by a difference calculation that compares the two images (index value calculation difference procedure). A foreground region is calculated by calculating a logical product of the foreground calculated by the background difference procedure and the foreground calculated by the index value calculation difference procedure (foreground determination procedure). Examples of the index value include a ratio of a logarithmic differential image of the image acquired in S101 and the background image generated in S102. As other index values, normalized cross-correlation and normalized square difference are calculated for the area around the target pixel of the image acquired in S101 and the background image created in S102, and the pixels in the area around the target area are calculated. The weighted sum of the normalized cross-correlation value calculated according to the weight based on the standard deviation of the value and the normalized squared difference value is exemplified.

静止箇所は、非特許文献3に記載の正規分布を用いた背景差分法の方法によって計算された前景箇所と対数微分による差分方法によって計算された前景箇所との論理積、あるいは前記背景モデルを用いた背景差分方法によって計算された前景箇所と相関ベースの差分方法によって計算された前景箇所との論理積によって計算される。各差分結果については、膨張処理、周辺画素の和をとる処理などの強調処理を加えてもよい。   For the static part, use the logical product of the foreground part calculated by the background difference method using the normal distribution described in Non-Patent Document 3 and the foreground part calculated by the logarithmic differential method, or the background model. The foreground location calculated by the background difference method and the foreground location calculated by the correlation-based difference method are calculated. About each difference result, you may add emphasis processes, such as an expansion process and the process which takes the sum of a surrounding pixel.

前景箇所抽出部3で適用される対数微分による差分方法と相関ベースの差分方法は明るさ変化の影響を受けにくい比較方法である。   The difference method based on logarithmic differentiation and the correlation-based difference method applied in the foreground location extraction unit 3 are comparative methods that are not easily affected by changes in brightness.

対数微分による差分方法は、特許文献1で示されているような画像の対数をとる処理、微分をとる処理を組み合わせることによって実現される。対数微分による差分方法は、先ず、画像の画素値の対数をとり対数画像を得る。次に、画像の空間微分によって対数微分画像を得る。背景画像について求めた対数微分画像と、現フレーム画像について求めた対数微分画像の比を取り、一定値以上の変化があった箇所を前景箇所とする。   The difference method by logarithmic differentiation is realized by combining the process of taking the logarithm of the image and the process of taking the derivative as shown in Patent Document 1. The difference method by logarithmic differentiation first takes the logarithm of the pixel value of the image to obtain a logarithmic image. Next, a logarithmic differential image is obtained by spatial differentiation of the image. The ratio between the logarithmic differential image obtained for the background image and the logarithmic differential image obtained for the current frame image is taken, and a place where a change of a certain value or more is determined as the foreground place.

前記対数微分による差分方法は具体的には次の原理を用いて実現される。   Specifically, the difference method by logarithmic differentiation is realized using the following principle.

ある時点の画像の画素値をIとし、それに環境中の明るさ変化やカメラのAGC、AWBなどによる輝度変化が加わった画像の画素値をaIとすると、以下の数式のように記述できる。   Assuming that the pixel value of an image at a certain time is I, and the pixel value of an image to which brightness change due to environmental brightness, camera AGC, AWB, or the like is added is aI, the following equation can be expressed.

ただし、aは輝度変化を示す係数である。   Here, a is a coefficient indicating a luminance change.

ここで、対数をとった画像について空間微分をとると以下の数式のように記述できる。   Here, if a spatial differential is taken for the logarithm image, it can be described as the following mathematical formula.

ここで、輝度変化が空間方向に一様に線形に働くとすれば、式2の第一項は空間微分によりゼロとなり、式3が得られる。実際には前記輝度変化は非線形であることが多く厳密にはゼロにはならないが、これにより輝度変化の影響を受けにくい値に変換される。   Here, if the luminance change works uniformly linearly in the spatial direction, the first term of Equation 2 becomes zero by spatial differentiation, and Equation 3 is obtained. Actually, the luminance change is often non-linear and does not strictly become zero. However, the luminance change is converted to a value that is not easily affected by the luminance change.

式2、式3はx方向の空間微分を示しているがy方向についても同様である。   Equations 2 and 3 show spatial differentiation in the x direction, but the same applies to the y direction.

空間微分の計算は画像処理においてsobelフィルタを用いて代用してもよい。   The calculation of spatial differentiation may be substituted by using a sobel filter in image processing.

比較処理は、S101で得られた画像に対して式1から式3の処理を適用した画像と、S102またはS105で得られた背景に対して式1から式3の処理を適用した画像の比をとることによって実現される。   The comparison process is a ratio of an image obtained by applying the processes of Expressions 1 to 3 to the image obtained in S101 and an image obtained by applying the processes of Expressions 1 to 3 to the background obtained in S102 or S105. It is realized by taking.

比は2枚の画像の除算で計算されるが、スケール変換をとる処理、及び1未満の箇所は逆数をとる処理を加える。さらに、膨張処理、周辺画素の和をとる処理などの強調処理を加えてもよい。   The ratio is calculated by dividing the two images, but a process of taking a scale conversion and a process of taking the reciprocal of a part less than 1 are added. Furthermore, an emphasis process such as an expansion process or a process of taking the sum of surrounding pixels may be added.

また、予め決めた閾値処理により差の有無を2値画像としてもよい。   Further, the presence or absence of a difference may be converted into a binary image by a predetermined threshold process.

以上が、対数微分による差分方法の原理である。   The above is the principle of the difference method by logarithmic differentiation.

相関ベースの差分方法は、画像中の注目画素の周囲n×n画素の領域の画素値について2枚の画像IとI’の正規化相互相関と、正規化2乗差分の2種類の相関値を用いた重み付き和で計算される。重みはn×n画素の領域の標準偏差に応じた値を用いる。但し、nは予め決めた任意の整数である。   The correlation-based difference method uses two kinds of correlation values, that is, a normalized cross-correlation between two images I and I ′ and a normalized square difference for pixel values in a region of n × n pixels around the pixel of interest in the image. Calculated as a weighted sum using. As the weight, a value corresponding to the standard deviation of the area of n × n pixels is used. However, n is an arbitrary integer determined in advance.

正規化相互相関Aは次式により求められる。   Normalized cross-correlation A is obtained by the following equation.

正規化2乗差分Bは次式により求められる。   The normalized square difference B is obtained by the following equation.

前記正規化相互相関Aと正規化2乗差分Bの重み付き和Dは次式で計算される。   The weighted sum D of the normalized cross-correlation A and the normalized square difference B is calculated by the following equation.

D=αA+(1−α)B
αはInの標準偏差とIの標準偏差の平均値に応じてあらかじめ決めた0〜1の範囲の定数である。
D = αA + (1-α) B
α is a constant in the range of 0 to 1 decided in advance according to the average value of the standard deviation of the standard deviation and I of I n.

例えば標準偏差が20以上ならα=0.8、20未満であればα=0.6などのように決めておくことができる。   For example, α = 0.8 when the standard deviation is 20 or more, α = 0.6 when the standard deviation is less than 20, and the like.

n×n画素の領域の決め方については、全画素について画素周囲のn×n画素を用いてもよいし、注目画素を選択し、選択された注目画素のみの計算としてもよい。   Regarding the method of determining the n × n pixel region, the n × n pixels around the pixels may be used for all the pixels, or the target pixel may be selected and only the selected target pixel may be calculated.

また、予め決めた閾値処理により前記Dに応じて2値化してもよい。例えば、所定の閾値thを用いて、D≦thの場合は前景とし、D>thの場合は背景とする閾値処理が例として挙げられる。   Further, binarization may be performed according to D by a predetermined threshold process. For example, threshold processing using a predetermined threshold th as a foreground when D ≦ th and as a background when D> th is given as an example.

静止箇所評価部4はS104の静止箇所評価ステップを実行する。S104ではS103の前景箇所抽出ステップで計算された前景箇所を評価し、静止領域として検出するかどうか判定する。具体的には、前景箇所を時系列に見て継続して前景箇所として算出された時間をカウントアップし、カウントが予め定めた静止判定閾値以上になった箇所を静止領域として判定する。ここで、さらに収縮処理、膨張処理、ラベリング処理などを用いてノイズ除去や、領域のクラスタリングを行ってもよい。   The stationary part evaluation part 4 performs the stationary part evaluation step of S104. In S104, the foreground location calculated in the foreground location extraction step in S103 is evaluated to determine whether or not to detect as a still region. Specifically, the time calculated as the foreground portion is continuously counted while looking at the foreground portion in time series, and a portion where the count is equal to or greater than a predetermined stillness determination threshold is determined as a still region. Here, noise removal and area clustering may be performed using shrinkage processing, expansion processing, labeling processing, and the like.

逐次背景更新部5はS105の逐次背景更新ステップを実行する。S105ではS101の入力画像取得ステップで取得された画像と既に作成されている背景を用いて新しい背景モデルを作成する。更新箇所は、S103の前景箇所抽出ステップにて背景として計算された背景領域、及びS104の静止箇所評価ステップで計算された静止領域として判定された領域である。背景モデルの更新は、該背景領域、及び該静止領域を非特許文献3に記載の正規分布を用いた背景差分法の方法を用いて計算することによって行われる。   The sequential background update unit 5 executes the sequential background update step of S105. In S105, a new background model is created using the image obtained in the input image obtaining step in S101 and the background already created. The update location is the background region calculated as the background in the foreground location extraction step in S103 and the region determined as the still region calculated in the static location evaluation step in S104. The background model is updated by calculating the background region and the static region using a background difference method using a normal distribution described in Non-Patent Document 3.

具体的には先に説明したS102での背景画像M’と閾値画像T’の下記の計算方法に基づき該背景領域、及び該静止領域についてのみ計算される。   Specifically, only the background area and the still area are calculated based on the following calculation method of the background image M ′ and the threshold image T ′ in S102 described above.

M’(x,y)=(1−α)×M(x,y)+α×I(x,y)
T’(x,y)=(1−α)×T(x,y)+α×D(x,y)
以上により一定時間静止した領域の検出が可能となる。
M ′ (x, y) = (1−α) × M (x, y) + α × I (x, y)
T ′ (x, y) = (1−α) × T (x, y) + α × D (x, y)
As described above, it is possible to detect an area that is stationary for a certain period of time.

また、これを画像中の特定の注目領域内への物体の侵入を検出する領域内侵入検出として用いることもできる。領域内侵入検出として用いる場合は、入力画像取得時に注目領域を切り取るか、もしくは静止箇所評価結果について注目領域内の判断結果のみを用いるかして判定する。また、前記静止判定閾値の値を小さい値にすれば、領域内へ侵入した物体を即座に検出することも可能である。   This can also be used as intrusion detection for detecting an intrusion of an object into a specific region of interest in the image. When used as intrusion detection in an area, the determination is made by cutting out the attention area when acquiring the input image or by using only the determination result in the attention area for the stationary part evaluation result. If the stillness determination threshold value is set to a small value, it is possible to immediately detect an object that has entered the area.

図2は静止領域検出装置10のより具体的なシステム構成を例示したブロック図である。   FIG. 2 is a block diagram illustrating a more specific system configuration of the still region detection apparatus 10.

静止領域検出装置10の前景箇所抽出部3は図2に示されたような機能ブロック31〜37,41〜47を備える。機能ブロック31〜37,41〜47に係る処理は先に説明したハードウェア資源とインストール済みのソフトウェアとの協働によって実現できる。尚、背景保持部31及び背景候補保持部45はコンピュータのメモリまたはハードディスクなどの記憶機能を有する装置によって構成すればよい。   The foreground location extraction unit 3 of the still region detection apparatus 10 includes functional blocks 31 to 37 and 41 to 47 as shown in FIG. The processing related to the function blocks 31 to 37 and 41 to 47 can be realized by the cooperation of the hardware resources described above and the installed software. The background holding unit 31 and the background candidate holding unit 45 may be configured by a device having a storage function such as a computer memory or a hard disk.

図2を参照しながら静止領域検出装置10による静止領域検出の手順(S201〜S220)について説明する。   The procedure (S201 to S220) of still region detection by the still region detection apparatus 10 will be described with reference to FIG.

S201:画像入力装置11から撮像または蓄積した映像が出力される。画像入力装置11としてはカメラ等の撮像装置、DVR、VTR等の映像蓄積装置、または映像配信装置等が例示される。   S201: An image captured or accumulated from the image input device 11 is output. Examples of the image input device 11 include an imaging device such as a camera, a video storage device such as a DVR or VTR, or a video distribution device.

S202:入力画像取得処理部1は、S201の過程で画像入力装置11から出力された映像を取得して初期背景作成処理部2、現画像−背景差分処理部32、対数微分現画像−背景差分処理部41へ配信する。   S202: The input image acquisition processing unit 1 acquires the video output from the image input device 11 in the process of S201, and the initial background creation processing unit 2, the current image-background difference processing unit 32, the logarithmic differential current image-background difference. Delivered to the processing unit 41.

S203:初期背景作成処理部2は、S202の過程で入力画像取得処理部1から取得した複数枚の画像を用いて、前述の非特許文献3に記載の正規分布を用いた背景差分法の方法により、背景モデルを作成する。   S203: The initial background creation processing unit 2 uses the plurality of images acquired from the input image acquisition processing unit 1 in the process of S202, and the background difference method using the normal distribution described in Non-Patent Document 3 above. To create a background model.

S204:背景保持部31は、S203で作成された背景モデル、若しくはS216(背景更新処理部46)、若しくはS218(逐次背景更新処理部5)で更新された背景モデルを記憶領域に保持する。   S204: The background holding unit 31 holds the background model created in S203, or the background model updated in S216 (background update processing unit 46) or S218 (sequential background update processing unit 5) in the storage area.

S205:現画像−背景差分処理部32は、S202の過程で取得した画像と背景保持部31から取得した背景モデルとを用いて、前述の非特許文献3に記載の正規分布を用いた背景差分法の方法によって差分計算を行い、差分画像を出力する。   S205: The current image-background difference processing unit 32 uses the image acquired in the process of S202 and the background model acquired from the background holding unit 31 to use the background difference using the normal distribution described in Non-Patent Document 3 described above. The difference calculation is performed by the method of the method, and the difference image is output.

S206:前景/背景マスク作成処理部33は、S205で計算された差分画像から、前述の非特許文献3に記載の正規分布を用いた背景差分法の方法に基づき前景領域マスク画像及び背景領域マスク画像を作成する。   S206: The foreground / background mask creation processing unit 33 calculates the foreground area mask image and the background area mask from the difference image calculated in S205 based on the background difference method using the normal distribution described in Non-Patent Document 3 described above. Create an image.

S207:現画像−背景候補差分処理部34は、前述の非特許文献3に記載の正規分布を用いた背景差分法の方法に基づきS202の過程で取得した画像と背景候補保持部45から取得した背景候補画像との差分計算を行い、差分画像を出力する。   S207: The current image-background candidate difference processing unit 34 is acquired from the image acquired in the process of S202 and the background candidate holding unit 45 based on the background difference method using the normal distribution described in Non-Patent Document 3 described above. Difference calculation with the background candidate image is performed, and the difference image is output.

S208:静止候補マスク作成処理部35は、S207で計算された差分画像から前述の非特許文献3に記載の正規分布を用いた背景差分法の方法に基づき静止候補領域マスク画像を作成する。   S208: The still candidate mask creation processing unit 35 creates a still candidate area mask image from the difference image calculated in S207 based on the background difference method using the normal distribution described in Non-Patent Document 3 described above.

S209:静止時間評価処理部36は、S206で計算された前景領域マスク画像とS208で計算された静止候補領域マスク画像を用いて前述の非特許文献3に記載の正規分布を用いた背景差分法の方法に基づき静止箇所の静止時間を評価し静止時間カウント画像を作成する。   S209: The still time evaluation processing unit 36 uses the foreground area mask image calculated in S206 and the still candidate area mask image calculated in S208 to use the background subtraction method using the normal distribution described in Non-Patent Document 3 described above. Based on the above method, the stationary time of the stationary part is evaluated and a stationary time count image is created.

S210:静止箇所マスク作成処理部36は、S209で作成された静止時間カウント画像から前述の非特許文献3に記載の正規分布を用いた背景差分法の方法に基づき静止領域マスク画像を作成する。   S210: The still part mask creation processing unit 36 creates a still area mask image from the still time count image created in S209 based on the background difference method using the normal distribution described in Non-Patent Document 3 described above.

S211:対数微分現画像−背景差分処理部41は、S202(入力画像取得処理部1)で取得された画像と背景保持部31から取得した背景モデルを用いて、前記対数微分による差分方法の原理に基づき差分計算を行い、差分画像を出力する。   S211: Logarithmic differential current image-background difference processing unit 41 uses the image acquired in S202 (input image acquisition processing unit 1) and the background model acquired from the background holding unit 31, and the principle of the difference method based on the logarithmic differentiation. The difference calculation is performed based on the above and a difference image is output.

S212:対数微分前景マスク作成処理部42は、S211で計算された差分画像に対して予め決めた閾値に基づく閾値処理を行い対数微分による前景領域マスク画像を計算する。   S212: The logarithmic differential foreground mask creation processing unit 42 performs threshold processing based on a predetermined threshold for the difference image calculated in S211 and calculates a foreground area mask image by logarithmic differentiation.

S213:対数微分静止時間評価処理部43は、S212で求めた対数微分による前景領域マスク画像についてマスク領域を時系列に計数することで静止時間を評価し、対数微分による静止時間カウント画像を作成する。   S213: The logarithmic differential still time evaluation processing unit 43 evaluates the still time by counting the mask areas in time series for the foreground area mask image obtained by the logarithmic differentiation obtained in S212, and creates a still time count image by logarithmic differentiation. .

S214:対数微分静止箇所マスク作成処理部44は、S213で作成された対数微分による静止時間カウント画像に対して予め決めた閾値に基づく閾値処理を行い対数微分による静止領域マスク画像を作成する。   S214: The logarithmic differential stationary part mask creation processing unit 44 performs threshold processing based on a predetermined threshold for the still time count image by logarithmic differentiation created in S213, and creates a static region mask image by logarithmic differentiation.

S215:背景候補保持部45は、背景候補更新処理部47によるS217の過程で作成された背景候補モデルを記憶領域に保持する。   S215: The background candidate holding unit 45 holds the background candidate model created in the process of S217 by the background candidate update processing unit 47 in the storage area.

S216:背景更新処理部46は、S202の過程で取得した画像とS206の過程で計算された背景領域マスク画像とを用いて、背景モデルを前述の非特許文献3に記載の正規分布を用いた背景差分法の方法に基づき更新する。   S216: The background update processing unit 46 uses the normal distribution described in Non-Patent Document 3 described above for the background model using the image acquired in the process of S202 and the background region mask image calculated in the process of S206. Update based on the background subtraction method.

S217:背景候補更新処理部47は、S202の過程で取得した画像とS208の過程で計算された背景候補領域マスク画像とを用いて、背景候補モデルを前記非特許文献3に記載の正規分布を用いた背景差分法の方法に基づき更新する。   S217: The background candidate update processing unit 47 uses the image acquired in the process of S202 and the background candidate area mask image calculated in the process of S208 to convert the background candidate model into the normal distribution described in Non-Patent Document 3. Update based on the background subtraction method used.

S218:逐次背景更新処理部5は、静止箇所評価処理部4によるS219の過程で静止領域として判定された領域について前述の非特許文献3に記載の正規分布を用いた背景差分法の方法に基づき背景モデルと背景候補モデルとを更新する。更新された背景モデルは背景保持部31(S204)に出力される。一方、更新された背景候補モデルは背景候補保持部45(S215)に出力される。   S218: The sequential background update processing unit 5 is based on the method of the background difference method using the normal distribution described in Non-Patent Document 3 described above for the region determined as the still region in the process of S219 by the stationary part evaluation processing unit 4. The background model and the background candidate model are updated. The updated background model is output to the background holding unit 31 (S204). On the other hand, the updated background candidate model is output to the background candidate holding unit 45 (S215).

S219:静止箇所評価処理部4は、S210の過程で作成した静止領域マスク画像とS214の過程で作成した対数微分による静止領域マスク画像との論理積をとることで静止領域を確定する。この過程においては収縮処理、膨張処理、ラベリング処理などを用いてノイズ除去や、領域のクラスタリングを組み合わせてもよい。   S219: The still part evaluation processing unit 4 determines the still area by taking the logical product of the still area mask image created in the process of S210 and the still area mask image by the logarithmic differentiation created in the process of S214. In this process, noise removal or region clustering may be combined using shrinkage processing, expansion processing, labeling processing, or the like.

S220:S219の過程で得られた静止領域の位置、サイズ、領域、検出時刻などの情報が外部に出力される。具体的には静止領域検出装置10に付帯されたディスプレイ等の提示装置によって前記情報が提示される。また、前記情報は、静止領域検出装置10の内部または外部に具備された記録装置(ハードディスクなどの記録媒体)に格納されたデータベースに記録されるか、または遠隔地への警報などの情報としてネットワークを介して外部に送信される。   S220: Information such as the position, size, area, and detection time of the still area obtained in the process of S219 is output to the outside. Specifically, the information is presented by a presentation device such as a display attached to the still region detection device 10. Further, the information is recorded in a database stored in a recording device (recording medium such as a hard disk) provided inside or outside the static area detecting device 10, or is networked as information such as a warning to a remote place. It is transmitted to the outside via.

S211〜S214の処理は図3に例示された相関ベースの方法を適用した機能ブロック51〜57によって各々実行されるS301〜S304の処理に代えてもよい。図3に示された機能ブロック51〜54に係る処理は先に説明したハードウェア資源とインストール済みのソフトウェアとの協働によって実現できる。   The processing of S211 to S214 may be replaced with the processing of S301 to S304 respectively executed by the function blocks 51 to 57 to which the correlation-based method illustrated in FIG. 3 is applied. The processing according to the function blocks 51 to 54 shown in FIG. 3 can be realized by the cooperation of the hardware resources described above and the installed software.

S301:相関ベース現画像−背景差分処理部51は、S202の過程で取得した画像とS204の取得した背景モデルを用いて相関ベースの差分方法の原理に基づき差分計算によって差分画像を出力する。   S301: Correlation-based current image-background difference processing unit 51 outputs a difference image by difference calculation based on the principle of the correlation-based difference method using the image acquired in the process of S202 and the background model acquired in S204.

S302:相関ベース前景マスク作成処理部52は、S301の過程で計算された差分画像に対して予め決めた閾値に基づく閾値処理を行い相関ベースの前景領域マスク画像を計算する。   S302: The correlation-based foreground mask creation processing unit 52 performs threshold processing based on a predetermined threshold for the difference image calculated in the process of S301, and calculates a correlation-based foreground region mask image.

S303:相関ベース静止時間評価処理部53は、S302の過程で作成された相関ベースの前景領域マスク画像についてマスク領域を時系列に計数することにより静止時間を評価し、相関ベースの静止時間カウント画像を作成する。   S303: The correlation-based still-time evaluation processing unit 53 evaluates the still-time by counting the mask regions in time series for the correlation-based foreground region mask image created in the process of S302, and the correlation-based still-time count image Create

S304:相関ベース静止箇所マスク作成処理部54は、S303の過程で作成された相関ベースの静止時間カウント画像に対して予め決めた閾値に基づく閾値処理を行い相関ベースの静止領域マスク画像を作成する。   S304: The correlation-based still part mask creation processing unit 54 performs threshold processing based on a predetermined threshold for the correlation-based still time count image created in the process of S303 to create a correlation-based still region mask image. .

図4〜図7は、非特許文献3に記載の正規分布を用いた背景差分法の方法、及び本発明に係る方法において、静止領域(背景ではなく、前景が一定時間静止した領域)の出現のない窓際の映像24時間分について、30秒静止した箇所を静止領域として判断し、40秒静止した箇所を背景に同化するようにして処理した結果を示す。   4 to 7 show the appearance of a stationary region (a region where the foreground is stationary for a certain time, not the background) in the background difference method using the normal distribution described in Non-Patent Document 3 and the method according to the present invention. The result of processing for 24 hours of video without a window is determined by determining a portion that has been stationary for 30 seconds as a stationary region and assimilating the portion that has been stationary for 40 seconds into the background.

図4はQVGAで、およそ10fpsで撮影した0時から24時までの一日分の映像の一部のフレームを例示する。   FIG. 4 exemplifies a part of a frame of a video for one day from 0 o'clock to 24 o'clock taken with QVGA at about 10 fps.

図5及び図6は背景差分方法を用いて図4の画像を処理した結果を示した特性図である。縦軸は画像全体における静止領域として判断された領域の総ピクセル数であり、縦軸は時間軸である。   5 and 6 are characteristic diagrams showing the results of processing the image of FIG. 4 using the background difference method. The vertical axis is the total number of pixels in the area determined as a still area in the entire image, and the vertical axis is the time axis.

図5は非特許文献3に記載の正規分布を用いた背景差分法の方法のみを用いて図4の画像を処理した結果を示した特性図である。   FIG. 5 is a characteristic diagram showing the result of processing the image of FIG. 4 using only the background difference method using the normal distribution described in Non-Patent Document 3.

図6は発明に係る静止領域検出装置10において対数微分による差分方法を適用して図4の画像を処理した結果を示した特性図である。   FIG. 6 is a characteristic diagram showing a result of processing the image of FIG. 4 by applying a difference method by logarithmic differentiation in the still region detection apparatus 10 according to the invention.

図7は発明に係る静止領域検出装置10において相関ベースの差分方法を適用して図4の画像を処理した結果を示した特性図である。ここで、相関ベースの差分は、画像を32×24の領域に分割し、10×10の注目領域とする間引き計算を行っている。   FIG. 7 is a characteristic diagram showing a result of processing the image of FIG. 4 by applying the correlation-based difference method in the still region detection apparatus 10 according to the invention. Here, the correlation-based difference is calculated by dividing the image into 32 × 24 regions and using the 10 × 10 region of interest.

使用した映像は日照変動の様子のみを撮影した映像で、物体の遮りや、置き去り/持ち去りなどは映っていないものであるので、理想的には全フレームを背景として検出することが望ましい。静止領域として検出した画素とは、すなわち、日照変動を背景ではなく静止領域が出現したとして誤検出した画素であり、誤検出した画素数を示す図5〜図7によって、各方法の優劣の比較ができる。   Since the used video is a video of only the state of sunshine fluctuations and does not show any object blocking or leaving / taking away, ideally it is desirable to detect all frames as the background. A pixel detected as a still region is a pixel that is erroneously detected as a stationary region appears instead of a background as a result of sunshine fluctuation. Comparison of superiority and inferiority of each method is shown in FIGS. 5 to 7 showing the number of erroneously detected pixels. Can do.

図5の特性図からわかるように、非特許文献3に記載の正規分布を用いた背景差分法の方法のみを用いた場合は、日照変動などによる一時的な変化ではない変動が静止領域として誤検出される。   As can be seen from the characteristic diagram of FIG. 5, when only the background difference method using the normal distribution described in Non-Patent Document 3 is used, fluctuations that are not temporary changes due to sunshine fluctuations or the like are mistakenly regarded as still areas. Detected.

図6,図7の特性図と図5の特性図との比較から明らかなように本発明に係る静止領域検出装置10によれば日照変動による誤検出を大幅に抑制できていることがわかる。   As is apparent from the comparison between the characteristic diagrams of FIGS. 6 and 7 and the characteristic diagram of FIG. 5, it can be seen that the stationary region detection apparatus 10 according to the present invention can greatly suppress erroneous detection due to sunshine fluctuations.

図8〜図11は本発明においてQVGA、20fpsのある映像を30秒静止した箇所を静止領域として判断し、40秒静止した箇所を背景に同化するようにして処理した結果である。図8に用いた映像を示す。ここで映像は撮影開始後7秒後に静止領域の置き去りがあり、2分後に持ち去りが発生し、静止領域の前を人が何度も往来する映像であり、背景のブラインドは風で揺らいでおり、撮影時刻は日没時である。カメラは安価なネットワークカメラを用いており、AGC、AWBが適用されている。   FIG. 8 to FIG. 11 show the results of processing according to the present invention by determining a place where an image with QVGA and 20 fps is stationary for 30 seconds as a still area and assimilating the place where the image is stationary for 40 seconds with the background. FIG. 8 shows the video used. Here, the video is a video where the still area is left 7 seconds after the start of shooting, and the take-out occurs 2 minutes later, and the person goes back and forth in front of the static area, and the background blinds are shaken by the wind. The shooting time is at sunset. An inexpensive network camera is used as the camera, and AGC and AWB are applied.

図9は非特許文献3に記載の背景のリアルタイム更新の方法で処理した結果を示した特性図及び画像である。   FIG. 9 is a characteristic diagram and an image showing the result of processing by the background real-time update method described in Non-Patent Document 3.

図10は発明に係る静止領域検出装置10において対数微分による差分方法を用いた場合の処理結果を示した特性図及び画像である。   FIG. 10 is a characteristic diagram and an image showing a processing result when the difference method based on logarithmic differentiation is used in the still region detection apparatus 10 according to the invention.

図11は発明に係る静止領域検出装置10において相関ベースの差分方法を用いた場合の処理結果を示した特性図及び画像である。   FIG. 11 is a characteristic diagram and an image showing a processing result when the correlation-based difference method is used in the still region detection apparatus 10 according to the invention.

図9〜図11では、静止領域が置かれた付近を正解エリアマスクとして、マスク内で検出された静止領域として判断された領域の総ピクセル数が正解値、マスク外で検出された静止領域として判断された領域の総ピクセル数が不正解値としてプロットされている。   9 to 11, the vicinity where the still area is placed is used as a correct area mask, and the total number of pixels of the area determined as the still area detected in the mask is the correct value, and the still area detected outside the mask is used. The total number of pixels in the determined area is plotted as an incorrect answer value.

図9の特性図から明らかなように非特許文献3に係る背景のリアルタイム更新方法で処理した場合には若干の不正解領域(Wrong)が発生しているが、図10及び図11に示されたように本発明に係る静止領域検出方法を用いた場合は、誤検出なく静止領域のみを検出できていることがわかる。   As is apparent from the characteristic diagram of FIG. 9, when processing is performed by the background real-time update method according to Non-Patent Document 3, a slightly incorrect answer area (Wong) is generated, which is shown in FIGS. As described above, it can be seen that when the still area detection method according to the present invention is used, only a still area can be detected without erroneous detection.

従来の静止領域検出方法では、照明環境の変化、移動領域の一時的な遮り、定常ノイズ、カメラのAGC、AWB、撮像素子のノイズなど複数の外乱の影響により誤検出が発生しやすいが、上述の説明から明らかなように発明の実施形態に係る静止領域検出装置10によればこれらの様々な外乱要因のある条件においてロバストに静止領域の検出が可能となる。   In the conventional still area detection method, erroneous detection is likely to occur due to the influence of a plurality of disturbances such as a change in illumination environment, temporary blocking of a moving area, stationary noise, camera AGC, AWB, and image sensor noise. As is clear from the above description, according to the still region detection apparatus 10 according to the embodiment of the present invention, it is possible to robustly detect a still region under conditions with these various disturbance factors.

尚、本発明は、上述の実施形態に限定されるものでなく、静止領域検出装置10を構成する各機能ブロック1〜5,31〜37,41〜47,51〜54に係る処理としてコンピュータを機能させるプログラムの態様としてもよい。前記プログラムはコンピュータ読み取り可能な既知の記録媒体に格納して提供またはネットワークを通じて提供することもできる。   In addition, this invention is not limited to the above-mentioned embodiment, A computer is used as the process which concerns on each functional block 1-5, 31-37, 41-47, 51-54 which comprises the still region detection apparatus 10. FIG. It is good also as a mode of the program to function. The program may be provided by being stored in a computer-readable recording medium or provided through a network.

発明の実施形態に係る静止領域検出装置の概略構成を示したブロック図。1 is a block diagram showing a schematic configuration of a still area detection device according to an embodiment of the invention. 発明の実施形態に係る前景箇所抽出部の具体的なシステム構成を示したブロック図。The block diagram which showed the specific system configuration | structure of the foreground location extraction part which concerns on embodiment of invention. 発明の実施形態に係る前景箇所抽出部に適用される相関ベースの差分法を実行するシステム構成を示したブロック図。The block diagram which showed the system configuration | structure which performs the correlation based difference method applied to the foreground location extraction part which concerns on embodiment of invention. QVGAで、およそ10fpsで撮影した0時から24時までの一日分の映像を一部のフレームを時系列的に例示した図。The figure which illustrated the one day image | video from 0 o'clock to 24 o'clock image | photographed by QVGA at about 10 fps in the time series. 非特許文献3に記載の正規分布を用いた背景差分法の方法のみを用いて図4の画像を処理した結果を示す特性図。FIG. 5 is a characteristic diagram showing a result of processing the image of FIG. 4 using only the background difference method using the normal distribution described in Non-Patent Document 3. 発明の実施形態に係る静止領域検出装置において対数微分による差分方法を適用して図4の画像を処理した結果を示す特性図。The characteristic view which shows the result of having processed the image of FIG. 4 by applying the difference method by logarithmic differentiation in the still area detection apparatus which concerns on embodiment of invention. 発明の実施形態に係る静止領域検出装置において相関ベースの差分方法を適用して図4の画像を処理した結果を示す特性図。The characteristic view which shows the result of having processed the image of FIG. 4 by applying the correlation-based difference method in the still region detection apparatus according to the embodiment of the invention. 撮影開始後7秒後に静止領域の置き去りがあり、2分後に持ち去りが発生するときの映像及び正解エリアマスクを表示した画像。An image displaying a video and a correct area mask when a still area is left 7 seconds after the start of shooting and the removal occurs after 2 minutes. 非特許文献3に記載の背景のリアルタイム更新の方法で処理した結果を示した特性図及び画像。The characteristic view and image which showed the result processed by the method of the real-time update of the background of a nonpatent literature 3. 発明の実施形態に係る静止領域検出装置において対数微分による差分方法を用いた場合の処理結果を示した特性図及び画像。The characteristic view and image which showed the processing result at the time of using the difference method by logarithmic differentiation in the still region detection apparatus which concerns on embodiment of invention. 発明の実施形態に係る静止領域検出装置において相関ベースの差分方法を用いた場合の処理結果を示した特性図及び画像。The characteristic view and image which showed the processing result at the time of using the correlation based difference method in the static region detection apparatus which concerns on embodiment of invention.

符号の説明Explanation of symbols

1…入力画像取得処理部
2…初期背景作成処理部(初期背景作成手段)
3…前景箇所抽出部(前景箇所抽出手段)
4…静止箇所評価部(静止箇所評価手段)
5…逐次背景更新部(逐次背景更新手段)
10…静止領域検出装置
41…対数微分現画像−背景差分処理部
42…対数微分前景マスク作成処理部
43…対数微分静止時間評価処理部
44…対数微分静止箇所マスク作成処理部
51…相関ベース現画像−背景差分処理部
52…相関ベース前景マスク作成処理部
53…相関ベース静止時間評価処理部
54…相関ベース静止箇所マスク作成処理部
DESCRIPTION OF SYMBOLS 1 ... Input image acquisition process part 2 ... Initial background creation process part (initial background creation means)
3. Foreground location extraction unit (foreground location extraction means)
4 ... Stationary part evaluation part (stationary part evaluation means)
5 ... Sequential background update unit (sequential background update means)
DESCRIPTION OF SYMBOLS 10 ... Static region detection apparatus 41 ... Logarithmic differential current image-background difference processing part 42 ... Logarithmic differential foreground mask creation processing part 43 ... Logarithmic differential still time evaluation processing part 44 ... Logarithmic differential static part mask creation processing part 51 ... Correlation base present Image-background difference processing unit 52 ... correlation-based foreground mask creation processing unit 53 ... correlation-based still time evaluation processing unit 54 ... correlation-based still location mask creation processing unit

Claims (10)

画像から静止領域を検出する静止領域検出方法であって、
初期背景作成手段が画像入力装置から取得された画像を用いて背景画像と各画素値が静止判定閾値である閾値画像とから成る背景モデルを作成する初期背景作成手順と、
前景箇所抽出手段が前記取得された画像と前記作成された背景モデルとを背景差分演算により比較して前景領域を抽出する前景箇所抽出手順と、
静止箇所評価手段が前記抽出された前景領域が前景として継続的に現れた回数をカウントして得た静止時間が予め定めた静止判定閾値以上になった箇所を静止領域として判断する静止箇所評価手順と、
逐次背景更新手段が、前記取得された画像と前記作成された背景モデルを用いて、前記前景箇所抽出手順で前景と判断されなかった領域と前記静止箇所評価手順で静止領域と判断された領域について新たな背景モデルを作成する逐次背景更新手順と
を有し、
前記初期背景作成手順は、
前記画像入力装置から取得された複数の画像を用いて加重平均画像を計算することで前記背景画像を作成する手順と、
定常的な揺らぎを正規分布によってモデル化することで前記閾値画像を作成する手順と
を有し、
前記前景箇所抽出手順は、
前記画像入力装置から取得された画像と前記作成された背景画像との差分計算を前記閾値画像に基づき行うことで前景を算出する背景差分手順と、
前記画像入力装置から取得された画像と前記作成された背景画像に基づく指標値を計算することで前記両者の画像を比較する差分計算によって前景を算出する指標値計算差分手順と、
前記背景差分手順で算出した前景と前記指標値計算差分手順で算出した前景の論理積を計算することにより前景領域を算出する前景判定手順と
を有すること
を特徴とする静止領域検出方法。
A still region detection method for detecting a still region from an image,
An initial background creation procedure for creating a background model composed of a background image and a threshold image in which each pixel value is a stillness determination threshold using an image acquired by the initial background creation means from the image input device;
A foreground location extraction procedure in which a foreground location extraction means compares the acquired image and the created background model by background difference calculation to extract a foreground region;
A stationary part evaluation procedure in which a stationary part evaluation unit determines a part where a stationary time obtained by counting the number of times the extracted foreground area has continuously appeared as a foreground is equal to or greater than a predetermined stationary judgment threshold as a stationary area. When,
The sequential background update means uses the acquired image and the created background model to determine a region that is not determined to be a foreground by the foreground location extraction procedure and a region that is determined to be a static region by the still location evaluation procedure. A sequential background update procedure for creating a new background model,
The initial background creation procedure includes:
Creating the background image by calculating a weighted average image using a plurality of images acquired from the image input device; and
Creating a threshold image by modeling steady fluctuations with a normal distribution;
The foreground location extraction procedure includes:
A background difference procedure for calculating a foreground by performing a difference calculation between an image acquired from the image input device and the created background image based on the threshold image;
An index value calculation difference procedure for calculating a foreground by calculating a difference between the image acquired from the image input device and the created background image and comparing the images of the both;
A still region detection method comprising: a foreground determination procedure for calculating a foreground region by calculating a logical product of a foreground calculated by the background difference procedure and a foreground calculated by the index value calculation difference procedure.
前記指標値計算差分手順では、前記画像入力装置から取得した画像と前記初期背景作成手順で作成した背景画像の対数微分画像の比を前記指標値として計算すること
を特徴とする請求項1に記載の静止領域検出方法。
The index value calculation difference procedure calculates a ratio of a logarithmic differential image of an image acquired from the image input device and a background image created by the initial background creation procedure as the index value. Stationary area detection method.
前記指標値計算差分手順では、前記画像入力装置から取得した画像と前記初期背景作成手順で作成した背景画像の注目画素周辺の領域について正規化相互相関と正規化2乗差を計算し、前記注目領域周辺の領域における画素値の偏差に基づく重みに従って前記正規化相互相関の値と前記正規化2乗差の値の重み付き和を前記指標値として計算すること
を特徴とする請求項1に記載の静止領域検出方法。
In the index value calculation difference procedure, a normalized cross-correlation and a normalized square difference are calculated for a region around the target pixel of the image acquired from the image input device and the background image generated in the initial background generation procedure, The weighted sum of the normalized cross-correlation value and the normalized square difference value is calculated as the index value according to a weight based on a deviation of pixel values in a region around the region. Stationary area detection method.
前記静止箇所評価手順は、
前記画像入力装置から取得される画像における予め定められた注目領域内の静止領域の判定結果に基づき前記注目領域内への物体の侵入を検出する手順をさらに有すること
を特徴とする請求項1から3のいずれか1項に記載の静止領域検出方法。
The stationary part evaluation procedure is:
2. The method according to claim 1, further comprising a step of detecting an intrusion of an object into the attention area based on a determination result of a still area within a predetermined attention area in an image acquired from the image input device. 4. The method for detecting a still area according to any one of 3 above.
画像から静止領域を検出する静止領域検出装置であって、
画像入力装置から取得された画像を用いて、背景画像と各画素値が静止判定閾値である閾値画像とから成る背景モデルを作成する初期背景作成手段と、
前記画像入力装置から取得された画像と前記作成された背景モデルとを背景差分演算により比較して前景領域を抽出する前景箇所抽出手段と、
前記抽出された前景領域が前景として継続的に現れた回数をカウントして得た静止時間が予め定めた静止判定閾値以上になった箇所を静止領域として判断する静止箇所評価手段と、
前記取得された画像と前記作成された背景モデルを用いて、前記前景箇所抽出手順で前景と判断されなかった領域と前記静止箇所評価手順で静止領域と判断された領域について新たな背景モデルを作成する逐次背景更新手段と
を有し、
前記初期背景作成手段は、
前記画像入力装置から取得された複数の画像を用いて加重平均画像を計算することで前記背景画像を作成する手段と、
定常的な揺らぎを正規分布によってモデル化することで前記閾値画像を作成する手段と
を有し、
前記前景箇所抽出手段は、
前記画像入力装置から取得された画像と前記作成された背景画像との差分計算を前記閾値画像に基づき行うことで前景を算出する背景差分手段と、
前記画像入力装置から取得された画像と前記作成された背景画像に基づく指標値を計算することで前記両者の画像を比較する差分計算によって前景を算出する指標値計算差分手段と、
前記背景差分手段によって算出した前景と前記指標値計算差分手段によって算出した前景の論理積を計算することにより前景領域を算出する前景判定手段と
を有すること
を特徴とする静止領域検出装置。
A still area detection device for detecting a still area from an image,
Using the image acquired from the image input device, an initial background creating means for creating a background model composed of a background image and a threshold image in which each pixel value is a stillness determination threshold;
A foreground location extracting means for extracting a foreground region by comparing the image acquired from the image input device and the created background model by a background difference calculation;
A stationary part evaluation means for determining a stationary area where a stationary time obtained by counting the number of times the extracted foreground area continuously appears as a foreground is equal to or greater than a predetermined stationary determination threshold;
Using the acquired image and the created background model, a new background model is created for a region that has not been determined to be a foreground by the foreground location extraction procedure and a region that has been determined to be a static region by the still location evaluation procedure. And sequential background updating means for
The initial background creating means includes
Means for creating the background image by calculating a weighted average image using a plurality of images acquired from the image input device;
Means for creating the threshold image by modeling a steady fluctuation by a normal distribution,
The foreground location extracting means includes
Background difference means for calculating a foreground by performing a difference calculation between the image acquired from the image input device and the created background image based on the threshold image;
Index value calculation difference means for calculating a foreground by calculating a difference between the image acquired from the image input device and the created background image and comparing the images of the two;
A still area detection apparatus comprising: a foreground determination unit that calculates a foreground area by calculating a logical product of a foreground calculated by the background difference unit and a foreground calculated by the index value calculation difference unit.
前記指標値計算差分手段は、前記画像入力装置から取得した画像と前記初期背景作成手段によって作成した背景画像の対数微分画像の比を前記指標値として計算すること
を特徴とする請求項5に記載の静止領域検出装置。
6. The index value calculation difference means calculates a ratio of a logarithmic differential image of an image acquired from the image input device and a background image created by the initial background creation means as the index value. Stationary area detector.
前記指標値計算差分手段は、前記画像入力装置から取得した画像と前記初期背景作成手段によって作成した背景画像の注目画素周辺の領域について正規化相互相関と正規化2乗差を計算し、前記注目領域周辺の領域における画素値の偏差に基づく重みに従って前記正規化相互相関の値と前記正規化2乗差の値の重み付き和を前記指標値として計算すること
を特徴とする請求項5に記載の静止領域検出装置。
The index value calculation difference unit calculates a normalized cross-correlation and a normalized square difference for a region around the target pixel of the background image generated by the image acquired from the image input device and the initial background generation unit, and the target 6. The weighted sum of the normalized cross-correlation value and the normalized square difference value is calculated as the index value according to a weight based on a pixel value deviation in a region around the region. Stationary area detector.
前記静止箇所評価手段は、前記画像入力装置から取得された画像における予め定められた注目領域内の静止領域の判定結果に基づき前記注目領域内への物体の侵入を検出すること
を特徴とする請求項5から7のいずれか1項に記載の静止領域検出装置。
The stationary part evaluation means detects an intrusion of an object into the attention area based on a determination result of a stationary area within a predetermined attention area in an image acquired from the image input device. Item 8. The static region detection device according to any one of Items 5 to 7.
請求項5から8のいずれか1項に記載の静止領域検出装置を構成する各手段としてコンピュータを機能させることを特徴とするプログラム。   A program that causes a computer to function as each unit that constitutes the still area detection device according to any one of claims 5 to 8. 請求項9に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 9 is recorded.
JP2008176262A 2008-07-04 2008-07-04 Still region detection method and apparatus, program and recording medium Expired - Fee Related JP4999794B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008176262A JP4999794B2 (en) 2008-07-04 2008-07-04 Still region detection method and apparatus, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008176262A JP4999794B2 (en) 2008-07-04 2008-07-04 Still region detection method and apparatus, program and recording medium

Publications (2)

Publication Number Publication Date
JP2010015469A true JP2010015469A (en) 2010-01-21
JP4999794B2 JP4999794B2 (en) 2012-08-15

Family

ID=41701523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008176262A Expired - Fee Related JP4999794B2 (en) 2008-07-04 2008-07-04 Still region detection method and apparatus, program and recording medium

Country Status (1)

Country Link
JP (1) JP4999794B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140062881A (en) * 2012-11-15 2014-05-26 삼성테크윈 주식회사 Method and system for background substraction
US8971410B2 (en) 2010-06-18 2015-03-03 Samsung Electronics Co., Ltd. Method, apparatus and computer-readable medium processing frames obtained by multiple exposures
WO2016021147A1 (en) * 2014-08-04 2016-02-11 日本電気株式会社 Image processing system for detecting retention of moving body from image, image processing method, and recording medium
JP2018133042A (en) * 2017-02-17 2018-08-23 セコム株式会社 Left object detector
EP3483835A1 (en) 2017-11-10 2019-05-15 Fujitsu Limited Information processing apparatus, background image update method, and non-transitory computer-readable storage medium
JP2019192288A (en) * 2013-01-03 2019-10-31 クアルコム,インコーポレイテッド Rendering of augmented reality based on foreground object
CN113936060A (en) * 2021-09-23 2022-01-14 南京工业大学 Crane load swing angle measurement method under complex background
US11295454B1 (en) * 2021-04-22 2022-04-05 Shenzhen Reolink Technology Co., Ltd. Object detection method, security device, and readable storage medium
JP2022553962A (en) * 2020-06-05 2022-12-27 テンセント・アメリカ・エルエルシー Systems, coding methods, and computer programs for denoising video data

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10111944A (en) * 1996-10-04 1998-04-28 Nippon Telegr & Teleph Corp <Ntt> Background image updating method and device therefor
JP2004227527A (en) * 2003-01-27 2004-08-12 Fujitsu Ltd Image processing method, program for making computer execute it, and recording medium for recording it
JP2004241945A (en) * 2003-02-05 2004-08-26 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program for image monitoring, and recording medium where same program is recorded
JP2007108965A (en) * 2005-10-13 2007-04-26 Nippon Telegr & Teleph Corp <Ntt> Change region calculation method, change region calculation device and change region calculation program
JP2008047991A (en) * 2006-08-11 2008-02-28 Hitachi Kokusai Electric Inc Image processor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10111944A (en) * 1996-10-04 1998-04-28 Nippon Telegr & Teleph Corp <Ntt> Background image updating method and device therefor
JP2004227527A (en) * 2003-01-27 2004-08-12 Fujitsu Ltd Image processing method, program for making computer execute it, and recording medium for recording it
JP2004241945A (en) * 2003-02-05 2004-08-26 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program for image monitoring, and recording medium where same program is recorded
JP2007108965A (en) * 2005-10-13 2007-04-26 Nippon Telegr & Teleph Corp <Ntt> Change region calculation method, change region calculation device and change region calculation program
JP2008047991A (en) * 2006-08-11 2008-02-28 Hitachi Kokusai Electric Inc Image processor

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8971410B2 (en) 2010-06-18 2015-03-03 Samsung Electronics Co., Ltd. Method, apparatus and computer-readable medium processing frames obtained by multiple exposures
KR20140062881A (en) * 2012-11-15 2014-05-26 삼성테크윈 주식회사 Method and system for background substraction
KR101726690B1 (en) 2012-11-15 2017-04-13 한화테크윈 주식회사 System for background substraction
JP2019192288A (en) * 2013-01-03 2019-10-31 クアルコム,インコーポレイテッド Rendering of augmented reality based on foreground object
US10262421B2 (en) 2014-08-04 2019-04-16 Nec Corporation Image processing system for detecting stationary state of moving object from image, image processing method, and recording medium
JPWO2016021147A1 (en) * 2014-08-04 2017-05-18 日本電気株式会社 Image processing system, image processing method, and recording medium for detecting stay of moving object from image
WO2016021147A1 (en) * 2014-08-04 2016-02-11 日本電気株式会社 Image processing system for detecting retention of moving body from image, image processing method, and recording medium
US10776931B2 (en) 2014-08-04 2020-09-15 Nec Corporation Image processing system for detecting stationary state of moving object from image, image processing method, and recording medium
JP2018133042A (en) * 2017-02-17 2018-08-23 セコム株式会社 Left object detector
EP3483835A1 (en) 2017-11-10 2019-05-15 Fujitsu Limited Information processing apparatus, background image update method, and non-transitory computer-readable storage medium
US10713799B2 (en) 2017-11-10 2020-07-14 Fujitsu Limited Information processing apparatus, background image update method, and non-transitory computer-readable storage medium
JP2022553962A (en) * 2020-06-05 2022-12-27 テンセント・アメリカ・エルエルシー Systems, coding methods, and computer programs for denoising video data
JP7423130B2 (en) 2020-06-05 2024-01-29 テンセント・アメリカ・エルエルシー Systems, coding methods, and computer programs for denoising video data
US11295454B1 (en) * 2021-04-22 2022-04-05 Shenzhen Reolink Technology Co., Ltd. Object detection method, security device, and readable storage medium
CN113936060A (en) * 2021-09-23 2022-01-14 南京工业大学 Crane load swing angle measurement method under complex background

Also Published As

Publication number Publication date
JP4999794B2 (en) 2012-08-15

Similar Documents

Publication Publication Date Title
JP4999794B2 (en) Still region detection method and apparatus, program and recording medium
CN106878668B (en) Movement detection of an object
US11450114B2 (en) Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects
JP6547744B2 (en) Image processing system, image processing method and program
CN109766779B (en) Loitering person identification method and related product
JP6482195B2 (en) Image recognition apparatus, image recognition method, and program
Ha et al. Foreground objects detection using multiple difference images
CN107404628B (en) Image processing apparatus and method, and monitoring system
US20200175692A9 (en) Low-complexity motion detection based on image edges
CN103729858B (en) A kind of video monitoring system is left over the detection method of article
JP2008192131A (en) System and method for performing feature level segmentation
JP6436077B2 (en) Image processing system, image processing method, and program
EP2570992A1 (en) Image processing apparatus, image processing method, and program
JP3970877B2 (en) Tracking device and tracking method
US10373015B2 (en) System and method of detecting moving objects
JP6652051B2 (en) Detection system, detection method and program
Bang et al. Motion object and regional detection method using block-based background difference video frames
US20110280478A1 (en) Object monitoring system and method
US20160210756A1 (en) Image processing system, image processing method, and recording medium
CN114120171A (en) Fire smoke detection method, device and equipment based on video frame and storage medium
WO2018210039A1 (en) Data processing method, data processing device, and storage medium
US20200311438A1 (en) Representative image generation device and representative image generation method
CN116228712A (en) Multi-scale slope disaster monitoring method, system and device
JP6124739B2 (en) Image sensor
KR102516172B1 (en) System, Method for Extracting Color of Foreground and Computer Readable Record Medium Thereof

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100608

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120515

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees