JP2011123562A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2011123562A
JP2011123562A JP2009278786A JP2009278786A JP2011123562A JP 2011123562 A JP2011123562 A JP 2011123562A JP 2009278786 A JP2009278786 A JP 2009278786A JP 2009278786 A JP2009278786 A JP 2009278786A JP 2011123562 A JP2011123562 A JP 2011123562A
Authority
JP
Japan
Prior art keywords
fluctuation
image
difference
pixel
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009278786A
Other languages
Japanese (ja)
Inventor
Sho Ogura
翔 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009278786A priority Critical patent/JP2011123562A/en
Publication of JP2011123562A publication Critical patent/JP2011123562A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus, an image processing method and a program for surely detecting a fluctuating area from an overall picture, and for highly precisely detecting an object to be monitored. <P>SOLUTION: The image processing apparatus is provided with: a difference processing part for calculating a difference between the image data of one image and the image data of the past image photographed in the past from one image; a fluctuation detection part for calculating the time change of the difference, and for extracting a fluctuation area in a picture equivalent to a section where the fluctuation of nature has been photographed and a non-fluctuation area which is not the fluctuation area based on the periodicity of the time change; and an object detection part for detecting an object moving in the picture by changing the detecting precision according to the fluctuation area and the non-fluctuation area. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

監視カメラ等の撮像装置を用いて不審者などを監視する場合、常にモニターを注視して不審者を探すことは監視者に多大な負担をかける。そこで、監視カメラ等を使用した監視において、画像処理技術の一つである、映像内の動いている物体(以下、「動体」ともいう。)を検出する動体検知の技術が用いられる。   When a suspicious person or the like is monitored using an imaging device such as a monitoring camera, it always places a great burden on the supervisor to look at the suspicious person by looking at the monitor. Therefore, in monitoring using a monitoring camera or the like, a moving object detection technique for detecting a moving object (hereinafter also referred to as “moving object”) in an image, which is one of image processing techniques, is used.

動体検知は、映像内に動体が現れると変化する画像中の動体領域の輝度値を利用する。即ち、映像内で輝度値に差異が生じた領域を差異領域として検出することで動体の検知をする。動体検知のため画像の差異領域を検出する技術としては、(1)フレーム間差分を用いた差異検知法と、(2)背景画像を用いた背景差分法がある。   The moving object detection uses the luminance value of the moving object region in the image that changes when the moving object appears in the video. That is, a moving object is detected by detecting an area where a difference in luminance value occurs in the video as a difference area. There are (1) a difference detection method using a difference between frames and (2) a background difference method using a background image as a technique for detecting a difference area of an image for moving object detection.

フレーム間差分を用いた差異検知法では、現在の時刻に撮影された画像と、単位時間前に撮影された画像との輝度値の差分を計算することで差異を検出する。そして、輝度値に差異が生じた領域に動体が存在すると判定する。一方、背景画像を用いた背景差分法では、予め動体の映っていない画像を背景画像として記録しておく。そして、現在の時刻に撮影された画像と、背景画像を比較することで、動体領域を検知する。   In the difference detection method using the inter-frame difference, the difference is detected by calculating the difference in luminance value between the image taken at the current time and the image taken before the unit time. And it determines with a moving body existing in the area | region where the brightness value produced the difference. On the other hand, in the background subtraction method using a background image, an image in which no moving object is reflected is recorded in advance as a background image. And a moving body area | region is detected by comparing the image image | photographed at the present time with a background image.

特開2006−107457号公報JP 2006-107457 A 特開2000−322581号公報JP 2000-322581 A 特開平9−50585号公報Japanese Patent Laid-Open No. 9-50585

ところで、図13に示すように、従来の動体検知では、映像50内において、実際に監視対象としたい人54や車両等だけでなく、木のゆらぎ52や波のゆれなどの自然界に存在する外乱(ゆらぎ)も動体として検知してしまう。ゆらぎを動体として検知してしまう理由は、監視対象である人や車両等とゆらぎの違いを、1フレームの輝度変化で区別することが難しいためである。図13は、監視対象や背景などが表示された映像の一例を示す説明図である。   By the way, as shown in FIG. 13, in the conventional motion detection, in the video 50, not only a person 54 or a vehicle that is actually desired to be monitored but also disturbances existing in the natural world such as a tree fluctuation 52 and a wave fluctuation. (Fluctuation) is also detected as a moving object. The reason why the fluctuation is detected as a moving body is because it is difficult to distinguish the difference in fluctuation from the person or vehicle to be monitored by the luminance change of one frame. FIG. 13 is an explanatory diagram illustrating an example of a video on which a monitoring target, a background, and the like are displayed.

ゆらぎは、図14(A)に示すように、短時間で輝度値のゆれ戻しがあり、輝度値が周期的に移動する物体である。これに対して、背景は、図14(B)に示すように、輝度値の移動がない。また、人や車両などの検知対象は、図14(C)に示すように、輝度値が一定方向に移動する。図14は、画像内の画素又はブロックの輝度値の時間変化を示すグラフである。   As shown in FIG. 14A, the fluctuation is an object in which the luminance value fluctuates in a short time and the luminance value moves periodically. On the other hand, as shown in FIG. 14B, the background does not move the luminance value. In addition, as shown in FIG. 14C, the brightness value of a detection target such as a person or a vehicle moves in a certain direction. FIG. 14 is a graph showing temporal changes in luminance values of pixels or blocks in an image.

特許文献1では、ゆらぎと動体の判定をするため、複数の過去画像と現在画像を比較し、複数フレームにおける動体の輝度変化を算出する。しかし、上記の手法では画面全体の検知精度が一様である。そのため、ゆらぎを動体と誤検出することを抑えるために検知精度を鈍くすると、暗い領域などにおいて動体を検知できず、検知漏れが発生するという問題がある。   In Patent Document 1, in order to determine fluctuations and moving objects, a plurality of past images and a current image are compared, and a luminance change of the moving objects in a plurality of frames is calculated. However, in the above method, the detection accuracy of the entire screen is uniform. For this reason, if the detection accuracy is lowered in order to suppress erroneous detection of fluctuation as a moving object, there is a problem that a moving object cannot be detected in a dark region or the like, resulting in detection failure.

また、特許文献2では、ゆらぎを移動物体と区別するため動きのある画像領域を検出し、検出された画像領域のトラッキングを行う。そして、ゆらぎが周期的に移動することを利用して、検出された画像領域が往復移動を行っていれば移動物体ではなくゆらぎであると判断する。しかし、対象によっては精度良くトラッキングし続けることが困難であり、周期性を判断できないことがある。   In Patent Document 2, a moving image area is detected in order to distinguish fluctuation from a moving object, and the detected image area is tracked. Then, using the fact that the fluctuation is periodically moved, if the detected image area is reciprocating, it is determined that the fluctuation is not a moving object. However, depending on the target, it is difficult to keep tracking accurately, and periodicity may not be determined.

更に、特許文献3では、検知された物体の形状や速度によって、ゆらぎと動体を判別している。これは横長な動体や、設定速度よりも早い動体をゆらぎと判定するものである。しかし、ゆらぎには縦長のものや移動速度の遅いものも存在するため、除外できないゆらぎもある。   Furthermore, in Patent Document 3, fluctuations and moving objects are discriminated based on the shape and speed of the detected object. This is to determine a horizontally long moving body or a moving body faster than the set speed as a fluctuation. However, there are fluctuations that are vertically long and those that move slowly, so some fluctuations cannot be excluded.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、画面全体からゆらぎ領域を確実に検出でき、監視対象とする物体を精度良く検知することが可能な、新規かつ改良された画像処理装置、画像処理方法及びプログラムを提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to reliably detect a fluctuation region from the entire screen and to accurately detect an object to be monitored. It is another object of the present invention to provide a new and improved image processing apparatus, image processing method and program.

上記課題を解決するために、本発明のある観点によれば、一の画像の画像データと、一の画像より過去に撮影された過去画像の画像データの差分を算出する差分処理部と、差分の時間変化を算出し、時間変化の周期性に基づいて、自然界のゆらぎを撮影した部分に相当する画面内のゆらぎ領域と、ゆらぎ領域ではない非ゆらぎ領域を抽出するゆらぎ検出部と、ゆらぎ領域と非ゆらぎ領域に応じて検知精度を変化させて画面内を移動する物体を検知する物体検知部とを備える画像処理装置が提供される。   In order to solve the above-described problem, according to an aspect of the present invention, a difference processing unit that calculates a difference between image data of one image and image data of a past image captured in the past from the one image, and a difference And a fluctuation detection unit that extracts a fluctuation area in the screen corresponding to the part where the fluctuation of the natural world is photographed, a non-fluctuation area that is not a fluctuation area, and a fluctuation area based on the periodicity of the time change And an object detection unit that detects an object that moves in the screen by changing detection accuracy according to the non-fluctuation region.

上記差分処理部は、画素単位の差分を算出し、ゆらぎ検出部は、画素単位の差分の周期性を算出し、自然界のゆらぎを撮影した部分に相当するゆらぎ画素を検出するゆらぎ画素判定部と、ゆらぎ画素に対して重みづけ処理をするゆらぎ重みづけ部と、ゆらぎ画素の重みづけに応じて、画面内のゆらぎ領域と非ゆらぎ領域を抽出するゆらぎ領域判定部とを有してもよい。   The difference processing unit calculates a pixel-by-pixel difference, and the fluctuation detection unit calculates a periodicity of the pixel-by-pixel difference, and a fluctuation pixel determination unit that detects a fluctuation pixel corresponding to a portion in which a fluctuation in the natural world is photographed. A fluctuation weighting unit that performs weighting processing on the fluctuation pixels and a fluctuation area determination unit that extracts a fluctuation area and a non-fluctuation area in the screen according to the weighting of the fluctuation pixels may be included.

上記ゆらぎ画素判定部は、画素単位の画素値の差分が単位時間当たり第一の閾値以上である回数、及び画素単位の画素値の差分が単位時間当たり第一の閾値より低い第二の閾値以上である回数に基づいて、ゆらぎ画素を検出してもよい。   The fluctuation pixel determination unit includes the number of times that the difference between pixel values in pixel units is equal to or greater than a first threshold per unit time, and the second threshold that is lower than the first threshold per unit time in pixel value differences. The fluctuation pixel may be detected based on a certain number of times.

上記物体検知部は、ゆらぎ領域よりも非ゆらぎ領域において画面内を移動する物体を検知し易く設定されてもよい。   The object detection unit may be set so that an object moving in the screen is more easily detected in the non-fluctuation region than in the fluctuation region.

また、上記課題を解決するために、本発明の別の観点によれば、差分処理部が、一の画像の画像データと、一の画像より過去に撮影された過去画像の画像データの差分を算出するステップと、ゆらぎ検出部が、差分の時間変化を算出し、時間変化の周期性に基づいて、自然界のゆらぎを撮影した部分に相当する画面内のゆらぎ領域と、ゆらぎ領域ではない非ゆらぎ領域を抽出するステップと、物体検知部が、ゆらぎ領域と非ゆらぎ領域に応じて検知精度を変化させて画面内を移動する物体を検知するステップとを備える画像処理方法が提供される。   In order to solve the above problem, according to another aspect of the present invention, the difference processing unit calculates a difference between the image data of one image and the image data of the past image captured in the past from the one image. The step of calculating and the fluctuation detection unit calculate the temporal change of the difference, and based on the periodicity of the temporal change, the fluctuation area in the screen corresponding to the portion where the fluctuation of the natural world is photographed and the non-fluctuation that is not the fluctuation area An image processing method is provided that includes a step of extracting a region and a step of detecting an object that moves in a screen by changing detection accuracy according to a fluctuation region and a non-fluctuation region.

また、上記課題を解決するために、本発明の別の観点によれば、一の画像の画像データと、一の画像より過去に撮影された過去画像の画像データの差分を算出する手段、差分の時間変化を算出し、時間変化の周期性に基づいて、自然界のゆらぎを撮影した部分に相当する画面内のゆらぎ領域と、ゆらぎ領域ではない非ゆらぎ領域を抽出する手段、ゆらぎ領域と非ゆらぎ領域に応じて検知精度を変化させて画面内を移動する物体を検知する手段としてコンピュータを機能させるためのプログラムが提供される。   In order to solve the above problem, according to another aspect of the present invention, a means for calculating a difference between image data of one image and image data of a past image taken in the past from the one image, the difference Based on the periodicity of the time change, a means to extract the fluctuation area in the screen corresponding to the part where the fluctuation of the natural world was photographed and the non-fluctuation area that is not the fluctuation area, fluctuation area and non-fluctuation There is provided a program for causing a computer to function as means for detecting an object moving in a screen by changing detection accuracy according to a region.

以上説明したように本発明によれば、画面全体からゆらぎ領域を確実に検出でき、監視対象とする物体を精度良く検知することができる。   As described above, according to the present invention, a fluctuation region can be reliably detected from the entire screen, and an object to be monitored can be detected with high accuracy.

本発明の一実施形態に係る撮像装置100を示すブロック図である。1 is a block diagram illustrating an imaging apparatus 100 according to an embodiment of the present invention. 同実施形態に係る画像処理部110を示すブロック図である。FIG. 2 is a block diagram illustrating an image processing unit 110 according to the same embodiment. 同実施形態に係るゆらぎ領域検出部115を示すブロック図である。It is a block diagram which shows the fluctuation area detection part 115 which concerns on the same embodiment. 同実施形態に係るゆらぎ画素判定部120を示すブロック図である。It is a block diagram which shows the fluctuation pixel determination part 120 which concerns on the same embodiment. 画素が上記三つの候補のいずれであるかを判定する方法を示す説明図である。It is explanatory drawing which shows the method of determining which pixel is which of the said three candidates. 二つの閾値による判定結果を統合する方法を示す説明図である。It is explanatory drawing which shows the method of integrating the determination result by two threshold values. ある画素の差分値の時間変化を示すグラフである。It is a graph which shows the time change of the difference value of a certain pixel. ある画素の差分値の時間変化を示すグラフである。It is a graph which shows the time change of the difference value of a certain pixel. ゆらぎ重み値とゆらぎの可能性を示す説明図である。It is explanatory drawing which shows the fluctuation weight value and the possibility of fluctuation. 図10(A)は、ゆらぎ領域を明示した映像150の一例を示す説明図である。図10(B)は、監視対象や背景などが表示された映像の一例を示す説明図である。FIG. 10A is an explanatory diagram illustrating an example of a video 150 in which a fluctuation region is clearly shown. FIG. 10B is an explanatory diagram illustrating an example of a video on which a monitoring target, a background, and the like are displayed. 図11(A)は、ある画素の輝度値の時間変化を示すグラフである。図11(B)〜(D)は、差分値の時間変化を示すグラフである。FIG. 11A is a graph showing temporal changes in luminance values of a certain pixel. FIGS. 11B to 11D are graphs showing changes in the difference value over time. 図12(A)は、ある画素の輝度値の時間変化を示すグラフである。図12(B)〜(D)は、差分値の時間変化を示すグラフである。FIG. 12A is a graph showing temporal changes in the luminance value of a certain pixel. FIGS. 12B to 12D are graphs showing temporal changes in the difference values. 監視対象や背景などが表示された映像の一例を示す説明図である。It is explanatory drawing which shows an example of the image | video on which the monitoring object, the background, etc. were displayed. 画像内の画素又はブロックの輝度値の時間変化を示すグラフである。It is a graph which shows the time change of the luminance value of the pixel or block in an image.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

なお、説明は以下の順序で行うものとする。
1.一実施形態の構成
2.一実施形態の動作
The description will be made in the following order.
1. Configuration of one embodiment Operation of one embodiment

<1.一実施形態の構成>
[撮像装置100]
まず、図1を参照して、本発明の一実施形態に係る撮像装置100の構成について説明する。図1は、本実施形態に係る撮像装置100を示すブロック図である。
撮像装置100は、例えば監視カメラ等であり、ある場所に固定されて、撮像範囲内を通過する人や車両等の監視対象を撮影する。撮像装置100は、撮影して得られた画像データを、モニターを有する監視盤などに伝送する。本実施形態によれば、監視者が常にモニターを注視することなく、監視対象とする物体を精度良く検知できる。
<1. Configuration of one embodiment>
[Imaging device 100]
First, with reference to FIG. 1, a configuration of an imaging apparatus 100 according to an embodiment of the present invention will be described. FIG. 1 is a block diagram illustrating an imaging apparatus 100 according to the present embodiment.
The imaging device 100 is, for example, a monitoring camera or the like, and is fixed at a certain location and images a monitoring target such as a person or a vehicle that passes through the imaging range. The imaging apparatus 100 transmits image data obtained by photographing to a monitoring board having a monitor. According to the present embodiment, an object to be monitored can be detected with high accuracy without the monitor constantly gazing at the monitor.

撮像装置100は、撮像部102と、撮像信号処理部104と、撮像データ処理部106と、伝送部108と、画像処理部110などからなる。   The imaging apparatus 100 includes an imaging unit 102, an imaging signal processing unit 104, an imaging data processing unit 106, a transmission unit 108, an image processing unit 110, and the like.

撮像部102は、例えばレンズ等の光学系と、CCDイメージセンサ又はCMOSイメージセンサ等の撮像素子などからなる。撮像部102は、被写体からの光を受けて、光を電気信号に変換する。撮像部102は、生成した電気信号を撮像信号処理部104に送る。   The imaging unit 102 includes, for example, an optical system such as a lens and an imaging element such as a CCD image sensor or a CMOS image sensor. The imaging unit 102 receives light from the subject and converts the light into an electrical signal. The imaging unit 102 sends the generated electrical signal to the imaging signal processing unit 104.

撮像信号処理部104は、撮像部102から受けた信号をカラー画像等の映像信号に変更したり、映像信号に対してノイズ除去処理などをしたりする。撮像信号処理部104は、処理済みの映像信号を撮像データ処理部106や画像処理部110に送る。   The imaging signal processing unit 104 changes the signal received from the imaging unit 102 to a video signal such as a color image or performs noise removal processing on the video signal. The imaging signal processing unit 104 sends the processed video signal to the imaging data processing unit 106 and the image processing unit 110.

撮像データ処理部106は、撮像信号処理部104で処理された映像信号を圧縮処理などして、伝送部108から映像信号を伝送できるような形式に変更する。   The imaging data processing unit 106 performs a compression process or the like on the video signal processed by the imaging signal processing unit 104 and changes the format so that the video signal can be transmitted from the transmission unit 108.

伝送部108は、撮像データ処理部106から受けた映像信号と、画像処理部110から受けたメタデータを関連付けて外部に送る。伝送部108からの映像信号やメタデータの出力先は、例えばネットワークであり、更にネットワークに接続された監視盤などである。   The transmission unit 108 associates the video signal received from the imaging data processing unit 106 and the metadata received from the image processing unit 110, and sends them to the outside. The output destination of the video signal and metadata from the transmission unit 108 is, for example, a network, and a monitoring board connected to the network.

画像処理部110は、撮像信号処理部104で処理された映像信号を受けて、映像信号を画像処理してメタデータを生成する。本実施形態では、メタデータは、監視対象とする物体が撮像範囲内を通過したという情報であり、例えばアラーム信号などである。   The image processing unit 110 receives the video signal processed by the imaging signal processing unit 104 and performs image processing on the video signal to generate metadata. In the present embodiment, metadata is information that an object to be monitored has passed through the imaging range, and is, for example, an alarm signal.

なお、本実施形態では、伝送部108が映像信号とメタデータの両者を外部に送るとしたが、本発明はこの例に限定されない。例えば、伝送部108は、映像信号を出力せず、アラーム等のメタデータのみを外部に出力するとしてもよい。   In the present embodiment, the transmission unit 108 transmits both the video signal and the metadata to the outside, but the present invention is not limited to this example. For example, the transmission unit 108 may output only metadata such as an alarm without outputting a video signal.

また、上述の説明では、撮像部102を有する監視カメラ等の撮像装置100について説明したが、本発明は、撮像部102を有さない信号変換装置でもよい。信号変換装置は、撮像部102の代わりにアナログ映像信号を出力するカメラと接続可能な入力部を有する。信号処理装置は、アナログ映像信号に基づいてメタデータを生成し、外部にメタデータを出力する。   In the above description, the imaging device 100 such as a monitoring camera having the imaging unit 102 has been described. However, the present invention may be a signal conversion device that does not have the imaging unit 102. The signal conversion apparatus includes an input unit that can be connected to a camera that outputs an analog video signal instead of the imaging unit 102. The signal processing device generates metadata based on the analog video signal and outputs the metadata to the outside.

更に、上述では、撮像データ処理部106を有する撮像装置100について説明したが、本発明は、画像処理専用装置でもよい。画像処理専用装置は、例えばパーソナルコンピュータ、サーバー等である。画像処理専用装置は、映像信号を受けてメタデータを生成する画像処理部110を有する。生成されたメタデータは、外部に出力されてもよいし、画像処理専用装置に接続されたモニターや警告灯などに出力されてもよい。   Furthermore, in the above description, the imaging apparatus 100 including the imaging data processing unit 106 has been described. However, the present invention may be an image processing dedicated apparatus. The image processing dedicated device is, for example, a personal computer or a server. The dedicated image processing apparatus includes an image processing unit 110 that receives a video signal and generates metadata. The generated metadata may be output to the outside, or may be output to a monitor or a warning light connected to the image processing dedicated device.

[画像処理部110]
次に、画像処理部110について説明する。図2は、本実施形態に係る画像処理部110を示すブロック図である。
画像処理部110は、画像保存部111と、差分処理部112と、ラベリング処理部113と、トラッキング処理部114と、ゆらぎ領域検出部115と、閾値画像生成部116などからなる。
[Image processing unit 110]
Next, the image processing unit 110 will be described. FIG. 2 is a block diagram illustrating the image processing unit 110 according to the present embodiment.
The image processing unit 110 includes an image storage unit 111, a difference processing unit 112, a labeling processing unit 113, a tracking processing unit 114, a fluctuation region detection unit 115, a threshold image generation unit 116, and the like.

画像保存部111は、撮像部102によって撮影され撮像信号処理部104で処理された現画像を保存し、過去画像を出力する。   The image storage unit 111 stores the current image captured by the imaging unit 102 and processed by the imaging signal processing unit 104, and outputs a past image.

差分処理部112は、撮像信号処理部104から現画像を受け、同時に画像保存部111から過去画像を受ける。そして、差分処理部112は、現画像と複数の過去画像に対して差分処理する。その結果、差分処理部112は、画素単位の動体検出を行うことができ、画像に動体が含まれる場合は動体画像を出力する。   The difference processing unit 112 receives the current image from the imaging signal processing unit 104 and simultaneously receives the past image from the image storage unit 111. Then, the difference processing unit 112 performs difference processing on the current image and a plurality of past images. As a result, the difference processing unit 112 can perform moving object detection in units of pixels, and outputs a moving object image when the moving object is included in the image.

ラベリング処理部113は、差分処理部112から動体画像を受けて、差分処理部112において画素単位で検出された動体情報を連結して、動体領域を生成する。そして、ラベリング処理部113は、生成した動体領域に対してラベル番号を付与し、ラベル番号を付与したラベル画像を出力する。   The labeling processing unit 113 receives the moving body image from the difference processing unit 112 and connects the moving body information detected for each pixel in the difference processing unit 112 to generate a moving body region. Then, the labeling processing unit 113 assigns a label number to the generated moving object region, and outputs a label image to which the label number is assigned.

トラッキング処理部114は、ラベル付けされた動体領域について一つ前のフレームの動体情報との対応付けを行う。トラッキング処理部114は、現フレームと一つ前のフレームにおいて対応付けができた場合、動体情報を更新・継承する。そして、トラッキング処理部114は、更新・継承した動体領域を出力する。   The tracking processing unit 114 associates the labeled moving object region with the moving object information of the previous frame. The tracking processing unit 114 updates / inherits moving object information when the current frame and the previous frame can be associated with each other. Then, the tracking processing unit 114 outputs the updated / inherited moving object region.

ここで、ラベリング処理部113とトラッキング処理部114の組み合わせは、物体検知部の一例であり、画面内を移動する物体を検知する。   Here, the combination of the labeling processing unit 113 and the tracking processing unit 114 is an example of an object detection unit, and detects an object moving in the screen.

ゆらぎ領域検出部115は、撮像信号処理部104から現画像を受け、同時に画像保存部111から過去画像を受ける。そして、ゆらぎ領域検出部115は、画像を用いて木々や波などの自然界に存在する外乱(ゆらぎ)を撮影した部分に相当する画面内のゆらぎ領域と、ゆらぎ領域ではない非ゆらぎ領域を検出する。そして、ゆらぎ領域検出部115は、ゆらぎ領域を閾値画像生成部116に出力する。   The fluctuation region detection unit 115 receives the current image from the imaging signal processing unit 104 and simultaneously receives the past image from the image storage unit 111. Then, the fluctuation region detection unit 115 detects a fluctuation region in the screen corresponding to a portion where a disturbance (fluctuation) existing in the natural world such as trees and waves is captured using an image, and a non-fluctuation region that is not a fluctuation region. . Then, the fluctuation region detection unit 115 outputs the fluctuation region to the threshold image generation unit 116.

閾値画像生成部116は、ゆらぎ領域検出部115で得られたゆらぎ領域と、ゆらぎ領域ではない非ゆらぎ領域それぞれに対して、画素単位で異なる値を割り当てる。そして、閾値画像生成部116は、ゆらぎ領域から、閾値処理を施すことが可能な閾値画像を生成する。閾値画像生成部116は、生成した閾値画像を差分処理部112に出力する。   The threshold image generation unit 116 assigns different values for each pixel to the fluctuation region obtained by the fluctuation region detection unit 115 and the non-fluctuation region that is not the fluctuation region. Then, the threshold image generation unit 116 generates a threshold image that can be subjected to threshold processing from the fluctuation region. The threshold image generation unit 116 outputs the generated threshold image to the difference processing unit 112.

上記のように、本実施形態によれば、ゆらぎ領域検出部115と閾値画像生成部116によって、ゆらぎ領域と非ゆらぎ領域を区別できる。そして、ラベリング処理部113、トラッキング処理部114において、ゆらぎ領域と非ゆらぎ領域とで異なる検知レベルを設定できる。例えば、トラッキング処理部114は、ゆらぎ領域よりも非ゆらぎ領域において画面内を移動する物体を検知し易く設定する。その結果、ゆらぎ領域では移動物体を比較的鈍感に検知し、非ゆらぎ領域では移動物体を比較的敏感に検知できる。従って、本実施形態は、領域毎に検知精度を変えることができるので、ゆらぎの誤検知や、移動物体の検知漏れを防止できる。   As described above, according to the present embodiment, the fluctuation region detection unit 115 and the threshold image generation unit 116 can distinguish the fluctuation region and the non-fluctuation region. In the labeling processing unit 113 and the tracking processing unit 114, different detection levels can be set for the fluctuation region and the non-fluctuation region. For example, the tracking processing unit 114 sets the object that moves in the screen more easily in the non-fluctuation region than in the fluctuation region. As a result, a moving object can be detected relatively insensitively in the fluctuation region, and a moving object can be detected relatively sensitively in the non-fluctuation region. Therefore, since this embodiment can change detection accuracy for each region, it is possible to prevent erroneous detection of fluctuations and omission of detection of moving objects.

[ゆらぎ領域検出部115]
次に、ゆらぎ領域検出部115について説明する。図3は、本実施形態に係るゆらぎ領域検出部115を示すブロック図である。
ゆらぎ領域検出部115は、平滑化処理部117と、平滑画像保存部118と、平滑差分処理部119と、ゆらぎ画素判定部120と、ゆらぎ重み画像保存部121と、ゆらぎ重みづけ部122と、ブロック化処理部123などからなる。
[Fluctuation area detection unit 115]
Next, the fluctuation region detection unit 115 will be described. FIG. 3 is a block diagram illustrating the fluctuation region detection unit 115 according to the present embodiment.
The fluctuation region detection unit 115 includes a smoothing processing unit 117, a smoothed image storage unit 118, a smoothing difference processing unit 119, a fluctuation pixel determination unit 120, a fluctuation weight image storage unit 121, a fluctuation weighting unit 122, The block processing unit 123 and the like are included.

平滑化処理部117は、現画像と複数枚の過去画像を受けて、現画像と複数枚の過去画像の平均を取ることによって、画像中のノイズを除去する。平滑化処理部117は、ノイズ除去がされた現平滑画像を平滑画像保存部118と平滑差分処理部119に出力する。   The smoothing processing unit 117 receives the current image and a plurality of past images, and averages the current image and the plurality of past images to remove noise in the image. The smoothing processing unit 117 outputs the current smoothed image from which noise has been removed to the smoothed image storage unit 118 and the smoothing difference processing unit 119.

平滑画像保存部118は、平滑化処理部117から現平滑画像を受けて、現平滑画像を保存する。平滑画像保存部118は、保存されていた過去平滑画像を平滑差分処理部119に出力する。   The smooth image storage unit 118 receives the current smooth image from the smoothing processing unit 117 and stores the current smooth image. The smoothed image storage unit 118 outputs the stored past smoothed image to the smoothed difference processing unit 119.

平滑差分処理部119は、平滑化処理部117から現平滑画像を受け、同時に平滑画像保存部118から過去平滑画像を受けて、現平滑画像に対する過去平滑画像の画素単位の差分値を算出し、差分値からなる差分画像を生成する。平滑差分処理部119は、生成した差分画像をゆらぎ画素判定部120に出力する。   The smoothing difference processing unit 119 receives the current smoothed image from the smoothing processing unit 117 and simultaneously receives the past smoothed image from the smoothed image storage unit 118, calculates a difference value in pixel units of the past smoothed image with respect to the current smoothed image, A difference image composed of the difference values is generated. The smoothing difference processing unit 119 outputs the generated difference image to the fluctuation pixel determination unit 120.

ゆらぎ画素判定部120は、ゆらぎ検出部の一例であり、平滑差分処理部119から差分画像を受けて、複数枚の差分画像から差分の時間変化の周期性を算出する。そして、ゆらぎ画素判定部120は、差分の時間変化の周期性に基づいて、自然界のゆらぎを撮影した部分に相当する画像中のゆらぎ画素の検出を行う。そして、ゆらぎ画素判定部120は、ゆらぎ画像をゆらぎ重みづけ部122に出力する。ゆらぎ画像は、ゆらぎ画素の位置情報を含む画像である。   The fluctuation pixel determination unit 120 is an example of a fluctuation detection unit, receives the difference image from the smoothing difference processing unit 119, and calculates the periodicity of the time change of the difference from a plurality of difference images. Then, the fluctuation pixel determination unit 120 detects a fluctuation pixel in the image corresponding to the portion where the fluctuation in the natural world is photographed based on the periodicity of the temporal change of the difference. Then, the fluctuation pixel determination unit 120 outputs the fluctuation image to the fluctuation weighting unit 122. The fluctuation image is an image including positional information of fluctuation pixels.

ゆらぎ重み画像保存部121は、ゆらぎ重み画像をゆらぎ重みづけ部122から受けて、ゆらぎ重み画像を保存する。ゆらぎ重み画像は、ゆらぎである可能性の高さを画素ごとに示す。また、ゆらぎ重み画像保存部121は、過去のゆらぎ重み画像をゆらぎ重みづけ部122に出力する。   The fluctuation weight image storage unit 121 receives the fluctuation weight image from the fluctuation weighting unit 122 and stores the fluctuation weight image. The fluctuation weight image indicates the possibility of fluctuation for each pixel. Further, the fluctuation weight image storage unit 121 outputs a past fluctuation weight image to the fluctuation weighting unit 122.

ゆらぎ重みづけ部122は、ゆらぎ画素判定部120からゆらぎ画像を、トラッキング処理部114から前フレームの動体領域に関する情報を、ゆらぎ重み画像保存部121からゆらぎ重み画像を受ける。ゆらぎ重みづけ部122は、前フレームの動体領域を除いたゆらぎ重み画像の各画素に対して、ゆらぎ画素であれば加算、非ゆらぎ画素であれば減算することで重み値を算出する。そして、ゆらぎ重みづけ部122は、重み値からなるゆらぎ重み画像を更新する。ゆらぎ重みづけ部122は、更新したゆらぎ重み画像をゆらぎ重み画像保存部121とブロック化処理部123に送る。   The fluctuation weighting unit 122 receives a fluctuation image from the fluctuation pixel determination unit 120, information related to the moving body region of the previous frame from the tracking processing unit 114, and a fluctuation weight image from the fluctuation weight image storage unit 121. The fluctuation weighting unit 122 calculates the weight value by adding to the pixels of the fluctuation weight image excluding the moving body area of the previous frame if it is a fluctuation pixel and subtracting if it is a non-fluctuation pixel. Then, the fluctuation weighting unit 122 updates the fluctuation weight image composed of the weight values. The fluctuation weighting unit 122 sends the updated fluctuation weight image to the fluctuation weight image storage unit 121 and the blocking processing unit 123.

ブロック化処理部123は、ゆらぎ重みづけ部122からゆらぎ重み画像を受けて、ゆらぎ重み画像をブロックごとに分割する。ブロックとは、画素の集合である。ブロック化処理部123は、ブロック内の画素の重み値の正負を識別する。そして、ブロック化処理部123は、一定割合以上の画素が正の値の場合、ブロック全体がゆらぎ領域であると判定し、座標や範囲を指定してゆらぎ領域を閾値画像生成部116に出力する。   The blocking processing unit 123 receives the fluctuation weight image from the fluctuation weighting unit 122 and divides the fluctuation weight image for each block. A block is a set of pixels. The blocking processing unit 123 identifies whether the weight value of the pixel in the block is positive or negative. Then, the blocking processing unit 123 determines that the entire block is a fluctuation region when pixels of a certain ratio or more are positive values, specifies coordinates and a range, and outputs the fluctuation region to the threshold image generation unit 116. .

[ゆらぎ画素判定部120]
次に、ゆらぎ画素判定部120について説明する。図4は、本実施形態に係るゆらぎ画素判定部120を示すブロック図である。
ゆらぎ画素判定部120は、高閾値判定部124と、低閾値判定部125と、結果統合部126などからなる。
[Fluctuation pixel determination unit 120]
Next, the fluctuation pixel determination unit 120 will be described. FIG. 4 is a block diagram illustrating the fluctuation pixel determination unit 120 according to the present embodiment.
The fluctuation pixel determination unit 120 includes a high threshold determination unit 124, a low threshold determination unit 125, a result integration unit 126, and the like.

高閾値判定部124は、平滑差分処理部119から差分画像を受けて、差分画像に対して画素単位で閾値処理を行う。そして、高閾値判定部124は、画素の差分が第一の閾値以上である回数をカウントし、結果統合部126にカウントして得られた回数を高閾値判定結果として出力する。   The high threshold determination unit 124 receives the difference image from the smoothed difference processing unit 119 and performs threshold processing on the difference image in units of pixels. Then, the high threshold determination unit 124 counts the number of times that the pixel difference is equal to or greater than the first threshold, and outputs the number of times obtained by counting to the result integration unit 126 as a high threshold determination result.

低閾値判定部125は、平滑差分処理部119から差分画像を受けて、差分画像に対して画素単位で閾値処理を行う。そして、低閾値判定部125は、画素の差分が第二の閾値以上である回数をカウントし、結果統合部126にカウントして得られた回数を低閾値判定結果として出力する。   The low threshold determination unit 125 receives the difference image from the smoothing difference processing unit 119 and performs threshold processing on the difference image in units of pixels. Then, the low threshold determination unit 125 counts the number of times that the pixel difference is equal to or larger than the second threshold, and outputs the number of times obtained by counting to the result integration unit 126 as a low threshold determination result.

結果統合部126は、高閾値判定部124から高閾値判定結果を、低閾値判定部125から低閾値判定結果を受けて、高閾値判定結果と低閾値判定結果を統合する。そして、結果統合部126は、ゆらぎ候補であると判断された画素の位置情報を含むゆらぎ画像を生成し、生成したゆらぎ画像をゆらぎ重みづけ部122に出力する。   The result integration unit 126 receives the high threshold determination result from the high threshold determination unit 124 and the low threshold determination result from the low threshold determination unit 125, and integrates the high threshold determination result and the low threshold determination result. Then, the result integration unit 126 generates a fluctuation image including the position information of the pixel determined to be a fluctuation candidate, and outputs the generated fluctuation image to the fluctuation weighting unit 122.

<2.一実施形態の動作>
次に、本実施形態に係る画像処理部110のゆらぎ領域検出処理について説明する。
<2. Operation of one embodiment>
Next, the fluctuation area detection process of the image processing unit 110 according to the present embodiment will be described.

ゆらぎ領域検出の処理の際に、ノイズが多いシーンでは、ノイズが誤ってゆらぎと判定されてしまうことがある。そこで、まず画像からノイズの除去を行う。現画像と過去Kフレーム分の画像の平均を各画素について算出する。これにより、ノイズが除去された平滑画像が生成される。   In the fluctuation area detection process, in a scene with a lot of noise, the noise may be erroneously determined as fluctuation. Therefore, noise is first removed from the image. The average of the current image and the image for the past K frames is calculated for each pixel. Thereby, a smooth image from which noise is removed is generated.

次に、生成された現フレームの現平滑画像と過去N枚の過去平滑画像の差分画像を生成する。そして、生成された差分画像に基づいて、現在と過去の差分から動体である可能性のある画素(動体候補の画素)、ゆらぎである可能性のある画素(ゆらぎ候補)、背景である可能性のある画素(背景候補の画素)を求める。   Next, a difference image between the generated current smooth image of the current frame and the past N number of past smooth images is generated. Then, based on the generated difference image, a pixel that may be a moving object (moving object candidate pixel), a pixel that may be a fluctuation (fluctuation candidate), and a background may be present based on the difference between the current and the past A certain pixel (background candidate pixel) is obtained.

図5は、画素が上記三つの候補のいずれであるかを判定する方法を示す説明図である。例えば、過去N枚の過去平滑画像のうち、現在と過去の差分値が閾値Th以上である回数が0回のときは、対象画素が背景候補画素と判定する。現在と過去の差分値が閾値Th以上である回数がN回のときは対象画素が動体候補画素と判定する。一方、現在と過去の差分値が閾値Th以上である回数が、それ以外の1〜N−1回のときは、対象画素がゆらぎ候補画素であると判定する。この際、差分画像の生成に使用する過去平滑画像には、保存されている平滑画像のうち、古いものを優先的にN枚用いる。これにより、時間的に離れているほど動体領域において差分が大きくなるため、動体候補とゆらぎ候補を区別しやすくなる。   FIG. 5 is an explanatory diagram showing a method for determining which of the above three candidates a pixel is. For example, among the past N smooth images, if the number of times that the current and past difference values are equal to or greater than the threshold Th is 0, the target pixel is determined as the background candidate pixel. When the number of times that the current and past difference values are equal to or greater than the threshold Th is N, the target pixel is determined to be a moving object candidate pixel. On the other hand, when the number of times that the current and past difference values are equal to or greater than the threshold Th is 1 to N−1, the target pixel is determined to be a fluctuation candidate pixel. At this time, as the past smooth image used for generating the difference image, the old one of the stored smooth images is preferentially used. As a result, the difference in the moving object region increases with time, so that it becomes easier to distinguish the moving object candidate from the fluctuation candidate.

以上の処理を2つの閾値、高閾値Th1と低閾値Th2に対して行い、以下に示す統合方法を用いて結果を統合する。そして、ゆらぎ候補であると判断された画素の位置情報を含むゆらぎ画像を生成する。ここで高閾値Th1、低閾値Th2の値は、例えば検出対象とするゆらぎにおいて発生する可能性のある輝度変化の最大値、最低値である。   The above processing is performed on two threshold values, the high threshold value Th1 and the low threshold value Th2, and the results are integrated using the integration method described below. Then, a fluctuation image including the position information of the pixel determined to be a fluctuation candidate is generated. Here, the values of the high threshold Th1 and the low threshold Th2 are, for example, the maximum value and the minimum value of the luminance change that may occur in the fluctuation to be detected.

図6は、二つの閾値による判定結果を統合する方法を示す説明図である。図7及び図8は、ある画素の差分値の時間変化を示すグラフである。まず、図6のB,D,Eのように、少なくともどちらかの閾値でゆらぎ候補と判定された画素をゆらぎ画素と決定する(図6の網掛け部分)。そして、ゆらぎ画素であるので、ゆらぎ重みづけ部122はゆらぎ重み画像の画素に対して加算する。   FIG. 6 is an explanatory diagram illustrating a method of integrating the determination results based on two threshold values. 7 and 8 are graphs showing temporal changes in the difference value of a certain pixel. First, as shown in B, D, and E of FIG. 6, a pixel determined as a fluctuation candidate with at least one of the threshold values is determined as a fluctuation pixel (shaded portion in FIG. 6). And since it is a fluctuation pixel, the fluctuation weighting part 122 adds with respect to the pixel of a fluctuation weight image.

例えば、図6のBは、図7(B)に示すように、高閾値Th1以上である回数が0回であり、低閾値Th2以上である回数が1〜N−1回である。よって、当該画素は、高閾値判定結果は背景候補となり、低閾値判定結果はゆらぎ候補となる。同様に、図6のDは、図8(A)に示すように、高閾値Th1以上である回数が1〜N−1回であり、低閾値Th2以上である回数も1〜N−1回である。よって、当該画素は、高閾値判定結果と低閾値判定結果は両者ともゆらぎ候補となる。図6のEは、図8(B)に示すように、高閾値Th1以上である回数が1〜N−1回であり、低閾値Th2以上である回数はN回である。よって、当該画素は、高閾値判定結果はゆらぎ候補となり、低閾値判定結果は動体候補となる。   For example, in FIG. 6B, as shown in FIG. 7B, the number of times that is equal to or greater than the high threshold Th1 is 0, and the number of times that is equal to or greater than the low threshold Th2 is 1 to N-1. Therefore, for the pixel, the high threshold determination result is a background candidate, and the low threshold determination result is a fluctuation candidate. Similarly, as shown in FIG. 8A, D in FIG. 6 indicates that the number of times that is equal to or higher than the high threshold Th1 is 1 to N-1 times, and that that is equal to or higher than the low threshold Th2 is also 1 to N-1 times. It is. Therefore, both the high threshold determination result and the low threshold determination result of the pixel are fluctuation candidates. In FIG. 6E, as shown in FIG. 8B, the number of times that is equal to or higher than the high threshold Th1 is 1 to N−1 times, and the number of times that is equal to or higher than the low threshold Th2 is N times. Therefore, for the pixel, the high threshold determination result is a fluctuation candidate, and the low threshold determination result is a moving object candidate.

また、図6のCのように、対象画素が高閾値判定結果は背景候補となり、低閾値判定結果は動体候補となるときも、ゆらぎ画素と決定する。そして、ゆらぎ画素であるので、ゆらぎ重みづけ部122はゆらぎ重み画像の画素に対して加算する。図6のCは、図7(C)に示すように、高閾値Th1以上である回数が0回であり、低閾値Th2以上である回数はN回である。なお、図6のCのようなケースは、ゆらぎ画素ではなく、動体画素と決定してもよい。   Also, as shown in FIG. 6C, when the target pixel is a background candidate if the high threshold determination result is a background candidate, and the low threshold determination result is a moving object candidate, it is determined as a fluctuation pixel. And since it is a fluctuation pixel, the fluctuation weighting part 122 adds with respect to the pixel of a fluctuation weight image. In C of FIG. 6, as shown in FIG. 7C, the number of times that is equal to or higher than the high threshold Th1 is 0, and the number of times that is equal to or higher than the low threshold Th2 is N. Note that a case like C in FIG. 6 may be determined as a moving pixel instead of a fluctuation pixel.

そして、図6のFのように、二つの閾値の両者で動体候補画素と判定された画素を動体画素と決定する。そして、動体画素であるので、ゆらぎ重みづけ部122はゆらぎ重み画像の画素に対して加算も減算もしない。図6のFは、図8(C)に示すように、高閾値Th1以上である回数がN回であり、低閾値Th2以上である回数もN回である。   Then, as shown in FIG. 6F, a pixel determined as a moving object candidate pixel by both of the two threshold values is determined as a moving object pixel. And since it is a moving body pixel, the fluctuation weighting part 122 does not add or subtract with respect to the pixel of a fluctuation weight image. In FIG. 6F, as shown in FIG. 8C, the number of times that is equal to or higher than the high threshold Th1 is N times, and the number of times that is equal to or higher than the low threshold Th2 is also N times.

更に、図6のAのように、二つの閾値の両者で背景候補画素と判定された画素を背景画素と決定する。そして、背景画素であるので、ゆらぎ重みづけ部122はゆらぎ重み画像の画素に対して減算する。図6のAは、図7(A)に示すように、高閾値Th1以上である回数が0回であり、低閾値Th2以上である回数も0回である。   Further, as shown in FIG. 6A, a pixel determined as a background candidate pixel by both of the two threshold values is determined as a background pixel. And since it is a background pixel, the fluctuation weighting part 122 subtracts with respect to the pixel of a fluctuation weight image. In FIG. 6A, as shown in FIG. 7A, the number of times that is equal to or higher than the high threshold Th1 is zero, and the number of times that is equal to or higher than the low threshold Th2 is also zero.

こうして、ゆらぎ重み画像を更新する。ゆらぎ重み画像は、対象画素がゆらぎ画素の場合に値を加算し、背景画素の場合に減算して生成されたものである。ゆらぎ重み画像は、時系列に見て対象画素がゆらぎである可能性が高いのかを示す。従って、ゆらぎ重み画像は、図9のように値が正の方向に大きいほどゆらぎである可能性が高いことを示し、負の方向に大きいほど背景である可能性が高いことを示す。図9は、ゆらぎ重み値とゆらぎの可能性を示す説明図である。なお、動体画素と決定された場合は、重みづけ値を変動させないこととしたので、ゆらぎ重み画像は背景であるか又はゆらぎであるかを区別できる。   In this way, the fluctuation weight image is updated. The fluctuation weight image is generated by adding a value when the target pixel is a fluctuation pixel and subtracting when the target pixel is a background pixel. The fluctuation weight image indicates whether or not the target pixel is likely to fluctuate in time series. Therefore, as shown in FIG. 9, the fluctuation weight image has a higher possibility of being fluctuated as the value is larger in the positive direction, and is more likely to be the background as the value is larger in the negative direction. FIG. 9 is an explanatory diagram showing the fluctuation weight value and the possibility of fluctuation. Note that, when the pixel is determined as a moving object pixel, since the weighting value is not changed, it is possible to distinguish whether the fluctuation weight image is the background or the fluctuation.

次に、ゆらぎ重み画像に対してブロック化を行い、画素単位で検出されたゆらぎである可能性のある画素をゆらぎ領域として連結する。まず、画像を任意のブロックサイズで分割する。そして、各ブロックの画素のうち一定以上の割合の画素が正の値であるとき、該当ブロック全体をゆらぎ領域と判定する。以上の処理を全てのブロックに対して行い、画像全体のゆらぎ領域を求める。   Next, the fluctuation weight image is divided into blocks, and pixels that may be fluctuations detected in units of pixels are connected as fluctuation areas. First, an image is divided by an arbitrary block size. Then, when the pixels of a certain ratio or more out of the pixels of each block have a positive value, the entire block is determined as a fluctuation region. The above processing is performed on all blocks to obtain the fluctuation region of the entire image.

以上、本実施形態によれば、現画像と複数枚の過去画像の差分から各画素の輝度変化を算出し、図10(A)に示すように、映像150内でゆらいでいる画素を検出する。図10(A)は、ゆらぎ領域を明示した映像150の一例を示す説明図である。更に、ゆらぎの出現頻度を評価することで、ゆらぎ領域152と、ゆらぎ領域152ではない背景領域を判定する。そして、図10(B)に示すように、映像150内に侵入してきた人や車両等の監視対象を検知して、映像150に検知枠152を表示する。このとき、判定によって得られた領域のうち、ゆらぎ領域に対しては鈍感に、背景領域に対しては敏感に動体を検知する。図10(B)は、監視対象や背景などが表示された映像の一例を示す説明図である。このように、それぞれの領域に異なる処理を与えることで、ゆらぎを誤って動体と検知するゆらぎの誤検知を防止でき、今まで検知できなかった動体を検知することができて検知漏れも防止できる。   As described above, according to the present embodiment, the luminance change of each pixel is calculated from the difference between the current image and a plurality of past images, and the pixel that fluctuates in the video 150 is detected as shown in FIG. . FIG. 10A is an explanatory diagram illustrating an example of a video 150 in which a fluctuation region is clearly shown. Furthermore, by evaluating the frequency of occurrence of fluctuation, a fluctuation area 152 and a background area that is not the fluctuation area 152 are determined. Then, as shown in FIG. 10B, a monitoring target such as a person or a vehicle that has entered the video 150 is detected, and a detection frame 152 is displayed on the video 150. At this time, of the regions obtained by the determination, the moving object is detected insensitive to the fluctuation region and sensitive to the background region. FIG. 10B is an explanatory diagram illustrating an example of a video on which a monitoring target, a background, and the like are displayed. In this way, by giving different processing to each region, it is possible to prevent erroneous detection of fluctuations in which fluctuation is erroneously detected as a moving object, and it is possible to detect moving objects that could not be detected up to now and prevent detection omissions. .

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

例えば、上記実施形態では、ゆらぎの検出方法は、二つの閾値を設定して、画素の差分が閾値以上である回数によって、画素がゆらぎ候補であるか否かを判定したが、本発明はこの例に限定されない。例えば、ある時刻の画素の輝度値と、その時刻以前の輝度値の波形を比較して、ゆらぎを検出してもよい。   For example, in the above embodiment, the fluctuation detection method sets two threshold values, and determines whether or not a pixel is a fluctuation candidate based on the number of times the pixel difference is equal to or greater than the threshold value. It is not limited to examples. For example, the fluctuation may be detected by comparing the luminance value of a pixel at a certain time with the waveform of the luminance value before that time.

例えば、図11(A)は、ある画素の輝度値の時間変化を示すグラフであって、動体が通過したときの輝度値の変化を表す。時刻Aの輝度値と時刻A以前の輝度値の波形との差分は、図11(B)に示すようになる。同様に、時刻B、時刻Cについては、図11(C),(D)のようになる。図11(B)〜(D)は差分値の時間変化を示すグラフである。一方、図12(A)も、ある画素の輝度値の時間変化を示すグラフであるが、ゆらぎが発生しているときの輝度値の変化を表す。時刻Aの輝度値と時刻A以前の輝度値の波形との差分は、図12(B)に示すようになる。同様に、時刻B、時刻Cについては、図12(C),(D)のようになる。図12(B)〜(D)は差分値の時間変化を示すグラフである。   For example, FIG. 11A is a graph showing a temporal change in the luminance value of a certain pixel, and shows a change in the luminance value when a moving object passes. The difference between the luminance value at time A and the waveform of the luminance value before time A is as shown in FIG. Similarly, time B and time C are as shown in FIGS. FIGS. 11B to 11D are graphs showing temporal changes in difference values. On the other hand, FIG. 12A is also a graph showing a temporal change in the luminance value of a certain pixel, and shows a change in the luminance value when fluctuation occurs. The difference between the luminance value at time A and the waveform of the luminance value before time A is as shown in FIG. Similarly, time B and time C are as shown in FIGS. FIGS. 12B to 12D are graphs showing temporal changes in the difference values.

図11(B)〜(D)と図12(B)〜(D)を比較すると分かるように、差分値の時間変化は、動体画素の場合、負の傾きのみが発生するのに対して、ゆらぎ画素の場合、正の傾きも発生する。これは、ゆらぎが短時間でゆれ戻しがあるためである。そこで、差分値の時間変化を表す波形において、正の傾きを含む場合、その画素をゆらぎ候補と判断する。このような判断手法によれば、動体がゆらぎであるとして誤判定されるケースが減少する。後段は上述した実施形態と同様であり、ゆらぎ重み画像の更新は、対象画素がゆらぎ候補画素の場合、値を加算し、背景画素の場合、値を減算する。   As can be seen by comparing FIGS. 11 (B) to (D) and FIGS. 12 (B) to (D), the temporal change in the difference value occurs only in a negative slope in the case of a moving pixel, whereas In the case of a fluctuation pixel, a positive inclination also occurs. This is because the fluctuations shake back in a short time. Therefore, if the waveform representing the temporal change of the difference value includes a positive slope, the pixel is determined as a fluctuation candidate. According to such a determination method, the number of cases in which a moving object is erroneously determined to be fluctuating is reduced. The subsequent stage is the same as in the above-described embodiment, and the fluctuation weight image is updated by adding a value when the target pixel is a fluctuation candidate pixel and subtracting a value when the target pixel is a background pixel.

100 撮像装置
102 撮像部
104 撮像信号処理部
106 撮像データ処理部
108 伝送部
110 画像処理部
111 画像保存部
112 差分処理部
113 ラベリング処理部
114 トラッキング処理部
115 ゆらぎ領域検出部
116 閾値画像生成部
117 平滑化処理部
118 平滑画像保存部
119 平滑差分処理部
120 ゆらぎ画素判定部
121 ゆらぎ重み画像保存部
122 ゆらぎ重みづけ部
123 ブロック化処理部
124 高閾値判定部
125 低閾値判定部
126 結果統合部
DESCRIPTION OF SYMBOLS 100 Imaging device 102 Imaging part 104 Imaging signal processing part 106 Imaging data processing part 108 Transmission part 110 Image processing part 111 Image preservation | save part 112 Difference processing part 113 Labeling processing part 114 Tracking processing part 115 Fluctuation area | region detection part 116 Threshold image generation part 117 Smoothing processing unit 118 Smooth image storage unit 119 Smooth difference processing unit 120 Fluctuation pixel determination unit 121 Fluctuation weight image storage unit 122 Fluctuation weighting unit 123 Blocking processing unit 124 High threshold determination unit 125 Low threshold determination unit 126 Result integration unit

Claims (6)

一の画像の画像データと、前記一の画像より過去に撮影された過去画像の画像データの差分を算出する差分処理部と、
前記差分の時間変化を算出し、前記時間変化の周期性に基づいて、自然界のゆらぎを撮影した部分に相当する画面内のゆらぎ領域と、前記ゆらぎ領域ではない非ゆらぎ領域を抽出するゆらぎ検出部と、
前記ゆらぎ領域と前記非ゆらぎ領域に応じて検知精度を変化させて前記画面内を移動する物体を検知する物体検知部と
を備える、画像処理装置。
A difference processing unit that calculates a difference between image data of one image and image data of a past image taken in the past from the one image;
A fluctuation detection unit that calculates a temporal change of the difference and extracts a fluctuation area in a screen corresponding to a portion where the fluctuation of the natural world is photographed and a non-fluctuation area that is not the fluctuation area based on the periodicity of the time change. When,
An image processing apparatus comprising: an object detection unit configured to detect an object moving within the screen by changing detection accuracy according to the fluctuation region and the non-fluctuation region.
前記差分処理部は、画素単位の前記差分を算出し、
前記ゆらぎ検出部は、
前記画素単位の前記差分の周期性を算出し、自然界のゆらぎを撮影した部分に相当するゆらぎ画素を検出するゆらぎ画素判定部と、
前記ゆらぎ画素に対して重みづけ処理をするゆらぎ重みづけ部と、
前記ゆらぎ画素の重みづけに応じて、前記画面内の前記ゆらぎ領域と前記非ゆらぎ領域を抽出するゆらぎ領域判定部と
を有する、請求項1に記載の画像処理装置。
The difference processing unit calculates the difference in pixel units,
The fluctuation detection unit
A fluctuation pixel determining unit that calculates the periodicity of the difference in units of pixels and detects a fluctuation pixel corresponding to a part in which fluctuations in the natural world are photographed;
A fluctuation weighting unit that performs weighting processing on the fluctuation pixels;
The image processing apparatus according to claim 1, further comprising: a fluctuation area determination unit that extracts the fluctuation area and the non-fluctuation area in the screen according to the weighting of the fluctuation pixels.
前記ゆらぎ画素判定部は、
前記画素単位の画素値の差分が単位時間当たり第一の閾値以上である回数、及び前記画素単位の画素値の差分が単位時間当たり前記第一の閾値より低い第二の閾値以上である回数に基づいて、前記ゆらぎ画素を検出する、請求項2に記載の画像処理装置。
The fluctuation pixel determination unit
The number of times that the pixel value difference of the pixel unit is equal to or greater than the first threshold per unit time, and the number of times that the difference of the pixel value of the pixel unit is equal to or greater than the second threshold value that is lower than the first threshold per unit time. The image processing apparatus according to claim 2, wherein the fluctuation pixel is detected based on the fluctuation pixel.
前記物体検知部は、前記ゆらぎ領域よりも前記非ゆらぎ領域において前記画面内を移動する物体を検知し易く設定されている、請求項1〜3のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the object detection unit is set to detect an object moving in the screen in the non-fluctuation area more easily than the fluctuation area. 差分処理部が、一の画像の画像データと、前記一の画像より過去に撮影された過去画像の画像データの差分を算出するステップと、
ゆらぎ検出部が、前記差分の時間変化を算出し、前記時間変化の周期性に基づいて、自然界のゆらぎを撮影した部分に相当する画面内のゆらぎ領域と、前記ゆらぎ領域ではない非ゆらぎ領域を抽出するステップと、
物体検知部が、前記ゆらぎ領域と前記非ゆらぎ領域に応じて検知精度を変化させて前記画面内を移動する物体を検知するステップと
を備える、画像処理方法。
A step of calculating a difference between the image data of one image and the image data of a past image captured in the past from the one image;
A fluctuation detecting unit calculates a temporal change of the difference, and based on the periodicity of the temporal change, a fluctuation area in the screen corresponding to a portion where the fluctuation of the natural world is photographed, and a non-fluctuation area that is not the fluctuation area. Extracting, and
An object detection unit comprising: an object detection unit that detects an object moving within the screen by changing detection accuracy according to the fluctuation region and the non-fluctuation region.
一の画像の画像データと、前記一の画像より過去に撮影された過去画像の画像データの差分を算出する手段、
前記差分の時間変化を算出し、前記時間変化の周期性に基づいて、自然界のゆらぎを撮影した部分に相当する画面内のゆらぎ領域と、前記ゆらぎ領域ではない非ゆらぎ領域を抽出する手段、
前記ゆらぎ領域と前記非ゆらぎ領域に応じて検知精度を変化させて前記画面内を移動する物体を検知する手段
としてコンピュータを機能させるためのプログラム。
Means for calculating a difference between image data of one image and image data of a past image taken in the past from the one image;
Means for calculating a time variation of the difference, and extracting a fluctuation region in the screen corresponding to a portion where the fluctuation of the natural world is photographed based on the periodicity of the time variation, and a non-fluctuation region that is not the fluctuation region;
A program for causing a computer to function as means for detecting an object moving within the screen by changing detection accuracy according to the fluctuation region and the non-fluctuation region.
JP2009278786A 2009-12-08 2009-12-08 Image processing apparatus, image processing method, and program Withdrawn JP2011123562A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009278786A JP2011123562A (en) 2009-12-08 2009-12-08 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009278786A JP2011123562A (en) 2009-12-08 2009-12-08 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2011123562A true JP2011123562A (en) 2011-06-23

Family

ID=44287421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009278786A Withdrawn JP2011123562A (en) 2009-12-08 2009-12-08 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2011123562A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104811623A (en) * 2015-04-30 2015-07-29 华为技术有限公司 Interference-reducing photographing device and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104811623A (en) * 2015-04-30 2015-07-29 华为技术有限公司 Interference-reducing photographing device and method thereof

Similar Documents

Publication Publication Date Title
JP5644097B2 (en) Image processing apparatus, image processing method, and program
JP5241782B2 (en) Surveillance camera system having a camera abnormality detection device
US10204275B2 (en) Image monitoring system and surveillance camera
TWI405150B (en) Video motion detection method and non-transitory computer-readable medium and camera using the same
US10713798B2 (en) Low-complexity motion detection based on image edges
JP4803376B2 (en) Camera tampering detection method
JP5218168B2 (en) Imaging device, moving object detection method, moving object detection circuit, program, and monitoring system
US20120087573A1 (en) Eliminating Clutter in Video Using Depth Information
US20090310822A1 (en) Feedback object detection method and system
JP4811653B2 (en) Object detection device
KR20020034919A (en) Monitoring method for detecting an intruding object and monitoring apparatus therefor
JP2016085487A (en) Information processing device, information processing method and computer program
US20110243385A1 (en) Moving object detection apparatus, moving object detection method, and program
JP2011076316A (en) Device, method and program for crowd watching
JP2015158796A (en) Object detection device
JP4740755B2 (en) Monitoring device using images
JP3625442B2 (en) Object detection method, object detection apparatus, and object detection program
JPWO2018037479A1 (en) Image processing apparatus, stereo camera apparatus, and image processing method
KR101490769B1 (en) Method and apparatus of detecting fire using brightness and area variation
JP4925942B2 (en) Image sensor
JP2011258214A (en) Object detector
JP2011123562A (en) Image processing apparatus, image processing method, and program
JP6124739B2 (en) Image sensor
JP4619082B2 (en) Image determination device
JP2017063402A (en) Representative image generating apparatus, representative image generating method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130305