JP2011123726A - Image processing device for monitoring - Google Patents

Image processing device for monitoring Download PDF

Info

Publication number
JP2011123726A
JP2011123726A JP2009281623A JP2009281623A JP2011123726A JP 2011123726 A JP2011123726 A JP 2011123726A JP 2009281623 A JP2009281623 A JP 2009281623A JP 2009281623 A JP2009281623 A JP 2009281623A JP 2011123726 A JP2011123726 A JP 2011123726A
Authority
JP
Japan
Prior art keywords
unit
image
monitoring target
calculation unit
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009281623A
Other languages
Japanese (ja)
Other versions
JP5388827B2 (en
Inventor
Kenichi Shinbo
健一 新房
Tetsuro Wada
哲朗 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009281623A priority Critical patent/JP5388827B2/en
Publication of JP2011123726A publication Critical patent/JP2011123726A/en
Application granted granted Critical
Publication of JP5388827B2 publication Critical patent/JP5388827B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing device for monitoring, which precisely detects an event even from a captured image with low brightness and low contrast. <P>SOLUTION: A background difference calculation unit 6 extracts a difference between a background image and a current image. A binarization unit 8 binarizes a difference value between the background image and the current image. A recognition processing unit 11 detects whether an event has occurred or not by comparing a characteristic value which is binarized at the binarization unit 8 and calculated at a characteristic value calculation unit 9 with a preset characteristic value parameter value 10. A frequency expansion unit 14 calculates a spatial frequency of the current image and a frequency component extraction unit 15 extracts predetermined frequency components. A correction performing unit 16 corrects operating parameters in the background difference calculation unit 6 based on the frequency components extracted at the frequency component extraction unit 15. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、監視対象領域を逐次撮影した画像から変化領域を抽出し、この変化領域に基づいてイベント発生の有無を検知する監視用画像処理装置に関する。   The present invention relates to a monitoring image processing apparatus that extracts a change area from an image obtained by sequentially photographing a monitoring target area and detects the occurrence of an event based on the change area.

従来より、監視対象領域を逐次撮影した時系列の画像から変化領域を抽出し、この変化領域に基づいてイベント発生の有無を判定し、イベントが発生した場合に発報を行う監視装置があった(例えば、特許文献1参照)。
このような監視装置に用いられる画像処理装置では、逐次取得される画像を現画像として蓄積すると共に、過去の背景画像と演算処理を行って新たな背景画像を作成し、これを背景画像として蓄積する。そして、現画像と背景画像との差分データを作成し、これを2値化して特徴量を演算し、この特徴量が予め定められた設定値を満足した場合、監視装置は、イベント発生として発報を行うよう構成されていた。
Conventionally, there has been a monitoring device that extracts a change area from a time-series image obtained by sequentially capturing a monitoring target area, determines whether or not an event has occurred based on the change area, and issues a notification when an event occurs. (For example, refer to Patent Document 1).
In such an image processing apparatus used for a monitoring apparatus, a sequentially acquired image is accumulated as a current image, and a new background image is created by performing arithmetic processing with a past background image, and this is accumulated as a background image. To do. Then, difference data between the current image and the background image is created, binarized to calculate the feature value, and when the feature value satisfies a predetermined set value, the monitoring device generates an event occurrence. Was configured to report.

特許第4065137号公報Japanese Patent No. 4065137

上記のような従来の画像処理装置では、変化領域を元に特徴量を演算する。変化領域は、多値差分データと2値化閾値によって作成されるが、その演算の基本は多値差分データとなる。多値差分データは、2枚の画像(現画像と背景画像)に差分があった場合に求まるデータであるが、以下のような状況ではこの2枚の画像に差分が出にくくなる。これを「コントラストが低い」状況という。   In the conventional image processing apparatus as described above, the feature amount is calculated based on the change area. The change area is created by the multi-value difference data and the binarization threshold value, and the basis of the calculation is multi-value difference data. The multi-value difference data is data that is obtained when there is a difference between two images (the current image and the background image). However, in the following situation, it is difficult for the two images to have a difference. This is called a “low contrast” situation.

状況1:照明不足により全体に暗い事によりコントラストが低くなる→現画像と背景画像のどちらも暗く、例えば、グラウンドを人が歩くシーンにおいても人の差分データが十分に算出されず、変化領域がきれいな人のシルエットとならず小さく崩れたシルエットとなる。
状況2:照明不足を補完する為カメラが電子増感機能を働かせる事により、コントラストが低くなる→現画像と背景画像のどちらも移動物に対し輪郭がぼやけ、グラウンドを人が歩くシーンにおいても人の差分データが十分に算出されず、変化領域がきれいな人のシルエットとならず小さく崩れたシルエットとなる。
Situation 1: Contrast is lowered due to darkness due to insufficient lighting → Both the current image and the background image are dark. For example, even in a scene where a person walks on the ground, the difference data of the person is not sufficiently calculated, and the change area is It does not become a silhouette of a beautiful person, but a silhouette that collapses small.
Situation 2: To compensate for the lack of lighting, the camera uses an electronic sensitization function to lower the contrast. → The outline of both the current image and the background image is blurred against moving objects, and people are walking even when people are walking on the ground. The difference data is not sufficiently calculated, and the change area does not become a beautiful silhouette of a person, but becomes a silhouette collapsed small.

上記のように、コントラストが低いと、差分が小さくなる。そして、差分が小さくなると、その後の2値化でも、精度良く変化領域を切り出せなくなる。更に、変化領域が精度良く求まらなければ、その後の特徴量演算での精度も劣化する。その場合は、結果的にそこより算出される特徴量も影響を受け、面積や縦横寸法が実際の歩行者と比べて小さな値になる傾向があった。
このように従来の画像処理装置では、上記の傾向は排除する事が出来ず、認識処理の精度劣化の大きな原因となっていた。それによって、監視装置としても発報が不正確になるという欠点があった。
As described above, when the contrast is low, the difference becomes small. When the difference is small, the change area cannot be accurately cut out even in the subsequent binarization. Furthermore, if the change region cannot be obtained with high accuracy, the accuracy in the subsequent feature amount calculation also deteriorates. In that case, as a result, the feature amount calculated therefrom is also affected, and the area and vertical and horizontal dimensions tend to be smaller than those of an actual pedestrian.
As described above, in the conventional image processing apparatus, the above-mentioned tendency cannot be eliminated, which is a major cause of deterioration in accuracy of the recognition process. As a result, the monitoring device also has a drawback that the report is inaccurate.

この発明は、上記のような問題点を解消するためになされたもので、撮影画像が輝度の低いコントラストの小さい画像であっても、精度良くイベント検知を行うことのできる監視用画像処理装置を得ることを目的とする。   The present invention has been made to solve the above-described problems, and provides a monitoring image processing apparatus capable of accurately detecting an event even if a captured image is a low-brightness and low-contrast image. The purpose is to obtain.

この発明に係る監視用画像処理装置は、監視対象領域を逐次撮影した映像データにおける複数の画像から、所定の動作パラメータに基づいて、監視対象領域中の変化領域を抽出すると共に、変化領域に基づいてイベント発生の有無を検知する画像認識手段と、監視対象領域を撮影した画像の空間周波数を算出する周波数展開部と、周波数展開部で算出された空間周波数から所定の周波数要素を抽出する周波数要素抽出部と、周波数要素抽出部で抽出された周波数要素に基づいて、監視対象領域の状況を類推し、この類推結果に対応して、動作パラメータの補正を行う補正実施部とを備えたものである。   The monitoring image processing apparatus according to the present invention extracts a change area in the monitoring target area from a plurality of images in video data obtained by sequentially capturing the monitoring target area based on a predetermined operation parameter, and based on the change area. Image recognition means for detecting the presence or absence of an event, a frequency expansion unit for calculating a spatial frequency of an image obtained by imaging a monitoring target region, and a frequency element for extracting a predetermined frequency element from the spatial frequency calculated by the frequency expansion unit Based on the frequency element extracted by the frequency element extraction unit and the extraction unit, the situation of the monitoring target region is inferred, and the correction execution unit that corrects the operation parameter in accordance with the analogy result is provided. is there.

この発明の監視用画像処理装置は、監視対象領域の画像の空間周波数を算出し、この空間周波数に基づく周波数要素で監視対象領域の状況を類推し、この類推結果に対応して画像認識手段の動作パラメータを補正するようにしたので、撮影画像が輝度の低いコントラストの小さい画像であっても、精度良くイベント検知を行うことができる。   The monitoring image processing apparatus according to the present invention calculates the spatial frequency of the image of the monitoring target region, analogizes the situation of the monitoring target region with frequency elements based on the spatial frequency, and corresponds to the analogy result of the image recognition means. Since the operation parameters are corrected, even when the captured image is a low-brightness and low-contrast image, event detection can be performed with high accuracy.

この発明の実施の形態1による監視用画像処理装置を示す構成図である。1 is a configuration diagram showing a monitoring image processing apparatus according to Embodiment 1 of the present invention; FIG. この発明の実施の形態1による監視用画像処理装置の現画像の一例を示す説明図である。It is explanatory drawing which shows an example of the present image of the monitoring image processing apparatus by Embodiment 1 of this invention. この発明の実施の形態1による監視用画像処理装置の変化領域を重ねた現画像の一例を示す説明図である。It is explanatory drawing which shows an example of the present image which accumulated the change area | region of the monitoring image processing apparatus by Embodiment 1 of this invention. この発明の実施の形態1による監視用画像処理装置の空間周波数の算出例を示す説明図である。It is explanatory drawing which shows the example of calculation of the spatial frequency of the monitoring image processing apparatus by Embodiment 1 of this invention. この発明の実施の形態1による監視用画像処理装置の認識処理部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the recognition process part of the monitoring image processing apparatus by Embodiment 1 of this invention. この発明の実施の形態2による監視用画像処理装置を示す構成図である。It is a block diagram which shows the monitoring image processing apparatus by Embodiment 2 of this invention. この発明の実施の形態3による監視用画像処理装置を示す構成図である。It is a block diagram which shows the monitoring image processing apparatus by Embodiment 3 of this invention.

実施の形態1.
図1は、この発明の実施の形態1による監視用画像処理装置を適用した監視装置の構成図である。
図1に示す監視装置は、ビデオ入力部1、A/Dコンバータ2、現画像蓄積部3、背景画像蓄積部4、背景更新部5、背景差分演算部6、閾値演算部7、2値化部8、特徴量演算部9、特徴量パラメータ設定値10、認識処理部11、発報処理部13、周波数展開部14、周波数要素抽出部15、補正実施部16を備えている。
Embodiment 1 FIG.
FIG. 1 is a block diagram of a monitoring apparatus to which a monitoring image processing apparatus according to Embodiment 1 of the present invention is applied.
1 includes a video input unit 1, an A / D converter 2, a current image storage unit 3, a background image storage unit 4, a background update unit 5, a background difference calculation unit 6, a threshold value calculation unit 7, and binarization. 8, a feature amount calculation unit 9, a feature amount parameter setting value 10, a recognition processing unit 11, a notification processing unit 13, a frequency expansion unit 14, a frequency element extraction unit 15, and a correction execution unit 16.

ビデオ入力部1は、図示しない撮像装置で撮像された映像データを入力するための入力インタフェースである。A/Dコンバータ2は、ビデオ入力部1から入力されたアナログ信号である映像データを量子化してディジタル信号に変換する変換部である。現画像蓄積部3は、A/Dコンバータ2によってディジタル信号に変換された現在の映像データ(以下、現画像データと称する)を入力し蓄積するデータ格納部である。背景画像蓄積部4は、A/Dコンバータ2から入力した現画像データに所定の演算を施して比較用の背景画像データを生成し記憶するデータ格納部である。背景更新部5は、背景画像蓄積部4が記憶する背景画像データに対して所定の演算を施してデータ内容(背景)を更新するデータ更新部である。例えば、過去5シーンに対応する現画像データの各画素値の平均をとったものを更新後の背景画像データとする。   The video input unit 1 is an input interface for inputting video data captured by an imaging device (not shown). The A / D converter 2 is a conversion unit that quantizes video data that is an analog signal input from the video input unit 1 and converts the image data into a digital signal. The current image storage unit 3 is a data storage unit that inputs and stores current video data (hereinafter referred to as current image data) converted into a digital signal by the A / D converter 2. The background image storage unit 4 is a data storage unit that performs a predetermined calculation on the current image data input from the A / D converter 2 to generate and store background image data for comparison. The background update unit 5 is a data update unit that performs a predetermined operation on the background image data stored in the background image storage unit 4 to update the data content (background). For example, the average of the pixel values of the current image data corresponding to the past five scenes is used as the updated background image data.

背景差分演算部6は、現画像蓄積部3と背景画像蓄積部4とが記憶する各画像データを比較してその差分画像データを算出する演算部である。閾値演算部7は、背景差分演算部6が算出した差分画像データを2値化するための閾値を算出する演算部である。一般的に、差分画像データを元にして単純なルールで最適な閾値が求められ、例えば差分画像データの画素値の平均が閾値として設定される。2値化部8は、閾値演算部7が求めた閾値で差分画像データを2値化する演算部である。特徴量演算部9は、2値化部8が算出した2値データを受けて特徴量を算出する演算部である。この特徴量を規定するパラメータには、例えば画像中の経時的に変化した画素領域を示す変化領域の面積、縦横寸法などがある。   The background difference calculation unit 6 is a calculation unit that compares the image data stored in the current image storage unit 3 and the background image storage unit 4 and calculates the difference image data. The threshold value calculation unit 7 is a calculation unit that calculates a threshold value for binarizing the difference image data calculated by the background difference calculation unit 6. In general, an optimum threshold value is obtained by a simple rule based on difference image data, and for example, an average of pixel values of difference image data is set as the threshold value. The binarization unit 8 is a calculation unit that binarizes the difference image data with the threshold obtained by the threshold calculation unit 7. The feature amount calculation unit 9 is a calculation unit that receives the binary data calculated by the binarization unit 8 and calculates a feature amount. The parameters that define the feature amount include, for example, the area of the change area indicating the pixel area that has changed over time in the image, the vertical and horizontal dimensions, and the like.

特徴量パラメータ設定値10は、特徴量パラメータ設定値(予め定めた設定値)で、発報対象を規定する所定の条件の下に予め設定しておいた特徴量の各パラメータ値である。この特徴量パラメータ設定値10は、認識処理部11として機能するコンピュータ装置の演算処理部が適宜読み出し可能な記憶装置に格納される。認識処理部11は、特徴量演算部9が算出した特徴量データと発報対象の特徴量パラメータ設定値10とを比較してイベント発生か否かを判断する判定部である。そして、認識処理部11は、イベント発生を検知した場合は、イベント検知信号12を出力するよう構成されている。   The feature amount parameter setting value 10 is a feature amount parameter setting value (predetermined setting value), which is a parameter value of each feature amount that is set in advance under a predetermined condition that defines a notification target. The feature parameter setting value 10 is stored in a storage device that can be appropriately read out by an arithmetic processing unit of a computer device functioning as the recognition processing unit 11. The recognition processing unit 11 is a determination unit that determines whether an event has occurred by comparing the feature amount data calculated by the feature amount calculation unit 9 with the feature amount parameter setting value 10 to be notified. The recognition processing unit 11 is configured to output an event detection signal 12 when an event occurrence is detected.

また、これら背景差分演算部6〜認識処理部11によって、監視対象領域を逐次撮影した映像データにおける複数の画像から、所定の動作パラメータに基づいて、監視対象領域中の変化領域を抽出すると共に、この変化領域に基づいてイベント発生の有無を検知する画像認識手段が構成されている。   In addition, the background difference calculation unit 6 to the recognition processing unit 11 extract a change region in the monitoring target region from a plurality of images in video data obtained by sequentially capturing the monitoring target region based on predetermined operation parameters, Image recognition means for detecting the presence or absence of the occurrence of an event based on the change area is configured.

発報処理部13は、認識処理部11からイベント検知信号12が出力された場合、これを受けてオペレータに対して発報を行う処理部である。発報の方法としては、例えば適当な音源と共に発報処理部13を構成しビープ音を出して発報することなどが考えられる。   When the event detection signal 12 is output from the recognition processing unit 11, the notification processing unit 13 is a processing unit that issues a notification to the operator in response to the output. As a reporting method, for example, the reporting processing unit 13 may be configured together with an appropriate sound source, and a beep sound may be generated for reporting.

周波数展開部14は、A/Dコンバータ2で量子化された画像の空間周波数を算出する演算部である。周波数要素抽出部15は、空間周波数や空間周波数変動周期、空間周波数変動幅といった空間周波数要素を求める演算部である。補正実施部16は、周波数要素抽出部15で抽出された周波数要素に基づいて、背景差分演算部6における動作パラメータを補正するものである。また、補正値テーブル17は、動作パラメータの補正値を示すテーブルである。   The frequency expansion unit 14 is a calculation unit that calculates the spatial frequency of the image quantized by the A / D converter 2. The frequency element extraction unit 15 is a calculation unit that obtains a spatial frequency element such as a spatial frequency, a spatial frequency fluctuation period, and a spatial frequency fluctuation width. The correction execution unit 16 corrects the operation parameter in the background difference calculation unit 6 based on the frequency element extracted by the frequency element extraction unit 15. The correction value table 17 is a table showing the correction values of the operation parameters.

尚、本発明の監視用画像処理装置をコンピュータを用いて実現し、上記の背景更新部5〜特徴量演算部9および認識処理部11〜補正実施部16を、それぞれの機能に対応したソフトウェアと、これらソフトウェアを実行するCPUやメモリといったハードウェアで構成してもよい。あるいは、いずれかの構成を専用のハードウェアで構成してもよい。   The monitoring image processing apparatus of the present invention is realized by using a computer, and the background update unit 5 to the feature amount calculation unit 9 and the recognition processing unit 11 to the correction execution unit 16 are configured with software corresponding to each function. Alternatively, it may be configured by hardware such as a CPU or memory for executing these software. Alternatively, either configuration may be configured with dedicated hardware.

次に、実施の形態1の監視用画像処理装置の動作について説明する。
ビデオ入力部1でカメラ映像を取り込み、A/Dコンバータ2でデジタルデータに変換し、それを現画像蓄積部3は「現画像」として蓄積する。同時に、背景更新部5は、現画像を過去の背景画像と演算処理し(例:過去のn秒間の背景と平均する等)、新たな背景画像を作成し、改めて背景画像蓄積部4へ「背景画像」として蓄積する。背景差分演算部6では、上記「現画像」と「背景画像」の差分演算を行い、差分データを作成する。ここは単純な差分ではなく、小さい差分をノイズと判断して除去する、いわゆるノイズ除去を加えておくのが一般的である。
差分データはこの時点では多値データであるが、2値化部8で2値化され、2値データとなる。2値化の際の閾値は、閾値演算部7にて「差分データ」を用いて演算されるのが一般的であるが(例:差分データのヒストグラムよりピークを求め、そこよりm値減算した値を閾値とする等)、固定値の場合もある。
2値化された差分データは、1,0で示される。この「1」の画素を整列し画面上に重ねると、図2のように、平坦な背景上で人が歩いているシーンであれば、図3のように「人」のシルエットとなる。このシルエット画像は、一般に変化領域と呼ばれる。
Next, the operation of the monitoring image processing apparatus according to the first embodiment will be described.
The camera image is captured by the video input unit 1 and converted into digital data by the A / D converter 2, and the current image storage unit 3 stores it as “current image”. At the same time, the background update unit 5 performs an arithmetic process on the current image with the past background image (for example, averages the background for the past n seconds), creates a new background image, and sends the background image storage unit 4 a new “ Accumulated as “background image”. The background difference calculation unit 6 performs a difference calculation between the “current image” and the “background image” to create difference data. This is not a simple difference, but it is general to add so-called noise removal, in which a small difference is judged as noise and removed.
The difference data is multi-value data at this point, but is binarized by the binarization unit 8 to become binary data. The threshold value for binarization is generally calculated using the “difference data” in the threshold value calculation unit 7 (example: a peak is obtained from a histogram of difference data, and m value is subtracted from there. In some cases, the value is a threshold value).
The binarized difference data is indicated by 1, 0. When the pixels “1” are aligned and overlapped on the screen, a silhouette of a “person” is obtained as shown in FIG. 3 in a scene where a person is walking on a flat background as shown in FIG. This silhouette image is generally called a change area.

一方、周波数展開部14では、画像を小さいブロックに分割し(例:16×16画素)、その中の画像の空間周波数を算出する。例えば、図4に示すように、1つのブロック(例:16×16画素)において、あるライン(16画素)を取り出し、その輝度値をグラフにプロットする。X軸が1〜16,Y軸が0〜255の座標系に1本の線が引かれたグラフになる。このグラフをフーリエ級数展開し、形状が9割以上一致する級数を求めてやれば、それが該当ライン(16画素)の空間周波数を示す。この作業をブロック内の全ラインで行い、最多の級数を選択すれば、それが該当ブロック(16×16画素)の空間周波数を示す、等である(以上は、空間周波数の求め方の1例である)。   On the other hand, the frequency developing unit 14 divides the image into small blocks (for example, 16 × 16 pixels), and calculates the spatial frequency of the image therein. For example, as shown in FIG. 4, in one block (eg, 16 × 16 pixels), a certain line (16 pixels) is taken out, and the luminance value is plotted on a graph. This is a graph in which a single line is drawn in the coordinate system with the X axis of 1 to 16 and the Y axis of 0 to 255. If this graph is expanded into a Fourier series and a series whose shape matches 90% or more is obtained, it indicates the spatial frequency of the corresponding line (16 pixels). If this operation is performed on all the lines in the block and the most series is selected, it indicates the spatial frequency of the block (16 × 16 pixels), etc. (the above is an example of how to determine the spatial frequency) Is).

周波数要素抽出部15では、各ブロックで求めた空間周波数を長時間分(例:48時間)保存し、その間の空間周波数の変動を観察し、各ブロックの周波数要素を算出し、保管する。周波数要素としては例えば次のようなものがある。
(1)空間周波数(上述した空間周波数そのもの)
(2)空間周波数変動周期(上記保存期間の中で変動にサイクルが有れば、そのサイクル周期)
(3)空間周波数変動幅(画面の中の全ブロックの空間周波数を同時に見た場合の、変動幅)
(4)空間周波数ピーク値(画面の中の全ブロックの空間周波数を同時に見た場合の、最大値)
The frequency element extraction unit 15 stores the spatial frequency obtained in each block for a long time (eg, 48 hours), observes the variation of the spatial frequency during that time, calculates the frequency element of each block, and stores it. Examples of frequency elements include the following.
(1) Spatial frequency (the above-mentioned spatial frequency itself)
(2) Spatial frequency fluctuation period (if there is a cycle in fluctuation during the above storage period, the cycle period)
(3) Spatial frequency fluctuation width (variation width when viewing the spatial frequency of all blocks in the screen simultaneously)
(4) Spatial frequency peak value (maximum value when viewing the spatial frequency of all blocks in the screen at the same time)

補正実施部16では、先ず周波数要素を見て、映像の各ブロックがどういう状況かを類推する。
例えば、(1)空間周波数は、ブロックの中のコントラストが低いと下がり、高いと上がる相関関係を持つ。仮に空間周波数は低ければ、そのブロックは「照度不足で暗い」「照度不足で暗い為電子増感がONして、明るくは見えるが動きはぼやけている」「見えているブロックの風景がたまたま単一」のいずれかであると類推出来る。
また、(4)空間周波数ピーク値は、画面中のブロックに空間周波数の最大値を示すもので、最も複雑な風景を見ているブロックの値となる。この値が高ければ、空間周波数が低いブロックが多くても、カメラの視野全体で論じれば、実は「照度不足で暗い」「照度不足で暗い為電子増感がONして、明るくは見えるが動きはぼやけている」ではないと類推する事が出来る。
また、(2)空間周波数変動周期は、周期が24時間に類似で有ればカメラは屋外を観測し、不規則で有れば屋内を観測するカメラであるという予測が出来る。これは各ブロックで観測せず、全画面のブロックより代表的な複数のブロックを選出し測定すると良い。
また、(3)空間周波数変動幅は、画面中のブロックに空間周波数の差が有れば大きく、差がなければ小さくなる。仮に空間周波数変動幅が低ければ、カメラが見ているエリアは、複雑さが均一(例:床面のみ見ている)であると予測出来、逆に空間周波数変動幅が高ければ、カメラが見ているエリアは、複雑さがばらついている(例:道路と木立と家並みが見えている)と予測出来る。
First, the correction execution unit 16 looks at the frequency elements and infers the situation of each block of the video.
For example, (1) the spatial frequency has a correlation that decreases when the contrast in the block is low and increases when the contrast is high. If the spatial frequency is low, the block is “dark due to insufficient illuminance”, “it is dark due to insufficient illuminance, so the electronic sensitization is turned on and it looks bright but the motion is blurred” It can be inferred that it is either “one”.
Further, (4) the spatial frequency peak value indicates the maximum value of the spatial frequency in the block in the screen, and is the value of the block that is viewing the most complicated landscape. If this value is high, even if there are many blocks with a low spatial frequency, if we discuss it with the entire field of view of the camera, it is actually dark because of insufficient illuminance and dark due to insufficient illuminance. It can be inferred that the movement is not blurred.
In addition, (2) the spatial frequency fluctuation period can be predicted that if the period is similar to 24 hours, the camera observes the outdoors, and if it is irregular, the camera observes the indoors. This is not observed in each block, and a plurality of representative blocks may be selected and measured from the blocks on the entire screen.
(3) The spatial frequency fluctuation width is large if there is a spatial frequency difference between the blocks in the screen, and is small if there is no difference. If the spatial frequency fluctuation range is low, the area viewed by the camera can be predicted to be uniform in complexity (eg, only the floor surface is viewed), and conversely if the spatial frequency fluctuation range is high, the camera can see it. Area can vary in complexity (eg, roads, trees and houses are visible).

以下、具体例で示す。
<例1>
24時間観測し、
(a)空間周波数が常に低い
(b)空間周波数変動周期が不明瞭
(c)空間周波数変動幅が常に小さい
(d)空間周波数ピーク値が常に低い
このような場合は、上記(a)(d)から、該当ブロックは「照度不足で暗い」「照度不足で暗い為電子増感がONして、明るくは見えるが動きはぼやけている」「見えているブロックの風景がたまたま単一」等の状況であると類推出来る。
また、(b)から、カメラ視野は照明変動が小さい為、屋内と類推出来る。
更に、(c)から、カメラ視野は平坦な風景を撮像していると類推出来る。(例:屋内の通路等)
以上により、本カメラは「屋内の通路等、平坦な風景を撮像している」と類推出来る。
Specific examples will be shown below.
<Example 1>
Observed for 24 hours,
(A) The spatial frequency is always low (b) The spatial frequency fluctuation period is unclear (c) The spatial frequency fluctuation width is always small (d) The spatial frequency peak value is always low In such a case, (a) (d ), The corresponding block is “dark due to insufficient illumination”, “because it is dark due to insufficient illumination, the electronic sensitization is turned on, it looks bright but the motion is blurred”, “the scenery of the visible block happens to be single”, etc. It can be inferred that this is the situation.
From (b), it can be inferred that the camera field of view is indoors because the illumination fluctuation is small.
Furthermore, it can be inferred from (c) that the camera field of view is capturing a flat landscape. (Example: indoor passage etc.)
From the above, it can be inferred that this camera is imaging a flat landscape such as an indoor passage.

<例2>
24時間観測し、
(a)空間周波数が周期的に変動
(b)空間周波数変動周期が24時間近傍で、且つ正午付近で高い傾向
(c)空間周波数変動幅が日中時間帯は大きい、夜間時間帯は小さい
(d)空間周波数ピーク値が日中時間帯は高い、夜間時間帯は小さい
このような場合、(b)から、本カメラは屋外を撮像していると類推出来る。
また、(c)から、本カメラは平坦な場所と複雑な場所とを撮影している。(例:屋外の床面と、木立の枝葉等)
更に、(a)(d)から、日中の視野の照度は十分だが、夜間の照度は不足しており「照度不足で暗い」「照度不足で暗い為電子増感がONして、明るくは見えるが動きはぼやけている」の状況にあると類推出来る。
→以上により、本カメラは「屋外の床面や木立を含んだ複雑な風景を撮像しており、夜間は無照明」と類推出来る。
<Example 2>
Observed for 24 hours,
(A) Spatial frequency fluctuates periodically (b) Spatial frequency fluctuation period tends to be high around 24 hours and near noon (c) Spatial frequency fluctuation range is large during daytime and small during nighttime ( d) The peak value of the spatial frequency is high during the daytime period and small during the nighttime period. In this case, it can be inferred from this (b) that the camera is capturing the outdoors.
In addition, from (c), the camera captures a flat place and a complicated place. (Example: Outdoor floor and branches and leaves of trees)
In addition, from (a) and (d), the illuminance of the field of view during the day is sufficient, but the illuminance at night is insufficient, and it is "dark due to insufficient illuminance". It can be inferred that the situation is “I can see it but the movement is blurry”.
→ From the above, this camera can be analogized as "capturing a complex landscape including outdoor floors and trees, and no lighting at night."

<例3>
24時間観測し、
(a)空間周波数が周期的に変動
(b)空間周波数変動周期が24時間近傍で、且つ正午付近と夜間に高い傾向
(c)空間周波数変動幅は常に小さい
(d)空間周波数ピーク値は日中時間帯は小さい、夜間時間帯は大きい
このような場合、(b)から、本カメラは屋外を撮像していると類推出来る。
また、(c)から、本カメラは平坦な場所を撮影している。(例:屋外の床面等)
更に、(a)(d)から、日中の視野の照度は不足だが、夜間の照度は十分あると類推出来る。よって「照度不足で暗い」「照度不足で暗い為電子増感がONして、明るくは見えるが動きはぼやけている」の状況には無いと類推出来る。
以上により、本カメラは「屋外の床面等平坦な風景を撮像しており、夜間は照明が十分」と類推出来る。
<Example 3>
Observed for 24 hours,
(A) Spatial frequency fluctuates periodically (b) Spatial frequency fluctuation period tends to be high around 24 hours and near noon and at night (c) Spatial frequency fluctuation range is always small (d) Spatial frequency peak value is day Medium time zone is small, night time zone is large. In such a case, it can be inferred from (b) that this camera is shooting outdoors.
Also, from (c), the camera is photographing a flat place. (Example: Outdoor floor, etc.)
Furthermore, from (a) and (d), it can be inferred that the illuminance of the visual field during the day is insufficient, but the illuminance at night is sufficient. Therefore, it can be inferred that there is no situation where “dark due to insufficient illumination” or “dark due to insufficient illumination, so that electronic sensitization is turned on and it appears bright but the motion is blurred”.
From the above, it can be inferred that this camera “captures an image of a flat landscape such as an outdoor floor and is well lit at night”.

このように、本実施の形態では、周波数要素を長時間観測する事によって、カメラの設置環境や撮像対象の風景を類推する事が出来る。
カメラの設置環境や撮像対象の風景は、カメラから取得出来る画像を直接左右する。屋外で有れば昼夜の映像の激変を伴い、照度不足で有れば夜間のコントラストを低下させる。
しかし、従来の装置では、この様な「カメラの設置環境や撮像対象の風景」の情報はない為、いかなる映像であっても共通の画像処理を行うことしかできなかった。
本装置は、「カメラの設置環境や撮像対象の風景」を類推する手段を有する為、これらの影響を予測し画像処理を補正する事が可能となる。
As described above, in this embodiment, it is possible to analogize the installation environment of the camera and the scenery to be imaged by observing the frequency element for a long time.
The installation environment of the camera and the scenery to be imaged directly affect the images that can be acquired from the camera. If it is outdoors, there will be a drastic change in the image of day and night, and if it is insufficient, the contrast at night will be reduced.
However, in the conventional apparatus, there is no such information on “camera installation environment and scenery to be imaged”, and therefore it is only possible to perform common image processing for any video.
Since this apparatus has means for analogizing “the camera installation environment and the scene to be imaged”, it is possible to predict these effects and correct the image processing.

補正実施部16では、以上のように「カメラの設置環境や撮像対象の風景」の状況を把握したら、補正値テーブル17を参照し、状況に応じた補正を行う。
これは、ブロック毎に補正を変えても、全画面に同一の補正を実施しても構わない。補正値テーブル17には、予め周波数要素の組合せに応じて複数の補正パターンが登録されている。その補正値は、背景差分演算部6における動作パラメータの補正を行う。以下、例で示す。
When the correction execution unit 16 grasps the situation of “the camera installation environment and the scene to be imaged” as described above, the correction execution unit 16 refers to the correction value table 17 and performs correction according to the situation.
In this case, the correction may be changed for each block, or the same correction may be performed on the entire screen. In the correction value table 17, a plurality of correction patterns are registered in advance according to combinations of frequency elements. The correction value corrects the operation parameter in the background difference calculation unit 6. An example is shown below.

[例1]:屋内の通路等平坦な場所を撮像していると予測される
→照度変動が小さいので、通常はノイズと判断される小さな差分値でも、ノイズではない可能性が高い。よって背景差分演算部6では、ノイズ除去をしないよう動作パラメータを設定する。
[例2]:屋外の床面や木立を含んだ複雑な風景を撮像しており、夜間は無照明と予想される
→屋外であるので、日中は照度が十分であり、問題無し。
→夜間照明が無いので、夜間は差分が抽出されにくくなる。空間周波数が下がった夜間では、背景差分演算部6にて、現画像と背景画像に輪郭強調処理を施すよう動作パラメータを設定してから差分を取り、夜間のコントラスト不足を補う。
[例3]:屋外の床面等平坦な風景を撮像しており、夜間は照明が十分と予想される
→屋外ではあるが、夜間の照明がしっかりしており照度が十分。問題無し。
→日照が届かない物陰であり、天候によっては日中の差分が抽出されにくくなる。空間周波数が下がった日中では、背景差分演算部6にて現画像と背景画像に輪郭強調処理を施してから差分を取り、コントラスト不足を補う。
[Example 1]: It is predicted that an image of a flat place such as an indoor passage is taken. → Since the fluctuation in illuminance is small, there is a high possibility that even a small difference value that is usually determined as noise is not noise. Therefore, the background difference calculation unit 6 sets operation parameters so as not to remove noise.
[Example 2]: An image of a complex landscape including an outdoor floor and trees is taken, and it is expected that there will be no illumination at night. → Since it is outdoors, there is no problem because the illuminance is sufficient during the day.
→ Because there is no night lighting, it is difficult to extract differences at night. At night when the spatial frequency is lowered, the background difference calculation unit 6 sets an operation parameter so as to perform contour enhancement processing on the current image and the background image, and then calculates the difference to compensate for the lack of contrast at night.
[Example 3]: An image of a flat landscape such as an outdoor floor surface is taken, and it is expected that the illumination is sufficient at night. → Although it is outdoors, the illumination at night is solid and the illuminance is sufficient. No problem.
→ It is a shadow that the sunshine does not reach, and it is difficult to extract the difference during the day depending on the weather. In the daytime when the spatial frequency is lowered, the background difference calculation unit 6 performs contour enhancement processing on the current image and the background image, and then calculates the difference to compensate for the lack of contrast.

以上説明したように、周波数展開部14〜補正実施部16により、コントラスト不足を適宜補う結果、変化領域は本来のシルエットに近い形状に回復される。これは、それまではコントラストが低く精度良く変化領域が切り出せなかった問題を、補正により軽減した結果である。その結果、特徴量演算部9で演算される各種特徴量は、十分なコントラストがあって変化領域が精度良く切り出されていた状況と、近似の値を取る。変化領域の面積や縦横寸法や移動ベクトルなどは、本来の値と類似となる為、認識精度の劣化が防げる。   As described above, the frequency expansion unit 14 to the correction execution unit 16 appropriately compensate for the lack of contrast, and as a result, the changed region is restored to a shape close to the original silhouette. This is a result of alleviating the problem that until then the change area could not be cut out with low contrast and accuracy. As a result, the various feature values calculated by the feature value calculation unit 9 take an approximate value with the situation in which there is sufficient contrast and the change area is cut out with high accuracy. Since the area of the change area, vertical and horizontal dimensions, movement vector, and the like are similar to the original values, deterioration of recognition accuracy can be prevented.

それら特徴量は、認識処理部11にて、特徴量パラメータ設定値10と比較され、設定値に該当すれば、イベント発生を示すイベント検知信号12が出力される。
図5は、認識処理部11の動作を示すフローチャートである。
先ず、認識処理部11は、特徴量演算部9から特徴量データを取得する(ステップST1)と、その「連続性」が特徴量パラメータ設定値10に合致するか否かを判定する(ステップST2)。この「連続性」の判定には、例えば処理対象となる差分画像データにおける変化領域が映像中に何フレーム生存したかを示す連続時間が用いられる。具体的には、特徴量パラメータ設定値10の範囲が「最小4フレーム、最大10フレーム」である場合、変化領域が生存する連続時間が4〜10フレームであれば合致すると判断される。また、それ以外であれば、特徴量パラメータ設定値10の範囲に合致しないと判断される。ここで、特徴量パラメータ設定値10の範囲に合致すると判断されると、ステップST3の処理に進み、合致しないと処理を終了する。
These feature quantities are compared with the feature quantity parameter setting value 10 in the recognition processing unit 11, and if the feature quantity corresponds to the set value, an event detection signal 12 indicating the occurrence of an event is output.
FIG. 5 is a flowchart showing the operation of the recognition processing unit 11.
First, when the recognition processing unit 11 acquires feature amount data from the feature amount calculation unit 9 (step ST1), the recognition processing unit 11 determines whether or not the “continuity” matches the feature amount parameter setting value 10 (step ST2). ). For the determination of “continuity”, for example, a continuous time indicating how many frames the change area in the difference image data to be processed survives in the video is used. Specifically, when the range of the feature parameter setting value 10 is “minimum 4 frames, maximum 10 frames”, it is determined that the change areas match if the continuous time in which the change area survives is 4 to 10 frames. Otherwise, it is determined that it does not match the range of the feature parameter setting value 10. Here, if it is determined that the value matches the range of the feature parameter setting value 10, the process proceeds to step ST3, and if not, the process ends.

ステップST3において、認識処理部11は、特徴量演算部9が求めた特徴量データの「面積」が特徴量パラメータ設定値10に合致するか否かを判定する。この「面積」の判定には、例えば差分画像データの2値変化領域の画素数が用いられる。具体的には、特徴量パラメータ設定値10の範囲が「最小500画素、最大1000画素」である場合、2値変化領域の面積が500〜1000画素であれば合致すると判断される。また、それ以外であれば、特徴量パラメータ設定値10の範囲に合致しないと判断される。ここで、特徴量パラメータ設定値10の範囲に合致すると判断されると、ステップST4の処理に進み、合致しないと処理を終了する。   In step ST <b> 3, the recognition processing unit 11 determines whether or not the “area” of the feature amount data obtained by the feature amount calculation unit 9 matches the feature amount parameter setting value 10. For the determination of the “area”, for example, the number of pixels in the binary change area of the difference image data is used. Specifically, when the range of the feature parameter setting value 10 is “minimum 500 pixels, maximum 1000 pixels”, it is determined that the binary change area matches if the area is 500 to 1000 pixels. Otherwise, it is determined that it does not match the range of the feature parameter setting value 10. Here, if it is determined that it matches the range of the feature parameter setting value 10, the process proceeds to step ST4, and if not, the process ends.

次に、認識処理部11は、特徴量演算部9が求めた特徴量データの「縦横寸法」が特徴量パラメータ設定値10に合致するか否かを判定する(ステップST4)。この「縦横寸法」の判定には、例えば2値の変化領域を規定する外接矩形の縦の長さや横の長さが用いられる。具体的には、特徴量パラメータ設定値10の範囲が「縦最小50画素、最大100画素」、「横最小50画素、最大100画素」である場合、2値変化領域の縦横寸法が共に50〜100画素であれば合致すると判断される。また、それ以外であれば、特徴量パラメータ設定値10の範囲に合致しないと判断される。ここで、特徴量パラメータ設定値10の範囲に合致すると判断されると、ステップST5の処理に進み、合致しないと処理を終了する。   Next, the recognition processing unit 11 determines whether or not the “vertical and horizontal dimensions” of the feature amount data obtained by the feature amount calculating unit 9 matches the feature amount parameter setting value 10 (step ST4). For the determination of the “vertical and horizontal dimensions”, for example, the vertical length or horizontal length of a circumscribed rectangle that defines a binary change region is used. Specifically, when the range of the feature parameter setting value 10 is “minimum vertical 50 pixels, maximum 100 pixels” and “horizontal minimum 50 pixels, maximum 100 pixels”, both the vertical and horizontal dimensions of the binary change area are 50 to 50. If it is 100 pixels, it is determined that they match. Otherwise, it is determined that it does not match the range of the feature parameter setting value 10. Here, if it is determined that it matches the range of the feature parameter setting value 10, the process proceeds to step ST5, and if not, the process ends.

続いて、認識処理部11は、特徴量演算部9が求めた特徴量データの「速度」が特徴量パラメータ設定値10に合致するか否かを判定する(ステップST5)。この「速度」の判定には、例えば、当該変化領域の映像中における移動速度が用いられる。具体的には、特徴量パラメータ設定値10の範囲が「最小50画素/秒、最大100画素/秒」である場合、2値変化領域の映像中における移動速度が50〜100画素/秒であれば合致すると判断される。また、それ以外であれば、特徴量パラメータ設定値10の範囲に合致しないと判断される。ここで、特徴量パラメータ設定値10の範囲に合致すると判断されると、ステップST6の処理に進み、合致しないと処理を終了する。   Subsequently, the recognition processing unit 11 determines whether or not the “speed” of the feature amount data obtained by the feature amount calculating unit 9 matches the feature amount parameter setting value 10 (step ST5). For the determination of the “speed”, for example, the moving speed in the video of the change area is used. Specifically, when the range of the feature parameter setting value 10 is “minimum 50 pixels / second, maximum 100 pixels / second”, the moving speed of the binary change area in the video may be 50 to 100 pixels / second. Are determined to match. Otherwise, it is determined that it does not match the range of the feature parameter setting value 10. Here, if it is determined that the value matches the range of the feature parameter setting value 10, the process proceeds to step ST6, and if not, the process ends.

尚、上述した「面積」、「縦横寸法」、「移動速度」は、ステップST2で判定に使用する、2値変化領域の生存時間中における各画像の特徴量の平均値を算出して、特徴量パラメータ設定値10と比較するのが一般的である。   The above-mentioned “area”, “vertical / horizontal dimensions”, and “moving speed” are obtained by calculating the average value of the feature values of each image during the lifetime of the binary change area used for the determination in step ST2. It is common to compare with the quantity parameter set value of 10.

ステップST6において、認識処理部11は、正規の発報対象を特定する全ての特徴量パラメータ設定値10に合致すると判断し、イベント検知信号12を発報処理部13に出力する。尚、ステップST1からステップST6までの処理は、コンピュータ装置によって認識処理部11の機能を有するソフトウェアを実行することで実現することができる。
発報処理部13では、認識処理部11からのイベント検知信号12を受けると、発報処理を行う。
In step ST <b> 6, the recognition processing unit 11 determines that it matches all the feature parameter setting values 10 that specify the regular reporting target, and outputs an event detection signal 12 to the reporting processing unit 13. In addition, the process from step ST1 to step ST6 is realizable by executing the software which has the function of the recognition process part 11 with a computer apparatus.
Upon receiving the event detection signal 12 from the recognition processing unit 11, the reporting processing unit 13 performs a reporting process.

以上のように、実施の形態1の監視用画像処理装置によれば、監視対象領域を逐次撮影した映像データにおける複数の画像から、所定の動作パラメータに基づいて、監視対象領域中の変化領域を抽出すると共に、変化領域に基づいてイベント発生の有無を検知する画像認識手段と、監視対象領域を撮影した画像の空間周波数を算出する周波数展開部14と、周波数展開部14で算出された空間周波数から所定の周波数要素を抽出する周波数要素抽出部15と、周波数要素抽出部15で抽出された周波数要素に基づいて、監視対象領域の状況を類推し、この類推結果に対応して、動作パラメータの補正を行う補正実施部16とを備えたので、撮影画像が輝度の低いコントラストの小さい画像であっても、精度良くイベント検知を行うことができる。   As described above, according to the monitoring image processing apparatus of the first embodiment, the change area in the monitoring target area is determined based on the predetermined operation parameter from the plurality of images in the video data obtained by sequentially capturing the monitoring target area. An image recognition means for extracting and detecting the occurrence of an event based on the change area, a frequency expansion section 14 for calculating a spatial frequency of an image obtained by photographing the monitoring target area, and a spatial frequency calculated by the frequency expansion section 14 Based on the frequency element extracted from the frequency element extraction unit 15 and the frequency element extracted by the frequency element extraction unit 15, the situation of the monitoring target area is inferred, and the operation parameter And a correction execution unit 16 that performs correction, so that even when the captured image is a low-brightness and low-contrast image, event detection can be performed with high accuracy. .

また、実施の形態1の監視用画像処理装置によれば、画像認識手段は、監視対象領域の背景画像と現画像との差分を所定の動作パラメータに基づいて演算する背景差分演算部6と、背景差分演算部6で演算された差分値を2値化して変化領域を抽出する2値化部8と、変化領域に基づく監視対象領域の特徴量と、予め定められた特徴量の設定値とを比較して監視対象領域におけるイベント発生の有無を判定する認識処理部11とを備え、補正実施部16は、動作パラメータを補正するようにしたので、撮影画像が輝度の低いコントラストの小さい画像であっても、背景画像と現画像との差分を正確に求めることができ、その結果、精度良くイベント検知を行うことができる。   Further, according to the monitoring image processing apparatus of the first embodiment, the image recognition unit includes a background difference calculation unit 6 that calculates a difference between the background image of the monitoring target area and the current image based on a predetermined operation parameter; A binarization unit 8 that binarizes the difference value calculated by the background difference calculation unit 6 and extracts a change region, a feature amount of a monitoring target region based on the change region, and a preset value of a feature amount And the recognition processing unit 11 that determines whether or not an event has occurred in the monitoring target region, and the correction execution unit 16 corrects the operation parameter, so that the captured image is a low-brightness, low-contrast image. Even if it exists, the difference of a background image and the present image can be calculated | required correctly, As a result, an event detection can be performed with sufficient precision.

実施の形態2.
図6は、実施の形態2の監視用画像処理装置の構成図である。
実施の形態2は、補正実施部16aが動作パラメータの補正として、閾値演算部7における閾値の補正を行うようにしたものである。即ち、補正実施部16aが保有する補正値テーブル17aには、閾値演算部7における閾値の補正値が登録されており、補正実施部16aは、この補正値に基づいて閾値演算部7の補正を行う。その他の構成については図1に示した実施の形態1と同様であるため、対応する部分に同一符号を付してその説明を省略する。
Embodiment 2. FIG.
FIG. 6 is a configuration diagram of the monitoring image processing apparatus according to the second embodiment.
In the second embodiment, the correction execution unit 16a corrects the threshold value in the threshold value calculation unit 7 as the correction of the operation parameter. That is, in the correction value table 17a held by the correction execution unit 16a, the threshold correction value in the threshold calculation unit 7 is registered, and the correction execution unit 16a corrects the threshold calculation unit 7 based on the correction value. Do. Since the other configuration is the same as that of the first embodiment shown in FIG.

次に、実施の形態2の動作について説明する。
ここで、ビデオ入力部1〜発報処理部13までの基本的な動作および周波数展開部14〜周波数要素抽出部15までの動作は実施の形態1と同様であるため、ここでの説明は省略する。
Next, the operation of the second embodiment will be described.
Here, the basic operation from the video input unit 1 to the notification processing unit 13 and the operation from the frequency expansion unit 14 to the frequency element extraction unit 15 are the same as those in the first embodiment, and thus description thereof is omitted here. To do.

補正実施部16aでは、周波数要素抽出部15で抽出した周波数要素に基づいて「カメラの設置環境や撮像対象の風景」の状況を把握したら、次に、補正値テーブル17aを参照し、状況に応じた補正を行う。尚、ここで、補正の方法については、ブロック毎に補正を変えても、全画面に同一の補正を実施しても構わない。
補正値テーブル17aには、予め周波数要素の組合せに応じて複数の補正パターンが登録されており、補正実施部16aは、この補正パターンを用いて閾値演算部7の閾値を補正する。以下、その例を示す。
When the correction execution unit 16a grasps the status of “camera installation environment and imaging target landscape” based on the frequency elements extracted by the frequency element extraction unit 15, the correction execution unit 16a refers to the correction value table 17a and corresponds to the situation. Make corrections. Here, regarding the correction method, the correction may be changed for each block, or the same correction may be performed on the entire screen.
In the correction value table 17a, a plurality of correction patterns are registered in advance according to combinations of frequency elements, and the correction execution unit 16a corrects the threshold value of the threshold value calculation unit 7 using the correction pattern. Examples are shown below.

[例1]:屋内の通路等平坦な場所を撮像していると予測される
→照度変動が小さいので、通常はノイズと判断される小さな差分値でも、ノイズではない可能性が高い。よって、閾値演算部7において、変化領域をより大きめに切り出せるように、閾値を通常より一定量小さく求める。
[例2]:屋外の床面や木立を含んだ複雑な風景を撮像しており、夜間は無照明と予想される
→屋外であるので、日中は照度が十分であり、問題無し。
→夜間照明が無いので、夜間は差分が抽出されにくくなる。空間周波数が下がった夜間では、閾値演算部7において、変化領域をより大きめに切り出せるように、閾値を通常より一定量小さく求め、コントラスト不足を補う。
[例3]:屋外の床面等平坦な風景を撮像しており、夜間は照明が十分と予想される
→屋外ではあるが、夜間の照明がしっかりしており照度が十分。問題無し。
→日照が届かない物陰であり、天候によっては日中の差分が抽出されにくくなる。空間周波数が下がった日中では、閾値演算部7において変化領域をより大きめに切り出せるように、閾値を通常より一定量小さく求め、コントラスト不足を補う。
[Example 1]: It is predicted that an image of a flat place such as an indoor passage is taken. → Since the fluctuation in illuminance is small, there is a high possibility that even a small difference value that is usually determined as noise is not noise. Therefore, the threshold value calculation unit 7 obtains the threshold value by a certain amount smaller than usual so that the change area can be cut out larger.
[Example 2]: An image of a complex landscape including an outdoor floor and trees is taken, and it is expected that there will be no illumination at night. → Since it is outdoors, there is no problem because the illuminance is sufficient during the day.
→ Because there is no night lighting, it is difficult to extract differences at night. At night when the spatial frequency is lowered, the threshold value calculation unit 7 calculates the threshold value by a certain amount smaller than usual so that the change area can be cut out larger, and compensates for the lack of contrast.
[Example 3]: An image of a flat landscape such as an outdoor floor surface is taken, and it is expected that the illumination is sufficient at night. → Although it is outdoors, the illumination at night is solid and the illuminance is sufficient. No problem.
→ It is a shadow that the sunshine does not reach, and it is difficult to extract the difference during the day depending on the weather. During the day when the spatial frequency is lowered, the threshold value calculation unit 7 obtains the threshold value by a certain amount smaller than usual so that the change area can be cut out larger, thereby compensating for the lack of contrast.

以上のように、周波数展開部14〜補正実施部16aによって、コントラスト不足を適宜補う結果、変化領域は本来のシルエットに近い形状に回復される。これは、それまではコントラストが低く精度良く変化領域が切り出せなかった問題を、補正により軽減した結果である。その結果、特徴量演算部9で演算される各種特徴量は、十分なコントラストがあって変化領域が精度良く切り出されていた状況と、近似の値を取る。変化領域の面積や縦横寸法や移動ベクトルなどは、本来の値と類似となる為、認識精度の劣化が防げる。   As described above, as a result of appropriately compensating for the lack of contrast by the frequency expansion unit 14 to the correction execution unit 16a, the changed region is restored to a shape close to the original silhouette. This is a result of alleviating the problem that until then the change area could not be cut out with low contrast and accuracy. As a result, the various feature values calculated by the feature value calculation unit 9 take an approximate value with the situation in which there is sufficient contrast and the change area is cut out with high accuracy. Since the area of the change area, vertical and horizontal dimensions, movement vector, and the like are similar to the original values, deterioration of recognition accuracy can be prevented.

また、各種特徴量は、認識処理部11にて、予め特徴量パラメータ設定値10に蓄えられていた特徴量パラメータ設定値と比較され、設定値に該当すれば、イベント検知を示すイベント検知信号12が出力される。認識処理部11における処理は図5に示した通りである。そして、発報処理部13では、認識処理部11からイベント検知信号12を受け取ると、処理の発報処理を行う。   In addition, the various feature amounts are compared with the feature amount parameter setting values stored in advance in the feature amount parameter setting value 10 in the recognition processing unit 11, and if they correspond to the setting value, the event detection signal 12 indicating event detection. Is output. The processing in the recognition processing unit 11 is as shown in FIG. When the event detection signal 12 is received from the recognition processing unit 11, the notification processing unit 13 performs a process reporting process.

以上のように、実施の形態2の監視用画像処理装置によれば、画像認識手段は、監視対象領域の背景画像と現画像との差分を演算する背景差分演算部6と、背景差分演算部6で演算された差分値に基づいて、2値化のための閾値を所定の動作パラメータとして演算する閾値演算部7と、背景差分演算部6で演算された差分値を閾値で2値化して変化領域を抽出する2値化部8と、変化領域に基づく監視対象領域の特徴量と、予め定められた特徴量の設定値とを比較して監視対象領域におけるイベント発生の有無を判定する認識処理部11とを備え、補正実施部16aは、閾値演算部7で演算する閾値を補正するようにしたので、撮影画像が輝度の低いコントラストの小さい画像であっても、この画像に応じた閾値とすることができ、その結果、精度良くイベント検知を行うことができる。   As described above, according to the monitoring image processing apparatus of the second embodiment, the image recognition unit includes the background difference calculation unit 6 that calculates the difference between the background image of the monitoring target area and the current image, and the background difference calculation unit. Based on the difference value calculated in 6, the threshold value calculation unit 7 that calculates a threshold value for binarization as a predetermined operation parameter and the difference value calculated in the background difference calculation unit 6 are binarized with the threshold value. A binarization unit 8 for extracting a change area, and a recognition for determining whether or not an event has occurred in the monitoring target area by comparing a feature amount of the monitoring target area based on the changing area with a preset value of the feature quantity Since the correction execution unit 16a corrects the threshold value calculated by the threshold value calculation unit 7, even if the captured image is a low-brightness and low-contrast image, the threshold value corresponding to this image is provided. And the result can be Accuracy can be an event detection.

実施の形態3.
図7は、実施の形態3の監視用画像処理装置の構成図である。
実施の形態3は、補正実施部16bが動作パラメータの補正として、特徴量パラメータ設定値10の補正を行うようにしたものである。即ち、補正実施部16bが保有する補正値テーブル17bは、特徴量パラメータ設定値10の補正値が登録されており、補正実施部16bは、この補正値に基づいて特徴量パラメータ設定値10の補正を行う。その他の構成については図1に示した実施の形態1と同様であるため、対応する部分に同一符号を付してその説明を省略する。
Embodiment 3 FIG.
FIG. 7 is a configuration diagram of the monitoring image processing apparatus according to the third embodiment.
In the third embodiment, the correction execution unit 16b corrects the feature parameter setting value 10 as the operation parameter correction. That is, the correction value table 17b held by the correction execution unit 16b stores the correction value of the feature parameter setting value 10, and the correction execution unit 16b corrects the feature parameter setting value 10 based on the correction value. I do. Since other configurations are the same as those of the first embodiment shown in FIG. 1, the corresponding parts are denoted by the same reference numerals and description thereof is omitted.

次に、実施の形態3の動作について説明する。
ここで、ビデオ入力部1〜発報処理部13までの基本的な動作および周波数展開部14〜周波数要素抽出部15までの動作は実施の形態1と同様であるため、ここでの説明は省略する。
補正実施部16bでは、周波数要素抽出部15で抽出した周波数要素に基づいて「カメラの設置環境や撮像対象の風景」の状況を把握したら、補正値テーブル17bを参照し、状況に応じた補正を行う。尚、この補正は、ブロック毎に補正を変えても、全画面に同一の補正を実施しても構わない。
補正値テーブル17bには、予め周波数要素の組合せに応じて複数の補正パターンが登録されており、補正実施部16bは、この補正パターンを用いて特徴量パラメータ設定値10の補正を行う。以下、その例で示す。
Next, the operation of the third embodiment will be described.
Here, the basic operation from the video input unit 1 to the notification processing unit 13 and the operation from the frequency expansion unit 14 to the frequency element extraction unit 15 are the same as those in the first embodiment, and thus description thereof is omitted here. To do.
When the correction execution unit 16b grasps the situation of the “camera installation environment and the scene to be imaged” based on the frequency element extracted by the frequency element extraction unit 15, the correction execution unit 16b refers to the correction value table 17b and performs correction according to the situation. Do. In this correction, the correction may be changed for each block, or the same correction may be performed on the entire screen.
In the correction value table 17b, a plurality of correction patterns are registered in advance according to combinations of frequency elements, and the correction execution unit 16b corrects the feature parameter setting value 10 using the correction patterns. Examples are shown below.

[例1]:屋内の通路等平坦な場所を撮像していると予測される
→照度変動が小さいので、通常はノイズと判断される小さな差分値でも、ノイズではない可能性が高い。よって、特徴量パラメータ設定値10では面積判断や縦横判断の設定値をより小さい変化領域でも合格となるように設定切り替えする。
[例2]:屋外の床面や木立を含んだ複雑な風景を撮像しており、夜間は無照明と予想される
→屋外であるので、日中は照度が十分であり、問題無し。
→夜間照明が無いので、夜間は差分が抽出されにくくなる。空間周波数が下がった夜間では、特徴量パラメータ設定値では面積判断や縦横判断の設定値をより小さい変化領域でも合格となるように設定切り替えし、コントラスト不足を補う。
例3:屋外の床面等平坦な風景を撮像しており、夜間は照明が十分と予想される
→屋外ではあるが、夜間の照明がしっかりしており照度が十分。問題無し。
→日照が届かない物陰であり、天候によっては日中の差分が抽出されにくくなる。空間周波数が下がった日中では、特徴量パラメータ設定値10では面積判断や縦横判断の設定値をより小さい変化領域でも合格となるように設定切り替えし、コントラスト不足を補う。
[Example 1]: It is predicted that an image of a flat place such as an indoor passage is taken. → Since the fluctuation in illuminance is small, there is a high possibility that even a small difference value that is usually determined as noise is not noise. Therefore, the feature value parameter setting value 10 is switched so that the setting values for the area determination and the vertical / horizontal determination are acceptable even in a smaller change area.
[Example 2]: An image of a complex landscape including an outdoor floor and trees is taken, and it is expected that there will be no illumination at night. → Since it is outdoors, there is no problem because the illuminance is sufficient during the day.
→ Because there is no night lighting, it is difficult to extract differences at night. At night when the spatial frequency is lowered, the feature parameter setting value is switched so that the setting value of the area determination and the vertical / horizontal determination is acceptable even in a smaller change area, and the lack of contrast is compensated.
Example 3: An image of a flat landscape such as an outdoor floor surface is captured, and sufficient illumination is expected at night. → Although it is outdoors, the illumination at night is solid and the illumination is sufficient. No problem.
→ It is a shadow that the sunshine does not reach, and it is difficult to extract the difference during the day depending on the weather. In the daytime when the spatial frequency is lowered, the feature value parameter setting value 10 is switched so that the setting value of the area determination and the vertical / horizontal determination is acceptable even in a smaller change area, and the lack of contrast is compensated.

以上のように、周波数展開部14〜補正実施部16bによりコントラスト不足を適宜補う結果、変化領域は本来のシルエットに近い形状に回復される。これは、それまではコントラストが低く精度良く変化領域が切り出せなかった問題を、補正により軽減した結果である。その結果、特徴量演算部9で演算される各種特徴量は、十分なコントラストがあって変化領域が精度良く切り出されていた状況と、近似の値を取る。変化領域の面積や縦横寸法や移動ベクトルなどは、本来の値と類似となる為、認識精度の劣化が防げる。   As described above, as a result of appropriately compensating for the lack of contrast by the frequency expansion unit 14 to the correction execution unit 16b, the changed region is restored to a shape close to the original silhouette. This is a result of alleviating the problem that until then the change area could not be cut out with low contrast and accuracy. As a result, the various feature values calculated by the feature value calculation unit 9 take an approximate value with the situation in which there is sufficient contrast and the change area is cut out with high accuracy. Since the area of the change area, vertical and horizontal dimensions, movement vector, and the like are similar to the original values, deterioration of recognition accuracy can be prevented.

それら特徴量は、認識処理部11にて、補正された特徴量パラメータ設定値10と比較され、設定値に該当すれば、イベント検知を示すイベント検知信号12を出力する。尚、認識処理部11は、図5に示した通りである。そして、発報処理部13では、認識処理部11からイベント検知信号12を受け取ると、処理の発報処理を行う。   These feature amounts are compared with the corrected feature amount parameter setting value 10 in the recognition processing unit 11 and, if the feature amount falls within the set value, an event detection signal 12 indicating event detection is output. The recognition processing unit 11 is as shown in FIG. When the event detection signal 12 is received from the recognition processing unit 11, the notification processing unit 13 performs a process reporting process.

尚、上記実施の形態3では、補正実施部16bにおける特徴量パラメータ設定値10の補正として、面積判断や縦横判断の設定値を補正したが、これ以外にも連続性や速度といった動作パラメータの補正を行ってもよい。   In the third embodiment, the setting values for area determination and vertical / horizontal determination are corrected as the correction of the feature parameter setting value 10 in the correction execution unit 16b. However, other operation parameter corrections such as continuity and speed are also corrected. May be performed.

以上のように、実施の形態3の監視用画像処理装置によれば、画像認識手段は、監視対象領域の背景画像と現画像との差分を演算する背景差分演算部6と、背景差分演算部6で演算された差分値を2値化する2値化部と、2値化したデータに基づく監視対象領域の特徴量と、予め定められた特徴量の設定値とを比較して監視対象領域におけるイベント発生の有無を判定する認識処理部11とを備え、補正処理部は、特徴量の設定値を補正するようにしたので、撮影画像が輝度の低いコントラストの小さい画像であっても、この画像に応じた特徴量パラメータ設定値とすることができ、その結果、精度良くイベント検知を行うことができる。   As described above, according to the monitoring image processing apparatus of the third embodiment, the image recognition unit includes the background difference calculation unit 6 that calculates the difference between the background image of the monitoring target area and the current image, and the background difference calculation unit. The binarization unit that binarizes the difference value calculated in 6, the feature amount of the monitoring target region based on the binarized data, and a predetermined set value of the feature amount are compared, and the monitoring target region And a recognition processing unit 11 that determines whether or not an event has occurred in the image processing apparatus, and the correction processing unit corrects the setting value of the feature amount. Even if the captured image is a low-contrast image with low brightness, It is possible to set the feature parameter setting value according to the image, and as a result, it is possible to detect the event with high accuracy.

尚、上記実施の形態1〜3では、それぞれ背景差分演算部6、閾値演算部7、特徴量パラメータ設定値10の補正を行うようにしたが、これらを組み合わせて補正を行うようにしてもよい。   In the first to third embodiments, the background difference calculation unit 6, the threshold value calculation unit 7, and the feature parameter setting value 10 are corrected. However, the correction may be performed in combination. .

1 ビデオ入力部、2 A/Dコンバータ、3 現画像蓄積部、4 背景画像蓄積部、5 背景更新部、6 背景差分演算部、7 閾値演算部、8 2値化部、9 特徴量演算部、10 特徴量パラメータ設定値、11 認識処理部、12 イベント検知信号、13 発報処理部、14 周波数展開部、15 周波数要素抽出部、16,16a,16b 補正実施部、17,17a,17b 補正値テーブル。   DESCRIPTION OF SYMBOLS 1 Video input part, 2 A / D converter, 3 Current image storage part, 4 Background image storage part, 5 Background update part, 6 Background difference calculating part, 7 Threshold value calculating part, 8 Binarization part, 9 Feature-value calculating part 10 Feature parameter setting value, 11 Recognition processing unit, 12 Event detection signal, 13 Notification processing unit, 14 Frequency expansion unit, 15 Frequency element extraction unit, 16, 16a, 16b Correction execution unit, 17, 17a, 17b Correction Value table.

Claims (4)

監視対象領域を逐次撮影した映像データにおける複数の画像から、所定の動作パラメータに基づいて、前記監視対象領域中の変化領域を抽出すると共に、当該変化領域に基づいてイベント発生の有無を検知する画像認識手段と、
前記監視対象領域を撮影した画像の空間周波数を算出する周波数展開部と、
前記周波数展開部で算出された空間周波数から所定の周波数要素を抽出する周波数要素抽出部と、
前記周波数要素抽出部で抽出された周波数要素に基づいて、前記監視対象領域の状況を類推し、この類推結果に対応して、前記動作パラメータの補正を行う補正実施部とを備えた監視用画像処理装置。
An image for extracting a change area in the monitoring target area from a plurality of images in video data obtained by sequentially capturing the monitoring target area based on a predetermined operation parameter, and detecting the occurrence of an event based on the change area Recognition means;
A frequency expansion unit for calculating a spatial frequency of an image obtained by photographing the monitoring target region;
A frequency element extraction unit that extracts a predetermined frequency element from the spatial frequency calculated by the frequency expansion unit;
Based on the frequency element extracted by the frequency element extraction unit, the situation of the monitoring target area is inferred, and a correction execution unit that corrects the operation parameter according to the analogy result is provided. Processing equipment.
画像認識手段は、監視対象領域の背景画像と現画像との差分を所定の動作パラメータに基づいて演算する背景差分演算部と、当該背景差分演算部で演算された差分値を2値化して変化領域を抽出する2値化部と、当該変化領域に基づく前記監視対象領域の特徴量と、予め定められた特徴量の設定値とを比較して前記監視対象領域におけるイベント発生の有無を判定する認識処理部とを備え、
補正実施部は、前記動作パラメータを補正することを特徴とする請求項1記載の監視用画像処理装置。
The image recognition means binarizes the difference value calculated by the background difference calculation unit and a background difference calculation unit that calculates a difference between the background image of the monitoring target area and the current image based on a predetermined operation parameter. A binarization unit for extracting a region, and a feature amount of the monitoring target region based on the change region is compared with a set value of a predetermined feature amount to determine whether or not an event has occurred in the monitoring target region A recognition processing unit,
The monitoring image processing apparatus according to claim 1, wherein the correction execution unit corrects the operation parameter.
画像認識手段は、監視対象領域の背景画像と現画像との差分を演算する背景差分演算部と、前記背景差分演算部で演算された差分値に基づいて、2値化のための閾値を所定の動作パラメータとして演算する閾値演算部と、前記背景差分演算部で演算された差分値を前記閾値で2値化して変化領域を抽出する2値化部と、当該変化領域に基づく前記監視対象領域の特徴量と、予め定められた特徴量の設定値とを比較して前記監視対象領域におけるイベント発生の有無を判定する認識処理部とを備え、
補正実施部は、前記閾値演算部で演算する閾値を補正することを特徴とする請求項1記載の監視用画像処理装置。
The image recognition means has a background difference calculation unit for calculating a difference between the background image of the monitoring target area and the current image, and a threshold value for binarization is determined based on the difference value calculated by the background difference calculation unit. A threshold value calculation unit that calculates as an operation parameter, a binarization unit that binarizes the difference value calculated by the background difference calculation unit with the threshold value and extracts a change region, and the monitoring target region based on the change region A recognition processing unit that determines whether or not an event has occurred in the monitoring target region by comparing the feature amount and a set value of a predetermined feature amount,
The monitoring image processing apparatus according to claim 1, wherein the correction execution unit corrects a threshold value calculated by the threshold value calculation unit.
画像認識手段は、監視対象領域の背景画像と現画像との差分を演算する背景差分演算部と、前記背景差分演算部で演算された差分値を2値化する2値化部と、2値化したデータに基づく前記監視対象領域の特徴量と、予め定められた特徴量の設定値とを比較して前記監視対象領域におけるイベント発生の有無を判定する認識処理部とを備え、
補正処理部は、前記特徴量の設定値を補正することを特徴とする請求項1記載の監視用画像処理装置。
The image recognition means includes a background difference calculation unit that calculates a difference between the background image of the monitoring target area and the current image, a binarization unit that binarizes the difference value calculated by the background difference calculation unit, A recognition processing unit that determines whether or not an event has occurred in the monitoring target region by comparing a feature amount of the monitoring target region based on the converted data and a set value of a predetermined feature amount;
The monitoring image processing apparatus according to claim 1, wherein the correction processing unit corrects a set value of the feature amount.
JP2009281623A 2009-12-11 2009-12-11 Image processing device for monitoring Expired - Fee Related JP5388827B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009281623A JP5388827B2 (en) 2009-12-11 2009-12-11 Image processing device for monitoring

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009281623A JP5388827B2 (en) 2009-12-11 2009-12-11 Image processing device for monitoring

Publications (2)

Publication Number Publication Date
JP2011123726A true JP2011123726A (en) 2011-06-23
JP5388827B2 JP5388827B2 (en) 2014-01-15

Family

ID=44287547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009281623A Expired - Fee Related JP5388827B2 (en) 2009-12-11 2009-12-11 Image processing device for monitoring

Country Status (1)

Country Link
JP (1) JP5388827B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013120412A (en) * 2011-12-06 2013-06-17 Samsung Techwin Co Ltd Object detection device, monitoring camera and object detection method
US11423298B2 (en) * 2017-12-08 2022-08-23 Fujitsu Limited Computer-readable recording medium, determination method, and determination apparatus
CN116385706A (en) * 2023-06-06 2023-07-04 山东外事职业大学 Signal detection method and system based on image recognition technology

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09282452A (en) * 1996-04-12 1997-10-31 Omron Corp Monitor
JPH11120481A (en) * 1997-10-17 1999-04-30 Mitsubishi Heavy Ind Ltd Traffic flow measuring device
JP2002083301A (en) * 2000-09-06 2002-03-22 Mitsubishi Electric Corp Traffic monitoring device
JP2002367077A (en) * 2001-06-07 2002-12-20 Mitsubishi Electric Corp Device and method for deciding traffic congestion
JP2007018070A (en) * 2005-07-05 2007-01-25 Sekisui Jushi Co Ltd Visual environment information transmission system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09282452A (en) * 1996-04-12 1997-10-31 Omron Corp Monitor
JPH11120481A (en) * 1997-10-17 1999-04-30 Mitsubishi Heavy Ind Ltd Traffic flow measuring device
JP2002083301A (en) * 2000-09-06 2002-03-22 Mitsubishi Electric Corp Traffic monitoring device
JP2002367077A (en) * 2001-06-07 2002-12-20 Mitsubishi Electric Corp Device and method for deciding traffic congestion
JP2007018070A (en) * 2005-07-05 2007-01-25 Sekisui Jushi Co Ltd Visual environment information transmission system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013120412A (en) * 2011-12-06 2013-06-17 Samsung Techwin Co Ltd Object detection device, monitoring camera and object detection method
US11423298B2 (en) * 2017-12-08 2022-08-23 Fujitsu Limited Computer-readable recording medium, determination method, and determination apparatus
CN116385706A (en) * 2023-06-06 2023-07-04 山东外事职业大学 Signal detection method and system based on image recognition technology
CN116385706B (en) * 2023-06-06 2023-08-25 山东外事职业大学 Signal detection method and system based on image recognition technology

Also Published As

Publication number Publication date
JP5388827B2 (en) 2014-01-15

Similar Documents

Publication Publication Date Title
US9076037B2 (en) Image processing apparatus and method
KR102207939B1 (en) Defog system and method
US9355327B2 (en) Image processing apparatus and imaging apparatus with noise correction function and signal level correction function
KR20060008268A (en) Smoke detecting method and system using ccd image
KR20160131807A (en) Defog system
AU2011244921B2 (en) Method and system for luminance adjustment of images in an image sequence
JP2008259161A (en) Target tracing device
JP5388827B2 (en) Image processing device for monitoring
KR101336240B1 (en) Method and apparatus for image processing using saved image
JP4865328B2 (en) Image sensor
US9443150B2 (en) Device and method for detecting objects from a video signal
WO2013114803A1 (en) Image processing device, image processing method therefor, computer program, and image processing system
JP6819785B2 (en) Position estimation device, position estimation method and program
KR101941266B1 (en) CCTV Image Providing System for Ultra-Low Light
US20200036904A1 (en) Image processing apparatus, surveillance camera system, image processing method, and program
JP2020030751A (en) Object detection device, object detection method, and object detection program
JPH10289321A (en) Image monitoring device
JP2012039440A (en) Dark area noise correction device
JP2002150440A (en) Detector for object of monitoring
JP2002290959A (en) Method and device for detecting invader
JP7194534B2 (en) Object detection device, image processing device, object detection method, image processing method, and program
JP2012133587A (en) Image analysis device, image analysis method and program
KR101297396B1 (en) Method of shadow removal based on relative similarity
JP2003168118A (en) Image processor and mobile body monitoring device
CN113888657B (en) Screen color acquisition method and device, camera equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131008

R150 Certificate of patent or registration of utility model

Ref document number: 5388827

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees