JP2011123726A - Image processing device for monitoring - Google Patents
Image processing device for monitoring Download PDFInfo
- Publication number
- JP2011123726A JP2011123726A JP2009281623A JP2009281623A JP2011123726A JP 2011123726 A JP2011123726 A JP 2011123726A JP 2009281623 A JP2009281623 A JP 2009281623A JP 2009281623 A JP2009281623 A JP 2009281623A JP 2011123726 A JP2011123726 A JP 2011123726A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- monitoring target
- calculation unit
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、監視対象領域を逐次撮影した画像から変化領域を抽出し、この変化領域に基づいてイベント発生の有無を検知する監視用画像処理装置に関する。 The present invention relates to a monitoring image processing apparatus that extracts a change area from an image obtained by sequentially photographing a monitoring target area and detects the occurrence of an event based on the change area.
従来より、監視対象領域を逐次撮影した時系列の画像から変化領域を抽出し、この変化領域に基づいてイベント発生の有無を判定し、イベントが発生した場合に発報を行う監視装置があった(例えば、特許文献1参照)。
このような監視装置に用いられる画像処理装置では、逐次取得される画像を現画像として蓄積すると共に、過去の背景画像と演算処理を行って新たな背景画像を作成し、これを背景画像として蓄積する。そして、現画像と背景画像との差分データを作成し、これを2値化して特徴量を演算し、この特徴量が予め定められた設定値を満足した場合、監視装置は、イベント発生として発報を行うよう構成されていた。
Conventionally, there has been a monitoring device that extracts a change area from a time-series image obtained by sequentially capturing a monitoring target area, determines whether or not an event has occurred based on the change area, and issues a notification when an event occurs. (For example, refer to Patent Document 1).
In such an image processing apparatus used for a monitoring apparatus, a sequentially acquired image is accumulated as a current image, and a new background image is created by performing arithmetic processing with a past background image, and this is accumulated as a background image. To do. Then, difference data between the current image and the background image is created, binarized to calculate the feature value, and when the feature value satisfies a predetermined set value, the monitoring device generates an event occurrence. Was configured to report.
上記のような従来の画像処理装置では、変化領域を元に特徴量を演算する。変化領域は、多値差分データと2値化閾値によって作成されるが、その演算の基本は多値差分データとなる。多値差分データは、2枚の画像(現画像と背景画像)に差分があった場合に求まるデータであるが、以下のような状況ではこの2枚の画像に差分が出にくくなる。これを「コントラストが低い」状況という。 In the conventional image processing apparatus as described above, the feature amount is calculated based on the change area. The change area is created by the multi-value difference data and the binarization threshold value, and the basis of the calculation is multi-value difference data. The multi-value difference data is data that is obtained when there is a difference between two images (the current image and the background image). However, in the following situation, it is difficult for the two images to have a difference. This is called a “low contrast” situation.
状況1:照明不足により全体に暗い事によりコントラストが低くなる→現画像と背景画像のどちらも暗く、例えば、グラウンドを人が歩くシーンにおいても人の差分データが十分に算出されず、変化領域がきれいな人のシルエットとならず小さく崩れたシルエットとなる。
状況2:照明不足を補完する為カメラが電子増感機能を働かせる事により、コントラストが低くなる→現画像と背景画像のどちらも移動物に対し輪郭がぼやけ、グラウンドを人が歩くシーンにおいても人の差分データが十分に算出されず、変化領域がきれいな人のシルエットとならず小さく崩れたシルエットとなる。
Situation 1: Contrast is lowered due to darkness due to insufficient lighting → Both the current image and the background image are dark. For example, even in a scene where a person walks on the ground, the difference data of the person is not sufficiently calculated, and the change area is It does not become a silhouette of a beautiful person, but a silhouette that collapses small.
Situation 2: To compensate for the lack of lighting, the camera uses an electronic sensitization function to lower the contrast. → The outline of both the current image and the background image is blurred against moving objects, and people are walking even when people are walking on the ground. The difference data is not sufficiently calculated, and the change area does not become a beautiful silhouette of a person, but becomes a silhouette collapsed small.
上記のように、コントラストが低いと、差分が小さくなる。そして、差分が小さくなると、その後の2値化でも、精度良く変化領域を切り出せなくなる。更に、変化領域が精度良く求まらなければ、その後の特徴量演算での精度も劣化する。その場合は、結果的にそこより算出される特徴量も影響を受け、面積や縦横寸法が実際の歩行者と比べて小さな値になる傾向があった。
このように従来の画像処理装置では、上記の傾向は排除する事が出来ず、認識処理の精度劣化の大きな原因となっていた。それによって、監視装置としても発報が不正確になるという欠点があった。
As described above, when the contrast is low, the difference becomes small. When the difference is small, the change area cannot be accurately cut out even in the subsequent binarization. Furthermore, if the change region cannot be obtained with high accuracy, the accuracy in the subsequent feature amount calculation also deteriorates. In that case, as a result, the feature amount calculated therefrom is also affected, and the area and vertical and horizontal dimensions tend to be smaller than those of an actual pedestrian.
As described above, in the conventional image processing apparatus, the above-mentioned tendency cannot be eliminated, which is a major cause of deterioration in accuracy of the recognition process. As a result, the monitoring device also has a drawback that the report is inaccurate.
この発明は、上記のような問題点を解消するためになされたもので、撮影画像が輝度の低いコントラストの小さい画像であっても、精度良くイベント検知を行うことのできる監視用画像処理装置を得ることを目的とする。 The present invention has been made to solve the above-described problems, and provides a monitoring image processing apparatus capable of accurately detecting an event even if a captured image is a low-brightness and low-contrast image. The purpose is to obtain.
この発明に係る監視用画像処理装置は、監視対象領域を逐次撮影した映像データにおける複数の画像から、所定の動作パラメータに基づいて、監視対象領域中の変化領域を抽出すると共に、変化領域に基づいてイベント発生の有無を検知する画像認識手段と、監視対象領域を撮影した画像の空間周波数を算出する周波数展開部と、周波数展開部で算出された空間周波数から所定の周波数要素を抽出する周波数要素抽出部と、周波数要素抽出部で抽出された周波数要素に基づいて、監視対象領域の状況を類推し、この類推結果に対応して、動作パラメータの補正を行う補正実施部とを備えたものである。 The monitoring image processing apparatus according to the present invention extracts a change area in the monitoring target area from a plurality of images in video data obtained by sequentially capturing the monitoring target area based on a predetermined operation parameter, and based on the change area. Image recognition means for detecting the presence or absence of an event, a frequency expansion unit for calculating a spatial frequency of an image obtained by imaging a monitoring target region, and a frequency element for extracting a predetermined frequency element from the spatial frequency calculated by the frequency expansion unit Based on the frequency element extracted by the frequency element extraction unit and the extraction unit, the situation of the monitoring target region is inferred, and the correction execution unit that corrects the operation parameter in accordance with the analogy result is provided. is there.
この発明の監視用画像処理装置は、監視対象領域の画像の空間周波数を算出し、この空間周波数に基づく周波数要素で監視対象領域の状況を類推し、この類推結果に対応して画像認識手段の動作パラメータを補正するようにしたので、撮影画像が輝度の低いコントラストの小さい画像であっても、精度良くイベント検知を行うことができる。 The monitoring image processing apparatus according to the present invention calculates the spatial frequency of the image of the monitoring target region, analogizes the situation of the monitoring target region with frequency elements based on the spatial frequency, and corresponds to the analogy result of the image recognition means. Since the operation parameters are corrected, even when the captured image is a low-brightness and low-contrast image, event detection can be performed with high accuracy.
実施の形態1.
図1は、この発明の実施の形態1による監視用画像処理装置を適用した監視装置の構成図である。
図1に示す監視装置は、ビデオ入力部1、A/Dコンバータ2、現画像蓄積部3、背景画像蓄積部4、背景更新部5、背景差分演算部6、閾値演算部7、2値化部8、特徴量演算部9、特徴量パラメータ設定値10、認識処理部11、発報処理部13、周波数展開部14、周波数要素抽出部15、補正実施部16を備えている。
Embodiment 1 FIG.
FIG. 1 is a block diagram of a monitoring apparatus to which a monitoring image processing apparatus according to Embodiment 1 of the present invention is applied.
1 includes a video input unit 1, an A /
ビデオ入力部1は、図示しない撮像装置で撮像された映像データを入力するための入力インタフェースである。A/Dコンバータ2は、ビデオ入力部1から入力されたアナログ信号である映像データを量子化してディジタル信号に変換する変換部である。現画像蓄積部3は、A/Dコンバータ2によってディジタル信号に変換された現在の映像データ(以下、現画像データと称する)を入力し蓄積するデータ格納部である。背景画像蓄積部4は、A/Dコンバータ2から入力した現画像データに所定の演算を施して比較用の背景画像データを生成し記憶するデータ格納部である。背景更新部5は、背景画像蓄積部4が記憶する背景画像データに対して所定の演算を施してデータ内容(背景)を更新するデータ更新部である。例えば、過去5シーンに対応する現画像データの各画素値の平均をとったものを更新後の背景画像データとする。
The video input unit 1 is an input interface for inputting video data captured by an imaging device (not shown). The A /
背景差分演算部6は、現画像蓄積部3と背景画像蓄積部4とが記憶する各画像データを比較してその差分画像データを算出する演算部である。閾値演算部7は、背景差分演算部6が算出した差分画像データを2値化するための閾値を算出する演算部である。一般的に、差分画像データを元にして単純なルールで最適な閾値が求められ、例えば差分画像データの画素値の平均が閾値として設定される。2値化部8は、閾値演算部7が求めた閾値で差分画像データを2値化する演算部である。特徴量演算部9は、2値化部8が算出した2値データを受けて特徴量を算出する演算部である。この特徴量を規定するパラメータには、例えば画像中の経時的に変化した画素領域を示す変化領域の面積、縦横寸法などがある。
The background
特徴量パラメータ設定値10は、特徴量パラメータ設定値(予め定めた設定値)で、発報対象を規定する所定の条件の下に予め設定しておいた特徴量の各パラメータ値である。この特徴量パラメータ設定値10は、認識処理部11として機能するコンピュータ装置の演算処理部が適宜読み出し可能な記憶装置に格納される。認識処理部11は、特徴量演算部9が算出した特徴量データと発報対象の特徴量パラメータ設定値10とを比較してイベント発生か否かを判断する判定部である。そして、認識処理部11は、イベント発生を検知した場合は、イベント検知信号12を出力するよう構成されている。
The feature amount
また、これら背景差分演算部6〜認識処理部11によって、監視対象領域を逐次撮影した映像データにおける複数の画像から、所定の動作パラメータに基づいて、監視対象領域中の変化領域を抽出すると共に、この変化領域に基づいてイベント発生の有無を検知する画像認識手段が構成されている。
In addition, the background
発報処理部13は、認識処理部11からイベント検知信号12が出力された場合、これを受けてオペレータに対して発報を行う処理部である。発報の方法としては、例えば適当な音源と共に発報処理部13を構成しビープ音を出して発報することなどが考えられる。
When the
周波数展開部14は、A/Dコンバータ2で量子化された画像の空間周波数を算出する演算部である。周波数要素抽出部15は、空間周波数や空間周波数変動周期、空間周波数変動幅といった空間周波数要素を求める演算部である。補正実施部16は、周波数要素抽出部15で抽出された周波数要素に基づいて、背景差分演算部6における動作パラメータを補正するものである。また、補正値テーブル17は、動作パラメータの補正値を示すテーブルである。
The
尚、本発明の監視用画像処理装置をコンピュータを用いて実現し、上記の背景更新部5〜特徴量演算部9および認識処理部11〜補正実施部16を、それぞれの機能に対応したソフトウェアと、これらソフトウェアを実行するCPUやメモリといったハードウェアで構成してもよい。あるいは、いずれかの構成を専用のハードウェアで構成してもよい。
The monitoring image processing apparatus of the present invention is realized by using a computer, and the
次に、実施の形態1の監視用画像処理装置の動作について説明する。
ビデオ入力部1でカメラ映像を取り込み、A/Dコンバータ2でデジタルデータに変換し、それを現画像蓄積部3は「現画像」として蓄積する。同時に、背景更新部5は、現画像を過去の背景画像と演算処理し(例:過去のn秒間の背景と平均する等)、新たな背景画像を作成し、改めて背景画像蓄積部4へ「背景画像」として蓄積する。背景差分演算部6では、上記「現画像」と「背景画像」の差分演算を行い、差分データを作成する。ここは単純な差分ではなく、小さい差分をノイズと判断して除去する、いわゆるノイズ除去を加えておくのが一般的である。
差分データはこの時点では多値データであるが、2値化部8で2値化され、2値データとなる。2値化の際の閾値は、閾値演算部7にて「差分データ」を用いて演算されるのが一般的であるが(例:差分データのヒストグラムよりピークを求め、そこよりm値減算した値を閾値とする等)、固定値の場合もある。
2値化された差分データは、1,0で示される。この「1」の画素を整列し画面上に重ねると、図2のように、平坦な背景上で人が歩いているシーンであれば、図3のように「人」のシルエットとなる。このシルエット画像は、一般に変化領域と呼ばれる。
Next, the operation of the monitoring image processing apparatus according to the first embodiment will be described.
The camera image is captured by the video input unit 1 and converted into digital data by the A /
The difference data is multi-value data at this point, but is binarized by the
The binarized difference data is indicated by 1, 0. When the pixels “1” are aligned and overlapped on the screen, a silhouette of a “person” is obtained as shown in FIG. 3 in a scene where a person is walking on a flat background as shown in FIG. This silhouette image is generally called a change area.
一方、周波数展開部14では、画像を小さいブロックに分割し(例:16×16画素)、その中の画像の空間周波数を算出する。例えば、図4に示すように、1つのブロック(例:16×16画素)において、あるライン(16画素)を取り出し、その輝度値をグラフにプロットする。X軸が1〜16,Y軸が0〜255の座標系に1本の線が引かれたグラフになる。このグラフをフーリエ級数展開し、形状が9割以上一致する級数を求めてやれば、それが該当ライン(16画素)の空間周波数を示す。この作業をブロック内の全ラインで行い、最多の級数を選択すれば、それが該当ブロック(16×16画素)の空間周波数を示す、等である(以上は、空間周波数の求め方の1例である)。
On the other hand, the
周波数要素抽出部15では、各ブロックで求めた空間周波数を長時間分(例:48時間)保存し、その間の空間周波数の変動を観察し、各ブロックの周波数要素を算出し、保管する。周波数要素としては例えば次のようなものがある。
(1)空間周波数(上述した空間周波数そのもの)
(2)空間周波数変動周期(上記保存期間の中で変動にサイクルが有れば、そのサイクル周期)
(3)空間周波数変動幅(画面の中の全ブロックの空間周波数を同時に見た場合の、変動幅)
(4)空間周波数ピーク値(画面の中の全ブロックの空間周波数を同時に見た場合の、最大値)
The frequency
(1) Spatial frequency (the above-mentioned spatial frequency itself)
(2) Spatial frequency fluctuation period (if there is a cycle in fluctuation during the above storage period, the cycle period)
(3) Spatial frequency fluctuation width (variation width when viewing the spatial frequency of all blocks in the screen simultaneously)
(4) Spatial frequency peak value (maximum value when viewing the spatial frequency of all blocks in the screen at the same time)
補正実施部16では、先ず周波数要素を見て、映像の各ブロックがどういう状況かを類推する。
例えば、(1)空間周波数は、ブロックの中のコントラストが低いと下がり、高いと上がる相関関係を持つ。仮に空間周波数は低ければ、そのブロックは「照度不足で暗い」「照度不足で暗い為電子増感がONして、明るくは見えるが動きはぼやけている」「見えているブロックの風景がたまたま単一」のいずれかであると類推出来る。
また、(4)空間周波数ピーク値は、画面中のブロックに空間周波数の最大値を示すもので、最も複雑な風景を見ているブロックの値となる。この値が高ければ、空間周波数が低いブロックが多くても、カメラの視野全体で論じれば、実は「照度不足で暗い」「照度不足で暗い為電子増感がONして、明るくは見えるが動きはぼやけている」ではないと類推する事が出来る。
また、(2)空間周波数変動周期は、周期が24時間に類似で有ればカメラは屋外を観測し、不規則で有れば屋内を観測するカメラであるという予測が出来る。これは各ブロックで観測せず、全画面のブロックより代表的な複数のブロックを選出し測定すると良い。
また、(3)空間周波数変動幅は、画面中のブロックに空間周波数の差が有れば大きく、差がなければ小さくなる。仮に空間周波数変動幅が低ければ、カメラが見ているエリアは、複雑さが均一(例:床面のみ見ている)であると予測出来、逆に空間周波数変動幅が高ければ、カメラが見ているエリアは、複雑さがばらついている(例:道路と木立と家並みが見えている)と予測出来る。
First, the
For example, (1) the spatial frequency has a correlation that decreases when the contrast in the block is low and increases when the contrast is high. If the spatial frequency is low, the block is “dark due to insufficient illuminance”, “it is dark due to insufficient illuminance, so the electronic sensitization is turned on and it looks bright but the motion is blurred” It can be inferred that it is either “one”.
Further, (4) the spatial frequency peak value indicates the maximum value of the spatial frequency in the block in the screen, and is the value of the block that is viewing the most complicated landscape. If this value is high, even if there are many blocks with a low spatial frequency, if we discuss it with the entire field of view of the camera, it is actually dark because of insufficient illuminance and dark due to insufficient illuminance. It can be inferred that the movement is not blurred.
In addition, (2) the spatial frequency fluctuation period can be predicted that if the period is similar to 24 hours, the camera observes the outdoors, and if it is irregular, the camera observes the indoors. This is not observed in each block, and a plurality of representative blocks may be selected and measured from the blocks on the entire screen.
(3) The spatial frequency fluctuation width is large if there is a spatial frequency difference between the blocks in the screen, and is small if there is no difference. If the spatial frequency fluctuation range is low, the area viewed by the camera can be predicted to be uniform in complexity (eg, only the floor surface is viewed), and conversely if the spatial frequency fluctuation range is high, the camera can see it. Area can vary in complexity (eg, roads, trees and houses are visible).
以下、具体例で示す。
<例1>
24時間観測し、
(a)空間周波数が常に低い
(b)空間周波数変動周期が不明瞭
(c)空間周波数変動幅が常に小さい
(d)空間周波数ピーク値が常に低い
このような場合は、上記(a)(d)から、該当ブロックは「照度不足で暗い」「照度不足で暗い為電子増感がONして、明るくは見えるが動きはぼやけている」「見えているブロックの風景がたまたま単一」等の状況であると類推出来る。
また、(b)から、カメラ視野は照明変動が小さい為、屋内と類推出来る。
更に、(c)から、カメラ視野は平坦な風景を撮像していると類推出来る。(例:屋内の通路等)
以上により、本カメラは「屋内の通路等、平坦な風景を撮像している」と類推出来る。
Specific examples will be shown below.
<Example 1>
Observed for 24 hours,
(A) The spatial frequency is always low (b) The spatial frequency fluctuation period is unclear (c) The spatial frequency fluctuation width is always small (d) The spatial frequency peak value is always low In such a case, (a) (d ), The corresponding block is “dark due to insufficient illumination”, “because it is dark due to insufficient illumination, the electronic sensitization is turned on, it looks bright but the motion is blurred”, “the scenery of the visible block happens to be single”, etc. It can be inferred that this is the situation.
From (b), it can be inferred that the camera field of view is indoors because the illumination fluctuation is small.
Furthermore, it can be inferred from (c) that the camera field of view is capturing a flat landscape. (Example: indoor passage etc.)
From the above, it can be inferred that this camera is imaging a flat landscape such as an indoor passage.
<例2>
24時間観測し、
(a)空間周波数が周期的に変動
(b)空間周波数変動周期が24時間近傍で、且つ正午付近で高い傾向
(c)空間周波数変動幅が日中時間帯は大きい、夜間時間帯は小さい
(d)空間周波数ピーク値が日中時間帯は高い、夜間時間帯は小さい
このような場合、(b)から、本カメラは屋外を撮像していると類推出来る。
また、(c)から、本カメラは平坦な場所と複雑な場所とを撮影している。(例:屋外の床面と、木立の枝葉等)
更に、(a)(d)から、日中の視野の照度は十分だが、夜間の照度は不足しており「照度不足で暗い」「照度不足で暗い為電子増感がONして、明るくは見えるが動きはぼやけている」の状況にあると類推出来る。
→以上により、本カメラは「屋外の床面や木立を含んだ複雑な風景を撮像しており、夜間は無照明」と類推出来る。
<Example 2>
Observed for 24 hours,
(A) Spatial frequency fluctuates periodically (b) Spatial frequency fluctuation period tends to be high around 24 hours and near noon (c) Spatial frequency fluctuation range is large during daytime and small during nighttime ( d) The peak value of the spatial frequency is high during the daytime period and small during the nighttime period. In this case, it can be inferred from this (b) that the camera is capturing the outdoors.
In addition, from (c), the camera captures a flat place and a complicated place. (Example: Outdoor floor and branches and leaves of trees)
In addition, from (a) and (d), the illuminance of the field of view during the day is sufficient, but the illuminance at night is insufficient, and it is "dark due to insufficient illuminance". It can be inferred that the situation is “I can see it but the movement is blurry”.
→ From the above, this camera can be analogized as "capturing a complex landscape including outdoor floors and trees, and no lighting at night."
<例3>
24時間観測し、
(a)空間周波数が周期的に変動
(b)空間周波数変動周期が24時間近傍で、且つ正午付近と夜間に高い傾向
(c)空間周波数変動幅は常に小さい
(d)空間周波数ピーク値は日中時間帯は小さい、夜間時間帯は大きい
このような場合、(b)から、本カメラは屋外を撮像していると類推出来る。
また、(c)から、本カメラは平坦な場所を撮影している。(例:屋外の床面等)
更に、(a)(d)から、日中の視野の照度は不足だが、夜間の照度は十分あると類推出来る。よって「照度不足で暗い」「照度不足で暗い為電子増感がONして、明るくは見えるが動きはぼやけている」の状況には無いと類推出来る。
以上により、本カメラは「屋外の床面等平坦な風景を撮像しており、夜間は照明が十分」と類推出来る。
<Example 3>
Observed for 24 hours,
(A) Spatial frequency fluctuates periodically (b) Spatial frequency fluctuation period tends to be high around 24 hours and near noon and at night (c) Spatial frequency fluctuation range is always small (d) Spatial frequency peak value is day Medium time zone is small, night time zone is large. In such a case, it can be inferred from (b) that this camera is shooting outdoors.
Also, from (c), the camera is photographing a flat place. (Example: Outdoor floor, etc.)
Furthermore, from (a) and (d), it can be inferred that the illuminance of the visual field during the day is insufficient, but the illuminance at night is sufficient. Therefore, it can be inferred that there is no situation where “dark due to insufficient illumination” or “dark due to insufficient illumination, so that electronic sensitization is turned on and it appears bright but the motion is blurred”.
From the above, it can be inferred that this camera “captures an image of a flat landscape such as an outdoor floor and is well lit at night”.
このように、本実施の形態では、周波数要素を長時間観測する事によって、カメラの設置環境や撮像対象の風景を類推する事が出来る。
カメラの設置環境や撮像対象の風景は、カメラから取得出来る画像を直接左右する。屋外で有れば昼夜の映像の激変を伴い、照度不足で有れば夜間のコントラストを低下させる。
しかし、従来の装置では、この様な「カメラの設置環境や撮像対象の風景」の情報はない為、いかなる映像であっても共通の画像処理を行うことしかできなかった。
本装置は、「カメラの設置環境や撮像対象の風景」を類推する手段を有する為、これらの影響を予測し画像処理を補正する事が可能となる。
As described above, in this embodiment, it is possible to analogize the installation environment of the camera and the scenery to be imaged by observing the frequency element for a long time.
The installation environment of the camera and the scenery to be imaged directly affect the images that can be acquired from the camera. If it is outdoors, there will be a drastic change in the image of day and night, and if it is insufficient, the contrast at night will be reduced.
However, in the conventional apparatus, there is no such information on “camera installation environment and scenery to be imaged”, and therefore it is only possible to perform common image processing for any video.
Since this apparatus has means for analogizing “the camera installation environment and the scene to be imaged”, it is possible to predict these effects and correct the image processing.
補正実施部16では、以上のように「カメラの設置環境や撮像対象の風景」の状況を把握したら、補正値テーブル17を参照し、状況に応じた補正を行う。
これは、ブロック毎に補正を変えても、全画面に同一の補正を実施しても構わない。補正値テーブル17には、予め周波数要素の組合せに応じて複数の補正パターンが登録されている。その補正値は、背景差分演算部6における動作パラメータの補正を行う。以下、例で示す。
When the
In this case, the correction may be changed for each block, or the same correction may be performed on the entire screen. In the correction value table 17, a plurality of correction patterns are registered in advance according to combinations of frequency elements. The correction value corrects the operation parameter in the background
[例1]:屋内の通路等平坦な場所を撮像していると予測される
→照度変動が小さいので、通常はノイズと判断される小さな差分値でも、ノイズではない可能性が高い。よって背景差分演算部6では、ノイズ除去をしないよう動作パラメータを設定する。
[例2]:屋外の床面や木立を含んだ複雑な風景を撮像しており、夜間は無照明と予想される
→屋外であるので、日中は照度が十分であり、問題無し。
→夜間照明が無いので、夜間は差分が抽出されにくくなる。空間周波数が下がった夜間では、背景差分演算部6にて、現画像と背景画像に輪郭強調処理を施すよう動作パラメータを設定してから差分を取り、夜間のコントラスト不足を補う。
[例3]:屋外の床面等平坦な風景を撮像しており、夜間は照明が十分と予想される
→屋外ではあるが、夜間の照明がしっかりしており照度が十分。問題無し。
→日照が届かない物陰であり、天候によっては日中の差分が抽出されにくくなる。空間周波数が下がった日中では、背景差分演算部6にて現画像と背景画像に輪郭強調処理を施してから差分を取り、コントラスト不足を補う。
[Example 1]: It is predicted that an image of a flat place such as an indoor passage is taken. → Since the fluctuation in illuminance is small, there is a high possibility that even a small difference value that is usually determined as noise is not noise. Therefore, the background
[Example 2]: An image of a complex landscape including an outdoor floor and trees is taken, and it is expected that there will be no illumination at night. → Since it is outdoors, there is no problem because the illuminance is sufficient during the day.
→ Because there is no night lighting, it is difficult to extract differences at night. At night when the spatial frequency is lowered, the background
[Example 3]: An image of a flat landscape such as an outdoor floor surface is taken, and it is expected that the illumination is sufficient at night. → Although it is outdoors, the illumination at night is solid and the illuminance is sufficient. No problem.
→ It is a shadow that the sunshine does not reach, and it is difficult to extract the difference during the day depending on the weather. In the daytime when the spatial frequency is lowered, the background
以上説明したように、周波数展開部14〜補正実施部16により、コントラスト不足を適宜補う結果、変化領域は本来のシルエットに近い形状に回復される。これは、それまではコントラストが低く精度良く変化領域が切り出せなかった問題を、補正により軽減した結果である。その結果、特徴量演算部9で演算される各種特徴量は、十分なコントラストがあって変化領域が精度良く切り出されていた状況と、近似の値を取る。変化領域の面積や縦横寸法や移動ベクトルなどは、本来の値と類似となる為、認識精度の劣化が防げる。
As described above, the
それら特徴量は、認識処理部11にて、特徴量パラメータ設定値10と比較され、設定値に該当すれば、イベント発生を示すイベント検知信号12が出力される。
図5は、認識処理部11の動作を示すフローチャートである。
先ず、認識処理部11は、特徴量演算部9から特徴量データを取得する(ステップST1)と、その「連続性」が特徴量パラメータ設定値10に合致するか否かを判定する(ステップST2)。この「連続性」の判定には、例えば処理対象となる差分画像データにおける変化領域が映像中に何フレーム生存したかを示す連続時間が用いられる。具体的には、特徴量パラメータ設定値10の範囲が「最小4フレーム、最大10フレーム」である場合、変化領域が生存する連続時間が4〜10フレームであれば合致すると判断される。また、それ以外であれば、特徴量パラメータ設定値10の範囲に合致しないと判断される。ここで、特徴量パラメータ設定値10の範囲に合致すると判断されると、ステップST3の処理に進み、合致しないと処理を終了する。
These feature quantities are compared with the feature quantity
FIG. 5 is a flowchart showing the operation of the
First, when the
ステップST3において、認識処理部11は、特徴量演算部9が求めた特徴量データの「面積」が特徴量パラメータ設定値10に合致するか否かを判定する。この「面積」の判定には、例えば差分画像データの2値変化領域の画素数が用いられる。具体的には、特徴量パラメータ設定値10の範囲が「最小500画素、最大1000画素」である場合、2値変化領域の面積が500〜1000画素であれば合致すると判断される。また、それ以外であれば、特徴量パラメータ設定値10の範囲に合致しないと判断される。ここで、特徴量パラメータ設定値10の範囲に合致すると判断されると、ステップST4の処理に進み、合致しないと処理を終了する。
In step ST <b> 3, the
次に、認識処理部11は、特徴量演算部9が求めた特徴量データの「縦横寸法」が特徴量パラメータ設定値10に合致するか否かを判定する(ステップST4)。この「縦横寸法」の判定には、例えば2値の変化領域を規定する外接矩形の縦の長さや横の長さが用いられる。具体的には、特徴量パラメータ設定値10の範囲が「縦最小50画素、最大100画素」、「横最小50画素、最大100画素」である場合、2値変化領域の縦横寸法が共に50〜100画素であれば合致すると判断される。また、それ以外であれば、特徴量パラメータ設定値10の範囲に合致しないと判断される。ここで、特徴量パラメータ設定値10の範囲に合致すると判断されると、ステップST5の処理に進み、合致しないと処理を終了する。
Next, the
続いて、認識処理部11は、特徴量演算部9が求めた特徴量データの「速度」が特徴量パラメータ設定値10に合致するか否かを判定する(ステップST5)。この「速度」の判定には、例えば、当該変化領域の映像中における移動速度が用いられる。具体的には、特徴量パラメータ設定値10の範囲が「最小50画素/秒、最大100画素/秒」である場合、2値変化領域の映像中における移動速度が50〜100画素/秒であれば合致すると判断される。また、それ以外であれば、特徴量パラメータ設定値10の範囲に合致しないと判断される。ここで、特徴量パラメータ設定値10の範囲に合致すると判断されると、ステップST6の処理に進み、合致しないと処理を終了する。
Subsequently, the
尚、上述した「面積」、「縦横寸法」、「移動速度」は、ステップST2で判定に使用する、2値変化領域の生存時間中における各画像の特徴量の平均値を算出して、特徴量パラメータ設定値10と比較するのが一般的である。 The above-mentioned “area”, “vertical / horizontal dimensions”, and “moving speed” are obtained by calculating the average value of the feature values of each image during the lifetime of the binary change area used for the determination in step ST2. It is common to compare with the quantity parameter set value of 10.
ステップST6において、認識処理部11は、正規の発報対象を特定する全ての特徴量パラメータ設定値10に合致すると判断し、イベント検知信号12を発報処理部13に出力する。尚、ステップST1からステップST6までの処理は、コンピュータ装置によって認識処理部11の機能を有するソフトウェアを実行することで実現することができる。
発報処理部13では、認識処理部11からのイベント検知信号12を受けると、発報処理を行う。
In step ST <b> 6, the
Upon receiving the
以上のように、実施の形態1の監視用画像処理装置によれば、監視対象領域を逐次撮影した映像データにおける複数の画像から、所定の動作パラメータに基づいて、監視対象領域中の変化領域を抽出すると共に、変化領域に基づいてイベント発生の有無を検知する画像認識手段と、監視対象領域を撮影した画像の空間周波数を算出する周波数展開部14と、周波数展開部14で算出された空間周波数から所定の周波数要素を抽出する周波数要素抽出部15と、周波数要素抽出部15で抽出された周波数要素に基づいて、監視対象領域の状況を類推し、この類推結果に対応して、動作パラメータの補正を行う補正実施部16とを備えたので、撮影画像が輝度の低いコントラストの小さい画像であっても、精度良くイベント検知を行うことができる。
As described above, according to the monitoring image processing apparatus of the first embodiment, the change area in the monitoring target area is determined based on the predetermined operation parameter from the plurality of images in the video data obtained by sequentially capturing the monitoring target area. An image recognition means for extracting and detecting the occurrence of an event based on the change area, a
また、実施の形態1の監視用画像処理装置によれば、画像認識手段は、監視対象領域の背景画像と現画像との差分を所定の動作パラメータに基づいて演算する背景差分演算部6と、背景差分演算部6で演算された差分値を2値化して変化領域を抽出する2値化部8と、変化領域に基づく監視対象領域の特徴量と、予め定められた特徴量の設定値とを比較して監視対象領域におけるイベント発生の有無を判定する認識処理部11とを備え、補正実施部16は、動作パラメータを補正するようにしたので、撮影画像が輝度の低いコントラストの小さい画像であっても、背景画像と現画像との差分を正確に求めることができ、その結果、精度良くイベント検知を行うことができる。
Further, according to the monitoring image processing apparatus of the first embodiment, the image recognition unit includes a background
実施の形態2.
図6は、実施の形態2の監視用画像処理装置の構成図である。
実施の形態2は、補正実施部16aが動作パラメータの補正として、閾値演算部7における閾値の補正を行うようにしたものである。即ち、補正実施部16aが保有する補正値テーブル17aには、閾値演算部7における閾値の補正値が登録されており、補正実施部16aは、この補正値に基づいて閾値演算部7の補正を行う。その他の構成については図1に示した実施の形態1と同様であるため、対応する部分に同一符号を付してその説明を省略する。
FIG. 6 is a configuration diagram of the monitoring image processing apparatus according to the second embodiment.
In the second embodiment, the
次に、実施の形態2の動作について説明する。
ここで、ビデオ入力部1〜発報処理部13までの基本的な動作および周波数展開部14〜周波数要素抽出部15までの動作は実施の形態1と同様であるため、ここでの説明は省略する。
Next, the operation of the second embodiment will be described.
Here, the basic operation from the video input unit 1 to the
補正実施部16aでは、周波数要素抽出部15で抽出した周波数要素に基づいて「カメラの設置環境や撮像対象の風景」の状況を把握したら、次に、補正値テーブル17aを参照し、状況に応じた補正を行う。尚、ここで、補正の方法については、ブロック毎に補正を変えても、全画面に同一の補正を実施しても構わない。
補正値テーブル17aには、予め周波数要素の組合せに応じて複数の補正パターンが登録されており、補正実施部16aは、この補正パターンを用いて閾値演算部7の閾値を補正する。以下、その例を示す。
When the
In the correction value table 17a, a plurality of correction patterns are registered in advance according to combinations of frequency elements, and the
[例1]:屋内の通路等平坦な場所を撮像していると予測される
→照度変動が小さいので、通常はノイズと判断される小さな差分値でも、ノイズではない可能性が高い。よって、閾値演算部7において、変化領域をより大きめに切り出せるように、閾値を通常より一定量小さく求める。
[例2]:屋外の床面や木立を含んだ複雑な風景を撮像しており、夜間は無照明と予想される
→屋外であるので、日中は照度が十分であり、問題無し。
→夜間照明が無いので、夜間は差分が抽出されにくくなる。空間周波数が下がった夜間では、閾値演算部7において、変化領域をより大きめに切り出せるように、閾値を通常より一定量小さく求め、コントラスト不足を補う。
[例3]:屋外の床面等平坦な風景を撮像しており、夜間は照明が十分と予想される
→屋外ではあるが、夜間の照明がしっかりしており照度が十分。問題無し。
→日照が届かない物陰であり、天候によっては日中の差分が抽出されにくくなる。空間周波数が下がった日中では、閾値演算部7において変化領域をより大きめに切り出せるように、閾値を通常より一定量小さく求め、コントラスト不足を補う。
[Example 1]: It is predicted that an image of a flat place such as an indoor passage is taken. → Since the fluctuation in illuminance is small, there is a high possibility that even a small difference value that is usually determined as noise is not noise. Therefore, the threshold
[Example 2]: An image of a complex landscape including an outdoor floor and trees is taken, and it is expected that there will be no illumination at night. → Since it is outdoors, there is no problem because the illuminance is sufficient during the day.
→ Because there is no night lighting, it is difficult to extract differences at night. At night when the spatial frequency is lowered, the threshold
[Example 3]: An image of a flat landscape such as an outdoor floor surface is taken, and it is expected that the illumination is sufficient at night. → Although it is outdoors, the illumination at night is solid and the illuminance is sufficient. No problem.
→ It is a shadow that the sunshine does not reach, and it is difficult to extract the difference during the day depending on the weather. During the day when the spatial frequency is lowered, the threshold
以上のように、周波数展開部14〜補正実施部16aによって、コントラスト不足を適宜補う結果、変化領域は本来のシルエットに近い形状に回復される。これは、それまではコントラストが低く精度良く変化領域が切り出せなかった問題を、補正により軽減した結果である。その結果、特徴量演算部9で演算される各種特徴量は、十分なコントラストがあって変化領域が精度良く切り出されていた状況と、近似の値を取る。変化領域の面積や縦横寸法や移動ベクトルなどは、本来の値と類似となる為、認識精度の劣化が防げる。
As described above, as a result of appropriately compensating for the lack of contrast by the
また、各種特徴量は、認識処理部11にて、予め特徴量パラメータ設定値10に蓄えられていた特徴量パラメータ設定値と比較され、設定値に該当すれば、イベント検知を示すイベント検知信号12が出力される。認識処理部11における処理は図5に示した通りである。そして、発報処理部13では、認識処理部11からイベント検知信号12を受け取ると、処理の発報処理を行う。
In addition, the various feature amounts are compared with the feature amount parameter setting values stored in advance in the feature amount
以上のように、実施の形態2の監視用画像処理装置によれば、画像認識手段は、監視対象領域の背景画像と現画像との差分を演算する背景差分演算部6と、背景差分演算部6で演算された差分値に基づいて、2値化のための閾値を所定の動作パラメータとして演算する閾値演算部7と、背景差分演算部6で演算された差分値を閾値で2値化して変化領域を抽出する2値化部8と、変化領域に基づく監視対象領域の特徴量と、予め定められた特徴量の設定値とを比較して監視対象領域におけるイベント発生の有無を判定する認識処理部11とを備え、補正実施部16aは、閾値演算部7で演算する閾値を補正するようにしたので、撮影画像が輝度の低いコントラストの小さい画像であっても、この画像に応じた閾値とすることができ、その結果、精度良くイベント検知を行うことができる。
As described above, according to the monitoring image processing apparatus of the second embodiment, the image recognition unit includes the background
実施の形態3.
図7は、実施の形態3の監視用画像処理装置の構成図である。
実施の形態3は、補正実施部16bが動作パラメータの補正として、特徴量パラメータ設定値10の補正を行うようにしたものである。即ち、補正実施部16bが保有する補正値テーブル17bは、特徴量パラメータ設定値10の補正値が登録されており、補正実施部16bは、この補正値に基づいて特徴量パラメータ設定値10の補正を行う。その他の構成については図1に示した実施の形態1と同様であるため、対応する部分に同一符号を付してその説明を省略する。
FIG. 7 is a configuration diagram of the monitoring image processing apparatus according to the third embodiment.
In the third embodiment, the
次に、実施の形態3の動作について説明する。
ここで、ビデオ入力部1〜発報処理部13までの基本的な動作および周波数展開部14〜周波数要素抽出部15までの動作は実施の形態1と同様であるため、ここでの説明は省略する。
補正実施部16bでは、周波数要素抽出部15で抽出した周波数要素に基づいて「カメラの設置環境や撮像対象の風景」の状況を把握したら、補正値テーブル17bを参照し、状況に応じた補正を行う。尚、この補正は、ブロック毎に補正を変えても、全画面に同一の補正を実施しても構わない。
補正値テーブル17bには、予め周波数要素の組合せに応じて複数の補正パターンが登録されており、補正実施部16bは、この補正パターンを用いて特徴量パラメータ設定値10の補正を行う。以下、その例で示す。
Next, the operation of the third embodiment will be described.
Here, the basic operation from the video input unit 1 to the
When the
In the correction value table 17b, a plurality of correction patterns are registered in advance according to combinations of frequency elements, and the
[例1]:屋内の通路等平坦な場所を撮像していると予測される
→照度変動が小さいので、通常はノイズと判断される小さな差分値でも、ノイズではない可能性が高い。よって、特徴量パラメータ設定値10では面積判断や縦横判断の設定値をより小さい変化領域でも合格となるように設定切り替えする。
[例2]:屋外の床面や木立を含んだ複雑な風景を撮像しており、夜間は無照明と予想される
→屋外であるので、日中は照度が十分であり、問題無し。
→夜間照明が無いので、夜間は差分が抽出されにくくなる。空間周波数が下がった夜間では、特徴量パラメータ設定値では面積判断や縦横判断の設定値をより小さい変化領域でも合格となるように設定切り替えし、コントラスト不足を補う。
例3:屋外の床面等平坦な風景を撮像しており、夜間は照明が十分と予想される
→屋外ではあるが、夜間の照明がしっかりしており照度が十分。問題無し。
→日照が届かない物陰であり、天候によっては日中の差分が抽出されにくくなる。空間周波数が下がった日中では、特徴量パラメータ設定値10では面積判断や縦横判断の設定値をより小さい変化領域でも合格となるように設定切り替えし、コントラスト不足を補う。
[Example 1]: It is predicted that an image of a flat place such as an indoor passage is taken. → Since the fluctuation in illuminance is small, there is a high possibility that even a small difference value that is usually determined as noise is not noise. Therefore, the feature value
[Example 2]: An image of a complex landscape including an outdoor floor and trees is taken, and it is expected that there will be no illumination at night. → Since it is outdoors, there is no problem because the illuminance is sufficient during the day.
→ Because there is no night lighting, it is difficult to extract differences at night. At night when the spatial frequency is lowered, the feature parameter setting value is switched so that the setting value of the area determination and the vertical / horizontal determination is acceptable even in a smaller change area, and the lack of contrast is compensated.
Example 3: An image of a flat landscape such as an outdoor floor surface is captured, and sufficient illumination is expected at night. → Although it is outdoors, the illumination at night is solid and the illumination is sufficient. No problem.
→ It is a shadow that the sunshine does not reach, and it is difficult to extract the difference during the day depending on the weather. In the daytime when the spatial frequency is lowered, the feature value
以上のように、周波数展開部14〜補正実施部16bによりコントラスト不足を適宜補う結果、変化領域は本来のシルエットに近い形状に回復される。これは、それまではコントラストが低く精度良く変化領域が切り出せなかった問題を、補正により軽減した結果である。その結果、特徴量演算部9で演算される各種特徴量は、十分なコントラストがあって変化領域が精度良く切り出されていた状況と、近似の値を取る。変化領域の面積や縦横寸法や移動ベクトルなどは、本来の値と類似となる為、認識精度の劣化が防げる。
As described above, as a result of appropriately compensating for the lack of contrast by the
それら特徴量は、認識処理部11にて、補正された特徴量パラメータ設定値10と比較され、設定値に該当すれば、イベント検知を示すイベント検知信号12を出力する。尚、認識処理部11は、図5に示した通りである。そして、発報処理部13では、認識処理部11からイベント検知信号12を受け取ると、処理の発報処理を行う。
These feature amounts are compared with the corrected feature amount
尚、上記実施の形態3では、補正実施部16bにおける特徴量パラメータ設定値10の補正として、面積判断や縦横判断の設定値を補正したが、これ以外にも連続性や速度といった動作パラメータの補正を行ってもよい。
In the third embodiment, the setting values for area determination and vertical / horizontal determination are corrected as the correction of the feature
以上のように、実施の形態3の監視用画像処理装置によれば、画像認識手段は、監視対象領域の背景画像と現画像との差分を演算する背景差分演算部6と、背景差分演算部6で演算された差分値を2値化する2値化部と、2値化したデータに基づく監視対象領域の特徴量と、予め定められた特徴量の設定値とを比較して監視対象領域におけるイベント発生の有無を判定する認識処理部11とを備え、補正処理部は、特徴量の設定値を補正するようにしたので、撮影画像が輝度の低いコントラストの小さい画像であっても、この画像に応じた特徴量パラメータ設定値とすることができ、その結果、精度良くイベント検知を行うことができる。
As described above, according to the monitoring image processing apparatus of the third embodiment, the image recognition unit includes the background
尚、上記実施の形態1〜3では、それぞれ背景差分演算部6、閾値演算部7、特徴量パラメータ設定値10の補正を行うようにしたが、これらを組み合わせて補正を行うようにしてもよい。
In the first to third embodiments, the background
1 ビデオ入力部、2 A/Dコンバータ、3 現画像蓄積部、4 背景画像蓄積部、5 背景更新部、6 背景差分演算部、7 閾値演算部、8 2値化部、9 特徴量演算部、10 特徴量パラメータ設定値、11 認識処理部、12 イベント検知信号、13 発報処理部、14 周波数展開部、15 周波数要素抽出部、16,16a,16b 補正実施部、17,17a,17b 補正値テーブル。
DESCRIPTION OF SYMBOLS 1 Video input part, 2 A / D converter, 3 Current image storage part, 4 Background image storage part, 5 Background update part, 6 Background difference calculating part, 7 Threshold value calculating part, 8 Binarization part, 9 Feature-
Claims (4)
前記監視対象領域を撮影した画像の空間周波数を算出する周波数展開部と、
前記周波数展開部で算出された空間周波数から所定の周波数要素を抽出する周波数要素抽出部と、
前記周波数要素抽出部で抽出された周波数要素に基づいて、前記監視対象領域の状況を類推し、この類推結果に対応して、前記動作パラメータの補正を行う補正実施部とを備えた監視用画像処理装置。 An image for extracting a change area in the monitoring target area from a plurality of images in video data obtained by sequentially capturing the monitoring target area based on a predetermined operation parameter, and detecting the occurrence of an event based on the change area Recognition means;
A frequency expansion unit for calculating a spatial frequency of an image obtained by photographing the monitoring target region;
A frequency element extraction unit that extracts a predetermined frequency element from the spatial frequency calculated by the frequency expansion unit;
Based on the frequency element extracted by the frequency element extraction unit, the situation of the monitoring target area is inferred, and a correction execution unit that corrects the operation parameter according to the analogy result is provided. Processing equipment.
補正実施部は、前記動作パラメータを補正することを特徴とする請求項1記載の監視用画像処理装置。 The image recognition means binarizes the difference value calculated by the background difference calculation unit and a background difference calculation unit that calculates a difference between the background image of the monitoring target area and the current image based on a predetermined operation parameter. A binarization unit for extracting a region, and a feature amount of the monitoring target region based on the change region is compared with a set value of a predetermined feature amount to determine whether or not an event has occurred in the monitoring target region A recognition processing unit,
The monitoring image processing apparatus according to claim 1, wherein the correction execution unit corrects the operation parameter.
補正実施部は、前記閾値演算部で演算する閾値を補正することを特徴とする請求項1記載の監視用画像処理装置。 The image recognition means has a background difference calculation unit for calculating a difference between the background image of the monitoring target area and the current image, and a threshold value for binarization is determined based on the difference value calculated by the background difference calculation unit. A threshold value calculation unit that calculates as an operation parameter, a binarization unit that binarizes the difference value calculated by the background difference calculation unit with the threshold value and extracts a change region, and the monitoring target region based on the change region A recognition processing unit that determines whether or not an event has occurred in the monitoring target region by comparing the feature amount and a set value of a predetermined feature amount,
The monitoring image processing apparatus according to claim 1, wherein the correction execution unit corrects a threshold value calculated by the threshold value calculation unit.
補正処理部は、前記特徴量の設定値を補正することを特徴とする請求項1記載の監視用画像処理装置。 The image recognition means includes a background difference calculation unit that calculates a difference between the background image of the monitoring target area and the current image, a binarization unit that binarizes the difference value calculated by the background difference calculation unit, A recognition processing unit that determines whether or not an event has occurred in the monitoring target region by comparing a feature amount of the monitoring target region based on the converted data and a set value of a predetermined feature amount;
The monitoring image processing apparatus according to claim 1, wherein the correction processing unit corrects a set value of the feature amount.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009281623A JP5388827B2 (en) | 2009-12-11 | 2009-12-11 | Image processing device for monitoring |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009281623A JP5388827B2 (en) | 2009-12-11 | 2009-12-11 | Image processing device for monitoring |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011123726A true JP2011123726A (en) | 2011-06-23 |
JP5388827B2 JP5388827B2 (en) | 2014-01-15 |
Family
ID=44287547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009281623A Expired - Fee Related JP5388827B2 (en) | 2009-12-11 | 2009-12-11 | Image processing device for monitoring |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5388827B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013120412A (en) * | 2011-12-06 | 2013-06-17 | Samsung Techwin Co Ltd | Object detection device, monitoring camera and object detection method |
US11423298B2 (en) * | 2017-12-08 | 2022-08-23 | Fujitsu Limited | Computer-readable recording medium, determination method, and determination apparatus |
CN116385706A (en) * | 2023-06-06 | 2023-07-04 | 山东外事职业大学 | Signal detection method and system based on image recognition technology |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09282452A (en) * | 1996-04-12 | 1997-10-31 | Omron Corp | Monitor |
JPH11120481A (en) * | 1997-10-17 | 1999-04-30 | Mitsubishi Heavy Ind Ltd | Traffic flow measuring device |
JP2002083301A (en) * | 2000-09-06 | 2002-03-22 | Mitsubishi Electric Corp | Traffic monitoring device |
JP2002367077A (en) * | 2001-06-07 | 2002-12-20 | Mitsubishi Electric Corp | Device and method for deciding traffic congestion |
JP2007018070A (en) * | 2005-07-05 | 2007-01-25 | Sekisui Jushi Co Ltd | Visual environment information transmission system |
-
2009
- 2009-12-11 JP JP2009281623A patent/JP5388827B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09282452A (en) * | 1996-04-12 | 1997-10-31 | Omron Corp | Monitor |
JPH11120481A (en) * | 1997-10-17 | 1999-04-30 | Mitsubishi Heavy Ind Ltd | Traffic flow measuring device |
JP2002083301A (en) * | 2000-09-06 | 2002-03-22 | Mitsubishi Electric Corp | Traffic monitoring device |
JP2002367077A (en) * | 2001-06-07 | 2002-12-20 | Mitsubishi Electric Corp | Device and method for deciding traffic congestion |
JP2007018070A (en) * | 2005-07-05 | 2007-01-25 | Sekisui Jushi Co Ltd | Visual environment information transmission system |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013120412A (en) * | 2011-12-06 | 2013-06-17 | Samsung Techwin Co Ltd | Object detection device, monitoring camera and object detection method |
US11423298B2 (en) * | 2017-12-08 | 2022-08-23 | Fujitsu Limited | Computer-readable recording medium, determination method, and determination apparatus |
CN116385706A (en) * | 2023-06-06 | 2023-07-04 | 山东外事职业大学 | Signal detection method and system based on image recognition technology |
CN116385706B (en) * | 2023-06-06 | 2023-08-25 | 山东外事职业大学 | Signal detection method and system based on image recognition technology |
Also Published As
Publication number | Publication date |
---|---|
JP5388827B2 (en) | 2014-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9076037B2 (en) | Image processing apparatus and method | |
KR102207939B1 (en) | Defog system and method | |
US9355327B2 (en) | Image processing apparatus and imaging apparatus with noise correction function and signal level correction function | |
KR20060008268A (en) | Smoke detecting method and system using ccd image | |
KR20160131807A (en) | Defog system | |
AU2011244921B2 (en) | Method and system for luminance adjustment of images in an image sequence | |
JP2008259161A (en) | Target tracing device | |
JP5388827B2 (en) | Image processing device for monitoring | |
KR101336240B1 (en) | Method and apparatus for image processing using saved image | |
JP4865328B2 (en) | Image sensor | |
US9443150B2 (en) | Device and method for detecting objects from a video signal | |
WO2013114803A1 (en) | Image processing device, image processing method therefor, computer program, and image processing system | |
JP6819785B2 (en) | Position estimation device, position estimation method and program | |
KR101941266B1 (en) | CCTV Image Providing System for Ultra-Low Light | |
US20200036904A1 (en) | Image processing apparatus, surveillance camera system, image processing method, and program | |
JP2020030751A (en) | Object detection device, object detection method, and object detection program | |
JPH10289321A (en) | Image monitoring device | |
JP2012039440A (en) | Dark area noise correction device | |
JP2002150440A (en) | Detector for object of monitoring | |
JP2002290959A (en) | Method and device for detecting invader | |
JP7194534B2 (en) | Object detection device, image processing device, object detection method, image processing method, and program | |
JP2012133587A (en) | Image analysis device, image analysis method and program | |
KR101297396B1 (en) | Method of shadow removal based on relative similarity | |
JP2003168118A (en) | Image processor and mobile body monitoring device | |
CN113888657B (en) | Screen color acquisition method and device, camera equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120608 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130304 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130514 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130708 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130910 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131008 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5388827 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |