JP5933482B2 - Image processing device for monitoring - Google Patents
Image processing device for monitoring Download PDFInfo
- Publication number
- JP5933482B2 JP5933482B2 JP2013096265A JP2013096265A JP5933482B2 JP 5933482 B2 JP5933482 B2 JP 5933482B2 JP 2013096265 A JP2013096265 A JP 2013096265A JP 2013096265 A JP2013096265 A JP 2013096265A JP 5933482 B2 JP5933482 B2 JP 5933482B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- color
- colorful
- luminance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 65
- 238000012544 monitoring process Methods 0.000 title claims description 45
- 238000000034 method Methods 0.000 claims description 45
- 239000000284 extract Substances 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 17
- 239000006185 dispersion Substances 0.000 description 7
- 239000003086 colorant Substances 0.000 description 6
- 230000004044 response Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 241001061106 Sargocentron rubrum Species 0.000 description 4
- 230000015556 catabolic process Effects 0.000 description 4
- 238000006731 degradation reaction Methods 0.000 description 4
- 230000000593 degrading effect Effects 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 244000025254 Cannabis sativa Species 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Engineering & Computer Science (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
Description
この発明は、例えば侵入者などの発報事象の出現を検知する監視用画像処理装置に関するものである。 The present invention relates to a monitoring image processing apparatus that detects the appearance of a notification event such as an intruder.
従来の画像処理装置では、例えば、特許文献1に開示されているように、「輝度背景差分」方式を使用して移動物のシルエット(変化領域)を抽出し、変化領域の特徴量が特徴量パラメータ設定値に合致するか否かによって発報処理を行なう構成にしている。このように構成されることで背景差分ロジックはシンプルに構成できる。
また、従来の画像処理装置では、例えば、特許文献2に開示されているように、「輝度テンプレートマッチング」方式を採用して、複雑な検査や位置決めを高速に行なうように構成している。
In a conventional image processing apparatus, for example, as disclosed in
In addition, as disclosed in
しかしながら、従来の監視用画像処理装置では、変化領域が発報すべき正規発報対象であっても、つまり、背景と色の異なる移動物であっても、背景と類似の輝度であれば、特徴量が特徴量パラメータ(例えば面積値)に合致せず、変化領域を抽出することが困難であり、この変化領域の不正確さによって、正規発報対象であるのに発報することができない失報となってしまうという課題があった。また、テンプレートマッチング方式においても、輝度データマッチングでは、色の異なる移動物であっても、背景と類似の輝度である限り、正確なテンプレートマッチングが実施できず、移動物の抽出が困難となり、失報となってしまうという課題があった。 However, in the conventional monitoring image processing apparatus, even if the change area is a regular report target to be reported, that is, a moving object having a different color from the background, if the brightness is similar to the background, The feature quantity does not match the feature quantity parameter (for example, area value), and it is difficult to extract the change area. Due to the inaccuracy of the change area, it is not possible to issue the report even though it is a regular report target. There was a problem of being unreported. Also in the template matching method, in brightness data matching, even for moving objects of different colors, accurate template matching cannot be performed as long as the brightness is similar to that of the background. There was a problem of becoming information.
例えば、黒い背景に赤い服の人物が移動するようなケースにおいて、黒色も赤色も、輝度はほぼ同一である。従って、従来の「輝度背景差分」方式や「輝度テンプレートマッチング」方式では、差分が得られず、変化領域を抽出することが困難であった。しかし、人間の目には、明確に「黒」と「赤」の色の違いがあり、このシーンでの移動物の見落とし、つまり失報は、奇異なものとして映ってしまう。 For example, in a case where a person in red clothes moves on a black background, the luminance is almost the same for both black and red. Therefore, in the conventional “brightness background difference” method and “brightness template matching” method, a difference cannot be obtained, and it is difficult to extract a change region. However, the human eye clearly has a difference in color between “black” and “red”, and oversight of moving objects in this scene, that is, misrepresentation, appears as strange.
この発明は上記のような課題を解決するためになされたもので、常に精度を落とすことなく精度の高い背景差分を実施し、失報を回避することができる監視用画像処理装置を得ることを目的とする。 The present invention has been made to solve the above-described problems, and is to obtain a monitoring image processing apparatus that can always perform high-precision background subtraction without reducing accuracy and avoid misreporting. Objective.
この発明に係る監視用画像処理装置は、監視対象領域の現在の監視画像を映像信号として受信するビデオ入力部と、前記ビデオ入力部が受信した前記映像信号を量子化して現画像とするA/Dコンバータと、前記現画像と、前記現画像において発報事象が出現していない状態の前記監視画像を示す比較用画像とを比較し、前記監視画像内の輝度背景差分を抽出する輝度背景差分部と、前記現画像と、前記比較用画像とを比較し、前記監視画像内の色背景差分を抽出する色背景差分部と、前記現画像から色ヒストグラムを作成し、前記色ヒストグラムの分散にもとづいて、前記現画像がモノトーン状況であるかカラフル状況であるかを判断するカラフル判定部と、前記カラフル判定部が前記カラフル状況であると判断した場合に前記色背景差分を選択し、前記カラフル判定部が前記モノトーン状況であると判断した場合に前記輝度背景差分を選択するセレクタ部とを備えたものである。 A monitoring image processing apparatus according to the present invention includes a video input unit that receives a current monitoring image of a monitoring target area as a video signal, and an A / A that quantizes the video signal received by the video input unit to obtain a current image. A luminance background difference that compares a D converter, the current image, and a comparison image indicating the monitoring image in a state where no alerting event appears in the current image, and extracts a luminance background difference in the monitoring image; A color background difference unit that compares the current image with the comparison image and extracts a color background difference in the monitoring image, creates a color histogram from the current image, and distributes the color histogram Based on a colorful determination unit that determines whether the current image is in a monotone state or a colorful state, and the color background difference when the colorful determination unit determines that the state is colorful Selected, in which the colorful determination section and a selector section for selecting the luminance background subtraction when it is determined that the a monotone situation.
この発明によれば、現画像がカラフル状況にあるかモノトーン状況にあるか判断した後、背景差分方式を「輝度背景差分」と「色背景差分」から選択できるようにしたので、背景と色の異なる移動物について、背景と類似の輝度であっても変化領域として精度よく抽出することができ、失報を回避できる。また、テンプレートマッチングとして、「輝度マッチング」と「色マッチング」の2種類の方式を搭載し、どちらの方式を採用するか選択できるようにしたので、背景と色の異なる移動物について、背景と類似の輝度であっても精度よく抽出することができ、失報を回避できる。 According to the present invention, after determining whether the current image is in a colorful state or a monotone state, the background difference method can be selected from “brightness background difference” and “color background difference”. Different moving objects can be accurately extracted as a change area even if the brightness is similar to that of the background, and misreporting can be avoided. In addition, two types of template matching, “Luminance matching” and “Color matching”, have been installed so that you can select which method to use, so moving objects with different backgrounds and colors are similar to the background. Can be extracted with high accuracy, and misreporting can be avoided.
以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る監視用画像処理装置の構成図である。
監視用画像処理装置は、ビデオ入力部1と、A/Dコンバータ2と、カラフル判定部3と、現画像蓄積部4と、背景画像蓄積部5と、背景更新部6と、輝度背景差分部7と、色背景差分部8と、セレクタ部9と、閾値演算部10と、2値化部11と、特徴量演算部12と、特徴量パラメータ設定値記憶部13と、認識処理部14と、発報部15とを備える。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram of a monitoring image processing apparatus according to
The monitoring image processing apparatus includes a
ビデオ入力部1は、電気所などに設置されたTVカメラ等、不図示の撮像装置から出力された監視対象領域の現在の監視映像を映像信号として受信する。
A/Dコンバータ2は、ビデオ入力部1から受信する映像信号を量子化する。つまり、ビデオ入力部1から受信したアナログデータをデジタルデータに変換する。
カラフル判定部3は、A/Dコンバータ2が出力した現在の映像データ(以下、現画像という)から色ヒストグラムを作成し、その分散具合いにより現画像が色彩鮮やかな状況(以降、カラフル状況という)か、逆に色彩が抑えられたモノトーンに近い状況(以降、モノトーン状況という)かを判断する。
現画像蓄積部4は、A/Dコンバータ2が出力した現画像を受信し、記憶する。なお、現画像データは必要に応じ記録すればよく、現画像データを蓄積せず、受信した現画像データをそのまま輝度背景差分部7および色背景差分部8に出力することとしてもよい。
The
The A /
The
The current
背景画像蓄積部5は、A/Dコンバータ2が出力した現画像を受信し、相応の演算を行ない、発報事象(例えば、侵入者)が出現していない状態の監視対象領域を示す比較用の背景画像(例えば、発報事象が出現していないタイミングで、A/Dコンバータ2により取得された画像データ。以下、背景画像という)を作成し、記憶する。なお、背景画像は、必要に応じて記録すればよく、背景画像を記憶しておかず、A/Dコンバータ2から受信した現画像データから背景画像を作成し、そのまま輝度背景差分部7および色背景差分部8に出力することとしてもよいし、人為的に作成された背景画像を外部から取得し、そのまま輝度背景差分部7および色背景差分部8に出力することとしてもよい。
The background
背景更新部6は、背景画像蓄積部5のデータを一定ルールで演算し、背景画像を更新する。一般的には、例えば、過去5枚の背景画像の平均を背景画像とするなど、単純なルールで更新する。
輝度背景差分部7は、現画像蓄積部4に記憶している現画像と背景画像蓄積部5に記憶している背景画像の2つの画像を比較し、監視画像内の移動物、変化物を輝度差分データ(輝度背景差分という)として抽出する。
色背景差分部8は、現画像蓄積部4に記憶している現画像と背景画像蓄積部5に記憶している背景画像の2つの画像を比較し、Cb(青成分),Cr(赤成分)(もしくはRGB等の色情報)での背景差分を行い、監視画像内の移動物、変化物を色差分データ(色背景差分という)として抽出する。
セレクタ部9は、カラフル判定部3の判定結果に従い、輝度背景差分と色背景差分のどちらを次工程に流すか判断する。
The
The luminance
The color
The
閾値演算部10は、セレクタ部9が判断した輝度背景差分または色背景差分の背景差分データを2値化するための閾値を算出する。例えば、背景差分データの平均値を閾値にする等、背景差分データを元に単純なルールで最適閾値を求めるのが一般的である。
2値化部11は、閾値演算部10が求めた閾値により輝度背景差分または色背景差分の背景差分データを2値化する。2値化されたデータを変化領域とよぶ。ただし装置によってはこの2値化を行わずに直接背景差分データを認識処理する場合もある。
The threshold
The
特徴量演算部12は、2値化部11から出力される2値データを受信し、特徴量、例えば、変化領域の面積、縦横寸法等を算出する。
特徴量パラメータ設定値記憶部13は、あらかじめ発報対象の特徴量パラメータを記憶している。特徴量パラメータは、オペレータが事前に決定した正規発報対象(例えば人物、車)の特徴量(例えば、面積の上限,下限、縦横寸法の上限,下限、移動量)の範囲や条件である。
認識処理部14は、特徴量演算部12から出力される特徴量データと、特徴量パラメータ設定値記憶部13に記憶している発報対象の特徴量パラメータ設定値を比較し、イベント発生か否かを判断する。また、イベント発生を知らせる通知(発報事象発生通知)を出力する。なお、認識処理部14が、特徴量パラメータ設定値に該当すると判断した場合をイベント発生といい、イベントを発生させた発報対象をイベント対象という。
発報部15は、認識処理部14から発報事象発生を受信すると、発報処理を行なう。発報処理とは、例えば、BEEP音を出す等の処理をいう。
The feature
The feature parameter setting
The
When receiving the notification event occurrence from the
次に、動作について説明する。
図2は、この発明の実施の形態1に係る監視用画像処理装置の発報処理のフローチャートである。図2に沿って、発報するまでの動作について説明する。
ビデオ入力部1は、電気所などに設置されたTVカメラ等、外部の撮像装置から出力された映像信号(ビデオ信号)を受信し、A/Dコンバータ2に送る(ステップST1)。
A/Dコンバータ2は、ビデオ入力部1から受信したビデオ信号をデジタルデータに変換し、変換した現在の映像データ(現画像)をカラフル判定部3、現画像蓄積部4、背景画像蓄積部5に出力する(ステップST2)。具体的には、1画素あたり8ビットの多値データに変換するのが一般的である。
Next, the operation will be described.
FIG. 2 is a flowchart of the reporting process of the monitoring image processing apparatus according to the first embodiment of the present invention. The operation up to issue will be described with reference to FIG.
The
The A /
現画像蓄積部4は、A/Dコンバータ2から受信した現画像を記憶する(ステップST3)。なお、現画像は必要に応じて記録すればよく、現画像を蓄積せず、受信した現画像をそのまま輝度背景差分部7または色背景差分部8に出力することとしてもよい。
背景画像蓄積部5は、A/Dコンバータ2から受信した現画像を元に、発報事象(例えば、侵入者)が出現していない状態の監視対象領域を示す比較用の背景画像(例えば、発報事象が出現していないタイミングで、A/Dコンバータ2により取得された画像データ。以下、背景画像という)を作成し、記憶する(ステップST4)。なお、背景画像は、必要に応じて記録すればよく、背景画像を記憶しておかず、A/Dコンバータ2から受信した現画像データから背景画像を作成し、そのまま輝度背景差分部7および色背景差分部8に出力することとしてもよいし、人為的に作成された背景画像を外部から取得し、そのまま輝度背景差分部7および色背景差分部8に出力することとしてもよい。
The current
Based on the current image received from the A /
背景更新部6は、背景画像蓄積部5に記憶してある背景画像を一定ルールで更新する(ステップST5)。定期的にサンプリングされた背景画像を元に演算処理されるのが一般で、例としては過去5シーンの背景画像の各画素の値を平均した平均画像を背景画像として更新する方法や、一定時間前の背景画像を入れ替える方法等が、一般的である。
輝度背景差分部7は、現画像蓄積部4および背景画像蓄積部5からの出力画像を比較し、各画素毎に輝度差分を求め、その差分データより成る画像(以降輝度差分画像とよぶ)を出力する(ステップST6)。輝度差分画像は、一般的には映像中で物体が移動したり光量が変化したりした際の輝度の変化した部分を表す。通常は人物や車両のような移動物が主であるが、周囲が暗い場合は、まれに正確な輝度差分画像が得られない場合もある。
The
The luminance
色背景差分部8は、現画像蓄積部4および背景画像蓄積部5からの出力画像を比較し、色背景差分を実施し、各画素毎に色差分を求め、その差分データより成る画像(以降色差分画像とよぶ)を出力する(ステップST7)。色差分画像は、一般的には映像中で物体が移動したり色彩量が変化したりした際の色の変化した部分を表す。通常は人物や車両のような移動物が主であるが、背景画と移動物が同系色の場合は、まれに正確な色差分画像が得られない場合もある。
色背景差分の演算式の一例を以下に示す。
色背景差分=|背景画のCb−現画のCb|+|背景画のCr−現画のCr|
なお、これは一例にすぎず、別の演算式を用いて色背景差分を求めることとしてもよい。
The color
An example of the color background difference calculation formula is shown below.
Color Background Difference = | Background Cb−Current Picture Cb | + | Background Cr−Current Picture Cr |
This is merely an example, and the color background difference may be obtained using another arithmetic expression.
カラフル判定部3は、A/Dコンバータ2から受信した現画像に基づき、色ヒストグラムを作成し、その分布の様子より現画像がカラフル状況か、モノトーン状況かを判断するカラフル判定を行なう(ステップST8)。
図3は、この発明の実施の形態1のカラフル判定部3によるカラフル判定のフローチャートである。
図3に沿って、カラフル判定について詳細に説明する。
まず、カラフル判定部3は、A/Dコンバータ2から受信した現画像の全画素のCb値を取得し、ヒストグラムを作成する(ステップST21)。
カラフル判定部3は、ステップST21と同様に、A/Dコンバータ2から受信した現画像の全画素のCr値を取得し、ヒストグラムを作成する(ステップST22)。
カラフル判定部3は、ステップST21で作成したCbヒストグラムの平均を求め、Cbの偏差、つまりCb成分の分散具合いを算出する(ステップST23)。
カラフル判定部4は、ステップST23と同様に、ステップST22で作成したCrヒストグラムの平均を求め、Crの偏差、つまりCr成分の分散具合いを算出する(ステップST24)。
The
FIG. 3 is a flowchart of colorful determination by the
The colorful determination will be described in detail with reference to FIG.
First, the
Similar to step ST21, the
The
Similar to step ST23, the
カラフル判定部3は、事前に決められ、自身に記憶している偏差の閾値と、ステップST23,ステップST24でそれぞれ算出したCb,Crの偏差の結果とを比較し、どちらか一方が閾値を超えていないかどうか判定する(ステップST25)。
ステップST25において、どちらか一方が閾値を超えている場合(ステップST25の“YES”の場合)、カラフル判定部3は、「カラフル状況」であると判断して処理終了する(ステップST26)。
一方、ステップST25において、どちらとも閾値を超えていない場合(ステップST25の“NO”の場合)、カラフル判定部3は、「モノトーン状況」であると判断して処理終了する(ステップST27)。
The
In step ST25, when either one exceeds the threshold value (in the case of “YES” in step ST25), the
On the other hand, if neither of the thresholds is exceeded in step ST25 (in the case of “NO” in step ST25), the
セレクタ部9は、カラフル判定部3によるカラフル判定の判定結果を受け、輝度背景差分部7が出力した輝度背景差分か、色背景差分部8が出力した色背景差分か、いずれの背景差分を採用するかを決定し、決定した背景差分を閾値演算部10へ出力する(ステップST9)。
The
ここで、ステップST6〜ステップST9までの処理について、画像例を用いて具体的に説明する。
図4は、現画像がモノトーンな映像状況の例を示す図である。まず、現画像がモノトーンである場合の輝度差分画像および色差分画像の出力について、図4に沿って説明する。
図4(a)は、現画像蓄積部4に記憶されている現画像であり、歩行者がいる画像であるとする。また、図4(b)は、背景画像蓄積部5に記憶されている背景画像であり、歩行者がいない状況の画像であるとする。
Here, the processing from step ST6 to step ST9 will be specifically described using an image example.
FIG. 4 is a diagram illustrating an example of a video situation in which the current image is monotone. First, output of a luminance difference image and a color difference image when the current image is monotone will be described with reference to FIG.
FIG. 4A is a current image stored in the current
輝度背景差分部7は、ステップST6において、図4(a)の現画像と図4(b)の背景画像を比較し、輝度背景差分画像を出力する。図4(c)は、輝度差分画像であり、一定量の輝度の差がある画素を塗りつぶしで示して現画像に重ねたものである。
色背景差分部8は、ステップST7において、図4(a)の現画像と図4(b)の背景画像を比較し、色背景差分画像を出力する。図4(d)は、色背景差分画像であり、一定量の色の差がある画素を塗りつぶしで示して現画像に重ねたものである。
In step ST6, the luminance
In step ST7, the color
図4は、積雪の風景であるため、背景画と歩行者の「色」の違いはほとんど無く、灰色、黒色の画像である。よって、色の差は微少である。
逆に、背景と歩行者の間の「輝度」の違いは明確であり、雪の地面と歩行者の間で輝度差が確認できる。よって、輝度の差は比較的大きい。
したがって、図4(d)の塗りつぶしで示した部分の面積は小さく、図4(c)の塗りつぶしで示した部分の面積は比較的大きい。つまり、輝度背景差分画像のほうが、色背景差分画像よりも変化領域が大きい。
Since FIG. 4 is a snowy landscape, there is almost no difference between the “color” of the background image and the pedestrian, and the images are gray and black. Therefore, the color difference is very small.
On the contrary, the difference in “luminance” between the background and the pedestrian is clear, and the luminance difference can be confirmed between the snow ground and the pedestrian. Therefore, the difference in luminance is relatively large.
Therefore, the area of the portion shown by the filling in FIG. 4D is small, and the area of the portion shown by the filling in FIG. 4C is relatively large. That is, the luminance background difference image has a larger change area than the color background difference image.
図5は、現画像がカラフルな映像状況の例を示す図である。(図面上、色は出ていないが、カラフルな色つきの画像を表すものとする)
現画像がモノトーンである場合の輝度差分画像および色差分画像の出力について、図5に沿って説明する。
図5(a)は、現画像蓄積部4に記憶されている現画像であり、歩行者がいる画像であるとする。また、図5(b)は、背景画像蓄積部5に記憶されている背景画像であり、歩行者がいない状況の画像であるとする。
FIG. 5 is a diagram illustrating an example of a video situation in which the current image is colorful. (Although no color appears on the drawing, it represents a colorful image.)
The output of the luminance difference image and the color difference image when the current image is monotone will be described with reference to FIG.
FIG. 5A is a current image stored in the current
輝度背景差分部7は、ステップST6において、図5(a)の現画像と図5(b)の背景画像を比較し、輝度背景差分画像を出力する。図5(c)は、輝度差分画像であり、一定量の輝度の差がある画素を塗りつぶしで示して現画像に重ねたものである。
色背景差分部8は、ステップST7において、図5(a)の現画像と図5(b)の背景画像を比較し、色背景差分画像を出力する。図5(d)は、色背景差分画像であり、一定量の色の差がある画素を塗りつぶしで示して現画像に重ねたものである。
In step ST6, the luminance
In step ST7, the color
図5は、昼間の風景であるため、背景画と歩行者の「色」の違いは明確である。よって、背景は緑系、歩行者は青色系の色となり、同系色の色はない。色の差は、比較的大きい。
逆に、背景と歩行者の間の「輝度」の違いは微少である。よって、背景の緑も歩行者の青色も、輝度値だけ見ると類似の値をとる。輝度の差は微少である。
したがって、図5(c)の塗りつぶしで示した部分の面積は小さく、図5(d)の塗りつぶしで示した部分の面積は比較的大きい。つまり、色背景差分画像のほうが、輝度背景差分画像よりも変化領域が大きい。
したがって、図4,図5のように、モノトーン状況では輝度差分、カラフル状況では色差分を使用することが、より大きな差分情報を得る方法であるといえる。
Since FIG. 5 is a daytime scenery, the difference between the background image and the “color” of the pedestrian is clear. Therefore, the background is green, and the pedestrian is blue. There is no similar color. The color difference is relatively large.
Conversely, the difference in “brightness” between the background and the pedestrian is small. Therefore, both the green background and the blue color of the pedestrian have similar values in terms of the luminance value. The difference in brightness is very small.
Therefore, the area of the portion indicated by the fill in FIG. 5C is small, and the area of the portion indicated by the fill in FIG. 5D is relatively large. That is, the color background difference image has a larger change area than the luminance background difference image.
Therefore, as shown in FIGS. 4 and 5, it can be said that using a luminance difference in a monotone situation and a color difference in a colorful situation is a method for obtaining larger difference information.
図6は、モノトーン画像(図4)のヒストグラム例を示す図である。
図7は、カラフル画像(図5)のヒストグラム例を示す図である。
ここで、カラフル判定部3におけるカラフル判定について、図6,7を用いて具体的に説明する。
図6では、全体に青色に偏り、他の色が少ないため、Cb成分(青成分)のヒストグラムが中央に集まっている(図6(a))。また、Cr成分(赤成分)は少ないため、Crのヒストグラムはほとんどない(図6(b))。
モノトーン状況では、このようにCb,Cr成分のヒストグラムが一極に集まり、分散が小さい。
FIG. 6 is a diagram showing an example of a histogram of a monotone image (FIG. 4).
FIG. 7 is a diagram illustrating an example of a histogram of a colorful image (FIG. 5).
Here, the colorful determination in the
In FIG. 6, since the whole color is biased to blue and there are few other colors, the histogram of the Cb component (blue component) is gathered at the center (FIG. 6A). Further, since there are few Cr components (red components), there is almost no Cr histogram (FIG. 6B).
In the monotone situation, the histograms of the Cb and Cr components gather together in this way, and the variance is small.
図7では、全体に緑系、青系、赤系の色が混在しているため、Cb成分(青成分)、Cr成分(赤成分)のヒストグラムとも各色に散らばり分散している(図7(a),(b))。
カラフル状況では、このようにCb,Cr成分のヒストグラムが広く分散し、偏差が大きい。
カラフル判定部3は、A/Dコンバータ2から受信した現画像の全画素のCb値,Cr値を取得し、図6,図7に示すようなヒストグラムを作成し(ステップST21,ST22)、Cb,Crの分散値から偏差を算出して(ステップST23,ST24)、事前に取り決めた定数(閾値)を上回れば「カラフル状況」、下回れば「モノトーン状況」とのステータスの判断をする(ステップST25〜ST27)。
セレクタ部9では、この判断を受けていずれの背景差分を採用するかを決定する。
In FIG. 7, since green, blue, and red colors are mixed throughout, the Cb component (blue component) and Cr component (red component) histograms are scattered and dispersed in each color (FIG. 7 ( a), (b)).
In a colorful situation, the histogram of the Cb and Cr components is thus widely dispersed and the deviation is large.
The
In response to this determination, the
具体的には、例えば、現画像が図4(a)であった場合、ヒストグラムは図6のようになり、カラフル判定部3は、Cb,Crの偏差はともに閾値を下回ると判定し、Cb,Cr成分のヒストグラムが一極に集まり、分散が一定値より小さい「モノトーン」状況であると判断する。これを受けて、セレクタ部9では、輝度背景差分部7が出力した輝度背景差分画像(図4(c))を採用すると決定する。
一方、例えば、現画像が図5(a)であった場合、ヒストグラムは図7のようになり、カラフル判定部3は、Cb,Crの偏差が閾値を上回ると判定し、Cb,Cr成分のヒストグラムが一定値より広く分散している「カラフル状況」であると判断する。これを受けて、セレクタ部9では、色背景差分部8が出力した色背景差分画像(図5(d))を採用すると決定する。
Specifically, for example, when the current image is FIG. 4A, the histogram is as shown in FIG. 6, and the
On the other hand, for example, when the current image is FIG. 5A, the histogram is as shown in FIG. 7, and the
図2のフローに戻る。
ステップST9において、セレクタ部9が輝度背景差分と色背景差分のうち決定したほうの背景差分を閾値演算部10へ出力すると、閾値演算部10は、受信した背景差分データを2値化するための閾値を算出する(ステップST10)。背景差分データは、多値データであり、そのまま認識処理するのは不的確であるため、以降の処理を高速に行なうためにも2値化して2値化データに変換するのが一般的である。閾値は、例えば、背景差分データの平均値を閾値にする等、背景差分データをもとに、単純なルールで最適閾値を求めるのが一般的である。なお、これは一例にすぎず、他の方法で閾値を設定してもよい。
Returning to the flow of FIG.
In step ST9, when the
2値化部11は、ステップST10において閾値演算部10が算出した閾値で背景差分データを2値化する(ステップST11)。以降、背景差分データを変化領域という。ただし装置によってはこの2値化を行わずに直接背景差分データを認識処理する場合もある。
変化領域について、図8に基づいて説明する。
図8(a)は、通常の正門の映像である。図8(a)に示すように、今人物が画像内を移動している。この場合、移動している人物の位置がそのまま変化領域となる。
図8(b)は、図8(a)の変化領域を黒く染めてスーパーインポーズした現画像を示した映像である。
The
A change area | region is demonstrated based on FIG.
FIG. 8A shows a normal main gate image. As shown in FIG. 8A, the person is now moving in the image. In this case, the position of the moving person becomes the change area as it is.
FIG. 8B is a video showing the current image superimposed on the change area of FIG.
特徴量演算部12は、ステップST11において2値化部11が2値化した変化領域を受信し、特徴量を算出する(ステップST12)。特徴量とは、変化領域の面積、縦横寸法等をいう。この実施の形態1では、例として、特徴量を「連続性」「面積」「縦横寸法」「速度」とする。「連続性」とは何フレーム変化領域が生存したかの連続時間をいい、「面積」は変化領域の画素数をいい、「縦横寸法」は変化領域の外接矩形の縦長さ,横長さをいい、「速度」は変化領域の移動速度を表す。
The feature
認識処理部14は、ステップST12において特徴量演算部12が算出した特徴量データと、特徴量パラメータ設定値記憶部13に記憶している特徴量パラメータ設定値を比較し、イベント発生か否か、つまり、発報対象が発生したか否かを判断し、発報対象である場合、発報対象通知を出力する(ステップST13)。具体的には、特徴量演算部12が算出した特徴量データが、特徴量パラメータ設定値記憶部13に記憶している特徴量パラメータ設定値に示されている範囲や条件に合致しているか否かを判断し、合致している場合、イベント対象発見となり、イベント通知(発報事象発生通知)を出力する。
The
図9は、認識処理部14による判定を詳細に示したフローチャートである。
ステップST12において特徴量演算部12が算出した変化領域の特徴量を受信すると、認識処理部14は、変化領域が一定時間連続で存在するかどうかを判断する(ステップST31)。具体的には、変化領域の存在する連続時間は、特徴量パラメータ設定値記憶部13に記憶している範囲や条件に合致した場合にOK、合致しなければNGと判断する。例えば、特徴量パラメータ設定値の範囲が「最小4フレーム最大10フレーム」である場合、連続時間が4〜10フレームであればOK、それ以外であればNGと判断される。
FIG. 9 is a flowchart showing in detail the determination by the
When the feature amount of the change region calculated by the feature
ステップST31で“NG”と判断された場合、以降の処理はスキップして処理終了する。
ステップST31で“OK”と判断された場合、認識処理部14は、変化領域の特徴量のうち、面積が所定値であるかどうかを判断する(ステップST32)。具体的には、変化領域の面積が特徴量パラメータ設定値の範囲や条件に合致した際にOK、合致しなかった場合にNGと判断する。例えば、特徴量パラメータ設定値の範囲が「最小500画素、最大1000画素」である場合、面積が500〜1000画素であればOK、それ以外であればNGと判断される。
If “NG” is determined in step ST31, the subsequent processing is skipped and the processing ends.
If “OK” is determined in step ST31, the
ステップST32で“NG”と判断された場合、以降の処理はスキップして処理終了する。
ステップST32で“OK”と判断された場合、認識処理部14は、変化領域の特徴量のうち、縦横寸法が所定値であるかどうかを判断する(ステップST33)。具体的には、縦横寸法が特徴量パラメータ設定値の範囲や条件に合致した際にOK、合致しなかった場合にNGと判断する。例えば、特徴量パラメータ設定値の範囲が「縦最小50画素、最大100画素」「横最小50画素、最大100画素」である場合、縦横寸法とも50〜100画素であればOK、それ以外であればNGと判断される。
If “NG” is determined in step ST32, the subsequent processing is skipped and the processing ends.
If “OK” is determined in step ST32, the
ステップST33で“NG”と判断された場合、以降の処理はスキップして処理終了する。
ステップST33で“OK”と判断された場合、認識処理部14は、変化領域の特徴量のうち、移動速度が所定値であるかどうかを判断する(ステップST34)。具体的には、速度が特徴量パラメータ設定値の範囲や条件に合致した際にOK、合致しなかった場合にNGと判断する。例えば、特徴量パラメータ設定値の範囲が「最小50画素/秒、最大100画素/秒」である場合、縦横寸法とも50〜100画素/秒であればOK、それ以外であればNGと判断される。
ステップST34で“NG”と判断された場合、以降の処理はスキップして処理終了する。
ステップST34で“OK”と判断された場合、認識処理部14は、正規発報対象と判断し、イベント通知、つまり、発報事象発生通知を出力する(ステップST35)。
If “NG” is determined in step ST33, the subsequent processing is skipped and the processing ends.
If “OK” is determined in step ST33, the
If “NG” is determined in step ST34, the subsequent processing is skipped and the processing ends.
If “OK” is determined in step ST34, the
なお、「面積」「縦横寸法」「移動速度」は、ステップST31で示される変化領域の連続する存在時間中の各画像における特徴量の平均を算出して、特徴量パラメータ設定値と比較されるのが一般的である。
また、ステップST31〜ステップST35の処理は、S/Wにて処理されるのが一般的である。
また、この認識処理部14における発報対象通知出力判定は、従来の監視用画像処理装置における発報対象通知出力判定と同様である。ただし、ここに示すのは一例にすぎず、他の手順や方法で発報対象通知出力判定を行なうものとしてもよい。
The “area”, “vertical / horizontal dimensions”, and “moving speed” are compared with the feature parameter setting values by calculating the average of the feature values in each image during the continuous existence time of the change area shown in step ST31. It is common.
Further, the processes in steps ST31 to ST35 are generally performed in S / W.
The notification target notification output determination in the
図2に戻り、ステップST13において、認識処理部14が、発報対象が発生したと判断し、発報事象発生通知が出力された場合(ステップST13の“YES”の場合)、発報部15は、発報処理を行なう(ステップST14)。発報処理とは、例えば、一般にはBEEP音の出力やランプの点灯、上位ホストマシンへの通知・通信である。なお、発報処理は、発報対象の発生を知らせるものであればよく、他の方法であってもかまわない。
ステップST13において、認識処理部14が、発報対象が発生していないと判断した場合(ステップST13の“NO”の場合)、発報処理はスキップされ、処理終了する。
Returning to FIG. 2, in step ST <b> 13, when the
In step ST13, when the
以上のように、この実施の形態1によれば、現画像がモノトーンかカラフルかによって、輝度背景差分で発報対象を判定するか、色背景差分で発報対象を判定するかを切り替えるようにしたため、例えば夜間の暗がりを歩く赤いコートの人物のような、背景(暗がり)と移動物(赤いコートの人物)とが両方とも輝度が低く輝度差分背景が得られにくい状況においても、変化領域を正確に判断することができる。これにより、常に精度を落とすことなく精度の高い発報処理を実施することができるため、失報を回避することができる。 As described above, according to the first embodiment, depending on whether the current image is monotone or colorful, it is switched whether to determine the reporting target based on the luminance background difference or to determine the reporting target based on the color background difference. Therefore, even in situations where the background (darkness) and moving objects (red coat figures) are both low in luminance and it is difficult to obtain a luminance difference background, such as a person in a red coat walking in the darkness at night, the change area It can be judged accurately. As a result, it is possible to carry out highly accurate notification processing without always reducing accuracy, and thus it is possible to avoid missing information.
実施の形態2.
図10は、モノトーン状況とカラフル状況が混在した状況での、色情報ヒストグラムを示す図である。
図10(a)は、現画像であり、画像の上半分はカラフル状況で、画像の下半分が芝生でモノトーン状況である。
図10(a)の下半分のヒストグラムを作成すると、Cb成分(青成分)とCr成分(赤成分)のヒストグラムが中央に集まっている。(図10(b),(c)参照)
図10(a)の上半分のヒストグラムを作成すると、Cb成分(青成分)、Cr成分(赤成分)のヒストグラムとも各色に散らばり分散している。(図10(d),(e)参照)
FIG. 10 is a diagram showing a color information histogram in a situation where a monotone situation and a colorful situation are mixed.
FIG. 10A shows the current image, where the upper half of the image is colorful and the lower half of the image is grass and is in a monotone situation.
When the histogram of the lower half of FIG. 10A is created, the histograms of the Cb component (blue component) and the Cr component (red component) are gathered at the center. (Refer to FIGS. 10B and 10C)
When the histogram of the upper half of FIG. 10A is created, the histograms of the Cb component (blue component) and Cr component (red component) are scattered and dispersed in each color. (See FIGS. 10 (d) and 10 (e))
図10に示すような状況で、実施の形態1で説明したように背景差分の方式を切り替えた場合、色背景差分を使用した場合は画像の下半分に精度劣化が発生し、輝度背景差分を使用した場合は画像の上半分に精度劣化が発生し、いずれを選択しても問題を有する事となる。
そこで、この実施の形態2では、図10のようにモノトーン状況とカラフル状況混在した状況であっても、精度劣化を招くことなく、精度の高い発報処理を行なう実施の形態について説明する。
In the situation shown in FIG. 10, when the background difference method is switched as described in the first embodiment, when the color background difference is used, accuracy degradation occurs in the lower half of the image, and the luminance background difference is changed. If it is used, accuracy degradation occurs in the upper half of the image, and any of these will cause a problem.
Therefore, in the second embodiment, a description will be given of an embodiment in which a highly accurate notification process is performed without causing deterioration in accuracy even in a situation where a monotone situation and a colorful situation are mixed as shown in FIG.
この発明の実施の形態2に係る監視用画像処理装置の構成は、実施の形態1において図1で示したものと同様であるため、図示および重複した説明を省略する。
この発明の実施の形態2に係る監視用画像処理装置と、実施の形態1の監視用画像処理装置とは、カラフル判定部3の動作のみが異なる。したがって、実施の形態1で示した動作については図示および重複した説明を省略し、カラフル判定部3の動作のみ説明する。
Since the configuration of the monitoring image processing apparatus according to the second embodiment of the present invention is the same as that shown in FIG. 1 in the first embodiment, illustration and repeated description thereof are omitted.
The monitoring image processing apparatus according to the second embodiment of the present invention differs from the monitoring image processing apparatus according to the first embodiment only in the operation of the
図11は、この発明の実施の形態2のカラフル判定部3によるカラフル判定のフローチャートである。
なお、ここでは、図10(a)に示す現画像をA/Dコンバータ2から受信するものとして説明する。
カラフル判定部3は、A/Dコンバータ2から受信した現画像の上半分と下半分をそれぞれブロックA,ブロックBとなるようブロック分割する(ステップST41)。
なお、ここでは、カラフル判定部3は、現画像を上半分、下半分に分割することとしたが、これに限らず、右半分、左半分に分割することとしてもよいし、分割する単位については適宜設定可能とする。また、ここでは、2つのブロックに分割することとしているが、2つに限らず、2つ以上のブロックを適宜設定可能とする。また、各ブロックは同一形状である必要もなく、適宜動的に変更されてもよい。
FIG. 11 is a flowchart of colorful determination by the
In the following description, it is assumed that the current image shown in FIG. 10A is received from the A /
The
Here, the
カラフル判定部3は、ステップST41で分割したブロックのうち、ブロックA、つまり、図10(a)に示す現画像の上半分の範囲の現画像の全画素のCb,Cr値を読み、各ヒストグラムを作成する(ステップST42)。ステップST42で作成されたCb,Cr値の各ヒストグラムは図10(d),(e)のようになる。
カラフル判定部3は、ステップST41で分割したブロックのうち、ブロックB、つまり、図10(a)に示す現画像の下半分の範囲の現画像の全画素のCb,Cr値を読み、各ヒストグラムを作成する(ステップST43)。ステップST42で作成されたCb,Cr値の各ヒストグラムは図10(b),(c)のようになる。
The
The
カラフル判定部3は、ステップST42で作成したブロックAの範囲のCb,Cr値のヒストグラムから平均を求め、Cb,Crの各偏差、つまりCb,Cr成分の分散具合いを算出する(ステップST44)。
カラフル判定部3は、ステップST43で作成したブロックBの範囲のCb,Cr値のヒストグラムから平均を求め、Cb,Crの各偏差、つまりCb成分の分散具合いを算出する(ステップST45)。
カラフル判定部3は、ステップST44で算出した各偏差と、事前に決められ、自身に記憶していた偏差の閾値を比較し、ステップST44で算出した各偏差のどちらか一方が、閾値を超えていないかどうかを判定する(ステップST46)。
The
The
The
ステップST46において、どちらか一方の偏差が閾値を超えていた場合(ステップST46の“YES”の場合)、カラフル判定部3は、ブロックAの範囲は、Cb,Cr成分のヒストグラムが広く分散しているCb,Cr成分のヒストグラムが一定値より広く分散している「カラフル状況」であると判断する(ステップST47)。
一方、ステップST46において、いずれも閾値を超えていない場合(ステップST46の“NO”の場合)、カラフル判定部3は、ブロックAの範囲は、Cb,Cr成分のヒストグラムが一極に集まり、分散が一定値より小さい「モノトーン状況」であると判断する(ステップST48)。
図10の場合、カラフル判定部3は、ブロックAの範囲のCb,Cr値の各偏差は閾値を超えており、「カラフル状況」であると判断する。
In step ST46, when one of the deviations exceeds the threshold value (in the case of “YES” in step ST46), the
On the other hand, if none of the threshold values is exceeded in step ST46 (in the case of “NO” in step ST46), the
In the case of FIG. 10, the
カラフル判定部3は、ステップST45で算出した各偏差と、事前に決められ、自身に記憶していた偏差の閾値を比較し、ステップST45で算出した各偏差のどちらか一方が、閾値を超えていないかどうかを判定する(ステップST49)。
ステップST49において、どちらか一方の偏差が閾値を超えていた場合(ステップST49の“YES”の場合)、カラフル判定部3は、ブロックBの範囲は、Cb,Cr成分のヒストグラムが一定値より広く分散している「カラフル状況」であると判断する(ステップST50)。
一方、ステップST49において、いずれも閾値を超えていない場合(ステップST50の“NO”の場合)、カラフル判定部3は、ブロックBの範囲は「モノトーン状況」であると判断する(ステップST51)。
図10の場合、カラフル判定部3は、ブロックBの範囲のCb,Cr値の各偏差はいずれも閾値を超えておらず、Cb,Cr成分のヒストグラムが一極に集まり、分散が一定値より小さい「モノトーン状況」であると判断する。
The
In step ST49, when one of the deviations exceeds the threshold value (in the case of “YES” in step ST49), the
On the other hand, if none of the threshold values is exceeded in step ST49 (in the case of “NO” in step ST50), the
In the case of FIG. 10, the
カラフル判定部3が、各ブロック毎にカラフル判定を行なうと、セレクタ部9は、各ブロック毎にカラフル判定部3が判断した背景差分に応じて採用する背景差分を決定する。以降の処理は、実施の形態1の図2のステップST9以降と同様である。
When the
以上のように、この実施の形態2によれば、カラフルとモノトーンが混在した状況においても、精度を劣化することなく発報処理を実施することができるため、失報を回避することができる。 As described above, according to the second embodiment, even in a situation where colorful and monotone are mixed, the notification process can be performed without degrading the accuracy, so that the misreport can be avoided.
実施の形態3.
図12は、この発明の実施の形態3に係る監視用画像処理装置の構成図である。
なお、実施の形態1,2で説明したものと同様の構成については、重複した説明を省略する。
この実施の形態3と実施の形態1との相違点は、図1に示した閾値演算部10,2値化部11を備えず、図12に示すように、輝度テンプレート配置記憶部16,色テンプレート配置記憶部17,テンプレートマッチング部18を備える点である。
FIG. 12 is a block diagram of a monitoring image processing apparatus according to
In addition, the overlapping description is abbreviate | omitted about the structure similar to what was demonstrated in
The difference between the third embodiment and the first embodiment is that the threshold
輝度テンプレート配置記憶部16は、輝度背景差分部7が出力した輝度差分画像をもとに、対象物の動きの大きな部分を中心に輝度テンプレートを配置し、かつその輝度テンプレートデータを最低でも1フレーム前のものまで記憶しておく。
色テンプレート配置記憶部17は、色背景差分部8が出力した色差分画像をもとに、対象物の動きの大きな部分を中心に色テンプレートを配置し、かつその色テンプレートデータを最低でも1フレーム前のものまで記憶しておく。
The luminance template
Based on the color difference image output from the color
テンプレートマッチング部18は、輝度テンプレート配置記憶部16もしくは色テンプレート配置記憶部17において記憶されたテンプレートデータと、次に取りこまれた最新の現画像(以降、先画像という)の輝度差分画像データ、もしくは色差分画像データとの間でテンプレートマッチングを行なう。
The
動作について説明する。
図13は、この発明の実施の形態3に係る監視用画像処理装置の発報処理のフローチャートである。
なお、図13のステップST1〜ステップST8は、実施の形態1,2で説明した図2のステップST1〜ステップST8と同様であるため、重複した説明を省略し、ここでは実施の形態1,2と異なる動作についてのみ説明する。
輝度背景差分部7が出力した輝度差分画像を受信すると、輝度テンプレート配置記憶部16は、輝度テンプレートの位置を特定し、記憶する(ステップST15)。なお、輝度テンプレート配置記憶部16は、テンプレートのイメージデータを少なくとも1フレーム間は記憶しておく。
ステップST7において色背景差分部8が出力した色差分画像を受信すると、色テンプレート配置記憶部17は、色テンプレートの位置を特定し、記憶する(ステップST16)。なお、色テンプレート配置記憶部17は、テンプレートのイメージデータを少なくとも1フレーム間は記憶しておく。
The operation will be described.
FIG. 13 is a flowchart of the reporting process of the monitoring image processing apparatus according to the third embodiment of the present invention.
Note that step ST1 to step ST8 in FIG. 13 are the same as step ST1 to step ST8 in FIG. 2 described in the first and second embodiments, and thus redundant description is omitted. Here, the first and second embodiments are omitted. Only the operation different from that will be described.
When the luminance difference image output from the luminance
When the color difference image output from the color
ステップST8において、カラフル判定部3がカラフル判定を行なうと、セレクタ部9は、ステップST9において、輝度テンプレート配置記憶部16が記憶している輝度テンプレートか、色テンプレート配置記憶部17が記憶している色テンプレートか、いずれのテンプレートを採用してテンプレートマッチングを行なうかを決定し、決定したテンプレートをテンプレートマッチング部18へ出力する(ステップST17)
When the
ここで、ステップST6〜ステップST8,ステップST17までの処理について、画像例を用いて具体的に説明する。なお、実施の形態1同様、現画像がモノトーンな映像状況の例を示す図として図4、現画像がカラフルな映像状況の例を示す図として図5、モノトーン画像(図4)のヒストグラム例を示す図として図6、カラフル画像(図5)のヒストグラム例を示す図として図7を用いて説明する。
実施の形態1で説明したように、図4,図5のように、モノトーン状況では輝度差分、カラフル状況では色差分を使用することが、より大きな差分情報を得る方法であるといえる。これは、より背景と移動物が区別しやすいということでもある。言いかえれば、対象物のテンプレートデータが、背景のイメージと類似性が少ないということである。
すなわち、モノトーン状況では輝度テンプレートマッチング、カラフル状況では色テンプレートマッチングを行なうほうが、テンプレートマッチング精度がよいことを意味し、その結果、対象物の移動ベクトル等の特徴量が精度よく算出できるということを意味する。
Here, the processing from step ST6 to step ST8 and step ST17 will be specifically described using image examples. As in the first embodiment, FIG. 4 shows an example of a video situation in which the current image is monotone, FIG. 5 shows an example of a video situation in which the current image is colorful, and FIG. 5 shows an example of a histogram of the monotone image (FIG. 4). FIG. 6 will be described with reference to FIG. 6, and a histogram example of the colorful image (FIG. 5) will be described with reference to FIG.
As described in the first embodiment, as shown in FIGS. 4 and 5, using a luminance difference in a monotone situation and a color difference in a colorful situation is a method for obtaining larger difference information. This also means that it is easier to distinguish the background from the moving object. In other words, the template data of the object has little similarity with the background image.
In other words, luminance template matching in monotone situations and color template matching in colorful situations means that template matching accuracy is better, and as a result, it is possible to accurately calculate feature quantities such as movement vectors of objects. To do.
カラフル判定部3によるカラフル判定については、実施の形態1,2と同様であるため詳細な説明を省略するが、例えば、現画像が図4(a)であった場合、ヒストグラムは図6のようになり、カラフル判定部3は、Cb,Crの偏差はともに閾値を下回ると判定し、Cb,Cr成分のヒストグラムが一極に集まり分散の小さい「モノトーン」状況であると判断する。これを受けて、セレクタ部9では、輝度テンプレート配置記憶部16が出力した輝度テンプレートを採用すると決定する。
一方、例えば、現画像が図5(a)であった場合、ヒストグラムは図7のようになり、カラフル判定部3は、Cb,Crの偏差が閾値を上回ると判定し、Cb,Cr成分のヒストグラムが広く分散している「カラフル状況」であると判断する。これを受けて、セレクタ部9では、色テンプレート配置記憶部17が記憶している色テンプレートを採用すると決定する。
Since the colorful determination by the
On the other hand, for example, when the current image is FIG. 5A, the histogram is as shown in FIG. 7, and the
図14は、輝度テンプレート配置記憶部16による輝度テンプレート配置について説明する図である。なお、図4(a)の現画像をもとに輝度テンプレートを配置するものとする。
輝度テンプレート配置記憶部16では、輝度背景差分部7から受信した輝度背景差分画像(あるいはそれを2値化した後の変化領域データ)をもとに、テンプレートの位置を特定する。通常は、図14(a)に示すように、変化領域エリア(塗りつぶし部分。ここでは、変化領域を適当な閾値にて2値化して2値データに変換し、色塗りしてスーパーインポーズしている)に重なる位置に正方形ブロックを密集配置し、変化領域エリアを覆う。
その結果、各ブロックが配置された位置が、図14(b)に示すように、正規のテンプレート位置となる。
さらに、輝度テンプレート配置記憶部16では、これらの複数のテンプレートのイメージデータを、最低でも1フレーム間は保存記憶する。これは、次の画像(先画像)とのテンプレートマッチングを行なうために、その間は記憶し続けることが必要であるためである。図4(a)に示す現画像の先画像を、図15に示す。
FIG. 14 is a diagram for explaining the luminance template arrangement by the luminance template
The luminance template
As a result, the position where each block is arranged becomes a normal template position as shown in FIG.
Further, the luminance template
図16は、色テンプレート配置記憶部17による輝度テンプレート配置について説明する図である。なお、図5(a)の現画像をもとに輝度テンプレートを配置するものとする。
色テンプレート配置記憶部17では、色背景差分部8から受信した色背景差分画像(あるいはそれを2値化した後の変化領域データ)をもとに、テンプレートの位置を特定する。通常は、図16(a)に示すように、変化領域エリア(塗りつぶし部分。ここでは、変化領域を適当な閾値にて2値化して2値データに変換し、色塗りしてスーパーインポーズしている)に重なる位置に正方形ブロックを密集配置し、変化領域エリアを覆う。
その結果、各ブロックが配置された位置が、図16(b)に示すように、正規のテンプレート位置となる。
さらに、色テンプレート配置記憶部17では、これらの複数のテンプレートのイメージデータを、最低でも1フレーム間は保存記憶する。これは、次の画像(先画像)とのテンプレートマッチングを行なうために、その間は記憶し続けることが必要であるためである。図5(a)に示す現画像の先画像を、図17に示す。
FIG. 16 is a diagram illustrating the luminance template arrangement by the color template arrangement storage unit 17. It is assumed that a luminance template is arranged based on the current image in FIG.
The color template arrangement storage unit 17 specifies the position of the template based on the color background difference image received from the color background difference unit 8 (or the change area data after binarizing it). Normally, as shown in FIG. 16 (a), the change area (filled portion. Here, the change area is binarized with an appropriate threshold value and converted into binary data, and is painted and superimposed. The square blocks are densely arranged at the position that overlaps with (1) and covers the change area.
As a result, the position where each block is arranged becomes a normal template position as shown in FIG.
Further, the color template arrangement storage unit 17 stores and stores the image data of the plurality of templates for at least one frame. This is because in order to perform template matching with the next image (previous image), it is necessary to continue storing during that time. FIG. 17 shows a previous image of the current image shown in FIG.
このように、セレクタ部9は、ステップST17において、「モノトーン」状況であれば、輝度テンプレート配置記憶部16が出力する、図14に示すような輝度テンプレートを採用し、「カラフル状況」であれば、色テンプレート配置記憶部17が出力する、図16に示すような色テンプレートを採用すると決定する。
As described above, in step ST17, the
図13のフローに戻る。
ステップST17において、セレクタ部9が輝度テンプレートと色テンプレートのうち決定したほうのテンプレートをテンプレートマッチング部18に出力すると、テンプレートマッチング部18は、輝度テンプレート配置記憶部16もしくは色テンプレート配置記憶部17に記憶されたテンプレートデータをもとに、現画像蓄積部4から先画像が入手でき次第、輝度テンプレートデータと先画像の輝度画像データとの間、もしくは、色テンプレートデータと先画像の色画像データとの間でテンプレートマッチングを行なう(ステップST18)。
Returning to the flow of FIG.
In step ST <b> 17, when the
一般的なテンプレート手法は以下のようなものである。
輝度/色テンプレート画像と同じ大きさの輝度/色画像を先画像より切り出し、切り出した先画像と輝度/色テンプレートの同位置の画素間で、画素値の差を計算し、その合計が小さいものほど類似度が高いと判断する。
先画像からの切り出し位置を順にずらしながら輝度/色テンプレート画像との類似度を算出し、最も類似度の高い場所が、先のテンプレートデータが移動した位置と判断できる。
The general template method is as follows.
A brightness / color image of the same size as the brightness / color template image is cut out from the previous image, and the difference between the pixel values is calculated between the extracted previous image and the pixels at the same position in the brightness / color template, and the total is small It is determined that the similarity is higher.
The similarity with the brightness / color template image is calculated while sequentially shifting the cut-out position from the previous image, and the place with the highest similarity can be determined as the position where the previous template data has moved.
具体的に図を用いて説明する。
図18は、輝度テンプレートでテンプレートマッチングを行なった例を示す図である。
図18において、図18(a)は現画像にテンプレートを配置した図、図18(b)は現画像のテンプレートデータが移動した位置を示す図である。
なお、図18は、図4(a)を現画像、図15を先画像とし、輝度テンプレート配置記憶部16において、図14に示すような輝度テンプレートを配置し、記憶していたものとする。
This will be specifically described with reference to the drawings.
FIG. 18 is a diagram illustrating an example in which template matching is performed using a luminance template.
18, FIG. 18 (a) is a diagram in which templates are arranged in the current image, and FIG. 18 (b) is a diagram showing positions where template data of the current image has moved.
In FIG. 18, it is assumed that FIG. 4A is the current image and FIG. 15 is the previous image, and the luminance template as shown in FIG. 14 is arranged and stored in the luminance template
図19は、色テンプレートでテンプレートマッチングを行なった例を示す図である。
図19において、図19(a)は現画像にテンプレートを配置した図、図19(b)は現画像のテンプレートデータが移動した位置を示す図である。
なお、図19は、図5(a)を現画像、図17を先画像とし、色テンプレート配置記憶部17において、図16に示すような輝度テンプレートを配置し、記憶していたものとする。
FIG. 19 is a diagram illustrating an example in which template matching is performed using a color template.
19, FIG. 19 (a) is a diagram in which templates are arranged in the current image, and FIG. 19 (b) is a diagram showing positions where template data of the current image has moved.
In FIG. 19, it is assumed that FIG. 5A is the current image and FIG. 17 is the previous image, and the brightness template as shown in FIG. 16 is arranged and stored in the color template arrangement storage unit 17.
ステップST18においてテンプレートマッチング部18がテンプレートマッチングを行なったデータを受け、特徴量演算部12は、特徴量を算出する(ステップST12)。なお、実施の形態1,2では、例として、特徴量を「連続性」「面積」「縦横寸法」「速度」としたが、この実施の形態2では、対象物が移動したベクトルを特徴量とする。
以降、ステップST13,ステップST14の処理は、図2のステップST13,ステップST14と同様であるため説明を省略する。ただし、ステップST13において認識処理部14が比較する特徴量とは移動ベクトルとなり、認識処理部14は、テンプレートマッチングデータから算出された移動ベクトルと特徴量パラメータ設定値記憶部13に記憶されている特徴量(移動ベクトル)とを比較し、マッチングデータから算出された移動ベクトルが所定値であれば、正規発報対象と判断し、イベント通知、つまり、発報事象発生通知を出力する。
In step ST18, the
Hereinafter, the processing of step ST13 and step ST14 is the same as step ST13 and step ST14 of FIG. However, the feature amount compared by the
以上のように、この実施の形態3によれば、現画像がモノトーンかカラフルかによって、テンプレートマッチング方式が有効なものに切り替えられるため、例えば夜間の暗がりを歩く赤いコートの人物のような、背景(暗がり)と移動物(赤いコートの人物)とが両方とも輝度が低く輝度差分背景が得られにくい状況においても、移動物を精度よく抽出することができる。これにより、常に精度を落とすことなく精度の高い発報処理を実施することができるため、失報を回避することができる。 As described above, according to the third embodiment, the template matching method can be switched to an effective one depending on whether the current image is monotone or colorful. For example, a background such as a person in a red coat walking in the dark at night The moving object can be accurately extracted even in a situation where both the (darkness) and the moving object (the person in the red coat) have low luminance and it is difficult to obtain a luminance difference background. As a result, it is possible to carry out highly accurate notification processing without always reducing accuracy, and thus it is possible to avoid missing information.
実施の形態4.
実施の形態3において、現画像がモノトーンかカラフルかによってテンプレートマッチング方式が有効なものに切り替えて発報処理を行なうことについて説明した。
しかしながら、実施の形態3の方法でテンプレートマッチングの方式を切り替えた場合、例えば図10に示すような、モノトーン状況とカラフル状況が混在した状況では、色テンプレートマッチングを使用した場合は画像の下半分に精度劣化が発生し、輝度テンプレートマッチングを使用した場合は画像の上半分に精度劣化が発生し、いずれの選択も問題を有することとなる。
そこで、この実施の形態4では、図10のようにモノトーン状況とカラフル状況が混在した状況であっても、精度劣化を招くことなく、精度の高いテンプレートマッチング方式を採用した発報処理を行なう実施の形態について説明する。
In the third embodiment, it has been described that the notification processing is performed by switching to an effective template matching method depending on whether the current image is monotone or colorful.
However, when the template matching method is switched by the method of
Therefore, in the fourth embodiment, even if the monotone situation and the colorful situation are mixed as shown in FIG. 10, the notification processing adopting the highly accurate template matching method is performed without causing the accuracy deterioration. Will be described.
この発明の実施の形態4に係る監視用画像処理装置の構成は、実施の形態3において図12で示したものと同様であるため、図示および重複した説明を省略する。
この発明の実施の形態4に係る監視用画像処理装置と、実施の形態3の監視用画像処理装置とは、カラフル判定部3の動作のみが異なる。この発明の実施の形態3におけるカラフル判定部3の動作は、実施の形態2において図11で示したカラフル判定3の動作と同様である。
Since the configuration of the monitoring image processing apparatus according to the fourth embodiment of the present invention is the same as that shown in FIG. 12 in the third embodiment, illustration and repeated description thereof are omitted.
The monitoring image processing apparatus according to the fourth embodiment of the present invention differs from the monitoring image processing apparatus according to the third embodiment only in the operation of the
図11で説明したように、カラフル判定部は、現画像の上半分と下半分をそれぞれブロックA,Bにブロック分割し(ステップST41)、それぞれのブロックについてカラフル状況かモノトーン状況かを判断する(ステップST42〜ステップST51)。
なお、ここでも、カラフル判定部3は、現画像を上半分、下半分に分割することに限らず、右半分、左半分に分割することとしてもよいし、分割する単位については適宜設定可能とする。また、ここでは、2つのブロックに分割することとしているが、2つに限らず、2つ以上のブロックを適宜設定可能とする。また、各ブロックは同一形状である必要もなく、適宜動的に変更されてもよいものとする。
As described in FIG. 11, the colorful determination unit divides the upper half and the lower half of the current image into blocks A and B (step ST41), and determines whether each block is in a colorful state or a monotone state (step ST41). Step ST42 to step ST51).
Here, the
カラフル判定部3が、各ブロック毎にカラフル判定を行なうと、セレクタ部9は、各ブロック毎にカラフル判定部3が判断した背景差分に応じて採用するテンプレートを決定する。以降の処理は、実施の形態3の図13のステップST17以降と同様である。
When the
以上のように、この実施の形態2によれば、カラフルとモノトーンが混在した状況においても、現画像を複数のブロックに分割し、各ブロック単位でテンプレートマッチング方式を切り替えるため、単一のテンプレートマッチング方式にて画面内を統一処理する場合に比べ、より精度よく差分(移動物)を抽出することができる。これにより、精度を劣化することなく発報処理を実施することができるため、失報を回避することができる。 As described above, according to the second embodiment, even when colorful and monotone are mixed, the current image is divided into a plurality of blocks, and the template matching method is switched for each block. The difference (moving object) can be extracted with higher accuracy than in the case where the processing in the screen is unified. As a result, the reporting process can be performed without degrading the accuracy, so that the misreporting can be avoided.
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。 In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .
1 ビデオ入力部、2 A/Dコンバータ、3 カラフル判定部、4 現画像蓄積部、5 背景画像蓄積部、6 背景更新部、7 輝度背景差分部、8 色背景差分部、9 セレクタ部、10 閾値演算部、11 2値化部、12 特徴量演算部、13 特徴量パラメータ設定値記憶部、14 認識処理部、15 発報部、16 輝度テンプレート配置記憶部、17 色テンプレート配置記憶部、18 テンプレートマッチング部。
DESCRIPTION OF
Claims (3)
前記ビデオ入力部が受信した前記映像信号を量子化して現画像とするA/Dコンバータと、
前記現画像と、前記現画像において発報事象が出現していない状態の前記監視画像を示す比較用画像とを比較し、前記監視画像内の輝度背景差分を抽出する輝度背景差分部と、
前記現画像と、前記比較用画像とを比較し、前記監視画像内の色背景差分を抽出する色背景差分部と、
前記現画像から色ヒストグラムを作成し、前記色ヒストグラムの分散にもとづいて、前記現画像がモノトーン状況であるかカラフル状況であるかを判断するカラフル判定部と、
前記カラフル判定部が前記カラフル状況であると判断した場合に前記色背景差分を選択し、前記カラフル判定部が前記モノトーン状況であると判断した場合に前記輝度背景差分を選択するセレクタ部とを備えた監視用画像処理装置。 A video input unit for receiving a current monitoring image of the monitoring target area as a video signal;
An A / D converter that quantizes the video signal received by the video input unit into a current image;
A luminance background difference unit that compares the current image with a comparison image indicating the monitoring image in a state where a reporting event does not appear in the current image, and extracts a luminance background difference in the monitoring image;
A color background difference unit that compares the current image with the comparison image and extracts a color background difference in the monitoring image;
A color determination unit that creates a color histogram from the current image and determines whether the current image is in a monotone state or a colorful state based on the variance of the color histogram;
A selector that selects the color background difference when the colorful determination unit determines that the colorful state is present, and that selects the luminance background difference when the colorful determination unit determines that the state is the monotone state; Monitoring image processing apparatus.
前記ビデオ入力部が受信した前記映像信号を量子化して現画像とするA/Dコンバータと、
前記現画像と、前記現画像において発報事象が出現していない状態の前記監視画像を示す比較用画像とを比較し、前記監視画像内の輝度背景差分を抽出する輝度背景差分部と、
前記輝度背景差分部が抽出した前記輝度背景差分をもとに輝度テンプレートを配置し、前記輝度テンプレートを少なくとも1フレーム前のものまで記憶しておく輝度テンプレート配置記憶部と、
前記現画像と、前記比較用画像とを比較し、前記監視画像内の色背景差分を抽出する色背景差分部と、
色背景差分部が出力した前記色背景差分をもとに色テンプレートを配置し、前記色テンプレートを少なくとも1フレーム前のものまで記憶しておく色テンプレート配置記憶部と、
前記現画像から色ヒストグラムを作成し、前記色ヒストグラムの分散にもとづいて、前記現画像がモノトーン状況であるかカラフル状況であるかを判断するカラフル判定部と、
前記カラフル判定部が前記カラフル状況であると判断した場合に前記色テンプレートを選択し、前記カラフル判定部が前記モノトーン状況であると判断した場合に前記輝度テンプレートを選択するセレクタ部と、
前記ビデオ入力部から新たに受信された現画像と、前記セレクタ部が選択した前記テンプレートとのテンプレートマッチングを行なうテンプレートマッチング部と、
前記テンプレートマッチング部による前記テンプレートマッチング結果と、あらかじめ設定された発報対象の特徴量とにもとづき、発報事象が発生しているかどうかの判定を行ない、発報事象発生通知を出力する認識処理部と、
前記発報事象発生通知にもとづき発報処理を行なう発報部とを備えた監視用画像処理装置。 A video input unit for receiving a current monitoring image of the monitoring target area as a video signal;
An A / D converter that quantizes the video signal received by the video input unit into a current image;
A luminance background difference unit that compares the current image with a comparison image indicating the monitoring image in a state where a reporting event does not appear in the current image, and extracts a luminance background difference in the monitoring image;
A luminance template arrangement storage unit that arranges a luminance template based on the luminance background difference extracted by the luminance background difference unit, and stores the luminance template up to at least one frame before;
A color background difference unit that compares the current image with the comparison image and extracts a color background difference in the monitoring image;
A color template arrangement storage unit that arranges a color template based on the color background difference output by the color background difference unit and stores the color template up to at least one frame before;
A color determination unit that creates a color histogram from the current image and determines whether the current image is in a monotone state or a colorful state based on the variance of the color histogram;
A selector for selecting the color template when the colorful determination unit determines that the colorful state is selected, and a selector for selecting the luminance template when the colorful determination unit determines that the state is monotone;
A template matching unit for performing template matching between the current image newly received from the video input unit and the template selected by the selector unit;
A recognition processing unit that determines whether a notification event has occurred based on the template matching result by the template matching unit and a feature value of a notification target set in advance, and outputs a notification event notification When,
An image processing apparatus for monitoring, comprising: a notification unit that performs a notification process based on the notification of the notification event occurrence.
前記現画像を複数のブロックに分割し、前記複数のブロック毎に前記現画像が前記カラフル状況であるか前記モノトーン状況であるかを判断する
ことを特徴とする請求項1または請求項2記載の監視用画像処理装置。 The colorful determination unit
3. The current image is divided into a plurality of blocks, and it is determined for each of the plurality of blocks whether the current image is in the colorful state or the monotone state. An image processing apparatus for monitoring.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013096265A JP5933482B2 (en) | 2013-05-01 | 2013-05-01 | Image processing device for monitoring |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013096265A JP5933482B2 (en) | 2013-05-01 | 2013-05-01 | Image processing device for monitoring |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014219718A JP2014219718A (en) | 2014-11-20 |
JP5933482B2 true JP5933482B2 (en) | 2016-06-08 |
Family
ID=51938137
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013096265A Active JP5933482B2 (en) | 2013-05-01 | 2013-05-01 | Image processing device for monitoring |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5933482B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6776719B2 (en) * | 2016-08-17 | 2020-10-28 | 富士通株式会社 | Mobile group detection program, mobile group detection device, and mobile group detection method |
JP7012457B2 (en) * | 2017-05-19 | 2022-01-28 | キヤノン株式会社 | Image processing device, image processing method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3829740B2 (en) * | 2002-03-14 | 2006-10-04 | 三菱電機株式会社 | Image processing device for monitoring |
JP5142416B2 (en) * | 2011-07-07 | 2013-02-13 | 株式会社メガチップス | Object detection device |
JP5799676B2 (en) * | 2011-08-31 | 2015-10-28 | ブラザー工業株式会社 | Image processing apparatus, image reading apparatus, and image processing program |
-
2013
- 2013-05-01 JP JP2013096265A patent/JP5933482B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014219718A (en) | 2014-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101926490B1 (en) | Apparatus and method for processing image | |
US8280106B2 (en) | Shadow and highlight detection system and method of the same in surveillance camera and recording medium thereof | |
JP5908174B2 (en) | Image processing apparatus and image processing method | |
US8761497B2 (en) | Removal of shadows from images in a video signal | |
US8004607B2 (en) | Region-based cadence detector | |
US9111353B2 (en) | Adaptive illuminance filter in a video analysis system | |
CN111260593B (en) | Image processing method, image processing device, electronic equipment and storage medium | |
KR101735025B1 (en) | Method, device, and system for pre-processing a video stream for subsequent motion detection processing | |
WO2016171088A1 (en) | Image capturing device, image processing method of image capturing device, and program | |
JP5352859B2 (en) | Method and apparatus for maintaining video background using multiple Gaussian distribution models | |
CN110720224B (en) | Image processing method and device | |
JP5933482B2 (en) | Image processing device for monitoring | |
JP2008259161A (en) | Target tracing device | |
JP6819785B2 (en) | Position estimation device, position estimation method and program | |
JP6351377B2 (en) | Image processing system, imaging apparatus, and recording apparatus | |
CN105335981B (en) | A kind of cargo monitoring method based on image | |
TW202231068A (en) | Method and system for producing streams of image frames | |
CN112532982B (en) | Reducing bit rate from surveillance cameras using skip block masks | |
JP4065137B2 (en) | Image processing apparatus, image processing method, and program | |
KR102261439B1 (en) | Method of sensing an event | |
JP3625442B2 (en) | Object detection method, object detection apparatus, and object detection program | |
KR100927554B1 (en) | Night video surveillance system and method based on day and night video composition | |
CN107038689A (en) | A kind of video method for lightening | |
CN113194317A (en) | Image processing method and device | |
JP2018026682A (en) | Imaging device, setting device, image analyzer, image analysis system, and setting method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150511 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160502 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5933482 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |