JP2014219718A - 監視用画像処理装置 - Google Patents

監視用画像処理装置 Download PDF

Info

Publication number
JP2014219718A
JP2014219718A JP2013096265A JP2013096265A JP2014219718A JP 2014219718 A JP2014219718 A JP 2014219718A JP 2013096265 A JP2013096265 A JP 2013096265A JP 2013096265 A JP2013096265 A JP 2013096265A JP 2014219718 A JP2014219718 A JP 2014219718A
Authority
JP
Japan
Prior art keywords
image
unit
color
colorful
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013096265A
Other languages
English (en)
Other versions
JP5933482B2 (ja
Inventor
健一 新房
Kenichi Shinbo
健一 新房
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013096265A priority Critical patent/JP5933482B2/ja
Publication of JP2014219718A publication Critical patent/JP2014219718A/ja
Application granted granted Critical
Publication of JP5933482B2 publication Critical patent/JP5933482B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)

Abstract

【課題】常に精度を落とすことなく精度の高い背景差分を実施し、失報を回避することができる監視用画像処理装置を得る。
【解決手段】現画像から色ヒストグラムを作成し、色ヒストグラムの分散にもとづいて、現画像がモノトーン状況であるかカラフル状況であるかを判断するカラフル判定部と、カラフル判定部がカラフル状況であると判断した場合に色背景差分を選択し、カラフル判定部がモノトーン状況であると判断した場合に輝度背景差分を選択するセレクタ部とを備えた。
【選択図】図1

Description

この発明は、例えば侵入者などの発報事象の出現を検知する監視用画像処理装置に関するものである。
従来の画像処理装置では、例えば、特許文献1に開示されているように、「輝度背景差分」方式を使用して移動物のシルエット(変化領域)を抽出し、変化領域の特徴量が特徴量パラメータ設定値に合致するか否かによって発報処理を行なう構成にしている。このように構成されることで背景差分ロジックはシンプルに構成できる。
また、従来の画像処理装置では、例えば、特許文献2に開示されているように、「輝度テンプレートマッチング」方式を採用して、複雑な検査や位置決めを高速に行なうように構成している。
特開2003−274395号公報 特開平7−129770号公報
しかしながら、従来の監視用画像処理装置では、変化領域が発報すべき正規発報対象であっても、つまり、背景と色の異なる移動物であっても、背景と類似の輝度であれば、特徴量が特徴量パラメータ(例えば面積値)に合致せず、変化領域を抽出することが困難であり、この変化領域の不正確さによって、正規発報対象であるのに発報することができない失報となってしまうという課題があった。また、テンプレートマッチング方式においても、輝度データマッチングでは、色の異なる移動物であっても、背景と類似の輝度である限り、正確なテンプレートマッチングが実施できず、移動物の抽出が困難となり、失報となってしまうという課題があった。
例えば、黒い背景に赤い服の人物が移動するようなケースにおいて、黒色も赤色も、輝度はほぼ同一である。従って、従来の「輝度背景差分」方式や「輝度テンプレートマッチング」方式では、差分が得られず、変化領域を抽出することが困難であった。しかし、人間の目には、明確に「黒」と「赤」の色の違いがあり、このシーンでの移動物の見落とし、つまり失報は、奇異なものとして映ってしまう。
この発明は上記のような課題を解決するためになされたもので、常に精度を落とすことなく精度の高い背景差分を実施し、失報を回避することができる監視用画像処理装置を得ることを目的とする。
この発明に係る監視用画像処理装置は、監視対象領域の現在の監視画像を映像信号として受信するビデオ入力部と、前記ビデオ入力部が受信した前記映像信号を量子化して現画像とするA/Dコンバータと、前記現画像と、前記現画像において発報事象が出現していない状態の前記監視画像を示す比較用画像とを比較し、前記監視画像内の輝度背景差分を抽出する輝度背景差分部と、前記現画像と、前記比較用画像とを比較し、前記監視画像内の色背景差分を抽出する色背景差分部と、前記現画像から色ヒストグラムを作成し、前記色ヒストグラムの分散にもとづいて、前記現画像がモノトーン状況であるかカラフル状況であるかを判断するカラフル判定部と、前記カラフル判定部が前記カラフル状況であると判断した場合に前記色背景差分を選択し、前記カラフル判定部が前記モノトーン状況であると判断した場合に前記輝度背景差分を選択するセレクタ部とを備えたものである。
この発明によれば、現画像がカラフル状況にあるかモノトーン状況にあるか判断した後、背景差分方式を「輝度背景差分」と「色背景差分」から選択できるようにしたので、背景と色の異なる移動物について、背景と類似の輝度であっても変化領域として精度よく抽出することができ、失報を回避できる。また、テンプレートマッチングとして、「輝度マッチング」と「色マッチング」の2種類の方式を搭載し、どちらの方式を採用するか選択できるようにしたので、背景と色の異なる移動物について、背景と類似の輝度であっても精度よく抽出することができ、失報を回避できる。
この発明の実施の形態1に係る監視用画像処理装置の構成図である。 この発明の実施の形態1に係る監視用画像処理装置の発報処理のフローチャートである。 この発明の実施の形態1のカラフル判定部によるカラフル判定のフローチャートである。 現画像がモノトーンな映像状況の例を示す図である。 現画像がカラフルな映像状況の例を示す図である。 モノトーン画像(図4)のヒストグラム例を示す図である。 カラフル画像(図5)のヒストグラム例を示す図である。 変化領域について説明する図である。 認識処理部14による判定を詳細に示したフローチャートである。 モノトーン状況とカラフル状況が混在した状況での、色情報ヒストグラムを示す図である。 この発明の実施の形態2のカラフル判定部によるカラフル判定のフローチャートである。 この発明の実施の形態3に係る監視用画像処理装置の構成図である。 この発明の実施の形態3に係る監視用画像処理装置の発報処理のフローチャートである。 輝度テンプレート配置記憶部による輝度テンプレート配置について説明する図である。 図4(a)の現画像の先画像を示す図である。 色テンプレート配置記憶部による輝度テンプレート配置について説明する図である。 図5(a)の現画像の先画像を示す図である。 輝度テンプレートでテンプレートマッチングを行なった例を示す図である。 色テンプレートでテンプレートマッチングを行なった例を示す図である。
以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る監視用画像処理装置の構成図である。
監視用画像処理装置は、ビデオ入力部1と、A/Dコンバータ2と、カラフル判定部3と、現画像蓄積部4と、背景画像蓄積部5と、背景更新部6と、輝度背景差分部7と、色背景差分部8と、セレクタ部9と、閾値演算部10と、2値化部11と、特徴量演算部12と、特徴量パラメータ設定値記憶部13と、認識処理部14と、発報部15とを備える。
ビデオ入力部1は、電気所などに設置されたTVカメラ等、不図示の撮像装置から出力された監視対象領域の現在の監視映像を映像信号として受信する。
A/Dコンバータ2は、ビデオ入力部1から受信する映像信号を量子化する。つまり、ビデオ入力部1から受信したアナログデータをデジタルデータに変換する。
カラフル判定部3は、A/Dコンバータ2が出力した現在の映像データ(以下、現画像という)から色ヒストグラムを作成し、その分散具合いにより現画像が色彩鮮やかな状況(以降、カラフル状況という)か、逆に色彩が抑えられたモノトーンに近い状況(以降、モノトーン状況という)かを判断する。
現画像蓄積部4は、A/Dコンバータ2が出力した現画像を受信し、記憶する。なお、現画像データは必要に応じ記録すればよく、現画像データを蓄積せず、受信した現画像データをそのまま輝度背景差分部7および色背景差分部8に出力することとしてもよい。
背景画像蓄積部5は、A/Dコンバータ2が出力した現画像を受信し、相応の演算を行ない、発報事象(例えば、侵入者)が出現していない状態の監視対象領域を示す比較用の背景画像(例えば、発報事象が出現していないタイミングで、A/Dコンバータ2により取得された画像データ。以下、背景画像という)を作成し、記憶する。なお、背景画像は、必要に応じて記録すればよく、背景画像を記憶しておかず、A/Dコンバータ2から受信した現画像データから背景画像を作成し、そのまま輝度背景差分部7および色背景差分部8に出力することとしてもよいし、人為的に作成された背景画像を外部から取得し、そのまま輝度背景差分部7および色背景差分部8に出力することとしてもよい。
背景更新部6は、背景画像蓄積部5のデータを一定ルールで演算し、背景画像を更新する。一般的には、例えば、過去5枚の背景画像の平均を背景画像とするなど、単純なルールで更新する。
輝度背景差分部7は、現画像蓄積部4に記憶している現画像と背景画像蓄積部5に記憶している背景画像の2つの画像を比較し、監視画像内の移動物、変化物を輝度差分データ(輝度背景差分という)として抽出する。
色背景差分部8は、現画像蓄積部4に記憶している現画像と背景画像蓄積部5に記憶している背景画像の2つの画像を比較し、Cb(青成分),Cr(赤成分)(もしくはRGB等の色情報)での背景差分を行い、監視画像内の移動物、変化物を色差分データ(色背景差分という)として抽出する。
セレクタ部9は、カラフル判定部3の判定結果に従い、輝度背景差分と色背景差分のどちらを次工程に流すか判断する。
閾値演算部10は、セレクタ部9が判断した輝度背景差分または色背景差分の背景差分データを2値化するための閾値を算出する。例えば、背景差分データの平均値を閾値にする等、背景差分データを元に単純なルールで最適閾値を求めるのが一般的である。
2値化部11は、閾値演算部10が求めた閾値により輝度背景差分または色背景差分の背景差分データを2値化する。2値化されたデータを変化領域とよぶ。ただし装置によってはこの2値化を行わずに直接背景差分データを認識処理する場合もある。
特徴量演算部12は、2値化部11から出力される2値データを受信し、特徴量、例えば、変化領域の面積、縦横寸法等を算出する。
特徴量パラメータ設定値記憶部13は、あらかじめ発報対象の特徴量パラメータを記憶している。特徴量パラメータは、オペレータが事前に決定した正規発報対象(例えば人物、車)の特徴量(例えば、面積の上限,下限、縦横寸法の上限,下限、移動量)の範囲や条件である。
認識処理部14は、特徴量演算部12から出力される特徴量データと、特徴量パラメータ設定値記憶部13に記憶している発報対象の特徴量パラメータ設定値を比較し、イベント発生か否かを判断する。また、イベント発生を知らせる通知(発報事象発生通知)を出力する。なお、認識処理部14が、特徴量パラメータ設定値に該当すると判断した場合をイベント発生といい、イベントを発生させた発報対象をイベント対象という。
発報部15は、認識処理部14から発報事象発生を受信すると、発報処理を行なう。発報処理とは、例えば、BEEP音を出す等の処理をいう。
次に、動作について説明する。
図2は、この発明の実施の形態1に係る監視用画像処理装置の発報処理のフローチャートである。図2に沿って、発報するまでの動作について説明する。
ビデオ入力部1は、電気所などに設置されたTVカメラ等、外部の撮像装置から出力された映像信号(ビデオ信号)を受信し、A/Dコンバータ2に送る(ステップST1)。
A/Dコンバータ2は、ビデオ入力部1から受信したビデオ信号をデジタルデータに変換し、変換した現在の映像データ(現画像)をカラフル判定部3、現画像蓄積部4、背景画像蓄積部5に出力する(ステップST2)。具体的には、1画素あたり8ビットの多値データに変換するのが一般的である。
現画像蓄積部4は、A/Dコンバータ2から受信した現画像を記憶する(ステップST3)。なお、現画像は必要に応じて記録すればよく、現画像を蓄積せず、受信した現画像をそのまま輝度背景差分部7または色背景差分部8に出力することとしてもよい。
背景画像蓄積部5は、A/Dコンバータ2から受信した現画像を元に、発報事象(例えば、侵入者)が出現していない状態の監視対象領域を示す比較用の背景画像(例えば、発報事象が出現していないタイミングで、A/Dコンバータ2により取得された画像データ。以下、背景画像という)を作成し、記憶する(ステップST4)。なお、背景画像は、必要に応じて記録すればよく、背景画像を記憶しておかず、A/Dコンバータ2から受信した現画像データから背景画像を作成し、そのまま輝度背景差分部7および色背景差分部8に出力することとしてもよいし、人為的に作成された背景画像を外部から取得し、そのまま輝度背景差分部7および色背景差分部8に出力することとしてもよい。
背景更新部6は、背景画像蓄積部5に記憶してある背景画像を一定ルールで更新する(ステップST5)。定期的にサンプリングされた背景画像を元に演算処理されるのが一般で、例としては過去5シーンの背景画像の各画素の値を平均した平均画像を背景画像として更新する方法や、一定時間前の背景画像を入れ替える方法等が、一般的である。
輝度背景差分部7は、現画像蓄積部4および背景画像蓄積部5からの出力画像を比較し、各画素毎に輝度差分を求め、その差分データより成る画像(以降輝度差分画像とよぶ)を出力する(ステップST6)。輝度差分画像は、一般的には映像中で物体が移動したり光量が変化したりした際の輝度の変化した部分を表す。通常は人物や車両のような移動物が主であるが、周囲が暗い場合は、まれに正確な輝度差分画像が得られない場合もある。
色背景差分部8は、現画像蓄積部4および背景画像蓄積部5からの出力画像を比較し、色背景差分を実施し、各画素毎に色差分を求め、その差分データより成る画像(以降色差分画像とよぶ)を出力する(ステップST7)。色差分画像は、一般的には映像中で物体が移動したり色彩量が変化したりした際の色の変化した部分を表す。通常は人物や車両のような移動物が主であるが、背景画と移動物が同系色の場合は、まれに正確な色差分画像が得られない場合もある。
色背景差分の演算式の一例を以下に示す。
色背景差分=|背景画のCb−現画のCb|+|背景画のCr−現画のCr|
なお、これは一例にすぎず、別の演算式を用いて色背景差分を求めることとしてもよい。
カラフル判定部3は、A/Dコンバータ2から受信した現画像に基づき、色ヒストグラムを作成し、その分布の様子より現画像がカラフル状況か、モノトーン状況かを判断するカラフル判定を行なう(ステップST8)。
図3は、この発明の実施の形態1のカラフル判定部3によるカラフル判定のフローチャートである。
図3に沿って、カラフル判定について詳細に説明する。
まず、カラフル判定部3は、A/Dコンバータ2から受信した現画像の全画素のCb値を取得し、ヒストグラムを作成する(ステップST21)。
カラフル判定部3は、ステップST21と同様に、A/Dコンバータ2から受信した現画像の全画素のCr値を取得し、ヒストグラムを作成する(ステップST22)。
カラフル判定部3は、ステップST21で作成したCbヒストグラムの平均を求め、Cbの偏差、つまりCb成分の分散具合いを算出する(ステップST23)。
カラフル判定部4は、ステップST23と同様に、ステップST22で作成したCrヒストグラムの平均を求め、Crの偏差、つまりCr成分の分散具合いを算出する(ステップST24)。
カラフル判定部3は、事前に決められ、自身に記憶している偏差の閾値と、ステップST23,ステップST24でそれぞれ算出したCb,Crの偏差の結果とを比較し、どちらか一方が閾値を超えていないかどうか判定する(ステップST25)。
ステップST25において、どちらか一方が閾値を超えている場合(ステップST25の“YES”の場合)、カラフル判定部3は、「カラフル状況」であると判断して処理終了する(ステップST26)。
一方、ステップST25において、どちらとも閾値を超えていない場合(ステップST25の“NO”の場合)、カラフル判定部3は、「モノトーン状況」であると判断して処理終了する(ステップST27)。
セレクタ部9は、カラフル判定部3によるカラフル判定の判定結果を受け、輝度背景差分部7が出力した輝度背景差分か、色背景差分部8が出力した色背景差分か、いずれの背景差分を採用するかを決定し、決定した背景差分を閾値演算部10へ出力する(ステップST9)。
ここで、ステップST6〜ステップST9までの処理について、画像例を用いて具体的に説明する。
図4は、現画像がモノトーンな映像状況の例を示す図である。まず、現画像がモノトーンである場合の輝度差分画像および色差分画像の出力について、図4に沿って説明する。
図4(a)は、現画像蓄積部4に記憶されている現画像であり、歩行者がいる画像であるとする。また、図4(b)は、背景画像蓄積部5に記憶されている背景画像であり、歩行者がいない状況の画像であるとする。
輝度背景差分部7は、ステップST6において、図4(a)の現画像と図4(b)の背景画像を比較し、輝度背景差分画像を出力する。図4(c)は、輝度差分画像であり、一定量の輝度の差がある画素を塗りつぶしで示して現画像に重ねたものである。
色背景差分部8は、ステップST7において、図4(a)の現画像と図4(b)の背景画像を比較し、色背景差分画像を出力する。図4(d)は、色背景差分画像であり、一定量の色の差がある画素を塗りつぶしで示して現画像に重ねたものである。
図4は、積雪の風景であるため、背景画と歩行者の「色」の違いはほとんど無く、灰色、黒色の画像である。よって、色の差は微少である。
逆に、背景と歩行者の間の「輝度」の違いは明確であり、雪の地面と歩行者の間で輝度差が確認できる。よって、輝度の差は比較的大きい。
したがって、図4(d)の塗りつぶしで示した部分の面積は小さく、図4(c)の塗りつぶしで示した部分の面積は比較的大きい。つまり、輝度背景差分画像のほうが、色背景差分画像よりも変化領域が大きい。
図5は、現画像がカラフルな映像状況の例を示す図である。(図面上、色は出ていないが、カラフルな色つきの画像を表すものとする)
現画像がモノトーンである場合の輝度差分画像および色差分画像の出力について、図5に沿って説明する。
図5(a)は、現画像蓄積部4に記憶されている現画像であり、歩行者がいる画像であるとする。また、図5(b)は、背景画像蓄積部5に記憶されている背景画像であり、歩行者がいない状況の画像であるとする。
輝度背景差分部7は、ステップST6において、図5(a)の現画像と図5(b)の背景画像を比較し、輝度背景差分画像を出力する。図5(c)は、輝度差分画像であり、一定量の輝度の差がある画素を塗りつぶしで示して現画像に重ねたものである。
色背景差分部8は、ステップST7において、図5(a)の現画像と図5(b)の背景画像を比較し、色背景差分画像を出力する。図5(d)は、色背景差分画像であり、一定量の色の差がある画素を塗りつぶしで示して現画像に重ねたものである。
図5は、昼間の風景であるため、背景画と歩行者の「色」の違いは明確である。よって、背景は緑系、歩行者は青色系の色となり、同系色の色はない。色の差は、比較的大きい。
逆に、背景と歩行者の間の「輝度」の違いは微少である。よって、背景の緑も歩行者の青色も、輝度値だけ見ると類似の値をとる。輝度の差は微少である。
したがって、図5(c)の塗りつぶしで示した部分の面積は小さく、図5(d)の塗りつぶしで示した部分の面積は比較的大きい。つまり、色背景差分画像のほうが、輝度背景差分画像よりも変化領域が大きい。
したがって、図4,図5のように、モノトーン状況では輝度差分、カラフル状況では色差分を使用することが、より大きな差分情報を得る方法であるといえる。
図6は、モノトーン画像(図4)のヒストグラム例を示す図である。
図7は、カラフル画像(図5)のヒストグラム例を示す図である。
ここで、カラフル判定部3におけるカラフル判定について、図6,7を用いて具体的に説明する。
図6では、全体に青色に偏り、他の色が少ないため、Cb成分(青成分)のヒストグラムが中央に集まっている(図6(a))。また、Cr成分(赤成分)は少ないため、Crのヒストグラムはほとんどない(図6(b))。
モノトーン状況では、このようにCb,Cr成分のヒストグラムが一極に集まり、分散が小さい。
図7では、全体に緑系、青系、赤系の色が混在しているため、Cb成分(青成分)、Cr成分(赤成分)のヒストグラムとも各色に散らばり分散している(図7(a),(b))。
カラフル状況では、このようにCb,Cr成分のヒストグラムが広く分散し、偏差が大きい。
カラフル判定部3は、A/Dコンバータ2から受信した現画像の全画素のCb値,Cr値を取得し、図6,図7に示すようなヒストグラムを作成し(ステップST21,ST22)、Cb,Crの分散値から偏差を算出して(ステップST23,ST24)、事前に取り決めた定数(閾値)を上回れば「カラフル状況」、下回れば「モノトーン状況」とのステータスの判断をする(ステップST25〜ST27)。
セレクタ部9では、この判断を受けていずれの背景差分を採用するかを決定する。
具体的には、例えば、現画像が図4(a)であった場合、ヒストグラムは図6のようになり、カラフル判定部3は、Cb,Crの偏差はともに閾値を下回ると判定し、Cb,Cr成分のヒストグラムが一極に集まり、分散が一定値より小さい「モノトーン」状況であると判断する。これを受けて、セレクタ部9では、輝度背景差分部7が出力した輝度背景差分画像(図4(c))を採用すると決定する。
一方、例えば、現画像が図5(a)であった場合、ヒストグラムは図7のようになり、カラフル判定部3は、Cb,Crの偏差が閾値を上回ると判定し、Cb,Cr成分のヒストグラムが一定値より広く分散している「カラフル状況」であると判断する。これを受けて、セレクタ部9では、色背景差分部8が出力した色背景差分画像(図5(d))を採用すると決定する。
図2のフローに戻る。
ステップST9において、セレクタ部9が輝度背景差分と色背景差分のうち決定したほうの背景差分を閾値演算部10へ出力すると、閾値演算部10は、受信した背景差分データを2値化するための閾値を算出する(ステップST10)。背景差分データは、多値データであり、そのまま認識処理するのは不的確であるため、以降の処理を高速に行なうためにも2値化して2値化データに変換するのが一般的である。閾値は、例えば、背景差分データの平均値を閾値にする等、背景差分データをもとに、単純なルールで最適閾値を求めるのが一般的である。なお、これは一例にすぎず、他の方法で閾値を設定してもよい。
2値化部11は、ステップST10において閾値演算部10が算出した閾値で背景差分データを2値化する(ステップST11)。以降、背景差分データを変化領域という。ただし装置によってはこの2値化を行わずに直接背景差分データを認識処理する場合もある。
変化領域について、図8に基づいて説明する。
図8(a)は、通常の正門の映像である。図8(a)に示すように、今人物が画像内を移動している。この場合、移動している人物の位置がそのまま変化領域となる。
図8(b)は、図8(a)の変化領域を黒く染めてスーパーインポーズした現画像を示した映像である。
特徴量演算部12は、ステップST11において2値化部11が2値化した変化領域を受信し、特徴量を算出する(ステップST12)。特徴量とは、変化領域の面積、縦横寸法等をいう。この実施の形態1では、例として、特徴量を「連続性」「面積」「縦横寸法」「速度」とする。「連続性」とは何フレーム変化領域が生存したかの連続時間をいい、「面積」は変化領域の画素数をいい、「縦横寸法」は変化領域の外接矩形の縦長さ,横長さをいい、「速度」は変化領域の移動速度を表す。
認識処理部14は、ステップST12において特徴量演算部12が算出した特徴量データと、特徴量パラメータ設定値記憶部13に記憶している特徴量パラメータ設定値を比較し、イベント発生か否か、つまり、発報対象が発生したか否かを判断し、発報対象である場合、発報対象通知を出力する(ステップST13)。具体的には、特徴量演算部12が算出した特徴量データが、特徴量パラメータ設定値記憶部13に記憶している特徴量パラメータ設定値に示されている範囲や条件に合致しているか否かを判断し、合致している場合、イベント対象発見となり、イベント通知(発報事象発生通知)を出力する。
図9は、認識処理部14による判定を詳細に示したフローチャートである。
ステップST12において特徴量演算部12が算出した変化領域の特徴量を受信すると、認識処理部14は、変化領域が一定時間連続で存在するかどうかを判断する(ステップST31)。具体的には、変化領域の存在する連続時間は、特徴量パラメータ設定値記憶部13に記憶している範囲や条件に合致した場合にOK、合致しなければNGと判断する。例えば、特徴量パラメータ設定値の範囲が「最小4フレーム最大10フレーム」である場合、連続時間が4〜10フレームであればOK、それ以外であればNGと判断される。
ステップST31で“NG”と判断された場合、以降の処理はスキップして処理終了する。
ステップST31で“OK”と判断された場合、認識処理部14は、変化領域の特徴量のうち、面積が所定値であるかどうかを判断する(ステップST32)。具体的には、変化領域の面積が特徴量パラメータ設定値の範囲や条件に合致した際にOK、合致しなかった場合にNGと判断する。例えば、特徴量パラメータ設定値の範囲が「最小500画素、最大1000画素」である場合、面積が500〜1000画素であればOK、それ以外であればNGと判断される。
ステップST32で“NG”と判断された場合、以降の処理はスキップして処理終了する。
ステップST32で“OK”と判断された場合、認識処理部14は、変化領域の特徴量のうち、縦横寸法が所定値であるかどうかを判断する(ステップST33)。具体的には、縦横寸法が特徴量パラメータ設定値の範囲や条件に合致した際にOK、合致しなかった場合にNGと判断する。例えば、特徴量パラメータ設定値の範囲が「縦最小50画素、最大100画素」「横最小50画素、最大100画素」である場合、縦横寸法とも50〜100画素であればOK、それ以外であればNGと判断される。
ステップST33で“NG”と判断された場合、以降の処理はスキップして処理終了する。
ステップST33で“OK”と判断された場合、認識処理部14は、変化領域の特徴量のうち、移動速度が所定値であるかどうかを判断する(ステップST34)。具体的には、速度が特徴量パラメータ設定値の範囲や条件に合致した際にOK、合致しなかった場合にNGと判断する。例えば、特徴量パラメータ設定値の範囲が「最小50画素/秒、最大100画素/秒」である場合、縦横寸法とも50〜100画素/秒であればOK、それ以外であればNGと判断される。
ステップST34で“NG”と判断された場合、以降の処理はスキップして処理終了する。
ステップST34で“OK”と判断された場合、認識処理部14は、正規発報対象と判断し、イベント通知、つまり、発報事象発生通知を出力する(ステップST35)。
なお、「面積」「縦横寸法」「移動速度」は、ステップST31で示される変化領域の連続する存在時間中の各画像における特徴量の平均を算出して、特徴量パラメータ設定値と比較されるのが一般的である。
また、ステップST31〜ステップST35の処理は、S/Wにて処理されるのが一般的である。
また、この認識処理部14における発報対象通知出力判定は、従来の監視用画像処理装置における発報対象通知出力判定と同様である。ただし、ここに示すのは一例にすぎず、他の手順や方法で発報対象通知出力判定を行なうものとしてもよい。
図2に戻り、ステップST13において、認識処理部14が、発報対象が発生したと判断し、発報事象発生通知が出力された場合(ステップST13の“YES”の場合)、発報部15は、発報処理を行なう(ステップST14)。発報処理とは、例えば、一般にはBEEP音の出力やランプの点灯、上位ホストマシンへの通知・通信である。なお、発報処理は、発報対象の発生を知らせるものであればよく、他の方法であってもかまわない。
ステップST13において、認識処理部14が、発報対象が発生していないと判断した場合(ステップST13の“NO”の場合)、発報処理はスキップされ、処理終了する。
以上のように、この実施の形態1によれば、現画像がモノトーンかカラフルかによって、輝度背景差分で発報対象を判定するか、色背景差分で発報対象を判定するかを切り替えるようにしたため、例えば夜間の暗がりを歩く赤いコートの人物のような、背景(暗がり)と移動物(赤いコートの人物)とが両方とも輝度が低く輝度差分背景が得られにくい状況においても、変化領域を正確に判断することができる。これにより、常に精度を落とすことなく精度の高い発報処理を実施することができるため、失報を回避することができる。
実施の形態2.
図10は、モノトーン状況とカラフル状況が混在した状況での、色情報ヒストグラムを示す図である。
図10(a)は、現画像であり、画像の上半分はカラフル状況で、画像の下半分が芝生でモノトーン状況である。
図10(a)の下半分のヒストグラムを作成すると、Cb成分(青成分)とCr成分(赤成分)のヒストグラムが中央に集まっている。(図10(b),(c)参照)
図10(a)の上半分のヒストグラムを作成すると、Cb成分(青成分)、Cr成分(赤成分)のヒストグラムとも各色に散らばり分散している。(図10(d),(e)参照)
図10に示すような状況で、実施の形態1で説明したように背景差分の方式を切り替えた場合、色背景差分を使用した場合は画像の下半分に精度劣化が発生し、輝度背景差分を使用した場合は画像の上半分に精度劣化が発生し、いずれを選択しても問題を有する事となる。
そこで、この実施の形態2では、図10のようにモノトーン状況とカラフル状況混在した状況であっても、精度劣化を招くことなく、精度の高い発報処理を行なう実施の形態について説明する。
この発明の実施の形態2に係る監視用画像処理装置の構成は、実施の形態1において図1で示したものと同様であるため、図示および重複した説明を省略する。
この発明の実施の形態2に係る監視用画像処理装置と、実施の形態1の監視用画像処理装置とは、カラフル判定部3の動作のみが異なる。したがって、実施の形態1で示した動作については図示および重複した説明を省略し、カラフル判定部3の動作のみ説明する。
図11は、この発明の実施の形態2のカラフル判定部3によるカラフル判定のフローチャートである。
なお、ここでは、図10(a)に示す現画像をA/Dコンバータ2から受信するものとして説明する。
カラフル判定部3は、A/Dコンバータ2から受信した現画像の上半分と下半分をそれぞれブロックA,ブロックBとなるようブロック分割する(ステップST41)。
なお、ここでは、カラフル判定部3は、現画像を上半分、下半分に分割することとしたが、これに限らず、右半分、左半分に分割することとしてもよいし、分割する単位については適宜設定可能とする。また、ここでは、2つのブロックに分割することとしているが、2つに限らず、2つ以上のブロックを適宜設定可能とする。また、各ブロックは同一形状である必要もなく、適宜動的に変更されてもよい。
カラフル判定部3は、ステップST41で分割したブロックのうち、ブロックA、つまり、図10(a)に示す現画像の上半分の範囲の現画像の全画素のCb,Cr値を読み、各ヒストグラムを作成する(ステップST42)。ステップST42で作成されたCb,Cr値の各ヒストグラムは図10(d),(e)のようになる。
カラフル判定部3は、ステップST41で分割したブロックのうち、ブロックB、つまり、図10(a)に示す現画像の下半分の範囲の現画像の全画素のCb,Cr値を読み、各ヒストグラムを作成する(ステップST43)。ステップST42で作成されたCb,Cr値の各ヒストグラムは図10(b),(c)のようになる。
カラフル判定部3は、ステップST42で作成したブロックAの範囲のCb,Cr値のヒストグラムから平均を求め、Cb,Crの各偏差、つまりCb,Cr成分の分散具合いを算出する(ステップST44)。
カラフル判定部3は、ステップST43で作成したブロックBの範囲のCb,Cr値のヒストグラムから平均を求め、Cb,Crの各偏差、つまりCb成分の分散具合いを算出する(ステップST45)。
カラフル判定部3は、ステップST44で算出した各偏差と、事前に決められ、自身に記憶していた偏差の閾値を比較し、ステップST44で算出した各偏差のどちらか一方が、閾値を超えていないかどうかを判定する(ステップST46)。
ステップST46において、どちらか一方の偏差が閾値を超えていた場合(ステップST46の“YES”の場合)、カラフル判定部3は、ブロックAの範囲は、Cb,Cr成分のヒストグラムが広く分散しているCb,Cr成分のヒストグラムが一定値より広く分散している「カラフル状況」であると判断する(ステップST47)。
一方、ステップST46において、いずれも閾値を超えていない場合(ステップST46の“NO”の場合)、カラフル判定部3は、ブロックAの範囲は、Cb,Cr成分のヒストグラムが一極に集まり、分散が一定値より小さい「モノトーン状況」であると判断する(ステップST48)。
図10の場合、カラフル判定部3は、ブロックAの範囲のCb,Cr値の各偏差は閾値を超えており、「カラフル状況」であると判断する。
カラフル判定部3は、ステップST45で算出した各偏差と、事前に決められ、自身に記憶していた偏差の閾値を比較し、ステップST45で算出した各偏差のどちらか一方が、閾値を超えていないかどうかを判定する(ステップST49)。
ステップST49において、どちらか一方の偏差が閾値を超えていた場合(ステップST49の“YES”の場合)、カラフル判定部3は、ブロックBの範囲は、Cb,Cr成分のヒストグラムが一定値より広く分散している「カラフル状況」であると判断する(ステップST50)。
一方、ステップST49において、いずれも閾値を超えていない場合(ステップST50の“NO”の場合)、カラフル判定部3は、ブロックBの範囲は「モノトーン状況」であると判断する(ステップST51)。
図10の場合、カラフル判定部3は、ブロックBの範囲のCb,Cr値の各偏差はいずれも閾値を超えておらず、Cb,Cr成分のヒストグラムが一極に集まり、分散が一定値より小さい「モノトーン状況」であると判断する。
カラフル判定部3が、各ブロック毎にカラフル判定を行なうと、セレクタ部9は、各ブロック毎にカラフル判定部3が判断した背景差分に応じて採用する背景差分を決定する。以降の処理は、実施の形態1の図2のステップST9以降と同様である。
以上のように、この実施の形態2によれば、カラフルとモノトーンが混在した状況においても、精度を劣化することなく発報処理を実施することができるため、失報を回避することができる。
実施の形態3.
図12は、この発明の実施の形態3に係る監視用画像処理装置の構成図である。
なお、実施の形態1,2で説明したものと同様の構成については、重複した説明を省略する。
この実施の形態3と実施の形態1との相違点は、図1に示した閾値演算部10,2値化部11を備えず、図12に示すように、輝度テンプレート配置記憶部16,色テンプレート配置記憶部17,テンプレートマッチング部18を備える点である。
輝度テンプレート配置記憶部16は、輝度背景差分部7が出力した輝度差分画像をもとに、対象物の動きの大きな部分を中心に輝度テンプレートを配置し、かつその輝度テンプレートデータを最低でも1フレーム前のものまで記憶しておく。
色テンプレート配置記憶部17は、色背景差分部8が出力した色差分画像をもとに、対象物の動きの大きな部分を中心に色テンプレートを配置し、かつその色テンプレートデータを最低でも1フレーム前のものまで記憶しておく。
テンプレートマッチング部18は、輝度テンプレート配置記憶部16もしくは色テンプレート配置記憶部17において記憶されたテンプレートデータと、次に取りこまれた最新の現画像(以降、先画像という)の輝度差分画像データ、もしくは色差分画像データとの間でテンプレートマッチングを行なう。
動作について説明する。
図13は、この発明の実施の形態3に係る監視用画像処理装置の発報処理のフローチャートである。
なお、図13のステップST1〜ステップST8は、実施の形態1,2で説明した図2のステップST1〜ステップST8と同様であるため、重複した説明を省略し、ここでは実施の形態1,2と異なる動作についてのみ説明する。
輝度背景差分部7が出力した輝度差分画像を受信すると、輝度テンプレート配置記憶部16は、輝度テンプレートの位置を特定し、記憶する(ステップST15)。なお、輝度テンプレート配置記憶部16は、テンプレートのイメージデータを少なくとも1フレーム間は記憶しておく。
ステップST7において色背景差分部8が出力した色差分画像を受信すると、色テンプレート配置記憶部17は、色テンプレートの位置を特定し、記憶する(ステップST16)。なお、色テンプレート配置記憶部17は、テンプレートのイメージデータを少なくとも1フレーム間は記憶しておく。
ステップST8において、カラフル判定部3がカラフル判定を行なうと、セレクタ部9は、ステップST9において、輝度テンプレート配置記憶部16が記憶している輝度テンプレートか、色テンプレート配置記憶部17が記憶している色テンプレートか、いずれのテンプレートを採用してテンプレートマッチングを行なうかを決定し、決定したテンプレートをテンプレートマッチング部18へ出力する(ステップST17)
ここで、ステップST6〜ステップST8,ステップST17までの処理について、画像例を用いて具体的に説明する。なお、実施の形態1同様、現画像がモノトーンな映像状況の例を示す図として図4、現画像がカラフルな映像状況の例を示す図として図5、モノトーン画像(図4)のヒストグラム例を示す図として図6、カラフル画像(図5)のヒストグラム例を示す図として図7を用いて説明する。
実施の形態1で説明したように、図4,図5のように、モノトーン状況では輝度差分、カラフル状況では色差分を使用することが、より大きな差分情報を得る方法であるといえる。これは、より背景と移動物が区別しやすいということでもある。言いかえれば、対象物のテンプレートデータが、背景のイメージと類似性が少ないということである。
すなわち、モノトーン状況では輝度テンプレートマッチング、カラフル状況では色テンプレートマッチングを行なうほうが、テンプレートマッチング精度がよいことを意味し、その結果、対象物の移動ベクトル等の特徴量が精度よく算出できるということを意味する。
カラフル判定部3によるカラフル判定については、実施の形態1,2と同様であるため詳細な説明を省略するが、例えば、現画像が図4(a)であった場合、ヒストグラムは図6のようになり、カラフル判定部3は、Cb,Crの偏差はともに閾値を下回ると判定し、Cb,Cr成分のヒストグラムが一極に集まり分散の小さい「モノトーン」状況であると判断する。これを受けて、セレクタ部9では、輝度テンプレート配置記憶部16が出力した輝度テンプレートを採用すると決定する。
一方、例えば、現画像が図5(a)であった場合、ヒストグラムは図7のようになり、カラフル判定部3は、Cb,Crの偏差が閾値を上回ると判定し、Cb,Cr成分のヒストグラムが広く分散している「カラフル状況」であると判断する。これを受けて、セレクタ部9では、色テンプレート配置記憶部17が記憶している色テンプレートを採用すると決定する。
図14は、輝度テンプレート配置記憶部16による輝度テンプレート配置について説明する図である。なお、図4(a)の現画像をもとに輝度テンプレートを配置するものとする。
輝度テンプレート配置記憶部16では、輝度背景差分部7から受信した輝度背景差分画像(あるいはそれを2値化した後の変化領域データ)をもとに、テンプレートの位置を特定する。通常は、図14(a)に示すように、変化領域エリア(塗りつぶし部分。ここでは、変化領域を適当な閾値にて2値化して2値データに変換し、色塗りしてスーパーインポーズしている)に重なる位置に正方形ブロックを密集配置し、変化領域エリアを覆う。
その結果、各ブロックが配置された位置が、図14(b)に示すように、正規のテンプレート位置となる。
さらに、輝度テンプレート配置記憶部16では、これらの複数のテンプレートのイメージデータを、最低でも1フレーム間は保存記憶する。これは、次の画像(先画像)とのテンプレートマッチングを行なうために、その間は記憶し続けることが必要であるためである。図4(a)に示す現画像の先画像を、図15に示す。
図16は、色テンプレート配置記憶部17による輝度テンプレート配置について説明する図である。なお、図5(a)の現画像をもとに輝度テンプレートを配置するものとする。
色テンプレート配置記憶部17では、色背景差分部8から受信した色背景差分画像(あるいはそれを2値化した後の変化領域データ)をもとに、テンプレートの位置を特定する。通常は、図16(a)に示すように、変化領域エリア(塗りつぶし部分。ここでは、変化領域を適当な閾値にて2値化して2値データに変換し、色塗りしてスーパーインポーズしている)に重なる位置に正方形ブロックを密集配置し、変化領域エリアを覆う。
その結果、各ブロックが配置された位置が、図16(b)に示すように、正規のテンプレート位置となる。
さらに、色テンプレート配置記憶部17では、これらの複数のテンプレートのイメージデータを、最低でも1フレーム間は保存記憶する。これは、次の画像(先画像)とのテンプレートマッチングを行なうために、その間は記憶し続けることが必要であるためである。図5(a)に示す現画像の先画像を、図17に示す。
このように、セレクタ部9は、ステップST17において、「モノトーン」状況であれば、輝度テンプレート配置記憶部16が出力する、図14に示すような輝度テンプレートを採用し、「カラフル状況」であれば、色テンプレート配置記憶部17が出力する、図16に示すような色テンプレートを採用すると決定する。
図13のフローに戻る。
ステップST17において、セレクタ部9が輝度テンプレートと色テンプレートのうち決定したほうのテンプレートをテンプレートマッチング部18に出力すると、テンプレートマッチング部18は、輝度テンプレート配置記憶部16もしくは色テンプレート配置記憶部17に記憶されたテンプレートデータをもとに、現画像蓄積部4から先画像が入手でき次第、輝度テンプレートデータと先画像の輝度画像データとの間、もしくは、色テンプレートデータと先画像の色画像データとの間でテンプレートマッチングを行なう(ステップST18)。
一般的なテンプレート手法は以下のようなものである。
輝度/色テンプレート画像と同じ大きさの輝度/色画像を先画像より切り出し、切り出した先画像と輝度/色テンプレートの同位置の画素間で、画素値の差を計算し、その合計が小さいものほど類似度が高いと判断する。
先画像からの切り出し位置を順にずらしながら輝度/色テンプレート画像との類似度を算出し、最も類似度の高い場所が、先のテンプレートデータが移動した位置と判断できる。
具体的に図を用いて説明する。
図18は、輝度テンプレートでテンプレートマッチングを行なった例を示す図である。
図18において、図18(a)は現画像にテンプレートを配置した図、図18(b)は現画像のテンプレートデータが移動した位置を示す図である。
なお、図18は、図4(a)を現画像、図15を先画像とし、輝度テンプレート配置記憶部16において、図14に示すような輝度テンプレートを配置し、記憶していたものとする。
図19は、色テンプレートでテンプレートマッチングを行なった例を示す図である。
図19において、図19(a)は現画像にテンプレートを配置した図、図19(b)は現画像のテンプレートデータが移動した位置を示す図である。
なお、図19は、図5(a)を現画像、図17を先画像とし、色テンプレート配置記憶部17において、図16に示すような輝度テンプレートを配置し、記憶していたものとする。
ステップST18においてテンプレートマッチング部18がテンプレートマッチングを行なったデータを受け、特徴量演算部12は、特徴量を算出する(ステップST12)。なお、実施の形態1,2では、例として、特徴量を「連続性」「面積」「縦横寸法」「速度」としたが、この実施の形態2では、対象物が移動したベクトルを特徴量とする。
以降、ステップST13,ステップST14の処理は、図2のステップST13,ステップST14と同様であるため説明を省略する。ただし、ステップST13において認識処理部14が比較する特徴量とは移動ベクトルとなり、認識処理部14は、テンプレートマッチングデータから算出された移動ベクトルと特徴量パラメータ設定値記憶部13に記憶されている特徴量(移動ベクトル)とを比較し、マッチングデータから算出された移動ベクトルが所定値であれば、正規発報対象と判断し、イベント通知、つまり、発報事象発生通知を出力する。
以上のように、この実施の形態3によれば、現画像がモノトーンかカラフルかによって、テンプレートマッチング方式が有効なものに切り替えられるため、例えば夜間の暗がりを歩く赤いコートの人物のような、背景(暗がり)と移動物(赤いコートの人物)とが両方とも輝度が低く輝度差分背景が得られにくい状況においても、移動物を精度よく抽出することができる。これにより、常に精度を落とすことなく精度の高い発報処理を実施することができるため、失報を回避することができる。
実施の形態4.
実施の形態3において、現画像がモノトーンかカラフルかによってテンプレートマッチング方式が有効なものに切り替えて発報処理を行なうことについて説明した。
しかしながら、実施の形態3の方法でテンプレートマッチングの方式を切り替えた場合、例えば図10に示すような、モノトーン状況とカラフル状況が混在した状況では、色テンプレートマッチングを使用した場合は画像の下半分に精度劣化が発生し、輝度テンプレートマッチングを使用した場合は画像の上半分に精度劣化が発生し、いずれの選択も問題を有することとなる。
そこで、この実施の形態4では、図10のようにモノトーン状況とカラフル状況が混在した状況であっても、精度劣化を招くことなく、精度の高いテンプレートマッチング方式を採用した発報処理を行なう実施の形態について説明する。
この発明の実施の形態4に係る監視用画像処理装置の構成は、実施の形態3において図12で示したものと同様であるため、図示および重複した説明を省略する。
この発明の実施の形態4に係る監視用画像処理装置と、実施の形態3の監視用画像処理装置とは、カラフル判定部3の動作のみが異なる。この発明の実施の形態3におけるカラフル判定部3の動作は、実施の形態2において図11で示したカラフル判定3の動作と同様である。
図11で説明したように、カラフル判定部は、現画像の上半分と下半分をそれぞれブロックA,Bにブロック分割し(ステップST41)、それぞれのブロックについてカラフル状況かモノトーン状況かを判断する(ステップST42〜ステップST51)。
なお、ここでも、カラフル判定部3は、現画像を上半分、下半分に分割することに限らず、右半分、左半分に分割することとしてもよいし、分割する単位については適宜設定可能とする。また、ここでは、2つのブロックに分割することとしているが、2つに限らず、2つ以上のブロックを適宜設定可能とする。また、各ブロックは同一形状である必要もなく、適宜動的に変更されてもよいものとする。
カラフル判定部3が、各ブロック毎にカラフル判定を行なうと、セレクタ部9は、各ブロック毎にカラフル判定部3が判断した背景差分に応じて採用するテンプレートを決定する。以降の処理は、実施の形態3の図13のステップST17以降と同様である。
以上のように、この実施の形態2によれば、カラフルとモノトーンが混在した状況においても、現画像を複数のブロックに分割し、各ブロック単位でテンプレートマッチング方式を切り替えるため、単一のテンプレートマッチング方式にて画面内を統一処理する場合に比べ、より精度よく差分(移動物)を抽出することができる。これにより、精度を劣化することなく発報処理を実施することができるため、失報を回避することができる。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
1 ビデオ入力部、2 A/Dコンバータ、3 カラフル判定部、4 現画像蓄積部、5 背景画像蓄積部、6 背景更新部、7 輝度背景差分部、8 色背景差分部、9 セレクタ部、10 閾値演算部、11 2値化部、12 特徴量演算部、13 特徴量パラメータ設定値記憶部、14 認識処理部、15 発報部、16 輝度テンプレート配置記憶部、17 色テンプレート配置記憶部、18 テンプレートマッチング部。

Claims (3)

  1. 監視対象領域の現在の監視画像を映像信号として受信するビデオ入力部と、
    前記ビデオ入力部が受信した前記映像信号を量子化して現画像とするA/Dコンバータと、
    前記現画像と、前記現画像において発報事象が出現していない状態の前記監視画像を示す比較用画像とを比較し、前記監視画像内の輝度背景差分を抽出する輝度背景差分部と、
    前記現画像と、前記比較用画像とを比較し、前記監視画像内の色背景差分を抽出する色背景差分部と、
    前記現画像から色ヒストグラムを作成し、前記色ヒストグラムの分散にもとづいて、前記現画像がモノトーン状況であるかカラフル状況であるかを判断するカラフル判定部と、
    前記カラフル判定部が前記カラフル状況であると判断した場合に前記色背景差分を選択し、前記カラフル判定部が前記モノトーン状況であると判断した場合に前記輝度背景差分を選択するセレクタ部とを備えた監視用画像処理装置。
  2. 監視対象領域の現在の監視画像を映像信号として受信するビデオ入力部と、
    前記ビデオ入力部が受信した前記映像信号を量子化して現画像とするA/Dコンバータと、
    前記現画像と、前記現画像において発報事象が出現していない状態の前記監視画像を示す比較用画像とを比較し、前記監視画像内の輝度背景差分を抽出する輝度背景差分部と、
    前記輝度背景差分部が抽出した前記輝度背景差分をもとに輝度テンプレートを配置し、前記輝度テンプレートを少なくとも1フレーム前のものまで記憶しておく輝度テンプレート配置記憶部と、
    前記現画像と、前記比較用画像とを比較し、前記監視画像内の色背景差分を抽出する色背景差分部と、
    色背景差分部が出力した前記色背景差分をもとに色テンプレートを配置し、前記色テンプレートを少なくとも1フレーム前のものまで記憶しておく色テンプレート配置記憶部と、
    前記現画像から色ヒストグラムを作成し、前記色ヒストグラムの分散にもとづいて、前記現画像がモノトーン状況であるかカラフル状況であるかを判断するカラフル判定部と、
    前記カラフル判定部が前記カラフル状況であると判断した場合に前記色テンプレートを選択し、前記カラフル判定部が前記モノトーン状況であると判断した場合に前記輝度テンプレートを選択するセレクタ部と、
    前記ビデオ入力部から新たに受信された現画像と、前記セレクタ部が選択した前記テンプレートとのテンプレートマッチングを行なうテンプレートマッチング部と、
    前記テンプレートマッチング部による前記テンプレートマッチング結果と、あらかじめ設定された発報対象の特徴量とにもとづき、発報事象が発生しているかどうかの判定を行ない、発報事象発生通知を出力する認識処理部と、
    前記発報事象発生通知にもとづき発報処理を行なう発報部とを備えた監視用画像処理装置。
  3. 前記カラフル判定部は、
    前記現画像を複数のブロックに分割し、前記複数のブロック毎に前記現画像が前記カラフル状況であるか前記モノトーン状況であるかを判断する
    ことを特徴とする請求項1または請求項2記載の監視用画像処理装置。
JP2013096265A 2013-05-01 2013-05-01 監視用画像処理装置 Active JP5933482B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013096265A JP5933482B2 (ja) 2013-05-01 2013-05-01 監視用画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013096265A JP5933482B2 (ja) 2013-05-01 2013-05-01 監視用画像処理装置

Publications (2)

Publication Number Publication Date
JP2014219718A true JP2014219718A (ja) 2014-11-20
JP5933482B2 JP5933482B2 (ja) 2016-06-08

Family

ID=51938137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013096265A Active JP5933482B2 (ja) 2013-05-01 2013-05-01 監視用画像処理装置

Country Status (1)

Country Link
JP (1) JP5933482B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018028784A (ja) * 2016-08-17 2018-02-22 富士通株式会社 移動体群検出プログラム、移動体群検出装置、及び移動体群検出方法
JP2018195190A (ja) * 2017-05-19 2018-12-06 キヤノン株式会社 画像処理装置、画像処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274395A (ja) * 2002-03-14 2003-09-26 Mitsubishi Electric Corp 監視用画像処理装置
JP2011258214A (ja) * 2011-07-07 2011-12-22 Mega Chips Corp 物体検出装置
JP2013051652A (ja) * 2011-08-31 2013-03-14 Brother Ind Ltd 画像処理装置、画像読取装置、及び、画像処理プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274395A (ja) * 2002-03-14 2003-09-26 Mitsubishi Electric Corp 監視用画像処理装置
JP2011258214A (ja) * 2011-07-07 2011-12-22 Mega Chips Corp 物体検出装置
JP2013051652A (ja) * 2011-08-31 2013-03-14 Brother Ind Ltd 画像処理装置、画像読取装置、及び、画像処理プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018028784A (ja) * 2016-08-17 2018-02-22 富士通株式会社 移動体群検出プログラム、移動体群検出装置、及び移動体群検出方法
JP2018195190A (ja) * 2017-05-19 2018-12-06 キヤノン株式会社 画像処理装置、画像処理方法
JP7012457B2 (ja) 2017-05-19 2022-01-28 キヤノン株式会社 画像処理装置、画像処理方法

Also Published As

Publication number Publication date
JP5933482B2 (ja) 2016-06-08

Similar Documents

Publication Publication Date Title
KR101926490B1 (ko) 이미지 처리 장치 및 방법
US8280106B2 (en) Shadow and highlight detection system and method of the same in surveillance camera and recording medium thereof
US11557081B2 (en) Image processing apparatus, control method for an image processing apparatus, and medium
JP5908174B2 (ja) 画像処理装置及び画像処理方法
US8761497B2 (en) Removal of shadows from images in a video signal
US8004607B2 (en) Region-based cadence detector
US20210392261A1 (en) Flicker mitigation via image signal processing
JP6243087B2 (ja) 撮像装置及び撮像装置の画像処理方法及びプログラム
US9111353B2 (en) Adaptive illuminance filter in a video analysis system
JP2011210139A (ja) 画像処理装置および方法、並びにプログラム
JP5352859B2 (ja) 複数のガウス分布モデルを利用して映像の背景を維持する方法と装置
WO2019146226A1 (ja) 画像処理装置、および出力情報制御方法、並びにプログラム
US20170116750A1 (en) Device and Method for Camera Driven Background Subtraction
JP2008259161A (ja) 目標追尾装置
JP5933482B2 (ja) 監視用画像処理装置
JP6351377B2 (ja) 画像処理システム、撮像装置及び記録装置
CN109583414B (zh) 基于视频检测的室内占道检测方法、设备、介质及处理器
CN110720224B (zh) 图像处理方法和装置
TW202231068A (zh) 用於產生影像圖框之串流的方法及系統
JP6819785B2 (ja) 位置推定装置、位置推定方法及びプログラム
JP4065137B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR101061012B1 (ko) 광각영상을 이용한 이동물체추적 방법
KR100927554B1 (ko) 주야간 영상 합성에 기반한 야간 영상 감시 시스템 및 방법
CN113194317A (zh) 一种图像处理方法和装置
CN112532982A (zh) 使用跳过块掩码来减小来自监控摄像机的比特率

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160502

R150 Certificate of patent or registration of utility model

Ref document number: 5933482

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250