以下、本発明の実施の形態(以下実施形態という)である画像監視装置1について、図面に基づいて説明する。画像監視装置1は、監視空間から得られた監視画像において、検知対象物(以下、対象物)である人間の特徴を有する領域を抽出することで侵入者を検知する。侵入者を検知すると画像監視装置1は異常信号を出力する。
[第1の実施形態]
図1は、本発明の実施形態に係る画像監視装置1の概略のブロック構成図である。画像監視装置1は、画像入力部2、記憶部3、画像処理部4及び出力部5を含んで構成される。画像入力部2、記憶部3及び出力部5は画像処理部4と接続される。
画像入力部2は、監視カメラであり、監視空間内に設置される。例えば、監視カメラは監視空間の天井部に監視空間を俯瞰して設置される。当該監視カメラは、監視空間を所定の時間間隔で撮影し、各画素が多階調の画素値で表現される監視画像を順次、画像処理部4へ出力する。以下、画像入力部2にて取得され画像処理部4に入力される画像を入力画像と称する。
記憶部3は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク等の記憶装置であり、画像処理部4で使用されるプログラムやデータを記憶する。記憶部3はこれらプログラム、データを画像処理部4との間で入出力する。記憶部3に記憶されるデータには部位情報30、部位検出器31、部位検出情報32が含まれる。
部位は対象物の一部であり、複数の部位が対象物の互いに異なる一部として設定される。部位の画像情報は、対象物が撮像されていることが既知である「対象物の標本画像」を基にして予め作成される。
具体的には、複数の部位それぞれが対象物の標本画像内の互いに異なる領域として設定される。ここで、隠蔽状態の多様性と検出の信頼性とのトレードオフを解消するために、複数種類の大きさの部位が設定される。部位の大きさと形状との組み合わせをパターンと呼ぶ。また、対象物の標本画像に対応する領域を標本領域と呼ぶ。
或るパターンの部位は標本領域内に位置をずらして複数設定され、これらパターンは同じであるが位置が相違する部位のセットにより標本領域の全体がカバーされる。すなわち、標本領域内の任意の位置には当該セットを構成するいずれかの部位が配置される。当該セットは、パターンが異なる部位ごとに設定される。よって、標本領域内の任意の位置には各パターンの部位が配置される。
部位情報30は画像上で部位が表す領域を規定する情報である。部位情報30は、検知処理に先立って生成され、記憶部3に格納される。
本実施形態では各部位の形状は正方形又は長方形とし、部位情報30は、パターンごとに識別番号、サイズ、配置数及び配置情報を含む。サイズはパターンの形状及び大きさを表す情報であり、画像水平方向の画素数と画像垂直方向の画素数とで表される。配置数は、標本領域内にて各パターンをいくつ配置するか、つまり、標本領域内にパターンが同じで位置が異なる部位をいくつ定義して、標本領域全体をカバーするかを表す。配置情報は各パターンの位置が異なる部位ごとに定義された、当該部位の識別符号(以下、部位ID(identification data)と称する)と相対位置ベクトルとからなる。各部位の相対位置ベクトルは標本領域の基準点に対する当該部位の相対位置を表す。基準点は全部位に共通して定められ、各部位の相対位置ベクトルによって部位間の位置関係が一意に規定される。本実施形態では、標本領域の重心を当該基準点と定める。別の実施形態では、任意の1つの部位の重心や標本領域の左上隅などを基準点に定める。
図2は、標本画像の一例を示す模式図である。本実施形態では対象物は人であり、標本画像は人の全体画像である。標本画像は、人の形状に合わせて幅(水平)方向64ピクセル×高さ(垂直)方向128ピクセルの縦長の矩形に設定している。この標本画像に対応させて標本領域300も64×128ピクセルの領域に設定する。
図3は相対位置ベクトルを説明する模式図である。標本領域300の基準点301としてその重心が設定され、部位302の重心303から基準点301へのベクトルが相対位置ベクトル304として定義される。
図4は、部位情報30の具体例を模式的に示す説明図である。部位IDはCi−jという形式で表しており、本実施形態では「i」はパターンの識別番号に一致させている。また「j」は各パターンに属する複数の部位の配置を識別する番号である。また、部位Ci−jの相対位置(相対位置ベクトル)をVi−jと表している。
本実施形態では、4パターンで39個の部位を設定する。パターン#1は各部位の大きさを64×64ピクセルとする。配置数は5個に設定し、5個の部位(C1−1〜C1−5)は高さ方向に16ピクセルずつずらして配置される。パターン#2は各部位の大きさを64×32ピクセルとする。配置数は7個に設定し、7個の部位(C2−1〜C2−7)は高さ方向に16ピクセルずつずらして配置される。パターン#3は各部位の大きさを48×48ピクセルとする。幅方向及び高さ方向に16ピクセルずつずらして、幅方向に2種類の位置、高さ方向に6種類の位置が設定される。これにより、配置数は12個となり、12個の部位(C3−1〜C3−12)が設定される。パターン#4は、各部位の大きさを32×64ピクセルとする。幅方向及び高さ方向に16ピクセルずつずらして、幅方向に3種類の位置、高さ方向に5種類の位置が設定される。これにより、配置数は15個となり、15個の部位(C4−1〜C4−15)が設定される。
各パターンの部位は隣接配置されるもの同士がオーバーラップするように設定されている。これにより、検出時の信頼度が高い「大きな部位」を数多く設定できるため、対象物検知の信頼度を向上させることが可能となる。
部位検出器31は、上述の部位それぞれに対応して設けられ、入力画像にて当該部位と同じ形状に設定される対比部分から当該部位の画像特徴を検出する検出器である。部位検出器31は対応する部位に対して予め設定された検出基準に基づいて対比部分が部位の画像特徴を有する度合い(検出度)、又は対比部分における部位の画像特徴の有無を出力する。各部位の検出基準は、予め、少なくとも対象物の標本画像を用いて学習されている。
具体的には、部位検出器31はパターン認識で用いられる識別器である。識別器は、未知の画像特徴(特徴ベクトルx=[x1,x2,・・・,xN])が入力されると当該画像特徴が検出対象又は非検出対象である度合いを表す尤度を出力する識別関数H(x)を備える。つまりこの場合、部位検出器31の検出基準は識別関数H(x)であり、部位検出器31の検出度は尤度である。本実施形態において各部位の部位検出器31は、入力された画像特徴が当該部位の画像特徴として尤もらしければ正の検出度を出力し、そうでなければ負の検出度を出力する。
画像特徴としては照明変動に頑強な輝度勾配分布を用いるのが望ましい。このような画像特徴として公知のヒストグラム・オブ・オリエンティッド・グラディエント(HOG:Histograms of Oriented Gradients)やシェイプコンテキスト(Shape Context)等がある。本実施形態においては画像特徴としてHOGを用いる。識別器は公知のアダブースト法(Robert E.Schapire,Yoram Singer,"Improved Boosting Algorithms Using Confidence-rated Predictions",Machine Learning,Vol.37,No.3,pp.297-336,1999)等のブースティング法を用いて学習され、学習の結果、識別関数H(x)のパラメータが算出される。
各部位の部位検出器31の学習は、例えば、人が撮像された多数の標本画像と人が撮像されていない多数の標本画像のそれぞれから当該部位と対応する部分画像を切り出して各部分画像のHOGを算出し、算出されたHOGにアダブースト法を適用することにより行われる。学習の結果、HOGが表す特徴空間において検出対象の各部位とそれ以外とを識別する識別関数H(x)のパラメータが算出され、これらのパラメータが部位検出器31として部位ごとに記憶部3に記憶される。
入力画像中に撮像された部位を検出する別の構成として、部位検出器31をパターンマッチング器とすることもできる。この構成では、部位に対応する画像の検出基準に、当該部位の対象物標本画像から作成されたテンプレートを用いる。当該テンプレートとして、例えば部位を構成する画素ごとにエッジ強度を平均化して算出された平均エッジ強度パターンを用いることができる。この場合、部位検出器31に入力される画像特徴は、入力画像の対比部分の平均エッジ強度パターンであり、部位検出器31は、当該画像特徴とテンプレートとの類似度を検出度として出力する。
部位検出情報32は入力画像から各部位を検出した結果の情報である。部位検出情報32として、検出があるごとに、検出された部位の部位IDと、入力画像中での当該部位の検出位置とを組にした情報が記憶部3に記憶される。なお、各部位検出情報32には必要に応じて、部位検出器31により算出された検出度や、その他、例えば、部位を拡大又は縮小して検出した場合にはその拡大・縮小の倍率等が含められる。
画像処理部4はDSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成される。画像処理部4は、画像入力部2からの入力画像を処理して人の存在有無を判定し、人を検知すると異常信号を出力部5へ出力する処理を行う。具体的には、画像処理部4は、記憶部3からプログラムを読み出して実行し、後述する部位検出部40、統合判定部41、異常判定部42として機能する。
部位検出部40は、各部位検出器31に対応する部位の形状を有した対比部分を入力画像の各所に設定し、当該部位検出器31を用いて当該対比部分が当該部位の特徴を有するかを判定・検出する走査処理を行う。部位の特徴を検出した場合にはその結果を部位検出情報32として記憶部3に記憶させる。
具体的には、部位検出部40は、対比部分として入力画像内の各位置に各部位と相似の検出窓を順次設定する。そして、検出窓内の画像特徴を抽出し、当該部位の部位検出器31に画像特徴を入力して検出度を算出する。部位検出部40は、検出度を予め設定された検出閾値Tpと比較し、検出度がTpを超えた場合には当該部位の部位ID、当該検出窓の位置、及び得られた検出度を含んだ部位検出情報32を生成する。抽出する画像特徴は部位検出器31の学習に用いられた画像特徴と同種のものであり、本実施形態ではHOGである。
本実施形態では部位検出器31は上述したように、画像特徴が検出対象の部位であるときに正の検出度を出力し、検出対象の部位でないとき負の検出度を出力する。これに対応して、検出閾値Tpは0に設定される。
なお、一般的な識別器では上述のように検出対象/非検出対象の尤度の境界値を0に設定するが、0以外の境界値を設定する識別器も提案されている。境界値が0以外の識別器を部位検出器31として用いる場合は検出閾値Tpに当該境界値を設定する。
部位検出部40は、複数のパターン(#1〜4)を用いることで、対象物の各部の検出を複数の大きさ段階にて行えるので、複数の大きさの部位を組み合わせて多様な隠蔽状態に対応できる。
ここで、対象物の見かけ上の大きさは監視カメラと対象物との距離に依存して変化する。また、対象物のプロポーションには個体差があり、例えば対象物が人である場合、胴部や脚部に対する頭部の大きさバランスが標準から外れる者がいたり、コート装着の影響で見かけ上胴部と類似する部分が脚部に侵食して大きさバランスが標準から外れることがある。
そこで部位検出部40は各部位に対し複数段階の倍率で検出窓を拡大又は縮小させて設定し走査処理を行うことで、見かけ上の大きさ変化や個体差がある対象物の検出漏れの防止を図る。倍率は、例えば0.75倍〜1.5倍まで0.125刻みで7段階に設定することができる。このように、複数段階の倍率で検出を行なう場合、部位検出部40は検出時の倍率を含めた部位検出情報32を生成する。
図5は部位検出処理の例を説明する模式図である。図5(a)は、部位検出部40が入力画像400を部位C1−1の部位検出器31でラスタ走査している様子を示している。ラスタ走査の過程で、部位検出部40は、部位C1−1の大きさ及び形状を有する検出窓を順次設定する。図5(a)には例として検出窓401,402,403を示している。部位検出部40は、検出窓内の画像から得られる画像特徴を部位C1−1の部位検出器31に入力して検出窓内の画像が部位C1−1の画像特徴を有するか否かを判定する。図5(a)に示す例では、人物像上に配置された検出窓403の位置で部位C1−1の画像特徴が検出される。図5(b)に示す画像例410は、入力画像400全体について各部位検出器31を用いた部位検出部40による走査処理が完了した状態を示している。部位C1−1の画像特徴が検出された位置411の直下の位置412に部位C2−5の画像特徴が検出されている。また、机の右下端の2箇所413,414にて倍率0.75で部位C2−5の画像特徴が検出されている。
統合判定部41は、部位検出部40により生成された部位検出情報32のうち検出位置が部位情報30に規定された位置関係を略満たす部位検出情報32同士をグループ化し、同一のグループに属する部位検出情報32と対応する部位の大きさの集計値をグループごとに求め、求められた集計値のいずれかが予め設定された対象物検知閾値Tdを超えるときに入力画像に対象物が撮像されているとして対象物を検知する。
このように、検出された部位の大きさの集計値を求めることによって、集計値は部位の大きさにより変動する検出の信頼度を反映したものとなり、当該集計値を用いることで信頼性の高い対象物検知が可能となる。
具体的には、統合判定部41は、部位検出情報32それぞれについて、検出位置と、部位IDに対応する相対位置ベクトルと検出時の倍率とを用いて、検出位置を始点に設定し、倍率を乗じた相対位置ベクトルの終点座標を求める。この終点座標は個々の検出位置に合わせて入力画像の座標系に標本領域を相対的に配置したときの基準点を表すことから、当該終点座標を相対基準点と呼ぶ。図5(a)の例においては、各矢印が検出された部位の相対位置ベクトルを表し、各矢印の先端が相対基準点を表している。
そして統合判定部41は、部位検出情報32のうち、当該相対基準点が略一致するものをグループ化する。相対基準点が略一致する部位検出情報32は、その部位が互いに部位情報30に規定された位置関係を満たしており、同一の対象物に対して生成されたものであるということを表す。ここで、標本画像の対象物と入力画像の対象物とは完全に同一のものではなく、個体差や姿勢の変動等が原因で、同一の対象物に対して検出された部位同士であってもその検出位置は微小にずれる。統合判定部41が、(規定された位置関係を完全に満たす部位検出情報32ではなく)規定された位置関係を略満たす部位検出情報32をグループ化するのは検出位置の誤差が原因で同一対象物に対する部位検出情報32を統合し損ねる誤りを防止するためである。なお、誤差の許容範囲は対象物の隠蔽に対する許容の程度に依存して予め設定される。すなわち、隠蔽率50%までの対象物を検知しようとするならば誤差の許容範囲は標本領域サイズの50%未満に設定され、隠蔽率40%までの対象物を検知しようとするならば誤差の許容範囲は標本領域サイズの60%未満に設定される。
グループ化は公知のクラスタリング処理により行うことができる。統合判定部41は、相対基準点に注目し、相対基準点間の距離が上記許容範囲内であることを条件に設定したクラスタリング処理を部位検出情報32に対して行うことで、規定された位置関係を略満たす部位検出情報32をグループ化する。
また前述した見かけ上の大きさ変化や個体差が原因で同一対象物の部位が複数の倍率にまたがって検出される場合がある。そこで、統合判定部41は、倍率が近接する部位検出情報32のグループ化を許容することにより、見かけ上の大きさ変化や個体差が原因で同一対象物に対する部位検出情報32を統合し損ねる誤りを防止する。具体的には、統合判定部41は、相対基準点及び倍率に注目したクラスタリング処理を部位検出情報32に対して行う。なお、近接する倍率に限定してグループ化するのは、例えば、入力画像に子供を抱えている大人のような像がある場合に、大人と子供の像に対する部位検出情報32を分離するためである。
本実施形態では、統合判定部41は、グループごとに部位検出情報32と対応する部位を部位情報30に規定された位置関係にて配置し、配置された部位の和領域の面積を集計値として算出することで大きさの集計値を求める。
具体的には、統合判定部41は、標本領域の座標系の投票画像を用意し、同一グループに属する部位検出情報32のそれぞれについて当該部位検出情報32が示す部位と合致する投票領域を投票画像上に設定して投票領域内の各画素に1ずつ加算する投票処理を行い、得票領域の画素数を算出する。投票領域は、部位検出情報32が示す部位を#m、その中心位置ベクトルをRm、投票画像内の基準点をQとすると、P=Q−Rmなる座標Pを中心に部位#mの大きさ及び形状を有する領域として設定される。
このように、和領域の面積を大きさの集計値とすることで、複数パターンの部位による重複検出や、各パターンの部位に設けられたオーバーラップ部分での重複検出を単一の検出結果として合成できるので、多様な隠蔽状態に対応できる部位の設定の下で、さらに非対象物の誤検知の防止が図れる。
検知閾値Tdは標本画像300の大きさを基準に設定することができる。例えば、隠蔽率50%までを許容して対象物を検知するのであれば、本実施形態では、64×128ピクセルの標本領域の画素数の1/2をTdに設定することができ、この場合、Td=4096となる。なお、集計値を標本画像300の大きさで正規化してもよく、その場合、上記例に適合するTdは0.5となる。
図6、図7は統合判定処理の例を説明する模式図である。図6は、図5に示す例で算出された相対基準点を、その位置(X,Y)と検出時の倍率とで定義される三次元空間にプロットしたものである。ここで、Xは画面水平方向の座標、Yは垂直方向の座標である。図5に例示した人物像上の検出位置411(部位C1−1)と検出位置412(部位C2−5)の部位検出情報32はグループ510としてグループ化される。机の右下端の2つの検出位置413,414(部位C2−5)はグループ512としてグループ化される。
図7はグループごとの投票画像を模式的に示しており、グループ510の投票画像520を図7(a)に、またグループ512の投票画像522を図7(b)に示している。各投票画像520,522の斜線部は1画素に1票ずつの票を得ている得票部分であり、投票画像520では部位C1−1の4096票と部位C2−5の2048票が合算されて集計値は6144票となり、投票画像522では部位C2−5の重複投票が排除されて集計値は2048票となる。Td=4096としているので、グループ510の位置には人が存在すると正しく判定され、グループ512の位置には人は存在しないと正しく判定される。
異常判定部42は、統合判定部41により対象物の存在が判定されると、侵入異常が検知されたとして異常信号を出力部5へ出力する。
出力部5は、外部装置と接続され、当該外部装置へ異常信号を出力するインターフェース回路である。外部装置は、侵入者の存在を警報するスピーカー、ブザー又はランプ等の警報表示手段や、通信網を介して接続される遠隔地のセンタ装置等である。
次に画像監視装置1の動作を説明する。図8は、画像監視装置1における画像監視処理の概略のフロー図である。例えば、装置の管理者が電源を投入すると画像監視装置1の各部が動作を始める。画像入力部2は所定の時間間隔で(例えば1秒おきに)監視空間を撮像し、撮像した画像を画像処理部4に入力する。画像処理部4は画像が入力されるたびにS10〜S50の処理を繰り返す。
画像が入力されると(S10)、画像処理部4は部位検出部40により、入力画像から各部位の検出を行なって部位検出情報32を生成する(S20)。
図9は、部位検出処理S20の概略のフロー図である。図9を参照して部位検出処理S20を説明する。
部位検出部40は、部位情報30に設定されている複数の部位(C1−1,C1−2,・・・,C4−15)を順次、注目部位に設定し(S200)、全ての部位に対してステップS201〜S209の処理を繰り返すループ処理を実行する。また、当該ループ処理内にはさらに、7段階の倍率を順次設定して(S201)、各倍率に対してステップS202〜S208の処理を繰り返すループが設定される。
部位及び倍率のループ処理において、部位検出部40は入力画像の左上端から右下端へのラスタ走査で指定される各位置に、注目部位の検出窓を、注目倍率にて拡大又は縮小して設定する(S202)。なお、検出窓が入力画像からはみ出す位置での設定は省略される。
部位検出部40は、設定した検出窓内の入力画像から画像特徴を抽出する(S203)。そして、記憶部3から注目部位の部位検出器31を読み出し、当該部位検出器31に、ステップS203にて抽出した画像特徴を入力して、当該窓内の画像に対する注目部位の検出度を算出する(S204)。
部位検出部40は、算出した検出度を検出閾値Tpと比較し(S205)、検出度がTpより大きければ(S205にて「YES」)、検出窓内に注目部位が検出されたとして、注目部位の部位ID、検出位置(検出窓の中心座標)、注目倍率及び検出度を組にした部位検出情報32を生成して記憶部3に記憶させる(S206)。一方、検出度がTp以下のときは(S205にて「NO」)、検出窓内に注目部位が検出されなかったとして、ステップS206は省略される。
こうして注目部位について全倍率で入力画像全体を走査し終えると(S207にて「YES」、かつS208にて「YES」)、記憶部3には注目部位の部位検出情報32が部位の検出回数と同数だけ蓄積されている。
以上の処理を全ての部位に対して終えると(S209にて「YES」)、部位検出処理S20は終了する。
部位検出処理S20が終わると図8に示すように、画像監視処理は統合判定処理S30へ進む。画像処理部4は統合判定部41により、部位検出処理S20にて生成された部位検出情報32を統合して対象物が入力画像に撮像されているか否かを判定する(S30)。
図10は、統合判定処理S30の概略のフロー図である。図10を参照して統合判定処理S30を説明する。
統合判定部41は、部位検出情報32に対して部位ごと検出位置に注目したクラスタリングを行なうことで、検出位置が略一致する同一部位の部位検出情報32を集約する(S300)。すなわち、統合判定部41は、クラスタごとに当該クラスタに属する複数の部位検出情報32の検出位置、検出度及び倍率それぞれの平均値を算出し、同一とされた部位の部位IDと各平均値とを組にした新たな部位検出情報32を生成して記憶部3に記憶させる。また、統合判定部41は、元の部位検出情報32を記憶部3から削除する。この集約により、後段のステップS302におけるクラスタリング処理の負荷が軽減され、また、後段のステップS305〜S308における集計処理の負荷も軽減される。
統合判定部41は、全ての部位検出情報32に対して相対基準点を算出する(S301)。すなわち、統合判定部41は、各部位検出情報32の部位IDが示す部位の相対位置ベクトルを部位情報30から読み出し、読み出した相対位置ベクトルに注目倍率を乗算し、得られたベクトルを当該部位検出情報32の検出位置に加算して相対基準点を算出し、算出した相対基準点を当該部位検出情報32に追記する。
次に、統合判定部41は、部位検出情報32に対して相対基準点及び倍率に注目したクラスタリングを行なうことで、相対基準点及び倍率が略同一の部位検出情報32をグループ化する(S302)。
統合判定部41は、処理S302にて生成した各グループを順次、注目グループに設定し(S303)、全てのグループに対してステップS304〜S312の処理を繰り返すループ処理を実行する。
当該ループ処理にて、統合判定部41は注目グループに対して全画素値を0に初期化した投票画像を用意する(S304)。投票画像は標本画像と対応する画素位置ごとに投票値を集計するための記憶領域である。投票画像の重心を基準点とする。
当該投票画像を用いて投票処理が行われる。すなわち統合判定部41は、注目グループに属する部位検出情報32を順次、注目検出情報に設定し(S305)、注目検出情報の部位IDが示す部位と合致する投票領域を投票画像内に設定する(S306)。そして、投票領域内の画素の画素値に1を加算する処理(S307)を、注目グループに属する全ての部位検出情報32を処理するまで繰り返す(S308)。ステップS306の処理は注目検出情報に部位の大きさ(画素数)に応じた投票値を設定し、当該投票値を1画素1票で分配投票していることに相当する。
こうして投票が終わると(S308にて「YES」)、統合判定部41は、得票領域の和領域の面積を算出する(S309)。この和領域の算出は、投票画像内で画素値が1以上である画素を計数することにより行われる。
統合判定部41は和領域の面積を検知閾値Tdと比較し(S310)、面積がTdより大きければ(S310にて「Yes」)、注目グループの位置に対象物が存在するとして、注目グループの部位検出情報32に含まれている相対基準点の平均値と同部位検出情報32に含まれている倍率の平均値とステップS309にて算出した和領域の面積(大きさの集計値)とからなる対象物検知情報を生成して記憶部3に記憶させる(S311)。対象物検知情報が示す位置に、同情報の倍率に対応する大きさで同情報の大きさの集計値に対応する隠蔽度合いで対象物が撮像されていることが分かる。一方、面積がTd以下のときは(S310にて「NO」)、注目グループの位置に対象物は存在しないとして、ステップS311は省略される。
以上の処理を全てのグループに対して終えると(S312にて「YES」)、統合判定処理S30は終了する。
統合判定処理S30が終わると図8に示すように、画像監視処理は対象物の検知の有無に応じて(S40)、警報処理を行う(S50)。すなわち、画像処理部4は異常判定部42により、記憶部3を参照して対象物検知情報の有無を確認し(S40)、対象物検知情報が1つでも記憶されていれば(S40にて「YES」)、対象物が検知されたとして当該対象物検知情報を含めた異常信号を出力部5に出力し、出力部5に警報を出力させる(S50)。
以上の処理を終えると、処理は再びステップS10へ戻される。
[第2の実施形態]
本発明の第2の実施形態に係る画像監視装置1と、上述した第1の実施形態の画像監視装置1との基本的な相違点は、部位の設定の仕方、部位検出部40における走査処理、及び統合判定部41における集計処理にあり、それ以外の構成・動作は基本的に共通する。以下、同一の構成要素には同一の符号を付して第1の実施形態での説明を援用しここでの説明の簡素化を図ることとし、主に、第2の実施形態の画像監視装置1が第1の実施形態と異なる点について説明する。
まず、構成面での相違点を説明する。部位の設定の仕方に関して、第1の実施形態では同一パターンに属する部位は、相互間に重複領域の発生を許容して設定したのに対し、本実施形態では同一パターンに属する部位間に重複領域は設定されない。具体的には、或るパターンに属する部位を分割して形成される各小領域が他のパターンの部位として設定される。換言すれば、複数のパターン間には階層構造が存在し、大きさが段階的に異なる複数のパターンが設定される。パターンの数をn(nは2以上の自然数である。)とし、k番目(kは2≦k≦nを満たす自然数である。)の大きさのパターンに属する各部位は、k−1番目の大きさのパターンに属する部位を分割して得られる各小領域として設定される。本実施形態ではnは3に設定する。
図11は、本実施形態における部位情報30の具体例を模式的に示す説明図である。本実施形態の部位情報30は、第1の実施形態の場合と同様、パターンごとに識別番号、サイズ、配置数及び配置情報を含み、それぞれの意味も基本的には同じである。但し、上述のようにパターンが階層的に構成される本実施形態では、パターンの識別番号を階層の順を表す階層番号に一致させている。具体的には、n=3とする本実施形態では大きさが異なる3つのパターンが設定され、階層はパターンが大きい順に階層#1,#2,#3と表す。また、部位IDの表記「Ci−j」、及び相対位置ベクトルの表記「Vi−j」における「i」は第1の実施形態の部位と区別するために、階層#1〜3に対しi=5〜7を付与している。なお、「j」は第1の実施形態と同様、各パターン(階層)の部位の標本領域内での位置を識別する番号である。
最上層の階層#1の部位は標本領域300と一致させ、64×128ピクセルとする。階層#1の配置数は1となり、部位IDはC5−1となる。階層#2として、部位C5−1を大きさ64×64ピクセルに分割した2つの分割領域C6−1,C6−2を設定する。階層#3として、部位C6−1,C6−2をそれぞれ2×2に4等分した大きさ32×32ピクセルの分割領域C7−1〜C7−8を設定する。この部位の設定の仕方により、階層#2の部位C6−1,C6−2は階層#1の部位C5−1に包含される。また、階層#3の部位C7−1〜C7−4は階層#2の部位C6−1に包含され、階層#3の部位C7−5〜C7−8は階層#2の部位C6−2に包含される。
次に、部位検出部40における走査処理について説明する。部位検出部40は第1の実施形態では全ての部位検出器31で入力画像全体を走査した。これに対し、本実施形態では大きさ段階が最上位(階層#1)の部位から順に走査処理を行ない、k+1番目(本実施形態ではkは1又は2である。)の大きさ段階(階層#(k+1))の部位の走査処理は、k番目までの走査処理で当該部位を包含する部位が検出された位置と規定の位置関係にない入力画像内の位置で行う。つまり、入力画像のうち、或る階層にて部位が検出された部分では、当該部位に包含される下位の部位の検出は行わない。また、大きさ段階が最下位に達し部位の大きさが最小になった場合(階層#3に達した場合)も、階層を変えた新たな走査処理は行わない。このように、本実施形態では、大きさ段階が大なる部位の検出を優先しつつ、対象物の同一部分に対する重複検出を排除することで処理削減と省メモリ化を図る。
次に、統合判定部41における集計処理について説明する。統合判定部41は、第1の実施形態では部位の和領域の面積を集計値として算出した。これに対し、本実施形態では検出された部位の大きさを足し合わせて集計値とする。具体的には、統合判定部41は、まず第1の実施形態と同様に、位置関係を略満たす部位検出情報32同士をグループ化し、さらに各グループにおいて部位が同一である部位検出情報32同士を1つに集約する。そして、統合判定部41は各グループにおいて集約された部位のうち、当該部位を包含する他の部位が同一グループにない部位(つまり同一グループの他の部位により包含されない部位)同士で大きさを加算して集計値を求める。このように包含関係を利用して部位の重複検出を排除することで、単純集計しても非対称物の誤検知の防止できる。
本実施形態と第1の実施形態との動作面での相違点について説明する。画像監視処理の概略は第1の実施形態に示した図8で表されるフローと共通する。相違点は、図8に示す処理のうち部位検出処理S20と統合判定処理S30とにある。
図12は、本実施形態の部位検出処理S20の概略のフロー図である。図12を参照して本実施形態の部位検出処理S20を説明する。
部位検出部40は、7段階の倍率を順次、注目倍率に設定して(S250)、各倍率に対してステップS251〜S263の処理を繰り返すループ処理を実行する。
部位検出部40は、入力画像の左上端から右下端へのラスタ走査で指定される各位置を相対基準点として設定し(S251)、調査対象の部位をリスト化する調査リストを用意して当該リストに階層#1の部位、すなわち部位C5−1を設定する(S252)。
部位検出部40は、調査リストから任意の部位を1つ読み出して、読み出した部位を注目部位に設定する(S253)。なお、このとき読み出した部位は調査リストから削除しておく。
部位検出部40は、注目部位を注目倍率にて拡大又は縮小した検出窓をステップS251にて設定された相対基準点からみた規定位置に設定する(S254)。すなわち部位検出部40は、注目部位を#m、その相対位置ベクトルをRm、相対基準点をQ、注目倍率をαとすると、P=Q−Rm・αなる座標Pを算出して当該座標Pを中心に注目部位#mをα倍した検出窓を設定する。部位検出部40は、設定した検出窓内の入力画像から画像特徴を抽出し(S255)、注目部位の部位検出器31に抽出した画像特徴を入力して注目部位の検出度を算出し(S256)、算出された検出度を検出閾値Tpと比較する(S257)。
検出度がTpより大きければ(S257にて「YES」)、部位検出部40は、検出窓内に注目部位が検出されたとして、注目部位の部位ID、検出位置(検出窓の中心座標)、注目倍率及び検出度を組にした部位検出情報32を生成して記憶部3に記憶させる(S258)。
一方、検出度がTp以下のとき(S257にて「NO」)、部位検出部40は、部位情報30を参照して注目部位に下の階層が存在するかどうかの判定を行う(S259)。下の階層が存在する場合(S259にて「YES」)、部位検出部40は、注目部位より1つ下の階層であって注目部位が包含する部位を調査リストに追加する(S260)。具体的には、注目部位を部位C5−1に設定して当該部位が検出されなければ部位C6−1及びC6−2が追加され、注目部位を部位C6−1に設定して当該部位が検出されなければ部位C7−1〜C7−4が追加され、また、注目部位を部位C6−2に設定して当該部位が検出されなければ部位C7−5〜C7−8が追加される。注目部位に下の階層が存在しない場合(S259にて「NO」)、ステップS260は省略される。
なお、ステップS254にて検出窓が入力画像をはみ出す場合は、当該検出窓に対するステップS255〜S260までの処理は省略される(図示せず)。
部位検出部40は、調査リストが空になるまでステップS253〜S260までの処理を繰り返す(S261にて「NO」ならばS253へ)。調査リストが空になると(S261にて「YES」)、ステップS251にて設定された相対基準点に対する部位の調査リストのループ処理が終了する。
こうして全倍率で入力画像全体を走査し終えると(S262にて「YES」、かつS263にて「YES」)、部位検出処理S20は終了する。
部位検出処理S20が終わると図8に示すように、画像監視処理は統合判定処理S30へ進む。
図13は、本実施形態の統合判定処理S30の概略のフロー図である。図13を参照して本実施形態の統合判定処理S30を説明する。
統合判定部41は、図10のステップS300と同様にして全ての部位検出情報32に対して相対基準点を算出し、算出した相対基準位置を当該部位検出情報32に追記する(S350)。
次に、統合判定部41は、部位検出情報32に対して相対基準点及び倍率に注目したクラスタリングを行なうことで、相対基準点及び倍率が略同一の部位検出情報32をグループ化する(S351)。
統合判定部41は、処理S351にて生成した各グループを順次、注目グループに設定し(S352)、全てのグループに対してステップS353〜S361の処理を繰り返すループ処理を実行する。
グループのループ処理にて、統合判定部41は注目グループに対する集計値を0に初期化する(S353)。また統合判定部41は、注目グループに属する部位検出情報32のうち部位が同一の部位検出情報32を1つにまとめる(S354)。すなわち統合判定部41は、これら複数の部位検出情報32に含まれる検出位置、相対基準点、検出度及び倍率それぞれの平均値を算出し、同一であった部位の部位IDと各平均値とを組にした新たな部位検出情報32を生成して記憶部3に記憶させる。また、元の部位検出情報32を記憶部3から削除する。この集約処理により同一部位の重複集計が回避される。
しかる後、統合判定部41は、注目グループ内の部位検出情報32を順次、注目検出情報に設定し(S355)、注目グループ内の全ての部位検出情報32に対してステップS356〜S358のループ処理を行う。
注目グループ内のループ処理にて、統合判定部41は、部位情報30の階層関係を参照して、注目検出情報の部位IDが示す部位を包含する上位部位の部位IDが注目グループ内の注目検出情報以外の部位検出情報32に記録されていないか確認する(S356)。注目検出情報が示す部位を包含する他の部位がない場合(S356にて「YES」)、統合判定部41は、部位情報30から注目検出情報が示す部位の大きさを読み出して、当該大きさを集計値に加算する(S357)。一方、注目検出情報が示す部位を包含する他の部位がある場合(S356にて「NO」)、ステップS357は省略される。包含部位を集計から排除する処理によって、検出の信頼性が高い大きな部位を優先した集計が可能となり、また複数の部位に対する重複集計が排除される。
こうして注目グループ内の全ての部位検出情報32に対する処理を終えると(S358にて「YES」)、注目グループに関する大きさの集計値の算出が終わる。
続いて、統合判定部41は、集計値を検知閾値Tdと比較し(S359)、集計値がTdより大きければ(S359にて「Yes」)、注目グループの位置に対象物が存在するとして、注目グループの部位検出情報32に含まれている対象物位置の平均値と集計値とからなる対象物検知情報を生成して記憶部3に記憶させる(S360)。一方、集計値がTd以下のときは(S359にて「NO」)、注目グループの位置に対象物は存在しないとして、ステップS360は省略される。
以上の処理を全てのグループに対して終えると(S361にて「YES」)、統合判定処理S30は終了して、第1の実施形態と同様、画像監視処理は対象物の検知の有無に応じて(S40)、警報処理を行う(S50)。