JP6309913B2 - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP6309913B2
JP6309913B2 JP2015073962A JP2015073962A JP6309913B2 JP 6309913 B2 JP6309913 B2 JP 6309913B2 JP 2015073962 A JP2015073962 A JP 2015073962A JP 2015073962 A JP2015073962 A JP 2015073962A JP 6309913 B2 JP6309913 B2 JP 6309913B2
Authority
JP
Japan
Prior art keywords
semi
fixed object
background image
image
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015073962A
Other languages
English (en)
Other versions
JP2016194779A (ja
Inventor
直也 大島
直也 大島
功 ▲高▼橋
功 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2015073962A priority Critical patent/JP6309913B2/ja
Publication of JP2016194779A publication Critical patent/JP2016194779A/ja
Application granted granted Critical
Publication of JP6309913B2 publication Critical patent/JP6309913B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)

Description

本発明は、所定の空間を撮影した撮影画像から人などの物体を検出する物体検出装置に関し、特に当該空間を模した環境モデルから生成した背景画像を撮影画像と比較することによって物体を検出する物体検出装置に関する。
防犯等の目的で、監視空間を撮影した撮影画像を背景差分処理あるいは背景相関処理して、監視空間に現れた人や不審物などの物体を検出する技術が知られている。これらの処理においては、人や不審物が写っていない背景画像を生成し、随時更新する必要がある。ところが、イベント会場など多くの人が行き交う混雑空間においては人や不審物が写っていないシーンの出現頻度が低いため、背景画像の生成・更新が困難化する。
そこで、従来、人と人の隙間などに断続的に撮影される背景をその時間頻度に着目して選出することによって混雑空間においても背景画像を生成・更新していた。
特開2012−203680号公報
しかしながら、時間頻度に着目する従来技術では混雑空間においてテーブルや扉などの半固定物の位置または/および姿勢が変更されたときに背景画像を即座に追従できない問題があった。
そのため、背景の領域においても半固定物の位置姿勢変更による差分や相関値低下が生じ、背景である半固定物の領域を人や不審物によるものと誤検出してしまう問題があった。
本発明は上記問題を鑑みてなされたものであり、混雑空間において半固定物の位置姿勢変更が生じても背景画像を即時に追従させ、当該空間に現れた固定物以外且つ半固定物以外の物体を高精度に検出することができる物体検出装置を提供することを目的とする。
かかる課題を解決するために、本発明は、所定の空間に固定設置された固定物の三次元情報と、空間において位置姿勢を変更可能に設置された半固定物の三次元情報を記憶した環境モデル記憶手段と、空間を撮影して撮影画像を出力するカメラと、固定物の三次元情報および半固定物の三次元情報をカメラの撮影面にレンダリングして背景画像を生成する背景画像生成手段と、撮影画像を背景画像と比較して、変更された半固定物の位置姿勢を検出する半固定物監視手段と、環境モデル記憶手段に記憶した半固定物の三次元情報における位置姿勢を半固定物監視手段が検出した位置姿勢に更新する環境モデル更新手段と、撮影画像と背景画像を比較して空間に現れた固定物以外且つ半固定物以外の物体を検出する物体検出手段と、を備えたことを特徴とする物体検出装置を提供する。
また、半固定物監視手段は、背景画像と撮影画像との間で互いに画像特徴が類似する背景画像側の特徴点および撮影画像側の特徴点を検出し、当該撮影画像側の特徴点の位置から半固定物の位置姿勢を検出することが好ましい。
また、半固定物監視手段は、半固定物の位置姿勢を試行的に変更した半固定物の三次元情報および固定物の三次元情報をカメラの撮影面にレンダリングして複数の変更背景画像を生成し、撮影画像と最も一致する変更背景画像に対応する半固定物の位置姿勢を検出することが好ましい。
また、物体検出手段は、撮影画像を複数の小領域に区分して小領域ごとに撮影画像の代表特徴量と背景画像の代表特徴量の相違度を算出し、相違度が所定値以上である小領域に物体が存在すると判定することが好ましい。
本発明によれば、所定の空間において半固定物の位置姿勢変更が生じても当該空間の背景画像を即時に追従させることができる。そのため、当該空間に現れた固定物以外且つ半固定物以外の物体を高精度に検出することが可能となる。
本発明の実施形態に係る監視カメラシステムの概略の構成を示すブロック図である。 物体検出装置の機能ブロック図である。 環境モデルを模式的に例示した図である。 環境モデルのデータ例である。 監視カメラシステムの動作を示すフローチャートである。 第一実施形態に係る半固定物監視処理のフローチャートである。 第一実施形態に係る半固定物監視処理および環境モデル更新処理の様子を模式的に例示した図である。 物体検出処理のフローチャートである。 物体検出処理の様子を模式的に例示した図である。 第二実施形態に係る半固定物監視処理のフローチャートである。
以下、本発明の実施形態として、本発明の物体検出装置を用いて監視カメラの撮影画像に写った人の領域を検出し、検出した領域にプライバシー保護処理を施した撮影画像を表示する監視カメラシステムの例を説明する。この監視カメラシステムは、監視カメラが撮影する監視空間の環境モデルを利用してテーブル等の半固定物の位置姿勢変更に適合した背景画像を生成し、当該背景画像を撮影画像と比較することによって人の領域を検出する物体検出装置の例を含む。
<第一実施形態>
第一実施形態においては、監視カメラシステム1に含まれる物体検出装置が、オプティカルフロー分析により半固定物の位置姿勢変更を検出し、検出した位置姿勢変更に応じて環境モデルを更新することにより、半固定物の位置姿勢変更が生じても背景画像を即座に追従させて物体を検出する。
[監視カメラシステム1の構成]
図1は監視カメラシステム1の概略の構成を示すブロック図である。監視カメラシステム1は、カメラ2、記憶部3、画像処理部4、出力部5およびユーザーインターフェース部6からなる。
カメラ2はいわゆる監視カメラである。カメラ2は、画像処理部4と接続され、所定の空間を撮影して撮影画像を生成し、撮影画像を画像処理部4に入力する。例えば、カメラ2は、イベント会場内に設定した各監視空間の天井に当該監視空間を俯瞰する視野に固定された状態で設置され、当該監視空間を所定時間間隔で撮影し、撮影画像を順次入力する。
記憶部3は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部3は、画像処理部4と接続されて画像処理部4との間でこれらの情報を入出力する。
画像処理部4は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置で構成される。画像処理部4は、記憶部3および出力部5と接続され、記憶部3からプログラムを読み出して実行することにより各種処理・制御手段として動作し、各種データを記憶部3に記憶させ、読み出す。また、画像処理部4は、カメラ2および出力部5とも接続され、カメラ2からの撮影画像を処理し、処理結果を出力部5に出力する。さらに、画像処理部4は、ユーザーインターフェース部6とも接続され、ユーザーからの操作入力を受け付ける。
出力部5は、画像処理部4と接続され、画像処理部4の処理結果を外部出力する。例えば、出力部5は、ディスプレイ装置であり、マスク処理後の撮影画像を表示する。
ユーザーインターフェース部6は、キーボード、マウス、ディスプレイ等からなるユーザーインターフェース機器である。例えば、ユーザーインターフェース部6は、設置業者などのユーザーにより使用され、カメラパラメータなどの入力作業に用いられる。
[物体検出装置の機能]
次に、監視カメラシステム1が備える物体検出装置としての機能について説明する。
図2は物体検出装置の機能ブロック図である。物体検出装置において、記憶部3は環境モデル記憶手段30およびカメラ情報記憶手段31等として機能し、画像処理部4は背景画像生成手段41、カメラ情報入力手段40、半固定物監視手段42、環境モデル更新手段43および物体検出手段44等として機能する。
以下、図2〜図4を参照して各手段について説明する。
環境モデル記憶手段30は、カメラ2が撮影する監視空間を構成する複数の構成物の三次元情報からなる当該監視空間の環境モデルを予め記憶している。
構成物は、例えば、壁、床、ドアなどの建築構造物、棚、テーブル、椅子などの什器であり、監視空間を監視する観点において当該監視空間に存在すべきとされる常設物体である。各構成物には当該構成物を識別する構成物番号を予め付与しておく。
構成物には、壁、床、棚のように監視中に動かされないと想定した固定物、およびドア、テーブル、椅子のように基本的には静止しているものの監視中に動かされ得ると想定した半固定物が含まれる。これに対応し、環境モデル記憶手段30は、固定物であることを識別する属性が付与された固定物の三次元情報、および半固定物であることを識別する属性が付与された半固定物の三次元情報を記憶している。
各固定物の三次元情報は、監視空間を模したXYZ座標系における当該各固定物の位置、姿勢、立体形状にて表される三次元座標値、および各構成物の表面の色、テクスチャ、反射率にて表される反射特性のデータを含み、これらのデータが対応する構成物番号と紐付けて記憶されている。
各半固定物の三次元情報は、監視空間を模したXYZ座標系における当該各半固定物の位置、姿勢、立体形状にて表される三次元座標値、各構成物の表面の色、テクスチャ、反射率にて表される反射特性、および変動許容範囲のデータを含み、これらのデータが対応する構成物番号と紐付けて記憶されている。各半固定物の位置、姿勢は更新可能であり、変動許容範囲は当該半固定物の位置、姿勢が監視中に変動し得る範囲の想定値である。
環境モデルは、建築設計時に作成されたIFC(Industry Foundation Classes)規格の建物データ、三次元CADデータあるいは三次元計測器で計測した実計測データに、固定物/半固定物の属性や変動許容範囲などのデータをユーザーインターフェース部6から入力されたデータを付加することにより予め生成され、記憶される。
このように環境モデル記憶手段30は、所定の空間に固定設置された固定物の三次元情報と、前記空間に配置された配置変更可能な半固定物の三次元情報を記憶している。
図3は環境モデル700を模式的に表した図の例である。監視空間を構成する床701、壁702、壁703、棚704、テーブル705にはそれぞれ構成物番号#1、#2、#3、#4、#5が付与されている。各構成物の三次元情報はそれぞれのXYZ座標系における三次元座標値により監視空間を立体的に模擬している。
図4は図3に対応する環境モデルのデータ例である。図4(a)に示す情報750は固定物の三次元情報751および半固定物の三次元情報の一部752のデータ例である。また、図4(b)は半固定物の三次元情報の別の一部である変動許容範囲760のデータ例である。
例えば、構成物番号#1の三次元情報は、床701が、立体形状が幅400cm、奥行き200cm、高さ10cmの直方体であり、XYZ座標(0,0,−10)が表す位置に、ピッチ0度、ロール0度、ヨー0度の姿勢で設置されており、その表面の色は白、テクスチャは無地、反射特性がBの固定物であることを表している。
また、例えば、構成物番号#5の三次元情報は、テーブル705が、立体形状が幅160cm、奥行き100cm、高さ80cmの立体αであり、XYZ座標(100,300,0)が表す位置に、ピッチ0度、ロール0度、ヨー0度の姿勢で設置されており、その表面の色は茶、テクスチャは木目、反射特性がCの半固定物であることを表している。また立体αの情報としてテーブルの板および4つの脚からなる立体図形と当該立体図形へのリンクが環境モデル700に記憶されている。
そして、監視空間のXYZ座標系において、構成物番号が#5であるテーブル705の位置はX座標Xmin以上Xmax以下の範囲、Y座標Ymin以上Ymax以下の範囲、Z座標Zmin以上Zmax以下の範囲で変動し得、テーブル705の姿勢はピッチ角θmin以上θmax以下の範囲、ロール角φmin以上φmax以下の範囲、ヨー角Ψmin以上Ψmax以下の範囲で変動し得ることが記憶されている。
さらに環境モデルには壁702、壁703、棚704のそれぞれに対応する構成物番号#2、#3、#4の三次元情報が含まれる。
カメラ情報記憶手段31は監視空間を模したXYZ座標系におけるカメラ2のカメラパラメータを予め記憶している。カメラパラメータは外部パラメータと内部パラメータからなる。外部パラメータはXYZ座標系におけるカメラ2の位置姿勢である。内部パラメータはカメラ2の焦点距離、中心座標、歪係数などである。カメラパラメータは事前のキャリブレーションによって計測され、ユーザーインターフェース部6を介して入力され、カメラ情報記憶手段31に記憶される。このカメラパラメータをピンホールカメラモデルに適用することによってXYZ座標系の座標をカメラ2の撮影面を表すxy座標系に変換できる。
カメラ情報入力手段40は、カメラ情報記憶手段31からカメラパラメータを読み出して、読み出したカメラパラメータを背景画像生成手段41および半固定物監視手段42に入力する。
背景画像生成手段41は、環境モデル記憶手段30から環境モデルを読み出し、カメラ情報入力手段40から入力されたカメラパラメータにより求まるカメラ2の撮影面に環境モデルをレンダリングすることによって監視空間の背景画像を仮想的に生成し、生成した背景画像を半固定物監視手段42および物体検出手段44に入力する。
半固定物監視手段42は、カメラ2から入力された撮影画像を背景画像生成手段41が生成した背景画像と比較して半固定物の位置姿勢変更を検出し、検出した位置姿勢変更の情報を環境モデル更新手段43に入力する。また、半固定物監視手段42は検出に際してカメラ情報入力手段40から入力されたカメラパラメータを利用する。
位置姿勢変更の情報とは、位置姿勢変更が検出された半固定物の構成物番号およびその移動量である。半固定物監視手段42による処理の詳細は後述する。
環境モデル更新手段43は、半固定物監視手段42が半固定物の位置姿勢変更を検出した場合に、環境モデル記憶手段30に記憶した半固定物の三次元情報を半固定物監視手段42が検出した位置姿勢変更に応じて更新する。
すなわち環境モデル更新手段43は、位置姿勢変更の情報に含まれた構成物番号で特定される半固定物の位置および姿勢に、位置姿勢変更の情報に含まれた位置及び姿勢を上書きすることによって、半固定物の三次元情報を更新する。環境モデル更新手段43による処理の詳細は後述する。
物体検出手段44は、カメラ2から入力された撮影画像と背景画像生成手段41が生成した背景画像を比較してカメラ2が撮影する空間に現れた固定物および半固定物以外の物体を検出する。検出される物体は例えば監視空間に現れた人物などである。
ここで、環境モデルから生成した背景画像は三次元情報におけるテクスチャの微小な誤差を含み得る。そのため、物体検出手段44は、複数の近傍画素をまとめた小領域単位で比較を行う。小領域は、撮影画像を格子状に分割した各ブロックとすることもできるが、人物等の形状をより高精度に検出するためにスーパーピクセルとすることが望ましい。
すなわち、物体検出手段44は、撮影画像を画素値が類似する近傍画素どうしをまとめた複数の小領域に区分して小領域ごとに撮影画像の代表特徴量と背景画像の代表特徴量の相違度を算出し、相違度が予め定めた閾値T1(第一所定値)以上である小領域に構成物以外の物体が存在すると判定する。
代表特徴量は例えば各小領域の平均画素値および画素値の分散とすることができる。この場合、撮影画像と背景画像のそれぞれから算出した平均画素値どうしの差、画素値の分散どうしの差を予め定めた重みで重みづけて加算した重みづけ和を相違度とすることができる。或いは環境によっては平均画素値のみ、エッジ密度のみを代表特徴量としてもよい。また、画素値は色でもよく、或いは濃淡値でもよい。
ここで、構成物の手前に当該構成物と色が類似する服を着た人物などが存在する場合、画素値の代表特徴量のみでは検出対象物体の一部を検出し損ねる場合がある。そこで物体検出手段44は、閾値T1による小領域の検出に加えて、予め定めた閾値T2(第二所定値)以上の有意なエッジ差分が検出された小領域において閾値T1よりも低く定めた閾値T3(第三所定値)以上である小領域にも構成物以外の物体が存在すると判定する。このように画素値の特徴量とエッジの特徴量の両方を評価することで、構成物の手前に当該構成物と画像の複雑度が類似する検出対象物体が存在しても、構成物の手前に当該構成物と色が類似する検出対象物体が存在しても高精度な検出が可能となる。
物体検出手段44が撮影画像の処理を終えると、画像処理部4は、撮影画像に、物体検出手段44が検出した物体の領域をマスクする処理を施して、マスク処理後の撮影画像を出力部5に入力する。
[監視カメラシステム1の動作]
次に、図5〜図9を参照して、物体検出装置としての動作を含めた監視カメラシステム1の動作を説明する。
図5は監視カメラシステム1の動作を示すフローチャートである。画像処理部4は、カメラ2が撮影画像を生成するたびにステップS1〜S10の処理を繰り返す。
カメラ2は、撮影を行うと、生成した撮影画像を背景画像生成手段41に入力する(S1)。
撮影画像を入力された背景画像生成手段41は、環境モデル記憶手段30から環境モデルを読み出し、さらにカメラ情報入力手段40にカメラ2のカメラパラメータを入力させ、カメラパラメータにより導出されるカメラ2の撮影面に環境モデルをレンダリングして背景画像を生成し、生成した背景画像を半固定物監視手段42に入力する(S2)。このとき、ステップS1にて生成された撮影画像も半固定物監視手段42に入力される。
背景画像および撮影画像を入力された半固定物監視手段42は、これらを比較して半固定物の位置姿勢変更を検出する半固定物監視を行う(S3)。
図6のフローチャートを参照して半固定物監視処理を説明する。
まず半固定物監視手段42は撮影画像から特徴点を抽出する(S30)。例えば、半固定物監視手段42は、撮影画像にヘッシアン・ラプラス(Hessian-Laplace)・ディテクタを適用してブロッブ(blob)を抽出する。ブロッブは画像の特徴点の一つであり、輝度の極大点及び極小点に対応してブロッブが抽出され、当該ブロッブに対応する撮影画像の画像特徴として特徴点の座標と当該座標を中心とする局所領域の輝度分布が求められる。ブロッブに代えてSIFT(Scale-Invariant Feature Transform)、ハリス・コーナー(Harris Corner)など他の公知の特徴点を抽出してもよい。抽出した特徴点はステップS36で用いられる。
次に半固定物監視手段42は、カメラ情報入力手段40にカメラ2のカメラパラメータを入力させ(S31)、環境モデル記憶手段30から半固定物の三次元情報を読み出し(S32)、半固定物を順次注目半固定物に設定してステップS33〜S40のループ処理を実行する。
ループ処理において、まず半固定物監視手段42は、撮影面における注目半固定物領域と変動許容範囲を算出する(S34)。
具体的には半固定物監視手段42は、カメラパラメータを用いて監視空間を模したXYZ座標系におけるカメラ2の撮影面を算出し、当該撮影面に注目半固定物の三次元情報をレンダリングして撮影面における注目半固定物領域を算出し、当該撮影面に変動許容範囲内の各位置と各姿勢に配置した注目半固定物の三次元情報をレンダリングして撮影面における変動許容範囲を算出する。なお本実施形態においてカメラ2の視野は固定されているため、変動許容範囲の算出は一度行えばよい。すなわち半固定物監視手段42は初回に算出した変動許容範囲を記憶部3に記憶させ、次回以降は記憶部3から変動許容範囲を読み出すことで計算を省略できる。
続いて半固定物監視手段42は、背景画像から注目半固定物領域内の特徴点を抽出する(S35)。例えば、半固定物監視手段42は、背景画像にヘッシアン・ラプラス・ディテクタを適用してブロッブを抽出し、ブロッブの座標と当該座標を中心とする局所領域の輝度分布を求める。特徴点はステップS30で述べたように別の特徴点を用いることもできるが、ステップS30で抽出する特徴点とステップS35で抽出する特徴点は同種のものとする。
続いて半固定物監視手段42は、変動許容範囲内から背景画像の特徴点と対応する撮影画像の特徴点を検出する(S35)。すなわち半固定物監視手段42は、背景画像と撮影画像との間で互いに画像特徴が類似する背景画像側の特徴点及び撮影画像側の特徴点を検出する。
具体的には半固定物監視手段42は、撮影画像の変動許容範囲内にて背景画像側の各特徴点の画像特徴と最も類似度の高い画像特徴を有する位置を探索し、当該位置を撮影画像側の特徴点として検出する。この探索にはルーカス・カナデ(Lucas-Kanade)法など種々の最急降下法が適用可能である。なお誤対応を排除するために類似度が予め設定した閾値より低い特徴点は検出から除外する。
続いて半固定物監視手段42は、ステップS35にて対応関係を検出した特徴点対の数が予め定めた閾値T0以上であるか否かを確認する(S37)。T0は6以上の値であり、ステップS38の計算に必要な特徴点対の数を意味する。半固定物の特徴点対の数の低下は人物などによるオクルージョンの影響で一時的に生じ得る。
特徴点対の数がT0以上の場合(S37にてYes)、半固定物監視手段42は、カメラパラメータを用いて、対応が検出された撮影画像側の特徴点に対応するXYZ座標系の三次元座標に変換することによって、変更された半固定物の位置姿勢を算出する(S38)。
具体的には半固定物監視手段42は、背景画像側の特徴点から撮影画像側の特徴点へのベクトルを三次元ベクトル(位置姿勢変更量)に変換してから、当該位置姿勢変更量を環境モデル記憶手段30に記憶されている注目半固定物の位置姿勢に加算することによって当該三次元座標を算出する。
すなわち、まず半固定物監視手段42は、背景画像側の各特徴点(u,v)から対応する撮影画像側の各特徴点(u,v)へのベクトルとの間で平均的に次式の関係を満たす三次元の位置変更量(ΔX,ΔY,ΔZ)と三次元の姿勢変更量(Δθ,Δφ,ΔΨ)を最小二乗法等により導出する。
Figure 0006309913
Figure 0006309913
Figure 0006309913
ただし、sは式(1)左辺の第3行を1に正規化するためスケール係数でありスカラ値である。Aはカメラ2の内部パラメータであり3×3行列である。Rは3×3の回転行列であり、姿勢変更量の三角関数となっている。tは平行移動量であり位置変更量を表す3×1の行列である。(X,Y,Z)は背景画像側の特徴点の三次元座標であり、背景画像側の特徴点をXYZ座標系に逆投影することによって求める。
続いて半固定物監視手段42は、環境モデル記憶手段30から読み出した半固定物の三次元情報に含まれる位置および姿勢に位置変更量および姿勢変更量を加算する。すなわち、半固定物監視手段42は、読み出した位置(X,Y,Z)に位置変更量(ΔX,ΔY,ΔZ)を加算して変更後の位置(X+ΔX,Y+ΔY,Z+ΔZ)を算出し、読み出した姿勢(θ,φ,Ψ)に姿勢変更量(Δθ,Δφ,ΔΨ)を加算して変更後の姿勢(θ+Δθ,φ+Δφ,Ψ+ΔΨ)を算出する。
そして半固定物監視手段42は、算出した位置姿勢に注目半固定物の構成物番号を対応付けた位置姿勢変更情報を生成する。
他方、特徴点対の数がT0未満の場合(S37にてNo)、環境モデルの更新を次の撮影以降まで保留するために注目半固定物の位置変更量、姿勢変更量を0とみなす(S39)。
続いて半固定物監視手段42は、読み出した半固定物を全て処理し終えたか否かを確認し(S40)、未処理の半固定物があれば(ステップS40にてNo)、処理をステップS33に戻してループ処理を続ける。
他方、全ての半固定物を処理し終えると(ステップS40にてYes)、半固定物監視手段42は、各半固定物について生成した位置姿勢変更情報を環境モデル更新手段43に入力して処理を図5のステップS4に進める。
図5のフローチャートに戻り、環境モデル更新手段43は、半固定物監視手段42から入力された位置姿勢変更情報を参照して、半固定物の位置姿勢変更が検出されたか否かを確認する(S4)。検出された場合(S4にてYes)、環境モデル更新手段43は環境モデルの更新を行う(S5)。
具体的には、環境モデル更新手段43は、位置姿勢変更情報に含まれた構成物番号が示す半固定物の三次元情報を環境モデル記憶手段30から読み出し、当該三次元情報の位置および姿勢を位置姿勢変更情報に含まれた当該半固定物の位置および姿勢に置換して、半固定物の三次元情報を環境モデル記憶手段30に上書きする。なお、複数の半固定物の位置姿勢変更情報が入力された場合はそれぞれの半固定物について更新を行う。
環境モデルを更新した環境モデル更新手段43は、背景画像生成手段41に更新の旨を伝達し、背景画像生成手段41は背景画像の再生成を行う(S6)。すなわち、背景画像生成手段41は環境モデル記憶手段30から更新後の環境モデルを読み出し、カメラ情報入力手段40から入力されたカメラパラメータにより求まるカメラ2の撮影面に環境モデルをレンダリングすることによって監視空間の背景画像を生成し直し、生成し直した背景画像を物体検出手段44に入力する。
他方、半固定物の位置姿勢変更が検出されなかった場合(S4にてNo)、ステップS5,S6はスキップされる。
背景画像および撮影画像を入力された物体検出手段44は、これらを比較して、監視空間に現れた構成物以外の物体すなわち固定物でも半固定物でもない物体の検出を行う(S7)。
図7は半固定物監視処理および環境モデル更新処理の様子を模式的に示した図の例である。
画像800は更新前の環境モデルをカメラ2の撮影面にレンダリングすることによって生成した背景画像である。画像810はカメラ2が撮影した撮影画像である。
背景画像800にレンダリングされた棚801は動かされ、撮影画像810には位置姿勢の異なる棚の像811が結像されている。このまま背景画像800と撮影画像810を比較すると元の棚の領域と移動後の棚の領域に物体が検出されてしまう。
画像820は特徴点の対応付けの様子を表している。
画像820の黒点は特徴点を表している。半固定物監視手段42は、背景画像800において棚801の領域内から複数の特徴点を抽出し、特徴点821などを得る。
画像820の矢印は特徴点の移動量を表している。半固定物監視手段42は、背景画像800側の特徴点と画像特徴が類似する撮影画像810側の特徴点を検出する。これにより、例えば、特徴点821と特徴点822の対応関係が得られ、二次元画像中での棚800の特徴点821の変更量ベクトル823が得られる。
こうして特徴点の対応関係が得られると、半固定物監視手段42は、二次元画像中で得られた特徴点の変更量ベクトルを三次元空間における変更後の棚の位置姿勢を算出し、算出した棚の位置姿勢を含めた位置姿勢変更情報を環境モデル更新手段43に入力する。
これを受けた環境モデル更新手段43は、位置姿勢変更情報が示す位置と姿勢に環境モデルにおける棚の位置と姿勢を更新する。背景画像生成手段41が更新後の環境モデルをレンダリングすると撮影画像810と棚の位置が一致した背景画像830が生成される。
図8のフローチャートを参照して物体検出処理を説明する。
まず物体検出手段44は、撮影画像を複数の小領域に区分する(S70)。例えば、物体検出手段44はSLIC(Simple Linear Iterative Clustering)法を用いて撮影画像をスーパーピクセルに区分する。またはこの方法以外にも公知である種々のクラスタリング法で区分することができる。
次に物体検出手段44は、撮影画像と背景画像生成手段41が生成した背景画像の間で各小領域における代表特徴量の相違度を算出する(S71)。代表特徴量は例えば平均画素値および画素値の分散とすることができる。すなわち物体検出手段44は、各小領域における撮影画像の平均画素値と画素値の分散および各小領域における各背景画像の平均画素値と画素値の分散を算出する。物体検出手段44は、小領域ごとに、撮影画像の平均画素値と各背景画像の平均画素値との差と、撮影画像の分散と各背景画像の分散との差の重みづけ和を相違度として算出する。
次に物体検出手段44は、ステップS71で算出した相違度が閾値T1以上である小領域を構成物以外の物体が存在する物体領域として検出する(S72)。
続いて物体検出手段44は、撮影画像と背景画像の間でエッジ差分を検出し(S73)、エッジ差分が検出され、且つステップS71で算出した相違度が閾値T3(<T1)以上である小領域を構成物以外の物体が存在する物体領域として追加検出する(S74)。
以上の処理を終えた物体検出手段44は、ステップS72で検出した小領域およびステップS74で検出した小領域の和領域を構成物以外の物体が存在する物体領域として画像処理部4に出力し、処理を図5のステップS8に進める。
図5のステップS8において画像処理部4は、物体検出手段44の出力を参照して固定物以外かつ半固定物以外である物体の存在が判定されたか否かを確認する(S8)。
固定物以外かつ半固定物以外である物体の存在が判定された場合(S8にてYes)、画像処理部4は物体領域を単一色で塗りつぶしてプライバシーマスクを生成し(S9)、撮影画像にプライバシーマスクを重畳したマスク画像を出力部5に出力して該画像を表示させる(S10)。他方、物体の存在が判定されなかった場合(S8にてNo)、ステップS9をスキップして撮影画像をそのまま表示させる。
図9は物体検出処理の様子を模式的に示した図の例である。
撮影画像900は図7にて例示した撮影画像810であり、2人の人物901,902が移動された棚903とともに撮影されている
背景画像910は図7にて例示した更新後の背景画像830であり、棚911はその移動量だけ更新されている。
物体検出手段44は、撮影画像900と半固定物である棚の移動に追従して更新された背景画像910を比較することにより、また、スーパーピクセル単位でこれらを比較することにより、人物901の領域921と人物902の領域922,923を精度良く検出できている。
以上で説明したように監視カメラシステム1が備える物体検出装置は、背景画像生成手段が固定物の三次元情報および半固定物の三次元情報をカメラの撮影面にレンダリングして背景画像を生成することによって混雑空間においても背景画像の生成を可能とし、物体検出手段が撮影画像と背景画像を比較して空間に現れた固定物以外かつ半固定物以外の物体を検出するので混雑空間においても物体を精度良く検出できる。また、この物体検出装置は、半固定物監視手段が撮影画像を背景画像と比較して変更された半固定物の位置姿勢を検出し、環境モデル更新手段が半固定物の三次元情報における当該半固定物の位置姿勢を半固定物監視手段が検出した位置姿勢に更新するので、半固定物の位置姿勢変更が生じても背景画像を即時に追従させて物体を精度良く検出できる。
また、以上で説明したように、半固定物監視手段は、背景画像と撮影画像との間で互いに画像特徴が類似する背景画像側の特徴点及び撮影画像側の特徴点を検出し、撮影画像側の特徴点から変更後の位置姿勢を検出する。つまり、半固定物の位置姿勢変更を検出するための探索処理を二次元画像上で行う。このように処理負荷の大きな三次元空間での探索処理を回避することによって、半固定物の位置姿勢変更が生じても少ない処理負荷で背景画像を即時に追従させて物体を精度良く検出できる。
<第二実施形態>
第一実施形態においては、半固定物監視手段42がオプティカルフロー分析により半固定物の位置姿勢変更を検出した。これに対して第二実施形態においては、半固定物監視手段42がモデルマッチング処理により半固定物の位置姿勢変更を検出する。
[第二実施形態に係る監視カメラシステム1の構成]
第二実施形態に係る監視カメラシステム1の概略構成は図1を参照して説明した第一実施形態と同様である。すなわち第二実施形態に係る監視カメラシステム1は、カメラ2、記憶部3、画像処理部4、出力部5およびユーザーインターフェース部6からなる。
[第二実施形態に係る物体検出装置の機能]
第二実施形態の監視カメラシステム1に含まれる物体検出装置の機能ブロック図は、基本的に、図2を参照して説明した第一実施形態の機能ブロック図と同様である。すなわち、第二実施形態に係る物体検出装置において、記憶部3は環境モデル記憶手段30およびカメラ情報記憶手段31等として機能し、画像処理部4は背景画像生成手段41、カメラ情報入力手段40、半固定物監視手段42、環境モデル更新手段43および物体検出手段44等として機能する。
このうち、環境モデル記憶手段30、カメラ情報記憶手段31、背景画像生成手段41、カメラ情報入力手段40、環境モデル更新手段43および物体検出手段44の処理は、第一実施形態と同様であるため、これらの説明は省略する。
一方、第二実施形態の物体検出装置における半固定物監視手段42は、第一実施形態における半固定物監視手段42と同様に、カメラ2から入力された撮影画像を背景画像生成手段41が生成した背景画像と比較して半固定物の位置姿勢変更を検出し、検出した位置姿勢変更の情報を環境モデル更新手段43に入力するが、その処理の詳細が相違する。
[第二実施形態に係る監視カメラシステム1の動作]
すなわち、図5を参照して説明した動作の、ステップS1,ステップS2,ステップS4〜S10の処理、図8を参照して説明したステップS7の物体検出処理は第一実施形態と同様であるため、その説明は省略する。
一方、第二実施形態の半固定物監視手段42が行うステップS3の半固定物監視処理は第一実施形態と相違する。
以下、図10のフローチャートを参照して、第二実施形態の半固定物監視手段42が行うステップS3の半固定物監視処理について説明する。
図5のステップS1にて生成された撮影画像と、図5のステップS2にて背景画像生成手段41が生成した背景画像が半固定物監視手段42に入力されると、図10の処理が開始される。
まず、半固定物監視手段42は、カメラ情報入力手段40にカメラ2のカメラパラメータを入力させ(S100)、環境モデル記憶手段30から環境モデルを読み出し(S101)、環境モデルに含まれる半固定物を順次、注目半固定物に設定してステップS102〜ステップS111のループ処理を実行する。
半固定物ごとのループ処理において、まず半固定物監視手段42は、注目半固定物の変動許容範囲内における撮影画像と背景画像の一致度を最大一致度に設定することにより最大一致度を初期化する(S103)。また半固定物監視手段42は、反復回数を計数するカウンタを1に初期化する。
具体的には半固定物監視手段42は、カメラパラメータを用いて監視空間を模したXYZ座標系におけるカメラ2の撮影面を算出し、当該撮影面に変動許容範囲内の各位置と各姿勢に配置した注目半固定物の三次元情報をレンダリングして撮影面における変動許容範囲を算出する。以下、撮影面における変動許容範囲すなわち二次元の範囲を、三次元の範囲と区別して変動許容領域と称する。
一致度は、例えば、色の一致度とすることができる。その場合、半固定物監視手段42は、撮影画像における変動許容領域の画素値の色ヒストグラムと、背景画像における変動許容領域の画素値の色ヒストグラムを算出してこれらの一致度を算出する。
また例えば、一致度は、エッジの一致度とすることもできる。その場合、半固定物監視手段42は、変動許容領域における撮影画像からHoG(Histograms of Oriented Gradients)特徴量を抽出するとともに変動許容領域における背景画像からHoG特徴量を抽出してこれらの一致度を算出する。
また例えば、半固定物監視手段42は、変動許容領域における撮影画像にソーベルフィルタ等のエッジオペレータを施してエッジを抽出するとともにから変動許容領域における背景画像からも同様にエッジを抽出し、変動許容領域をブロック分割して撮影画像と背景画像の間で対応する各ブロックにおける平均エッジ強度の差の累積値を算出し、累積値をブロック数で除した値の逆数を一致度として算出する。
また例えば、半固定物監視手段42は、上述した色の一致度とエッジの一致度を重み付け加算して総合一致度を算出する。
ステップS103で算出する一致度は、撮影画像中に写る注目半固定物以外による背景画像との誤差を含んだ値となっている。この値を最大一致度の初期値とし、半固定物の位置姿勢変更検出の判定基準とすることは、監視空間の状況に応じて動的に判定基準を設定することを意味している。このようにすることによって、監視空間に構造物以外の物体が存在しても、または他の半固定物に位置姿勢変更があっても各半固定物の位置姿勢変更を精度良く検出できる。
続いて半固定物監視手段42は、読み出した環境モデルにおいて注目半固定物の位置、姿勢を変動許容範囲内でランダムに変更する(S104)。すなわち半固定物監視手段42は、乱数に基づいてXmin以上Xmax以下のX座標値、Ymin以上Ymax以下のY座標値、Zmin以上Zmax以下のZ座標値、θmin以上θmax以下のピッチ角、φmin以上φmax以下のロール角、Ψmin以上Ψmax以下のヨー角を生成し、読み出した環境モデルにおいて注目固定物をこれらのパラメータが表す位置、姿勢に配置変更する。
続いて半固定物監視手段42は、ステップS104で変更した環境モデルをカメラ2の撮影面にレンダリングして背景画像(変更背景画像)を生成する(S105)。
続いて半固定物監視手段42は、注目半固定物の変動許容領域における撮影画像と変更背景画像の一致度を算出し(S106)、算出した一致度を反復における前回までの最大一致度と比較する(S107)。ここで算出する一致度はステップS103と同種の特徴量についての一致度である。
一致度がこれまでの最大一致度を超えていた場合(S107にてYes)、半固定物監視手段42は、最大一致度をステップS106で算出した一致度に置き換え、ステップS104で求めた位置、姿勢と対応付けて記憶部3に記録する(S108)。
他方、一致度がこれまでの最大一致度を以下の場合(S107にてNo)、ステップS108の処理はスキップする。
続いて半固定物監視手段42は、反復回数が予め定めた閾値T4以上であるかを確認する(S109)。すなわち反復が終了条件を満たしたか否かを確認する。T4は例えば数百程度の値とすることができる。
反復回数がT4未満であれば(ステップS109にてNo)、半固定物監視手段42は、反復回数を計数するカウンタを1だけ増加させて処理をステップS104に戻し、反復処理を継続する。
他方、反復回数がT4以上であれば(ステップS109にてYes)、半固定物監視手段42は、注目半固定物についての反復処理を終了し、注目半固定物の位置姿勢変更量を算出する。すなわち半固定物監視手段42は、最大一致度が算出された位置、姿勢と環境モデル記憶手段30に記憶されている注目半固定物の位置、姿勢の差を位置姿勢変更量として算出し、注目半固定物の構成物番号と位置姿勢変更量を含めた位置姿勢変更情報を生成する。
注目半固定物の反復処理を終えた半固定物監視手段42は、全ての半固定物について処理を終えたか否かを確認する(S111)。
未だ処理していない半固定物があれば(ステップS111にてNo)、半固定物監視手段42は、処理をステップS102に戻して次の半固定物を処理する。
他方、全ての半固定物について処理を終えたら(ステップS111にてYes)、半固定物監視手段42は、生成した位置姿勢変更情報を環境モデル更新手段43に入力して処理を図5のステップS4に進める。
以上で説明したように、第二実施形態に係る半固定物監視手段は、半固定物の位置姿勢を試行的に変更した半固定物の三次元情報および固定物の三次元情報をカメラの撮影面にレンダリングして複数の変更背景画像を生成し、撮影画像と最も一致する変更背景画像に対応する半固定物の位置姿勢を検出する。このように半固定物の全体像に基づいてその位置姿勢を検出することによって、半固定物の位置姿勢変更が生じても高精度な背景画像を即時に追従させて物体を精度良く検出できる。
上記各実施形態およびそれらの変形例においては、物体検出装置が人を検出する例を説明したが、検出対象は人に限らず空間に現れた構成物以外の各種物体を検出対象とすることができる。例えば、車両や動物などの各種移動物体、空間に持ち込まれた物品などを検出することもできる。
上記各実施形態およびそれらの変形例においては、物体検出装置の検出結果をプライバシーマスクの生成に用いる例を説明したが、物体検出装置の検出結果はこれに限らず、侵入検知、不審物の検知、物体の計数、移動物体の追跡など様々な用途に利用することができる。
1・・・監視カメラシステム
2・・・カメラ
3・・・記憶部
4・・・画像処理部
5・・・出力部
6・・・ユーザーインターフェース部
30・・・環境モデル記憶手段
31・・・カメラ情報記憶手段
40・・・カメラ情報入力手段
41・・・背景画像生成手段
42・・・半固定物監視手段
43・・・環境モデル更新手段
44・・・物体検出手段

Claims (4)

  1. 所定の空間に固定設置された固定物の三次元情報と、前記空間において位置姿勢を変更可能に設置された半固定物の三次元情報を記憶した環境モデル記憶手段と、
    前記空間を撮影して撮影画像を出力するカメラと、
    前記固定物の三次元情報および前記半固定物の三次元情報を前記カメラの撮影面にレンダリングして背景画像を生成する背景画像生成手段と、
    前記撮影画像を前記背景画像と比較して、変更された前記半固定物の位置姿勢を検出する半固定物監視手段と、
    前記環境モデル記憶手段に記憶した前記半固定物の三次元情報における位置姿勢を前記半固定物監視手段が検出した位置姿勢に更新する環境モデル更新手段と、
    前記撮影画像と前記背景画像を比較して前記空間に現れた前記固定物以外且つ前記半固定物以外の物体を検出する物体検出手段と、
    を備えたことを特徴とする物体検出装置。
  2. 前記半固定物監視手段は、前記背景画像と前記撮影画像との間で互いに画像特徴が類似する前記背景画像側の特徴点および前記撮影画像側の特徴点を検出し、当該撮影画像側の特徴点の位置から前記半固定物の位置姿勢を検出する請求項1に記載の物体検出装置。
  3. 前記半固定物監視手段は、前記半固定物の位置姿勢を試行的に変更した前記半固定物の三次元情報および前記固定物の三次元情報を前記カメラの撮影面にレンダリングして複数の変更背景画像を生成し、前記撮影画像と最も一致する変更背景画像に対応する前記半固定物の位置姿勢を検出する、請求項1に記載の物体検出装置。
  4. 前記物体検出手段は、前記撮影画像を複数の小領域に区分して前記小領域ごとに前記撮影画像の代表特徴量と前記背景画像の代表特徴量の相違度を算出し、前記相違度が所定値以上である小領域に前記物体が存在すると判定する、請求項1から3に記載の物体検出装置。
JP2015073962A 2015-03-31 2015-03-31 物体検出装置 Active JP6309913B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015073962A JP6309913B2 (ja) 2015-03-31 2015-03-31 物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015073962A JP6309913B2 (ja) 2015-03-31 2015-03-31 物体検出装置

Publications (2)

Publication Number Publication Date
JP2016194779A JP2016194779A (ja) 2016-11-17
JP6309913B2 true JP6309913B2 (ja) 2018-04-11

Family

ID=57323558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015073962A Active JP6309913B2 (ja) 2015-03-31 2015-03-31 物体検出装置

Country Status (1)

Country Link
JP (1) JP6309913B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6866182B2 (ja) * 2017-02-24 2021-04-28 アイホン株式会社 ベッド位置特定装置
JP6548686B2 (ja) * 2017-03-30 2019-07-24 セコム株式会社 画像比較装置
JP6851241B2 (ja) * 2017-03-31 2021-03-31 セコム株式会社 画像解析装置
KR102399673B1 (ko) 2017-06-01 2022-05-19 삼성전자주식회사 어휘 트리에 기반하여 객체를 인식하는 방법 및 장치
KR102434574B1 (ko) 2017-08-14 2022-08-22 삼성전자주식회사 이미지에 포함된 특징 포인트의 시간 또는 공간의 움직임에 기초하여 이미지에 존재하는 피사체를 인식하는 장치 및 방법
CN109977847B (zh) * 2019-03-22 2021-07-16 北京市商汤科技开发有限公司 图像生成方法及装置、电子设备和存储介质
WO2020251151A1 (ko) 2019-06-14 2020-12-17 고려대학교 산학협력단 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치
KR102387797B1 (ko) * 2019-06-14 2022-04-19 고려대학교 산학협력단 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치
CN117522925B (zh) * 2024-01-05 2024-04-16 成都合能创越软件有限公司 注意力机制下移动相机中判断物体运动状态方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3288575B2 (ja) * 1996-03-27 2002-06-04 三菱電機株式会社 撮像画像を用いた監視装置とそのモデル作成方法および撮像装置制御方法
JP2004362210A (ja) * 2003-06-04 2004-12-24 Nippon Telegr & Teleph Corp <Ntt> 物体追跡装置と方法、及びそのプログラムとそのプログラムを記録した記録媒体
JP5236607B2 (ja) * 2009-09-25 2013-07-17 セコム株式会社 異常検知装置
JP5300694B2 (ja) * 2009-11-10 2013-09-25 株式会社東芝 検出装置
JP5960471B2 (ja) * 2012-03-30 2016-08-02 セコム株式会社 画像監視装置
JP6046948B2 (ja) * 2012-08-22 2016-12-21 キヤノン株式会社 物体検知装置及びその制御方法、プログラム、並びに記憶媒体

Also Published As

Publication number Publication date
JP2016194779A (ja) 2016-11-17

Similar Documents

Publication Publication Date Title
JP6309913B2 (ja) 物体検出装置
JP6392756B2 (ja) 2次元画像シーケンスから正確な身体サイズ測定値を得るためのシステム及び方法
JP6352208B2 (ja) 三次元モデル処理装置およびカメラ校正システム
CN102834845B (zh) 用于多摄像装置校准的方法与装置
Diraco et al. An active vision system for fall detection and posture recognition in elderly healthcare
KR101819730B1 (ko) 3차원 객체 검출 및 자세추정 방법
CN110998659B (zh) 图像处理系统、图像处理方法、及程序
WO2019225547A1 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
JP5487298B2 (ja) 3次元画像生成
JP2015201850A (ja) 撮像装置のパラメータ推定方法
JP5035467B2 (ja) 立体性認証方法、立体性認証装置および立体性認証プログラム
JP2012221437A (ja) 物体認識装置および物体認識方法
JP2008537190A (ja) 赤外線パターンを照射することによる対象物の三次元像の生成
WO2016031314A1 (ja) 個人識別装置、個人識別方法、及び、個人識別プログラム
JP2018169831A (ja) 画像比較装置
Fleuret et al. Fixed point probability field for complex occlusion handling
JP6374812B2 (ja) 三次元モデル処理装置およびカメラ校正システム
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
Raghuraman et al. Evaluating the efficacy of RGB-D cameras for surveillance
Kropp et al. Object recognition in bim registered videos for indoor progress monitoring
US20210110561A1 (en) Systems and methods for millimeter wave estimation of body geometry
JPH0273471A (ja) 三次元形状推定方法
Yu et al. A sub-pixel stereo matching algorithm and its applications in fabric imaging
Alcoverro et al. Connected operators on 3d data for human body analysis
JP6548682B2 (ja) 対象物画像判定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180315

R150 Certificate of patent or registration of utility model

Ref document number: 6309913

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250