JP2016194778A - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP2016194778A
JP2016194778A JP2015073961A JP2015073961A JP2016194778A JP 2016194778 A JP2016194778 A JP 2016194778A JP 2015073961 A JP2015073961 A JP 2015073961A JP 2015073961 A JP2015073961 A JP 2015073961A JP 2016194778 A JP2016194778 A JP 2016194778A
Authority
JP
Japan
Prior art keywords
background image
image
component
camera
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015073961A
Other languages
English (en)
Other versions
JP6240116B2 (ja
Inventor
陽介 野中
Yosuke Nonaka
陽介 野中
豊 宮北
Yutaka Miyakita
豊 宮北
功 ▲高▼橋
功 ▲高▼橋
Isao Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2015073961A priority Critical patent/JP6240116B2/ja
Publication of JP2016194778A publication Critical patent/JP2016194778A/ja
Application granted granted Critical
Publication of JP6240116B2 publication Critical patent/JP6240116B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】混雑空間において照明の点消灯などの急激な照明変動が生じたときに背景画像を即座に追従できない問題があった。
【解決手段】背景画像記憶手段32は監視空間を構成する複数の構成物それぞれの三次元座標値と反射特性、および監視空間を照明する光源の位置と照明条件を含む環境モデルを、カメラ2の撮影面にレンダリングした背景画像を記憶しており、構成物領域記憶手段33は背景画像において構成物それぞれの三次元座標値に対応する構成物領域を記憶している。カメラ2が監視空間を撮影して撮影画像を生成すると、背景画像補正手段43は構成物領域それぞれにおける背景画像の画素値を当該構成物領域における撮影画像の画素値に応じて補正し、物体検出手段44は撮影画像を背景画像補正手段43が補正した背景画像と比較して監視空間に現れた構成物以外の物体を検出する。
【選択図】 図7

Description

本発明は、所定の空間を撮影した撮影画像から人などの物体を検出する物体検出装置に関し、特に当該空間を模した環境モデルから生成した背景画像を撮影画像と比較することによって物体を検出する物体検出装置に関する。
防犯等の目的で、監視空間を撮影した撮影画像を背景差分処理あるいは背景相関処理して、監視空間に現れた人や不審物などの物体を検出する技術が知られている。これらの処理においては、人や不審物が写っていない背景画像を生成し、随時更新する必要がある。
ところが、イベント会場など多くの人が行き交う混雑空間においては人や不審物が写っていないシーンの出現頻度が低いため、背景画像の生成・更新が困難化する。
そこで、従来、人と人の隙間などに断続的に撮影される背景をその時間頻度に着目して選出することによって混雑空間においても背景画像を生成・更新していた。
また、従来、移動体が検出されなかった領域(変化の小さい領域)における入力画像と背景画像の間の変化率を基に、移動体が検出された領域(変化の大きい領域)における背景画像の変化率を推定し、移動体が検出された領域においては背景画像に推定した変化率を乗じることによって背景画像を更新していた。
特開2012−203680号公報
特開平03−118677号公報
しかしながら、時間頻度に着目する従来技術では混雑空間において照明の点消灯、雲の通過による陰りなどの急激な照明変動が生じたときに背景画像を即座に追従できない問題があった。
そのため、背景の領域においても照明変動による差分や相関値低下が生じ、背景の領域を人や不審物によるものと誤検出してしまう問題があった。
また、監視空間は一般に壁、床、棚、路面および標識など複数の構成物からなり、照明変動による背景画像の画素値変化は構成物の凹凸、光源に対する向き、材質などに影響される。そのため、構成物が異なる領域の変化率を利用して背景画像を更新しても高精度な検出を実現することは困難であり、構成物ごとに画素値を調整する必要があった。
本発明は上記問題を鑑みてなされたものであり、混雑空間において急激な照明変動が生じても背景画像を即時に追従させ、当該空間に現れた物体を高精度に検出することができる物体検出装置を提供することを目的とする。
かかる課題を解決するために、本発明は、所定の空間を撮影して撮影画像を生成するカメラと、空間を構成する複数の構成物それぞれの三次元座標値と反射特性、および空間を照明する光源の位置と照明条件を含む環境モデルを、カメラの撮影面にレンダリングした背景画像を記憶している背景画像記憶手段と、背景画像において構成物それぞれの三次元座標値に対応する構成物領域を記憶している構成物領域記憶手段と、構成物領域それぞれにおける背景画像の画素値を当該構成物領域における撮影画像の画素値に応じて補正する背景画像補正手段と、撮影画像を背景画像補正手段が補正した背景画像と比較して空間に現れた構成物以外の物体を検出する物体検出手段と、を備えたことを特徴とする物体検出装置を提供する。
また、構成物領域記憶手段は、各構成物の構成物領域を三次元座標値から得られる当該構成物の構成面それぞれと対応する構成面領域に区分して記憶し、背景画像補正手段は、構成面領域それぞれにおける背景画像の画素値を当該構成面領域における撮影画像の画素値に応じて補正することが好ましい。
また、背景画像記憶手段は、照明条件を複数通りに変更して環境モデルそれぞれをレンダリングした照明条件ごとの背景画像を記憶し、背景画像補正手段は、照明条件ごとの背景画像のうち撮影画像との相違度が所定値以下である背景画像を補正することが好ましい。
また、物体検出手段は、撮影画像を複数の小領域に区分して小領域ごとに撮影画像の代表特徴量と背景画像の代表特徴量の相違度を算出し、相違度が第一所定値以上である小領域に物体が存在すると判定することが好ましい。
また、物体検出手段は、撮影画像を画素値が類似する近傍画素どうしをまとめた複数の小領域に区分して物体を検出することが好ましい。
また、本発明は、所定の空間を構成する複数の構成物それぞれの三次元座標値と反射特性、および空間を照明する光源の位置と照明条件を含む環境モデルを記憶した環境モデル記憶手段と、光源の照明条件を複数通りに変更する照明条件変更手段と、空間を撮影して撮影画像を生成するカメラと、環境モデルを照明条件変更手段が複数通りに変更した照明条件にてカメラの撮影面にレンダリングして照明条件ごとの背景画像を生成し、生成した背景画像の中から撮影画像との相違度が最も低い背景画像を選定することによって空間の背景画像を生成する背景画像生成手段と、撮影画像を背景画像と比較して空間に現れた構成物以外の物体を検出する物体検出手段と、を備えたことを特徴とする物体検出装置を提供する。
本発明によれば、所定の空間において急激な照明変動が生じても当該空間の背景画像を即時に追従させることができる。そのため、当該空間に現れた物体を高精度に検出することが可能となる。
本発明の実施形態に係る監視カメラシステムの概略の構成を示すブロック図である。 背景画像生成装置の機能ブロック図である。 環境モデルを模式的に表した図の例である。 環境モデルのデータ例である。 複数の照明条件にて生成された背景画像の例を示す図である。 構成物領域の例を示す図である。 第一実施形態に係る物体検出装置の機能ブロック図である。 背景画像補正処理の様子を模式的に例示した図である。 監視カメラシステムが背景画像生成装置として機能するときの動作を示すフローチャートである。 監視カメラシステムが物体検出装置としての機能を含んで動作するときのフローチャートである。 背景画像選定処理のフローチャートである。 補正画像生成処理のフローチャートである。 物体検出処理のフローチャートである。 第一実施形態の変形例に係る物体検出装置の機能ブロック図である。 第二実施形態に係る物体検出装置の機能ブロック図である。 第二実施形態に係る監視カメラシステムの動作を示すフローチャートである。 第二実施形態に係る監視カメラシステムの動作を示すフローチャートの続きである。 構成面領域の例を示す図である。
以下、本発明の実施形態として、本発明の物体検出装置を用いて監視カメラの撮影画像に写った人の領域を検出し、検出した領域にプライバシー保護処理を施した撮影画像を表示する監視カメラシステムの例を説明する。この監視カメラシステムは、監視カメラが撮影する監視空間の環境モデル(三次元モデルおよび照明モデル)を利用して監視空間の照明条件に適合した背景画像を生成し、当該背景画像を撮影画像と比較することによって人の領域を検出する物体検出装置の例を含む。
<第一実施形態>
第一実施形態においては、監視カメラシステム1に含まれる物体検出装置が、予め環境モデルから生成した背景画像等を記憶し、当該背景画像を撮影画像に応じて補正することにより、急激な照明変動が生じても背景画像を即座に追従させて物体を検出する。
[監視カメラシステム1の構成]
図1は監視カメラシステム1の概略の構成を示すブロック図である。監視カメラシステム1は、カメラ2、記憶部3、画像処理部4、出力部5およびユーザーインターフェース部6からなる。
カメラ2はいわゆる監視カメラである。カメラ2は、画像処理部4と接続され、所定の空間を撮影して撮影画像を生成し、撮影画像を画像処理部4に入力する。例えば、カメラ2は、イベント会場内に設定した各監視空間の天井に当該監視空間を俯瞰する視野に固定された状態で設置され、当該監視空間を所定時間間隔で撮影し、撮影画像を順次入力する。
記憶部3は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部3は、画像処理部4と接続されて画像処理部4との間でこれらの情報を入出力する。
画像処理部4は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置で構成される。画像処理部4は、記憶部3および出力部5と接続され、記憶部3からプログラムを読み出して実行することにより各種処理・制御手段として動作し、各種データを記憶部3に記憶させ、読み出す。また、画像処理部4は、カメラ2および出力部5とも接続され、カメラ2からの撮影画像を処理し、処理結果を出力部5に出力する。さらに、画像処理部4は、ユーザーインターフェース部6とも接続され、ユーザーからの操作入力を受け付ける。
出力部5は、画像処理部4と接続され、画像処理部4の処理結果を外部出力する。例えば、出力部5は、ディスプレイ装置であり、マスク処理後の撮影画像を表示する。
ユーザーインターフェース部6は、キーボード、マウス、ディスプレイ等からなるユーザーインターフェース機器である。例えば、ユーザーインターフェース部6は、設置業者などのユーザーにより使用され、カメラパラメータなどの入力作業に用いられる。
[背景画像生成装置の機能]
監視カメラシステム1は、物体検出装置としての機能を実行する以前に、環境モデルから背景画像等を生成してこれらを格納する背景画像生成装置として機能する。図2は背景画像生成装置の機能ブロック図である。背景画像生成装置において、記憶部3は環境モデル記憶手段30、カメラ情報記憶手段31、背景画像記憶手段32および構成物領域記憶手段33等として機能し、画像処理部4は照明条件変更手段40、カメラ情報入力手段41およびレンダリング手段42等として機能する。
以下、図2〜図6を参照して各手段について説明する。
環境モデル記憶手段30は、カメラ2が撮影する監視空間を構成する複数の構成物の三次元モデルおよび当該監視空間の照明モデルを含む環境モデルを予め記憶している。
環境モデルは、建築設計時に作成されたIFC(Industry Foundation Classes)規格の建物情報、三次元CADデータ等あるいは事前の実計測データから取得できる。
構成物は、例えば、壁、床、ドアなどの建築構造物、机や椅子などの什器であり、監視空間を監視する観点において当該監視空間に存在すべきとされる常設物体である。各構成物には当該構成物を識別する構成物番号を予め付与しておく。
三次元モデルは、監視空間を模したXYZ座標系における各構成物の位置、姿勢、立体形状にて表される三次元座標値および各構成物の表面の色、テクスチャ、反射特性のデータを含み、これらのデータが対応する構成物番号と紐付けて記憶されている。
なお、三次元モデルは精密であるほど良く、例えばドアであればドア板とドアノブ、机であれば天板と脚というように色、テクスチャおよび反射特性が異なるパーツそれぞれを構成物と定義して三次元モデルを記憶させておくのが好適である。他方、壁のように大きな構成物は各面の光源からの距離の差が大きくなるため各面を構成物と定義するのが好適である。
照明モデルは、監視空間を照明する1以上の光源について、監視空間を模したXYZ座標系における当該光源の位置および当該光源の配光、色温度などで表される照明特性を含む。光源は人工照明や太陽等である。各光源には当該光源を識別する光源番号を予め付与され、位置および照明特性のデータが対応する光源番号と紐付けて記憶されている。照明モデルは、各光源の点消灯状態を設定し、点灯状態が設定された光源の出力を照明特性に演算することにより、監視空間に対する複数の照明条件を模擬できる。
すなわち、環境モデル記憶手段30は、カメラ2が撮影対象としている所定の空間を構成する複数の構成物それぞれの三次元座標値と各構成物の色、テクスチャ、反射特性、および該空間を照明する光源の照明特性を含んだ環境モデルを記憶している。
図3は環境モデルを模式的に表した図の例である。監視空間を構成する壁700、床701、壁702、壁703、天井704、棚705、蛍光灯706、蛍光灯707、カメラ708(カメラ2)にはそれぞれ構成物番号C1、C2、C3、C4、C5、C6、C7、C8、C9が付与されている。各構成物の三次元モデルはそれぞれのXYZ座標系における三次元座標値により監視空間を立体的に模擬している。また、蛍光灯706、蛍光灯707にはそれぞれ光源番号L1、L2が付与され、各光源の照明モデルはそれぞれのXYZ座標系における位置を模擬している。
図4は図3に対応する環境モデルのデータ例であり、図4(a)は三次元モデル、図4(b)は照明モデルのデータ例である。
例えば、構成物番号C1の三次元モデルは、壁700が、立体形状が幅400cm、奥行き10cm、高さ200cmの直方体であり、XYZ座標(0,−10,0)が表す位置に、ピッチ0度、ロール0度、ヨー0度の姿勢で設置されており、その表面の色はグレー、テクスチャは無地、反射特性がAの構成物であることを表している。さらに環境モデルには床701、壁702、壁703、天井704、棚705、蛍光灯706、蛍光灯707、カメラ708のそれぞれに対応する構成物番号C2、C3、C4、C5、C6、C7、C8、C9の三次元モデルが含まれる。
また例えば、光源番号L1の照明モデルは、蛍光灯706が、XYZ座標(100,100,200)が表す位置に設置された型番XXXXXXX、配光BZ9、色温度5700Kの光源であることを示している。さらに環境モデルには光源番号L2の照明モデルが含まれる。
照明条件変更手段40は、環境モデル記憶手段30から照明モデルを読み出して、予め定めた規則に従い当該照明モデルに対する複数の照明条件を設定し、これらの設定をレンダリング手段42に入力する。例えば、光源が複数あれば点消灯状態を組み合わせ、複数段階の出力が可能な光源があれば当該各段階をさらに組み合わせ、光源に太陽が含まれていれば太陽高度および天候による照度変化を組み合わせて複数の照明条件を設定する。
カメラ情報記憶手段31は監視空間を模したXYZ座標系におけるカメラ2のカメラパラメータを予め記憶している。カメラパラメータは外部パラメータと内部パラメータからなる。外部パラメータはXYZ座標系におけるカメラ2の位置姿勢である。内部パラメータはカメラ2の焦点距離、中心座標、歪係数などである。カメラパラメータは事前のキャリブレーションによって計測され、ユーザーインターフェース部6を介して入力され、カメラ情報記憶手段31に記憶される。このカメラパラメータをピンホールカメラモデルに適用することによってXYZ座標系の座標をカメラ2の撮影面を表すxy座標系に変換できる。
カメラ情報入力手段41は、カメラ情報記憶手段31からカメラパラメータを読み出して、読み出したカメラパラメータをレンダリング手段42に入力する。
レンダリング手段42は、環境モデル記憶手段30から環境モデルを読み出し、カメラ情報入力手段41から入力されたカメラパラメータにより求まるカメラ2の撮影面に、照明条件変更手段40から入力された複数の照明条件に対応して環境モデルをレンダリングすることによって各照明条件に対応した監視空間の背景画像を仮想的に生成し、生成した背景画像を背景画像記憶手段32に記憶させる。
具体的には、まずレンダリング手段42は、カメラパラメータから環境モデルのXYZ座標系におけるカメラ2の撮影面を導出する。次にレンダリング手段42は、照明モデルに記憶された位置および照明特性に従った光線データを生成し、光線データの有無や出力を各照明条件に合わせて調整する。続いてレンダリング手段42は、構成物での反射による光線データの色や出力の変化を構成物の色、テクスチャ、反射特性に従って調整する。そしてレンダリング手段42は光源から撮影面に到達する直接光、反射光の光線データを撮影面の各画素値に設定して背景画像を生成する。
また、レンダリング手段42は、カメラ2の撮影面に設定する画素値を光線の反射元である構成物の構成物番号に置き換えたレンダリングをすることによって構成物領域を算出し、算出した構成物領域を構成物領域記憶手段33に記憶させる。
背景画像記憶手段32は、レンダリング手段42が生成した照明条件ごとの背景画像を記憶している。すなわち、背景画像記憶手段32は、カメラ2が撮影対象としている所定の空間を複数の照明条件にて照明した場合の環境モデルそれぞれをカメラの撮影面にレンダリングした複数の背景画像を記憶している。
図5は図3および図4で例示した環境モデルを基に4通りの照明条件にて生成された背景画像の例を示す図である。背景画像800は光源L1(蛍光灯706)および光源L2(蛍光灯707)が点灯状態という照明条件に対応して生成された背景画像であり、画像全体が明るくなっている。背景画像801は光源L1が点灯状態、光源L2が消灯状態という照明条件に対応して生成された背景画像であり、画像の向かって右側が左側より暗くなっている。背景画像802は光源L1が消灯状態、光源L2が点灯状態という照明条件に対応して生成された背景画像であり、画像の向かって左側が右側より暗くなっている。背景画像803は光源L1および光源L2が消灯状態という照明条件に対応して生成された背景画像であり、画像全体が暗くなっている。
環境モデルは構成物および光源ごとの三次元座標値を保持しているためレンダリングによって構成物による隠ぺいが再現された背景画像が生成できる。また、環境モデルは構成物ごとの反射特性、および光源ごとの照明特性を保持しているため照明条件に応じた反射を再現した背景画像が生成できる。
構成物領域記憶手段33は、レンダリング手段42が生成した構成物領域を記憶している。すなわち、構成物領域記憶手段33は背景画像において構成物それぞれの三次元座標値に対応する構成物領域を記憶している。
図6は図5の背景画像に対応する構成物領域の例を示す図である。壁700と対応する構成物領域851の画素値に構成物番号C1が設定され、床701、壁702、棚705のそれぞれと対応する構成物領域852、構成物領域853、構成物領域854それぞれの画素値に構成物番号C2、C3、C6が設定された画像形式のデータ850が構成物領域記憶手段33に記憶されている。
[物体検出装置の機能]
物体検出装置は、混雑環境下においても急激な照明変動に追従した背景画像を得るために、照明条件を変更可能な環境モデルを基に生成した背景画像を利用する。カメラ2が撮影する空間は一般に複数の立体物から構成される複雑な構造となっている。そのため、照明変動による背景画像の画素値変化は各構成物の凹凸、各構成物の光源に対する向きや距離、各構成物の材質、構成物間の多重反射などに影響される他、空間に現れた人物など構成物以外の物体にも影響される。
そのため、背景画像の画素値変化は背景画像全体でみると一様ではなく複雑な非線形変化となる。複数の構成物の三次元座標値を保持した環境モデルを基に生成した背景画像を利用すれば、各構成物の凹凸、向き、距離、材質、多重反射の影響を比較的精度よく再現できるが、物体検出処理に要求される精度で再現することは難しい。また、構成物以外の影響を再現することも困難である。
そこで、物体検出装置は、撮影画像に適合する照明条件の背景画像を選定することによって一次近似を行い、選定した背景画像を構成物領域ごとに撮影画像に近づける補正を行うことによって高精度な背景画像を得る。
図7は物体検出装置の機能ブロック図である。物体検出装置において、記憶部3は背景画像記憶手段32および構成物領域記憶手段33等として機能し、画像処理部4は背景画像補正手段43および物体検出手段44等として機能する。背景画像補正手段43には背景画像選定手段430および補正画像生成手段431等が含まれる。
以下、図7、図8を参照して各手段について説明する。
背景画像記憶手段32は、上述した通り、カメラ2が撮影対象としている所定の空間を複数の照明条件にて照明した場合の環境モデルそれぞれをカメラの撮影面にレンダリングした複数の背景画像を記憶している。これらの背景画像が一次近似のための候補となる。
構成物領域記憶手段33は、上述した通り、背景画像において構成物それぞれが投影された領域である構成物領域を記憶している。これらの領域が補正の単位となる。
背景画像補正手段43は、背景画像選定手段430により補正の対象となる背景画像を選定し、補正画像生成手段431により領域単位の補正を行って、補正した背景画像を物体検出手段44に入力する。
以下、背景画像選定手段430および補正画像生成手段431について説明する。
背景画像選定手段430は、背景画像記憶手段32に記憶された複数の背景画像のうち撮影画像との相違度が最も低い背景画像を選定する。
そのために背景画像選定手段430は、撮影画像の画素値の代表特徴量と背景画像の画素値の代表特徴量の差を相違度として算出する。代表特徴量は例えば平均画素値とすることができる。或いは平均画素値および画素値の分散を代表特徴量としてもよい。また、画素値は色でもよく、或いは濃淡値でもよい。
また、代表特徴量は撮影画像において構成物以外が写った領域(人物領域など)を除いて算出することが望ましい。ところが、この領域を代表特徴量の抽出に先立って特定するのは困難である。そのため、背景画像選定手段430は選定した背景画像と撮影画像を局所ごとに比較して相違度が予め定めた閾値T0以下である評価領域を設定し、評価領域の代表特徴量の相違度が最も小さな背景画像を選定し直す、という一連の処理を選定結果が連続一致するまで反復する。
また、背景画像は三次元モデルにおけるテクスチャの微小な誤差を含み得る。そのため、背景画像選定手段430は、画素単位ではなく複数の近傍画素をまとめた小領域単位で比較を行う。小領域は、撮影画像を格子状に区分した各ブロックとすることもできるが、人物領域等の形状をより高精度に検出するためにスーパーピクセルとすることが望ましい。すなわち、背景画像選定手段430は、撮影画像を画素値が類似する近傍画素どうしをまとめた複数の小領域に区分して小領域ごとに撮影画像の代表特徴量と背景画像の代表特徴量の相違度を算出し、相違度が閾値T0以下である小領域を評価領域に設定する。この場合の代表特徴量は例えば各小領域の平均画素値および画素値の分散とすることができる。或いは平均画素値を代表特徴量としてもよい。また、画素値は色でもよく、或いは濃淡値でもよい。
背景画像選定手段430は、選定した背景画像を補正画像生成手段431に入力する。また、背景画像選定手段430は、必要に応じて、小領域の区分および反復処理終了時の評価領域を補正画像生成手段431に入力する。
補正画像生成手段431は、構成物領域記憶手段33から構成物領域を読み出して、背景画像選定手段430から入力された背景画像の構成物領域それぞれにおける画素値を当該構成物領域における撮影画像の画素値に応じて補正する。具体的には、補正画像生成手段431は、構成物領域ごとに、当該構成物領域における撮影画像の平均画素値と背景画像の平均画素値の差を算出し、当該差を当該構成物領域における背景画像の各画素値に加算する。
このとき、構成物領域から、撮影画像において構成物以外が写った領域(人物領域など)を除くことによって補正を高精度化できる。そのために、補正画像生成手段431は背景画像と撮影画像を局所ごとに比較して相違度が予め定めた閾値T1以上である相違領域を検出し、構成物領域における相違領域以外の画素値に応じて補正を行う。
また、背景画像は三次元モデルにおけるテクスチャの微小な誤差を含み得る。そのため、補正画像生成手段431は複数の近傍画素をまとめた小領域単位で比較を行う。小領域は、撮影画像を格子状に区分した各ブロックとすることもできるが、人物等の形状をより高精度に検出するためにスーパーピクセルとすることが望ましい。すなわち、補正画像生成手段431は、撮影画像を画素値が類似する近傍画素どうしをまとめた複数の小領域に区分して小領域ごとに撮影画像の代表特徴量と背景画像の代表特徴量の相違度を算出し、相違度が閾値T1以上である小領域を相違領域として検出する。この場合の代表特徴量は例えば各小領域の平均画素値および画素値の分散とすることができる。或いは平均画素値を代表特徴量としてもよい。また、画素値は色でもよく、或いは濃淡値でもよい。
以上のように、補正画像生成手段431は、撮影画像を画素値が類似する近傍画素どうしをまとめた複数の小領域に区分して小領域ごとに撮影画像の代表特徴量と背景画像の代表特徴量の相違度を算出し、構成物領域ごとに、構成物領域から相違度が閾値T1以上である小領域を除いた残余領域における撮影画像の平均画素値と背景画像の平均画素値の差を算出して当該差を当該構成物領域における背景画像の各画素値に加算する。
補正画像生成手段431は、補正した背景画像を物体検出手段44に入力する。また、背景画像選定手段430は、必要に応じて、小領域の区分を物体検出手段44に入力する。
図8は背景画像補正手段43による処理の様子を模式的に例示した図である。
撮影画像900には2人の人物が写っている。また2つの蛍光灯は点灯状態であるが棚が通常よりやや暗めに写っている。
背景画像選定手段430は図5にて例示した4つの背景画像800〜803の中から撮影画像900に最も類似する背景画像800を選定する。撮影画像900と背景画像800を対比すると棚の領域の再現精度が低く、背景画像800をそのまま用いると物体検出手段44により棚の領域が誤検出され得る。
補正画像生成手段431は、相違領域を検出し、相違領域を除いた構成物領域ごとに撮影画像900と背景画像800を比較して補正量を算出する。すなわち画像910と920、画像911と921、画像912と922、画像913と923を比較する。その結果、棚の領域において画像923の平均画素値を画像913の平均画素値に近づける補正量などが算出される。
補正画像生成手段431は、算出した補正量で各構成物領域を補正し、その結果、撮影画像900の背景を高精度に再現した背景画像930が生成される。
物体検出手段44は、撮影画像を背景画像補正手段431が補正した背景画像と比較して空間に現れた構成物以外の物体を検出する。検出される物体は例えば監視空間に現れた人物である。
上述したように、環境モデルから生成した背景画像は三次元モデルにおけるテクスチャの微小な誤差を含み得る。そのため、物体検出手段44は、複数の近傍画素をまとめた小領域単位で比較を行う。小領域は、撮影画像を格子状に分割した各ブロックとすることもできるが、人物等の形状をより高精度に検出するためにスーパーピクセルとすることが望ましい。
すなわち、物体検出手段44は、撮影画像を画素値が類似する近傍画素どうしをまとめた複数の小領域に区分して小領域ごとに撮影画像の代表特徴量と背景画像の代表特徴量の相違度を算出し、相違度が予め定めた閾値T2(第一所定値)以上である小領域に構成物以外の物体が存在すると判定する。
代表特徴量は例えば各小領域の平均画素値および画素値の分散とすることができる。この場合、撮影画像と背景画像のそれぞれから算出した平均画素値どうしの差、画素値の分散どうしの差を予め定めた重みで重みづけて加算した重みづけ和を相違度とすることができる。或いは環境によっては平均画素値のみ、エッジ密度のみを代表特徴量としてもよい。また、画素値は色でもよく、或いは濃淡値でもよい。
ここで、構成物の手前に当該構成物と色が類似する服を着た人物などが存在する場合、画素値の代表特徴量のみでは検出対象物体の一部を検出し損ねる場合がある。そこで物体検出手段44は、閾値T2による小領域の検出に加えて、予め定めた閾値T3(第二所定値)以上の有意なエッジ差分が検出された小領域において閾値T2よりも低く定めた閾値T4(第三所定値)以上である小領域にも構成物以外の物体が存在すると判定する。このように画素値の特徴量とエッジの特徴量の両方を評価することで、構成物の手前に当該構成物と画像の複雑度が類似する検出対象物体が存在しても、構成物の手前に当該構成物と色が類似する検出対象物体が存在しても高精度な検出が可能となる。
物体検出手段44が撮影画像の処理を終えると、画像処理部4は、撮影画像に、物体検出手段44が検出した物体の領域をマスクする処理を施して、マスク処理後の撮影画像を出力部5に入力する。
[監視カメラシステム1の動作]
上述したように、監視カメラシステム1は、まず背景画像生成装置として動作し、その動作を終えると物体検出装置としての動作を含めた動作を行う。
[背景画像生成装置としての動作]
図9のフローチャートを参照して監視カメラシステム1が背景画像生成装置として機能するときの動作を説明する。
まず、照明条件変更手段40は、環境モデル記憶手段30から照明モデルを読み出して、読み出した照明モデルに対する複数の照明条件を設定し、これらの設定をレンダリング手段42に入力する(S10)。
複数の照明条件を入力されたレンダリング手段42は、環境モデル記憶手段30から環境モデルすなわち三次元モデルおよび照明モデルを読み出し(S11)、さらにカメラ情報入力手段41にカメラ2のカメラパラメータを入力させ(S12)、各照明条件に対応した環境モデルをカメラパラメータにより導出されるカメラ2の撮影面にレンダリングして各照明条件に対応した背景画像を生成し(S13)、生成した複数の背景画像をそれぞれにインデックスを付与して背景画像記憶手段32に格納する(S14)。
続いてレンダリング手段42は、カメラ2の撮影面に設定する画素値を光線の反射元である構成物の構成物番号に置き換えたレンダリングをすることによって構成物領域を算出し(S15)、算出した構成物領域を構成物領域記憶手段33に格納する(S16)。なお、カメラ2の視野が固定されている本実施形態において構成物領域は全背景画像に共通であるため、ステップS15のレンダリングは1つの照明条件で行えばよい。
以上の処理を終えると、監視カメラシステム1は、背景画像生成装置としての動作を終了し、物体検出装置としての動作を含めた動作に移行する。
[物体検出装置としての機能を含んだ動作]
図10〜図13のフローチャートを参照して、物体検出装置としての機能を含んだ監視カメラシステム1の動作を説明する。
画像処理部4は、カメラ2が撮影画像を生成するたびに図10に示すステップS20〜S26の処理を繰り返す。
カメラ2は、撮影を行うと、生成した撮影画像を背景画像補正手段43に入力する(S20)。
撮影画像を入力された背景画像補正手段43は背景画像選定手段430として動作し、背景画像記憶手段32に記憶されている複数の背景画像の中から撮影画像に最も類似した背景画像を選定する背景画像選定処理を行う(S21)。
図11のフローチャートを参照して背景画像選定処理を説明する。
まず背景画像選定手段430は、撮影画像を複数の小領域に区分する(S210)。例えば、背景画像選定手段430はSLIC(Simple Linear Iterative Clustering)法を用いて撮影画像をスーパーピクセルに区分する。またはこの方法以外にも公知である種々のクラスタリング法で区分することができる。
次に背景画像選定手段430は、画像全体すなわちカメラ2の撮影面全体を評価領域に設定する初期化を行い(S211)、ステップS212〜S216の反復処理を開始する。
反復処理において、まず背景画像選定手段430は、撮影画像と背景画像記憶手段32に記憶されている各背景画像の間で評価領域における代表特徴量の相違度を算出する(S212)。例えば、背景画像選定手段430は、評価領域における撮影画像の平均画素値、およびと評価領域における各背景画像の平均画素値を算出し、撮影画像の平均画素値と各背景画像の平均画素値の差を相違度として算出する。
続いて背景画像選定手段430は、ステップS212で算出した相違度が最小である背景画像を選定する(S213)。
背景画像選定手段430は、ステップS213で選定した背景画像のインデックスが反復の前回で選定した背景画像のインデックスと一致しているか否か、すなわち選定結果が連続一致しているか否かを確認する(S214)。なお反復の初回においては選定結果によらず連続一致していないとみなす。
連続一致していなければ(ステップS214にてNo)、背景画像選定手段430は、反復の次回で参照するために今回選定した背景画像のインデックスを記憶部3に一時記憶させて、反復処理を続行する。
すなわち、背景画像選定手段430は、撮影画像と、選定した背景画像の間で各小領域における代表特徴量の相違度を算出し(S215)、相違度が閾値T0以下の小領域を評価領域に設定することで評価領域を更新し(S216)、処理をステップS212に戻す。例えば、背景画像選定手段430は、各小領域における撮影画像の平均画素値と画素値の分散および各小領域における各背景画像の平均画素値と画素値の分散を算出する。背景画像選定手段430は、小領域ごとに、撮影画像の平均画素値と各背景画像の平均画素値との差と、撮影画像の分散と各背景画像の分散との差の重みづけ和を相違度として算出する。そして背景画像選定手段430は、相違度がT0以下の小領域の和領域を評価領域に設定する。
他方、ステップS214において連続一致が確認されると、背景画像選定手段430は、連続一致したインデックスが示す背景画像を補正画像生成手段431に入力して処理を図10のステップS22に進める。このとき、ステップS20にて生成された撮影画像も補正画像生成手段431に入力される。
図10のステップS22において、背景画像補正手段43は補正画像生成手段431として動作し、背景画像選定手段430が選定した背景画像を撮影画像に応じて補正する補正画像生成処理を行う。
図12のフローチャートを参照して補正画像生成処理を説明する。
まず補正画像生成手段431は、撮影画像を複数の小領域に区分し(S220)、撮影画像と背景画像選定手段430が選定した背景画像の間で各小領域における代表特徴量の相違度を算出する(S221)。区分は図11のステップS210と同様に公知である種々のクラスタリング法で実現できる。ステップS210の区分結果を流用してもよい。代表特徴量は例えば平均画素値および画素値の分散とすることができる。すなわち補正画像生成手段431は、各小領域における撮影画像の平均画素値と画素値の分散および各小領域における各背景画像の平均画素値と画素値の分散を算出する。補正画像生成手段431は、小領域ごとに、撮影画像の平均画素値と各背景画像の平均画素値との差と、撮影画像の分散と各背景画像の分散との差の重みづけ和を相違度として算出する。算出した相違度は後のステップS224で参照される。
次に補正画像生成手段431は、構成物領域記憶手段33から構成物領域を読み出し(S222)、読み出した構成物領域を順次注目領域に設定して(S223)、ステップS223〜S227のループ処理を行う。
ループ処理において構成物領域記憶手段33は、まず注目構成物領域から相違度がT1以上の小領域を除いた残余領域を算出する(S224)。
次に補正画像生成手段431は、残余領域における撮影画像と背景画像の平均画素値の差を補正量として算出し(S225)、算出した差を注目構成物領域における背景画像の各画素値に加算することによって背景画像の注目構成物領域を撮影画像に近似する補正を行う(S226)。
続いて補正画像生成手段431は、読み出した構成物領域を全て処理し終えたか否かを確認し(S227)、未処理の構成物領域があれば(ステップS227にてNo)、処理をステップS223に戻してループ処理を続ける。
他方、全構成物領域を処理し終えると(ステップS227にてYes)、補正画像生成手段431は、補正した背景画像を物体検出手段44に入力して処理を図10のステップS23に進める。
図10のステップS23において、物体検出手段44は補正画像生成手段431が補正した背景画像を用いて撮影画像から構成物以外の物体を検出する物体検出処理を行う。
図13のフローチャートを参照して物体検出処理を説明する。
まず物体検出手段44は、撮影画像を複数の小領域に区分し(S230)、撮影画像と補正画像生成手段431が補正した背景画像の間で各小領域における代表特徴量の相違度を算出する(S231)。区分は図11のステップS210または図12のステップS220と同様に公知である種々のクラスタリング法で実現できる。ステップS210またはS220の区分結果を流用してもよい。代表特徴量は例えば平均画素値および画素値の分散とすることができる。すなわち物体検出手段44は、各小領域における撮影画像の平均画素値と画素値の分散および各小領域における各背景画像の平均画素値と画素値の分散を算出する。物体検出手段44は、小領域ごとに、撮影画像の平均画素値と各背景画像の平均画素値との差と、撮影画像の分散と各背景画像の分散との差の重みづけ和を相違度として算出する。
次に物体検出手段44は、ステップS231で算出した相違度が閾値T2以上である小領域を構成物以外の物体が存在する物体領域として検出する(S232)。
続いて物体検出手段44は、撮影画像と背景画像の間でエッジ差分を検出し(S233)、エッジ差分が検出され、且つステップS231で算出した相違度が閾値T4(<T2)以上である小領域を構成物以外の物体が存在する物体領域として追加検出する(S234)。
以上の処理を終えた物体検出手段44は、ステップS232で検出した小領域およびステップS234で検出した小領域の和領域を構成物以外の物体が存在する物体領域として画像処理部4に出力し、処理を図10のステップS24に進める。
図10のステップS24において画像処理部4は、ステップS23にて構成物以外の物体の存在が判定されたか否かを確認する(S24)。
構成物以外の物体の存在が判定された場合(S24にてYes)、画像処理部4は物体領域を単一色で塗りつぶしてプライバシーマスクを生成し(S25)、撮影画像にプライバシーマスクを重畳したマスク画像を出力部5に出力して該画像を表示させる(S26)。他方、物体の存在が判定されなかった場合(S24にてNo)、ステップS25をスキップして撮影画像をそのまま表示させる。
<第一実施形態の変形例>
上記実施形態においては、背景画像記憶手段32が複数の背景画像を記憶し、背景画像補正手段43がこれらの中からひとつを補正対象として選定することにより、複雑な照明変動を一時近似した。これに対しカメラ2の撮影する空間が比較的単純な構造の場合、背景画像記憶手段32には代表的なひとつの背景画像を記憶させ、選定を省略してもよい。この場合、背景画像補正手段43は、図10のフローチャートにおけるステップS21の処理を省略して背景画像記憶手段32から読み出した背景画像を補正する。
また上記実施形態およびその変形例においては、監視カメラシステム1が、図2を参照して説明した背景画像生成装置としての機能と、図7を参照して説明した物体検出装置としての機能を備える例を示した。別の実施形態においては、監視カメラシステム1とは別体のシステムが背景画像生成装置としての機能を備え、監視カメラシステム1に含まれる物体検出装置は別体のシステムにて生成されたデータを事前に背景画像記憶手段32および構成物領域記憶手段33に複製しておくことによって機能する。
また上記各実施形態においては、視野が固定され、カメラパラメータが一定値であるカメラ2の例を説明したが、パン、チルト、ズームが可能なPTZカメラのように、または車載カメラ、空撮カメラなどのように、カメラパラメータが変動するカメラ2を利用することもできる。
その場合、図14に示すように、カメラ2が撮影時のカメラパラメータを都度算出してカメラ情報入力手段41に入力し、カメラ情報入力手段41が当該カメラパラメータを背景画像補正手段43の背景画像選定手段430および補正画像生成手段431に入力する。例えば、PTZカメラであればカメラ2は、撮影時のカメラ制御値(パン角度、チルト角度およびズーム値)に基づいて自身のカメラパラメータを算出する。また、例えば、車載カメラおよび空撮カメラであればカメラ2にSLAM(Simultaneous Localization and Mapping)法などにより自己位置を推定する自己位置推定手段を設け、カメラ2は自己位置に基づいて自身のカメラパラメータを算出する。
また、レンダリング手段42はカメラ制御値または自己位置ごとに背景画像および構成物領域を予め生成してそれぞれを背景画像記憶手段32および構成物領域記憶手段33に記憶させておき、背景画像補正手段43の背景画像選定手段430および補正画像生成手段431は背景画像記憶手段32および構成物領域記憶手段33からカメラ制御値または自己位置が適合する背景画像及び構成物領域を読み出して背景画像の補正を行う。
<第二実施形態>
第二実施形態においては、監視カメラシステム1に含まれる物体検出装置が、環境モデルを記憶し、撮影画像に応じて環境モデルから背景画像を生成することにより、急激な照明変動が生じても背景画像を即座に追従させて物体を検出する。
[第二実施形態に係る監視カメラシステム1の構成]
第二実施形態に係る監視カメラシステム1の概略構成は第一実施形態と同様である。すなわち第二実施形態に係る監視カメラシステム1は、カメラ2、記憶部3、画像処理部4、出力部5およびユーザーインターフェース部6からなる。
[第二実施形態に係る物体検出装置の機能]
第二実施形態に係る監視カメラシステム1が備える物体検出装置の機能を説明する。
図15は第二実施形態に係る物体検出装置の機能ブロック図である。第二実施形態に係る物体検出装置において、記憶部3は環境モデル記憶手段35およびカメラ情報記憶手段36等として機能し、画像処理部4は照明条件変更手段45、カメラ情報入力手段46、レンダリング手段47、背景画像選定手段48、補正画像生成手段49および物体検出手段50等として機能する。レンダリング手段47、背景画像選定手段48および補正画像生成手段49は背景画像生成手段を構成する。
環境モデル記憶手段35は、第一実施形態と同様、カメラ2が撮影対象としている所定の空間を構成する複数の構成物それぞれの三次元座標値と各構成物の色、テクスチャ、反射特性、および該空間を照明する光源の位置と照明特性を含んだ環境モデルを記憶している。
照明条件変更手段45は、環境モデル記憶手段35から照明モデルを読み出し、当該照明モデルが表す光源の照明条件を複数通りに変更する。このとき照明条件変更手段45は、背景画像選定手段48から入力される相違度に応じて照明条件を都度変更して、照明条件をレンダリング手段47に入力する。相違度とは、撮影画像と、照明条件に対応してレンダリング手段47が生成する背景画像との相違度である。
具体的に、照明条件変更手段45は、相違度が低いほど照明条件を小さく変更し、相違度が高いほど照明条件を大きく変更する。例えば、はじめにランダムに照明条件を設定し、その後に低い相違度が入力されると光源の出力を微小に変更し、高い相違度が入力されると光源の出力を大きく変更する、または高い相違度が入力されると複数の光源の点消灯状態を変更する。相違度と照明条件の変更幅の関係は、変更可能な範囲に応じて予め定めておいてもよい。または、過去の相違度と変更幅の関係から定めてもよい。例えば、前々回の相違度と前回の相違度の差と前回の変更幅の大きさの比を算出して、前回の相違度と今回の相違度の差に当該比を乗じた変更幅で照明条件を変更する。
カメラ情報記憶手段36は、第一実施形態と同様、監視空間を模したXYZ座標系におけるカメラ2のカメラパラメータを予め記憶している。
カメラ情報入力手段46は、カメラ情報記憶手段36からカメラパラメータを読み出して、読み出したカメラパラメータをレンダリング手段47に入力する。
レンダリング手段47は、環境モデル記憶手段35から環境モデルを読み出し、カメラ情報入力手段46から入力されたカメラパラメータにより求まるカメラ2の撮影面に、照明条件変更手段45から入力された複数の照明条件に対応して環境モデルをレンダリングすることによって各照明条件に対応した監視空間の背景画像を仮想的に生成し、生成した背景画像を背景画像選定手段48に入力する。背景画像のレンダリング方法は第一実施形態と同様である。
また、レンダリング手段47は、カメラ2の撮影面に設定する画素値を光線の反射元である構成物の構成物番号に置き換えたレンダリングをすることによって構成物領域を算出し、算出した構成物領域を補正画像生成手段49に入力する。構成物領域のレンダリング方法は第一実施形態と同様である。
背景画像選定手段48は、レンダリング手段47から入力された複数の背景画像の中から撮影画像との相違度が所定値以下の背景画像を選定し、選定した補正画像生成手段49に入力する。
すなわち背景画像選定手段48は、評価領域における撮影画像の画素値の代表特徴量と背景画像の画素値の代表特徴量の差を相違度として算出し、算出した相違度を予め定めた閾値T5と比較するとともに照明条件変更手段45に入力してレンダリング手段47に照明条件を変更した背景画像を新たに生成させ、新たに背景画像と撮影画像を局所ごとに比較して相違度が予め定めた閾値T0以下である評価領域を設定し、評価領域の代表特徴量の相違度を閾値T5と比較する、という一連の処理を評価領域の相違度が閾値T5以下である背景画像が選定されるまで反復する。評価領域の代表特徴量および相違度の算出方法、局所領域の区分方法および局所領域単位での代表特徴量および相違度の算出方法は第一実施形態と同様である。
補正画像生成手段49は、背景画像選定手段48から入力された背景画像の画素値を撮影画像の画素値に応じて補正し、補正した背景画像を物体検出手段50に入力する。
このとき補正画像生成手段49は、レンダリング手段47から入力された構成物領域を参照し、構成物領域ごとに補正を行う。すなわち、補正画像生成手段49は、撮影画像を画素値が類似する近傍画素どうしをまとめた複数の小領域に区分して小領域ごとに撮影画像の代表特徴量と背景画像の代表特徴量の相違度を算出し、構成物領域ごとに、構成物領域から相違度が閾値T1以上である小領域を除いた残余領域における撮影画像の平均画素値と背景画像の平均画素値の差を算出して当該差を当該構成物領域における背景画像の各画素値に加算する。局所領域の区分方法および局所領域単位での代表特徴量および相違度の算出方法は第一実施形態と同様である。
物体検出手段50は、撮影画像を補正画像生成手段49が補正した背景画像と比較して空間に現れた構成物以外の物体を検出する。
具体的には物体検出手段50は、撮影画像を画素値が類似する近傍画素どうしをまとめた複数の小領域に区分して小領域ごとに撮影画像の代表特徴量と背景画像の代表特徴量の相違度を算出し、相違度が予め定めた閾値T2(第一所定値)以上である小領域に構成物以外の物体が存在すると判定する。また物体検出手段50は、閾値T2による小領域の検出に加えて、予め定めた閾値T3(第二所定値)以上の有意なエッジ差分が検出された小領域において閾値T2よりも低く定めた閾値T4(第三所定値)以上である小領域にも構成物以外の物体が存在すると判定する。
[第二実施形態に係る監視カメラシステム1の動作]
図16および図17のフローチャートを参照して第二実施形態に係る監視カメラシステム1の動作を説明する。
画像処理部4は、カメラ2が撮影画像を生成するたびにステップS50〜S61の処理を繰り返す。
カメラ2が撮影を行うと、照明条件変更手段45およびレンダリング手段47が起動され、生成した撮影画像が背景画像選定手段48に入力される(S50)。レンダリング手段47が環境モデル記憶手段35から環境モデルすなわち三次元モデルおよび照明モデルを読み出し、照明条件変更手段45はが環境モデル記憶手段35から照明モデルを読み出し(S51)、さらにレンダリング手段47がカメラ情報入力手段46にカメラ2のカメラパラメータを入力させ(S52)、照明条件変更手段45、レンダリング手段47および背景画像選定手段48による反復処理が開始される。
反復処理においては、まず照明条件変更手段45が照明条件を変更して当該照明条件をレンダリング手段47に入力する(S53)。反復処理の初回において、照明条件変更手段45は乱数に基づいて照明条件を設定する。反復の2回目以降において、照明条件変更手段45は背景画像選定手段48から入力される相違度に応じて照明条件を変更する。
照明条件を入力されたレンダリング手段47は当該照明条件に対応した環境モデルをカメラパラメータにより導出されるカメラ2の撮影面にレンダリングして当該照明条件に対応した背景画像を生成し(S54)、生成した背景画像を背景画像選択手段48に入力する。
背景画像を入力された背景画像選定手段48は、撮影画像と背景画像の相違度を算出して(S55)、算出した相違度を閾値T5と比較する(S56)。
相違度がT5以上の場合(ステップS56にてNo)、背景画像選定手段48は、ステップS55で算出した相違度を照明条件変更手段45に入力して反復処理を続行させる。この入力により処理は再びステップS53に戻される。
他方、相違度がT5未満の場合(ステップS56にてYes)、背景画像選定手段48は、反復処理を終了し、反復終了時の背景画像を補正画像生成手段49に入力する。このとき、ステップS50で生成された撮影画像が補正画像生成手段49にも入力される。
背景画像と撮影画像の入力を受けた補正画像生成手段49はレンダリング手段47に構造物領域を要求する。要求を受けたレンダリング手段47はカメラパラメータと環境モデルを基に構成物領域を算出し(S57)、算出した構成物領域を補正画像生成手段49に入力する。
補正画像生成手段49は、構成物領域ごとに撮影画像の画素値に応じて背景画像の画素値を補正することによって補正画像を算出し(S58)、補正した背景画像を物体検出手段50に入力する。このとき、ステップS50で生成された撮影画像が物体検出手段50にも入力される。
背景画像と撮影画像の入力を受けた物体検出手段50は撮影画像を背景画像と比較し、監視画像において構成物以外の物体が存在する物体領域を検出して画像処理部4に出力する(S59)。
画像処理部4は、ステップS59にて構成物以外の物体の存在が判定されたか否かを確認し(S60)、構成物以外の物体の存在が判定された場合は(S60にてYes)、物体領域を単一色で塗りつぶしてプライバシーマスクを生成し(S61)、撮影画像にプライバシーマスクを重畳したマスク画像を出力部5に出力して該画像を表示させる(S62)。他方、物体の存在が判定されなかった場合(S60にてNo)、ステップS61をスキップして撮影画像をそのまま表示させる。
<第二実施形態の変形例>
上記第二実施形態においては、視野が固定され、カメラパラメータが一定値であるカメラ2の例を説明したが、パン、チルト、ズームが可能なPTZカメラのように、または車載カメラ、空撮カメラなどのように、カメラパラメータが変動するカメラ2を利用することもできる。その場合、カメラ2が撮影時のカメラパラメータを都度算出してカメラ情報入力手段46に入力し、カメラ情報入力手段46が当該カメラパラメータをレンダリング手段47に入力する。
<その他の変形例>
上記各実施形態およびそれらの変形例においては、物体検出装置が人を検出する例を説明したが、検出対象は人に限らず空間に現れた構成物以外の各種物体を検出対象とすることができる。例えば、車両や動物などの各種移動物体、空間に持ち込まれた物品などを検出することもできる。
上記各実施形態およびそれらの変形例においては、物体検出装置の検出結果をプライバシーマスクの生成に用いる例を説明したが、物体検出装置の検出結果はこれに限らず、侵入検知、不審物の検知、物体の計数、移動物体の追跡など様々な用途に利用することができる。
また別の実施形態においては、上記実施形態およびそれらの変形例において説明した構成物領域をさらに細分化した構成面領域とすることもできる。構成面領域は背景画像において構成物の各面と対応する領域である。構成物領域に代えて構成面領域を用いることで、埃の蓄積や汚れ等が原因で環境モデルによる再現精度が低下した面がある場合に、高精度な背景画像を生成することが可能となる。
この場合、予め構成物の面ごとに構成面番号を付与して環境モデルに構成面番号のデータを加えて、環境モデル記憶手段30または環境モデル記憶手段35に記憶させておく。レンダリング手段42またはレンダリング手段47は、構成物番号に代えて構成面番号をレンダリングすることによって構成面領域を算出する。
図18は図5の背景画像に対応する構成面領域の例を示す図である。壁700、床701、壁702のそれぞれと対応する構成面領域861、構成面領域862、構成面領域863それぞれの画素値に構成面番号F1、F2、F3が設定され、棚705の上面と対応する構成面領域864の画素値に構成面番号F6が設定され、棚705の手前面と対応する構成面領域865の画素値に構成面番号F7が設定され、棚705の左面と対応する構成面領域866の画素値に構成面番号F8が設定された画像形式のデータ860が算出され、必要に応じて記憶される。
また、この場合、補正画像生成手段431または補正画像生成手段49は、構成面領域それぞれにおける背景画像の画素値を当該構成面領域における撮影画像の画素値に応じて補正する。
1・・・監視カメラシステム
2・・・カメラ
3・・・記憶部
4・・・画像処理部
5・・・出力部
6・・・ユーザーインターフェース部
30、35・・・環境モデル記憶手段
31、36・・・カメラ情報記憶手段
32・・・背景画像記憶手段
33・・・構成物領域記憶手段
40、45・・・照明条件変更手段
41、46・・・カメラ情報入力手段
42、47・・・レンダリング手段
43・・・背景画像補正手段
430、48・・・背景画像選定手段
431、49・・・補正画像生成手段
44、50・・・物体検出手段

Claims (6)

  1. 所定の空間を撮影して撮影画像を生成するカメラと、
    前記空間を構成する複数の構成物それぞれの三次元座標値と反射特性、および前記空間を照明する光源の位置と照明条件を含む環境モデルを、前記カメラの撮影面にレンダリングした背景画像を記憶している背景画像記憶手段と、
    前記背景画像において前記構成物それぞれの前記三次元座標値に対応する構成物領域を記憶している構成物領域記憶手段と、
    前記構成物領域それぞれにおける前記背景画像の画素値を当該構成物領域における前記撮影画像の画素値に応じて補正する背景画像補正手段と、
    前記撮影画像を前記背景画像補正手段が補正した背景画像と比較して前記空間に現れた前記構成物以外の物体を検出する物体検出手段と、
    を備えたことを特徴とする物体検出装置。
  2. 前記構成物領域記憶手段は、前記各構成物の前記構成物領域を前記三次元座標値から得られる当該構成物の構成面それぞれと対応する構成面領域に区分して記憶し、
    前記背景画像補正手段は、前記構成面領域それぞれにおける前記背景画像の画素値を当該構成面領域における前記撮影画像の画素値に応じて補正する、請求項1に記載の物体検出装置。
  3. 前記背景画像記憶手段は、前記照明条件を複数通りに変更して前記環境モデルそれぞれをレンダリングした照明条件ごとの前記背景画像を記憶し、
    前記背景画像補正手段は、前記照明条件ごとの背景画像のうち前記撮影画像との相違度が最も低い背景画像を補正する、請求項1または2に記載の物体検出装置。
  4. 前記物体検出手段は、前記撮影画像を複数の小領域に区分して前記小領域ごとに前記撮影画像の代表特徴量と前記背景画像の代表特徴量の相違度を算出し、前記相違度が第一所定値以上である小領域に前記物体が存在すると判定する、請求項1から3に記載の物体検出装置。
  5. 前記物体検出手段は、前記撮影画像を画素値が類似する近傍画素どうしをまとめた複数の前記小領域に区分して前記物体を検出する請求項4に記載の物体検出装置。
  6. 所定の空間を構成する複数の構成物それぞれの三次元座標値と反射特性、および前記空間を照明する光源の位置と照明条件を含む環境モデルを記憶した環境モデル記憶手段と、
    前記光源の照明条件を複数通りに変更する照明条件変更手段と、
    前記空間を撮影して撮影画像を生成するカメラと、
    前記環境モデルを前記照明条件変更手段が複数通りに変更した照明条件にて前記カメラの撮影面にレンダリングして照明条件ごとの背景画像を生成し、生成した前記背景画像の中から前記撮影画像との相違度が所定値以下である背景画像を選定することによって前記空間の背景画像を生成する背景画像生成手段と、
    前記撮影画像を前記背景画像と比較して前記空間に現れた前記構成物以外の物体を検出する物体検出手段と、
    を備えたことを特徴とする物体検出装置。
JP2015073961A 2015-03-31 2015-03-31 物体検出装置 Active JP6240116B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015073961A JP6240116B2 (ja) 2015-03-31 2015-03-31 物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015073961A JP6240116B2 (ja) 2015-03-31 2015-03-31 物体検出装置

Publications (2)

Publication Number Publication Date
JP2016194778A true JP2016194778A (ja) 2016-11-17
JP6240116B2 JP6240116B2 (ja) 2017-11-29

Family

ID=57323522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015073961A Active JP6240116B2 (ja) 2015-03-31 2015-03-31 物体検出装置

Country Status (1)

Country Link
JP (1) JP6240116B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018121289A (ja) * 2017-01-27 2018-08-02 セコム株式会社 背景画像生成装置及び物体検出装置
JP2018200506A (ja) * 2017-05-25 2018-12-20 キヤノン株式会社 画像処理装置および画像処理方法
JP2019185178A (ja) * 2018-04-03 2019-10-24 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2020151268A (ja) * 2019-03-20 2020-09-24 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察システム
CN112232278A (zh) * 2020-11-04 2021-01-15 上海菲戈恩微电子科技有限公司 一种3d结构光自适应精度实现方法及系统
JP2021034763A (ja) * 2019-08-16 2021-03-01 セコム株式会社 画像処理装置及び画像処理プログラム
JP2021036647A (ja) * 2019-08-30 2021-03-04 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008527806A (ja) * 2005-01-03 2008-07-24 ブミー インコーポレイテッド 夜間監視のシステムおよび方法
JP2009123150A (ja) * 2007-11-19 2009-06-04 Sanyo Electric Co Ltd 対象物検出装置及び方法、対象物検出システム、プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008527806A (ja) * 2005-01-03 2008-07-24 ブミー インコーポレイテッド 夜間監視のシステムおよび方法
JP2009123150A (ja) * 2007-11-19 2009-06-04 Sanyo Electric Co Ltd 対象物検出装置及び方法、対象物検出システム、プログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018121289A (ja) * 2017-01-27 2018-08-02 セコム株式会社 背景画像生成装置及び物体検出装置
JP2018200506A (ja) * 2017-05-25 2018-12-20 キヤノン株式会社 画像処理装置および画像処理方法
JP2019185178A (ja) * 2018-04-03 2019-10-24 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7163049B2 (ja) 2018-04-03 2022-10-31 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2020151268A (ja) * 2019-03-20 2020-09-24 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察システム
JP7239362B2 (ja) 2019-03-20 2023-03-14 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察システム
JP2021034763A (ja) * 2019-08-16 2021-03-01 セコム株式会社 画像処理装置及び画像処理プログラム
JP7355553B2 (ja) 2019-08-16 2023-10-03 セコム株式会社 画像処理装置及び画像処理プログラム
JP2021036647A (ja) * 2019-08-30 2021-03-04 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP7370769B2 (ja) 2019-08-30 2023-10-30 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN112232278A (zh) * 2020-11-04 2021-01-15 上海菲戈恩微电子科技有限公司 一种3d结构光自适应精度实现方法及系统
CN112232278B (zh) * 2020-11-04 2024-02-20 上海菲戈恩微电子科技有限公司 一种3d结构光自适应精度实现方法及系统

Also Published As

Publication number Publication date
JP6240116B2 (ja) 2017-11-29

Similar Documents

Publication Publication Date Title
JP6240116B2 (ja) 物体検出装置
US9766057B1 (en) Characterization of a scene with structured light
EP2869266B1 (en) Method and apparatus for generating depth map of a scene
US8798316B2 (en) Method and system for controlling lighting
CN110199322A (zh) 从内部空间的3d网格表示提取2d平面图
US8970693B1 (en) Surface modeling with structured light
US9495936B1 (en) Image correction based on projection surface color
JP6352208B2 (ja) 三次元モデル処理装置およびカメラ校正システム
US20130335535A1 (en) Digital 3d camera using periodic illumination
KR100543801B1 (ko) 의사 3차원 영상 발생 장치
JP6817109B2 (ja) 照明制御方法および照明制御システム
JP2012529691A (ja) 3次元画像生成
JP2006506745A (ja) 映画におけるデジタルイメージング用のリアリティベースのライト環境
JP6309913B2 (ja) 物体検出装置
JP2006004432A (ja) シーンの反射率関数を推定する方法
JP6548686B2 (ja) 画像比較装置
JP7437738B2 (ja) 機械学習システム、学習用データセット生成システム、及び機械学習プログラム
JP7092615B2 (ja) 影検出装置、影検出方法、影検出プログラム、学習装置、学習方法、及び学習プログラム
CN115311604B (zh) 一种基于物联网的消防方法
WO2023250088A1 (en) Method, apparatus, and computer-readable medium for foreground object deletion and inpainting
JP3938122B2 (ja) 擬似3次元画像生成装置および生成方法並びにそのためのプログラムおよび記録媒体
JP7092616B2 (ja) 物体検出装置、物体検出方法、及び物体検出プログラム
Murray Human lightness perception is guided by simple assumptions about reflectance and lighting
Santamaria-Guerrero et al. Smoke detection in video using a raspberry pi
TWI451342B (zh) Shadow Removal Method in Mobile Light Source Environment

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171102

R150 Certificate of patent or registration of utility model

Ref document number: 6240116

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250