JP4780564B2 - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP4780564B2
JP4780564B2 JP2006314485A JP2006314485A JP4780564B2 JP 4780564 B2 JP4780564 B2 JP 4780564B2 JP 2006314485 A JP2006314485 A JP 2006314485A JP 2006314485 A JP2006314485 A JP 2006314485A JP 4780564 B2 JP4780564 B2 JP 4780564B2
Authority
JP
Japan
Prior art keywords
region
background
foreground
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006314485A
Other languages
English (en)
Other versions
JP2008129864A (ja
Inventor
ハンソン キム
竜基 坂本
格 北原
朋二 鳥山
潔 小暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2006314485A priority Critical patent/JP4780564B2/ja
Publication of JP2008129864A publication Critical patent/JP2008129864A/ja
Application granted granted Critical
Publication of JP4780564B2 publication Critical patent/JP4780564B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Description

本発明は、背景及び前景を含む動画像から前景を構成する対象物の領域である前景領域を抽出する画像処理装置、画像処理方法及び画像処理プログラムに関するものである。
動画像から所望する対象物を抽出することは、監視カメラ、遠隔会議、画像編集、人とコンピュータとのインタフェース等の応用を含む画像処理分野の一つの重要な課題である。従来の対象物抽出アルゴリズムは、主要な区分基準に基づいて、以下の二つのアプローチに大別することができる。
第1のアプローチは、基準として、空間的均一性を用いるものであり、形態的フィルタが画像を単純化するために使用され、Watershedアルゴリズムが領域境界決定に適用される。このアルゴリズムによる抽出結果は、Watershedアルゴリズムを用いているため、対象物の境界を他の方法より正確に追跡することができる。
第2のアプローチは、動画像における変化の検出を利用するものである。このアプローチに基づくいくつかのアルゴリズムでは、フレーム差分が使用され、ある期間の複数の画像から先行して取得された静的な背景画像を現在の画像から減算する背景差分が、最も一般的に使用される。このアルゴリズムは非常に高速に動作し、静的な背景から意味のある対象物の領域を抽出することができるので、多くの視覚システムに使用されている。
例えば、非特許文献1には、オリジナルな背景の領域、影のある背景及び影の領域、ハイライトされた背景の領域、前景の動いている対象物の領域の4つの領域に画像を区分して対象物を抽出する頑強な背景差分及び影抽出方法が開示されている。
(例えば、非特許文献1参照)。
ティ ホープラサート(T Horprasert)他2名、「頑強な背景差分及び影抽出」(A Robust Background Subtraction and Shadow Detection)、Proc.ACCV、2000年
しかしながら、上記の従来の背景差分及び影抽出方法では、予め固定された4つの領域に画像を区分しているため、背景領域における対象物の陰及び照明のハイライトにより間違った領域を前景領域として抽出する場合があり、前景領域を正確に抽出することができない。
本発明の目的は、背景及び前景を含む動画像から前景領域を高精度に且つ高速に抽出することができる画像処理装置、画像処理方法及び画像処理プログラムを提供することである。
本発明に係る画像処理装置は、背景及び前景を含む動画像から前景を構成する対象物の領域である前景領域を抽出する画像処理装置であって、処理対象画像となる動画像を取得する取得手段と、前記取得手段により取得された処理対象画像から、前景を含まず、背景を含む背景モデル画像の輝度成分からなる輝度背景画像を差分して差分画像を作成する背景差分手段と、前記差分画像の輝度成分を基に、前記処理対象画像を、当該領域が前景でなく背景である信頼性が高い第1の領域と、当該領域が前景でなく背景である信頼性が前記第1の領域より低い第2の領域と、当該領域が背景でなく前景である信頼性が低い第3の領域と、当該領域が背景でなく前景である信頼性が前記第3の領域より高い第4の領域とに区分する領域区分手段と、前記第3領域の色成分と前記背景モデル画像の色成分との差分に基づいて、前記第3領域から対象物の陰の領域を抽出し、抽出した陰の領域を前記第2の領域に変更することにより、影の領域を除去する影除去手段と、前記影除去手段により影の領域が除去された第1乃至4の領域を基に、前記処理対象画像から前記前景領域を抽出する抽出手段とを備えるものである。
本発明に係る画像処理装置において、処理対象画像となる動画像が取得され、取得された処理対象画像から背景モデル画像の輝度成分が差分されて差分画像が作成され、この差分画像の輝度成分を基に、当該領域が前景でなく背景である信頼性が高い第1の領域と、当該領域が前景でなく背景である信頼性が前記第1の領域より低い第2の領域と、当該領域が背景でなく前景である信頼性が低い第3の領域と、当該領域が背景でなく前景である信頼性が前記第3の領域より高い第4の領域とに区分され、区分された第3領域の色成分と背景モデル画像の色成分との差に基づいて、第3領域から対象物の陰の領域が抽出され、抽出された陰の領域が第2の領域に変更されて影の領域が除去される。ここで、色成分は、輝度成分と異なり、対象物の陰及び照明のハイライトの影響を受けにくいため、対象物の陰の領域をに正確に検出し、当該領域を第2の領域に変更して前景領域から確実に排除することができる。このように、影の領域が前景領域から確実に除去された第1乃至4の領域を基に、処理対象画像から前景領域を抽出しているので、背景及び前景を含む動画像から前景領域を高精度に抽出することができるとともに、処理が高速な差分処理を基本にして上記の各処理を構成しているので、動画像から前景領域を高速に抽出することができる。
前記抽出手段は、前記影除去手段により変更されていない第3の領域と、前記4の領域とに対して、各領域により表される対象物を特定するためのラベリングを行うラベリング手段と、前記ラベリング手段によりラベリングされた各領域の輪郭を抽出する輪郭抽出手段と、前記輪郭抽出手段により輪郭が抽出された領域において、前記1の領域、前記第2の領域、前記第3の領域、前記第4の領域の順に領域成長法を適用して、各領域を成長させる領域成長手段と、前記領域成長手段により成長された各領域のうち前記第3及び第4の領域を前記前景領域として抽出する前景抽出手段とを含むことが好ましい。
この場合、変更されていない第3の領域と4の領域とに対して、各領域により表される対象物を特定するためのラベリングが行われ、ラベリングされた各領域の輪郭が抽出され、輪郭が抽出された領域において、1の領域、第2の領域、第3の領域、第4の領域の順に領域成長法を適用して各領域が成長されるので、前景領域である第3及び4の領域の内部に本来あるべきホール、例えば、二人の人間が手を繋ぐことにより形成されるホールを背景領域として確実に復元することができる。このように、本来あるべきホールが確実に復元された後の第3及び第4の領域を前景領域として抽出しているので、前景に位置する対象物の形態を高精度に抽出することができる。
前記ラベリング手段は、前記影除去手段により変更されていない第3の領域と、前記4の領域との中から所定の大きさより小さい領域を除去し、残りの領域に対してラベリングを行うことが好ましい。
この場合、変更されていない第3の領域と4の領域との中から所定の大きさより小さい領域を除去し、残りの領域に対してラベリングを行っているので、前景領域から小さなノイズ領域を確実に排除することができる。
前記領域区分手段は、前記背景モデル画像の輝度成分の標準偏差を基に、前記1乃至前記第4の領域を区分することが好ましい。
ここで、背景差分の分布は、ガウス分布ではなく、ゼロで非常にシャープなピークを有する零平均ラプラシアン分布であるため、背景モデル画像の輝度成分の標準偏差を基準に1乃至前記第4の領域を区分することにより、各領域を高精度に区分することができる。
前記影除去手段は、前記背景モデル画像の色成分の標準偏差を基に、前記第3領域から対象物の陰の領域を抽出することが好ましい。
ここで、背景差分の分布は、ガウス分布ではなく、ゼロで非常にシャープなピークを有する零平均ラプラシアン分布であるため、背景モデル画像の色成分の標準偏差を基準に第3領域から対象物の陰の領域を抽出することにより、対象物の陰を前景から確実に除去することができる。
本発明に係る画像処理方法は、取得手段と、背景差分手段と、領域区分手段と、影除去手段と、抽出手段とを備える画像処理装置を用いて、背景及び前景を含む動画像から前景を構成する対象物の領域である前景領域を抽出する画像処理方法であって、前記取得手段が、処理対象画像となる動画像を取得する第1のステップと、前記背景差分手段が、前記第1のステップにおいて取得された処理対象画像から、前景を含まず、背景を含む背景モデル画像の輝度成分からなる輝度背景画像を差分して差分画像を作成する第2のステップと、前記領域区分手段が、前記差分画像の輝度成分を基に、前記処理対象画像を、当該領域が前景でなく背景である信頼性が高い第1の領域と、当該領域が前景でなく背景である信頼性が前記第1の領域より低い第2の領域と、当該領域が背景でなく前景である信頼性が低い第3の領域と、当該領域が背景でなく前景である信頼性が前記第3の領域より高い第4の領域とに区分する第3のステップと、前記影除去手段が、前記第3領域の色成分と、前記背景モデル画像の色成分との差分に基づいて、前記第3領域から対象物の陰の領域を抽出し、抽出した陰の領域を前記第2の領域に変更することにより、影の領域を除去する第4のステップと、前記抽出手段が、前記第4のステップにおいて影の領域が除去された第1乃至4の領域を基に、前記処理対象画像から前記前景領域を抽出する第5のステップとを含むものである。
本発明に係る画像処理プログラムは、背景及び前景を含む動画像から前景を構成する対象物の領域である前景領域を抽出するための画像処理プログラムであって、処理対象画像となる動画像を取得する取得手段と、前記取得手段により取得された処理対象画像から、前景を含まず、背景を含む背景モデル画像の輝度成分からなる輝度背景画像を差分して差分画像を作成する背景差分手段と、前記差分画像の輝度成分を基に、前記処理対象画像を、当該領域が前景でなく背景である信頼性が高い第1の領域と、当該領域が前景でなく背景である信頼性が前記第1の領域より低い第2の領域と、当該領域が背景でなく前景である信頼性が低い第3の領域と、当該領域が背景でなく前景である信頼性が前記第3の領域より高い第4の領域とに区分する領域区分手段と、前記第3領域の色成分と前記背景モデル画像の色成分との差分に基づいて、前記第3領域から対象物の陰の領域を抽出し、抽出した陰の領域を前記第2の領域に変更することにより、影の領域を除去する影除去手段と、前記影除去手段により影の領域が除去された第1乃至4の領域を基に、前記処理対象画像から前記前景領域を抽出する抽出手段としてコンピュータを機能させるものである。
本発明によれば、差分画像の輝度成分を基に処理対象画像を信頼性に応じた2種類の背景領域(第1及び第2の領域)及び2種類の前景領域(第3及び第4の領域)に正確に区分し、この第3領域の色成分と背景モデル画像の色成分との差に基づいて、第3領域から対象物の陰の領域が抽出されて除去され、影の領域が確実に除去された第1乃至4の領域を基に処理対象画像から前景領域を抽出しているので、背景及び前景を含む動画像から前景領域を高精度且つ高速に抽出することができる。
以下、本発明の一実施の形態による画像処理装置について図面を参照しながら説明する。図1は、本発明の一実施の形態による画像処理装置の構成を示すブロック図である。
図1に示す画像処理装置は、複数のビデオカメラ11〜1n(nは任意の整数)、背景モデル記憶部12、画像取得部13、背景差分部14、領域区分部15、影除去部16、ラベリング部17、輪郭抽出部18、領域成長部19、及び前景領域抽出部20を備える。
n台(nは1以上の整数)のビデオカメラ11〜1nは、撮影空間の所定箇所に固定され、前景となる対象物、例えば、人物をその背後に位置する背景、例えば、室内の壁、調度品等を含めて撮影し、撮影したカラー動画像を処理対象画像として画像取得部13へ出力する。例えば、ビデオカメラ11〜1nとして、7台のビデオカメラを用い、1024×768画素のRGBストリームが30フレーム/秒で撮影される。
背景モデル記憶部12、画像取得部13、背景差分部14、領域区分部15、影除去部16、ラベリング部17、輪郭抽出部18、領域成長部19、及び前景領域抽出部20は、入力装置、表示装置、ROM(リードオンリメモリ)、CPU(中央演算処理装置)、RAM(ランダムアクセスメモリ)、画像I/F(インターフェース)部及び外部記憶装置等を備えるコンピュータを用いて、ROM又は外部記憶装置に予め記憶されている、後述する各処理を行うための画像処理プログラムをCPU等で実行することにより実現される。なお、背景モデル記憶部12、画像取得部13、背景差分部14、領域区分部15、影除去部16、ラベリング部17、輪郭抽出部18、領域成長部19、及び前景領域抽出部20の構成例は、本例に特に限定されず、各ブロックを専用のハードウエアから構成したり、一部のブロック又はブロック内の一部の処理のみを専用のハードウエアで構成したりする等の種々の変更が可能である。
背景モデル記憶部12は、前景を含まず、背景を含む背景モデル画像の、輝度成分からなる輝度背景画像データ及び色成分からなる色背景画像データと、領域区分及び陰除去の基準となる複数の閾値とを予め記憶している。すなわち、背景モデル画像は、2つの識別可能な部分、輝度モデル画像と色モデル画像とにモデル化され、輝度背景画像データが輝度モデル画像となり、色背景画像データが色モデル画像となる。
ビデオカメラ11〜1nから入力されるビデオストリームは、RGB成分の3チャンネルを有しているが、それらはノイズ及び照明条件に対して敏感であるため、本実施の形態では、初期的な対象物すなわち前景の区分にカラー画像の輝度成分を使用している。背景モデル画像の輝度すなわち輝度背景画像データは、下記式で計算される。
Y=0.299×R+0.587×G+0.114×B …(1)
しかしながら、輝度成分は、背景領域の影及び前景領域の照明の反射により急激に変化する。本実施の形態では、間違った前景の区分を防止するために、画像の色成分を用いた色背景画像データを用いる。背景モデル画像の色成分Hすなわち色背景画像データは、下記のようにしてHSIモデルを基に算出される。なお、本発明に使用可能なモデルは、この例に特に限定されず、HSVモデルを用いても差し支えない。
ここで、ノイズ、背景の素材の特性及び照明条件の変化等により、静的なシーンにおいてさえ、フレーム間の変化が発生する。図2は、連続した150フレームから計算された各画素の平均からの偏差の分布(ノイズ分布)を示す図であり、(a)は輝度成分を示し、(b)は色成分を示している。
ビデオカメラ11〜1nが所定期間同一シーンを観測し続けている場合、ノイズは、キャンセル又は抑圧され、零平均ラプラシアン分布として表現することができる。したがって、本実施の形態では、ビデオカメラ11〜1nにより連続的に、例えば、150フレーム間撮影された背景モデル画像の平均及び標準偏差を算出し、算出した各画素のRGB成分の平均値から、式(1)及び式(2)を用いて、輝度背景画像データ及び色背景画像データを予め計算し、これらの輝度背景画像データ及び色背景画像データと、輝度背景画像データの標準偏差に所定の重み係数を乗算した3つの閾値及び色背景画像データの標準偏差に所定の重み係数を乗算した1つの閾値とが背景モデル記憶部12に予め記憶されている。
画像取得部13は、ビデオカメラ11〜1nから処理対象画像となる動画像を取得して背景差分部14へ出力する。背景差分部14は、背景モデル記憶部12から輝度背景画像データを読み出し、処理対象画像データから輝度背景画像データを差分して差分画像データを作成して領域区分部15へ出力する。
領域区分部15は、輝度背景画像データの標準偏差に所定の重み係数を乗算した3つの閾値を背景モデル記憶部12から読み出し、差分画像データの輝度成分と3つの閾値とを比較する。領域区分部15は、比較結果に応じて、処理対象画像を、当該領域が前景でなく背景である信頼性が高い第1の領域と、当該領域が前景でなく背景である信頼性が第1の領域より低い第2の領域と、当該領域が背景でなく前景である信頼性が低い第3の領域と、当該領域が背景でなく前景である信頼性が前記第3の領域より高い第4の領域とに区分し、影除去部16へ出力する。
影除去部16は、背景モデル記憶部12から色背景画像データ及び色背景画像データの標準偏差に所定の重み係数を乗算した1つの閾値を読み出し、第3領域の色成分と背景モデル画像の色成分すなわち色背景画像データとの差分と閾値とを比較する。影除去部16は、比較結果に応じて、第3領域から対象物の陰の領域を抽出し、抽出した陰の領域を第2の領域に変更することにより、影の領域を除去してラベリング部17へ出力する。
ラベリング部17は、影除去部16により第2の領域に変更されていない第3の領域と、4の領域とに対して、各領域により表される対象物を特定するためのラベリングを行い、輪郭抽出部18へ出力する。
輪郭抽出部18は、ラベリングされた各領域の輪郭を抽出して領域成長部19へ出力する。領域成長部19は、輪郭が抽出された領域において、1の領域、第2の領域、第3の領域、第4の領域の順に領域成長法を適用して各領域を成長させ、対象物の輪郭の内側に実際に存在するホールを復元し、前景領域抽出部20へ出力する。
前景領域抽出部20は、実際に存在するホールが復元された第3及び第4の領域を前景領域として抽出し、その他の領域をマスクする前景マスクを生成して動画像をマスクすることにより、動画像から前景領域すなわち対象物を抽出して表示する。
上記の構成により、本実施の形態では、複数閾値を用いた背景差分により、処理対象画像がそれらの信頼性に基づいて4つの領域に区分され、対象物の影の領域が色成分を用いて除去される。また、各対象物が自身の識別番号でラベリングされ、シルエット抽出技術により前景領域の境界がスムージング処理されて前景領域内の不要なホールが除去され、、領域成長技術により前景領域内に実際に存在するホールが復元される。このように、不要なホール及び影が除去されるとともに、実際に存在するホールが復元された前景領域を用いて前景マスクが生成され、動画像から対象物が確実に且つ正確に、さらに高速に抽出される。
本実施の形態では、画像取得部13が取得手段の一例に相当し、背景差分部14が背景差分手段の一例に相当し、領域区分部15が領域区分手段の一例に相当し、影除去部16が影除去手段の一例に相当し、ラベリング部17、輪郭抽出部18、領域成長部19及び前景領域抽出部20が抽出手段の一例に相当する。また、ラベリング部17がラベリング手段の一例に相当し、輪郭抽出部18が輪郭抽出手段の一例に相当し、領域成長部19が領域成長手段の一例に相当し、前景領域抽出部20が前景抽出手段の一例に相当する。
次に、上記のように構成された画像処理装置により、背景及び前景を含む動画像から前景を構成する対象物の領域である前景領域を抽出する画像処理である前景領域抽出処理について説明する。図3は、図1に示す画像処理装置による前景領域抽出処理を説明するためのフローチャートである。
まず、ステップS11において、ビデオカメラ11〜1nは、前景となる人物をその背後に位置する背景を含めて撮影し、画像取得部13は、撮影された動画像を処理対象画像として取得する。
次に、ステップS12において、背景差分部14は、背景モデル記憶部12から輝度背景画像データを読み出し、画像取得部13から出力される処理対象画像データから輝度背景画像データを差分して差分画像データを作成して領域区分部15へ出力する。
次に、ステップS13において、下記の式(3)に従い、領域区分部15は、輝度背景画像データの標準偏差に所定の重み係数を乗算した3つの閾値を背景モデル記憶部12から読み出し、差分画像データの輝度成分と3つの閾値とを比較して、処理対象画像を、(a)当該領域が前景でなく背景である信頼性が高い第1の領域(信頼できる背景)と、(b)当該領域が前景でなく背景である信頼性が第1の領域より低い第2の領域(疑わしい背景)と、(c)当該領域が背景でなく前景である信頼性が低い第3の領域(疑わしい前景)と、(d)当該領域が背景でなく前景である信頼性が前記第3の領域より高い第4の領域(信頼できる前景)とに区分し、影除去部16へ出力する。なお、下式において、L及びLは、現在のフレーム及び背景モデル画像の輝度成分を示し、σは、背景モデル画像の輝度成分の標準偏差を示し、K〜Kは、重み係数を示す。
ここで、上記の背景差分処理及び領域区分処理について詳細に説明する。図4は、7台のビデオカメラのうちの2台のカメラを用いて生成した背景モデル画像の輝度成分の一例を示す図であり、図5は、図4に示す背景モデル画像の色成分の一例を示す図であり、図6は、本実施の形態に使用した処理対象画像の一例を示す図であり、図7は、図6に示す処理対象画像の差分後の輝度成分を示す図である。なお、図5において、0〜360°範囲で記述される色成分は、0〜255のグレースケール値にマッピングされている。
上記の各画像を用いて、現在のフレームの輝度成分から背景モデル画像を減算することにより、初期の背景差分が実行される。このとき、背景と同様の明るさを有する影及び前景領域のような多くの曖昧な領域を、固定されたシンプルな閾値を用いて区分するために、上記の式(3)に示すように、それらの信頼性に基づく複数の閾値を用いて、処理対象領域が4つのカテゴリーに分類される。
背景差分の分布がガウス分布であると仮定すると、所望の検出比を達成するように、背景差分の標準偏差によって閾値を決定することができるが、図2に示したように、背景差分の分布は、ガウス分布ではなく、ゼロで非常にシャープなピークを有する零平均ラプラシアン分布である。このため、本実施の形態では、背景モデル画像の標準偏差を用いて閾値を決定する。画像の各画素の偏差は、背景を構成する素材の特性及び照明条件に基づいて異なるため、背景を長時間撮影することにより、各画素の標準偏差を閾値として使用することができる。
図8は、図6及び図7に示す画像を用いた分類結果を示す図である。図8に示す例では、式(3)に用いられる重み係数K〜Kとして、5、12、60を用いている。図8に示す黒、濃い灰色、薄い灰色、白の各領域が、第1の領域(信頼できる背景)、第2の領域(疑わしい背景)、第3の領域(疑わしい前景)、第4の領域(信頼できる前景)を示している。
次に、ステップS14において、下記の式(4)に従い、影除去部16は、背景モデル記憶部12から色背景画像データ及び色背景画像データの標準偏差に所定の重み係数を乗算した1つの閾値を読み出し、第3領域の色成分と色背景画像データとの差分と閾値とを比較して第3領域から対象物の陰の領域を抽出し、抽出した陰の領域を第2の領域に変更することにより、影の領域を除去してラベリング部17へ出力する。なお、下式において、H及びHは、現在のフレーム及び背景モデル画像の色成分を示し、σは、背景モデル画像の色成分の標準偏差を示す。
ここで、上記の影除去処理について詳細に説明する。図8に示す結果から、対象物の影が背景の明るさを変化させ、フロア上の背景の多くの部分が、第3の領域(疑わしい前景)に組み込まれていることがわかる。このため、本実施の形態では、影が背景の色特性を変化させることなく、輝度のみを変化させることに着目し、式(4)に示すように、色成分を用いて、第3の領域(疑わしい前景)の影を第2の領域(疑わしい背景)にマージし、第3の領域から影を除去する。図9は、影除去処理後の結果の一例を示す図である。
次に、ステップS15において、ラベリング部17は、影除去部16による影除去処理後の第3の領域と、4の領域とに対して、各領域により表される対象物を特定するためのラベリングを行い、輪郭抽出部18へ出力する。
ここで、上記のラベリング処理について詳細に説明する。このラベリング処理においては、式(3)におけるすべての前景領域である第3の領域と4の領域が、自身の識別番号でラベリングされる。このとき、4近傍規則を用いて連結されたすべての前景画素が、領域成長技術を用いて同じラベルを割り付けられる。しかしながら、初期対象物領域である第3の領域と4の領域には、小さなノイズ領域が存在する場合がある。
このため、従来のノイズ領域除去方法では、形態的操作を用いて小さいノイズ領域をフィルタリングしていたが、本実施の形態では、閉鎖及び開口処理による初期マスクを改良している。すなわち、ラベリング部17は、各領域の大きさに基づく降順ですべてのラベリングされた領域をソート及び再ラベリングし、再ラベリング処理において、所定の閾値THRGより小さい領域を除去している。図10は、ラベリング処理の結果の一例を示す図である。図10に示すように、右側の画像では、二人の人間がシーン内に存在しているが、手を繋いでいるので、一つの対象物としてラベリングされている。
次に、ステップS16において、輪郭抽出部18は、ラベリングされた各前景領域の輪郭を抽出して領域成長部19へ出力する。ここで、図10に示す状態では、背景として間違って区分されたり、対象物の内部に間違ってラベリングされた多くの間違った領域が存在する。このため、本実施の形態では、前景領域の境界をスムージングし、領域内のホールを除去するために、カーマープロファイル抽出技術を改良したシルエット抽出技術を用いて、各領域の輪郭を抽出している。
図11は、初期対象物に適用される輪郭抽出処理を説明するための模式図である。図11の(a)〜(d)に示すように、輪郭抽出部18は、重み付けされた一画素の厚いドレープD1〜D4を初期対象物RAに対して順次一方側から反対側へ移動させ、4つのドレープD1〜D4によって包まれた領域SIが最終的に前景領域を示すこととなる。なお、ドレープD1〜D4の隣接画素は、その幅が所定の閾値Mより小さい浸潤ギャップのない対象物を覆う弾性バネによって連結されている。
次に、ステップS17において、領域成長部19は、輪郭が抽出された領域において、1の領域、第2の領域、第3の領域、第4の領域の順に領域成長法を適用して、各領域を成長させ、対象物の輪郭の内側に実際に存在するホールを復元して前景領域抽出部20へ出力する。
ここで、上記のシルエット抽出技術では、複数の対象物が撮影シーン中に存在するときに、対象物の内部に実際に存在するホールをも覆う可能性があり、対象物間の領域に重大なエラーを引き起こすという欠点を有している。このため、本実施の形態では、第1の問題を避けるために、各ラベリングされた領域に対してシルエット抽出技術を独立に適用し、第2の問題に対して、閾値THRGより大きい領域に対して、シルエット内の信頼性が高い背景領域から領域成長技術を順次実行している。
図12は、輪郭抽出処理の結果の一例を示す図であり、図13は、内部ホール復元処理の結果の一例を示す図である。図12の(a)及び図13の(a)に示すように、一人の人間が前景に位置する場合、輪郭抽出処理の結果と内部ホール復元処理の結果とで大きな差はないが、図12の(b)及び図13の(b)に示すように、二人の人間が手を繋いだ状態で前景に位置する場合、図12の(b)において喪失していた、二人の人間によって作られたホールが、図13の(b)では、領域成長処理によって第4の領域(信頼できる前景)から復元されていることがわかる。
最後に、ステップS18において、前景領域抽出部20は、実際に存在するホールが復元された第3及び第4の領域を前景領域として抽出し、その他の領域をマスクする前景マスクを生成して動画像をマスクすることにより、動画像から対象物を抽出して表示する。その後、ステップS11に戻って、次の処理対象画像に対して上記の処理が繰り返される。
次に、上記の前景領域抽出処理を実際に実行した結果について詳細に説明する。ビデオカメラ11〜1nは、7台の同期型IEEE−1394カメラ(カメラ1〜7)から構成され、撮影空間の中心方向に向けられ、ほぼ同一シーンを撮影した。各カメラは、1024×768画素のRGBストリームを30フレーム/秒で撮影し、通常のパーソナルコンピュータを用いて上記の前景領域抽出処理を実行した。このとき、背景モデル画像のフレーム数として、N=150、領域区分に使用した標準偏差σの各重み係数として、K=5、K=12、K=60、最小有効領域サイズ(画素)として、THRG=300、輪郭抽出処理に用いる最大ギャップとして、M=12を用いた。
図14は、各カメラにより撮影された処理対象画像に対する前景領域抽出処理の抽出結果を示す図であり、図15〜図21は、カメラ1〜7の撮影画像及び区分された前景を示す図である。
本例では、照明器具及び背景の操作のような特別な条件なしに、典型的な室内環境において、映像が撮影され、図15〜図21の(a)及び(c)の各画像は、7台のカメラ1〜7により撮影された同一フレームの画像を示しており、図15〜図21の(b)及び(d)の画像の外側は、詳細な境界を示すためにカットされている。
図15〜図21から、本例では、対象物である人物が素早く動いたにもかかわらず、また、すべてのカメラが異なる方向に向いて異なる背景を撮影しているにもかかわらず、前景を非常に高精度に区分することができ、本画像処理装置が種々の条件下で十分に機能することがわかった。
また、図14に示す評価結果は、手動区分によって生成されたグランド・トルース区分マスクによる区分結果と、本実施の形態による区分結果とを比較し、各マスクにおけるエラー画素の割合を計算したものであり、FBは、背景領域として間違って分類された前景領域を意味し、FFは、前景領域として間違って分類された背景領域を意味する。
一般に、FFのエラーは、FBのエラーより人間の目にとって不快であり、多くの視覚システムにとって受け入れがたい。しかしながら、図14に示す結果では、素早い動き及び対象物の境界からのボケのために、FFのエラーがFBのエラーより大きくなっているが、前景の対象物の速度及び大きさに確実に依存するため、すべてのシーンにおいる平均エラーレートは、1.25%より低かった。
さらに、上記の前景領域抽出処理のランタイム分析を行った結果、背景差分処理(ステップS11〜S13)は15msec、影除去処理(ステップS14)は47msec、ラベリング処理(ステップS15)は125msec、輪郭抽出処理(ステップS16)は235msec、ホール復元処理(ステップS17、S18)は125msecであり、合計は547msecであった。これらの時間は、一人の人間が撮影空間を動いたときの平均処理時間であり、本例の画像解像度では、リアルタイムに処理することはできなかったが、処理の複雑さは画像サイズの自乗に比例するため、VGA又はQVGAのような低解像度で撮影した画像の場合、リアルタイムに動作させることができることがわかった。また、GPUのようなハードウエアアクセラレータを用いたり、さらに処理を最適化することによって、XGA動画に対してもリアルタイムに動作させることができることがわかった。
上記のように、本実施の形態では、差分画像の輝度成分を背景モデル画像の輝度成分の標準偏差に基づく複数の閾値と比較して処理対象画像を信頼性に応じた2種類の背景領域(第1及び第2の領域)及び2種類の前景領域(第3及び第4の領域)に正確に区分し、この第3領域の色成分と背景モデル画像の色成分との差を背景モデル画像の色成分の標準偏差に基づく閾値と比較して第3領域から対象物の陰の領域を抽出して除去し、影の領域が確実に除去された第3及び第4の領域を前景領域として抽出しているので、背景及び前景を含むカラー動画像から前景領域を高精度且つ高速に抽出することができる。
なお、上記の説明では、抽出される対象物として、人間を例に説明したが、他の動物、他の物体等にも同様に適用することができ、同様の効果を得ることができる。
本発明の一実施の形態による画像処理装置の構成を示すブロック図である。 連続した150フレームから計算された各画素の平均からの偏差の分布を示す図である。 図1に示す画像処理装置による前景領域抽出処理を説明するためのフローチャートである。 7台のビデオカメラのうちの2台のカメラを用いて生成した背景モデル画像の輝度成分の一例を示す図である。 図4に示す背景モデル画像の色成分の一例を示す図である。 本実施の形態に使用した処理対象画像の一例を示す図である。 図6に示す処理対象画像の差分後の輝度成分を示す図である。 図6及び図7に示す画像を用いた分類結果を示す図である。 影除去処理後の結果の一例を示す図である。 ラベリング処理の結果の一例を示す図である。 初期対象物に適用される輪郭抽出処理を説明するための模式図である。 輪郭抽出処理の結果の一例を示す図である。 内部ホール復元処理の結果の一例を示す図である。 各カメラにより撮影された処理対象画像に対する前景領域抽出処理の抽出結果を示す図である。 カメラ1の撮影画像及び区分された前景を示す図である。 カメラ2の撮影画像及び区分された前景を示す図である。 カメラ3の撮影画像及び区分された前景を示す図である。 カメラ4の撮影画像及び区分された前景を示す図である。 カメラ5の撮影画像及び区分された前景を示す図である。 カメラ6の撮影画像及び区分された前景を示す図である。 カメラ7の撮影画像及び区分された前景を示す図である。
符号の説明
11〜1n ビデオカメラ
12 背景モデル記憶部
13 画像取得部
14 背景差分部
15 領域区分部
16 影除去部
17 ラベリング部
18 輪郭抽出部
19 領域成長部
20 前景領域抽出部

Claims (7)

  1. 背景及び前景を含む動画像から前景を構成する対象物の領域である前景領域を抽出する画像処理装置であって、
    処理対象画像となる動画像を取得する取得手段と、
    前記取得手段により取得された処理対象画像から、前景を含まず、背景を含む背景モデル画像の輝度成分からなる輝度背景画像を差分して差分画像を作成する背景差分手段と、
    前記差分画像の輝度成分を基に、前記処理対象画像を、当該領域が前景でなく背景である信頼性が高い第1の領域と、当該領域が前景でなく背景である信頼性が前記第1の領域より低い第2の領域と、当該領域が背景でなく前景である信頼性が低い第3の領域と、当該領域が背景でなく前景である信頼性が前記第3の領域より高い第4の領域とに区分する領域区分手段と、
    前記第3領域の色成分と前記背景モデル画像の色成分との差分に基づいて、前記第3領域から対象物の陰の領域を抽出し、抽出した陰の領域を前記第2の領域に変更することにより、影の領域を除去する影除去手段と、
    前記影除去手段により影の領域が除去された第1乃至4の領域を基に、前記処理対象画像から前記前景領域を抽出する抽出手段とを備えることを特徴とする画像処理装置。
  2. 前記抽出手段は、
    前記影除去手段により変更されていない第3の領域と、前記4の領域とに対して、各領域により表される対象物を特定するためのラベリングを行うラベリング手段と、
    前記ラベリング手段によりラベリングされた各領域の輪郭を抽出する輪郭抽出手段と、
    前記輪郭抽出手段により輪郭が抽出された領域において、前記1の領域、前記第2の領域、前記第3の領域、前記第4の領域の順に領域成長法を適用して、各領域を成長させる領域成長手段と、
    前記領域成長手段により成長された各領域のうち前記第3及び第4の領域を前記前景領域として抽出する前景抽出手段とを含むことを特徴とする請求項1記載の画像処理装置。
  3. 前記ラベリング手段は、前記影除去手段により変更されていない第3の領域と、前記4の領域との中から所定の大きさより小さい領域を除去し、残りの領域に対してラベリングを行うことを特徴とする請求項2記載の画像処理装置。
  4. 前記領域区分手段は、前記背景モデル画像の輝度成分の標準偏差を基に、前記1乃至前記第4の領域を区分することを特徴とする請求項1〜3のいずれかに記載の画像処理装置。
  5. 前記影除去手段は、前記背景モデル画像の色成分の標準偏差を基に、前記第3領域から対象物の陰の領域を抽出することを特徴とする請求項1〜4のいずれかに記載の画像処理装置。
  6. 取得手段と、背景差分手段と、領域区分手段と、影除去手段と、抽出手段とを備える画像処理装置を用いて、背景及び前景を含む動画像から前景を構成する対象物の領域である前景領域を抽出する画像処理方法であって、
    前記取得手段が、処理対象画像となる動画像を取得する第1のステップと、
    前記背景差分手段が、前記第1のステップにおいて取得された処理対象画像から、前景を含まず、背景を含む背景モデル画像の輝度成分からなる輝度背景画像を差分して差分画像を作成する第2のステップと、
    前記領域区分手段が、前記差分画像の輝度成分を基に、前記処理対象画像を、当該領域が前景でなく背景である信頼性が高い第1の領域と、当該領域が前景でなく背景である信頼性が前記第1の領域より低い第2の領域と、当該領域が背景でなく前景である信頼性が低い第3の領域と、当該領域が背景でなく前景である信頼性が前記第3の領域より高い第4の領域とに区分する第3のステップと、
    前記影除去手段が、前記第3領域の色成分と、前記背景モデル画像の色成分との差分に基づいて、前記第3領域から対象物の陰の領域を抽出し、抽出した陰の領域を前記第2の領域に変更することにより、影の領域を除去する第4のステップと、
    前記抽出手段が、前記第4のステップにおいて影の領域が除去された第1乃至4の領域を基に、前記処理対象画像から前記前景領域を抽出する第5のステップとを含むことを特徴とする画像処理方法。
  7. 背景及び前景を含む動画像から前景を構成する対象物の領域である前景領域を抽出するための画像処理プログラムであって、
    処理対象画像となる動画像を取得する取得手段と、
    前記取得手段により取得された処理対象画像から、前景を含まず、背景を含む背景モデル画像の輝度成分からなる輝度背景画像を差分して差分画像を作成する背景差分手段と、
    前記差分画像の輝度成分を基に、前記処理対象画像を、当該領域が前景でなく背景である信頼性が高い第1の領域と、当該領域が前景でなく背景である信頼性が前記第1の領域より低い第2の領域と、当該領域が背景でなく前景である信頼性が低い第3の領域と、当該領域が背景でなく前景である信頼性が前記第3の領域より高い第4の領域とに区分する領域区分手段と、
    前記第3領域の色成分と前記背景モデル画像の色成分との差分に基づいて、前記第3領域から対象物の陰の領域を抽出し、抽出した陰の領域を前記第2の領域に変更することにより、影の領域を除去する影除去手段と、
    前記影除去手段により影の領域が除去された第1乃至4の領域を基に、前記処理対象画像から前記前景領域を抽出する抽出手段としてコンピュータを機能させることを特徴とする画像処理プログラム。
JP2006314485A 2006-11-21 2006-11-21 画像処理装置、画像処理方法及び画像処理プログラム Expired - Fee Related JP4780564B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006314485A JP4780564B2 (ja) 2006-11-21 2006-11-21 画像処理装置、画像処理方法及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006314485A JP4780564B2 (ja) 2006-11-21 2006-11-21 画像処理装置、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2008129864A JP2008129864A (ja) 2008-06-05
JP4780564B2 true JP4780564B2 (ja) 2011-09-28

Family

ID=39555610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006314485A Expired - Fee Related JP4780564B2 (ja) 2006-11-21 2006-11-21 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP4780564B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101498206B1 (ko) 2008-09-30 2015-03-06 삼성전자주식회사 고해상도 영상 획득 장치 및 그 방법
KR101468267B1 (ko) * 2008-10-02 2014-12-15 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 중간 뷰 합성 및 멀티-뷰 데이터 신호 추출
WO2010046901A2 (en) * 2008-10-24 2010-04-29 Extreme Reality Ltd. A method system and associated modules and software components for providing image sensor based human machine interfacing
JP6618438B2 (ja) * 2016-08-12 2019-12-11 日本電信電話株式会社 前景領域抽出装置、方法、及びプログラム
JP6911995B2 (ja) 2018-02-20 2021-07-28 日本電気株式会社 特徴抽出方法、照合システム、およびプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021408A (ja) * 1996-07-04 1998-01-23 Canon Inc 画像抽出装置および方法
JPH10247247A (ja) * 1997-03-04 1998-09-14 Oki Electric Ind Co Ltd 移動体抽出装置

Also Published As

Publication number Publication date
JP2008129864A (ja) 2008-06-05

Similar Documents

Publication Publication Date Title
JP2009031939A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
Appana et al. A video-based smoke detection using smoke flow pattern and spatial-temporal energy analyses for alarm systems
Salvador et al. Cast shadow segmentation using invariant color features
JP2009074836A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2008192131A (ja) 特徴レベル・セグメンテーションを実行するシステムおよび方法
Patel et al. Flame detection using image processing techniques
Mohan et al. Video image processing for moving object detection and segmentation using background subtraction
Spagnolo et al. An abandoned/removed objects detection algorithm and its evaluation on pets datasets
Huerta et al. Chromatic shadow detection and tracking for moving foreground segmentation
JP4780564B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR101243294B1 (ko) 이동 객체 추출 및 추적 방법 및 장치
Abdusalomov et al. An improvement for the foreground recognition method using shadow removal technique for indoor environments
Kim et al. Robust foreground extraction technique using Gaussian family model and multiple thresholds
Angelo A novel approach on object detection and tracking using adaptive background subtraction method
EP3543954A1 (en) Method of processing a video
Kim et al. Robust foreground segmentation from color video sequences using background subtraction with multiple thresholds
KR20110121261A (ko) 흑백 영상 데이터에서 이동 객체의 투영 음영 제거 방법
Kim et al. Robust silhouette extraction technique using background subtraction
Malavika et al. Moving object detection and velocity estimation using MATLAB
JP6618438B2 (ja) 前景領域抽出装置、方法、及びプログラム
KR20150055481A (ko) 영상 내 그림자 화소 제거를 위한 배경 기반 방법
Vincent et al. Shadow detection: A review of various approaches to enhance image quality
Pava et al. Object Detection and Motion Analysis in a Low Resolution 3-D Model
Álvarez et al. Monocular vision-based target detection on dynamic transport infrastructures
Rabha Background modelling by codebook technique for automated video surveillance with shadow removal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110627

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140715

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4780564

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees