JP2009074836A - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP2009074836A
JP2009074836A JP2007242187A JP2007242187A JP2009074836A JP 2009074836 A JP2009074836 A JP 2009074836A JP 2007242187 A JP2007242187 A JP 2007242187A JP 2007242187 A JP2007242187 A JP 2007242187A JP 2009074836 A JP2009074836 A JP 2009074836A
Authority
JP
Japan
Prior art keywords
region
background
foreground
image
processing target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007242187A
Other languages
English (en)
Inventor
Hansung Kim
ハンソン キム
Riyuuki Sakamoto
竜基 坂本
Itaru Kitahara
格 北原
Tomoji Toriyama
朋二 鳥山
Kiyoshi Kogure
潔 小暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2007242187A priority Critical patent/JP2009074836A/ja
Publication of JP2009074836A publication Critical patent/JP2009074836A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】実環境で撮影された動画像を用いて、対象物の3次元モデルを忠実に再現することができる画像処理装置を提供する。
【解決手段】背景差分部14は、前景を含まず、処理対象画像から背景画像を差分して差分画像を作成し、領域区分部15〜前景領域抽出部20は、差分画像を基に、処理対象画像を、背景である信頼性が高い第1の領域と、背景である信頼性が低い第2の領域と、前景である信頼性が低い第3の領域と、前景である信頼性が高い第4の領域とに区分し、3次元モデル作成部21は、一のボクセルを一のカメラ視点で撮影された処理対象画像上に投影した投影点が第1の領域に属し、当該ボクセルを他のカメラ視点で撮影された処理対象画像上に投影した投影点が第4の領域に属する場合、一のカメラ視点で撮影された処理対象画像上に投影された投影点を判断対象から除外し、残りの投影点を用いて視体積交差法により対象物の3次元モデルを作成する。
【選択図】図1

Description

本発明は、背景及び前景を含む動画像から前景を構成する対象物の領域である前景領域を抽出して前記対象物の3次元モデルを作成する画像処理装置、画像処理方法及び画像処理プログラムに関するものである。
動画像から所望する対象物を抽出することは、監視カメラ、遠隔会議、画像編集、人とコンピュータとのインタフェース等の応用を含む画像処理分野の一つの重要な課題である。従来の対象物抽出アルゴリズムは、主要な区分基準に基づいて、以下の二つのアプローチに大別することができる。
第1のアプローチは、基準として、空間的均一性を用いるものであり、形態的フィルタが画像を単純化するために使用され、Watershedアルゴリズムが領域境界決定に適用される。このアルゴリズムによる抽出結果は、Watershedアルゴリズムを用いているため、対象物の境界を他の方法より正確に追跡することができる。
第2のアプローチは、動画像における変化の検出を利用するものである。このアプローチに基づくいくつかのアルゴリズムでは、フレーム差分が使用され、ある期間の複数の画像から先行して取得された静的な背景画像を現在の画像から減算する背景差分が、最も一般的に使用される。このアルゴリズムは非常に高速に動作し、静的な背景から意味のある対象物の領域を抽出することができるので、多くの視覚システムに使用されている。
例えば、非特許文献1には、オリジナルな背景の領域、影のある背景及び影の領域、ハイライトされた背景の領域、前景の動いている対象物の領域の4つの領域に画像を区分して対象物を抽出する頑強な背景差分及び影抽出方法が開示されている。
また、上記のようにして動画像から所望する対象物を抽出し、例えば、視体積交差法(shape-from-silhouette method)を用いて、対象物のシルエットから対象物の3次元モデルを作成することが行われている(例えば、非特許文献2参照)。
ティ ホープラサート(T Horprasert)他2名、「頑強な背景差分及び影抽出」(A Robust Background Subtraction and Shadow Detection)、Proc.ACCV、2000年 マツヤマ ティ(Matsuyama T.)他3名、「リアルタイムな動的3次元対象物の再構築及び3次元映像の忠実なテクスチャマッピング」(Real-Time Dynamic 3−D Object Shape Reconstruction and High-Fidelity Texture Mapping for 3−D Video)、IEEE Trans. CSVT、14、3、357−369、2004年
しかしながら、上記のような従来の視体積交差法を用いて、対象物のシルエットから対象物の3次元モデルを作成するときに、対象物のシルエットの抽出の際に謝って前景を背景とする区分エラーが発生したり、対象物の前に遮蔽物が存在する場合に、遮蔽物により謝って前景を背景とする遮蔽エラーが発生したりすることにより、対象物のシルエットの一部が欠損して対象物の3次元モデルの一部が欠落し、対象物の3次元モデルを正確に復元することができなかった。
例えば、図21の(a)〜(e)に示すように、対象物のシルエットが抽出された場合に、図21の(f)に示す区分エラーや図21の(g)に示す遮蔽エラーが発生してシルエットの一部が欠損し、図21の(h)に示すように、復元した対象物の3次元モデルの一部(頭部や脚部の一部)が欠落し、対象物の3次元モデルを正確に復元することができない。
このような3次元モデルの一部の欠落は、実環境で撮影された動画像を用いて対象物の3次元モデルを復元する場合に顕著に現れ、従来の視体積交差法をそのまま用いたのでは、実環境で撮影された動画像を用いて、対象物の3次元モデルを忠実に再現することは困難である。
本発明の目的は、実環境で撮影された動画像を用いて、対象物の3次元モデルを忠実に再現することができる画像処理装置、画像処理方法及び画像処理プログラムを提供することである。
本発明に係る画像処理装置は、背景及び前景を含む動画像から前景を構成する対象物の領域である前景領域を抽出して前記対象物の3次元モデルを作成する画像処理装置であって、互いに異なる複数のカメラ視点から撮影された動画像を処理対象画像として取得する取得手段と、前記取得手段により取得された処理対象画像から、前景を含まず、背景を含む背景モデル画像からなる背景画像を差分して差分画像を作成する背景差分手段と、前記差分画像を基に、前記処理対象画像を、当該領域が前景でなく背景である信頼性が高い第1の領域と、当該領域が前景でなく背景である信頼性が前記第1の領域より低い第2の領域と、当該領域が背景でなく前景である信頼性が低い第3の領域と、当該領域が背景でなく前景である信頼性が前記第3の領域より高い第4の領域とに区分する領域区分手段と、視体積交差法を用いて、3次元空間を複数のボクセルに分割し、各ボクセルを各カメラ視点で撮影された処理対象画像上に投影した各投影点が前記第1乃至第4の領域のいずれに属するかを判断し、この判断結果に基づいて、対象物を構成するボクセル以外のボクセルを削り取ることにより、前記対象物の3次元モデルを作成する作成手段とを備え、前記作成手段は、一のボクセルを一のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第1の領域に属し、当該ボクセルを他のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第4の領域に属する場合、前記一のカメラ視点で撮影された処理対象画像上に投影された投影点を判断対象から除外し、残りの投影点を用いて、前記対象物の3次元モデルを作成するものである。
本発明に係る画像処理装置において、処理対象画像となる動画像が取得され、取得された処理対象画像から背景画像が差分されて差分画像が作成され、この差分画像を基に、当該領域が前景でなく背景である信頼性が高い第1の領域と、当該領域が前景でなく背景である信頼性が前記第1の領域より低い第2の領域と、当該領域が背景でなく前景である信頼性が低い第3の領域と、当該領域が背景でなく前景である信頼性が前記第3の領域より高い第4の領域とに区分され、視体積交差法を用いて、3次元空間を複数のボクセルに分割し、各ボクセルを各カメラ視点で撮影された処理対象画像上に投影した各投影点が前記第1乃至第4の領域のいずれに属するかが判断され、この判断結果に基づいて、対象物を構成するボクセル以外のボクセルを削り取ることにより、対象物の3次元モデルが作成される。
このとき、一のボクセルを一のカメラ視点で撮影された処理対象画像上に投影した投影点が、前景でなく背景である信頼性が高い第1の領域に属し、当該ボクセルを他のカメラ視点で撮影された処理対象画像上に投影した投影点が、背景でなく前景である信頼性が高い第4の領域に属する場合、一のカメラ視点で撮影された処理対象画像上に投影された投影点が判断対象から除外されるので、区分エラー及び遮蔽エラーによって誤って背景であると判断された投影点が除外され、正確に背景又は前景と判断された残りの投影点を用いて、背景に属するボクセルを削り取ることができる。この結果、実環境で撮影された動画像を用いて、対象物の3次元モデルを忠実に再現することができる。
前記作成手段は、一のボクセルを第1のカメラ視点で撮影された処理対象画像上に投影した第1の投影点が前記第1の領域に属し、当該ボクセルを、当該ボクセルを中心として前記第1のカメラ視点に対して所定角度内に位置する第2のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第4の領域に属する場合、前記第1のカメラ視点で撮影された処理対象画像上に投影された投影点を判断対象から除外し、残りの投影点のうち少なくとも一つの投影点が前記第1又は第2の領域に属するボクセルを削り取ることにより、前記対象物の3次元モデルを作成することが好ましい。
この場合、第1のカメラ視点に対して所定角度内に位置する第2のカメラ視点で撮影された処理対象画像上に投影された投影点を用いて、第1のカメラ視点で撮影された処理対象画像上に投影した第1の投影点が判断対象から除外されるので、遮蔽エラーによって誤って背景であると判断された投影点を確実に除外して、対象物の3次元モデルを忠実に再現することができる。
前記複数のカメラ視点の中から互いに異なる2以上のカメラ視点を含む複数のカメラ視点群を予め記憶する記憶手段をさらに備え、前記作成手段は、一のボクセルを第1のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第1の領域に属し、当該ボクセルを、前記記憶手段に記憶されている前記第1のカメラ視点が属するカメラ視点群に含まれる他のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第4の領域に属する場合、前記第1のカメラ視点で撮影された処理対象画像上に投影された投影点を判断対象から除外し、残りの投影点のうち少なくとも一つの投影点が前記第1又は第2の領域に属するボクセルを削り取ることにより、前記対象物の3次元モデルを作成することが好ましい。
この場合、予め記憶されている前記第1のカメラ視点が属するカメラ視点群に含まれる他のカメラ視点で撮影された処理対象画像上に投影された投影点を用いて、第1のカメラ視点で撮影された処理対象画像上に投影した第1の投影点が判断対象から除外されるので、撮影手段の種々の撮影条件を考慮して互いに補完可能なカメラ視点群を予め設定することにより、遮蔽エラーによって誤って背景であると判断された投影点を確実に除外して、対象物の3次元モデルを忠実に再現することができる。
前記作成手段は、一のボクセルを第1のカメラ視点で撮影された処理対象画像上に投影した第1の投影点が前記第1の領域に属し、当該ボクセルを、前記第1のカメラ視点に隣接するカメラ視点で撮影された処理対象画像上に投影した投影点が前記第4の領域に属する場合、前記第1のカメラ視点で撮影された処理対象画像上に投影された投影点を判断対象から除外し、残りの投影点のうち少なくとも一つの投影点が前記第1又は第2の領域に属するボクセルを削り取ることにより、前記対象物の3次元モデルを作成することが好ましい。
この場合、第1のカメラ視点に隣接するカメラ視点で撮影された処理対象画像上に投影された投影点を用いて、第1のカメラ視点で撮影された処理対象画像上に投影した第1の投影点が判断対象から除外されるので、遮蔽エラーによって誤って背景であると判断された投影点を確実に除外して、対象物の3次元モデルを忠実に再現することができる。
前記作成手段は、一のボクセルを一のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第2の領域に属し、当該ボクセルを、他の2以上のカメラ視点で撮影された処理対象画像上に投影した投影点が少なくとも前記第4の領域に属する場合、前記一のカメラ視点で撮影された処理対象画像上に投影された投影点を判断対象から除外し、残りの投影点のうち少なくとも一つの投影点が前記第1又は第2の領域に属するボクセルを削り取ることにより、前記対象物の3次元モデルを作成することが好ましい。
この場合、一のカメラ視点で撮影された処理対象画像上に投影した投影点が前景でなく背景である信頼性が低い第2の領域に属し、他の2以上のカメラ視点で撮影された処理対象画像上に投影した投影点が背景でなく前景である信頼性が高い第4の領域に属するときに、一のカメラ視点で撮影された処理対象画像上に投影された投影点が判断対象から除外されるので、区分エラーによって誤って背景であると判断された投影点を確実に除外して、対象物の3次元モデルを忠実に再現することができる。
本発明に係る画像処理方法は、処理対象画像を取得する取得手段と、前記処理対象画像から差分画像を作成する背景差分手段と、前記処理対象画像を複数の領域に区分する領域区分手段と、視体積交差法を用いて3次元モデルを作成する作成手段とを備える画像処理装置を用いて、背景及び前景を含む動画像から前景を構成する対象物の領域である前景領域を抽出して前記対象物の3次元モデルを作成する画像処理方法であって、前記取得手段が、互いに異なる複数のカメラ視点から撮影された動画像を処理対象画像として取得する第1のステップと、前記背景差分手段が、前記第1のステップにおいて取得された処理対象画像から、前景を含まず、背景を含む背景モデル画像からなる背景画像を差分して差分画像を作成する第2のステップと、前記領域区分手段が、前記差分画像を基に、前記処理対象画像を、当該領域が前景でなく背景である信頼性が高い第1の領域と、当該領域が前景でなく背景である信頼性が前記第1の領域より低い第2の領域と、当該領域が背景でなく前景である信頼性が低い第3の領域と、当該領域が背景でなく前景である信頼性が前記第3の領域より高い第4の領域とに区分する第3のステップと、前記作成手段が、視体積交差法を用いて、3次元空間を複数のボクセルに分割し、各ボクセルを各カメラ視点で撮影された処理対象画像上に投影した各投影点が前記第1乃至第4の領域のいずれに属するかを判断し、この判断結果に基づいて、対象物を構成するボクセル以外のボクセルを削り取ることにより、前記対象物の3次元モデルを作成する第4のステップとを含み、前記第4のステップは、前記作成手段が、一のボクセルを一のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第1の領域に属し、当該ボクセルを他のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第4の領域に属する場合、前記一のカメラ視点で撮影された処理対象画像上に投影された投影点を判断対象から除外し、残りの投影点を用いて、前記対象物の3次元モデルを作成する第5のステップを含むものである。
本発明に係る画像処理プログラムは、背景及び前景を含む動画像から前景を構成する対象物の領域である前景領域を抽出して前記対象物の3次元モデルを作成する画像処理プログラムであって、互いに異なる複数のカメラ視点から撮影された動画像を処理対象画像として取得する取得手段と、前記取得手段により取得された処理対象画像から、前景を含まず、背景を含む背景モデル画像からなる背景画像を差分して差分画像を作成する背景差分手段と、前記差分画像を基に、前記処理対象画像を、当該領域が前景でなく背景である信頼性が高い第1の領域と、当該領域が前景でなく背景である信頼性が前記第1の領域より低い第2の領域と、当該領域が背景でなく前景である信頼性が低い第3の領域と、当該領域が背景でなく前景である信頼性が前記第3の領域より高い第4の領域とに区分する領域区分手段と、視体積交差法を用いて、3次元空間を複数のボクセルに分割し、各ボクセルを各カメラ視点で撮影された処理対象画像上に投影した各投影点が前記第1乃至第4の領域のいずれに属するかを判断し、この判断結果に基づいて、対象物を構成するボクセル以外のボクセルを削り取ることにより、前記対象物の3次元モデルを作成する作成手段としてコンピュータを機能させ、前記作成手段は、一のボクセルを一のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第1の領域に属し、当該ボクセルを他のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第4の領域に属する場合、前記一のカメラ視点で撮影された処理対象画像上に投影された投影点を判断対象から除外し、残りの投影点を用いて、前記対象物の3次元モデルを作成するものである。
本発明によれば、区分エラー及び遮蔽エラーによって誤って背景であると判断された投影点が除外され、正確に背景又は前景と判断された残りの投影点を用いて、背景に属するボクセルを削り取ることができるので、実環境で撮影された動画像を用いて、対象物の3次元モデルを忠実に再現することができる。
以下、本発明の一実施の形態による画像処理装置について図面を参照しながら説明する。図1は、本発明の一実施の形態による画像処理装置の構成を示すブロック図である。
図1に示す画像処理装置は、複数のビデオカメラ11〜1n、背景モデル記憶部12、画像取得部13、背景差分部14、領域区分部15、影除去部16、ラベリング部17、輪郭抽出部18、領域成長部19、前景領域抽出部20、3次元モデル作成部21及び領域記憶部22を備える。
n台(nは2以上の整数)のビデオカメラ11〜1nは、撮影空間の所定箇所に固定され、前景となる対象物、例えば、人物をその背後に位置する背景、例えば、室内の壁、調度品等を含めた実環境で撮影し、撮影したカラー動画像を処理対象画像として画像取得部13へ出力する。ビデオカメラ11〜1nの配置としては、円周上に所定間隔で配置したり、半球面上に所定間隔で配置したり、壁に格子状に配置する等の種々の配置が可能である。
背景モデル記憶部12、画像取得部13、背景差分部14、領域区分部15、影除去部16、ラベリング部17、輪郭抽出部18、領域成長部19、前景領域抽出部20、3次元モデル作成部21及び領域記憶部22は、入力装置、表示装置、ROM(リードオンリメモリ)、CPU(中央演算処理装置)、RAM(ランダムアクセスメモリ)、画像I/F(インターフェース)部及び外部記憶装置等を備えるコンピュータを用いて、ROM又は外部記憶装置に予め記憶されている、後述する各処理を行うための画像処理プログラムをCPU等で実行することにより実現される。なお、背景モデル記憶部12、画像取得部13、背景差分部14、領域区分部15、影除去部16、ラベリング部17、輪郭抽出部18、領域成長部19、前景領域抽出部20、3次元モデル作成部21及び領域記憶部22の構成例は、本例に特に限定されず、各ブロックを専用のハードウエアから構成したり、一部のブロック又はブロック内の一部の処理のみを専用のハードウエアで構成したりする等の種々の変更が可能である。
背景モデル記憶部12は、前景を含まず、背景を含む背景モデル画像の、輝度成分からなる輝度背景画像データ及び色成分からなる色背景画像データと、領域区分及び陰除去の基準となる複数の閾値とを予め記憶している。すなわち、背景モデル画像は、2つの識別可能な部分、輝度モデル画像と色モデル画像とにモデル化され、輝度背景画像データが輝度モデル画像となり、色背景画像データが色モデル画像となる。
ビデオカメラ11〜1nから入力されるビデオストリームは、RGB成分の3チャンネルを有しているが、それらはノイズ及び照明条件に対して敏感であるため、本実施の形態では、初期的な対象物すなわち前景の区分にカラー画像の輝度成分を使用している。背景モデル画像の輝度すなわち輝度背景画像データは、下記式で計算される。
Y=0.299×R+0.587×G+0.114×B …(1)
しかしながら、輝度成分は、背景領域の影及び前景領域の照明の反射により急激に変化する。本実施の形態では、間違った前景の区分を防止するために、画像の色成分を用いた色背景画像データを用いる。背景モデル画像の色成分Hすなわち色背景画像データは、下記のようにしてHSIモデルを基に算出される。なお、本発明に使用可能なモデルは、この例に特に限定されず、HSVモデル等を用いても差し支えない。
ここで、ノイズ、背景の素材の特性及び照明条件の変化等により、静的なシーンにおいてさえ、フレーム間の変化が発生する。図2は、連続した150フレームから計算された各画素の平均からの偏差の分布(ノイズ分布)を示す図であり、(a)は輝度成分を示し、(b)は色成分を示している。
ビデオカメラ11〜1nが所定期間同一シーンを観測し続けている場合、ノイズは、キャンセル又は抑圧され、零平均ラプラシアン分布として表現することができる。したがって、本実施の形態では、ビデオカメラ11〜1nにより連続的に、例えば、150フレーム間撮影された背景モデル画像の平均及び標準偏差を算出し、算出した各画素のRGB成分の平均値から、式(1)及び式(2)を用いて、輝度背景画像データ及び色背景画像データを予め計算し、これらの輝度背景画像データ及び色背景画像データと、輝度背景画像データの標準偏差に所定の重み係数を乗算した3つの閾値及び色背景画像データの標準偏差に所定の重み係数を乗算した1つの閾値とが背景モデル記憶部12に予め記憶されている。
画像取得部13は、ビデオカメラ11〜1nすなわち互いに異なる複数のカメラ視点から撮影された処理対象画像となる動画像を取得して背景差分部14へ出力する。背景差分部14は、背景モデル記憶部12から輝度背景画像データを読み出し、処理対象画像データから輝度背景画像データを差分して差分画像データを作成して領域区分部15へ出力する。
領域区分部15は、輝度背景画像データの標準偏差に所定の重み係数を乗算した3つの閾値を背景モデル記憶部12から読み出し、差分画像データの輝度成分と3つの閾値とを比較する。領域区分部15は、比較結果に応じて、処理対象画像を、画素毎に、当該領域が前景でなく背景である信頼性が高い第1の領域と、当該領域が前景でなく背景である信頼性が第1の領域より低い第2の領域と、当該領域が背景でなく前景である信頼性が低い第3の領域と、当該領域が背景でなく前景である信頼性が第3の領域より高い第4の領域とに区分し、影除去部16へ出力する。
また、領域区分部15は、上記の領域区分において、各画素が第1乃至第4の領域のいずれに区分されたかを特定するための領域情報を画素毎に作成して各画素に割り当てる。領域情報としては、例えば、2ビットのデータが用いられ、第1ビットは画素が属するグループ(前景又は背景)を示し、第2ビットは画素が属する領域の信頼性(信頼性が高い又は低い)を示し、前景でなく背景である信頼性が高い第1の領域の画素には(0,1)が、前景でなく背景である信頼性が第1の領域より低い第2の領域の画素には(0,0)が、背景でなく前景である信頼性が低い第3の領域の画素には(1,0)が、背景でなく前景である信頼性が第3の領域より高い第4の領域の画素には(1,1)が、それぞれ領域情報として割り当てられる。
影除去部16は、背景モデル記憶部12から色背景画像データ及び色背景画像データの標準偏差に所定の重み係数を乗算した1つの閾値を読み出し、第3領域の色成分と背景モデル画像の色成分すなわち色背景画像データとの差分と閾値とを比較する。影除去部16は、比較結果に応じて、第3領域から対象物の陰の領域を抽出し、抽出した陰の領域を第2の領域に変更することにより、影の領域を除去してラベリング部17へ出力する。また、影除去部16は、上記のように領域を変更した画素の領域情報を更新する。
ラベリング部17は、影除去部16により第2の領域に変更されていない第3の領域と、第4の領域とに対して、各領域により表される対象物を特定するためのラベリングを行い、輪郭抽出部18へ出力する。
輪郭抽出部18は、ラベリングされた各領域の輪郭を抽出して領域成長部19へ出力する。領域成長部19は、輪郭が抽出された領域において、第1の領域、第2の領域、第3の領域、第4の領域の順に領域成長法を適用して各領域を成長させ、対象物の輪郭の内側に実際に存在するホールを復元し、前景領域抽出部20へ出力する。また、輪郭抽出部18及び領域成長部19は、上記の処理により領域を変更した画素の領域情報を更新する。
前景領域抽出部20は、実際に存在するホールが復元された第3及び第4の領域を前景領域として抽出し、その他の領域をマスクする前景マスクを生成して動画像をマスクすることにより、動画像から前景領域すなわち対象物を抽出する。また、前景領域抽出部20は、上記の処理により最終的に確定された領域情報を各処理対象画像の各画素に対応付けて領域記憶部22に記憶させる。
3次元モデル作成部21は、視体積交差法(shape-from-silhouette method)を用いて、3次元空間を複数のボクセルに分割し、各ボクセルを各ビデオカメラ11〜1nで撮影された処理対象画像上に投影し、領域記憶部22を参照して、各投影点が第1乃至第4の領域のいずれに属するかを判断し、この判断結果に基づいて、対象物を構成するボクセル以外のボクセルを削り取ることにより、対象物の3次元モデルを作成する。
図3は、図1に示す3次元モデル作成部21の視体積交差法による3次元復元処理を説明するための模式図である。3次元空間に設定された複数のビデオカメラとボクセルとの位置関係は、図3に示すようになり、3次元空間が複数のボクセルに分割され、各ボクセルは、その中心座標により特定されてV(X,Y,Z)で表され、各ビデオカメラ(カメラ視点)は、Cn(n=1,…,N)で表され、各ビデオカメラの射影行列は、Pnで表され、各ビデオカメラで撮影された処理対象画像(シルエット)は、Inで表される。なお、ボクセルは、3次元コンピュータ・グラフィックスにおいて、立体を格子状に分解したときの要素であり、格子状に分解された箱形の形状を有し、例えば、8つの角のx座標、y座標、z座標で定義されてもよい。
本実施の形態では、予めカメラ校正によってビデオカメラ11〜1nの射影行列Pnを求め、この射影行列Pnを3次元モデル作成部21に予め記憶させている。3次元モデル作成部21は、記憶している各射影行列Pnを用いて、各ボクセルの中心位置V(X,Y,Z)を処理対象画像(シルエット)In上に投影し、各投影点が第1乃至第4の領域のいずれに属するかを基に不要なボクセルを除去して3次元空間を掘り込む。このようして、視体積交差法を用いて再構築されたビジュアル・ハル(visual hull)すなわち対象物の3次元モデルは、対象物の形状の表面の境界を提供する。
ここで、例えば、Ipを領域区分された処理対象画像Inの部分集合すなわち、あるビデオカメラで撮影された一の処理対象画像とし、vpをPpによるIp上のボクセルVの投影点とし、ボクセルVの3次元位置が3次元対象物の内部にあるならば、ボクセルVは、全ての画像Ipの前景領域に投影されなければならない。したがって、少なくとも一の投影点が処理対象画像Ipの背景領域すなわち第1又は第2の領域に位置するならば、ボクセルVは、3次元形状モデルから削られる。このように、ボクセルV(X,Y,Z)のすべての可能な位置を検査することにより、3次元モデル作成部21は、3次元対象物の全体的な形状すなわち対象物の3次元モデルを作成することができる。なお、3次元空間のすべての点を検査することは、時間を非常に消費し、多大なデータを作成することになるため、オクトリ(octree)データ構造を採用してもよく、この場合、掘り込み速度及びデータ量を劇的に減少させることができる。
また、本実施の形態では、上記の複数閾値を用いた前景抽出処理とともに、区分エラー及び遮蔽エラーを考慮した領域区分結果の信頼性に基づく視体積交差法による3次元復元処理を実行し、シルエット内部の信頼性だけでなく、シルエット間の信頼性をも用いて3次元モデルを復元する。
図4は、シルエット内部の信頼性だけでなく、シルエット間の信頼性をも用いて3次元モデルを復元する処理を説明するための模式図である。図4に示すように、処理対象画像は、複数閾値を用いた前景抽出処理によりシルエット内部の信頼性に基づく第1乃至第4の領域に区分され、本実施の形態では、後述するようにシルエット間の信頼性に基づいて区分エラー及び遮蔽エラーにより観測された不要な投影点を排除した後に、視体積交差法を用いて対象物の3次元モデルが作成される。この結果、従来の視体積交差法を改良した簡略なシステムを実現し、従来の視体積交差法に比べて計算の複雑さをあまり増加させることなく、実環境において撮影された動画像から3次元モデルを再構築することができ、日常生活に使用可能な実用的な3次元画像処理装置を提供することができる。
すなわち、3次元モデル作成部21は、一のボクセルを一のビデオカメラで撮影された処理対象画像上に投影した投影点が第1の領域に属し、当該ボクセルを他のビデオカメラで撮影された処理対象画像上に投影した投影点が第4の領域に属する場合、一のカメラ視点で撮影された処理対象画像上に投影された投影点を視体積交差法の判断対象から除外し、残りの投影点のうち少なくとも一つの投影点が第1又は第2の領域に属するボクセルを削り取ることにより、対象物の3次元モデルを作成する。
まず、第1のシルエット間の信頼性に基づく処理として、3次元モデル作成部21は、遮蔽エラーによって誤って背景であると判断された投影点を除外するため、k−最近傍法(k-Nearest Neighors)のようにk個(k>0)の近傍に位置する他のビデオカメラの投影点を使用し、一のボクセルを一のビデオカメラで撮影された処理対象画像上に投影した第1の投影点が第1の領域に属し、当該ボクセルを、当該ボクセルを中心として一のビデオカメラに対して所定角度内に位置する他のビデオカメラで撮影された処理対象画像上に投影した投影点が第4の領域に属する場合、一のビデオカメラで撮影された処理対象画像上に投影された投影点を視体積交差法の判断対象から除外し、残りの投影点のうち少なくとも一つの投影点が第1又は第2の領域に属するボクセルを削り取ることにより、対象物の3次元モデルを作成する。ここで、所定角度としては、180度以下であることが好ましく、60度以下であることがより好ましい。
具体的には、k−最近傍法のkを2に設定し、3次元モデル作成部21は、遮蔽エラーによって誤って背景であると判断された投影点を除外するため、一のボクセルを一のビデオカメラで撮影された処理対象画像上に投影した第1の投影点が第1の領域に属し、当該ボクセルを一のビデオカメラに隣接する両側のビデオカメラで撮影された処理対象画像上に投影した投影点が第4の領域に属する場合、第1のカメラ視点で撮影された処理対象画像上に投影された投影点を判断対象から除外し、残りの投影点のうち少なくとも一つの投影点が第1又は第2の領域に属するボクセルを削り取ることにより、対象物の3次元モデルを作成する。
なお、ビデオカメラ11〜1nの配置等の種々の撮影条件を考慮し、遮蔽エラーを互いに補完可能な2以上のビデオカメラ(カメラ視点)を含む1又は2以上のビデオカメラ群(カメラ視点群)を予め決定し、決定したビデオカメラ群を領域記憶部22に予め記憶するようにしてもよい。この場合、3次元モデル作成部21は、遮蔽エラーによって誤って背景であると判断された投影点を除外するため、一のボクセルを一のビデオカメラで撮影された処理対象画像上に投影した投影点が第1の領域に属し、当該ボクセルを、領域記憶部22に記憶されている一のビデオカメラが属するビデオカメラ群に含まれる他のビデオカメラで撮影された処理対象画像上に投影した投影点が第4の領域に属する場合、一のビデオカメラで撮影された処理対象画像上に投影された投影点を視体積交差法の判断対象から除外し、残りの投影点のうち少なくとも一つの投影点が第1又は第2の領域に属するボクセルを削り取ることにより、対象物の3次元モデルを作成するようにしてもよい。
例えば、ビデオカメラ群に含まれるビデオカメラの台数(基数)を3に設定し、4台のビデオカメラ1〜4が円周上にこの順で配置されている場合、{ビデオカメラ1、ビデオカメラ2、ビデオカメラ3}、{ビデオカメラ2、ビデオカメラ3、ビデオカメラ4}、、{ビデオカメラ3、ビデオカメラ4、ビデオカメラ1}、{ビデオカメラ4、ビデオカメラ1、ビデオカメラ2}の各セットを領域記憶部22に予め記憶させ、各セットの真中のビデオカメラの投影点が第1の領域に属し、各セットの前後の2台のビデオカメラで撮影された処理対象画像上に投影した投影点が第4の領域に属する場合、真中のビデオカメラで撮影された処理対象画像上に投影された投影点を視体積交差法の判断対象から除外することができる。
また、第2のシルエット間の信頼性に基づく処理として、3次元モデル作成部21は、区分エラーによって誤って背景であると判断された投影点を除外するため、一のボクセルを一のビデオカメラで撮影された処理対象画像上に投影した投影点が第2の領域に属し、当該ボクセルを他の2以上のビデオカメラで撮影された処理対象画像上に投影した投影点が第3又は第4の領域に属する場合、一のビデオカメラで撮影された処理対象画像上に投影された投影点を判断対象から除外し、残りの投影点のうち少なくとも一つの投影点が第1又は第2の領域に属するボクセルを削り取ることにより、対象物の3次元モデルを作成する。このとき、他のビデオカメラとしては、2台以上あれば、多数決により不要な投影点を排除することができ、また、より確実な判断を行うため、一のビデオカメラ以外の残りの全てのビデオカメラの投影点を用いたり、第4の領域に属する場合にのみ不要な投影点を排除したりしてもよく、種々の変更が可能である。
上記の構成により、本実施の形態では、複数閾値を用いた背景差分により、処理対象画像がそれらの信頼性に基づいて4つの領域に区分され、対象物の影の領域が色成分を用いて除去される。また、各対象物が自身の識別番号でラベリングされ、シルエット抽出技術により前景領域の境界がスムージング処理されて前景領域内の不要なホールが除去され、、領域成長技術により前景領域内に実際に存在するホールが復元される。このように、不要なホール及び影が除去されるとともに、実際に存在するホールが復元された前景領域を用いて前景マスクが生成され、動画像から対象物が確実に且つ正確に、さらに高速に抽出される。
このようにして、各処理対象画像が領域区分の信頼性に基づいて第1乃至第4の領域に区分され、一のボクセルを一のビデオカメラで撮影された処理対象画像上に投影した投影点が背景である信頼性が高い第1の領域に属し、当該ボクセルを他のビデオカメラで撮影された処理対象画像上に投影した投影点が前景である信頼性が高い第4の領域に属する場合、一のカメラ視点で撮影された処理対象画像上に投影された投影点が判断対象から除外されるので、区分エラー及び遮蔽エラーによって誤って背景であると判断された投影点が除外され、正確に背景又は前景と判断された残りの投影点を用いて、視体積交差法により、少なくとも一つの投影点が第1又は第2の領域すなわち背景領域に属するボクセルを削り取ることができ、実環境で撮影された動画像を用いて、対象物の3次元モデルを忠実に再現することができる。
本実施の形態では、画像取得部13が取得手段の一例に相当し、背景差分部14が背景差分手段の一例に相当し、領域区分部15、影除去部16、ラベリング部17、輪郭抽出部18、領域成長部19及び前景領域抽出部20が領域区分手段の一例に相当し、3次元モデル作成部21が作成手段の一例に相当し、領域記憶部22が記憶手段の一例に相当する。
次に、上記のように構成された画像処理装置により、背景及び前景を含む動画像から前景を構成する対象物の領域である前景領域を抽出して対象物の3次元モデルを作成する画像処理である3次元モデル作成処理について説明する。図5は、図1に示す画像処理装置による3次元モデル作成処理を説明するためのフローチャートである。
まず、ステップS11において、ビデオカメラ11〜1nは、前景となる人物をその背後に位置する背景を含めて撮影し、画像取得部13は、撮影された動画像を処理対象画像として取得する。
次に、ステップS12において、背景差分部14は、背景モデル記憶部12から輝度背景画像データを読み出し、画像取得部13から出力される処理対象画像データから輝度背景画像データを差分して差分画像データを作成して領域区分部15へ出力する。
次に、ステップS13において、下記の式(3)に従い、領域区分部15は、輝度背景画像データの標準偏差に所定の重み係数を乗算した3つの閾値を背景モデル記憶部12から読み出し、差分画像データの輝度成分と3つの閾値とを比較して、処理対象画像を、(a)当該領域が前景でなく背景である信頼性が高い第1の領域(信頼できる背景)と、(b)当該領域が前景でなく背景である信頼性が第1の領域より低い第2の領域(疑わしい背景)と、(c)当該領域が背景でなく前景である信頼性が低い第3の領域(疑わしい前景)と、(d)当該領域が背景でなく前景である信頼性が前記第3の領域より高い第4の領域(信頼できる前景)とに区分し、影除去部16へ出力する。なお、下式において、L及びLは、現在のフレーム及び背景モデル画像の輝度成分を示し、σは、背景モデル画像の輝度成分の標準偏差を示し、K〜Kは、重み係数を示す。
上記の式(3)に用いる重み係数K〜Kは、下記の式(4)の条件を用いて訓練データによって決定される。また、前景抽出において、通常、間違った肯定的なエラーが間違った否定的なエラーより重大であるため、経験的にβを3に設定している。
ここで、上記の背景差分処理及び領域区分処理について詳細に説明する。図6は、ビデオカメラにより撮影された画像から生成した背景モデル画像の輝度成分の一例を示す図であり、図7は、図6に示す背景モデル画像の色成分の一例を示す図であり、図8は、本実施の形態に使用した処理対象画像の一例を示す図であり、図9は、図8に示す処理対象画像の差分後の輝度成分を示す図である。なお、図7において、0〜360°範囲で記述される色成分は、0〜255のグレースケール値にマッピングされている。
上記の各画像を用いて、現在のフレームの輝度成分から背景モデル画像を減算することにより、初期の背景差分が実行される。このとき、背景と同様の明るさを有する影及び前景領域のような多くの曖昧な領域を、固定されたシンプルな閾値を用いて区分するために、上記の式(3)に示すように、それらの信頼性に基づく複数の閾値を用いて、処理対象領域が4つのカテゴリーに分類され、画素毎に領域情報が付加される。
背景差分の分布がガウス分布であると仮定すると、所望の検出比を達成するように、背景差分の標準偏差によって閾値を決定することができるが、図2に示したように、背景差分の分布は、ガウス分布ではなく、ゼロで非常にシャープなピークを有する零平均ラプラシアン分布である。このため、本実施の形態では、背景モデル画像の標準偏差を用いて閾値を決定する。画像の各画素の偏差は、背景を構成する素材の特性及び照明条件に基づいて異なるため、背景を長時間撮影することにより、各画素の標準偏差を閾値として使用することができる。
図10は、図8及び図9に示す画像を用いた分類結果を示す図である。図10に示す例では、式(3)に用いられる重み係数K〜Kとして、5、12、60を用いている。図10に示す黒、濃い灰色、薄い灰色、白の各領域が、第1の領域(信頼できる背景)、第2の領域(疑わしい背景)、第3の領域(疑わしい前景)、第4の領域(信頼できる前景)を示している。
次に、ステップS14において、下記の式(5)に従い、影除去部16は、背景モデル記憶部12から色背景画像データ及び色背景画像データの標準偏差に所定の重み係数を乗算した1つの閾値を読み出し、第3領域の色成分と色背景画像データとの差分と閾値とを比較して第3領域から対象物の陰の領域を抽出し、抽出した陰の領域を第2の領域に変更することにより、影の領域を除去してラベリング部17へ出力する。なお、下式において、H及びHは、現在のフレーム及び背景モデル画像の色成分を示し、σは、背景モデル画像の色成分の標準偏差を示す。
ここで、上記の影除去処理について詳細に説明する。図10に示す結果から、対象物の影が背景の明るさを変化させ、フロア上の背景の多くの部分が、第3の領域(疑わしい前景)に組み込まれていることがわかる。このため、本実施の形態では、影が背景の色特性を変化させることなく、輝度のみを変化させることに着目し、式(5)に示すように、色成分を用いて、第3の領域(疑わしい前景)の影を第2の領域(疑わしい背景)にマージし、第3の領域から影を除去する。図11は、影除去処理後の結果の一例を示す図である。
次に、ステップS15において、ラベリング部17は、影除去部16による影除去処理後の第3の領域と、第4の領域とに対して、各領域により表される対象物を特定するためのラベリングを行い、輪郭抽出部18へ出力する。
ここで、上記のラベリング処理について詳細に説明する。このラベリング処理においては、式(3)におけるすべての前景領域である第3の領域と第4の領域が、自身の識別番号でラベリングされる。このとき、4近傍規則を用いて連結されたすべての前景画素が、領域成長技術を用いて同じラベルを割り付けられる。しかしながら、初期対象物領域である第3の領域と第4の領域には、小さなノイズ領域が存在する場合がある。
このため、従来のノイズ領域除去方法では、形態的操作を用いて小さいノイズ領域をフィルタリングしていたが、本実施の形態では、閉鎖及び開口処理による初期マスクを改良している。すなわち、ラベリング部17は、各領域の大きさに基づく降順ですべてのラベリングされた領域をソート及び再ラベリングし、再ラベリング処理において、所定の閾値THRGより小さい領域を除去している。図12は、ラベリング処理の結果の一例を示す図である。図12に示すように、右側の画像では、二人の人間がシーン内に存在しているが、手を繋いでいるので、一つの対象物としてラベリングされている。
次に、ステップS16において、輪郭抽出部18は、ラベリングされた各前景領域の輪郭を抽出して領域成長部19へ出力する。ここで、図12に示す状態では、背景として間違って区分されたり、対象物の内部に間違ってラベリングされた多くの間違った領域が存在する。このため、本実施の形態では、前景領域の境界をスムージングし、領域内のホールを除去するために、カーマープロファイル抽出技術を改良したシルエット抽出技術を用いて、各領域の輪郭を抽出している。
図13は、初期対象物に適用される輪郭抽出処理を説明するための模式図である。図13の(a)〜(d)に示すように、輪郭抽出部18は、重み付けされた一画素の厚いドレープD1〜D4を初期対象物RAに対して順次一方側から反対側へ移動させ、4つのドレープD1〜D4によって包まれた領域SIが最終的に前景領域を示すこととなる。なお、ドレープD1〜D4の隣接画素は、その幅が所定の閾値Mより小さい浸潤ギャップのない対象物を覆う弾性バネによって連結されている。
次に、ステップS17において、領域成長部19は、輪郭が抽出された領域において、第1の領域、第2の領域、第3の領域、第4の領域の順に領域成長法を適用して、各領域を成長させ、対象物の輪郭の内側に実際に存在するホールを復元して前景領域抽出部20へ出力する。
ここで、上記のシルエット抽出技術では、複数の対象物が撮影シーン中に存在するときに、対象物の内部に実際に存在するホールをも覆う可能性があり、対象物間の領域に重大なエラーを引き起こすという欠点を有している。このため、本実施の形態では、第1の問題を避けるために、各ラベリングされた領域に対してシルエット抽出技術を独立に適用し、第2の問題に対して、閾値THRGより大きい領域に対して、シルエット内の信頼性が高い背景領域から領域成長技術を順次実行している。
図14は、輪郭抽出処理の結果の一例を示す図であり、図15は、内部ホール復元処理の結果の一例を示す図である。図14の(a)及び図15の(a)に示すように、一人の人間が前景に位置する場合、輪郭抽出処理の結果と内部ホール復元処理の結果とで大きな差はないが、図14の(b)及び図15の(b)に示すように、二人の人間が手を繋いだ状態で前景に位置する場合、図14の(b)において喪失していた、二人の人間によって作られたホールが、図15の(b)では、領域成長処理によって第4の領域(信頼できる前景)から復元されていることがわかる。
次に、ステップS18において、前景領域抽出部20は、実際に存在するホールが復元された第3及び第4の領域を前景領域として抽出し、その他の領域をマスクする前景マスクを生成して動画像をマスクすることにより、動画像から対象物を抽出する。
図16は、上記の前景抽出処理により抽出された対象物のシルエットの一例を表す図である。図16の(a)は、処理対象画像を表し、(b)は、ステップS13までの処理により第1乃至第4の領域に区分された画像を表し、(c)は、ステップS14までの処理により影が除去された画像を表し、(d)は、ステップS18までの処理により対象物(人物)が抽出された画像を表している。また、(b)及び(c)において、黒、濃い灰色、薄い灰色、白の各領域が、第1の領域(信頼できる背景)、第2の領域(疑わしい背景)、第3の領域(疑わしい前景)、第4の領域(信頼できる前景)を示しており、影が除去され、各領域が正確に区分された画像から最終的に(d)に示す対象物が正確に抽出されている。
次に、ステップS19において、3次元モデル作成部21は、視体積交差法を用いて、3次元空間を複数のボクセルに分割し、各ボクセルを各ビデオカメラ11〜1nで撮影された処理対象画像上に投影し、領域記憶部22を参照して、各投影点が第1乃至第4の領域のいずれに属するかを判断し、この判断結果に基づいて、対象物を構成するボクセル以外のボクセルを削り取ることにより、対象物の3次元モデルを作成する。
図17は、図5の示すステップS19の3次元モデル作成処理を詳述するためのフローチャートである。まず、ステップS20において、3次元モデル作成部21は、一のボクセルを各ビデオカメラ11〜1nで撮影された処理対象画像上に投影し、領域記憶部22を参照して、当該ボクセルの投影点が各処理対象画像上の第1乃至第4の領域のいずれの領域に位置するかを判別する。
次に、ステップS21において、3次元モデル作成部21は、区分エラーが発生しているか否かを判断し、区分エラーが発生している場合、すなわち、すべての投影点のうち一の投影点が疑わしい背景領域すなわち背景である信頼性が低い第2の領域にあり、他の全てのN−1個の投影点が各処理対象画像の前景領域すなわち前景である信頼性が低い第3の領域又は前景である信頼性が高い第4の領域にある場合、ステップS22において、一の投影点を区分エラーによる異常点であると判断し、視体積交差法に用いる投影点から排除する。一方、区分エラーが発生していない場合、3次元モデル作成部21は、処理をステップS23へ移行する。
次に、ステップS23において、3次元モデル作成部21は、部分的な遮蔽物によるエラーである遮蔽エラーが発生しているか否かを判断し、遮蔽エラーが発生している場合、すなわち、すべての投影点のうち一の投影点が信頼できる背景領域すなわち背景である信頼性が高い第2の領域にあり、当該一の投影点に隣接する2つの投影点が処理対象画像の信頼できる前景領域すなわち前景である信頼性が高い第4の領域にある場合、ステップS24において、一の投影点を遮蔽エラーによる異常点であると判断し、視体積交差法に用いる投影点から排除する。一方、遮蔽エラーが発生していない場合、3次元モデル作成部21は、処理をステップS25へ移行する。
次に、ステップS25において、3次元モデル作成部21は、上記のようにして、区分エラー及び遮蔽エラーによる投影点を判断対象から排除して、残りの正確な投影点のうち少なくとも一の投影点が背景領域すなわち背景である信頼性が高い第1の領域又は背景である信頼性が低い第2の領域にあるか否かを判断し、少なくとも一の投影点が背景領域にある場合、当該ボクセルを3次元形状モデルから削り取り、その他の場合、3次元モデルを構成するボクセルとして当該ボクセルを残す。
次に、ステップS26において、3次元モデル作成部21は、上記の処理(ステップS20〜S25)が全てのボクセルに対して終了したか否かを判断し、全てのボクセルに対して処理が終了していない場合は、次のボクセルを処理対象ボクセルに設定してステップS20以降の処理を繰り返し、全てのボクセルに対して処理が終了している場合は、図5のステップS11に戻って、次の処理対象画像に対して上記の処理(ステップS11〜S19)が繰り返される。
次に、上記の3次元モデル作成処理を実際に実行した結果について詳細に説明する。ここで、ビデオカメラ11〜1nとして、8台の校正済のIEEE−1394カメラを撮影空間の天井又は壁の所定箇所に固定し、3次元空間を1cm×1cm×1cmのボクセルを用いて分割して550×550×250の分解能でモデル化し、下記の評価を行った。
図18は、図1に示す画像処理装置によりビジュアル・ハルを再構築した結果の一例を示す図であり、(a)は手作業で領域を正確に区分したマスク画像から作成したビジュアル・ハルであり、(b)は従来の視体積交差法において使用するパラメータを最適化して作成したビジュアル・ハルであり、(c)は従来の視体積交差法において使用するパラメータを緩和して作成したビジュアル・ハルであり、(d)は図1に示す画像処理装置により作成したビジュアル・ハルである。図18に示すように、(b)では、あるカメラ視点において区分エラーが発生してビジュアル・ハルが損傷して腕の一部が欠落し、(c)では、不要な部分がビジュアル・ハルとして再構築され、足の部分を正確に復元できなかったが、本実施の形態による(d)では、(a)と同様に、ビジュアル・ハルを正確に再構築することができ、対象物を正確に復元することができた。
図19は、遮蔽エラーがある場合のビジュアル・ハルを再構築した結果の一例を示す図であり、(a)はビジュアル・ハルの再構築に使用した処理対象画像の例を示し、(b)は従来の視体積交差法において使用するパラメータを最適化して作成したビジュアル・ハルであり、(c)は図1に示す画像処理装置により作成したビジュアル・ハルである。図19の(a)に示すように、遮蔽物としてテーブル、ラック及びホワイトボード等がある場合、(b)では、遮蔽エラーによりビジュアル・ハルが損傷して脚部の一部が大きく欠落したが、本実施の形態による(c)では、脚部を含めてほぼ全体的にビジュアル・ハルを正確に再構築することができ、対象物をほぼ正確に復元することができた。
図20は、図1に示す画像処理装置により再構築されたビジュアル・ハルに他の背景をレンダリングした結果の一例を示す図である。図20から、図1に示す画像処理装置により正確に再構築されたビジュアル・ハルを用いて、任意の視点から見た対象物にテクスチャマッピングを施して種々の背景に正確にレンダリングできたことがわかる。
なお、上記の説明では、抽出される対象物として、人間を例に説明したが、他の動物、他の物体等にも同様に適用することができ、同様の効果を得ることができる。
本発明の一実施の形態による画像処理装置の構成を示すブロック図である。 連続した150フレームから計算された各画素の平均からの偏差の分布を示す図である。 図1に示す3次元モデル作成部の視体積交差法による3次元復元処理を説明するための模式図である。 シルエット内部の信頼性だけでなく、シルエット間の信頼性をも用いて3次元モデルを復元する処理を説明するための模式図である。 図1に示す画像処理装置による3次元モデル作成処理を説明するためのフローチャートである。 ビデオカメラにより撮影された画像から生成した背景モデル画像の輝度成分の一例を示す図である。 図6に示す背景モデル画像の色成分の一例を示す図である。 本実施の形態に使用した処理対象画像の一例を示す図である。 図8に示す処理対象画像の差分後の輝度成分を示す図である。 図8及び図9に示す画像を用いた分類結果を示す図である。 影除去処理後の結果の一例を示す図である。 ラベリング処理の結果の一例を示す図である。 初期対象物に適用される輪郭抽出処理を説明するための模式図である。 輪郭抽出処理の結果の一例を示す図である。 内部ホール復元処理の結果の一例を示す図である。 前景抽出処理により抽出された対象物のシルエットの一例を表す図である。 図5の示す3次元モデル作成処理を詳述するためのフローチャートである。 図1に示す画像処理装置によりビジュアル・ハルを再構築した結果の一例を示す図である。 遮蔽エラーがある場合のビジュアル・ハルを再構築した結果の一例を示す図である。 図1に示す画像処理装置により再構築されたビジュアル・ハルに他の背景をレンダリングした結果の一例を示す図である。 従来の視体積交差法により復元された3次元モデルを説明するための図である。
符号の説明
11〜1n ビデオカメラ
12 背景モデル記憶部
13 画像取得部
14 背景差分部
15 領域区分部
16 影除去部
17 ラベリング部
18 輪郭抽出部
19 領域成長部
20 前景領域抽出部
21 3次元モデル作成部
22 領域記憶部

Claims (7)

  1. 背景及び前景を含む動画像から前景を構成する対象物の領域である前景領域を抽出して前記対象物の3次元モデルを作成する画像処理装置であって、
    互いに異なる複数のカメラ視点から撮影された動画像を処理対象画像として取得する取得手段と、
    前記取得手段により取得された処理対象画像から、前景を含まず、背景を含む背景モデル画像からなる背景画像を差分して差分画像を作成する背景差分手段と、
    前記差分画像を基に、前記処理対象画像を、当該領域が前景でなく背景である信頼性が高い第1の領域と、当該領域が前景でなく背景である信頼性が前記第1の領域より低い第2の領域と、当該領域が背景でなく前景である信頼性が低い第3の領域と、当該領域が背景でなく前景である信頼性が前記第3の領域より高い第4の領域とに区分する領域区分手段と、
    視体積交差法を用いて、3次元空間を複数のボクセルに分割し、各ボクセルを各カメラ視点で撮影された処理対象画像上に投影した各投影点が前記第1乃至第4の領域のいずれに属するかを判断し、この判断結果に基づいて、対象物を構成するボクセル以外のボクセルを削り取ることにより、前記対象物の3次元モデルを作成する作成手段とを備え、
    前記作成手段は、一のボクセルを一のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第1の領域に属し、当該ボクセルを他のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第4の領域に属する場合、前記一のカメラ視点で撮影された処理対象画像上に投影された投影点を判断対象から除外し、残りの投影点を用いて、前記対象物の3次元モデルを作成することを特徴とする画像処理装置。
  2. 前記作成手段は、一のボクセルを第1のカメラ視点で撮影された処理対象画像上に投影した第1の投影点が前記第1の領域に属し、当該ボクセルを、当該ボクセルを中心として前記第1のカメラ視点に対して所定角度内に位置する第2のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第4の領域に属する場合、前記第1のカメラ視点で撮影された処理対象画像上に投影された投影点を判断対象から除外し、残りの投影点のうち少なくとも一つの投影点が前記第1又は第2の領域に属するボクセルを削り取ることにより、前記対象物の3次元モデルを作成することを特徴とする請求項1記載の画像処理装置。
  3. 前記複数のカメラ視点の中から互いに異なる2以上のカメラ視点を含む複数のカメラ視点群を予め記憶する記憶手段をさらに備え、
    前記作成手段は、一のボクセルを第1のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第1の領域に属し、当該ボクセルを、前記記憶手段に記憶されている前記第1のカメラ視点が属するカメラ視点群に含まれる他のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第4の領域に属する場合、前記第1のカメラ視点で撮影された処理対象画像上に投影された投影点を判断対象から除外し、残りの投影点のうち少なくとも一つの投影点が前記第1又は第2の領域に属するボクセルを削り取ることにより、前記対象物の3次元モデルを作成することを特徴とする請求項1記載の画像処理装置。
  4. 前記作成手段は、一のボクセルを第1のカメラ視点で撮影された処理対象画像上に投影した第1の投影点が前記第1の領域に属し、当該ボクセルを、前記第1のカメラ視点に隣接するカメラ視点で撮影された処理対象画像上に投影した投影点が前記第4の領域に属する場合、前記第1のカメラ視点で撮影された処理対象画像上に投影された投影点を判断対象から除外し、残りの投影点のうち少なくとも一つの投影点が前記第1又は第2の領域に属するボクセルを削り取ることにより、前記対象物の3次元モデルを作成することを特徴とする請求項1〜3のいずれかに記載の画像処理装置。
  5. 前記作成手段は、一のボクセルを一のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第2の領域に属し、当該ボクセルを、他の2以上のカメラ視点で撮影された処理対象画像上に投影した投影点が少なくとも前記第4の領域に属する場合、前記一のカメラ視点で撮影された処理対象画像上に投影された投影点を判断対象から除外し、残りの投影点のうち少なくとも一つの投影点が前記第1又は第2の領域に属するボクセルを削り取ることにより、前記対象物の3次元モデルを作成することを特徴とする請求項1〜4のいずれかに記載の画像処理装置。
  6. 処理対象画像を取得する取得手段と、前記処理対象画像から差分画像を作成する背景差分手段と、前記処理対象画像を複数の領域に区分する領域区分手段と、視体積交差法を用いて3次元モデルを作成する作成手段とを備える画像処理装置を用いて、背景及び前景を含む動画像から前景を構成する対象物の領域である前景領域を抽出して前記対象物の3次元モデルを作成する画像処理方法であって、
    前記取得手段が、互いに異なる複数のカメラ視点から撮影された動画像を処理対象画像として取得する第1のステップと、
    前記背景差分手段が、前記第1のステップにおいて取得された処理対象画像から、前景を含まず、背景を含む背景モデル画像からなる背景画像を差分して差分画像を作成する第2のステップと、
    前記領域区分手段が、前記差分画像を基に、前記処理対象画像を、当該領域が前景でなく背景である信頼性が高い第1の領域と、当該領域が前景でなく背景である信頼性が前記第1の領域より低い第2の領域と、当該領域が背景でなく前景である信頼性が低い第3の領域と、当該領域が背景でなく前景である信頼性が前記第3の領域より高い第4の領域とに区分する第3のステップと、
    前記作成手段が、視体積交差法を用いて、3次元空間を複数のボクセルに分割し、各ボクセルを各カメラ視点で撮影された処理対象画像上に投影した各投影点が前記第1乃至第4の領域のいずれに属するかを判断し、この判断結果に基づいて、対象物を構成するボクセル以外のボクセルを削り取ることにより、前記対象物の3次元モデルを作成する第4のステップとを含み、
    前記第4のステップは、前記作成手段が、一のボクセルを一のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第1の領域に属し、当該ボクセルを他のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第4の領域に属する場合、前記一のカメラ視点で撮影された処理対象画像上に投影された投影点を判断対象から除外し、残りの投影点を用いて、前記対象物の3次元モデルを作成する第5のステップを含むことを特徴とする画像処理方法。
  7. 背景及び前景を含む動画像から前景を構成する対象物の領域である前景領域を抽出して前記対象物の3次元モデルを作成する画像処理プログラムであって、
    互いに異なる複数のカメラ視点から撮影された動画像を処理対象画像として取得する取得手段と、
    前記取得手段により取得された処理対象画像から、前景を含まず、背景を含む背景モデル画像からなる背景画像を差分して差分画像を作成する背景差分手段と、
    前記差分画像を基に、前記処理対象画像を、当該領域が前景でなく背景である信頼性が高い第1の領域と、当該領域が前景でなく背景である信頼性が前記第1の領域より低い第2の領域と、当該領域が背景でなく前景である信頼性が低い第3の領域と、当該領域が背景でなく前景である信頼性が前記第3の領域より高い第4の領域とに区分する領域区分手段と、
    視体積交差法を用いて、3次元空間を複数のボクセルに分割し、各ボクセルを各カメラ視点で撮影された処理対象画像上に投影した各投影点が前記第1乃至第4の領域のいずれに属するかを判断し、この判断結果に基づいて、対象物を構成するボクセル以外のボクセルを削り取ることにより、前記対象物の3次元モデルを作成する作成手段としてコンピュータを機能させ、
    前記作成手段は、一のボクセルを一のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第1の領域に属し、当該ボクセルを他のカメラ視点で撮影された処理対象画像上に投影した投影点が前記第4の領域に属する場合、前記一のカメラ視点で撮影された処理対象画像上に投影された投影点を判断対象から除外し、残りの投影点を用いて、前記対象物の3次元モデルを作成することを特徴とする画像処理プログラム。
JP2007242187A 2007-09-19 2007-09-19 画像処理装置、画像処理方法及び画像処理プログラム Pending JP2009074836A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007242187A JP2009074836A (ja) 2007-09-19 2007-09-19 画像処理装置、画像処理方法及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007242187A JP2009074836A (ja) 2007-09-19 2007-09-19 画像処理装置、画像処理方法及び画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2009074836A true JP2009074836A (ja) 2009-04-09

Family

ID=40609972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007242187A Pending JP2009074836A (ja) 2007-09-19 2007-09-19 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP2009074836A (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010109873A1 (ja) 2009-03-25 2010-09-30 株式会社Sumco シリコンウェーハおよびその製造方法
JP2011043879A (ja) * 2009-08-19 2011-03-03 Kddi Corp マスク画像を抽出する方法及びプログラム並びにボクセルデータを構築する方法及びプログラム
JP2011048627A (ja) * 2009-08-27 2011-03-10 Kddi Corp マスク画像を抽出する方法及びプログラム並びにボクセルデータを構築する方法及びプログラム
JP2012013514A (ja) * 2010-06-30 2012-01-19 Canon Inc 情報処理装置、3次元位置算出方法及びプログラム
JP2013135357A (ja) * 2011-12-27 2013-07-08 Jvc Kenwood Corp 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム
JP2015109937A (ja) * 2013-01-23 2015-06-18 株式会社東芝 動作情報処理装置
JP2018195190A (ja) * 2017-05-19 2018-12-06 キヤノン株式会社 画像処理装置、画像処理方法
JP2020021397A (ja) * 2018-08-03 2020-02-06 日本電信電話株式会社 画像処理装置、画像処理方法、および画像処理プログラム
KR20200076287A (ko) * 2018-12-19 2020-06-29 동의대학교 산학협력단 3d 스캔 및 스캔 이미지 보정 방법
WO2020209108A1 (ja) * 2019-04-12 2020-10-15 ソニー株式会社 画像処理装置、3dモデル生成方法、およびプログラム
JP2021056679A (ja) * 2019-09-27 2021-04-08 Kddi株式会社 画像処理装置、方法及びプログラム
WO2021153261A1 (ja) * 2020-01-30 2021-08-05 ソニーグループ株式会社 制御装置、撮影システム、および3dモデルデータ生成方法
US11095871B2 (en) 2018-04-26 2021-08-17 Canon Kabushiki Kaisha System that generates virtual viewpoint image, method and storage medium
JP2022512604A (ja) * 2018-10-05 2022-02-07 ゼブラ テクノロジーズ コーポレイション 支持構造の深さを決定するための方法、システムおよび装置
JP2023514107A (ja) * 2021-01-15 2023-04-05 チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド 三次元再構築方法、装置、機器及び記憶媒体

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010109873A1 (ja) 2009-03-25 2010-09-30 株式会社Sumco シリコンウェーハおよびその製造方法
JP2011043879A (ja) * 2009-08-19 2011-03-03 Kddi Corp マスク画像を抽出する方法及びプログラム並びにボクセルデータを構築する方法及びプログラム
JP2011048627A (ja) * 2009-08-27 2011-03-10 Kddi Corp マスク画像を抽出する方法及びプログラム並びにボクセルデータを構築する方法及びプログラム
JP2012013514A (ja) * 2010-06-30 2012-01-19 Canon Inc 情報処理装置、3次元位置算出方法及びプログラム
JP2013135357A (ja) * 2011-12-27 2013-07-08 Jvc Kenwood Corp 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム
JP2015109937A (ja) * 2013-01-23 2015-06-18 株式会社東芝 動作情報処理装置
JP2018195190A (ja) * 2017-05-19 2018-12-06 キヤノン株式会社 画像処理装置、画像処理方法
JP7012457B2 (ja) 2017-05-19 2022-01-28 キヤノン株式会社 画像処理装置、画像処理方法
US11095871B2 (en) 2018-04-26 2021-08-17 Canon Kabushiki Kaisha System that generates virtual viewpoint image, method and storage medium
WO2020027210A1 (ja) * 2018-08-03 2020-02-06 日本電信電話株式会社 画像処理装置、画像処理方法、および画像処理プログラム
US11881005B2 (en) 2018-08-03 2024-01-23 Nippon Telegraph And Telephone Corporation Image processing device, image processing method, and image processing program
JP7144678B2 (ja) 2018-08-03 2022-09-30 日本電信電話株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP2020021397A (ja) * 2018-08-03 2020-02-06 日本電信電話株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP2022512604A (ja) * 2018-10-05 2022-02-07 ゼブラ テクノロジーズ コーポレイション 支持構造の深さを決定するための方法、システムおよび装置
KR20200076287A (ko) * 2018-12-19 2020-06-29 동의대학교 산학협력단 3d 스캔 및 스캔 이미지 보정 방법
KR102166236B1 (ko) * 2018-12-19 2020-10-15 동의대학교 산학협력단 3d 스캔 및 스캔 이미지 보정 방법
WO2020209108A1 (ja) * 2019-04-12 2020-10-15 ソニー株式会社 画像処理装置、3dモデル生成方法、およびプログラム
CN113647093A (zh) * 2019-04-12 2021-11-12 索尼集团公司 图像处理装置、3d模型生成方法和程序
JP7197451B2 (ja) 2019-09-27 2022-12-27 Kddi株式会社 画像処理装置、方法及びプログラム
JP2021056679A (ja) * 2019-09-27 2021-04-08 Kddi株式会社 画像処理装置、方法及びプログラム
WO2021153261A1 (ja) * 2020-01-30 2021-08-05 ソニーグループ株式会社 制御装置、撮影システム、および3dモデルデータ生成方法
JP2023514107A (ja) * 2021-01-15 2023-04-05 チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド 三次元再構築方法、装置、機器及び記憶媒体
JP7352748B2 (ja) 2021-01-15 2023-09-28 チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド 三次元再構築方法、装置、機器及び記憶媒体

Similar Documents

Publication Publication Date Title
JP2009074836A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
Zhang et al. Fast haze removal for nighttime image using maximum reflectance prior
JP5317206B2 (ja) 3次元モデル取得のための方法及びシステム
JP2009031939A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP7003994B2 (ja) 画像処理装置および方法
US9042662B2 (en) Method and system for segmenting an image
JP2006514363A (ja) 変化検出および分類を用いた映像シーン背景の維持
JP2008192131A (ja) 特徴レベル・セグメンテーションを実行するシステムおよび方法
JP2005341569A (ja) 物体を含むシーンの様式化された画像を生成する方法
CA3194402A1 (en) A line clearance system
JP4780564B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR102327304B1 (ko) 깊이영상 카메라로부터 획득된 3d 영상의 품질 향상 방법
Benedek et al. An integrated 4D vision and visualisation system
Kim et al. Robust foreground segmentation from color video sequences using background subtraction with multiple thresholds
Ma et al. Automatic video object segmentation using depth information and an active contour model
KR20100086839A (ko) 이동 물체 탐지 방법 및 그 감시 시스템
Moro et al. Auto-adaptive threshold and shadow detection approaches for pedestrians detection
Kim et al. Compensated visual hull for defective segmentation and occlusion
JP5838112B2 (ja) 複数の被写体領域を分離する方法、プログラム及び装置
Mould et al. A conservative scene model update policy
Frantc et al. Video inpainting using scene model and object tracking
Pojage et al. Review on automatic fast moving object detection in video of surveillance system
Mishra et al. Modified hue over intensity ratio based method for shadow detection and removal in arial images
Liu et al. Crowd density estimation based on the normalized number of foreground pixels in infrared images
Trivedi et al. K-means clustering with adaptive threshold for segmentation of hand images