JP6357396B2 - 背景差分装置、方法、及びプログラム - Google Patents

背景差分装置、方法、及びプログラム Download PDF

Info

Publication number
JP6357396B2
JP6357396B2 JP2014204611A JP2014204611A JP6357396B2 JP 6357396 B2 JP6357396 B2 JP 6357396B2 JP 2014204611 A JP2014204611 A JP 2014204611A JP 2014204611 A JP2014204611 A JP 2014204611A JP 6357396 B2 JP6357396 B2 JP 6357396B2
Authority
JP
Japan
Prior art keywords
background
depth image
camera
unit
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014204611A
Other languages
English (en)
Other versions
JP2016076015A (ja
Inventor
達哉 大澤
達哉 大澤
悠 米本
悠 米本
行信 谷口
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014204611A priority Critical patent/JP6357396B2/ja
Publication of JP2016076015A publication Critical patent/JP2016076015A/ja
Application granted granted Critical
Publication of JP6357396B2 publication Critical patent/JP6357396B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、背景差分装置、方法、及びプログラムに係り、特に、画像から背景となる画像を差分することで前景物体領域の情報だけを取得する背景差分装置、方法、及びプログラムに関する。
コンピュータビジョン分野では、注視したい被写体のみの情報を取得するため入力された映像から背景となる情報を差分し、前景物体領域だけの情報を抜き出す背景差分を行う研究が行われている。
例えば、監視カメラなど固定カメラを用いて、撮影された映像の各画素値の頻度分布を時系列で観測し、これを統計モデルに当てはめることで、逐次的に背景モデルを生成し、背景モデルから外れた値が入力された場合に前景として抜き出すことで、動物体など前景物体領域の情報のみを抜き出す方法がある(非特許文献1)。
C. Stauffer, W.E.L. Grimson, "Adaptive Background Mixture Models for Real-Time Tracking", Proc. of IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 246-252, 1999.
非特許文献1の背景差分を行う方法においては、固定カメラを用いることでカメラの各画素値が背景を映している場合、あまり大きく変動することがないということが前提となっており、カメラが動くような状況においては背景と前景を分けることができないという問題がある。
本発明では、上記問題を解決するために成されたものであり、カメラが固定されていない場合であっても、各時刻における深度画像から、前景物体領域の深度情報を得ることができる背景差分装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係る背景差分方法は、深度画像取得部と、位置姿勢推定部と、仮想背景深度画像生成部と、背景差分取得部と、背景モデル更新部と、繰り返し判定部と、を含む背景差分装置における背景差分方法であって、前記深度画像取得部は、時系列に連続して入力される、カメラにより取得した深度画像を取得し、前記位置姿勢推定部は、前記深度画像取得部によって取得された前記深度画像を取得したときの前記カメラの位置及び姿勢を推定し、前記仮想背景深度画像生成部は、前記位置姿勢推定部により推定した前記カメラの位置及び姿勢と、予め用意された又は前回更新された背景の三次元位置を表す背景モデルとに基づいて、前記カメラにより取得することを仮定した場合に得られる、背景を表す仮想背景深度画像を生成し、前記背景差分取得部は、前記深度画像と、前記仮想背景深度画像生成部により生成された前記深度画像に対応する前記仮想背景深度画像との差分に基づいて、前景物体領域の深度情報を取得し、前記背景モデル更新部は、前記深度画像と、前記位置姿勢推定部により推定された前記カメラの位置及び姿勢とに基づいて、前記背景モデルを更新し、前記繰り返し判定部は、予め定められた終了条件を満たすまで、前記深度画像取得部による取得と、前記位置姿勢推定部による推定と、前記仮想背景深度画像生成部による生成と、前記背景差分取得部による取得と、前記背景モデル更新部による更新とを繰り返す。
第2の発明に係る背景差分装置は、時系列に連続して入力される、カメラにより取得した深度画像を取得する深度画像取得部と、前記深度画像取得部によって取得された前記深度画像を取得したときの前記カメラの位置及び姿勢を推定する位置姿勢推定部と、前記位置姿勢推定部により推定した前記カメラの位置及び姿勢と、予め用意された又は前回更新された背景の三次元位置を表す背景モデルとに基づいて、前記カメラにより取得することを仮定した場合に得られる、背景を表す仮想背景深度画像を生成する仮想背景深度画像生成部と、前記深度画像と、前記仮想背景深度画像生成部により生成された前記深度画像に対応する前記仮想背景深度画像との差分に基づいて、前景物体領域の深度情報を取得する背景差分取得部と、前記深度画像と、前記位置姿勢推定部により推定された前記カメラの位置及び姿勢とに基づいて、前記背景モデルを更新する背景モデル更新部と、予め定められた終了条件を満たすまで、前記深度画像取得部による取得と、前記位置姿勢推定部による推定と、前記仮想背景深度画像生成部による生成と、前記背景差分取得部による取得と、前記背景モデル更新部による更新とを繰り返す繰り返し判定部と、を含んで構成されている。
第1及び第2の発明によれば、深度画像取得部により、時系列に連続して入力される、カメラにより取得した深度画像を取得し、位置姿勢推定部により、取得された深度画像を取得したときのカメラの位置及び姿勢を推定し、仮想背景深度画像生成部により、推定したカメラの位置及び姿勢と、予め用意された又は前回更新された背景の三次元位置を表す背景モデルとに基づいて、カメラにより取得することを仮定した場合に得られる、背景を表す仮想背景深度画像を生成し、背景差分取得部により、深度画像と、生成された深度画像に対応する仮想背景深度画像との差分に基づいて、前景物体領域の深度情報を取得し、背景モデル更新部により、深度画像と、推定されたカメラの位置及び姿勢とに基づいて、背景モデルを更新し、繰り返し判定部により、予め定められた終了条件を満たすまで、深度画像取得部による取得と、位置姿勢推定部による推定と、仮想背景深度画像生成部による生成と、背景差分取得部による取得と、背景モデル更新部による更新とを繰り返す。
このように、時系列に連続して入力される、カメラにより取得した深度画像を取得し、取得された深度画像を取得したときのカメラの位置及び姿勢を推定し、推定したカメラの位置及び姿勢と、予め用意された又は前回更新された背景の三次元位置を表す背景モデルとに基づいて、カメラにより取得することを仮定した場合に得られる、背景を表す仮想背景深度画像を生成し、深度画像と、生成された深度画像に対応する仮想背景深度画像との差分に基づいて、前景物体領域の深度情報を取得し、深度画像と、推定されたカメラの位置及び姿勢とに基づいて、背景モデルを更新することを、予め定められた終了条件を満たすまで繰り返すことにより、カメラが固定されていない場合であっても、各時刻における深度画像から、前景物体領域の深度情報を得ることができる。
また、第1及び第2の発明において、前記仮想背景深度画像生成部により前記仮想背景深度画像を生成することは、前記背景モデルを構成する複数のボクセルの各々について、前記位置姿勢推定部により推定した前記カメラの位置及び姿勢に基づいて、前記カメラから見たときの前記ボクセルの座標値に変換し、前記変換された前記ボクセルの座標値に基づいて、前記カメラにより取得される画像の画像平面へ前記ボクセルを投影し、前記ボクセルが投影された前記画像平面の同一画素に投影された他のボクセルに付与された背景らしさを示す信頼度と、前記ボクセルの前記信頼度とを比較し、前記信頼度の比較結果に基づいて、前記ボクセルが投影された前記画像平面の画素の深度情報を更新することにより、前記仮想背景深度画像を生成してもよい。
また、第1及び第2の発明において、前記背景モデル更新部により前記背景モデルを更新することは、前記深度画像の各画素を三次元空間に逆投影し、前記逆投影により得られた各画素に対応する三次元点の各々について、前記位置姿勢推定部により推定された前記カメラの位置及び姿勢に基づいて、前記背景モデルの三次元空間における三次元座標に変換し、前記三次元点の各々について変換された前記三次元座標に基づいて、前記背景モデルを構成する複数のボクセルの各々に付与された背景らしさを示す信頼度を更新してもよい。
また、本発明のプログラムは、コンピュータに、上記の背景差分方法における各ステップを実行させるためのプログラムである。
以上説明したように、本発明の背景差分装置、方法、及びプログラムによれば、時系列に連続して入力される、カメラにより取得した深度画像を取得し、取得された深度画像を取得したときのカメラの位置及び姿勢を推定し、推定したカメラの位置及び姿勢と、予め用意された又は前回更新された背景の三次元位置を表す背景モデルとに基づいて、カメラにより取得することを仮定した場合に得られる、背景を表す仮想背景深度画像を生成し、深度画像と、生成された深度画像に対応する仮想背景深度画像との差分に基づいて、前景物体領域の深度情報を取得し、深度画像と、推定されたカメラの位置及び姿勢とに基づいて、背景モデルを更新することを、予め定められた終了条件を満たすまで繰り返すことにより、カメラが固定されていない場合であっても、各時刻における深度画像から、前景物体領域の深度情報を得ることができる。
本発明の実施の形態に係る背景差分装置の機能的構成を示すブロック図である。 各ボクセルに背景らしさの信頼度のついたボクセル空間の例を示す図である。 ボクセル空間の原点の設定例を示す図である。 ボクセルと逆投影に利用した深度画像Imの画素を結ぶベクトルの計算の例を示す図である。 本発明の実施の形態に係る背景差分装置における背景差分処理ルーチンを示すフローチャート図である。 本発明の実施の形態に係る背景差分装置における仮想背景深度画像の生成処理ルーチンを示すフローチャート図である。 本発明の実施の形態に係る背景差分装置における背景モデル更新処理ルーチンを示すフローチャート図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態に係る背景差分装置の構成>
次に、本発明の実施の形態に係る背景差分装置の構成について説明する。図1に示すように、本発明の実施の形態に係る背景差分装置100は、CPUと、RAMと、後述する背景差分処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この背景差分装置100は、機能的には、カメラ10と、入力部12と、演算部20と、出力部90とを含んで構成されている。
カメラ10は、前景物体及び背景を含む領域を撮影し、入力部12に深度画像Imを画像データとして出力する。また、カメラ10は、予め定められた間隔の各時刻において、撮影を行う。なお、本実施の形態においては、カメラ10は、例えばステレオカメラなどの深度カメラを用いる。なお、深度画像Imの各画素には、各画素のZ値を画素値として保持している。
入力部12は、カメラ10から時系列に連続して入力される各時刻の深度画像Imの画像データを受け付ける。
演算部20は、深度画像取得部22と、位置姿勢推定部24と、背景モデル記憶部26と、仮想背景深度画像生成部28と、背景差分取得部30と、背景モデル更新部32と、繰り返し判定部34と、を含んで構成されている。
深度画像取得部22は、入力部12において受け付けた現時刻の深度画像Imを取得する。なお、深度画像取得部22は、初回の処理において、一番早い時刻に撮影された深度画像Imを取得し、繰り返し処理毎に、現時刻に撮影された深度画像Imを取得するように、処理毎に撮影された時刻をずらしながら現時刻に撮影された深度画像Imを取得する。
位置姿勢推定部24は、深度画像取得部22において取得した深度画像Imに基づいて、当該深度画像Imを撮影した現時刻のカメラ位置、及び姿勢を推定する。本実施の形態においては、深度画像取得部22において前回取得した深度画像Imと、深度画像取得部22において取得した深度画像Imとに基づいて、時間的に隣接する深度情報のずれを用いてカメラ10の位置及び姿勢を推定する。なお、初回の処理の場合には、カメラ10の位置及び姿勢のパラメータ(X,Y,Z,θx,θy,θz)として、初期位置及び姿勢(0,0,0,0,0,0)を設定し、以後の繰り返し処理について推定するカメラ10の位置及び姿勢として、初期位置及び姿勢からの相対的な位置及び姿勢を推定する。また、本実施の形態においては、例えば、Iterative Closest Point(ICP)アルゴリズムにより推定する(非特許文献2:R.A. Newcombe , S. Izadi , O. Hilliges , D. Molyneaux , D. Kim , A.J. Davison , P. Kohli , J. Shotton , S. Hodges and A. Fitzgibbon "KinectFusion: Real-time Dense Surface Mapping and Tracking", Proc. IEEE Int. Symp. Mixed and Augmented Reality (ISMAR), 2011)。
背景モデル記憶部26には、背景の三次元位置を表す背景モデルが記憶されている。なお、本実施の形態では、三次元位置を表す背景モデルを、図2に示すような各ボクセルに背景らしさの信頼度を付与したボクセル空間として表す。また、ボクセルの範囲は、本実施の形態において利用する深度カメラのセンシング範囲及びカメラの動作範囲から予め決定されているものとする。また、図3に示すように、ボクセル空間の原点を初期時刻のカメラ位置及び姿勢として設定する。
仮想背景深度画像生成部28は、位置姿勢推定部24において取得した現時刻のカメラ10の位置及び姿勢に合わせて、背景モデル記憶部26に記憶されている背景モデルを二次元の画像上に投影することにより、カメラ10により取得することを仮定した場合に得られる、背景を表す仮想背景深度画像Smを生成する。具体的には、まず、カメラ10の位置及び姿勢に合わせて、背景モデル記憶部26に記憶されている背景モデルを座標変換する。カメラの位置及び姿勢が、回転行列Rと並進行列Tとで表される場合、各ボクセルの中心を表す三次元座標に対し、下記(1)式の変換行列Kをかけて、カメラから見たときのボクセルの座標値に座標変換を行う。なお、本実施の形態においては、各ボクセルの中心を表す三次元座標は、例えば、4行1列であるものとする。

次に、各ボクセルを仮想画像平面へと投影を行う。これはカメラ10の内部パラメータで構成されるカメラ行列をAとすれば、座標変換後のボクセルの中心を表す三次元座標に対し、A行列をかけることで、画像平面上のどの画素に各ボクセルが投影されるかを計算する。次に、投影後の仮想画像平面における信頼度の比較を行う。画素上に投影したボクセルの信頼度が、既に同一画素に投影済みのボクセルの信頼度より高い場合、若しくは、まだその同一画素に投影されたボクセルがない場合に、投影したボクセルの値を用いて仮想画像平面の当該画素の画素値を更新する。本実施の形態では、ボクセルが投影された仮想画像平面の画素の画素値として、座標変換後のボクセルの中心を表す三次元座標のZ値を格納する。一方、画素上に投影したボクセルの信頼度が、既に同一画素に投影済みのボクセルの信頼度以下である場合には、全てのボクセルが処理されたかどうかを確認し、全てのボクセルの処理が終わるまで、ボクセルの仮想画像平面への投影を繰り返す。なお、カメラの内部パラメータ(焦点距離や投影中心)は予めキャリブレーション済みで定められているものとする。また、本実施の形態において、A行列は、例えば3行4列であるものとし、一例として、パラメータは5か所に設定されているものとする。
背景差分取得部30は、深度画像取得部22において取得した深度画像Imから、仮想背景深度画像生成部28において生成された仮想背景深度画像Smを差分し、背景以外の前景物体領域の深度情報を取得する。具体的には、カメラ10の計測誤差を考慮して、深度画像Imの画素値が、対応する仮想背景深度画像Smの画素値を中心として一定の範囲に含まれる場合には、差分値を0とする。この範囲は、例えば、カメラ10で既知の距離を複数回計測し、その頻度分布より、計測値の分散σを求めておき、固定のパラメータnと計測値の分散σとの積nσ以内に含まれるように設定する。
背景モデル更新部32は、深度画像取得部22において取得した深度画像Imを三次元空間に逆投影し、背景モデル記憶部26から三次元背景モデルに取り込むとともに、深度画像Imを三次元空間に逆投影した結果を用いて、背景モデルの信頼度を更新し、更新した背景モデルを背景モデル記憶部26に記憶する。具体的には、まず、深度画像Imを三次元空間へ逆投影を行う。ここで、深度画像Imの各画素のZ値、カメラ行列A、及び位置姿勢推定部24において取得したカメラ10の位置及び姿勢を元に、下記(2)式に従って、各画素に対応する三次元点の三次元空間における計測値を求める。

ただし、dは深度画像Imの画素のZ値、(u,v)は深度画像の二次元の画素位置、(Cu,Cv)は深度画像Imの画像中心、fは焦点距離を表す。なお、uが横軸方向、vが縦軸方向を表す。
次に、上記(2)式で取得した各画素に対応する三次元点の三次元空間における計測値を、位置姿勢推定部24において取得したカメラ10の位置及び姿勢に合わせて変換する。これは、カメラの位置及び姿勢が、回転行列Rと並進行列Tとで表される場合、各三次元点に対し、上記(1)式の変換行列Kをかけて座標変換を行う。
次に、座標変換された各三次元点が、予め設定されたボクセルのどの箱に含まれるかを計算し、各ボクセルの信頼度を更新する。ここで、各ボクセルの信頼度の初期値は0となっており、各三次元点を範囲のボクセルを決定し、当該ボクセルの信頼度を下記(3)式に従って更新することで信頼度を加算する。

ただし、αは、学習率を表し、事前に設定しておくパラメータであり、wは、更新前の信頼度を表す。
また、図4に示すように当該ボクセルと、当該ボクセルへ逆投影された深度画像Imの画素とを結ぶベクトルを計算し、当該ベクトル上の他のボクセルの信頼度を下記(4)式に従って更新することで信頼度を減算する。

繰り返し判定部34は、背景差分取得部30により取得した背景以外の前景物体領域の深度情報を出力部90に出力すると共に、予め定められた終了条件を満たすか否かを判定する。当該終了条件を満たす場合には、背景差分装置100による処理を終了し、当該終了条件を満たしていない場合には、深度画像取得部22、位置姿勢推定部24、仮想背景深度画像生成部28、背景差分取得部30、背景モデル更新部32、及び繰り返し判定部34の処理を繰り返す。なお、本実施の形態においては、予め定められた終了条件は、処理対象となる深度画像Imが入力部12において受け付けた深度画像Imの最後の深度画像であることとする。
<本発明の実施の形態に係る背景差分装置の作用>
次に、本実施の形態に係る背景差分装置100の作用について説明する。入力部12において、カメラ10から時系列に連続して入力される各時刻の深度画像Imを受け付けると、背景差分装置100によって、図5に示す背景差分処理ルーチンが実行される。
まず、ステップS100では、入力部12において受け付けた現時刻の深度画像Imを取得する。
次に、ステップS102では、ステップS100において取得した現時刻の深度画像Imに基づいて、又は、ステップS100において取得した現時刻の深度画像Im、及び前回の処理においてステップS100において取得した一時刻前の深度画像Imに基づいて、ステップS100において取得した深度画像Imを撮影した現時刻のカメラ10の位置及び姿勢を推定する。
次に、ステップS104では、ステップS102において取得したカメラ10の位置及び姿勢に合わせて、背景モデル記憶部26に記憶されている背景モデルを二次元の画像上に投影することにより、仮想背景深度画像Smを生成する。
次に、ステップS106では、ステップS100において取得した深度画像Imから、ステップS104において取得した仮想背景深度画像Smを差分して、前景物体領域の深度情報を取得する。
次に、ステップS108では、ステップS100において取得した深度画像Imを三次元空間に逆投影し、背景モデル記憶部26から三次元背景モデルに取り込むとともに、深度画像Imを三次元空間に逆投影した結果を用いて、背景モデルの信頼度を更新し、更新した背景モデルを背景モデル記憶部26に記憶する。
次に、ステップS110では、ステップS100において取得した深度画像Imが、入力部12において受け付けた時系列に連続した深度画像Imのうち、最後の時刻の深度画像Imであるか判定する。時系列において最後の時刻の深度画像Imである場合には、背景差分処理ルーチンの処理を終了し、一方、時系列において最後の時刻の深度画像Imでない場合には、ステップS100に移行し、ステップS100〜ステップS110の処理を繰り返す。
上記ステップS104の仮想背景深度画像の生成の処理について、図6に示す仮想背景深度画像の生成処理ルーチンにおいて詳細に説明する。
図6のステップS200では、背景モデル記憶部26に記憶されている背景モデルを構成する各ボクセルのうち、処理対象となるボクセルの中心を表す三次元座標に対して、ステップS102において取得したカメラ位置及び姿勢に基づく、上記(1)式に表す変換行列Kをかけて、座標変換を行う。
次に、ステップS202では、ステップS200において座標変換されたボクセルを仮想画像平面の対応する画素上に投影する。
次に、ステップS204では、ステップS200において取得したボクセルの信頼度と、ステップS202において投影した画素上の、ステップS202の処理前に既に投影済みのボクセルの信頼度とを比較する。処理対象となるボクセルの信頼度が、ステップS202において投影した画素上の、ステップS202の処理前に既に投影済みのボクセルの信頼度以下である場合には、ステップS208へ移行し、一方、ステップS200において取得したボクセルの信頼度が、ステップS202において投影した画素上の、ステップS202の処理前に既に投影済みのボクセルの信頼度より高い、若しくは、ステップS202において処理対象となるボクセルを投影する画素に、ステップS202の処理前に投影されたボクセルがない場合には、ステップS206へ移行する。
ステップS206では、ステップS202において投影された画素の画素値である信頼度を、処理対象のボクセルの信頼度に更新する。
ステップS208では、背景モデルを構成する全てのボクセルについてステップS200〜ステップS204又はステップS206までの処理を終了したか否かを判定する。全てのボクセルについてステップS200〜ステップS204又はステップS206までの処理を終了している場合には、仮想背景深度画像の生成処理ルーチンの処理を終了し、全てのボクセルについてステップS200〜ステップS204又はステップS206の処理を終了していない場合には、処理対象となるボクセルを変更し、ステップS200〜ステップS208までの処理を繰り返す。
上記ステップS108の背景モデルの更新の処理について、図7に示す背景モデル更新処理ルーチンにおいて詳細に説明する。
図7に示す、ステップS300では、ステップS100において取得した深度画像Imの各画素のZ値、カメラ行列A、及びステップS102において取得したカメラ10の位置及び姿勢に基づいて、上記(2)式に従って、当該深度画像Imの各画素を三次元空間に逆投影し、当該深度画像Imの各画素の三次元空間における計測値の各々を取得する。
次に、ステップS302では、ステップS300において取得した各画素に対応する三次元点の三次元空間における計測値の各々を、ステップS102において取得したカメラ10の位置及び姿勢に合わせて、上記(1)式に従って変換する。
次に、ステップS304では、ステップS302において取得した座標変換された各三次元点が、予め設定されたボクセルのどの箱に含まれるかを計算し、上記(3)式、及び上記(4)式に従って該当するボクセルの信頼度を更新し、背景モデルの更新処理ルーチンの処理を終了する。
以上説明したように、本発明の実施の形態に係る背景差分装置によれば、時系列に連続して入力される、カメラにより取得した深度画像を取得し、取得された深度画像を取得したときのカメラの位置及び姿勢を推定し、推定したカメラの位置及び姿勢と、予め用意された又は前回更新された背景の三次元位置を表す背景モデルとに基づいて、仮想背景深度画像を生成し、深度画像と、生成された深度画像に対応する仮想背景深度画像との差分に基づいて、前景物体領域の深度情報を取得し、深度画像と、推定されたカメラの位置及び姿勢とに基づいて、背景モデルを更新することを、予め定められた終了条件を満たすまで繰り返すことにより、カメラが固定されていない場合であっても、各時刻における深度画像から、前景物体領域の深度情報を得ることができる。
また、入力に深度カメラを利用し、カメラの位置及び姿勢を逐次的に推定するとともに、三次元の背景モデルを構築することで、従来技術では達成できなかったカメラが動くような状況においても前景物体領域だけの情報を抽出することが可能である。例えば、この技術を用いることによって装着している人の動作に伴って、動きが生じるウェアラブルカメラから注目する物体に関する情報を取り出したりすることが可能となる。
また、処理を繰り返すことで各時刻における入力深度画像データに対し、背景を差分することで前景物体領域の深度情報のみを得ることが可能となる。
また、入力に深度カメラを利用し、カメラの位置・姿勢を逐次的に推定するとともに、三次元の背景モデルを構築することで、カメラが動くような状況においても前景物体領域だけの情報を抽出することができる。
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、本実施の形態においては、カメラの位置及び姿勢を、時間的に隣接する深度画像の深度情報のずれを用いて推定する場合について説明したが、これに限定されるものではなく、画像からカメラの位置及び姿勢を推定する手法であればどのような手法を用いてもよい。例えば、深度カメラから一緒に取得できる二次元画像から特徴点を抽出し、これを追跡した結果からカメラの位置及び姿勢を推定することも可能である。
また、本実施の形態においては、深度画像Imの各画素には、各画素のZ値を画素値として保持している場合について説明したが、これに限定されるものではない。例えば、白黒の濃淡の値等の、深度画像Imの各画素値として、Z値が復元できる値であればよい。
また、本実施の形態においては、A行列は3行4列であるものとし、パラメータは5か所に設定されているものとする場合について説明したが、これに限定されるものではない。例えば、カメラの特性によって、ひずみやゆがみのパラメータが含まれる場合には、当該パラメータについても設定してもよい。
また、本実施の形態においては、現時刻において取得した深度画像について処理を行う場合について説明したが、これに限定されるものではない。例えば、処理対象となる深度画像の各々を読み込み、時系列順に処理対象となる深度画像を選択し、処理を繰り返してもよい。
また、図1で示した背景差分装置における各部の一部もしくは全部の機能をコンピュータのプログラムで構成し,そのプログラムをコンピュータを用いて実行して本発明を実現することができること、図5で示した背景差分処理の手順をコンピュータのプログラムで構成し、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えばFDや、MO、ROM、メモリカード、CD、DVD、リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。
10 カメラ
12 入力部
20 演算部
22 深度画像取得部
24 位置姿勢推定部
26 背景モデル記憶部
28 仮想背景深度画像生成部
30 背景差分取得部
32 背景モデル更新部
34 繰り返し判定部
90 出力部
100 背景差分装置

Claims (7)

  1. 深度画像取得部と、位置姿勢推定部と、仮想背景深度画像生成部と、背景差分取得部と、背景モデル更新部と、繰り返し判定部と、を含む背景差分装置における背景差分方法であって、
    前記深度画像取得部は、時系列に連続して入力される、カメラにより取得した深度画像を取得し、
    前記位置姿勢推定部は、前記深度画像取得部によって取得された前記深度画像を取得したときの前記カメラの位置及び姿勢を推定し、
    前記仮想背景深度画像生成部は、前記位置姿勢推定部により推定した前記カメラの位置及び姿勢と、予め用意された又は前回更新された背景の三次元位置を表す背景モデルであって、かつ、背景らしさを示す信頼度が各々付与された複数のボクセルで構成される背景モデルとに基づいて、前記カメラにより取得することを仮定した場合に得られる、背景を表す仮想背景深度画像を生成し、
    前記背景差分取得部は、前記深度画像と、前記仮想背景深度画像生成部により生成された前記深度画像に対応する前記仮想背景深度画像との差分に基づいて、前景物体領域の深度情報を取得し、
    前記背景モデル更新部は、前記深度画像と、前記位置姿勢推定部により推定された前記カメラの位置及び姿勢とに基づいて、前記背景モデルを構成する複数のボクセルの各々に付与された背景らしさを示す信頼度を更新し、
    前記繰り返し判定部は、予め定められた終了条件を満たすまで、前記深度画像取得部による取得と、前記位置姿勢推定部による推定と、前記仮想背景深度画像生成部による生成と、前記背景差分取得部による取得と、前記背景モデル更新部による更新とを繰り返す
    背景差分方法。
  2. 前記仮想背景深度画像生成部により前記仮想背景深度画像を生成することは、
    前記背景モデルを構成する複数のボクセルの各々について、
    前記位置姿勢推定部により推定した前記カメラの位置及び姿勢に基づいて、前記カメラから見たときの前記ボクセルの座標値に変換し、
    前記変換された前記ボクセルの座標値に基づいて、前記カメラにより取得される画像の画像平面へ前記ボクセルを投影し、
    前記ボクセルが投影された前記画像平面の同一画素に投影された他のボクセルに付与された背景らしさを示す信頼度と、前記ボクセルの前記信頼度とを比較し、前記信頼度の比較結果に基づいて、前記ボクセルが投影された前記画像平面の画素の深度情報を更新することにより、前記仮想背景深度画像を生成する請求項1記載の背景差分方法。
  3. 前記背景モデル更新部により前記背景モデルを更新することは、
    前記深度画像の各画素を三次元空間に逆投影し、
    前記逆投影により得られた各画素に対応する三次元点の各々について、前記位置姿勢推定部により推定された前記カメラの位置及び姿勢に基づいて、前記背景モデルの三次元空間における三次元座標に変換し、
    前記三次元点の各々について変換された前記三次元座標に基づいて、前記背景モデルを構成する複数のボクセルの各々に付与された背景らしさを示す信頼度を更新する請求項1又は2記載の背景差分方法。
  4. 時系列に連続して入力される、カメラにより取得した深度画像を取得する深度画像取得部と、
    前記深度画像取得部によって取得された前記深度画像を取得したときの前記カメラの位置及び姿勢を推定する位置姿勢推定部と、
    前記位置姿勢推定部により推定した前記カメラの位置及び姿勢と、予め用意された又は前回更新された背景の三次元位置を表す背景モデルであって、かつ、背景らしさを示す信頼度が各々付与された複数のボクセルで構成される背景モデルとに基づいて、前記カメラにより取得することを仮定した場合に得られる、背景を表す仮想背景深度画像を生成する仮想背景深度画像生成部と、
    前記深度画像と、前記仮想背景深度画像生成部により生成された前記深度画像に対応する前記仮想背景深度画像との差分に基づいて、前景物体領域の深度情報を取得する背景差分取得部と、
    前記深度画像と、前記位置姿勢推定部により推定された前記カメラの位置及び姿勢とに基づいて、前記背景モデルを構成する複数のボクセルの各々に付与された背景らしさを示す信頼度を更新する背景モデル更新部と、
    予め定められた終了条件を満たすまで、前記深度画像取得部による取得と、前記位置姿勢推定部による推定と、前記仮想背景深度画像生成部による生成と、前記背景差分取得部による取得と、前記背景モデル更新部による更新とを繰り返す繰り返し判定部と
    を含む、背景差分装置。
  5. 前記仮想背景深度画像生成部は、
    前記背景モデルを構成する複数のボクセルの各々について、
    前記位置姿勢推定部により推定した前記カメラの位置及び姿勢に基づいて、前記カメラから見たときの前記ボクセルの座標値に変換し、
    前記変換された前記ボクセルの座標値に基づいて、前記カメラにより取得される画像の画像平面へ前記ボクセルを投影し、
    前記ボクセルが投影された前記画像平面の同一画素に投影された他のボクセルに付与された背景らしさを示す信頼度と、前記ボクセルの前記信頼度とを比較し、前記信頼度の比較結果に基づいて、前記ボクセルが投影された前記画像平面の画素の深度情報を更新することにより、前記仮想背景深度画像を生成する請求項4記載の背景差分装置。
  6. 前記背景モデル更新部は、
    前記深度画像の各画素を三次元空間に逆投影し、
    前記逆投影により得られた各画素に対応する三次元点の各々について、前記位置姿勢推定部により推定された前記カメラの位置及び姿勢に基づいて、前記背景モデルの三次元空間における三次元座標に変換し、
    前記三次元点の各々について変換された前記三次元座標に基づいて、前記背景モデルを構成する複数のボクセルの各々に付与された背景らしさを示す信頼度を更新する請求項4又は5記載の背景差分装置。
  7. コンピュータに、請求項1〜3の何れか1項記載の背景差分方法における各ステップを実行させるためのプログラム。
JP2014204611A 2014-10-03 2014-10-03 背景差分装置、方法、及びプログラム Active JP6357396B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014204611A JP6357396B2 (ja) 2014-10-03 2014-10-03 背景差分装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014204611A JP6357396B2 (ja) 2014-10-03 2014-10-03 背景差分装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2016076015A JP2016076015A (ja) 2016-05-12
JP6357396B2 true JP6357396B2 (ja) 2018-07-11

Family

ID=55949919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014204611A Active JP6357396B2 (ja) 2014-10-03 2014-10-03 背景差分装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6357396B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113269689B (zh) * 2021-05-25 2023-08-29 西安交通大学 一种基于法向量和高斯权重约束的深度图像补全方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004013869A (ja) * 2002-06-12 2004-01-15 Nec Corp 3次元形状生成装置及びそれに用いる3次元形状生成方法並びにそのプログラム
KR101870902B1 (ko) * 2011-12-12 2018-06-26 삼성전자주식회사 영상 처리 장치 및 영상 처리 방법
JP2013205983A (ja) * 2012-03-27 2013-10-07 Sony Corp 情報入力装置及び情報入力方法、並びにコンピューター・プログラム

Also Published As

Publication number Publication date
JP2016076015A (ja) 2016-05-12

Similar Documents

Publication Publication Date Title
US11210804B2 (en) Methods, devices and computer program products for global bundle adjustment of 3D images
CN110998659B (zh) 图像处理系统、图像处理方法、及程序
KR101791590B1 (ko) 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법
JP6426968B2 (ja) 情報処理装置およびその方法
US11398049B2 (en) Object tracking device, object tracking method, and object tracking program
JP6676562B2 (ja) 画像合成装置、画像合成方法及びコンピュータプログラム
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JP5965293B2 (ja) カメラポーズ推定装置、及びカメラポーズ推定プログラム
JP2012529691A (ja) 3次元画像生成
JP5837860B2 (ja) 動き類似度算出装置、動き類似度算出方法およびコンピュータプログラム
JPWO2018139461A1 (ja) 移動物体検出装置、移動物体検出方法及び記憶媒体
JP6894707B2 (ja) 情報処理装置およびその制御方法、プログラム
Lun Robust fringe projection profilometry via sparse representation
KR102416523B1 (ko) 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법
US11741615B2 (en) Map segmentation method and device, motion estimation method, and device terminal
JP6054771B2 (ja) 背景モデル構築装置、背景モデル構築方法、およびプログラム
JP2017053795A (ja) 情報処理装置、位置姿勢計測方法、及び位置姿勢計測プログラム
JP2010511241A (ja) 動きに対する繰り返しセグメンテーション
JP4283816B2 (ja) 三次元環境情報取得装置,三次元環境情報取得方法及びその方法を実現したプログラムを格納した記録媒体
KR102472004B1 (ko) 복수의 센서간 캘리브레이션 방법 및 장치
JP2007025863A (ja) 撮影システム、撮影方法及び画像処理プログラム
JP6357396B2 (ja) 背景差分装置、方法、及びプログラム
JP6806160B2 (ja) 3次元運動評価装置、3次元運動評価方法、及びプログラム
JP2006195790A (ja) レンズ歪推定装置、レンズ歪推定方法、及びレンズ歪推定プログラム
CN110856014A (zh) 动态图像生成方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180612

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180618

R150 Certificate of patent or registration of utility model

Ref document number: 6357396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150