JP2005098927A - 移動体検出装置、移動体検出方法及び移動体検出プログラム - Google Patents

移動体検出装置、移動体検出方法及び移動体検出プログラム Download PDF

Info

Publication number
JP2005098927A
JP2005098927A JP2003335311A JP2003335311A JP2005098927A JP 2005098927 A JP2005098927 A JP 2005098927A JP 2003335311 A JP2003335311 A JP 2003335311A JP 2003335311 A JP2003335311 A JP 2003335311A JP 2005098927 A JP2005098927 A JP 2005098927A
Authority
JP
Japan
Prior art keywords
moving
person
image
fixed
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003335311A
Other languages
English (en)
Other versions
JP4027294B2 (ja
Inventor
Akira Uchiumi
章 内海
Hirotake Yamazoe
大丈 山添
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2003335311A priority Critical patent/JP4027294B2/ja
Publication of JP2005098927A publication Critical patent/JP2005098927A/ja
Application granted granted Critical
Publication of JP4027294B2 publication Critical patent/JP4027294B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 簡略な構成で移動体の移動位置及び当該移動体の所定部位の姿勢を検出することができる移動体検出装置を提供する。
【解決手段】 固定画像処理部1は、固定画像取得部4により取得された固定画像及び追跡処理部3により検出された人物の三次元位置を用いて固定画像上の人物の二次元位置を検出し、移動画像処理部2は、移動画像取得部5により取得された移動画像及び追跡処理部3により検出された人物の三次元位置を用いて移動画像上の人物の二次元位置及び頭部姿勢変化量を検出し、追跡処理部3は、固定画像及び固定画像処理部1により検出された固定画像上の人物の二次元位置と、移動画像並びに移動画像処理部2により検出された移動画像上の人物の二次元位置及び頭部姿勢変化量とを用いて人物の三次元位置及び頭部姿勢を検出する。
【選択図】 図1

Description

本発明は、移動体の移動位置及び当該移動体の所定部位の姿勢を検出する移動体検出装置、移動体検出方法及び移動体検出プログラム、特に、人物の移動位置及び頭部姿勢を検出する移動体検出装置、移動体検出方法及び移動体検出プログラムに関するものである。
人間が知覚する五感情報の中でも視覚情報は聴覚情報に並んで重要度が高いため、人間の体験及び行動の記録及び解析において映像情報の果たす役割は大きく、体験の記録にとって映像情報は不可欠である。また、映像情報には人の表情やジェスチャ、注視方向、人と物との位置関係など本人および周囲の環境に関する多くの情報が同時に含まれるため、記録手段としての利便性も高い。そのため、映像情報を利用して個人の行動や人間同士のインタラクションを記録する手法が広く検討されている。
例えば、各人物および環境に取り付けられた多数のカメラと赤外線タグ等の他のセンサとから構成される移動体検出装置を用いて各人物の移動位置を検出し、人間の行動及び人間同士のインタラクションを記録及び解析するシステムが開発されている(非特許文献1参照)。
角康之他、「複数センサ群による強調的なインタラクションの記録」、インタラクション 2003、2003年、p.255−p.262
しかしながら、上記のシステムでは、検出対象物である人物等に赤外線タグを装着する必要があるため、システムの構成が複雑になるとともに、システムのコストが高くなる。また、上記のシステムでは、赤外線タグを用いた対象物の特定にとどまり、人間の移動位置及び頭部姿勢を検出することはできない。
本発明の目的は、簡略な構成で移動体の移動位置及び当該移動体の所定部位の姿勢を検出することができる移動体検出装置、移動体検出方法及び移動体検出プログラムを提供することである。
本発明に係る移動体検出装置は、移動体の位置を特定するための位置特定情報を検出する位置検出手段と、位置検出手段により検出された位置特定情報を取得する位置特定情報取得手段と、移動体の所定部位に装着され且つ当該部位の所定方向に略一致させた光軸を有する移動撮影手段と、移動撮影手段により撮影された光軸方向の画像を移動画像として取得する移動画像取得手段と、位置特定情報取得手段により取得された位置特定情報及び移動画像取得手段により取得された移動画像を基に移動体の移動位置及び当該移動体の部位の姿勢を検出する検出手段とを備えるものである。
本発明に係る移動体検出装置では、位置検出手段により検出された移動体の位置を特定するための位置特定情報を取得するとともに、移動体の所定部位に装着され且つ当該部位の所定方向に略一致させた光軸を有する移動撮影手段により撮影された光軸方向の画像を移動画像として取得し、取得された位置特定情報及び移動画像を基に移動体の移動位置及び移動体の部位の姿勢を検出しているので、赤外線タグ等を用いることなく、簡略な構成で移動体の移動位置及び当該移動体の所定部位の姿勢を検出することができる。
位置検出手段は、移動体が位置する空間内の構造物に固定された複数の固定撮影手段を含み、位置特定情報取得手段は、複数の固定撮影手段により撮影された移動体を含む画像を固定画像として取得する固定画像取得手段を含み、検出手段は、固定画像取得手段により取得された固定画像及び移動画像取得手段により取得された移動画像を基に移動体の移動位置及び当該移動体の部位の姿勢を検出することが好ましい。
この場合、移動体が位置する空間内の構造物に固定された複数の固定撮影手段により撮影された移動体を含む画像を固定画像として取得するとともに、移動体の所定部位に装着され且つ当該部位の所定方向に略一致させた光軸を有する移動撮影手段により撮影された光軸方向の画像を移動画像として取得し、取得された固定画像及び移動画像を基に移動体の移動位置及び移動体の部位の姿勢を検出しているので、画像情報を用いた簡略な構成で移動体の移動位置及び当該移動体の所定部位の姿勢を検出することができる。
移動体は人物を含み、固定撮影手段は人物が位置する空間内の構造物に固定され、固定画像取得手段は複数の固定撮影手段により撮影された人物を含む画像を固定画像として取得し、部位は人物の頭部を含み、移動撮影手段は人物の頭部に装着され且つ人物の視線方向に略一致させた光軸を有し、移動画像取得手段は移動撮影手段により撮影された人物の視線方向の画像を移動画像として取得し、検出手段は、固定画像上の人物の二次元位置を検出する第1の検出手段と、移動画像上の人物の二次元位置及び頭部姿勢変化量を検出する第2の検出手段と、人物の三次元位置及び頭部姿勢を検出する第3の検出手段とを含み、第1の検出手段は、固定画像取得手段により取得された固定画像及び第3の検出手段により検出された人物の三次元位置を用いて固定画像上の人物の二次元位置を検出し、第2の検出手段は、移動画像取得手段により取得された移動画像及び第3の検出手段により検出された人物の三次元位置を用いて移動画像上の人物の二次元位置及び頭部姿勢変化量を検出し、第3の検出手段は、固定画像取得手段により取得された固定画像及び第1の検出手段により検出された固定画像上の人物の二次元位置と、移動画像取得手段により取得された移動画像並びに第2の検出手段により検出された移動画像上の人物の二次元位置及び頭部姿勢変化量とを基に人物の三次元位置及び頭部姿勢を検出することことが好ましい。
この場合、取得された固定画像及び検出された人物の三次元位置を用いて固定画像上の人物の二次元位置を検出し、取得された移動画像及び検出された人物の三次元位置を用いて移動画像上の人物の二次元位置及び頭部姿勢変化量を検出し、取得された固定画像及び検出された固定画像上の人物の二次元位置と、取得された移動画像並びに検出された移動画像上の人物の二次元位置及び頭部姿勢変化量とを基に人物の三次元位置及び頭部姿勢を検出しているので、各検出結果を相互に利用して固定画像上の人物の二次元位置、移動画像上の人物の二次元位置及び頭部姿勢変化量並びに人物の三次元位置及び頭部姿勢を高精度に検出することができ、簡略な構成で人物の三次元位置及び頭部姿勢を最終的に高精度に検出することができる。
第2の検出手段は、移動画像上に人物領域を設定し、人物領域の移動量と人物領域以外の背景領域の移動量とを基に移動画像上の人物の二次元位置及び頭部姿勢変化量を検出することが好ましい。この場合、移動画像上の人物の二次元位置及び頭部姿勢変化量を高精度に検出することができる。
第3の検出手段は、時系列フィルタを用いて人物の三次元位置及び頭部姿勢を推定することが好ましい。この場合、固定撮影手段による観測情報及び移動撮影手段による観測情報を高精度に統合して人物の三次元位置及び頭部姿勢をより高精度に検出することができる。
本発明に係る移動体検出方法は、位置検出手段により検出された移動体の位置を特定するための位置特定情報を取得するステップと、移動体の所定部位に装着され且つ当該部位の所定方向に略一致させた光軸を有する移動撮影手段により撮影された光軸方向の画像を移動画像として取得するステップと、取得された位置特定情報及び移動画像を基に移動体の移動位置及び当該移動体の部位の姿勢を検出するステップとを含むものである。
本発明に係る移動体検出プログラムは、位置検出手段により検出された移動体の位置を特定するための位置特定情報を取得する位置特定情報取得手段と、移動体の所定部位に装着され且つ当該部位の所定方向に略一致させた光軸を有する移動撮影手段により撮影された光軸方向の画像を移動画像として取得する移動画像取得手段と、位置特定情報取得手段により取得された位置特定情報及び移動画像取得手段により取得された移動画像を基に移動体の移動位置及び当該移動体の部位の姿勢を検出する検出手段としてコンピュータを機能させるものである。
本発明によれば、取得された位置特定情報及び移動画像を基に移動体の移動位置及び移動体の部位の姿勢を検出しているので、赤外線タグ等を用いることなく、簡略な構成で移動体の移動位置及び当該移動体の所定部位の姿勢を検出することができる。
以下、本発明の一実施の形態による移動体検出装置について図面を参照しながら説明する。図1は、本発明の一実施の形態による移動体検出装置の構成を示すブロック図である。なお、以下の説明では、移動体の一例として人物(人間)を例に説明するが、この例に特に限定されず、自立走行ロボット等の他の移動体にも本発明を同様に適用することができる。
図1に示す移動体検出装置は、固定画像処理部1、移動画像処理部2、追跡処理部3、固定画像取得部4、移動画像取得部5、複数の固定撮影部11〜1m及び複数の移動撮影部21〜2nを備える。
固定撮影部11〜1mの各々は、移動体である人物が位置する部屋の壁及び天井等に固定されたビデオカメラ等から構成され、人物を含む全体状況等を表す画像を撮影して固定画像取得部4へ出力する。移動撮影部21〜2nの各々は、人物の頭部に装着され且つ人物の視線方向に略一致させた光軸を有するCCDカメラ等から構成され、人物の視線方向の画像を移動画像取得部5へ出力する。なお、本実施の形態では、複数の移動撮影部を用いているが、一つの移動撮影部のみを用いてもよい。
固定画像処理部1、移動画像処理部2、追跡処理部3、固定画像取得部4及び移動画像取得部5は、ROM(リードオンリメモリ)、CPU(中央演算処理装置)、RAM(ランダムアクセスメモリ)、画像用インタフェース部等を備えるコンピュータ等から構成され、ROM等に記憶されている固定画像処理プログラム、移動画像処理プログラム及び追跡処理プログラムをCPU等で実行することにより、固定画像処理部1、移動画像処理部2、追跡処理部3、固定画像取得部4及び移動画像取得部5として機能する。なお、固定画像処理部1、移動画像処理部2及び追跡処理部3等の構成は、上記の例に特に限定されず、専用のハードウエア等により構成してもよい。
固定画像取得部4は、複数の固定撮影部11〜1mにより撮影された人物を含む画像を固定画像として取得し、固定画像処理部1及び追跡処理部3へ出力する。移動画像取得部5は、複数の移動撮影部21〜2nにより撮影された人物の視線方向の画像を移動画像として取得し、移動画像処理部2及び追跡処理部3へ出力する。
固定画像処理部1は、固定画像取得部4により取得された固定画像及び追跡処理部3により検出された人物の三次元位置を用いて固定画像上の人物の二次元位置を検出する。移動画像処理部2は、移動画像取得部5により取得された移動画像及び追跡処理部3により検出された人物の三次元位置を用いて移動画像上の人物の二次元位置及び頭部姿勢変化量を検出する。このとき、移動画像処理部2は、移動画像上に人物領域を設定し、人物領域の移動量と人物領域以外の背景領域の移動量とから移動画像上の人物の二次元位置及び頭部姿勢変化量を検出する。
追跡処理部3は、固定画像取得部4により取得された固定画像及び固定画像処理部1により検出された固定画像上の人物の二次元位置と、移動画像取得部5により取得された移動画像並びに移動画像処理部2により検出された移動画像上の人物の二次元位置及び頭部姿勢変化量とを基に人物の三次元位置及び頭部姿勢を検出する。このとき、追跡処理部3は、時系列フィルタ、例えば、カルマンフィルタを用いて人物の三次元位置及び頭部姿勢を推定する。なお、時系列フィルタは、カルマンフィルタに特に限定されず、他の時系列フィルタを用いてもよい。また、追跡処理部3は、固定画像取得部4により取得された固定画像及び移動画像取得部5により取得された移動画像を直接入力されるのではなく、固定画像処理部1及び移動画像処理部2により処理された位置情報等の観測情報を固定画像処理部1及び移動画像処理部2から取得し、固定画像及び移動画像ではなく、この観測情報を直接用いてもよい。
本実施の形態では、固定撮影部11〜1mが位置検出手段及び固定撮影手段の一例に相当し、移動撮影部21〜2nが移動撮影手段の一例に相当し、固定画像取得部4が固定画像取得手段及び位置特定情報取得手段の一例に相当し、移動画像取得部5が移動画像取得手段の一例に相当し、固定画像処理部1、移動画像処理部2及び追跡処理部3が検出手段の一例に相当し、固定画像処理部1が第1の検出手段の一例に相当し、移動画像処理部2が第2の検出手段の一例に相当し、追跡処理部3が第3の検出手段の一例に相当する。
次に、図1に示す移動体検出装置において使用される世界座標系及びカメラ座標系について説明する。図2は、図1に示す移動体検出装置において使用される世界座標系及びカメラ座標系を示す模式図である。
図2に示すように、全てのカメラに共通する座標系として、環境に固定された世界座標系(X,Y,Z)が設定され、各人物に装着した移動撮影部C(移動撮影部21〜2n)には画面上の軸をx,y、光軸をzとするカメラ座標系(x,y,z)が設定される。なお、世界座標系は、移動体検出装置の使用環境及び使用目的等に応じて任意に設定される。
上記の各座標系により、人物の頭部姿勢は世界座標系からカメラ座標系への相対姿勢θ=〔α,β,γ〕として計算され、α,β,γはz,y,z軸の順に回転させたオイラー角である。また、頭部位置については、固定撮影部11〜1mの観測情報により推定される人物の位置と移動撮影部21〜2nの装着位置にはズレがあるため、以下のようにしてオフセットを考慮する。
まず、人物の頭部が頭部中心Xpを中心に回転するものとし、固定撮影部11〜1mから得られる世界座標系における人物の三次元位置をX、移動撮影部Cの装着位置をXCi、頭部姿勢θからなる回転行列をRθ、X及びXp間のオフセットをΔXとし、XCi及びXp間のオフセットΔXCiを予め測定しておくとすると、XCiは次式により計算できる。
Ci=X−ΔX+RθΔXCi …(1)
上記の世界座標系及びカメラ座標系を用いて、後述する固定画像処理部1による固定画像処理、移動画像処理部2による移動画像処理及び追跡処理部3による追跡処理がそれぞれ実行される。
次に、図1に示す固定画像処理部1による固定画像処理について説明する。図3は、図1に示す固定画像処理部1による固定画像処理を説明するためのフローチャートである。ここでは、時刻ts+1において固定撮影部11〜1mのいずれかにより撮影が行われたものとする。
まず、固定画像処理部1は、固定撮影部11〜1mのいずれかにより撮影された固定画像J (ts+1)を固定画像取得部4から取得し(ステップS11)、取得した固定画像J (ts+1)から背景差分により人物領域を検出して頭頂点xh,i1 (ts+1),…,xh,iM (ts+1)を特徴点として抽出する特徴抽出処理を実行する(ステップS12)。図4は、特徴抽出処理を説明するための模式図である。図4に示すように、各人物の頭頂点HP(図中の×印)が抽出される。
次に、固定画像処理部1は、固定画像J (ts+1)の観測時刻ts+1を追跡処理部3へ送信し(ステップS13)、各人物の三次元予測位置XP (ts+1),…,XP (ts+1)を追跡処理部3から取得する(ステップS14)。
次に、固定画像処理部1は、各人物の三次元予測位置XP (ts+1),…,XP (ts+1)から固定画像上における各人物の二次元観測位置xph,1 (ts+1),…,xph,N (ts+1)を推定し(ステップS15)、ステップS12で抽出した特徴点xh,i1 (ts+1),…,xh,iM (ts+1)と、推定した二次元観測位置xph,1 (ts+1),…,xph,N (ts+1)との対応付けを行う(ステップS16)。
次に、固定画像処理部1は、特徴点xh,i1 (ts+1),…,xh,iM (ts+1)のうち対応付けができたものを追跡処理部3へ送信し(ステップS17)、その後、ステップS11以降の処理を繰り返し、固定撮影部11〜1mのいずれかにより撮影された固定画像を順次処理していく。なお、対応付けができない特徴点については他の固定撮影部の固定画像を用いて対応する人物を発見して対応付けを行う。
次に、図1に示す移動画像処理部2による移動画像処理について説明する。図5は、図1に示す移動画像処理部2による移動画像処理を説明するためのフローチャートである。ここでは、時刻ts+1において移動撮影部21〜2nのいずれかにより撮影が行われたものとする。
まず、移動画像処理部2は、移動撮影部21〜2nのいずれかにより撮影された移動画像J (ts+1)を移動画像取得部5から取得し(ステップS21)、移動画像J (ts+1)の観測時刻ts+1を追跡処理部3へ送信し(ステップS22)、各人物の三次元予測位置XP (ts+1),…,XP (ts+1)を追跡処理部3から取得する(ステップS23)。
次に、移動画像処理部2は、前フレームの移動画像J (ts)内の各人物の投影領域H (ts)を算出し(ステップS24)、その後、現フレームの移動画像J (ts+1)内の各人物の投影領域H (ts+1)及び背景の投影領域B(ts+1)を算出する(ステップS25)。
ここで、移動撮影部21〜2nにより得られる観測情報として、移動画像上での周囲の人物の投影位置及び背景の変化量から頭部姿勢変化量を推定する方法について詳細に説明する。まず、人物kに装着した移動撮影部Cについて考える。なお、移動撮影部Cの内部パラメータは既知であるとし、時刻ts,ts+1において移動撮影部Ckにより撮影された移動画像J (ts),J (ts+1)が得られたとする。図6は、移動画像の一例を示す図であり、(a)は時刻tsにおける移動画像J (ts)であり、(b)は時刻ts+1における移動画像J (ts+1)であり、図7は、図6に示す移動画像J (ts),J (ts+1)を重ね合わせた図である。
このとき、時刻tsまでの観測により、各人物i(i=1,…,N)の位置推定値XE (ts)及び位置予測値XP (ts+1)と、移動撮影部Cの姿勢推定値θe (ts)及び姿勢予測値θp (ts+1)とが得られているとすると、移動画像J (ts),J (ts+1)上で観測される人物i(i=i,…,i、Mは移動撮影部C上の投影人数)の予測投影領域H (ts),H (ts+1)を推定することができる。但し、予測投影領域H (ts)内での人物iの頭頂点位置をxh,i (ts)、予測投影領域H (ts+1)内での人物iの頭頂点位置をxh,i (ts+1)とする。
ここで、移動画像J (ts),J (ts+1)間の人物領域の移動を表す行列をAとすると、時刻ts+1における人物iの投影領域H (ts+1)は、次式で表される。ここで、xは人物領域Hに含まれる画素の二次元位置である。
(ts+1)={Ax|x ∈H (ts)} …(2)
上記と同様に背景領域について考え、2画像間の観測時間差が小さいとすると、人物k(移動撮影部C)の移動による背景領域の変化(運動視差)を無視することができ、背景領域の変化は、時刻ts,ts+1間における移動撮影部の姿勢変化Δθによって決定される。ここで、背景の移動を表す行列をAとすると、時刻ts+1における背景領域B(ts+1)は、次式で表される。
(ts+1)={Ax|x ∈B(ts)} …(3)
ここで、B(t)=Ω−Ui=i1 iM (ts)であり、Ωは画像全体であり、Δθ=〔Δα,Δβ,Δγ〕は時刻ts,ts+1間における移動撮影部Cの姿勢変化であり、Δα,Δβ,Δγは、図7に示す移動撮影部Cのカメラ座標系におけるx,y,z軸回りの微小回転変化量である。
移動画像J (ts)の位置xの画素値をp (ts)(x)とすると、人物領域及び背景領域のそれぞれについて下記の関係が成り立つ。
(ts)(x)=p (ts+1)(Ax) (x∈H (ts),i=i,…,i) …(4)
(ts)(x)=p (ts+1)(Ax) (x∈B(ts)) …(5)
ここで、時刻ts,ts+1間における移動撮影部Cの姿勢変化Δθを既知とすると、移動画像J (ts),J (ts+1)間では下式の関係が得られる。
実際の観測では、各人物の位置及び姿勢の推定値及び予測値に誤差が含まれるため、各人物の予測投影領域H (ts),H (ts+1)に正確には投影されない。このため、各人物について予測投影位置からの誤差をΔx(ts),Δx(ts+1)として、予測位置の周辺を探索することにより、画像上での人物iの投影位置を決定する。
背景の移動量は、背景領域の変換行列Aに関する最小化により推定されるが、変換行列AはΔθの関数であるから、Δθ=〔Δα,Δβ,Δγ〕について探索することにより、背景の変化量すなわち頭部姿勢の変化量を推定することができる。すなわち、下式を最小化することにより移動画像上での各人物の投影位置及び頭部姿勢変化量Δθを推定することができる。
再び、図5を参照して、次に、移動画像処理部2は、各投影領域の近傍の画素を比較して上記の式(7)を最小にするΔxpi1 (ts+1),…,ΔxpiM (ts+1),Δθpを求め(ステップS26)、式(8)を用いて予測投影位置xph,i1 (ts+1),…,xph,iM (ts+1)を算出する(ステップS27)。
次に、移動画像処理部2は、上記のようにして求めたxph,i1 (ts+1),…,xph,iM (ts+1)及びΔθpを投影位置xh,i1 (ts+1),…,xh,iM (ts+1)及び頭部姿勢変化量Δθ (ts+1)として追跡処理部3へ送信し(ステップS28)、各人物の三次元推定位置XE (ts+1),…,XE (ts+1)を追跡処理部3から取得し(ステップS29)、その後、ステップS21以降の処理を繰り返し、移動撮影部21〜2nのいずれかにより撮影された移動画像を順次処理していく。
次に、図1に示す追跡処理部3による追跡処理について説明する。図8は、図1に示す追跡処理部3による追跡処理を説明するためのフローチャートである。
まず、追跡処理部3は、固定画像処理部1又は移動画像処理部2から送信された観測時刻ts+1を受信し(ステップS31)、既に求めている時刻tsにおける人物の三次元推定位置XE (ts),…,XE (ts)及び頭部推定姿勢θe (ts),…,θe (ts)から時刻ts+1における人物の三次元予測位置XP (ts+1),…,XP (ts+1)及び頭部予測姿勢θp (ts+1),…,θp (ts+1)を予測し(ステップS32)、予測した人物の三次元予測位置XP (ts+1),…,XP (ts+1)及び頭部予測姿勢θp (ts+1),…,θp (ts+1)を固定画像処理部1又は移動画像処理部2へ送信する(ステップS33)。
次に、追跡処理部3は、固定画像取得部4又は移動画像取得部5から観測情報を受信し(ステップS34)、受信した観測情報が固定画像取得部4から送信された観測情報であるか否かを判断し(ステップS35)、受信した観測情報が固定画像取得部4から送信された観測情報である場合はステップS36へ処理を移行し、受信した観測情報が移動画像取得部5から送信された観測情報である場合はステップS38へ処理を移行する。
ここで、固定撮影部11〜1mによる観測結果と移動撮影部21〜2nによる観測結果を、カルマンフィルタを用いて統合することにより、シーン中の各人物の三次元位置を推定する処理について詳細に説明する。
シーン中にN人が存在する場合、系全体の状態ベクトルXは下式で表される。
X=〔X θ dX dθ … X θ dX dθ〕 …(9)
ここで、X及びθは人物iの位置及び頭部姿勢であり、dX及びdθはそれぞれの速度である。
時刻tsから時刻ts+1への状態遷移行列をFとし、時刻tsの状態ベクトルXtsの推定値をXEtsとし、時刻t+1の予測値をXPts+1とすると、
XPts+1=FXEts …(10)
PPts+1=FPEtsF’+Q …(11)
ここで、Δt=(ts+1)−(ts)であり、Qは状態遷移の共分散であり、PEはXEの共分散である。
次に、ある固定撮影部又は移動撮影部において観測が得られた場合、観測ベクトルをZ、観測行列をH、観測誤差をeとすると、下式の関係が得られる。
Z=HX+e …(13)
上記の結果から、Kをカルマンゲイン、Rを観測誤差とすると、状態ベクトルは下式により更新される。
XEts=XPts−1+Kts(Zts−HXPts−1) …(14)
ts=PPts−1H’(HPPts−1H’+E−1 …(15)
PEts=PPts−1−KHPPts−1 …(16)
ここで、固定撮影部11〜1mによる観測に用いられる観測ベクトルZ及び観測行列Hについて説明する。図9は、図1に示す固定撮影部11〜1mに対する観測モデルを説明するための模式図である。時刻ts+1において固定撮影部により人物jに関する観測が得られた場合、時刻tsにおける人物jの位置推定値をXE (t)、固定画像上の二次元観測位置をxh,jとすると、固定撮影部のレンズ中心Cと姿勢情報から、世界座標系上における観測方向(レンズ中心Cと固定画像上の点xh,jとを結ぶ直線)を決定することができ、この方向を2つの角度φ,θで表す。但し、φは人物jの観測方向とY−Z平面とのなす角であり、θは人物jの観測方向のY−Z平面への投影とZ軸とのなす角である。また、φ,θによる回転行列をRφ、Rθとすると、Rφ,Rθは人物jの観測方向をz軸と平行にする回転行列となる。
ここで、固定撮影部によって人物jが観測された場合の観測ベクトルZを下式で表す。
このとき、固定撮影部の三次元位置をC=〔x,y,z〕とすると、回転行列Rφ及びRθによりX (t)及びCはz軸に平行な直線上に移るため、下式の関係が得られる。
ここで、eは観測誤差、Iは三次元の単位行列、0i,jはi×j要素からなるゼロ行列である。
次に、移動撮影部21〜2nによる観測に用いられる観測ベクトルZ及び観測行列Hについて説明する。図10及び図11は、図1に示す移動撮影部21〜2nに対する第1及び第2の観測モデルを説明するための模式図である。時刻ts+1において人物kが装着している移動撮影部Cにより人物jが観測された場合、連続する2フレーム間での頭部姿勢の変動は微小であり、移動撮影部Cの光軸(z軸)と世界座標系X−Y平面とのなす角が小さいと仮定すると、移動撮影部Cの姿勢αは世界座標系Z軸回転で、βはZ軸に垂直なX−Y平面上の軸回転の角度で近似できる。
時刻ts+1における観測により、移動撮影部Cの相対姿勢変化Δθ=〔Δα,Δβ,Δγ〕とカメラ座標系z軸に対する人物jの観測方向がなす角φ,ψが得られたとし、人物k,jの予測位置をXP,XP、推定位置をXE,XEとし、図10を参照して姿勢αについて考える。
ここで、X−Y平面上で(XP−XP)に直交する単位ベクトル(p,q)を下記のように定義する。
lα=((xp−xp+(yp−yp1/2 …(20)
p=(yp−yp)/lα,q=−(xp−xp)/lα …(21)
上記のp,qを用いて、図10中のΔφは下式で表される。
Δφ=(p/lα)(ye−ye)+(q/lα)(xe−xe) …(22)
したがって、α,φに関して以下の関係が得られる。
α+Δα=tan−1((yp−yp)/(xp−xp))+φ+(p/lα)(ye−ye)+(q/lα)(xe−xe) …(23)
同様に、図11に示すβ,ψに関して以下の関係が得られる。
β+Δβ=tan−1((zp−zp)/((xp +yp 1/2−(xp +yp 1/2))+ψ+(r/lβ)(ze−ze)+(s/lβ)(xe−xe) …(24)
上記の結果から、eを観測誤差とすると、下式が得られる。
再び、図8を参照して、受信した観測情報が固定画像取得部4から送信された観測情報である場合、追跡処理部3は、上記の式(19)から固定撮影部11〜1mによる観測に用いられる観測行列Hを生成し(ステップS36)、観測行列Hと特徴点xh,i1 (ts+1),…,xh,iM (ts+1)とにより人物モデルを更新して人物の三次元推定位置XE (ts+1),…,XE (ts+1)を算出し(ステップS37)、その後、ステップS31以降の処理を繰り返す。
一方、受信した観測情報が移動画像取得部5から送信された観測情報である場合、追跡処理部3は、上記の式(27)、(28)から移動撮影部21〜2nによる観測に用いられる観測行列Hを生成し(ステップS38)、観測行列Hと投影位置xh,i1 (ts+1),…,xh,iM (ts+1)及び頭部姿勢変化量Δθ (ts+1)とにより人物モデルを更新して人物の三次元推定位置XE (ts+1),…,XE (ts+1)及び頭部推定姿勢θe (ts+1),…,θe (ts+1)を算出する(ステップS39)。
次に、追跡処理部3は、人物の三次元推定位置XE (ts+1),…,XE (ts+1)を移動画像処理部2へ送信し(ステップS40)、その後、ステップS31以降の処理を繰り返す。
上記の各処理により、本実施の形態では、固定画像処理部1により固定画像及び人物の三次元位置を用いて固定画像上の人物の二次元位置を検出し、移動画像処理部2により移動画像及び人物の三次元位置を用いて移動画像上の人物の二次元位置及び頭部姿勢変化量を検出し、追跡処理部3により固定画像及び固定画像上の人物の二次元位置と、移動画像並びに移動画像上の人物の二次元位置及び頭部姿勢変化量とを用いて人物の三次元位置及び頭部姿勢を検出しているので、各検出結果を相互に利用して固定画像上の人物の二次元位置、移動画像上の人物の二次元位置及び頭部姿勢変化量並びに人物の三次元位置及び頭部姿勢を高精度に検出することができ、簡略な構成で人物の三次元位置及び頭部姿勢を最終的に高精度に検出することができる。
次に、上記の移動体検出装置の検出精度について具体例を挙げて説明する。図12乃至図14は、図1に示す移動体検出装置による三次元位置及び頭部姿勢の第1乃至第3の検出結果を示す図である。本例は、3人の人物A〜Cが部屋の中を移動しているときに、複数の固定撮影部により人物A〜Cの固定画像を撮影するとともに、人物A,Bが移動撮影部を頭部に装着し、人物Cは移動撮影部を装着せず、人物A,Bの移動撮影部により移動画像を撮影した例であり、図12は人物Aの三次元位置及び頭部姿勢の検出結果を示し、図13は人物Bの三次元位置及び頭部姿勢の検出結果を示し、図14は人物Cの三次元位置の検出結果を示している。また、各図において、実線は、図1に示す移動体検出装置の三次元位置及び頭部姿勢の検出結果を示し、破線は、比較例として従来の光学マーカを用いたモーションキャプチャシステムによる三次元位置及び頭部姿勢の検出結果を示している。
図12乃至図14から、人物A〜Cの三次元位置及び頭部姿勢を高精度に検出できたことがわかり、このときの姿勢推定誤差の平均は8.1deg、位置推定誤差の平均は10.4cmであった。
なお、上記の説明では、頭部姿勢として3軸の検出を行ったが、1軸又は2軸のみ検出するようにしてもよい。また、固定撮影部11〜1m及び固定画像取得部4により固定画像を取得したが、固定画像に代えて又は加えて、位置センサ等の他のセンサにより検出された移動体の位置を特定するための位置特定情報、例えば、移動体の三次元位置等を取得することにより、移動体の移動位置及び当該移動体の所定部位の姿勢を検出するようにしてもよい。
本発明の一実施の形態による移動体検出装置の構成を示すブロック図である。 図1に示す移動体検出装置において使用される世界座標系及びカメラ座標系を示す模式図である。 図1に示す固定画像処理部による固定画像処理を説明するためのフローチャートである。 特徴抽出処理を説明するための模式図である。 図1に示す移動画像処理部による移動画像処理を説明するためのフローチャートである。 移動画像の一例を示す図である。 図6に示す移動画像を重ね合わせた図である。 図1に示す追跡処理部による追跡処理を説明するためのフローチャートである。 図1に示す固定撮影部に対する観測モデルを説明するための模式図である。 図1に示す移動撮影部に対する第1の観測モデルを説明するための模式図である。 図1に示す移動撮影部に対する第2の観測モデルを説明するための模式図である。 図1に示す移動体検出装置による三次元位置及び頭部姿勢の第1の検出結果を示す図である。 図1に示す移動体検出装置による三次元位置及び頭部姿勢の第2の検出結果を示す図である。 図1に示す移動体検出装置による三次元位置の第3の検出結果を示す図である。
符号の説明
1 固定画像処理部
2 移動画像処理部
3 追跡処理部
4 固定画像取得部
5 移動画像取得部
11〜1m 固定撮影部
21〜2n 移動撮影部

Claims (7)

  1. 移動体の位置を特定するための位置特定情報を検出する位置検出手段と、
    前記位置検出手段により検出された位置特定情報を取得する位置特定情報取得手段と、
    前記移動体の所定部位に装着され且つ当該部位の所定方向に略一致させた光軸を有する移動撮影手段と、
    前記移動撮影手段により撮影された光軸方向の画像を移動画像として取得する移動画像取得手段と、
    前記位置特定情報取得手段により取得された位置特定情報及び前記移動画像取得手段により取得された移動画像を基に移動体の移動位置及び当該移動体の前記部位の姿勢を検出する検出手段とを備えることを特徴とする移動体検出装置。
  2. 前記位置検出手段は、前記移動体が位置する空間内の構造物に固定された複数の固定撮影手段を含み、
    前記位置特定情報取得手段は、前記複数の固定撮影手段により撮影された移動体を含む画像を固定画像として取得する固定画像取得手段を含み、
    前記検出手段は、前記固定画像取得手段により取得された固定画像及び前記移動画像取得手段により取得された移動画像を基に移動体の移動位置及び当該移動体の前記部位の姿勢を検出することを特徴とする請求項1記載の移動体検出装置。
  3. 前記移動体は人物を含み、前記固定撮影手段は人物が位置する空間内の構造物に固定され、前記固定画像取得手段は前記複数の固定撮影手段により撮影された人物を含む画像を固定画像として取得し、
    前記部位は人物の頭部を含み、前記移動撮影手段は人物の頭部に装着され且つ人物の視線方向に略一致させた光軸を有し、前記移動画像取得手段は前記移動撮影手段により撮影された人物の視線方向の画像を移動画像として取得し、
    前記検出手段は、
    固定画像上の人物の二次元位置を検出する第1の検出手段と、
    移動画像上の人物の二次元位置及び頭部姿勢変化量を検出する第2の検出手段と、
    人物の三次元位置及び頭部姿勢を検出する第3の検出手段とを含み、
    前記第1の検出手段は、前記固定画像取得手段により取得された固定画像及び前記第3の検出手段により検出された人物の三次元位置を用いて固定画像上の人物の二次元位置を検出し、
    前記第2の検出手段は、前記移動画像取得手段により取得された移動画像及び前記第3の検出手段により検出された人物の三次元位置を用いて移動画像上の人物の二次元位置及び頭部姿勢変化量を検出し、
    前記第3の検出手段は、前記固定画像取得手段により取得された固定画像及び前記第1の検出手段により検出された固定画像上の人物の二次元位置と、前記移動画像取得手段により取得された移動画像並びに前記第2の検出手段により検出された移動画像上の人物の二次元位置及び頭部姿勢変化量とを基に人物の三次元位置及び頭部姿勢を検出することを特徴とする請求項2記載の移動体検出装置。
  4. 前記第2の検出手段は、移動画像上に人物領域を設定し、人物領域の移動量と人物領域以外の背景領域の移動量とを基に移動画像上の人物の二次元位置及び頭部姿勢変化量を検出することを特徴とする請求項3記載の移動体検出装置。
  5. 前記第3の検出手段は、時系列フィルタを用いて人物の三次元位置及び頭部姿勢を推定することを特徴とする請求項3又は4記載の移動体検出装置。
  6. 位置検出手段により検出された移動体の位置を特定するための位置特定情報を取得するステップと、
    前記移動体の所定部位に装着され且つ当該部位の所定方向に略一致させた光軸を有する移動撮影手段により撮影された光軸方向の画像を移動画像として取得するステップと、
    取得された位置特定情報及び移動画像を基に移動体の移動位置及び当該移動体の前記部位の姿勢を検出するステップとを含むことを特徴とする移動体検出方法。
  7. 位置検出手段により検出された移動体の位置を特定するための位置特定情報を取得する位置特定情報取得手段と、
    前記移動体の所定部位に装着され且つ当該部位の所定方向に略一致させた光軸を有する移動撮影手段により撮影された光軸方向の画像を移動画像として取得する移動画像取得手段と、
    前記位置特定情報取得手段により取得された位置特定情報及び前記移動画像取得手段により取得された移動画像を基に移動体の移動位置及び当該移動体の前記部位の姿勢を検出する検出手段としてコンピュータを機能させることを特徴とする移動体検出プログラム。
JP2003335311A 2003-09-26 2003-09-26 移動体検出装置、移動体検出方法及び移動体検出プログラム Expired - Fee Related JP4027294B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003335311A JP4027294B2 (ja) 2003-09-26 2003-09-26 移動体検出装置、移動体検出方法及び移動体検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003335311A JP4027294B2 (ja) 2003-09-26 2003-09-26 移動体検出装置、移動体検出方法及び移動体検出プログラム

Publications (2)

Publication Number Publication Date
JP2005098927A true JP2005098927A (ja) 2005-04-14
JP4027294B2 JP4027294B2 (ja) 2007-12-26

Family

ID=34462719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003335311A Expired - Fee Related JP4027294B2 (ja) 2003-09-26 2003-09-26 移動体検出装置、移動体検出方法及び移動体検出プログラム

Country Status (1)

Country Link
JP (1) JP4027294B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005241323A (ja) * 2004-02-25 2005-09-08 Advanced Telecommunication Research Institute International 撮像システム及び校正方法
WO2016111066A1 (ja) * 2015-01-07 2016-07-14 ソニー株式会社 情報処理装置、情報処理方法、および情報処理システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04146091A (ja) * 1990-10-08 1992-05-20 Nec Corp マニピュレータシステム
JPH0588721A (ja) * 1991-09-30 1993-04-09 Fujitsu Ltd 関節型ロボツトの制御装置
JPH11202928A (ja) * 1998-01-08 1999-07-30 Nippon Telegr & Teleph Corp <Ntt> 作業支援装置
JP2001195601A (ja) * 2000-01-13 2001-07-19 Mixed Reality Systems Laboratory Inc 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04146091A (ja) * 1990-10-08 1992-05-20 Nec Corp マニピュレータシステム
JPH0588721A (ja) * 1991-09-30 1993-04-09 Fujitsu Ltd 関節型ロボツトの制御装置
JPH11202928A (ja) * 1998-01-08 1999-07-30 Nippon Telegr & Teleph Corp <Ntt> 作業支援装置
JP2001195601A (ja) * 2000-01-13 2001-07-19 Mixed Reality Systems Laboratory Inc 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005241323A (ja) * 2004-02-25 2005-09-08 Advanced Telecommunication Research Institute International 撮像システム及び校正方法
WO2016111066A1 (ja) * 2015-01-07 2016-07-14 ソニー株式会社 情報処理装置、情報処理方法、および情報処理システム
US10489929B2 (en) 2015-01-07 2019-11-26 Sony Corporation Information processing apparatus, information processing method, and information processing system

Also Published As

Publication number Publication date
JP4027294B2 (ja) 2007-12-26

Similar Documents

Publication Publication Date Title
CN107990899B (zh) 一种基于slam的定位方法和系统
JP4532856B2 (ja) 位置姿勢計測方法及び装置
Rambach et al. Learning to fuse: A deep learning approach to visual-inertial camera pose estimation
JP6587489B2 (ja) 画像処理装置、画像処理方法および画像処理システム
JP2019536170A (ja) 仮想的に拡張された視覚的同時位置特定及びマッピングのシステム及び方法
JP2019522851A (ja) 3次元空間内の姿勢推定
JP2018522348A (ja) センサーの3次元姿勢を推定する方法及びシステム
US8150143B2 (en) Dynamic calibration method for single and multiple video capture devices
JP4865517B2 (ja) 頭部の位置・姿勢検出装置
US9071819B2 (en) System and method for providing temporal-spatial registration of images
JP5001930B2 (ja) 動作認識装置及び方法
JP2016525842A (ja) カメラ動き予測及び修正のための方法
Oskiper et al. Augmented reality binoculars
Brunetto et al. Fusion of inertial and visual measurements for rgb-d slam on mobile devices
JP6410231B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP2018173882A (ja) 情報処理装置、方法、及びプログラム
JP2007025863A (ja) 撮影システム、撮影方法及び画像処理プログラム
US20180350216A1 (en) Generating Representations of Interior Space
US20220084244A1 (en) Information processing apparatus, information processing method, and program
JP2005241323A (ja) 撮像システム及び校正方法
JP2015232771A (ja) 顔検出方法、顔検出システム、および顔検出プログラム
JP3401512B2 (ja) 移動物体追跡装置
JP4027294B2 (ja) 移動体検出装置、移動体検出方法及び移動体検出プログラム
WO2021251171A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2005252482A (ja) 画像生成装置及び3次元距離情報取得装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071009

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101019

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111019

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121019

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees