JP4188632B2 - Range image integration method and range image integration apparatus - Google Patents

Range image integration method and range image integration apparatus Download PDF

Info

Publication number
JP4188632B2
JP4188632B2 JP2002206622A JP2002206622A JP4188632B2 JP 4188632 B2 JP4188632 B2 JP 4188632B2 JP 2002206622 A JP2002206622 A JP 2002206622A JP 2002206622 A JP2002206622 A JP 2002206622A JP 4188632 B2 JP4188632 B2 JP 4188632B2
Authority
JP
Japan
Prior art keywords
plane
viewpoint
normal vector
plane group
viewpoints
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002206622A
Other languages
Japanese (ja)
Other versions
JP2004054308A (en
Inventor
秀和 平湯
英樹 棚橋
彩華 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, National Institute of Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2002206622A priority Critical patent/JP4188632B2/en
Publication of JP2004054308A publication Critical patent/JP2004054308A/en
Application granted granted Critical
Publication of JP4188632B2 publication Critical patent/JP4188632B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、距離画像の統合方法及び距離画像統合装置に関するものである。
【0002】
【従来の技術】
近年、物対認識やバーチャルリアリティ等の分野において、物体やシーンの3次元形状を計測し、その形状をモデル化することが重要となっている。一方、高精度かつ比較的安価なレンジファインダの出現に伴い、レンジデータ、すなわち、距離画像の取得が容易となっている。レンジファインダによる単一視点からの計測では、裏側や凹凸に隠された部分など、データの得られない部分が存在するため、物体やシーン全体の3次元形状を得るためには、複数の視点から計測し得られたレンジデータを統合しなければならない。
【0003】
複数の視点から得られた距離画像の統合では、距離画像間で対応する特徴を見つけ、その対応点を基に統合する手法が提案されている。ここで用いられる特徴としては、例えば、予め形状が既知のマーカ(例えば、四角、丸等などの形状)などから得られるエッジや点等の情報や、曲率等の運動不変な情報を対応点とする例がある。
【0004】
【発明が解決しようとする課題】
しかし、複数の距離画像のデータ間に適当な対応点を持たない点が多数含まれていた場合、これらの点の影響によって、正しく統合されず、ロバスト性に欠けることがある。又、曲率等を特徴点とする場合、ノイズを含んだ距離画像から正しく特徴点を抽出することは困難な場合があった。
【0005】
本発明の目的は、従来の距離画像の統合のために設置していたマーカ等の道具が不要であり、多視点間の変換パラメータ(回転パラメータと並進パラメータ)を効率良くロバストに推定できる距離画像の統合方法及び距離画像統合装置を提供することにある。
【0006】
【課題を解決するための手段】
上記問題点を解決するため、請求項1記載の発明は、複数の視点から所定範囲を撮像して得られた距離画像に基づき各視点毎に局所法線ベクトルを求め、同局所法線ベクトルのヒストグラムを生成し、同局所法線ベクトルのうち、同じ向きを持つもの同士を平面グループとして抽出し、前記得られた平面グループの前記局所法線ベクトルに基づき、法線軸に対して、視点からの距離に応じて投影した局所平面パッチの面積ヒストグラム(以下、グローバル統計量という)を求め、複数視点間における、平面グループ間の角度差と、対応する平面グループ同士のグローバル統計量の類似度に基づいて、複数視点間の最も類似度の高い平面グループの対応を求めるとともに、マッチングした平面グループ同士間の変換パラメータを推定し、求めた変換パラメータに基づいて、各視点の距離画像の座標系を1つの座標系に統合する距離画像の統合方法を要旨とするものである。
【0007】
請求項2の発明は、複数の視点から所定範囲を撮像して得られた距離画像に基づき各視点毎に局所法線ベクトルを求める法線ベクトル算出手段と、同局所法線ベクトルのヒストグラムを生成するヒストグラム生成手段と、同局所法線ベクトルのうち、同じ向きを持つもの同士を平面グループとして抽出する平面グループ抽出手段と、前記得られた平面グループの前記局所法線ベクトルに基づき、法線軸に対して、視点からの距離に応じて投影した局所平面パッチの面積ヒストグラム(以下、グローバル統計量という)を生成するグローバル統計量生成手段と、複数視点間における、平面グループ間の角度差と、対応する平面グループ同士のグローバル統計量の類似度に基づいて、複数視点間の最も類似度の高い平面グループの対応を求める平面グループマッチング手段と、マッチングした平面グループ同士間の変換パラメータを推定する変換パラメータ推定手段と、求めた変換パラメータに基づいて、各視点の距離画像の座標系を1つの座標系に統合する統合手段とを備えたことを特徴とする距離画像統合装置を要旨とするものである。
【0008】
【発明の実施の形態】
以下、本発明を具体化した一実施の形態を図1〜図13を参照して説明する。
図1は、距離画像統合装置10の全体図である。
【0009】
距離画像統合装置10は、データ入力部11、法線ベクトル算出部12、ヒストグラム生成部13、平面グループ抽出部14、グローバル統計量生成部15、平面グループマッチング部16、変換パラメータ推定部17、統合部18から構成されている。
【0010】
法線ベクトル算出部12は法線ベクトル算出手段に相当し、ヒストグラム生成部13は、ヒストグラム生成手段に相当する。平面グループ抽出部14は平面グループ抽出手段に相当し、グローバル統計量生成部15はグローバル統計量生成手段に相当する。平面グループマッチング部16は平面グループマッチング手段に相当する。又、変換パラメータ推定部17は変換パラメータ推定手段に相当する。統合部18は、統合手段に相当する。
【0011】
本実施形態では、データ入力部11、法線ベクトル算出部12、ヒストグラム生成部13、平面グループ抽出部14及びグローバル統計量生成部15を1つの組として、3つの組を備えている。各組における、法線ベクトル算出部12、ヒストグラム生成部13、平面グループ抽出部14及びグローバル統計量生成部15は、1つのコンピュータにて構成される。すなわち、3つの組に対応して、3つのコンピュータがそれぞれ設けられている。又、平面グループマッチング部16、変換パラメータ推定部17、統合部18は、前記各組毎に設けたコンピュータとは別の1つのコンピュータにて構成されている。
【0012】
なお、以下の説明では、データ入力部11、法線ベクトル算出部12、ヒストグラム生成部13、平面グループ抽出部14及びグローバル統計量生成部15を、1つの組のものとして説明し、他の組のものは同様に機能するため説明を省略する。
【0013】
(データ入力部11)
データ入力部11としては、レンジデータ測定装置(レンジファインダ)を用いており、物体のレンジデータを所定の視点(各組に合わせてそれぞれ視点A、視点B、視点Cという)から周囲環境360°の3次元データ、すなわち、パノラマレンジデータを得る。得られるレンジデータは、レンジデータ測定装置を原点とした視点座標系で表現されることになる。なお、パノラマレンジデータは、距離画像に相当する。
【0014】
図2(a)〜(c)は、同一の部屋CH内において、視点A,B,Cのそれぞれの位置を示す説明図である。図3は、部屋CH内において、視点A,B,Cのそれぞれの位置を示す説明図である。
【0015】
(法線ベクトル算出部12)
前記パノラマレンジデータは、一般的な3次元計測器で得られた3次元データと異なり、3次元情報量が多い全方位の3次元データである。なお、以下ではパノラマレンジデータを単にレンジデータという。
【0016】
そして、同一平面上にある点は、似た局所法線を持つため、局所法線ベクトルを基にしたヒストグラム空間を生成し、そこでのピーク値を検出することにより、平面グループの抽出を行う。
【0017】
そこで、各組の法線ベクトル算出部12では、データ入力部11で得られたパノラマレンジデータに基づいて単位法線ベクトル(以下、単に法線ベクトルという)を算出する。前記法線ベクトルは、局所法線ベクトルに相当する。
【0018】
前記法線ベクトルの算出について詳細に説明する。法線ベクトル算出部12は、本実施形態ではレンジデータに対して、はじめに注目点を中心とする7×7の局所領域内で、以下の平面方程式を用いた最小2乗近似により平面の当てはめを行う。図4は、7×7の場合の注目点を示している。なお、本発明は7×7に限定するものではない。
【0019】
pX+qY+rZ+s=0 …(1)
(p,q,r,sはパラメータである)
+q+r+s=1 …(2)
の制約条件下で、
Σ(pX+qY+rZ+s)
を最小化することにより、平面の前記パラメータを推定する。
【0020】
得られた平面のパラメータを基に単位法線ベクトルを求め、その向きが外に向くように単位法線ベクトルの符号を決める。
(ヒストグラム生成部13)
法線ベクトル算出部12で得られた法線ベクトルは球面に分布しているが、球面座標系は扱いにくいため、ヒストグラム生成部13は、図5(a)、図6(a)に示すように球面に投票された法線ベクトルヒストグラムを2つのリング状領域の直交座標空間に展開して、これを法線ベクトルの特徴空間とする。
【0021】
なお、図5(a)、図6(a)は、法線ベクトル投票空間の斜視図である。図5(b)、図6(b)は、同じく法線ベクトル投票空間の正面図を示し、ハッチング領域は、リング状領域を示している。
【0022】
さらに、同じ大きさの領域でも、レンジデータ測定装置(レンジファインダ)からの距離や角度によって、ヒストグラム空間に占める大きさが変化するのを防ぐため、ヒストグラム生成部13は、ヒストグラムを注目点の局所領域が占める実際の面積から求める。
【0023】
なお、得られた2つのヒストグラム空間には、互いに重なり部分が生ずるが、この重なり部分については、後述する平面グループ抽出部14では、いずれか一方のものを使用する。
【0024】
図5(a),図5(b)のθxz(n)及び図6(a),図6(b)のθyz(n)はそれぞれ法線ベクトルnからxz平面とyz平面に投影したときの方位角である。又、φy(n)はxz平面と法線ベクトルnとの角度、φx(n)はyz平面と法線ベクトルnとの角度である。
【0025】
又、ヒストグラム空間の均一性を保つため、ヒストグラム生成部13は得られた法線ベクトルヒストグラムに対して、φ軸に沿ってスケール関数1/sin(φy)又は関数1/sin(φx)を掛ける。
【0026】
図7(a)は、ヒストグラム生成部13により得られたリング状領域におけるヒストグラム空間(θxz(n),φy(n))の例を示している。
又、図7(b)は、ヒストグラム生成部13により得られたリング状領域におけるヒストグラム空間(θyz(n),φx(n))の例を示している。
【0027】
図7(a)、図7(b)のヒストグラム空間では、似た向きを持つ平面グループは1つの分布をなす。
(平面グループ抽出部14)
平面グループ抽出部14は、得られたヒストグラム空間から平面グループを抽出するため、ヒストグラム空間上に存在するピーク値を検出し、その分布を抽出することで、平面グループを得る。すなわち、平面グループ抽出部14は、図7(a)、図7(b)の2つのヒストグラムの分布を基に最も大きなピーク値から順に複数のピークを検出する。これらの1つ1つのピーク値が平面グループとなる。
【0028】
本実施形態では、各平面グループ抽出部14は複数個、例えば10個の平面グループを抽出する。
(グローバル統計量生成部15)
ここで、グローバル統計量生成部15の作用を説明する。
【0029】
同じ法線ベクトルの向きを持つ1つの平面グループにおいては、そこに含まれる各平面は、実際の3次元空間上のいろいろな場所に分布している。そこで、その分布特徴を平面グループのグローバル特徴とし、平面グループの類似度の計算に用いる。
【0030】
本実施形態では、グローバル統計量生成部15はロバスト性を考慮し、平面グループの法線ベクトルと、ある程度角度が類似している平面も用いて、グローバル特徴空間を生成する。すなわち、グローバル統計量生成部15は、対象とする平面グループとほぼ同じ向きから45°の角度をなす平面までを対象として、グローバル特徴空間を生成する。なお、本発明は45°の角度に限定するものではない。
【0031】
なお、視点の位置から見えるピクセル数を用いてグローバル特徴空間を生成する場合、3次元空間上で同じ大きさの領域でも、レンジデータ測定装置(レンジファインダ)からの距離や角度により、グローバル特徴空間上に占める大きさが不均一になる。
【0032】
図8では、視点A,B,Cで、共通の平面50,51を見た場合の距離、角度の相違を示している。又、図8での矢印は、各平面50,51に関する法線ベクトルの向きを示している。
【0033】
そこで、グローバル統計量生成部15では、図9に示すように法線軸Lにセンサ中心(視点)を投影した点αと平面を法線軸Lに投影した点間の距離βに応じて投影した局所平面パッチの面積ヒストグラムをグローバル特徴空間としている。前記局所平面パッチの面積ヒストグラムはグローバル統計量に相当する。なお、図9は3次元モデルとグローバル特徴空間の説明図である。
【0034】
平面とは部屋CH内に存在する平面であり、法線軸Lは抽出された平面グループの法線ベクトルの軸である。
この場合、図9に示す面積ヒストグラムの横軸は、法線軸Lにセンサ中心(視点)を投影した点αと平面を法線軸Lに投影した点間の距離βを示し、縦軸は面積となる。図9は、3次元モデル(a)と、得られるグローバル特徴空間分布(b)の例を示している。図9では、6個の平面が3次元空間上に存在しているが、面積の大きい平面(I)や、平面(VI)は、グローバル特徴空間上では、大きい値となって現れる。平面(II)や、平面(V)のように法線ベクトルと角度がある場合には、グローバル特徴空間では、広がった分布となって現れる。
【0035】
グローバル統計量生成部15では、A〜C組の平面グループ抽出部14でそれぞれ得られた平面グループについて、上記の処理を行う。
(平面グループマッチング部16)
平面グループマッチング部16〜統合部18では、平面グループ抽出部14で得られた平面グループ、及びグローバル統計量生成部15で得られたグローバル特徴空間分布を用いて、多視点のパノラマレンジデータの統合を行う。
【0036】
ここで、平面グループマッチング部16の処理の概要を説明する。
なお、以下の説明では、特に断らない限り、便宜上、視点Bの座標系を視点Aの座標系に変換する場合について説明するが、視点Cの座標系を視点Aの座標系に変換する場合も同様であるので、説明を省略している。
【0037】
平面グループマッチング部16は、1つの視点内の平面グループ間の角度差と、他の1つ視点内の平面グループ間の角度差が、互いに等しい複数の平面グループ同士のマッチングを探索する(図10のS30参照)。その後、平面グループにおけるグローバル特徴空間分布を用いて対応する平面グループ同士の類似度を求め、最も類似度の高い平面グループ同士のマッチングを探索する(図10のS50参照)。
【0038】
前記グローバル特徴空間分布においては、異なる視点から得られた平面グループの中で、同一平面グループがあれば、その平面グループ同士のグローバル特徴空間分布は似ている。そこで、平面グループマッチング部16は、それぞれの視点の2つの平面グループの類似度として、グローバル特徴空間分布の面積ヒストグラムの類似度、すなわち、グローバル統計量の類似度を用いるのである。
【0039】
又、平面グループの類似度の算出は、各視点間、すなわち、A点とB点間、A点とC点間、B点とC点間のそれぞれの平面グループの類似度について行う。
具体的には、平面グループマッチング部16による平面グループの類似度の算出は、片方の面積ヒストグラムを横軸方向(図9に示す距離βを参照)にシフトし、もう一方の面積ヒストグラムとSSD(残差2乗和)を用いて演算することである。
【0040】
又、平面グループマッチング部16は、2つの面積ヒストグラムから最も類似度の大きい時のシフト量とその類似度を求める。又、片方の面積ヒストグラムしか存在しない場合にも類似度を求める(図10のS40参照)。これらの類似度は、2つの視点間における同一平面グループを決定する際に用いる。
【0041】
以下、平面グループマッチング部16が行う処理を詳細に説明する。
なお、本実施形態では、平面グループマッチング部16は下記の(1)、(2)の制約条件で、マッチングを行う。
【0042】
(1) 1つの視点内の平面グループ間の角度差の関係が、他の1つの視点内の平面グループ間にも成立する。
(2) 2つの視点間で3つの平面グループ同士の対応関係が求まれば、回転パラメータ(回転行列)を求めることが可能である。
【0043】
図10のフローチャートにおいて、S10〜S70は、平面グループマッチング部16が処理するステップ(以下、ステップをSという)である。
(S10)
S10では、平面グループ抽出部14において、各視点は10個の平面グループを抽出しているため、この中からそれぞれの視点から3つずつ平面グループを選択する。すなわち、視点間の平面グループの組合せを生成する。ここで各視点間とは、本実施形態では視点A,B間、視点A,C間、視点B,C間である。
【0044】
(S20)
S20では、それぞれの視点において、平面グループ間の角度差を計算する。図12は、視点Aと、視点Bにおいて、それぞれ選択された平面グループP11,P12.P13、及び平面グループP21,P22,P23を示している。各視点における平面グループ間の角度差は、図12に示すように、θa1,θa2,θa3、及びθb1,θb2,θb3とする。
【0045】
(S30)
S30ではそれぞれの視点間における平面グループ間の角度差が60°以上(第1条件)、かつ、1つの視点における平面グループ間の角度差が、他の1つの視点の対応する平面グループ間の角度差と等しい(第2条件)か否かを判定する。
【0046】
図12の例では、平面グループP11,P12.P13間の角度差θa1,θa2,θa3及び平面グループP21,P22,P23の角度差θb1,θb2,θb3が60°以上か否かを判定する。さらに、角度差θa1,θa2,θa3が角度差θb1,θb2,θb3に等しいか否かを判定する。
【0047】
なお、それぞれの視点間における平面グループ間の角度差が60°以上であるか否かを判定する理由は下記の通りである。
回転パラメータ(回転行列)を安定的に求めるため、対応付けられた平面グループ間はある程度の角度差があるものを探索する必要がある。一般に、最小の閉空間を構成するには3つの面が必要であり、その場合、面同士の角度は平均60°であることが分かっている。そこで、本実施形態では、この60°以上の角度差を持つ平面グループを探索するのである。
【0048】
S30で、第1条件、第2条件を共に満足する平面グループの組合せの場合は、S40に移行する。第1条件、第2条件のいずれかを満足しない平面グループの組合せである場合には、S10に戻って、次の平面グループの組合せを生成する。
【0049】
(S40)
S40では、平面グループ間の類似度演算を行う。
平面グループ間の類似度演算では、異なる視点間における平面グループ同士の類似度そのものの演算と、類似度の和の演算が含まれている。
【0050】
まず、異なる視点間における平面グループ同士の類似度そのものの演算処理では、前述したように、片方の面積ヒストグラムを横軸方向(図9に示す距離βを参照)にシフトし、もう一方の面積ヒストグラムとSSD(残差2乗和)を用いて演算する。
【0051】
演算されて得た平面グループ同士の類似度は、図示しない記憶手段に記憶しておき、後記する類似度の和の演算の際に読み出される。
次に、類似度の和の演算について説明する。
【0052】
類似度の和の演算、すなわち、グローバル特徴空間分布(グローバル統計量)の類似度の和の算出は下記の手順で行う。
1) まず、SUM=0とする。
【0053】
2) 対応する平面グループP11とP21,P12とP22,P13とP23の3つの法線ベクトルから3×3の回転パラメータ(回転行列)Rを求める。
回転パラメータは、変換パラメータに相当する。
【0054】
(回転パラメータの演算)
ここで、回転パラメータ(回転行列)の求め方について説明する。
なお、この「回転パラメータの演算」では、2つの視点における平面グループを、説明の便宜上それぞれe及びfで区別して説明する。
【0055】
図11は2つの視点間にある平面グループの対応例を示している。
対応する平面グループ(e,f),(e,f),(e,f),……,(e,f)から回転パラメータR(3×3)を推定する。(i=1,2,3……N)
なお、この回転パラメータの求め方は下記の参考文献で公知である。
【0056】
<参考文献>
Kenichi Kanatani:"Analysis of 3-D Rotation Fitting". IEEE Trans. PAMI,Vol.16,No.5,pp543-549,1994
回転パラメータRの推定方法は、下記の通りに行われる。
【0057】
まず、対応するN個の平面グループがある2つの集合{e},{f}(i=1,2,3……N)から回転パラメータを求めるには、
【0058】
【数1】

Figure 0004188632
を満たすRを求める。そこで、{e},{f}からなる相関行列Kを以下のように定義する。
【0059】
ここでは、上付きTは転置行列を示している。
【0060】
【数2】
Figure 0004188632
ここで、相関行列Kの特異値分解によって下記式が得られる。ここで、行列V,Uは正規直交行列である。
【0061】
【数3】
Figure 0004188632
すると、回転パラメータRは以下のように求めることができる。
【0062】
【数4】
Figure 0004188632
上記のように求められた、回転パラメータRを使用して下記の処理を行う。
【0063】
3) 視点Aの全ての平面グループの法線ベクトルnに対して前記求めた回転パラメータ(回転行列)を掛ける。
Rn=m …(7)
4) 視点Bにおいて、上記mと等しい法線ベクトルを持つ平面グループが存在すれば、法線ベクトルnを持つ平面グループと法線ベクトルmを持つ平面グループの類似度をSUMに加算する。
【0064】
もし、mと等しい平面グループが視点Bになければ、視点Aの法線ベクトルnを持つ平面グループしか存在しない場合の類似度をSUMに加算する。
5) 3×3の回転パラメータ(回転行列)の逆行列R−1を求める。
【0065】
6) 次に視点Bの平面グループの法線ベクトルmに対して回転パラメータ(回転行列)を掛ける。
逆行列R−1=n …(8)
7) 次に視点Aにおいて、nと等しい法線ベクトルを持つ平面グループが存在すれば、法線ベクトルnを持つ平面グループと法線ベクトルmを持つ平面グループの類似度をSUMに加算する。
【0066】
もし、nと等しい平面グループが視点Aになければ、視点Bの法線ベクトルmを持つ平面グループしか存在しない場合の類似度をSUMに加算する。
上記のようにして、平面グループ間の類似度演算を行う。
【0067】
なお、上記説明では、視点A、視点Bで説明したが、視点A、視点Cにおいても、同様に処理する。
(S50)
次のS50では、今回算出した類似度の和(SUMの値)と過去に算出した最大の類似度の和(過去に算出したSUMの値)と比較して、今回の類似度の和(今回値)が、過去の最大の類似度の和よりも大きいか否かを判定する。今回値の方が大きければ、S60に移行し、そうでなければ、S70に移行する。
【0068】
(S60)
S60では、今回値を最大の類似度の和として更新するとともに、その対応する平面グループと、シフト量を記憶手段に格納する。
【0069】
(S70)
S70では、全ての平面グループの組合せを探索したかを判定し、全ての平面グループの探索が終了していない場合には、S10に戻る。全ての平面グループの探索が終了した場合には、S80に移行する。
【0070】
(変換パラメータ推定部17)
変換パラメータ推定部17は、図10のS80の処理を行う。
すなわち、S80では、前記記憶手段に記憶させた対応する平面グループを基に変換パラメータとしての回転パラメータ及び並進パラメータを推定する。
【0071】
ここでは、精度良く、回転パラメータ(回転行列)を推定するため、3つの平面グループ以外の互いに対応する平面グループがないかを調べる必要がある。この場合、対応関係があったとしても、全体の誤差を大きくするような、「外れ平面グループ」を持つ組合せは、削除する必要がある。
【0072】
そこで、S80では、下記の手順で、外れ平面グループを検出し、回転パラメータを求める際に、この外れ平面グループを含む、平面グループの組合せを除外する。
【0073】
(外れ平面グループの検出及び除外)
1) 平面グループ間の角度差が互いに等しい平面グループ同士の法線ベクトルnp11とmp21、np12とmp22、np13とmp23との内積を用いて、誤差εを下記式(9)で求める。なお、np11は平面グループP11の法線ベクトルの意味であり、他の法線ベクトルn,mも同様に平面グループの符号に対応して付している。
【0074】
ε=(np11・mp21-1)2+(np12・mp22-1)2+(np13・mp23-1)2
…(9)
2) 誤差εに対して、Median(メディアン)をとり、
ε≧(Median × 2.0)
となる平面グループを外れ平面グループとする。
【0075】
上記の条件で、外れ平面グループを含む平面グループの組合せを排除する。
そして、上記のように、外れ平面グループの組合せを排除して、S40と同様の方法により回転パラメータを推定する。
【0076】
並進パラメータの推定は下記の通りに行う。
まず、対応する平面グループに関する3つの法線ベクトルn1,n2,n3とそれぞれのシフト量d1,d2,d3から、それぞれの法線ベクトルと垂直で、かつ原点からそれぞれのシフト量だけ移動した3つの平面を得る。
【0077】
なお、
n1=(a1,b1,c1)
n2=(a2,b2,c2)
n3=(a3,b3,c3)
とする。
【0078】
それらの3つの平面の交点(図13参照)は、1つの視点に対する他の1つの視点の平行移動量Tとなる。ここで、並進パラメータはRTとなる。平面グループマッチング部16により既に求めた回転パラメータ(回転行列)と平行移動量Tを基に、1つの視点の座標系を下記式(10)を使用して他の1つの視点の座標系に変換する。
【0079】
ここでは、説明の便宜上、視点Bの座標系Pbを視点Aの座標系Paに変換する場合を説明する。
Pa=R(Pb+T) …(10)
平行移動量T(3つの平面の交点)の推定は、下記の通りに行われる。
【0080】
1) 3つの平面方程式を求める。
これは、対応する3つの法線ベクトルn1=(a1,b1,c1),n2=(a2,b2,c2),n3=(a3,b3,c3)とそれぞれのシフト量d1,d2,d3から下記(11)式の方程式を得る。
【0081】
【数5】
Figure 0004188632
2) 3つの平面方程式から平行移動量Tを得る。
【0082】
上記式(11)の交点(平行移動量T)は以下のように求める。
但し、下記式のUはUの逆行列を示している。
【0083】
【数6】
Figure 0004188632
本実施形態では、変換パラメータ推定部17は、さらに、視点Cの座標系Pcを視点Aの座標系Paに変換するが、前記と同様に処理して、回転パラメータ及び並進パラメータを推定する。
【0084】
(統合部18)
統合部18は、図10のS90の処理を行う。
すなわち、S90では、統合部18はそれぞれ求められた回転パラメータ及び並進パラメータを基に、各視点におけるパノラマレンジデータを、1つの座標系に変換する。
【0085】
本実施形態では、視点B及び視点Cのパノラマレンジデータを視点Aの座標系に変換する(図3参照)。
この変換した結果、複数の視点から得られたパノラマレンジデータの座標系を1の視点の座標系に統合することができる。
【0086】
上記実施形態によれば、下記の効果を有する。
(1) 本実施形態では、視点A、視点B、視点Cの複数の視点から周囲環境360°(所定範囲)を撮像して得られたパノラマレンジデータ(距離画像)に基づき各視点毎に法線ベクトル(局所法線ベクトル)を求めるようにした。次に、法線ベクトルのヒストグラムを生成し、同法線ベクトルのうち、同じ向きを持つもの同士を平面グループとして抽出した。
【0087】
そして、得られた平面グループの法線ベクトルに基づき、法線軸に対して、視点からの距離に応じて投影したグローバル統計量を求めた。
さらに、視点A、視点B、視点Cのそれぞれの視点間における、平面グループ間の角度差と、対応する平面グループ同士のグローバル統計量の類似度に基づいて、複数視点間の最も類似度の高い平面グループの対応を求めた。
【0088】
又、マッチングした平面グループ同士間の回転パラメータ及び並進パラメータ(変換パラメータ)を推定し、求めた回転パラメータ及び並進パラメータに基づいて、視点A、視点B、視点Cの各視点の距離画像の座標系を1つの座標系に統合するようにした。
【0089】
この結果、本実施形態の距離画像の統合方法によれば、従来の距離画像の統合のために設置していたマーカ等の道具が不要である効果を奏する。
又、各視点毎に、平面の法線ベクトルを求めるようにして、従来手法と異なり対応点を設置することがないため、複数の距離画像のデータ間に適当な対応点を持たない点が多数含まれていた場合があっても、これらの点の影響を受けることがなく、ロバスト性が高い効果がある。
【0090】
又、曲率等を対応点としないため、ノイズを含んだ距離画像から正しく特徴点を抽出することが困難となることはなく、この点からもロバスト性が高い効果がある。すなわち、本実施形態によれば、多視点間の変換パラメータ(回転パラメータと並進パラメータ)を効率良くロバストに推定できる効果がある。
【0091】
(2) 本実施形態の距離画像統合装置10は、視点A、視点B、視点Cの複数の視点から周囲環境360°(所定範囲)を撮像して得られたパノラマレンジデータ(距離画像)に基づき各視点毎に法線ベクトル(局所法線ベクトル)を求める法線ベクトル算出部12(法線ベクトル算出手段)を備えるようにした。又、法線ベクトルのヒストグラムを生成するヒストグラム生成部13(ヒストグラム生成手段)と、同法線ベクトルのうち、同じ向きを持つもの同士を平面グループとして抽出する平面グループ抽出部14(平面グループ抽出手段)を備えた。そして、得られた平面グループの法線ベクトルに基づき、法線軸に対して、視点からの距離に応じて投影したグローバル統計量を生成するグローバル統計量生成部15(グローバル統計量生成手段)を備えた。
【0092】
さらに、視点A、視点B、視点Cのそれぞれの視点間における、平面グループ間の角度差と、対応する平面グループ同士のグローバル統計量の類似度に基づいて、複数視点間の最も類似度の高い平面グループの対応を求める平面グループマッチング部16(平面グループマッチング手段)を備えた。又、マッチングした平面グループ同士間の回転パラメータ及び並進パラメータ(変換パラメータ)を推定する変換パラメータ推定部17(変換パラメータ推定手段)を備えた。
【0093】
さらに、求めた回転パラメータ及び並進パラメータに基づいて、視点A、視点B、視点Cの各視点の距離画像の座標系を1つの座標系に統合する統合部18(統合手段)とを備えた。
【0094】
この結果、本実施形態では、装置として上記(1)と同様の効果を奏する。
(3) 本実施形態では、グローバル統計量生成部15はロバスト性を考慮し、平面グループの法線ベクトルと、ある程度角度が類似している平面も用いて、グローバル特徴空間を生成するようにした。
【0095】
この結果、ロバスト性を高くすることができる。
(4) 本実施形態では、回転パラメータ(回転行列)を安定的に求めるために、対応付けられた平面グループ間においては、60°以上の角度差を持つ平面グループを探索するようにした。
【0096】
この結果、回転パラメータ(回転行列)を安定的に求めることができる。
なお、本発明の実施形態は上記実施の形態に限定されるものではなく、発明の趣旨を逸脱しない範囲で、適宜に変更して次のように実施することもできる。
【0097】
(1) 前記実施形態では、周囲環境360°の範囲のレンジデータ、すなわち、パノラマレンジデータを使用したが、所定範囲は360°に限定するものではなく、各視点からそれぞれ、共通の撮像対象を含むようにして、レンジデータ測定装置にて撮像するものであれば、360°よりも少ない範囲でもよい。
【0098】
(2) 前記実施形態では、視点は、3つの視点としたが、視点の数は、2つ以上であればよい。
(3) 前記実施形態では、平面グループマッチング部16はS80において、「外れ平面グループの検出及び除外」を行ったが、この処理を省略してもよい。この場合、誤差が出る場合があるが、本発明の効果を奏することができる。
【0099】
又、こうすると、対応する平面グループ同士を3個のみ求め、この平面グループに係る3方向の法線ベクトルから回転パラメータを推定することになるが、それ以外の対応する平面グループを用いれば、より精度良く回転パラメータを推定することができる。
【0100】
(4) 前記実施形態では、グローバル統計量生成部15はロバスト性を考慮し、平面グループの法線ベクトルと、ある程度角度が類似している平面も用いて、グローバル特徴空間を生成するようにした。すなわち、グローバル統計量生成部15は、対象とする平面グループとほぼ同じ向きから45°の角度をなす平面までを対象として、グローバル特徴空間を生成するようにした。しかし、45°に限定するものではなく、他の角度にしてもよい。
【0101】
(5) 前記実施形態では、各視点毎に、データ入力部11、法線ベクトル算出部12、ヒストグラム生成部13、平面グループ抽出部14、及びグローバル統計量生成部15を設けた。これに代えて、データ入力部11のみ、各視点に応じて複数個設け、データ入力部11、法線ベクトル算出部12、ヒストグラム生成部13、平面グループ抽出部14、及びグローバル統計量生成部15は単一のものとしてもよい。この場合、各視点に配置されたデータ入力部11は図1に点線で示すように、1つの法線ベクトル算出部12に出力する。そして、各視点毎に、法線ベクトル算出部12、ヒストグラム生成部13、平面グループ抽出部14、及びグローバル統計量生成部15にて処理してもよい。
【0102】
この場合、法線ベクトル算出部12、ヒストグラム生成部13、平面グループ抽出部14、及びグローバル統計量生成部15は、各部共通の1つのコンピュータにて構成されている。
【0103】
又、平面グループマッチング部16、変換パラメータ推定部17、統合部18は、各部共通の1つのコンピュータにて構成されている。
この場合、法線ベクトル算出部12、ヒストグラム生成部13、及び平面グループ抽出部14を構成するコンピュータと、平面グループマッチング部16、変換パラメータ推定部17、及び統合部18を構成するコンピュータとは、別体でも、共通でもよい。
【0104】
次に、上記した実施形態から把握できる請求項に記載した発明以外の技術的思想について、それらの効果とともに以下に記載する。
(1) 請求項1において、複数視点間における、平面グループ間の角度差と、対応する平面グループ同士のグローバル統計量の類似度に基づいて複数視点間の最も類似度の高い平面グループ同士を求めるとともに、前記マッチングした平面グループ同士間の変換パラメータを推定する際に、対応付けられた平面グループ間においては、60°以上の角度差を持つ平面グループを探索するようにしたことを特徴とする距離画像の統合方法。こうすると、回転パラメータ(回転行列)を安定的に求めることができる。
【0105】
(2) 請求項2において、平面グループマッチング手段は、複数視点間における、平面グループ間の角度差と、対応する平面グループ同士のグローバル統計量の類似度に基づいて複数視点間の最も類似度の高い平面グループの対応を求めるとともに、前記マッチングした平面グループ同士間の変換パラメータを推定する際に、対応付けられた平面グループ間においては、60°以上の角度差を持つ平面グループを探索するようにしたことを特徴とする距離画像統合装置。こうすると、回転パラメータ(回転行列)を安定的に求めることができる。
【0106】
(3) 請求項2において、平面グループマッチング手段は、複数視点間の最も類似度の高い、対応する平面グループ同士を3個のみ求め、この平面グループに係る3方向の法線ベクトルから回転パラメータを推定することを特徴とする距離画像統合装置。
【0107】
なお、対応する平面グループ同士を3個以上用いた方が精度良く回転パラメータを求めることができる。
【0108】
【発明の効果】
以上詳述したように、請求項1及び請求項2に記載の発明は、従来の距離画像の統合のために設置していたマーカ等の道具が不要であり、多視点間の変換パラメータ(回転パラメータと並進パラメータ)を効率良くロバストに推定できる効果を奏する。
【図面の簡単な説明】
【図1】距離画像統合装置10の全体図。
【図2】(a)〜(c)は、同一の部屋CH内において、視点A,B,Cのそれぞれの位置を示す説明図。
【図3】部屋CH内において、視点A,B,Cのそれぞれの位置を示す説明図。
【図4】7×7の場合の注目点を示すための説明図。
【図5】(a)は法線ベクトル投票空間を示す斜視図、(b)は、同じく法線ベクトル投票空間の正面図。
【図6】(a)は法線ベクトル投票空間を示す斜視図、(b)は、同じく法線ベクトル投票空間の正面図。
【図7】(a)はヒストグラム空間(θxz(n),φy(n))の説明図、(b)は、ヒストグラム空間(θyz(n),φx(n))の説明図。
【図8】視点A,B,Cで、共通の平面50,51を見た場合の距離、角度の相違を示すための説明図。
【図9】3次元モデルとグローバル特徴空間の説明図。
【図10】平面グループマッチング部16〜統合部18が実行するフローチャート。
【図11】2つの視点間にある平面グループの対応例を示す説明図。
【図12】同じく2つの視点間にある平面グループの対応例を示す説明図。
【図13】3法線ベクトルとそのシフト量に基づく3平面の説明図。
【符号の説明】
10…距離画像統合装置
11…データ入力部
12…法線ベクトル算出部(法線ベクトル算出手段)
13…ヒストグラム生成部(ヒストグラム生成手段)
14…平面グループ抽出部(平面グループ抽出手段)
15…グローバル統計量生成部(グローバル統計量生成手段)
16…平面グループマッチング部(平面グループマッチング手段)
17…変換パラメータ推定部(変換パラメータ推定手段)
18…統合部(統合手段)
L…法線軸
A,B,C…視点[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a distance image integration method and a distance image integration device.
[0002]
[Prior art]
In recent years, in the fields of object-pair recognition and virtual reality, it is important to measure the three-dimensional shape of an object or scene and model the shape. On the other hand, with the emergence of a highly accurate and relatively inexpensive rangefinder, it is easy to acquire range data, that is, a distance image. In the measurement from a single viewpoint by the range finder, there are parts where data cannot be obtained, such as the part hidden behind the backside or unevenness, so in order to obtain the three-dimensional shape of the object or the entire scene, from multiple viewpoints The range data obtained by measurement must be integrated.
[0003]
In the integration of range images obtained from a plurality of viewpoints, a method has been proposed in which corresponding features are found between range images and integrated based on the corresponding points. As features used here, for example, information such as edges and points obtained from markers whose shapes are known in advance (for example, shapes such as squares, circles, etc.), and motion-invariant information such as curvature are used as corresponding points. There is an example to do.
[0004]
[Problems to be solved by the invention]
However, if there are many points that do not have appropriate corresponding points among the data of a plurality of distance images, they may not be integrated correctly due to the influence of these points and lack robustness. Further, when the curvature or the like is used as a feature point, it may be difficult to correctly extract the feature point from a distance image including noise.
[0005]
An object of the present invention is that a distance image that can efficiently and robustly estimate conversion parameters (rotation parameters and translation parameters) between multiple viewpoints is unnecessary, without using tools such as markers that have been installed for integration of conventional distance images. And a distance image integration apparatus.
[0006]
[Means for Solving the Problems]
In order to solve the above problem, the invention according to claim 1 determines a local normal vector for each viewpoint based on a distance image obtained by imaging a predetermined range from a plurality of viewpoints. A histogram is generated, and the local normal vectors having the same orientation are extracted as a plane group. Based on the local normal vector of the obtained plane group, the normal axis is viewed from the viewpoint. Obtain the area histogram (hereinafter referred to as global statistic) of the local plane patch projected according to the distance, and based on the angle difference between the plane groups between multiple viewpoints and the similarity of the global statistics between the corresponding plane groups In addition to finding the correspondence of the plane groups with the highest similarity between multiple viewpoints, the conversion parameters between the matched plane groups were estimated and found. Based on the conversion parameters, it is how to integrate distance image for integrating the coordinate system of the range image at each viewpoint in one coordinate system as to the subject matter.
[0007]
The invention according to claim 2 is a normal vector calculation means for obtaining a local normal vector for each viewpoint based on a distance image obtained by imaging a predetermined range from a plurality of viewpoints, and generates a histogram of the local normal vector. Based on the local normal vector of the obtained plane group based on the local normal vector of the obtained plane group On the other hand, a global statistic generation means that generates an area histogram (hereinafter referred to as global statistic) of the local plane patch projected according to the distance from the viewpoint, and the angle difference between plane groups between multiple viewpoints The plane group with the highest similarity between multiple viewpoints based on the similarity of the global statistics between the plane groups A group matching unit, a conversion parameter estimation unit that estimates a conversion parameter between matched plane groups, and an integration unit that integrates the coordinate system of the distance image of each viewpoint into one coordinate system based on the obtained conversion parameter; A gist of a range image integrating device characterized by comprising:
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to FIGS.
FIG. 1 is an overall view of the distance image integration device 10.
[0009]
The distance image integration device 10 includes a data input unit 11, a normal vector calculation unit 12, a histogram generation unit 13, a plane group extraction unit 14, a global statistic generation unit 15, a plane group matching unit 16, a conversion parameter estimation unit 17, an integration The unit 18 is configured.
[0010]
The normal vector calculation unit 12 corresponds to normal vector calculation means, and the histogram generation unit 13 corresponds to histogram generation means. The plane group extraction unit 14 corresponds to plane group extraction means, and the global statistic generation unit 15 corresponds to global statistic generation means. The plane group matching unit 16 corresponds to a plane group matching unit. The conversion parameter estimation unit 17 corresponds to conversion parameter estimation means. The integration unit 18 corresponds to integration means.
[0011]
In the present embodiment, the data input unit 11, the normal vector calculation unit 12, the histogram generation unit 13, the plane group extraction unit 14, and the global statistic generation unit 15 are provided as one set, and three sets are provided. The normal vector calculation unit 12, the histogram generation unit 13, the plane group extraction unit 14, and the global statistic generation unit 15 in each set are configured by one computer. That is, three computers are provided corresponding to the three groups. Further, the plane group matching unit 16, the conversion parameter estimation unit 17, and the integration unit 18 are configured by one computer different from the computer provided for each set.
[0012]
In the following description, the data input unit 11, the normal vector calculation unit 12, the histogram generation unit 13, the plane group extraction unit 14, and the global statistic generation unit 15 are described as one set, and the other sets Since these functions in the same manner, description thereof is omitted.
[0013]
(Data input unit 11)
As the data input unit 11, a range data measuring device (range finder) is used, and the range data of an object is transmitted from a predetermined viewpoint (referred to as viewpoint A, viewpoint B, viewpoint C according to each set) to the surrounding environment 360 °. 3D data, that is, panorama range data. The obtained range data is expressed in a viewpoint coordinate system with the range data measuring device as the origin. The panorama range data corresponds to a distance image.
[0014]
2A to 2C are explanatory diagrams showing the positions of the viewpoints A, B, and C in the same room CH. FIG. 3 is an explanatory diagram showing the positions of the viewpoints A, B, and C in the room CH.
[0015]
(Normal vector calculation unit 12)
The panorama range data is omnidirectional three-dimensional data with a large amount of three-dimensional information, unlike the three-dimensional data obtained by a general three-dimensional measuring instrument. Hereinafter, the panorama range data is simply referred to as range data.
[0016]
Since points on the same plane have similar local normals, a histogram space based on the local normal vectors is generated, and a peak value is detected to extract a plane group.
[0017]
Therefore, each set of normal vector calculation units 12 calculates a unit normal vector (hereinafter simply referred to as a normal vector) based on the panorama range data obtained by the data input unit 11. The normal vector corresponds to a local normal vector.
[0018]
The calculation of the normal vector will be described in detail. In this embodiment, the normal vector calculation unit 12 first applies a plane to the range data by a least square approximation using the following plane equation within a 7 × 7 local region centered on the point of interest. Do. FIG. 4 shows attention points in the case of 7 × 7. The present invention is not limited to 7 × 7.
[0019]
pX + qY + rZ + s = 0 (1)
(P, q, r, s are parameters)
p2+ Q2+ R2+ S2= 1 (2)
Under the constraints of
Σ (pXi+ QYi+ RZi+ S)2
The parameter of the plane is estimated by minimizing.
[0020]
A unit normal vector is obtained based on the obtained plane parameters, and the sign of the unit normal vector is determined so that the direction faces outward.
(Histogram generator 13)
Although the normal vectors obtained by the normal vector calculation unit 12 are distributed on a spherical surface, the spherical coordinate system is difficult to handle, and the histogram generation unit 13 is shown in FIGS. 5 (a) and 6 (a). The normal vector histogram voted on the spherical surface is developed in the orthogonal coordinate space of the two ring-shaped regions, and this is used as the feature space of the normal vector.
[0021]
5A and 6A are perspective views of a normal vector voting space. FIG. 5B and FIG. 6B similarly show front views of the normal vector voting space, and the hatched area shows a ring-shaped area.
[0022]
Furthermore, in order to prevent the size of the histogram space from changing due to the distance or angle from the range data measurement device (range finder) even in the same size region, the histogram generation unit 13 displays the histogram as a local area of the target point. Obtained from the actual area occupied by the region.
[0023]
Note that, in the obtained two histogram spaces, overlapping portions are generated, and one of these overlapping portions is used in the plane group extraction unit 14 described later.
[0024]
5 (a) and 5 (b) and θyz (n) in FIGS. 6 (a) and 6 (b) are obtained when the normal vector n is projected onto the xz plane and the yz plane, respectively. Azimuth. Φy (n) is the angle between the xz plane and the normal vector n, and φx (n) is the angle between the yz plane and the normal vector n.
[0025]
In order to maintain the uniformity of the histogram space, the histogram generation unit 13 multiplies the obtained normal vector histogram by the scale function 1 / sin (φy) or the function 1 / sin (φx) along the φ axis. .
[0026]
FIG. 7A shows an example of the histogram space (θxz (n), φy (n)) in the ring-shaped region obtained by the histogram generator 13.
FIG. 7B shows an example of the histogram space (θyz (n), φx (n)) in the ring-shaped region obtained by the histogram generator 13.
[0027]
In the histogram spaces of FIGS. 7A and 7B, plane groups having similar orientations form one distribution.
(Plane group extraction unit 14)
In order to extract a plane group from the obtained histogram space, the plane group extraction unit 14 detects a peak value existing in the histogram space and extracts the distribution to obtain a plane group. That is, the plane group extraction unit 14 detects a plurality of peaks in order from the largest peak value based on the distribution of the two histograms in FIGS. 7A and 7B. Each of these peak values is a plane group.
[0028]
In the present embodiment, each plane group extraction unit 14 extracts a plurality of, for example, 10 plane groups.
(Global statistics generation unit 15)
Here, the operation of the global statistic generation unit 15 will be described.
[0029]
In one plane group having the same normal vector orientation, each plane included in the plane group is distributed at various locations in an actual three-dimensional space. Therefore, the distribution feature is used as a global feature of the plane group and is used for calculating the similarity of the plane group.
[0030]
In the present embodiment, the global statistic generation unit 15 generates a global feature space using a plane that is somewhat similar in angle to a normal vector of a plane group in consideration of robustness. That is, the global statistic generation unit 15 generates a global feature space for a plane from an almost same direction as a target plane group to a plane that forms an angle of 45 °. The present invention is not limited to an angle of 45 °.
[0031]
When generating the global feature space using the number of pixels that can be seen from the viewpoint position, the global feature space can be used in the same size region on the 3D space depending on the distance and angle from the range data measurement device (range finder). The occupying size is uneven.
[0032]
FIG. 8 shows the difference in distance and angle when the common planes 50 and 51 are viewed at the viewpoints A, B, and C. FIG. Moreover, the arrow in FIG. 8 has shown the direction of the normal vector regarding each plane 50,51.
[0033]
Therefore, in the global statistic generation unit 15, as shown in FIG. 9, the local projection is performed according to the distance α between the point α that projects the sensor center (viewpoint) on the normal axis L and the point that projects the plane onto the normal axis L. The area histogram of the planar patch is the global feature space. The area histogram of the local planar patch corresponds to a global statistic. FIG. 9 is an explanatory diagram of a three-dimensional model and a global feature space.
[0034]
The plane is a plane existing in the room CH, and the normal axis L is the axis of the normal vector of the extracted plane group.
In this case, the horizontal axis of the area histogram shown in FIG. 9 indicates the distance α between the point α where the sensor center (viewpoint) is projected on the normal axis L and the point β where the plane is projected on the normal axis L, and the vertical axis indicates the area and Become. FIG. 9 shows an example of the three-dimensional model (a) and the obtained global feature space distribution (b). In FIG. 9, six planes exist in the three-dimensional space, but the plane (I) and the plane (VI) having a large area appear as large values in the global feature space. When there is a normal vector and an angle as in the plane (II) or the plane (V), the global feature space appears as a wide distribution.
[0035]
The global statistic generation unit 15 performs the above-described processing on the plane groups obtained by the A to C plane group extraction units 14.
(Planar group matching unit 16)
The plane group matching unit 16 to the integration unit 18 integrate multi-viewpoint panorama range data using the plane group obtained by the plane group extraction unit 14 and the global feature space distribution obtained by the global statistic generation unit 15. I do.
[0036]
Here, an outline of the processing of the plane group matching unit 16 will be described.
In the following description, the case where the coordinate system of the viewpoint B is converted to the coordinate system of the viewpoint A will be described for the sake of convenience unless otherwise specified. However, the coordinate system of the viewpoint C may be converted to the coordinate system of the viewpoint A. Since it is the same, description is abbreviate | omitted.
[0037]
The plane group matching unit 16 searches for matching between a plurality of plane groups in which the angle difference between plane groups in one viewpoint and the angle difference between plane groups in another one viewpoint are equal to each other (FIG. 10). S30). Thereafter, the similarity between the corresponding plane groups is obtained using the global feature space distribution in the plane group, and matching between the plane groups with the highest similarity is searched (see S50 in FIG. 10).
[0038]
In the global feature space distribution, if there is the same plane group among the plane groups obtained from different viewpoints, the global feature space distributions of the plane groups are similar. Therefore, the plane group matching unit 16 uses the similarity of the area histogram of the global feature space distribution, that is, the similarity of the global statistics, as the similarity between the two plane groups at each viewpoint.
[0039]
Further, the similarity of the plane group is calculated for each plane group between the viewpoints, that is, between the points A and B, between the points A and C, and between the points B and C.
Specifically, the plane group similarity is calculated by the plane group matching unit 16 by shifting one area histogram in the horizontal axis direction (see the distance β shown in FIG. 9), and the other area histogram and SSD ( It is to calculate using the residual sum of squares).
[0040]
Further, the plane group matching unit 16 obtains the shift amount and the similarity when the similarity is the highest from the two area histograms. The similarity is also obtained when only one area histogram exists (see S40 in FIG. 10). These similarities are used when determining the same plane group between two viewpoints.
[0041]
Hereinafter, the process performed by the plane group matching unit 16 will be described in detail.
In the present embodiment, the plane group matching unit 16 performs matching under the following restrictions (1) and (2).
[0042]
(1) The relationship of the angle difference between the plane groups in one viewpoint is also established between the plane groups in the other viewpoint.
(2) If the correspondence between the three plane groups is obtained between the two viewpoints, the rotation parameter (rotation matrix) can be obtained.
[0043]
In the flowchart of FIG. 10, S <b> 10 to S <b> 70 are steps processed by the plane group matching unit 16 (hereinafter referred to as “S”).
(S10)
In S10, the plane group extracting unit 14 extracts ten plane groups from each viewpoint, and therefore, three plane groups are selected from each viewpoint. That is, a combination of plane groups between viewpoints is generated. Here, between the viewpoints means between the viewpoints A and B, between the viewpoints A and C, and between the viewpoints B and C in this embodiment.
[0044]
(S20)
In S20, the angle difference between the plane groups is calculated at each viewpoint. FIG. 12 shows the plane groups P11, P12. P13 and plane groups P21, P22, and P23 are shown. The angle difference between the plane groups at each viewpoint is θa1, θa2, θa3, and θb1, θb2, θb3 as shown in FIG.
[0045]
(S30)
In S30, the angle difference between the plane groups between the respective viewpoints is 60 ° or more (first condition), and the angle difference between the plane groups in one viewpoint is the angle between the corresponding plane groups in the other viewpoint. It is determined whether or not the difference is equal (second condition).
[0046]
In the example of FIG. 12, plane groups P11, P12. It is determined whether the angle differences θa1, θa2, θa3 between P13 and the angle differences θb1, θb2, θb3 of the plane groups P21, P22, P23 are 60 ° or more. Further, it is determined whether or not the angular differences θa1, θa2, and θa3 are equal to the angular differences θb1, θb2, and θb3.
[0047]
The reason for determining whether or not the angle difference between the plane groups between the respective viewpoints is 60 ° or more is as follows.
In order to stably determine the rotation parameter (rotation matrix), it is necessary to search for a certain angle difference between the associated plane groups. In general, it is known that three surfaces are required to form a minimum closed space, and in this case, the angle between the surfaces is 60 ° on average. Therefore, in this embodiment, a plane group having an angle difference of 60 ° or more is searched.
[0048]
If the combination of plane groups satisfies both the first condition and the second condition in S30, the process proceeds to S40. If the combination is a plane group that does not satisfy either the first condition or the second condition, the process returns to S10 to generate the next combination of plane groups.
[0049]
(S40)
In S40, similarity calculation between plane groups is performed.
The similarity calculation between plane groups includes calculation of the similarity between plane groups between different viewpoints and calculation of the sum of similarities.
[0050]
First, in the calculation process of the similarity between plane groups between different viewpoints, as described above, one area histogram is shifted in the horizontal axis direction (see the distance β shown in FIG. 9), and the other area histogram. And SSD (residual sum of squares).
[0051]
The degree of similarity between the plane groups obtained by the calculation is stored in a storage means (not shown), and is read out when calculating the sum of the degrees of similarity described later.
Next, the calculation of the sum of similarities will be described.
[0052]
The calculation of the sum of similarities, that is, the calculation of the sum of similarities of the global feature space distribution (global statistic) is performed according to the following procedure.
1) First, SUM = 0.
[0053]
2) A 3 × 3 rotation parameter (rotation matrix) R is obtained from the three normal vectors of the corresponding plane groups P11 and P21, P12 and P22, P13 and P23.
The rotation parameter corresponds to a conversion parameter.
[0054]
(Rotation parameter calculation)
Here, how to obtain the rotation parameter (rotation matrix) will be described.
In the “rotation parameter calculation”, the plane groups at the two viewpoints are described by distinguishing them by e and f for convenience of explanation.
[0055]
FIG. 11 shows an example of correspondence between plane groups between two viewpoints.
Corresponding plane group (e1, F1), (E2, F2), (E2, F2), ..., (ei, Fi) To estimate the rotation parameter R (3 × 3). (I = 1, 2, 3 ... N)
In addition, the method of calculating | requiring this rotation parameter is well-known in the following reference.
[0056]
<References>
Kenichi Kanatani: "Analysis of 3-D Rotation Fitting". IEEE Trans. PAMI, Vol. 16, No. 5, pp543-549, 1994
The estimation method of the rotation parameter R is performed as follows.
[0057]
First, two sets {e with corresponding N plane groups {ei}, {Fi} (I = 1, 2, 3... N)
[0058]
[Expression 1]
Figure 0004188632
Find R that satisfies So, {ei}, {Fi} Is defined as follows.
[0059]
Here, the superscript T indicates a transposed matrix.
[0060]
[Expression 2]
Figure 0004188632
Here, the following equation is obtained by singular value decomposition of the correlation matrix K. Here, the matrices V and U are orthonormal matrices.
[0061]
[Equation 3]
Figure 0004188632
Then, the rotation parameter R can be obtained as follows.
[0062]
[Expression 4]
Figure 0004188632
The following processing is performed using the rotation parameter R obtained as described above.
[0063]
3) Normal vector n of all plane groups of viewpoint AiIs multiplied by the obtained rotation parameter (rotation matrix).
Rni= Mj          ... (7)
4) In view point B, m abovejIf there is a plane group with a normal vector equal toiPlane group with normal vector mjThe similarity of the plane group having is added to SUM.
[0064]
If mjIf no plane group equal to is in view B, normal vector n of view AiThe similarity in the case where only the plane group having exists is added to SUM.
5) Inverse matrix R of 3 × 3 rotation parameters (rotation matrix)-1Ask for.
[0065]
6) Next, the normal vector m of the plane group of viewpoint BjIs multiplied by a rotation parameter (rotation matrix).
Inverse matrix R-1mj= Ni    (8)
7) Next, at viewpoint A, niIf there is a plane group with a normal vector equal toiPlane group with normal vector mjThe similarity of the plane group having is added to SUM.
[0066]
If niIf there is no plane group equal to the viewpoint A, the normal vector m of the viewpoint BjThe similarity in the case where only the plane group having exists is added to SUM.
As described above, similarity calculation between plane groups is performed.
[0067]
In the above description, the viewpoint A and the viewpoint B are described, but the same processing is performed for the viewpoint A and the viewpoint C.
(S50)
In the next S50, the sum of the similarities calculated this time (SUM value) is compared with the sum of the maximum similarities calculated in the past (SUM value calculated in the past). It is determined whether or not (value) is greater than the sum of past maximum similarities. If the current value is larger, the process proceeds to S60, and if not, the process proceeds to S70.
[0068]
(S60)
In S60, the current value is updated as the maximum sum of similarities, and the corresponding plane group and the shift amount are stored in the storage means.
[0069]
(S70)
In S70, it is determined whether all plane group combinations have been searched. If the search for all plane groups has not been completed, the process returns to S10. When the search for all plane groups is completed, the process proceeds to S80.
[0070]
(Conversion parameter estimation unit 17)
The conversion parameter estimation unit 17 performs the process of S80 of FIG.
That is, in S80, the rotation parameter and the translation parameter as the conversion parameters are estimated based on the corresponding plane group stored in the storage means.
[0071]
Here, in order to estimate the rotation parameter (rotation matrix) with high accuracy, it is necessary to check whether there is a plane group corresponding to each other other than the three plane groups. In this case, even if there is a correspondence relationship, it is necessary to delete a combination having an “outlier plane group” that increases the overall error.
[0072]
Therefore, in S80, in the following procedure, the outlier plane group is detected, and when obtaining the rotation parameter, combinations of the plane groups including the outlier plane group are excluded.
[0073]
(Detection and exclusion of out-of-plane groups)
1) Using the inner product of the normal vectors np11 and mp21, np12 and mp22, np13 and mp23 of the plane groups having the same angle difference between the plane groups, the error ε is obtained by the following equation (9). Note that np11 means the normal vector of the plane group P11, and the other normal vectors n and m are similarly assigned corresponding to the codes of the plane group.
[0074]
ε = (np11 ・ mp21-1)2+ (np12 ・ mp22-1)2+ (np13 ・ mp23-1)2
... (9)
2) Take the median for the error ε,
ε ≧ (Median × 2.0)
The plane group that becomes is the out-of-plane group.
[0075]
Under the above conditions, combinations of plane groups including outlier plane groups are excluded.
Then, as described above, the rotation parameters are estimated by the same method as in S40, excluding combinations of outlier plane groups.
[0076]
The translation parameter is estimated as follows.
First, three normal vectors n1, n2, and n3 and their respective shift amounts d1, d2, and d3 related to the corresponding plane group are perpendicular to the respective normal vectors and moved from the origin by the respective shift amounts. Get a plane.
[0077]
In addition,
n1 = (a1, b1, c1)
n2 = (a2, b2, c2)
n3 = (a3, b3, c3)
And
[0078]
The intersection of these three planes (see FIG. 13) is the parallel movement amount T of one other viewpoint with respect to one viewpoint. Here, the translation parameter is RT. Based on the rotation parameter (rotation matrix) already obtained by the plane group matching unit 16 and the translation amount T, the coordinate system of one viewpoint is converted into the coordinate system of one other viewpoint using the following equation (10). To do.
[0079]
Here, for convenience of explanation, a case where the coordinate system Pb of the viewpoint B is converted into the coordinate system Pa of the viewpoint A will be described.
Pa = R (Pb + T) (10)
The estimation of the translation amount T (intersection of three planes) is performed as follows.
[0080]
1) Find three plane equations.
This is based on the corresponding three normal vectors n1 = (a1, b1, c1), n2 = (a2, b2, c2), n3 = (a3, b3, c3) and the respective shift amounts d1, d2, d3. The following equation (11) is obtained.
[0081]
[Equation 5]
Figure 0004188632
2) A translation amount T is obtained from the three plane equations.
[0082]
The intersection (parallel movement amount T) of the above equation (11) is obtained as follows.
However, U in the following formula1Indicates an inverse matrix of U.
[0083]
[Formula 6]
Figure 0004188632
In the present embodiment, the conversion parameter estimation unit 17 further converts the coordinate system Pc of the viewpoint C into the coordinate system Pa of the viewpoint A, and performs the same processing as described above to estimate the rotation parameter and the translation parameter.
[0084]
(Integration unit 18)
The integration unit 18 performs the process of S90 in FIG.
That is, in S90, the integration unit 18 converts the panorama range data at each viewpoint into one coordinate system based on the obtained rotation parameter and translation parameter.
[0085]
In the present embodiment, the panorama range data of the viewpoints B and C is converted into the coordinate system of the viewpoint A (see FIG. 3).
As a result of this conversion, the coordinate system of panorama range data obtained from a plurality of viewpoints can be integrated into the coordinate system of one viewpoint.
[0086]
According to the embodiment, the following effects are obtained.
(1) In this embodiment, a method is used for each viewpoint based on panorama range data (distance image) obtained by imaging the surrounding environment 360 ° (predetermined range) from a plurality of viewpoints A, B, and C. A line vector (local normal vector) was obtained. Next, a histogram of normal vectors was generated, and the same normal vectors having the same orientation were extracted as a plane group.
[0087]
And based on the normal vector of the obtained plane group, the global statistic projected on the normal axis according to the distance from the viewpoint was obtained.
Furthermore, based on the angle difference between plane groups between viewpoints A, B, and C, and the similarity of global statistics between corresponding plane groups, the highest similarity between multiple viewpoints The correspondence of the plane group was sought.
[0088]
In addition, a rotation parameter and a translation parameter (conversion parameter) between the matched plane groups are estimated, and based on the obtained rotation parameter and translation parameter, a coordinate system of distance images of viewpoints A, B, and C is obtained. Are integrated into one coordinate system.
[0089]
As a result, according to the distance image integration method of the present embodiment, there is an effect that a tool such as a marker installed for the integration of the conventional distance image is unnecessary.
In addition, unlike the conventional method, a plane normal vector is obtained for each viewpoint, and no corresponding points are set. Therefore, there are many points that do not have appropriate corresponding points between data of a plurality of distance images. Even if it is included, it is not affected by these points and has an effect of high robustness.
[0090]
In addition, since the curvature or the like is not used as a corresponding point, it is not difficult to correctly extract a feature point from a distance image including noise, which is also effective in terms of robustness. That is, according to the present embodiment, there is an effect that conversion parameters (rotation parameters and translation parameters) between multiple viewpoints can be estimated efficiently and robustly.
[0091]
(2) The distance image integration device 10 of the present embodiment uses panorama range data (distance image) obtained by imaging the surrounding environment 360 ° (predetermined range) from a plurality of viewpoints A, B, and C. Based on this, a normal vector calculation unit 12 (normal vector calculation means) for obtaining a normal vector (local normal vector) for each viewpoint is provided. Also, a histogram generation unit 13 (histogram generation unit) that generates a histogram of normal vectors, and a plane group extraction unit 14 (plane group extraction unit) that extracts the same normal vectors having the same direction as plane groups. ). Then, based on the obtained normal vector of the plane group, a global statistic generating unit 15 (global statistic generating means) that generates a global statistic projected according to the distance from the viewpoint with respect to the normal axis is provided. It was.
[0092]
Furthermore, based on the angle difference between plane groups between viewpoints A, B, and C, and the similarity of global statistics between corresponding plane groups, the highest similarity between multiple viewpoints A plane group matching unit 16 (plane group matching means) for obtaining correspondence between plane groups is provided. Moreover, the conversion parameter estimation part 17 (conversion parameter estimation means) which estimates the rotation parameter and translation parameter (conversion parameter) between the matched plane groups was provided.
[0093]
Furthermore, an integration unit 18 (integration unit) that integrates the coordinate systems of the distance images of the viewpoints A, B, and C into one coordinate system based on the obtained rotation parameter and translation parameter is provided.
[0094]
As a result, in this embodiment, the apparatus has the same effect as the above (1).
(3) In this embodiment, the global statistic generation unit 15 generates a global feature space using a plane group normal vector and a plane similar in angle to a certain degree in consideration of robustness. .
[0095]
As a result, robustness can be increased.
(4) In the present embodiment, in order to stably obtain the rotation parameter (rotation matrix), a plane group having an angle difference of 60 ° or more is searched between the associated plane groups.
[0096]
As a result, the rotation parameter (rotation matrix) can be obtained stably.
The embodiment of the present invention is not limited to the above-described embodiment, and can be implemented as follows with appropriate modifications without departing from the spirit of the invention.
[0097]
(1) In the above embodiment, range data in the range of the surrounding environment 360 °, that is, panorama range data is used. However, the predetermined range is not limited to 360 °, and a common imaging target is selected from each viewpoint. As long as the range data measuring device captures an image, the range may be less than 360 °.
[0098]
(2) In the embodiment, three viewpoints are used, but the number of viewpoints may be two or more.
(3) In the above embodiment, the plane group matching unit 16 performs “detection and exclusion of outlier plane groups” in S80, but this process may be omitted. In this case, an error may occur, but the effect of the present invention can be achieved.
[0099]
In addition, in this case, only three corresponding plane groups are obtained, and rotation parameters are estimated from normal vectors in three directions related to the plane group. However, if other corresponding plane groups are used, The rotation parameter can be estimated with high accuracy.
[0100]
(4) In the embodiment described above, the global statistic generation unit 15 generates a global feature space using a plane that is somewhat similar in angle to the normal vector of the plane group in consideration of robustness. . In other words, the global statistic generation unit 15 generates a global feature space from a plane almost at the same angle as a target plane group to a plane that forms an angle of 45 °. However, the angle is not limited to 45 °, and other angles may be used.
[0101]
(5) In the above embodiment, the data input unit 11, the normal vector calculation unit 12, the histogram generation unit 13, the plane group extraction unit 14, and the global statistic generation unit 15 are provided for each viewpoint. Instead, only the data input unit 11 is provided in accordance with each viewpoint, and the data input unit 11, the normal vector calculation unit 12, the histogram generation unit 13, the plane group extraction unit 14, and the global statistic generation unit 15 are provided. May be single. In this case, the data input unit 11 arranged at each viewpoint outputs to one normal vector calculation unit 12 as indicated by a dotted line in FIG. Then, the normal vector calculation unit 12, the histogram generation unit 13, the plane group extraction unit 14, and the global statistic generation unit 15 may perform processing for each viewpoint.
[0102]
In this case, the normal vector calculation unit 12, the histogram generation unit 13, the plane group extraction unit 14, and the global statistic generation unit 15 are configured by one common computer.
[0103]
Further, the plane group matching unit 16, the conversion parameter estimation unit 17, and the integration unit 18 are configured by a single computer common to the respective units.
In this case, the computer that constitutes the normal vector calculation unit 12, the histogram generation unit 13, and the plane group extraction unit 14, and the computer that constitutes the plane group matching unit 16, the transformation parameter estimation unit 17, and the integration unit 18 are: It may be separate or common.
[0104]
Next, technical ideas other than the invention described in the claims that can be grasped from the above-described embodiment will be described below together with their effects.
(1) In claim 1, plane groups having the highest similarity between a plurality of viewpoints are obtained based on the angular difference between the plane groups between the viewpoints and the similarity of the global statistics between the corresponding plane groups. In addition, when estimating the conversion parameters between the matched plane groups, a distance between the associated plane groups is searched for a plane group having an angle difference of 60 ° or more. Image integration method. In this way, the rotation parameter (rotation matrix) can be obtained stably.
[0105]
(2) In claim 2, the plane group matching means is configured to calculate the highest similarity between a plurality of viewpoints based on the angle difference between the plane groups and the similarity of the global statistics between the corresponding plane groups. While obtaining correspondence between high plane groups, and estimating the conversion parameters between the matched plane groups, search for plane groups having an angle difference of 60 ° or more between the associated plane groups. A distance image integration device characterized by that. In this way, the rotation parameter (rotation matrix) can be obtained stably.
[0106]
(3) In claim 2, the plane group matching means obtains only three corresponding plane groups having the highest similarity between a plurality of viewpoints, and calculates a rotation parameter from a normal vector in three directions related to the plane group. A range image integration device characterized by estimating.
[0107]
Note that the rotation parameter can be obtained with higher accuracy by using three or more corresponding plane groups.
[0108]
【The invention's effect】
As described above in detail, the inventions described in claims 1 and 2 do not require a tool such as a marker that has been installed for the integration of conventional distance images, and convert parameters between multiple viewpoints (rotation). Parameter and translation parameter) can be efficiently and robustly estimated.
[Brief description of the drawings]
FIG. 1 is an overall view of a distance image integration device 10;
FIGS. 2A to 2C are explanatory views showing respective positions of viewpoints A, B, and C in the same room CH.
FIG. 3 is an explanatory diagram showing the positions of viewpoints A, B, and C in a room CH.
FIG. 4 is an explanatory diagram for showing a point of interest in the case of 7 × 7.
FIG. 5A is a perspective view showing a normal vector voting space, and FIG. 5B is a front view of the normal vector voting space.
6A is a perspective view showing a normal vector voting space, and FIG. 6B is a front view of the normal vector voting space. FIG.
7A is an explanatory diagram of a histogram space (θxz (n), φy (n)), and FIG. 7B is an explanatory diagram of a histogram space (θyz (n), φx (n)).
FIG. 8 is an explanatory diagram for showing a difference in distance and angle when the common planes 50 and 51 are viewed at the viewpoints A, B, and C;
FIG. 9 is an explanatory diagram of a three-dimensional model and a global feature space.
FIG. 10 is a flowchart executed by the plane group matching unit 16 to the integration unit 18;
FIG. 11 is an explanatory diagram showing a correspondence example of a plane group between two viewpoints.
FIG. 12 is an explanatory diagram showing an example of correspondence between plane groups that are similarly between two viewpoints.
FIG. 13 is an explanatory diagram of three planes based on three normal vectors and their shift amounts.
[Explanation of symbols]
10. Distance image integration device
11. Data input part
12: Normal vector calculation unit (normal vector calculation means)
13 ... Histogram generator (histogram generator)
14 ... Plane group extraction unit (plane group extraction means)
15 ... Global statistic generator (global statistic generator)
16 ... Plane group matching section (plane group matching means)
17 ... Conversion parameter estimation unit (conversion parameter estimation means)
18 ... Integration unit (integration means)
L ... Normal axis
A, B, C ... Viewpoint

Claims (2)

複数の視点から所定範囲を撮像して得られた距離画像に基づき各視点毎に局所法線ベクトルを求め、
同局所法線ベクトルのヒストグラムを生成し、
同局所法線ベクトルのうち、同じ向きを持つもの同士を平面グループとして抽出し、
前記得られた平面グループの前記局所法線ベクトルに基づき、法線軸に対して、視点からの距離に応じて投影した局所平面パッチの面積ヒストグラム(以下、グローバル統計量という)を求め、
複数視点間における、平面グループ間の角度差と、対応する平面グループ同士のグローバル統計量の類似度に基づいて複数視点間の最も類似度の高い平面グループの対応を求めるとともに、マッチングした平面グループ同士間の変換パラメータを推定し、
求めた変換パラメータに基づいて、各視点の距離画像の座標系を1つの座標系に統合することを特徴とする距離画像の統合方法。
A local normal vector is obtained for each viewpoint based on a distance image obtained by imaging a predetermined range from a plurality of viewpoints,
Generate a histogram of the local normal vector,
Of the local normal vectors, those with the same orientation are extracted as plane groups,
Based on the local normal vector of the obtained plane group, an area histogram (hereinafter referred to as global statistics) of the local plane patch projected according to the distance from the viewpoint with respect to the normal axis,
Find the correspondence of the plane group with the highest similarity between multiple viewpoints based on the difference in angle between the plane groups between the multiple viewpoints and the similarity of the global statistics between the corresponding plane groups. Estimate the conversion parameters between
A distance image integration method comprising: integrating a coordinate system of a distance image of each viewpoint into one coordinate system based on the obtained conversion parameter.
複数の視点から所定範囲を撮像して得られた距離画像に基づき各視点毎に局所法線ベクトルを求める法線ベクトル算出手段と、
同局所法線ベクトルのヒストグラムを生成するヒストグラム生成手段と、
同局所法線ベクトルのうち、同じ向きを持つもの同士を平面グループとして抽出する平面グループ抽出手段と、
前記得られた平面グループの前記局所法線ベクトルに基づき、法線軸に対して、視点からの距離に応じて投影した局所平面パッチの面積ヒストグラム(以下、グローバル統計量という)を生成するグローバル統計量生成手段と、
複数視点間における、平面グループ間の角度差と、対応する平面グループ同士のグローバル統計量の類似度に基づいて、複数視点間の最も類似度の高い平面グループの対応を求める平面グループマッチング手段と、
マッチングした平面グループ同士間の変換パラメータを推定する変換パラメータ推定手段と、
求めた変換パラメータに基づいて、各視点の距離画像の座標系を1つの座標系に統合する統合手段とを備えたことを特徴とする距離画像統合装置。
Normal vector calculation means for obtaining a local normal vector for each viewpoint based on a distance image obtained by imaging a predetermined range from a plurality of viewpoints;
Histogram generating means for generating a histogram of the local normal vector;
A plane group extracting means for extracting the same normal vectors as those having the same direction as a plane group;
A global statistic that generates an area histogram (hereinafter referred to as a global statistic) of a local plane patch projected according to the distance from the viewpoint with respect to the normal axis, based on the local normal vector of the obtained plane group Generating means;
A plane group matching means for obtaining a correspondence of the plane group having the highest similarity between the plurality of viewpoints based on the angle difference between the plane groups between the plurality of viewpoints and the similarity of the global statistics between the corresponding plane groups,
A conversion parameter estimation means for estimating a conversion parameter between matched plane groups;
A distance image integration apparatus comprising: an integration unit that integrates a coordinate system of distance images of each viewpoint into one coordinate system based on the obtained conversion parameters.
JP2002206622A 2002-07-16 2002-07-16 Range image integration method and range image integration apparatus Expired - Fee Related JP4188632B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002206622A JP4188632B2 (en) 2002-07-16 2002-07-16 Range image integration method and range image integration apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002206622A JP4188632B2 (en) 2002-07-16 2002-07-16 Range image integration method and range image integration apparatus

Publications (2)

Publication Number Publication Date
JP2004054308A JP2004054308A (en) 2004-02-19
JP4188632B2 true JP4188632B2 (en) 2008-11-26

Family

ID=31931301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002206622A Expired - Fee Related JP4188632B2 (en) 2002-07-16 2002-07-16 Range image integration method and range image integration apparatus

Country Status (1)

Country Link
JP (1) JP4188632B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8594370B2 (en) 2004-07-26 2013-11-26 Automotive Systems Laboratory, Inc. Vulnerable road user protection system
KR101971948B1 (en) * 2011-07-28 2019-04-24 삼성전자주식회사 Marker-less augmented reality system using plane feature and method thereof
JP5949814B2 (en) * 2014-03-06 2016-07-13 トヨタ自動車株式会社 Autonomous mobile robot and control method thereof
JP6693193B2 (en) * 2016-03-15 2020-05-13 富士通株式会社 Information processing device and information synthesis program
JP6903987B2 (en) * 2017-03-24 2021-07-14 富士通株式会社 Information processing programs, information processing methods, and information processing equipment
KR101983586B1 (en) * 2017-10-20 2019-09-03 주식회사 씨오티커넥티드 Method of stitching depth maps for stereo images
SG11201811410RA (en) * 2018-06-25 2020-01-30 Beijing Didi Infinity Technology & Development Co Ltd Integrated sensor calibration in natural scenes
JP7457971B2 (en) * 2019-03-04 2024-03-29 パナソニックIpマネジメント株式会社 Quantity calculation device and quantity calculation method

Also Published As

Publication number Publication date
JP2004054308A (en) 2004-02-19

Similar Documents

Publication Publication Date Title
Pagani et al. Structure from motion using full spherical panoramic cameras
Urban et al. Mlpnp-a real-time maximum likelihood solution to the perspective-n-point problem
Ke et al. Quasiconvex optimization for robust geometric reconstruction
US6587601B1 (en) Method and apparatus for performing geo-spatial registration using a Euclidean representation
Sim et al. Recovering camera motion using l\infty minimization
Soatto et al. Recursive 3-d visual motion estimation using subspace constraints
US20080304707A1 (en) Information Processing Apparatus, Information Processing Method, and Computer Program
EP2573734B1 (en) Systems and methods for evaluating plane similarity
CN103858148A (en) Planar mapping and tracking for mobile devices
Chiodini et al. Retrieving scale on monocular visual odometry using low-resolution range sensors
CN110570474B (en) Pose estimation method and system of depth camera
Schneider et al. Bundle adjustment for multi-camera systems with points at infinity
JP4188632B2 (en) Range image integration method and range image integration apparatus
CN116929348A (en) Factory AGV positioning method based on single base station UWB and visual inertia
US12022052B2 (en) Method and apparatus for 3D reconstruction of planes perpendicular to ground
JP7498404B2 (en) Apparatus, method and program for estimating three-dimensional posture of subject
Guillemaut et al. Using points at infinity for parameter decoupling in camera calibration
US9245343B1 (en) Real-time image geo-registration processing
Zakharov et al. An algorithm for 3D-object reconstruction from video using stereo correspondences
Kuo et al. Calibrating a wide-area camera network with non-overlapping views using mobile devices
Antone et al. Scalable, absolute position recovery for omni-directional image networks
CN109741389A (en) One kind being based on the matched sectional perspective matching process of region base
Clipp et al. A new minimal solution to the relative pose of a calibrated stereo camera with small field of view overlap
Walvoord et al. Geoaccurate three-dimensional reconstruction via image-based geometry
CN113793379A (en) Camera pose solving method, system, equipment and computer readable storage medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20031031

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080819

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080911

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110919

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140919

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees