JP2007322351A - 3次元物体照合装置 - Google Patents
3次元物体照合装置 Download PDFInfo
- Publication number
- JP2007322351A JP2007322351A JP2006155720A JP2006155720A JP2007322351A JP 2007322351 A JP2007322351 A JP 2007322351A JP 2006155720 A JP2006155720 A JP 2006155720A JP 2006155720 A JP2006155720 A JP 2006155720A JP 2007322351 A JP2007322351 A JP 2007322351A
- Authority
- JP
- Japan
- Prior art keywords
- data
- collation
- dimensional
- measurement
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】3次元センサによって得られたデータ中から高速、高精度、かつロバストな物体位置姿勢推定を行う。誤認識や精度劣化を抑える。
【解決手段】粗い位置姿勢推定を行う第1のステップと、その結果を受けて詳細な位置姿勢を行う第2のステップによる2段階の位置姿勢推定を行うことにより、ロバストかつ高精度な位置姿勢推定を実現した。計測データの照合不適領域削除による照合の高速・安定性向上、モデルデータに照合に有効な領域を事前教示することで高い位置姿勢推定精度を維持した。
【選択図】図1
【解決手段】粗い位置姿勢推定を行う第1のステップと、その結果を受けて詳細な位置姿勢を行う第2のステップによる2段階の位置姿勢推定を行うことにより、ロバストかつ高精度な位置姿勢推定を実現した。計測データの照合不適領域削除による照合の高速・安定性向上、モデルデータに照合に有効な領域を事前教示することで高い位置姿勢推定精度を維持した。
【選択図】図1
Description
この発明は、対象物体の3次元データを用いた3次元物体の3次元物体照合装置に関するものである。
従来、対象物体の3次元上での位置姿勢推定を行う手法として、第1のステップとして粗い位置姿勢推定を行い、その結果を受けて第2のステップである詳細な位置姿勢推定を行う手法がいくつか提案されている。例として、非特許文献1について述べる。
最初にカメラを対象物体の上方に移動させ、広域の状況を撮像し、事前に作成してある対象物体の見え方に応じたサンプル画像のデータベースを参照し、2次元画像での広域探索を行い1つの対象物体を検出する。その結果を用いてカメラを2箇所に位置決めしステレオ計測を実行し対象物体の位置姿勢を絞り込んでいく。最後に対象物体にカメラを最接近させ、近計測と呼ぶ検出処理を実行し、検出された位置姿勢推定結果を出力する。
一方、3次元データを用いた位置姿勢推定手法としてDAI(Depth Aspect Image)照合と呼ばれる、距離アスペクト画像を用いた物体位置姿勢推定法(非特許文献2)とHierarchical M-ICP(非特許文献3)がある。DAI照合は対象物体の形状特徴の制限が少なく、遮蔽や物体自身の見え隠れにもロバストな位置姿勢推定法である。HM-ICPは膨大な3次元データを高速・高精度に照合を行い位置姿勢推定結果を得る。
伴一訓、組谷英俊、:全方位認識ビジョンセンサFANUC Tech, Rev., 18, 1, pp.15-20,(March2005)
Tomoyuki Takeguchi and Shun'ichi Kaneko: Robust and Efficient Search of Multiple Objects in Cluttered Scene by Depth Aspect Image, IEEE-Trans. on Industry Electronics, vol.52, no.4, pp.1041-1049, August 2005.
奥田晴久,橋本学,北明靖雄,金子俊一:階層化M-ICPによる高速・高精度な3次元位置照合手法:CVIM-2004-145, vol.2004, No91, p1-8,2004
非特許文献1では実際に撮像した対象物体のサンプル画像のデータベースを作成する必要があり、新規対象物体を導入時には対象物体のCADデータなどの電子データではなく、実サンプルが事前に必要である。また位置姿勢推定を行う際に、粗い検出処理、詳細な位置姿勢推定のために複数回データ計測が必要であるために高速性が損なわれる課題を残している。また、非特許文献2では対象物体の遮蔽が50%以下であれば認識可能というロバスト性を有しているが、照合精度は簡単な微調整を行うのみで低いという課題があった。さらに、非特許文献3では距離比0.2%以下の高精度な照合法だが良好な初期位置を前提としている。
この発明は、上記のような問題点を解決するためになされたものであり、計測された3次元データを用い、粗い位置姿勢推定を行う第1のステップと、その結果を受けて詳細な位置姿勢を行う第2のステップとで2段階のステップを設けることで、3次元物体の位置姿勢推定手法の高精度とロバスト性とを損ねることなく、扱うデータの整合をとりつつ、位置姿勢推定の高速化を行う3次元物体照合装置を得ることを目的とする。
この発明に係る3次元物体照合装置は、物体の3次元データを取得する3次元データ取得手段と、3次元データを蓄積する3次元データ蓄積手段と、3次元データから所定の照合に不適切な領域を除く照合不適領域削除手段と、不適な領域を除いた3次元データに基づき粗い位置姿勢を推定する粗位置姿勢推定手段と、粗位置姿勢推定手段の推定結果に基づき照合データ領域を選定する照合データ領域選定手段と、選定された照合データ領域に基づき詳細な位置姿勢を推定する詳細位置姿勢推定手段とを備えたことを特徴とするものである。
この発明に係る3次元物体照合装置は、物体の3次元データを取得する3次元データ取得手段と、3次元データを蓄積する3次元データ蓄積手段と、3次元データから所定の照合に不適切な領域を除く照合不適領域削除手段と、不適な領域を除いた3次元データに基づき粗い位置姿勢を推定する粗位置姿勢推定手段と、粗位置姿勢推定手段の推定結果に基づき照合データ領域を選定する照合データ領域選定手段と、選定された照合データ領域に基づき詳細な位置姿勢を推定する詳細位置姿勢推定手段とを備えたので、ロバスト性、精度を劣化させることなく高速で位置姿勢推定を可能とする3次元物体照合装置を得ることができる。
実施の形態1.
図1は本発明の実施の形態1による3次元物体照合装置の概略構成図である。3次元データ取得手段1では計測対象物体10の3次元立体形状データが取得される。3次元データ取得手段1で取得された3次元データは3次元データ蓄積手段2に蓄積され、以後の処理で用いられる。また、3次元データ蓄積手段2には今回測定された計測データと照合すべき対象物体のモデルデータが蓄積されている。これは過去に蓄積された計測データや、単一視点に限らず、複数視点から複数回計測し統合したデータ、CAD設計情報などから生成されたデータであっても良い。
図1は本発明の実施の形態1による3次元物体照合装置の概略構成図である。3次元データ取得手段1では計測対象物体10の3次元立体形状データが取得される。3次元データ取得手段1で取得された3次元データは3次元データ蓄積手段2に蓄積され、以後の処理で用いられる。また、3次元データ蓄積手段2には今回測定された計測データと照合すべき対象物体のモデルデータが蓄積されている。これは過去に蓄積された計測データや、単一視点に限らず、複数視点から複数回計測し統合したデータ、CAD設計情報などから生成されたデータであっても良い。
次に、照合不適領域削除手段3では、3次元データ取得手段1によって取得され3次元データ蓄積手段2に蓄積された計測データの照合に適さない領域を削除する。これは照合に適した有効な領域を抽出すると言い換えることもできる。具体的には後述する。
次に、粗位置姿勢推定手段4では、3次元データ取得手段1で測定され3次元データ蓄積手段2に蓄積された計測データ中の照合に不適な領域を照合不適領域削除手段3によって削除したデータと、あらかじめ3次元データ蓄積手段2に蓄積されているモデルデータとの照合を行う。ここでの照合とはモデルデータが計測データ中のどの位置にどのような姿勢にあるかを大まかに推定することである。
次に、粗位置姿勢推定手段4によってモデルデータの大まかな位置姿勢が得られた後に詳細位置姿勢推定手段6で用いる照合有効領域を照合データ領域選定手段5によって選定する。具体的な処理は後述する。
次に、詳細位置姿勢推定手段6では、照合データ領域選定手段5によって選定された領域を用いて粗位置姿勢推定手段4によってモデルデータの大まかな位置姿勢が推定され、計測データと計測データ中に投影されたモデルデータとの詳細な位置決めを行い、最終的な位置姿勢推定結果を照合結果として出力する。
図2は実施の形態1における3次元物体照合装置の処理構成図である。図において、同一の符号を付したものは、同一またはこれに相当するものであり、このことは明細書の全文において共通することである。また、明細書全文に表れている構成要素の形容は、あくまで例示であってこれらの記載に限定されるものではない。
3次元データ取得手段1で測定された計測データを3次元データ蓄積手段2に蓄積し、照合に不適な領域を照合不適領域削除手段3で削除したデータとあらかじめ3次元データ蓄積手段2に蓄積されているモデルデータとで粗位置姿勢推定手段4によって照合を行い、計測データ中のモデルデータの大まかな位置姿勢を得る。次に、詳細位置姿勢推定手段6で詳細な位置決めを行う前に、計測データ中に投影されたモデルデータと計測データの照合に有効な領域を照合データ領域選定手段5によって選定する。
具体的には照合データ領域選定手段5の下位動作モジュールであるモデルデータ不可視領域削除手段7とモデルデータ照合領域事前抽出手段8とによって構成される。照合データ領域選定手段5によって選定された照合領域を用いて詳細位置姿勢推定手段6によって計測データと計測データ中に投影されたモデルデータの詳細な位置決めを行う。
図3は実施の形態1における処理流れを示すフローチャートである。ST111にて3次元データを測定し計測データを得て、ST112で得られたデータを蓄積する。ST113では蓄積された計測データ中の照合不適と判定された領域を削除する。ST114では計測データ中のモデルデータの大まかな位置姿勢推定を行う。ST115では大まかな位置姿勢推定後、計測データ中に投影されたモデルデータと計測データの照合に有効な領域を指定する。
その際、照合データ領域が適正に選定されているかを判定しST117、もし不適に選定されている場合は粗位置姿勢推定結果が適正ではないと考えられる。そこで粗位置姿勢推定の閾値を変更ST116し、再度粗位置姿勢推定を行う。ST118では計測データと計測データ中に投影されたモデルデータの詳細な位置決めをST115によって得られた照合領域を用いて行う。ST119で得られた位置姿勢推定結果を出力する。
ST111について述べる。3次元データ取得手段1では対象物体の3次元立体形状データが取得される。この手段としては、2つ以上のカメラを用いて三角測量原理により距離分布計測を行うステレオ方式、パターン投光を行い1つ以上のカメラで観測して三角測量原理に基づいて計測を行う構造化光方式、レーダー光の発射から反射光の受光までの時間を計測する時間飛行法をはじめてとして各種3次元距離測定手段を用いることができる。
ST112について述べる。3次元データ取得手段1で取得された3次元データは3次元データ蓄積手段2に蓄積され、以後の処理で用いられる。また3次元データ蓄積手段2には今回測定された計測データと照合すべき対象物体のモデルデータが蓄積されている。これは過去に蓄積された計測データや、単一視点からではなく複数視点から複数回計測し統合したデータ、またはCAD設計情報などから生成されたデータであっても良い。
次にST113について述べる。照合不適領域削除手段3では3次元データ取得手段1によって取得され3次元データ蓄積手段2に蓄積された計測データの照合に適さない領域を後述の処理によって削除する。これは照合に適した、有効な領域を抽出すると言い換えることもできる。
具体的には2つの処理によって実装されている。1つは計測対象物体10と3次元データ取得手段1の位置関係、3次元データ取得手段1の特性、計測環境などの情報を用いた照合に不適な領域削除する処理、もう1つは3次元データ取得手段1により取得された3次元データのポリゴンと呼ばれる3点以上の点で構成される面情報を用いた照合に不適な領域を削除する処理である。この処理はどちらの処理を先に行ってもよい。
前者の処理である計測対象物体10と3次元データ取得手段1の位置関係、3次元データ取得手段1の特性、計測環境などの情報を用いた照合に不適な領域削除する処理について説明する。あらかじめ既知の情報、例えば計測対象との大まかな距離、3次元データ取得手段1の有効測定範囲、計測対象の置かれている台など背景データの距離などの情報に基づいて計測データ中の計測に不適なデータを削除していく。
例えば、計測対象との大まかな距離が分かっている場合には、測定されたデータから既知情報である計測対象との大まかな距離をLとしたとき、計測対象の大きさを考慮した幅δを設定する。3次元データ取得手段1で得られる測定データの各点の測定方向を軸とした奥行き値Zが|Z−L|>δの場合には、照合に適さないと判定しその点は照合に用いない。言い換えれば|Z−L|≦δを満たす点群を抽出し照合に用いるということである。
また、例えば、3次元データ取得手段1の有効測定範囲が分かっている場合には、有効測定範囲をXmin〜Xmax、Ymin〜Ymax、Zmin〜Zmaxとした時、各点の値(X、Y、Z)がXmin<X<Xmax、Ymin<Y<Ymax、Zmin<Z<Zmaxを満たさない点を照合不適と判定し削除した、言い換えるとXmin<X<Xmax、Ymin<Y<Ymax、Zmin<Z<Zmaxを満たす点群を照合有効領域として抽出し用いると設定することで、測定エラーの影響を少なくすることができる。
また、3次元データ取得手段1の一定以上の計測精度が得られる高信頼な計測範囲が理論的、或いは経験的に既知であれば、その範囲を“有効測定範囲”として指定することでさらに照合不適領域削除効果が向上することが考えられる。
他の例として、計測対象の置かれている台や机、床のような背景データの3次元データ取得手段1からの距離が既知であれば、その情報を用いて背景データ部分を削除する。例えば、机に計測対象が配置されている場合には、3次元データ取得手段1で測定された計測データには計測対象の3次元データの他に背景である机の3次元データが多く含まれることになる。机と3次元データ取得手段1の大まかな位置関係が既知であれば、測定された計測データから机に相当する計測データ中の領域を削除することができる。これは机に限られるものではなく、何らかのステージ、ケースなどでもよい。
次に、後者の処理である、3次元データ取得手段1により取得された3次元データのポリゴンと呼ばれる3点以上の点で構成される面情報を用いた照合に不適な領域を削除する処理について説明する。3次元データがポリゴン情報を持たない、点群情報だけの場合は何らかの方法、例えば、MC法(Computer Graphics(ACM SIGGRAPH 87 conference proceedings),vol.21,no.4,pp.163-169,1987.)によってポリゴン情報を付加してやればよい。3次元データ取得手段1で測定された計測データには計測エラー、計測対象と背景の境界、反射特性によって適正な値が得られない、例外値を含む場合がある。この例外値は高速、高精度な照合を阻害する要因となる。これを削除するためにポリゴンの面積を用いる。
計測エラーや計測対象と背景の境界、反射特性によって例外値を含む場合には、例外値を含むポリゴンは作成されない、あるいは作成されても面積が例外値を含まない場合に比較し大きくする。通常、3次元データ取得手段1で、ポリゴンの面積に閾値Tsを設定し、ポリゴンの面積SがS>Ts(S≧Tsでも可能)となる場合には、そのポリゴンを構成している点群を照合に用いないことになる。
次に、ST114について述べる。粗位置姿勢推定手段4では、3次元データ取得手段1で測定され3次元データ蓄積手段2に蓄積された計測データ中の照合に不適な領域を照合不適領域削除手段3によって削除したデータとあらかじめ3次元データ蓄積手段2に蓄積されているモデルデータの照合を行う。ここでの照合とはモデルデータが計測データ中のどの位置にどのような姿勢にあるかを大まかに推定することである。
具体的には距離アスペクト画像、Depth Aspect Image(以下「DAI」と略す。)に基づく計測データ中のモデルデータの位置姿勢推定手法を用いる。3次元データで記述された全周囲モデルデータ(必ずしも全周囲である必要は無く、照合に最低限必要なモデルの周囲を複数視点から計測し得られたデータを統合したものでよい)に、ボクセルによる規則的な空間分割を行い、制約条件を満たす3ボクセル抽出により定義されるローカル座標系を視点方向と考えることで生成される仮想的な3次元ビューから距離アスペクト画像(DAI)と呼ばれる2次元濃淡距離画像を得る。
あらかじめ十分なDAIのデータベースを作成しておき、3次元データ取得手段1で測定され3次元データ蓄積手段2に蓄積され照合不適領域削除手段3によって照合に不適な領域を削除された計測データ中でも同様にDAIを作成し、モデルのDAIデータベースと照合し、対応するモデルDAIを得る。対応DAI作成時のローカル座標系から計測データ中にモデルデータを投影する変換パラメータを推定する手法である。
次に、ST115について述べる。粗位置姿勢推定手段4によって大まかな位置姿勢が得られた後に詳細位置姿勢推定手段6で用いる照合有効領域を照合データ領域選定手段5によって選定する。具体的には下位動作モジュールであるモデルデータ不可視領域削除手段7とモデルデータ照合領域事前抽出手段8によって選定される。モデルデータ不可視領域削除手段7では、計測データ中に投影されたモデルデータの3次元データ取得手段1の測定(視点)方向から不可視の領域を削除する。
これは可視領域を抽出すると言い換えることもできる。モデルデータは計測データを測定時には不可視な計測対象の3次元データを原則として含んでいる。ここで、原則としてとしたのは、含まなくても良いが、位置姿勢推定の良好な結果を得たい場合には、計測データ中の対象の3次元データよりも多くの視点からのデータを含む方が良いためである。
計測データ中に粗位置姿勢推定手段4によって投影された全周囲モデル(必ずしも全周囲をカバーしていなくてもよいため、厳密には周囲モデルでよい。)には、例えば、計測対象自身の見え隠れ、遮蔽などによる本来見えない、不可視部分が存在する。計測データの計測対象の3次元データに含まれない、不可視な3次元データを含んだモデルデータと計測データとの照合を行うと計測データ中には含まれない、投影されたモデルデータの不可視部分の3次元データが照合の高精度、高速性を阻害する要因となる。
言い換えれば、照合の高精度、高速性のために計測データ中に投影されたモデルデータの不可視領域をあるポリゴン面の法線ベクトルをNとし、3次元データ取得手段1の測定(視点)方向ベクトルをCとする。内積N・Cが負である時、つまりN・C<0の時にそのポリゴンは3次元データ取得手段1から不可視の位置にあると判定する。
不可視と判定されたポリゴンに含まれる点群を照合に用いない、言い換えると可視領域を抽出する。粗位置姿勢推定手段4で用いる3次元モデルがもつ法線情報を用いるので不可視領域削除の計算コストが陰面処理など他の手法に比較し少ないため、高速な処理が可能となる。これは扱うモデルの3次元データが法線情報をもっていれば適用可能であるという利点がある。
次に、モデルデータ照合領域事前抽出手段8では計測データと計測データ中に投影されたモデルデータに同じ規則的なボクセルによる空間分割を行う。分割された各ボクセルから計測データ、モデルデータをそれぞれ一定点数以上含むボクセルのみを抽出する。計測データ、モデルデータの両データが無い、あるいはどちらかのデータが存在しないボクセルは照合領域としては不適切であるためである。
具体的には計測データ、モデルデータでボクセル内の最低含有点数を閾値としてそれぞれPNc、PNmと設定して、ボクセル内の計測データ、モデルデータの点数をVNc、VNmとする。VNc>PNc、VNm>PNmを同時に満たすボクセルを照合に有効と判定する。また、あらかじめモデルデータにオフラインで照合に適した領域情報を付加しておく。3次元形状から判断し、手動にて照合に有効な点群を指定する。もちろん、これは自動で形状特徴を考慮し決定してもよい。
規則的な空間分割を行い、VNc>PNc、VNm>PNmを満たすボクセルであり、かつオフラインで指定した有効点群を含むボクセルを有効な照合領域として抽出する。ボクセル内の計測データ、モデルデータそれぞれの含有点数に閾値をかけて行う照合領域選定において、閾値が高い場合だと、照合に有効として抽出されるボクセル(領域)数が少なくなり高速性が向上するが精度劣化しやすいという問題がある。一方、閾値が低い場合には、照合に有効として抽出されるボクセル(領域)数が多くなり、高精度な位置決めが可能となるが、高速性を損ねる問題がある。ここでの閾値が低いとはボクセルの最低含有点数PNc、PNmが少ないということであり、閾値が高いとはボクセルの最低含有点数PNc、PNmが多いということである。
詳細位置姿勢推定手段6では照合領域が1つ抽出されていれば照合は可能である。しかしながら、ボクセル内の含有点数のみでボクセル数を削減した場合には、照合に有効なボクセルが残るとは限らず、3次元データ取得手段1から密に計測された形状特徴のない領域、例えば、3次元データ取得手段1の測定方向に垂直な平面などが選択されることも少なくない。そこで、上述のオフラインでのモデルデータの照合に有効な点群を指定しておくことで照合に有効なボクセルのみを照合データ領域として抽出できる効果がある。
ST117について述べる。抽出された照合データ領域が適正かどうかを判断する。例えば、抽出される照合データ領域数に閾値Anを設定し抽出された照合データ領域数SnがSn>Anを満たす場合適正制定されていると判断する処理が考えられる。
ST116について述べる。照合データ領域抽出が適正ではない場合には、粗位置姿勢推定結果において誤照合を起こしている可能性がある。そこで、粗位置姿勢推定手段における位置姿勢推定の設定を変更し再び位置姿勢推定を行う。
ST118について述べる。詳細位置姿勢推定手段6では照合データ領域選定手段5によって選定された照合データ領域を用いてHM-ICP(非特許文献3)によって照合を行う。HM-ICPはICP(Iterative Closest Point)アルゴリズム(P.J.Besl, N.D.Mckay: A Method for Registration of 3-D Shapes, IEEE Tras. On PAMI,vol.14, no.2, pp.673-669, 1992.)をベースに開発された高速、高精度、かつロバストな照合法である。ICPアルゴリズムでは照合の際に最小二乗法を用いているため、少数の例外値の含有によって照合結果が大きく影響を受けてしまうという問題、照合するデータをA、Bとした時、Aの各点からBの全点に対して距離計算を行うため計算コストが膨大になるという問題、データ中の照合に不適な領域、例えばデータの非重複領域も用いるために照合精度がそれほど高くないという問題があった。
M推定法を導入することで大域的な収束を保証するわけではないが収束範囲を拡大し、階層化及び選択領域照合を導入することで照合精度、高速性を向上した手法である。HM−ICPの選択領域照合で用いる照合領域に照合データ領域選定手段5で選定された領域を適用する。詳細位置姿勢推定手段6によって詳細な位置姿勢推定を行う。
ST119ではST118で得られる位置姿勢推定結果を出力する。
ST119ではST118で得られる位置姿勢推定結果を出力する。
以上のように、物体の3次元データを取得する3次元データ取得手段と、3次元データを蓄積する3次元データ蓄積手段と、3次元データから所定の照合に不適切な領域を除く照合不適領域削除手段と、不適な領域を除いた3次元データに基づき粗い位置姿勢を推定する粗位置姿勢推定手段と、粗位置姿勢推定手段の推定結果に基づき照合データ領域を選定する照合データ領域選定手段と、選定された照合データ領域に基づき詳細な位置姿勢を推定する詳細位置姿勢推定手段とを備えたので、粗い位置姿勢推定を行う第1のステップと、その結果を受けて詳細な位置姿勢を行う第2のステップとで、2段階の3次元物体の位置姿勢推定手法に照合不適領域削除手段、照合データ領域選定手段を備えたことにより、照合の高速性を損ねることなくロバストかつ高精度な位置姿勢推定が可能となる。
すなわち、計測した3次元データと参照すべき全周囲3次元モデルデータとの2ステップの照合を行う粗位置姿勢推定手段及び詳細位置姿勢推定手段とを備えた3次元物体位置姿勢推定装置において、照合の粗位置姿勢推定手段の必要な高速・安定性を維持するための照合に不適な領域を削減する照合不適領域削減手段と、粗位置姿勢推定後の詳細位置姿勢推定において必要な高速性、精度を維持するのに照合データ領域を特徴に依存しない空間分割によって選定する照合データ領域選定手段とを備えているからである。
また、照合不適領域削除手段は、物体と3次元データ取得手段との距離情報を既知として用いる処理を含むので、計測対象の大まかな位置付近以外のデータを効果的に削除することが可能となる。照合不適領域削除手段は、あらかじめ既知である計測対象と3次元データ取得手段の大まかな距離情報を用い、照合に不適な領域を削除するからである。
さらに、照合不適領域削除手段は、3次元データ取得手段の有効測定範囲を用いて照合に不適切な領域を求める処理を含むので、3次元データ取得手段において取得されたデータの計測エラー部分について効果的に削除することができる。照合不適領域削除手段は、あらかじめ既知である3次元データ取得手段の有効測定範囲を用いた、照合に不適な領域を削除するからである。
また、照合不適領域削除手段は、物体の周囲の既知である3次元データを除く処理を含むので、3次元取得手段において取得されたデータの計測対象の周囲の3次元データを効果的に削除することが可能となる。照合不適領域削除手段は、あらかじめ既知である計測対象が設置されている周囲の3次元データ部分を削除するからである。
さらに、照合データ領域選定手段は、3次元データ取得手段の計測方向ベクトルとモデルデータのポリゴンの法線ベクトルとの内積を用いて照合データ領域を選定する処理を含むので、詳細位置姿勢推定手段において、計測データには含まれない領域を効果的に削除することで高速・高精度な照合が可能となる。照合データ領域選定手段は、3次元データ取得手段の計測方向ベクトルと、粗位置姿勢推定手段後、計測データ中に投影されたモデルデータの各ポリゴンの法線ベクトルとの内積を用いることで不可視判定(言い換えると可視判定)を行い、不可視領域を削除、言い換えれば、可視領域を抽出するからである。
また、照合データ領域選定手段は、3次元データとモデルデータとをボクセル分割し、分割された各ボクセル毎の点数情報と、モデルデータの事前に抽出した有効な点群情報とを用いて照合データ領域を選定する処理を含むので、詳細位置姿勢推定手段において、計測データと照合するモデルデータの照合に有効点群が存在する空間を効果的に抽出することで高速・高精度な照合が可能となる。照合データ領域選定手段は、計測データと粗位置姿勢推定手段後に計測データ中に投影されたモデルデータとに規則的な空間(ボクセル)分割を行い、分割された各ボクセル両データそれぞれの含有点数情報とモデルデータの事前に抽出された照合に有効な点群情報とを用いて照合に有効な領域を選定するからである。
1 3次元データ取得手段、2 3次元データ蓄積手段、3 照合不適領域削除手段、4 粗位置姿勢推定手段、5 照合データ領域選定手段、6 詳細位置姿勢推定手段、7 モデルデータ不可視領域削除手段、8 モデルデータ照合領域事前抽出手段、10 計測対象物体。
Claims (6)
- 物体の3次元データを取得する3次元データ取得手段と、
前記3次元データを蓄積する3次元データ蓄積手段と、
前記3次元データから所定の照合に不適切な領域を除く照合不適領域削除手段と、
前記不適な領域を除いた前記3次元データに基づき粗い位置姿勢を推定する粗位置姿勢推定手段と、
前記粗位置姿勢推定手段の推定結果に基づき照合データ領域を選定する照合データ領域選定手段と、
選定された前記照合データ領域に基づき詳細な位置姿勢を推定する詳細位置姿勢推定手段とを備えたことを特徴とする3次元物体照合装置。 - 照合不適領域削除手段は、物体と3次元データ取得手段との距離情報を既知として用いる処理を含むことを特徴とする請求項1に記載の3次元物体照合装置。
- 照合不適領域削除手段は、3次元データ取得手段の有効測定範囲を用いて照合に不適切な領域を求める処理を含むことを特徴とする請求項1または請求項2に記載の3次元物体照合装置。
- 照合不適領域削除手段は、物体の周囲の既知である3次元データを除く処理を含むことを特徴とする請求項1から3のいずれか1項に記載の3次元物体照合装置。
- 照合データ領域選定手段は、3次元データ取得手段の計測方向ベクトルとモデルデータのポリゴンの法線ベクトルとの内積を用いて照合データ領域を選定する処理を含むことを特徴とする請求項1から4のいずれか1項に記載の3次元物体照合装置。
- 照合データ領域選定手段は、3次元データとモデルデータとをボクセル分割し、分割された各ボクセル毎の点数情報と、モデルデータの事前に抽出した有効な点群情報とを用いて照合データ領域を選定する処理を含むことを特徴とする請求項1から5のいずれか1項に記載の3次元物体照合装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006155720A JP2007322351A (ja) | 2006-06-05 | 2006-06-05 | 3次元物体照合装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006155720A JP2007322351A (ja) | 2006-06-05 | 2006-06-05 | 3次元物体照合装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007322351A true JP2007322351A (ja) | 2007-12-13 |
Family
ID=38855300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006155720A Pending JP2007322351A (ja) | 2006-06-05 | 2006-06-05 | 3次元物体照合装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007322351A (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011175477A (ja) * | 2010-02-24 | 2011-09-08 | Canon Inc | 3次元計測装置、処理方法及びプログラム |
JP2011248441A (ja) * | 2010-05-24 | 2011-12-08 | Nissan Motor Co Ltd | 画像処理装置及び移動体位置推定方法 |
JP2012093337A (ja) * | 2010-10-28 | 2012-05-17 | China Steel Corp | 材料流れの幅を測定する方法 |
JP2014053018A (ja) * | 2013-09-30 | 2014-03-20 | Canon Inc | 情報処理装置、情報処理装置の制御方法及びプログラム |
JP2018055675A (ja) * | 2016-08-01 | 2018-04-05 | コグネックス・コーポレイション | 3d画像データにおける3dポーズの改良されたスコアリング及び偽ポイント除去のためのシステム及び方法 |
WO2018179253A1 (ja) * | 2017-03-30 | 2018-10-04 | 株式会社ソニー・インタラクティブエンタテインメント | ポリゴンモデル生成装置、ポリゴンモデル生成方法及びプログラム |
WO2018180338A1 (ja) * | 2017-03-30 | 2018-10-04 | パイオニア株式会社 | 情報処理装置、サーバ装置、制御方法、プログラム及び記憶媒体 |
DE112017006839T5 (de) | 2017-01-16 | 2019-09-26 | Fujitsu Limited | Informationsverarbeitungsvorrichtung, Datenbankerzeugungsvorrichtung, Verfahren, Programm und Speichermedium |
TWI692648B (zh) * | 2017-06-20 | 2020-05-01 | 美商惠普發展公司有限責任合夥企業 | 感測器位置判定技術 |
CN112276935A (zh) * | 2019-07-22 | 2021-01-29 | 发那科株式会社 | 位置姿势确定装置、位置姿势确定方法以及位置姿势确定程序 |
US11889551B2 (en) | 2017-06-23 | 2024-01-30 | Interdigital Patent Holdings, Inc. | Transmission with restrictions in unlicensed spectrum |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61195468A (ja) * | 1985-02-26 | 1986-08-29 | Sony Corp | 画像表示方法 |
JPH1021393A (ja) * | 1996-06-28 | 1998-01-23 | Mitsubishi Electric Corp | 画像処理装置 |
JPH11259658A (ja) * | 1998-03-11 | 1999-09-24 | Omron Corp | 物体認識方法およびその方法を用いた物体認識装置,車輌認識方法,車輌認識装置 |
JP2002015310A (ja) * | 2000-06-30 | 2002-01-18 | Minolta Co Ltd | 点群に面をフィッティングする方法およびモデリング装置 |
JP2004028811A (ja) * | 2002-06-26 | 2004-01-29 | Fuji Heavy Ind Ltd | 監視システムの距離補正装置および距離補正方法 |
JP2004341953A (ja) * | 2003-05-16 | 2004-12-02 | Nissan Motor Co Ltd | 顔部位追跡装置 |
WO2005100910A1 (ja) * | 2004-04-09 | 2005-10-27 | Techno Dream 21 Co., Ltd. | 3次元形状計測方法及びその装置 |
JP2006113645A (ja) * | 2004-10-12 | 2006-04-27 | Kajima Corp | 移動軌跡解析方法 |
-
2006
- 2006-06-05 JP JP2006155720A patent/JP2007322351A/ja active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61195468A (ja) * | 1985-02-26 | 1986-08-29 | Sony Corp | 画像表示方法 |
JPH1021393A (ja) * | 1996-06-28 | 1998-01-23 | Mitsubishi Electric Corp | 画像処理装置 |
JPH11259658A (ja) * | 1998-03-11 | 1999-09-24 | Omron Corp | 物体認識方法およびその方法を用いた物体認識装置,車輌認識方法,車輌認識装置 |
JP2002015310A (ja) * | 2000-06-30 | 2002-01-18 | Minolta Co Ltd | 点群に面をフィッティングする方法およびモデリング装置 |
JP2004028811A (ja) * | 2002-06-26 | 2004-01-29 | Fuji Heavy Ind Ltd | 監視システムの距離補正装置および距離補正方法 |
JP2004341953A (ja) * | 2003-05-16 | 2004-12-02 | Nissan Motor Co Ltd | 顔部位追跡装置 |
WO2005100910A1 (ja) * | 2004-04-09 | 2005-10-27 | Techno Dream 21 Co., Ltd. | 3次元形状計測方法及びその装置 |
JP2006113645A (ja) * | 2004-10-12 | 2006-04-27 | Kajima Corp | 移動軌跡解析方法 |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011175477A (ja) * | 2010-02-24 | 2011-09-08 | Canon Inc | 3次元計測装置、処理方法及びプログラム |
US9841271B2 (en) | 2010-02-24 | 2017-12-12 | Canon Kabushiki Kaisha | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium |
JP2011248441A (ja) * | 2010-05-24 | 2011-12-08 | Nissan Motor Co Ltd | 画像処理装置及び移動体位置推定方法 |
JP2012093337A (ja) * | 2010-10-28 | 2012-05-17 | China Steel Corp | 材料流れの幅を測定する方法 |
JP2014053018A (ja) * | 2013-09-30 | 2014-03-20 | Canon Inc | 情報処理装置、情報処理装置の制御方法及びプログラム |
US10482621B2 (en) | 2016-08-01 | 2019-11-19 | Cognex Corporation | System and method for improved scoring of 3D poses and spurious point removal in 3D image data |
JP2018055675A (ja) * | 2016-08-01 | 2018-04-05 | コグネックス・コーポレイション | 3d画像データにおける3dポーズの改良されたスコアリング及び偽ポイント除去のためのシステム及び方法 |
DE112017006839T5 (de) | 2017-01-16 | 2019-09-26 | Fujitsu Limited | Informationsverarbeitungsvorrichtung, Datenbankerzeugungsvorrichtung, Verfahren, Programm und Speichermedium |
US11506755B2 (en) | 2017-01-16 | 2022-11-22 | Fujitsu Limited | Recording medium recording information processing program, information processing apparatus, and information processing method |
US11107278B2 (en) | 2017-03-30 | 2021-08-31 | Sony Interactive Entertainment Inc. | Polygon model generating apparatus, polygon model generation method, and program |
JPWO2018179253A1 (ja) * | 2017-03-30 | 2019-07-04 | 株式会社ソニー・インタラクティブエンタテインメント | ポリゴンモデル生成装置、ポリゴンモデル生成方法及びプログラム |
JPWO2018180338A1 (ja) * | 2017-03-30 | 2020-01-23 | パイオニア株式会社 | 情報処理装置、サーバ装置、制御方法、プログラム及び記憶媒体 |
WO2018179253A1 (ja) * | 2017-03-30 | 2018-10-04 | 株式会社ソニー・インタラクティブエンタテインメント | ポリゴンモデル生成装置、ポリゴンモデル生成方法及びプログラム |
WO2018180338A1 (ja) * | 2017-03-30 | 2018-10-04 | パイオニア株式会社 | 情報処理装置、サーバ装置、制御方法、プログラム及び記憶媒体 |
TWI692648B (zh) * | 2017-06-20 | 2020-05-01 | 美商惠普發展公司有限責任合夥企業 | 感測器位置判定技術 |
US11263779B2 (en) | 2017-06-20 | 2022-03-01 | Hewlett-Packard Development Company, L.P. | Sensors positions determinations |
US11889551B2 (en) | 2017-06-23 | 2024-01-30 | Interdigital Patent Holdings, Inc. | Transmission with restrictions in unlicensed spectrum |
CN112276935A (zh) * | 2019-07-22 | 2021-01-29 | 发那科株式会社 | 位置姿势确定装置、位置姿势确定方法以及位置姿势确定程序 |
JP2021018662A (ja) * | 2019-07-22 | 2021-02-15 | ファナック株式会社 | 位置姿勢特定装置、位置姿勢特定方法及び位置姿勢特定プログラム |
JP7316134B2 (ja) | 2019-07-22 | 2023-07-27 | ファナック株式会社 | 位置姿勢特定装置、位置姿勢特定方法及び位置姿勢特定プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007322351A (ja) | 3次元物体照合装置 | |
US20240169660A1 (en) | Visual localisation | |
CN107230251B (zh) | 创建3d城市模型的方法和混合3d成像装置及存储介质 | |
US9799139B2 (en) | Accurate image alignment to a 3D model | |
US9426444B2 (en) | Depth measurement quality enhancement | |
JP6216508B2 (ja) | 3dシーンにおける3d物体の認識および姿勢決定のための方法 | |
US8487926B2 (en) | Method and apparatus for generating 3D image using 2D photograph images | |
JP2016119086A (ja) | 3dモデル化オブジェクトのテクスチャリング | |
EP2339294B1 (en) | Systems and methods for matching scenes using mutual relations between features | |
US8503730B2 (en) | System and method of extracting plane features | |
CN110176075B (zh) | 通过视觉系统同时考虑图像特征中边缘和法线的系统和方法 | |
Alidoost et al. | An image-based technique for 3D building reconstruction using multi-view UAV images | |
CN112651944B (zh) | 基于cad模型的3c部件高精度六维位姿估计方法及系统 | |
JP2019114103A (ja) | 物体認識処理装置、物体認識処理方法及びプログラム | |
JP6172432B2 (ja) | 被写体識別装置、被写体識別方法および被写体識別プログラム | |
US20220398856A1 (en) | Method for reconstruction of a feature in an environmental scene of a road | |
US11189053B2 (en) | Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium | |
JP2007193850A (ja) | 変化領域認識装置 | |
CN113822996B (zh) | 机器人的位姿估计方法及装置、电子设备、存储介质 | |
JP2002133413A (ja) | 画像処理を用いる3次元物体の識別方法および装置 | |
JP6761388B2 (ja) | 推定装置及びプログラム | |
CN113033248A (zh) | 一种图像识别方法及装置、计算机可读存储介质 | |
Novacheva | Building roof reconstruction from LiDAR data and aerial images through plane extraction and colour edge detection | |
KR102314954B1 (ko) | 반사 영상 제거 장치 및 방법 | |
JP4714050B2 (ja) | 3次元形状モデル生成システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110202 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110719 |