JP5620741B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP5620741B2
JP5620741B2 JP2010178070A JP2010178070A JP5620741B2 JP 5620741 B2 JP5620741 B2 JP 5620741B2 JP 2010178070 A JP2010178070 A JP 2010178070A JP 2010178070 A JP2010178070 A JP 2010178070A JP 5620741 B2 JP5620741 B2 JP 5620741B2
Authority
JP
Japan
Prior art keywords
line segment
dimensional
line
model
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010178070A
Other languages
English (en)
Other versions
JP2012038105A (ja
Inventor
圭祐 立野
圭祐 立野
小竹 大輔
大輔 小竹
藤木 真和
真和 藤木
内山 晋二
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010178070A priority Critical patent/JP5620741B2/ja
Publication of JP2012038105A publication Critical patent/JP2012038105A/ja
Application granted granted Critical
Publication of JP5620741B2 publication Critical patent/JP5620741B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering

Description

本発明は、3次元形状モデルから、画像上でエッジとして観察される3次元ラインを抽出する情報処理装置、情報処理方法、およびプログラムに関する。
近年のロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットは、ハンドなどのエンドエフェクタによって部品を把持して組立を行う。ロボットが部品を把持するためには、把持の対象となる部品とロボット(ハンド)との間の相対的な位置及び姿勢を計測する必要がある。位置及び姿勢を計測する方法としては、カメラが撮影する2次元画像上から検出される特徴に対して物体の3次元形状モデルを当てはめる、モデルフィッティングによる計測が一般的である。非特許文献1では、2次元画像上から検出される特徴としてエッジを利用する方法が開示されている。この方法では、物体の形状は3次元ラインの集合によって表される。そして、物体の概略の位置及び姿勢は既知であるとして、画像上で検出されるエッジに3次元ラインの投影像が当てはまるように概略の位置及び姿勢を補正することにより物体の位置及び姿勢を計測する。一般的に、物体の形状を表す3次元ラインとしては、物体の輪郭(ジャンプエッジ)となる3次元ライン用いることが多い。また、物体内部においてルーフエッジとなる3次元ラインを用いることが多い。しかし、輪郭となる3次元ラインは、物体を観察する方向によって変化するため、物体を観察する方向に応じて輪郭となる3次元ラインを抽出する処理が必要になる。
物体の形状を表す3次元形状モデルから輪郭となる3次元ラインを抽出する方法として、3次元形状モデル中の面の法線情報を利用する方法が特許文献1に開示されている。この方法では、3次元形状モデル中の各3次元ラインについて、隣接する2つの面が視点に対して表を向いているか、裏を向いているかを算出し、表裏が異なる場合は輪郭線として判定することで3次元ラインを抽出している。
また、特許文献2で開示されている手法では、3次元形状モデル中の面と面との法線の内積と面間の色の内積を算出して、双方の内積が一定値以下であれば、その面と面との境界となる3次元ラインは、輪郭であると判別している。
また、3次元形状モデルから直接3次元ラインを抽出しない手法として、3次元形状モデルの描画画像から3次元ラインを計算する方法が非特許文献2で開示されている。この方法は、コンピュータグラフィックス(CG)により3次元形状モデルを描画し、描画の結果として得られるデプスバッファに対して、エッジ検出を行う。デプスバッファとは、視点からモデル上の各点までの奥行き値が格納された画像であり、デプスバッファからエッジを検出することで、奥行きが不連続に変化する領域を算出することが可能である。デプスバッファ上でエッジとして検出された画素の画像座標と奥行き値とから、エッジに対応する3次元ラインのパラメータを算出することで、画像上でエッジとなる3次元ラインを算出する。
特開2002−319031号公報 特開平10−188030号公報 特開平11−260812号公報
T. Drummond and R. Cipolla, "Real-time visual tracking of complex structures," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.24, no.7, pp.932-946, 2002. H. Wuest, F. Wientapper, and D. Stricker, "Adaptive Model-based Tracking Using Analysis-by-Synthesis Techniques," International Conference on Computer Analysis of Image and Patterns (CAIP), 2007.
特許文献1または2で開示されているような、3次元形状モデルから直接3次元ラインを抽出する手法では、3次元形状モデル中で3次元ラインが重複して定義されておらず、形状を表す面と面の間にはクラック(隙間)がないことが前提となっている。しかし、3次元形状モデルがパラメトリック曲面により記述された設計用CADデータを三角形メッシュ変換されたモデルである場合などには、3次元曲面またはポリゴンパッチ間の境界曲線または線分が単一のものとして定義されていない。そのため、それぞれの面に属するものとして独立に定義されている場合がある。さらに独立に定義されたライン間にクラックがある場合も多い。その結果、隣り合う面を参照することや、面と面の角度を計算することが出来ず、3次元ラインを正確に抽出すること自体が困難であり、抽出前に重複データを削除する処理が必要となるといった課題がある。
クラックを含む3次元形状モデルへの対応としては、3次元形状モデルのクラックを補間し、クラックのないモデルを一度生成してから3次元ライン抽出を行うという方策が考えられる。
特許文献3では、クラックを含むモデルを簡略化することで、クラックを補間する手法が開示されている。この方法は、メッシュを近似する領域を定め、近似範囲にある頂点をマージし、モデルを簡略化することで、クラックを除去している。しかし、元の形状が簡略化されるため、元の形状データの精度が保存されないという問題がある。また、閾値が不適切に設定された場合は、モデルの精度は著しく損なわれてしまう恐れがある。加えて、モデルのスケールや観察距離、観察方向に応じて、適切な近似範囲の閾値が変化するため、多様な利用シーンに適用することには限界がある。
一方、非特許文献2に示されるような、3次元形状モデルのCG描画結果の画像を利用する方法は、クラックを含むモデルからであっても、正確に輪郭となる3次元ラインを抽出することが可能である。3次元形状モデル中の3次元ラインの画像上への投影像を画素単位で標本化することにより、ほとんどの場合、クラックが画素の範囲に埋もれる。そのため、クラックを含むモデルからでも問題なく輪郭となる3次元ラインを抽出することが可能である。しかし、画像から検出したエッジの2次元座標から3次元ラインのパラメータを算出しているため、描画による標本化誤差の影響によって精度が低下してしまうという問題がある。これは、描画する画像の解像度が低いときには特に顕著になる。3次元形状モデルの精度を損なわないという観点では、3次元形状モデルから直接3次元ラインの情報を抽出する方式が望ましい。
上記の課題に鑑み、本発明は、3次元ラインが画像上でエッジとして観察されるかどうかの判定を適切に行い、且つ3次元ラインのパラメータの精度を落とすことなく、クラックや重複を含む3次元形状モデルからでも3次元ラインを抽出することを目的とする。
上記の目的を達成する本発明に係る情報処理装置は、
対象物体の3次元形状情報を示す3次元モデルを取得するモデル取得手段と、
前記3次元モデルの位置および姿勢を入力する位置姿勢入力手段と、
前記対象物体の位置および姿勢に基づいて、前記3次元モデルを構成するモデル分を、当該3次元モデルまでの奥行き情報が各画素に保持された2次元画像上に、投影線分として投影する投影手段と、
前記2次元画像上で投影線分の周辺領域の奥行き情報を参照することにより、前記投影手段により投影された投影線分のうちから、前記対象物体の特徴を示すエッジとなる投影線分を抽出する抽出手段と、
前記3次元モデルを構成する線分から、前記抽出された投影線分に対応するモデル線分以外の線分を削除する削除手段と、
前記削除手段により前記抽出された投影線分に対応するモデル線分以外の線分が削除された後の前記3次元モデルを構成する線分データを出力する出力手段と
を備えることを特徴とする。
本発明によれば、3次元形状モデルがクラックや重複定義を含んでいても、エッジとして観察される3次元ラインを高精度に抽出することが可能となる。また、3次元ラインの投影像を2次元画像上で標本化することにより、3次元ラインが2次元平面上で重複しないように3次元ラインを抽出することが可能になる。さらに、3次元形状モデルの投影像から、3次元ライン周辺の形状を参照することにより、輪郭またはルーフエッジとなる3次元ラインを判定することが可能になる。
(a)3次元ライン抽出装置100のハードウェア構成を示す図、(b)3次元ライン抽出装置100の構成を示す図。 3次元形状モデル中の線分からの3次元ライン抽出の様子を示す図。 2次元画面上で重複する3次元ラインを除去する処理を示す図。 3次元ライン抽出方法の処理手順を示すフローチャート。 3次元形状モデルから2次元画面上で重複がないように3次元ラインを抽出する処理手順を示すフローチャート。 3次元ラインのエッジ判定の処理手順を示すフローチャート。 デプスバッファから距離値を参照することによる、3次元ラインのエッジ判定処理を説明する図。
(第1実施形態)
本実施形態では、本発明に係る情報処理装置を、実写画像に対する3次元モデルフィッティングのための3次元ライン抽出装置として適用した場合について説明する。3次元ライン抽出装置は、対象物体の3次元形状情報を示す3次元モデルを構成する線分から2次元画像上で、対象物体の特徴を示すエッジとして観察される線分を抽出する。
まず、図1(a)を参照して、3次元ライン抽出装置100のハードウェア構成について説明する。CPU1は装置全体の動作、具体的には後述の各処理部の動作を制御する。メモリ2は、CPU1の動作に用いるプログラムやデータを格納する。バス3は各処理部間でのデータ転送を司る。インタフェース4はバス3と各種装置とのインタフェースである。また、外部記憶装置5は、CPU1に読み込むためのプログラムやデータを格納する外部記憶装置である。キーボード6およびマウス7はプログラムを起動したり、プログラムの動作を指定したりするための入力装置を構成する。表示部8はプロセスの動作結果を表示する。
図1(b)を参照して、観察対象物体の形状を表す3次元モデルデータ10から、エッジとして観察される3次元ラインの抽出を行う3次元ライン抽出装置100の構成について説明する。3次元ライン抽出装置100は、3次元モデル保存部101と、観察方向入力部102と、3次元ライン抽出部103と、モデル描画部と104、サンプリング部105と、エッジ判定部106とを備える。
3次元ライン抽出装置100は、3次元モデル保存部101に保存されている観察対象物体の形状を表す3次元モデルデータ10から、画像上でエッジとして観察される3次元ラインを抽出する。抽出された3次元ラインは、位置姿勢推定装置11に入力され、物体の位置姿勢推定処理に利用される。
次に、3次元ライン抽出装置100を構成する各処理部について説明する。
3次元モデル保存部101は、3次元モデルデータ10を保存する。3次元モデル保存部101は、3次元ライン抽出部103およびモデル描画部104に接続されている。3次元モデルデータ10は、3次元ラインを抽出する対象となる、物体の形状を表すモデルである。3次元モデルデータ10は、例えば、複数の面の情報によって構成されるメッシュモデルとして記述されてもよいし、NURBSなどのパラメトリック表現により形状が記述されてもよい。この3次元モデルデータ10は、対象物体の形状を表す幾何情報を含む限り、いずれの方式で表現されてもよい。本実施形態では、面と、面を定義する点および線分とによって構成されるメッシュモデルを3次元モデルデータ10として利用する。
観察方向入力部102は、3次元モデルデータ10の観察方向を入力する。ここで、観察方向とは、3次元モデルを観察する視点に対する3次元形状モデルの位置及び姿勢のことをいう。観察方向入力部102により位置姿勢入力が行われる。本実施形態では、位置姿勢推定装置11は時間軸方向に連続して計測を行うものとして、前回(前時刻)の位置姿勢推定装置11による計測値を、次回の3次元モデルデータ10の位置及び姿勢として用いる。
3次元ライン抽出部103は、3次元モデルデータ10から、3次元ラインを抽出する。3次元ラインとは、3次元空間中における位置および方向によって記述される直線情報を表す。本実施形態では、3次元ラインとして、位置および方向によって記述される長さのない局所的な直線を抽出する。3次元ラインの表現形式としては、位置および方向を記述できる幾何情報であればよい。通過位置と方向によってラインを表しても、パラメトリックデータとして表してもよい。
図2に示すように、メッシュモデルから3次元ラインを抽出する処理では、メッシュモデルを構成する線分の投影像を2次元画像上で一定の間隔で分割し、各分割点に位置および方向を割り当てることで局所的な直線を抽出する。また、パラメトリック表現により形状が記述されているモデルを用いる場合は、パラメトリック曲線を分割することで3次元ラインを抽出してもよい。3次元ライン抽出の詳細な処理方法については、後述する。
モデル描画部104は、3次元モデルデータ10のCG描画処理を行う。3次元描画部において描画に利用するグラフィックライブラリは、例えば、OpenGLやDirectXなどの広く利用されているグラフィックライブラリでも、独自に開発したグラフィックライブラリでもよい。3次元モデル保存部101に保存されたモデル形式を2次元画像上に投影することができる限り、いずれの方式を用いてもよい。本実施形態ではグラフィックライブラリとしてOpenGLを利用する。
サンプリング部105は、3次元ライン抽出部103により抽出された3次元ラインから、他の3次元ラインの投影像と2次元画像上で近接しないように3次元ラインを選出する。3次元形状モデル中に頂点や辺の重複、またはクラックが存在すると、図3(a)に示すように、3次元形状モデルから抽出した3次元ラインにも重複が発生する。そこで、図3(b)に示すように、3次元ラインの重複フラグマップを作成して、着目する3次元ラインの近傍に他の3次元ラインが存在するかどうかをチェックする。そして、近傍の範囲で唯一となるように3次元ラインを選択することで、2次元画面上で重複することなく3次元ラインを抽出する。3次元ライン抽出の詳細な処理方法については、後述する。
エッジ判定部106は、サンプリング部105で選出された3次元ラインの中から、エッジとして観察される3次元ラインをさらに選出する。ここで、エッジとなる3次元ラインとは、図7に示すように、3次元ライン周辺の形状がステップ状に不連続に変化する部分やルーフ状に不連続に変化する部分の3次元ラインのことを指す。エッジ判定の詳細な処理については、後述する。
次に、図4を参照して、本実施形態における3次元ライン抽出方法の処理手順を示すフローチャートについて説明する。
まず、ステップS401において、初期化が実行される。観察方向入力部102は、3次元モデル保存部101に保存された3次元モデルデータ10を観察する方向を3次元ライン抽出装置100に入力する。前述したように、本実施形態では、観察方向入力部102は、位置姿勢推定装置11から3次元モデルを観察する位置及び姿勢を取得する。また、モデル描画部104の処理において、描画処理に利用するカメラ内部パラメータ(焦点距離および主点位置)も必要となるため、観察方向と一緒にカメラ内部パラメータを位置姿勢推定装置11から取得する。これによりステップS401の初期化が終了する。そして、ステップS402の処理に進む。
ステップS402において、3次元ライン抽出部103は、3次元モデルデータ10から、モデル中の各面を構成する線分データを投影・分割することにより、3次元ラインを抽出する。具体的には、まず、ステップS401で取得された3次元モデルデータ10を観察する視点の位置及び姿勢とカメラ内部パラメータとを用いて、3次元モデル中の線分データを全て画像上へ投影し、2次元画像上の投影線分を算出する。線分の投影像は画像上でも線分となる。
次に、図2で説明したように、この投影線分が画像上で等間隔になるように、3次元モデル中の線分データを分割し、各分割点に対して3次元ラインのパラメータを割り当てることによって、3次元ラインを抽出する。3次元ラインは、位置の3次元座標および分割元の線分の3次元方向を保持する。投影結果の2次元座標および投影線分の2次元方向をさらに保持してもよい。このように、線分を示すデータ形式が、当該線分に対応する投影線分が等間隔となるように線分を分割した分割点の位置情報および当該線分の3次元方向により記述される。
3次元モデル中の全ての線分データから3次元ラインを抽出し終え、抽出結果を3次元ラインリストとして保存したら、ステップS402の処理を終了する。そして、ステップS403の処理に進む。ステップS403において、モデル描画部104は、ステップS401で取得された3次元モデルデータ10を観察する視点の位置および姿勢と、カメラ内部パラメータとを用いて、3次元モデルデータ10のCG描画を行う。ここで、CG描画処理は、ステップS401で取得された物体の位置および姿勢と、カメラ内部パラメータとに基づいて、3次元形状モデルの面情報を2次元画像上に投影し、画像として出力する処理である。このとき、視点からモデルまでの距離の最大値および最小値を設定しておき、その範囲外のモデルの描画は行わないことにより、描画処理の計算コストが低減する。この処理はクリッピングと呼ばれ、一般的に行われている処理である。3次元モデルデータ10のCG描画により、3次元モデルデータ10までの奥行き値が格納されたデプスバッファが2次元画像から生成される。3次元モデルデータ10のCG描画が終わったら、ステップS403の処理を終了する。そして、ステップS404の処理に進む。
すなわち、対象物体の位置および姿勢に基づいて、3次元モデルを構成する線分および面を、3次元モデルまでの奥行き情報が各画素に保持された2次元画像上に、投影線分および投影面として投影する。
ステップS404において、サンプリング部105は、ステップS402で抽出された3次元ラインリストから、2次元画面上で重複が起こらないように、3次元ラインをサンプリングする。このサンプリング処理について図5を参照して説明する。
図5は、本実施形態に係る3次元ラインのサンプリング方法の処理手順を示すフローチャートである。本処理は、ステップS402で抽出された3次元ライン単位で行われる。
まず、ステップS501において、1つの3次元ラインが選択され、その3次元ラインが3次元モデルの表面にあるか、または3次元モデルの面の裏に隠れているかが特定される。ステップS402で抽出された3次元ラインリストの中には、3次元モデルの面によって隠れる3次元ラインも含まれる。そこで、3次元ラインの3次元座標と、ステップS403で算出されたデプスバッファの値とを比較し、3次元ラインがデプスバッファよりも奥にある(陰線)か否かが特定される。抽出された線分の3次元位置と、奥行き情報が示す位置とを比較して、奥行き情報が示す位置よりも奥に存在する線分を陰線として除去する。
次に、ステップS502において、3次元ラインがステップS501で3次元モデルの面の裏に隠れると特定されたか否かが判定される。3次元モデルの面の裏に隠れると特定された場合は(ステップS502;YES)、ステップS505に進む。そしてステップS505において、その3次元ラインを3次元ラインリストから除去する。3次元ラインが3次元モデルの表面にあると特定された場合は(ステップS502;NO)、ステップS503に進む。
ステップS503において、3次元ラインの重複をチェックする。3次元ラインの重複判定には、着目する3次元ラインの近傍に他の3次元ラインが存在するかどうかをチェックするための重複フラグマップを利用する。重複フラグマップとは、3次元ラインが存在する場所は真を示すフラグを、存在しない場所には偽を示すフラグを格納したマップである。重複フラグマップは、あらかじめ偽のフラグで初期化しておく。そして3次元ラインの2次元座標に応じて重複フラグマップを参照・更新することにより、着目する3次元ラインの2次元座標近傍に他の3次元ラインがあるかどうかが判別される。
次に、ステップS504において、ステップS503で近傍に他の3次元ラインがあると判定された場合は(ステップS504;YES)、ステップS505に進む。ステップS505において、その3次元ラインを3次元ラインリストから除去する。近傍に他の3次元ラインがないと判定された場合は(ステップS504;NO)、重複フラグマップを参照し、その3次元ラインの2次元座標位置に真のフラグを格納して、ステップS506に進む。3次元ラインを3次元ラインリストから除去する処理は、例えば、選択された線分に対応する投影線分のうち、2次元画像上で当該投影線分の1つから所定領域の範囲に存在する投影線分を、2次元画像上で重複する線分として、1つを残して削除する処理である。
ステップS506において、3次元ラインリスト中の全ての3次元ラインが処理されたか否かが判定される。まだ処理していない3次元ラインがあれば(ステップS506;NO)、ステップS501戻る。一方、次の3次元ラインの処理を行い、全ての3次元ラインの処理が終了していれば(ステップS506;YES)、図4のステップS404の処理を終了する。そして、ステップS405に進む。
ステップS405において、エッジ判定部106は、ステップS404で選択された3次元ラインリストの中から、エッジとなる3次元ラインをさらに選択する。具体的には、まず、3次元ラインリストから除去する処理が実行された後の線分に対して、当該線分を構成する点が示す位置から当該線分と直交する方向に所定画素分当該画素の奥行き情報を取得する。そして、その直交する方向に対する奥行き情報の2次微分値を算出する。この2次微分値の絶対値が閾値以上であるか否か判断する。2次微分値の絶対値が閾値以上であると判断された場合、当該線分を、2次元画像上において対象物体の特徴を示すエッジとなる線分として抽出する。
図6を参照して、このステップS405に係る3次元ラインのエッジ選択方法の詳細な処理手順を説明する。
まず、ステップS601において、ステップS404で選出された3次元ラインリストのうちの1つに着目して、3次元ライン周辺領域の奥行き値情報を、ステップS403で得られたデプスバッファから取得する。奥行き値情報としては、図7(a)(b)に示されるように、3次元ラインの投影位置の距離値と、投影されたラインの法線方向±2ピクセル位置の距離値を取得する。サンプリングする距離値の数や間隔は、モデルの詳細度や描画解像度に応じて調整してもよい。
次に、ステップS602において、図7(c)に示されるように、3次元ライン周辺領域の距離値に対して2次微分値を算出する。次に、ステップS603において、算出された距離値の2次微分値を利用して、エッジ判定を行う。算出された距離値の2次微分値の絶対値が閾値以下であるか否かが判定される。2次微分値の絶対値が閾値よりも大きい場合は(ステップS603;NO)、距離値が不連続に変化する境界部分、すなわちエッジとなる3次元ラインであると判定されたことになるため、ステップS605に進む。一方、2次微分値の絶対値が閾値以下である場合は(ステップS603;NO)、エッジではないと判定されたことになるため、ステップS604に進む。
ステップS604において、エッジでないと判定された3次元ラインを、3次元ラインリストから除去する。ステップS605において、以上の処理が3次元ラインリスト中の全ての3次元ラインに対して行われたか否かが判定される。全ての3次元ラインに対して処理が行われていない場合(ステップS605;NO)、ステップS601に戻る。一方、全ての3次元ラインに対して処理が行われている場合(ステップS605;YES)、処理を終了する。
以上の処理により、3次元モデルデータ10から、エッジとなる3次元ラインリストが抽出される。結果として得られた3次元ラインリストは位置姿勢推定装置11に出力され、モデルフィッティング処理に用いられる。モデルフィッティング処理は、例えば非特許文献1に開示される方法によって行うことができる。すなわち、まず、3次元ライン抽出装置100から出力された3次元ラインを、物体の概略の位置および姿勢に基づいてモデルフィッティング対象の物体が撮像された2次元画像上に投影する。そして、投影像近傍から1次元エッジ検出を行い、各3次元ラインと対応する画像上のエッジを検出する。次に、3次元ラインと画像上のエッジとの対応に基づいて、非線形最適化計算によって繰り返し位置及び姿勢を補正することにより、対象物体の位置及び姿勢の算出を行うことができる。
以上述べたように、本実施形態では、2次元画面上で重複がないように3次元ラインを3次元モデルから抽出し、且つデプスバッファを利用して3次元ラインのエッジ判定を行うことにより、3次元形状モデルのクラックや頂点の重複に対処可能となる。また、3次元ラインの座標は、3次元形状モデルの座標から直接算出することにより、元の3次元形状モデルの精度を保持したまま、エッジとなる3次元ラインを抽出することが可能となる。
(第2実施形態)
第1実施形態では、ステップS405において、3次元ライン周辺のデプスバッファの距離値の2次微分値を算出することにより、3次元ラインの輪郭判定を行っていた。しかし、3次元ラインの輪郭判定は、これに限るものでなく、例えば、デプスバッファ全体からエッジ検出を行って生成されたエッジ画像を利用してもよい。具体的には、ステップS403において、3次元形状モデルのCG描画によりデプスバッファを取得した後、デプスバッファ全体に対してエッジ検出処理を行う。エッジ検出処理は、例えば公知の手法であるCannyのエッジ検出器を用いる。そして、ステップS405のエッジ判定処理では、3次元ラインの2次元位置に対応するデプスバッファのエッジ検出結果を参照し、デプスバッファ上でエッジになっている場合は、その3次元ラインをエッジと判定する。なお、3次元ラインのエッジ判定は、以上に挙げた方法に限るものでなく、3次元ライン周辺の形状の不連続性に基づいて判定処理を行う限り、いずれの手法を用いてもよい。
(第3実施形態)
第1実施形態では、ステップS404において、2次元画面上の重複フラグマップを作成することで、2次元画面上での3次元ラインの重複を除去していた。しかし、3次元ラインの重複除去は、これに限るものでなく、例えば、3次元ライン間の2次元距離を計算して判定してもよい。具体的には、既に確定した3次元ラインの投影像と、着目する3次元ラインの投影像との間の2次元距離を算出し、閾値以下の近傍に他の3次元ラインがある場合には、着目する3次元ラインを3次元ラインリストから除去する処理である。また、3次元ライン間の近傍探索処理は、基本的に全探索になるため、k‐dツリーを利用して3次元ラインのデータ構造を保持して、探索の効率化を図ってもよい。以上に示すように、2次元画面上で3次元ラインの近傍を判定することが出来る限り、いずれの手法でもよく、手法の選択に特に制限はない。
(第4実施形態)
第1実施形態では、3次元ラインは、長さのない局所ラインデータとして処理・出力を行っていた。しかし、3次元ラインのデータ形式は、これに限るものでなく、始点と終点の端点によって記述されるような、有限の長さをもつ線分データとして扱ってもよい。例えば、線分を示すデータ形式が、当該線分を構成する始点および終点の各端点の位置情報により記述される構成とすればよい。具体的には、ステップS402において、3次元モデルデータ10から抽出された長さのない局所的な直線データではなく、3次元モデルデータ10を構成する各線分そのものを3次元ラインとして登録する。ただし、このときにステップS402の処理と同様の手法により各線分から分割した局所線分のデータも保持してもよい。以降の処理は、第1実施形態と同様に、線分から分割された局所線分データごとに処理を行う。そして、ステップS405の処理が終了した時点で、エッジでないと判定された局所線分データを含む3次元ラインは削除し、エッジとなる3次元ラインのみを位置姿勢推定装置11に出力する。以上に示すように、3次元ラインとして取り扱うラインデータは、輪郭またはルーフエッジとして観察される3次元的直線を記述可能であって、位置姿勢推定装置11が対応できる形式であれば、いずれの形式でもよい。
(第5実施形態)
第1実施形態では、観察方向に応じた輪郭となる3次元ラインを位置姿勢推定装置11にランタイムで出力していた。しかし、予め様々な方向から観察した3次元ラインのデータを作成しておき、位置姿勢推定装置11に出力してもよい。具体的には対象物体を取り囲むGeodesic Domeを、半径を変えて複数設定し、対象物体の観察方向および観察距離を、Geodesic Dome上で均等になるように設定する。そして、各Geodesic Domeの各点に相当する位置及び姿勢を観察視点として、エッジとなる3次元ラインの抽出を行い、対象物体の観察方向と観察距離の情報とともに3次元ラインのデータを保存する。位置姿勢推定装置11は、方向別の3次元ラインデータから、前時刻の対象物体の位置姿勢に最も近い3次元ラインのデータを選択して、位置姿勢推定に用いる。この方式は、ランタイムに3次元ラインを選出する方式と比較して、保持するデータ量が増える代わりに、ランライム時の計算量が削減される特徴がある。これら方式の選択は、利用シーンに応じて選択すればよい。
(第6実施形態)
第1実施形態では、3次元モデルデータ10は、点、面、および線分により構成されたメッシュデータであった。しかし、3次元モデルデータ10のデータ形式は、これに限るものではなく、例えば、NURBS曲面などで表現されるパラメトリックモデルでもよい。この場合、ステップS402において、パラメトリックモデルから3次元線分を算出する処理が必要となる。この処理は、例えば、パラメトリックモデルの法線マップからエッジ検出を行い、法線が急激に変化する部分の座標と方向を抽出することにより、3次元線分を算出する処理である。以上に示すように、3次元モデルデータ10として取り扱うデータ形式は、対象物体の形状を表現できる限り、いずれの形式でもよい。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (12)

  1. 対象物体の3次元形状情報を示す3次元モデルを取得するモデル取得手段と、
    前記3次元モデルの位置および姿勢を入力する位置姿勢入力手段と、
    前記対象物体の位置および姿勢に基づいて、前記3次元モデルを構成するモデル分を、当該3次元モデルまでの奥行き情報が各画素に保持された2次元画像上に、投影線分として投影する投影手段と、
    前記2次元画像上で投影線分の周辺領域の奥行き情報を参照することにより、前記投影手段により投影された投影線分のうちから、前記対象物体の特徴を示すエッジとなる投影線分を抽出する抽出手段と、
    前記3次元モデルを構成する線分から、前記抽出された投影線分に対応するモデル線分以外の線分を削除する削除手段と、
    前記削除手段により前記抽出された投影線分に対応するモデル線分以外の線分が削除された後の前記3次元モデルを構成する線分データを出力する出力手段と
    を備えることを特徴とする情報処理装置。
  2. 前記抽出手段により抽出された投影線分の3次元位置と、前記奥行き情報が示す位置とを比較して、当該奥行き情報が示す位置よりも奥に存在する投影線分を陰線として、前記抽出手段により抽出された投影線分から除去する除去手段をさらに備えることを特徴とする請求項1に記載の情報処理装置。
  3. 前記削除手段は、前記投影線分のうち前記2次元画像上で重複する線分を、1つ残して削除することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記削除手段は、
    記投影線分のうち、前記2次元画像上で当該投影線分の1つから所定領域の範囲に存在する投影線分を、前記2次元画像上で重複する投影線分として、1つを残して削除することを特徴とする請求項に記載の情報処理装置。
  5. 前記抽出手段は、
    記削除手段により削除された後の投影線分に対して、当該投影線分を構成する点が示す位置から当該線分と直交する方向に所定画素分当該画素の奥行き情報を取得する取得手段と、
    前記直交する方向に対する、前記取得手段により取得された奥行き情報の2次微分値を算出する算出手段と、
    前記2次微分値の絶対値が閾値以上であるか否か判断する判断手段と、を備え、
    前記判断手段により前記2次微分値の絶対値が閾値以上であると判断された場合、当該線分を、前記2次元画像上において前記対象物体の特徴を示すエッジとなる投影線分として抽出することを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  6. 前記線分を示すデータ形式が、当該線分に対応する前記投影線分が等間隔となるように前記線分を分割した分割点の位置情報および当該線分の3次元方向により記述されることを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  7. 前記線分を示すデータ形式が、当該線分を構成する始点および終点の各端点の位置情報により記述されることを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  8. 物体を含む画像を取得する画像取得手段と、
    前記物体の概略位置姿勢を取得する概略位置姿勢取得手段と、
    請求項1乃至7のいずれか1項に記載の情報処理装置の出力手段により出力された線分データを取得する取得手段と、
    前記画像から前記物体の特徴を取得する特徴取得手段と、
    前記概略位置姿勢に基づいて、前記線分データと前記特徴とを対応づけることにより、前記物体の位置姿勢を導出する導出手段とを備えることを特徴とする位置姿勢推定装置。
  9. 対象物体の3次元形状情報を示す3次元モデルを構成する線分から2次元画像上で前記対象物体の特徴を示すエッジとして観察される線分を抽出する情報処理方法であって、
    位置姿勢入力手段が、対象物体の3次元形状情報を示す保持手段に保持された3次元モデルの位置および姿勢を入力する位置姿勢入力工程と、
    投影手段が、前記対象物体の位置および姿勢に基づいて、前記3次元モデルを構成するモデル分を、当該3次元モデルまでの奥行き情報が各画素に保持された2次元画像上に、投影線分として投影する投影工程と、
    抽出手段が、前記2次元画像上で投影線分の周辺領域の奥行き情報を参照することにより、前記投影手段により投影された投影線分のうちから、前記対象物体の特徴を示すエッジとなる投影線分を抽出する抽出工程と、
    削除手段が、前記3次元モデルを構成する線分から、前記抽出された投影線分に対応するモデル線分以外の線分を削除する削除工程と、
    出力手段が、前記削除工程により前記抽出された投影線分に対応するモデル線分以外の線分が削除された後の前記3次元モデルを構成する線分データを出力する出力工程と
    を有することを特徴とする情報処理方法。
  10. 位置姿勢推定方法であって、
    画像取得手段が、物体を含む画像を取得する画像取得工程と、
    概略位置姿勢取得手段が、前記物体の概略位置姿勢を取得する概略位置姿勢取得工程と、
    取得手段が、請求項9に記載の情報処理方法の出力工程で出力された線分データを取得する取得工程と、
    特徴取得手段が、前記画像から前記物体の特徴を取得する特徴取得工程と、
    導出手段が、前記概略位置姿勢に基づいて、前記線分データと前記特徴とを対応づけることにより、前記物体の位置姿勢を導出する導出工程と
    を有することを特徴とする位置姿勢推定方法。
  11. コンピュータを、
    対象物体の3次元形状情報を示す3次元モデルを取得するモデル取得手段、
    前記3次元モデルの位置および姿勢を入力する位置姿勢入力手段、
    前記対象物体の位置および姿勢に基づいて、前記3次元モデルを構成するモデル線分を、当該3次元モデルまでの奥行き情報が各画素に保持された2次元画像上に、投影線分として投影する投影手段、
    前記2次元画像上で投影線分の周辺領域の奥行き情報を参照することにより、前記投影手段により投影された投影線分のうちから、前記対象物体の特徴を示すエッジとなる投影線分を抽出する抽出手段、
    前記3次元モデルを構成する線分から、前記抽出された投影線分に対応するモデル線分以外の線分を削除する削除手段、
    前記削除手段により前記抽出された投影線分に対応するモデル線分以外の線分が削除された後の前記3次元モデルを構成する線分データを出力する出力手段
    として機能させるためのプログラム。
  12. コンピュータを、
    物体を含む画像を取得する画像取得手段、
    前記物体の概略位置姿勢を取得する概略位置姿勢取得手段、
    請求項11に記載の出力手段により出力された線分データを取得する取得手段、
    前記画像から前記物体の特徴を取得する特徴取得手段、
    前記概略位置姿勢に基づいて、前記線分データと前記特徴とを対応づけることにより、前記物体の位置姿勢を導出する導出手段
    として機能させるためのプログラム。
JP2010178070A 2010-08-06 2010-08-06 情報処理装置、情報処理方法、およびプログラム Active JP5620741B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010178070A JP5620741B2 (ja) 2010-08-06 2010-08-06 情報処理装置、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010178070A JP5620741B2 (ja) 2010-08-06 2010-08-06 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2012038105A JP2012038105A (ja) 2012-02-23
JP5620741B2 true JP5620741B2 (ja) 2014-11-05

Family

ID=45850042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010178070A Active JP5620741B2 (ja) 2010-08-06 2010-08-06 情報処理装置、情報処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP5620741B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018185807A1 (ja) * 2017-04-03 2018-10-11 富士通株式会社 距離情報処理装置、距離情報処理方法および距離情報処理プログラム
CN109448115B (zh) * 2018-10-31 2023-10-27 广州凡拓动漫科技有限公司 三维模型的处理方法、装置和计算机设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0520464A (ja) * 1991-07-09 1993-01-29 Nec Corp 表示要素選択表示装置
JPH05307589A (ja) * 1992-04-17 1993-11-19 Sanyo Electric Co Ltd Cadシステム間のデータ転送方式
JP3094381B2 (ja) * 1996-10-31 2000-10-03 株式会社超高速ネットワーク・コンピュータ技術研究所 輪郭抽出方法
JP3252788B2 (ja) * 1998-03-13 2002-02-04 日本電気株式会社 メッシュ生成方式及び方法
JP2002319031A (ja) * 2001-04-24 2002-10-31 Taito Corp 画像処理装置におけるポリゴンモデル輪郭線検出方式
DE60305027T2 (de) * 2003-07-28 2006-12-14 Dassault Systèmes S.A. Verfahren zur Bereitstellung eines Vektorbildes mit entfernten versteckten Linien
JP2005100177A (ja) * 2003-09-25 2005-04-14 Sony Corp 画像処理装置およびその方法
JP5253066B2 (ja) * 2008-09-24 2013-07-31 キヤノン株式会社 位置姿勢計測装置及び方法

Also Published As

Publication number Publication date
JP2012038105A (ja) 2012-02-23

Similar Documents

Publication Publication Date Title
Lee et al. Skeleton-based 3D reconstruction of as-built pipelines from laser-scan data
JP5713159B2 (ja) ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム
JP5248806B2 (ja) 情報処理装置、情報処理方法
JP5297403B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、プログラムおよび記憶媒体
JP4940461B2 (ja) 3次元物体認識装置及び3次元物体認識方法
JP6716996B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
US20170308736A1 (en) Three dimensional object recognition
JP6723061B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2011192214A (ja) 幾何特徴抽出装置、幾何特徴抽出方法、及びプログラム、三次元計測装置、物体認識装置
EP3633606B1 (en) Information processing device, information processing method, and program
EP3300025B1 (en) Image processing device and image processing method
JP6172432B2 (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
JP2006214893A (ja) 対象物測定方法及びコンピュータシステムを用いて対象物の三次元形状を計測するためのコンピュータソフトウエアプログラム
CN116134482A (zh) 用于识别三维图像中的表面特征的方法和装置
KR101593316B1 (ko) 스테레오 카메라를 이용한 3차원 모델 재구성 방법 및 장치
JP6347610B2 (ja) 画像処理装置および3次元空間情報取得方法
JP5620741B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP4714050B2 (ja) 3次元形状モデル生成システム
JP6603993B2 (ja) 画像処理装置、画像処理方法、画像処理システム、及びプログラム
JPH06176107A (ja) 距離画像処理方法及び装置
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP6910622B2 (ja) 画像処理システム
JP2013053920A (ja) 3次元物体位置検出装置、そのプログラム
JP2017199285A (ja) 情報処理装置、情報処理方法、プログラム
JP3870255B2 (ja) 3次元復元方法及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140606

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140919

R151 Written notification of patent or utility model registration

Ref document number: 5620741

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151