JP2011198330A - 3次元位置合わせにおける照合方法およびそのプログラム - Google Patents

3次元位置合わせにおける照合方法およびそのプログラム Download PDF

Info

Publication number
JP2011198330A
JP2011198330A JP2010067445A JP2010067445A JP2011198330A JP 2011198330 A JP2011198330 A JP 2011198330A JP 2010067445 A JP2010067445 A JP 2010067445A JP 2010067445 A JP2010067445 A JP 2010067445A JP 2011198330 A JP2011198330 A JP 2011198330A
Authority
JP
Japan
Prior art keywords
dimensional
point
feature
segment
collation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010067445A
Other languages
English (en)
Inventor
Masaharu Watanabe
征春 渡邊
Fumiaki Tomita
文明 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2010067445A priority Critical patent/JP2011198330A/ja
Priority to US13/053,819 priority patent/US20110235898A1/en
Publication of JP2011198330A publication Critical patent/JP2011198330A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Abstract

【課題】精度よく3次元位置合わせが可能な照合方法及びプログラムを提供すること。
【解決手段】対象物の画像データから第1及び第2の3次元復元点集合、第1及び第2特徴量集合を求めるステップS2〜4と、
第1及び第2特徴量集合を照合して、第1及び第2の3次元復元点集合の対応点を決定するステップS5〜10とを含み、
第1及び第2の3次元復元点集合がセグメントの3次元位置座標を含み、
第1及び第2特徴量集合がセグメントの頂点に関する3次元情報を含み、
ステップS5で、第1及び第2の3次元復元点集合のセグメントの初期照合を行い、
ステップS6で、第1特徴量集合の中から特徴点を選択し、
ステップS7で、選択された特徴点を含む調整領域を指定し、
ステップS8において調整領域に含まれる第1及び第2の3次元復元点集合のセグメントに関して照合の微調整を行い、
調整領域を拡大及び特徴点を選択する毎にステップS6〜8を実行する。
【選択図】図2

Description

本発明は、複数の部分的3次元データ群を1つの3次元データに統合する場合や、モデルベース物体認識技術などに必要となる3次元位置合わせにおける照合方法およびそのプログラムに関する。
ステレオ画像処理、レーザーレンジファインダ等によって得られた複数の部分的3次元データ群を統合して一つの形状データとする技術は3次元位置合わせ(registration, aligning)と呼ばれ、測量、遺跡調査、モデリング、工業部品検査など幅広い分野で活用されている。位置合わせ時における各データ群の相互位置関係は計測データ以外の外部情報(事前のカメラ校正等)によって与えられる。
位置合わせ時にはこの相互位置関係情報に含まれる誤差が問題となるが、完全に正しい位置関係が分かっていなくとも、ICP(Iterative Closest Point)アルゴリズムによ
る微調整によって正確な位置合わせが行えることが知られており、広く使われている。
対象物を異なる視点から撮像した2枚の画像から、対象物の3次元データを得る方法は、下記非特許文献1及び2などに開示されている。
富田文明,高橋裕信:ステレオ画像の境界線表現に基づく対応,電子情報通信学会論文誌D,vol.J71-D,No.6,pp.1074-1082,1988年6月. 角保志,富田文明:ステレオビジョンによる3次元物体の認識,電子情報通信学会論文誌D-II,vol.J80-D-II,No.5,pp.1105-1112,1997年5月.
しかし、ICPアルゴリズムは、基準としたデータ近傍にある他のデータ群の情報のみを用いて修正処理を行うため、相互位置関係に関する事前情報が不正確である場合、真値が得られない恐れがある。例えば図9に示す直方体のように測定対象の少なくとも1辺が他の辺に比べてかなり短い条件で、初期情報が不正確な場合には、図9のように計測データ1の直線が計測データ2の、正解とは異なる直線に接近した状態の初期情報が与えられてしまうことがある。この状況下でICPによる微調整を行っても、近傍の誤った照合データ(図9中の灰色の楕円で示す部分)の影響で正解に収束しない問題がある。
上記はデータ群同士の問題であるが、これ以外にも、モデルベース物体認識技術、すなわち3次元計測情報に対し、あらかじめ用意された3次元幾何モデルを照合し、そのモデルで表現される現実物体の位置姿勢を計測する技術も広い意味ではこの3次元位置合わせの範疇に入り、同様の問題が発生する。
また、データ群間の位置関係に関する事前情報が得られない場合、データ群全ての情報の組合せを検証して位置合わせすることは時間コストの面から現実的ではないため、通常、頂点等の特徴を利用した初期照合を行うことで計算時間の短縮を図る。しかしこの照合ではデータ特徴点が含むノイズが原因で真値からずれた照合結果が得られることがある。一例として特徴量が頂点の場合、それを構成する2直線の位置姿勢には当然ながら計測ノイズが混入し、照合結果に影響する。図9のような初期照合結果が得られることもあり、
その後に全データを用いたICPアルゴリズム等による微調整を行っても上記と同様の理由で正解には収束しない問題がある。
本発明は、上記した問題を解決すべく、初期の位置合わせ情報が不正確でも精度よく3次元位置合わせが可能な照合方法およびそのプログラムを提供することを目的とする。
本発明の目的は、以下の手段によって達成される。
即ち、本発明に係る3次元位置合わせにおける第1の照合方法は、
相互に異なる2つの視点から対象物を撮像して得られた2枚の画像データから第1の3次元復元点集合および第1特徴量集合を求める第1ステップと、
前記視点と異なり、相互に異なる2つの視点から前記対象物を撮像して得られた2枚の画像データから第2の3次元復元点集合および第2特徴量集合を求める第2ステップと、
前記第1特徴量集合を前記第2特徴量集合と照合することにより、第2の3次元復元点集合の中から前記第1の3次元復元点集合の点に対応する点を決定する第3ステップとを含み、
前記第1及び第2の3次元復元点集合が、対応する前記画像データ中の前記対象物の境界線を分割したセグメントの3次元位置座標を含み、
前記第1及び第2特徴量集合が、前記セグメントの頂点に関する3次元情報を含み、
前記第3ステップが、
前記第1及び第2の3次元復元点集合のセグメントに関して初期照合を行う第4ステップと、
前記第1特徴量集合の中から特徴点を選択する第5ステップと、
選択された前記特徴点を内部に含む領域を調整領域として指定する第6ステップと、
前記調整領域内に含まれる前記第1及び第2の3次元復元点集合のセグメントに関して、照合の微調整を行う第7ステップとから構成され、
前記調整領域を段階的に拡大する毎に前記第7ステップを実行し、
前記特徴点を選択する毎に前記第6及び第7ステップを実行する
ことを特徴としている。
本発明に係る3次元位置合わせにおける第2の照合方法は、上記の第1の照合方法において、
前記セグメントが、直線、円弧、又は、直線及び円弧の組み合わせで近似され、
前記頂点に関する前記3次元情報が、前記頂点の3次元位置座標および2つの3次元接線ベクトルであり、
前記照合が、前記第1特徴量集合の一部を、前記第2特徴量集合の一部に一致するように3次元座標変換する変換行列を求める処理であり、
前記第2の3次元復元点集合の中から前記第1の3次元復元点集合の点に対応する点を決定する処理が、前記変換行列を用いて前記第1の3次元復元点集合の点を3次元座標変換した結果と、前記第2の3次元復元点集合の点との一致性を評価する処理であることを特徴としている。
本発明に係る3次元位置合わせにおける第3の照合方法は、
相互に異なる2つの視点から対象物を撮像して得られた2枚の画像データから3次元復元点集合および特徴量集合を求める第1ステップと、
前記対象物のモデルデータ集合およびモデル特徴量集合を求める第2ステップと、
前記モデル特徴量集合を前記特徴量集合と照合することにより、前記3次元復元点集合の中から前記モデルデータ集合の点に対応する点を決定する第3ステップとを含み、
前記3次元復元点集合が、対応する前記画像データ中の前記対象物の境界線を分割した
セグメントの3次元位置座標を含み、
前記特徴量集合が、前記セグメントの頂点に関する3次元情報を含み、
前記第3ステップが、
前記3次元復元点集合のセグメントに関して前記モデル特徴量集合との初期照合を行う第4ステップと、
前記モデル特徴量集合の中から特徴点を選択する第5ステップと、
選択された前記特徴点を内部に含む領域を調整領域として指定する第6ステップと、
前記調整領域に含まれる前記モデルデータ集合及び前記3次元復元点集合のセグメントに関して、照合の微調整を行う第7ステップとから構成され、
前記調整領域を段階的に拡大する毎に前記第7ステップを実行し、
前記特徴点を選択する毎に前記第6及び第7ステップを実行する
ことを特徴としている。
本発明に係る3次元位置合わせにおける第4の照合方法は、上記の第3の照合方法において、
前記セグメントが、直線、円弧、又は、直線及び円弧の組み合わせで近似され、
前記頂点に関する前記3次元情報が、前記頂点の3次元位置座標および2つの3次元接線ベクトルであり、
前記照合が、前記モデル特徴量集合の一部を、前記特徴量集合の一部に一致するように3次元座標変換する変換行列を求める処理であり、
前記3次元復元点集合の中から前記モデルデータ集合の点に対応する点を決定する処理が、前記変換行列を用いて前記モデルデータ集合の点を3次元座標変換した結果と、前記3次元復元点集合の点との一致性を評価する処理であることを特徴としている。
本発明に係る3次元位置合わせにおける第1の照合プログラムは、
コンピュータに、
相互に異なる2つの視点から対象物を撮像して得られた2枚の画像データから第1の3次元復元点集合および第1特徴量集合を求める第1機能と、
前記視点と異なり、相互に異なる2つの視点から前記対象物を撮像して得られた2枚の画像データから第2の3次元復元点集合および第2特徴量集合を求める第2機能と、
前記第1特徴量集合を前記第2特徴量集合と照合することにより、第2の3次元復元点集合の中から前記第1の3次元復元点集合の点に対応する点を決定する第3機能とを実現させ、
前記第1及び第2の3次元復元点集合が、対応する前記画像データ中の前記対象物の境界線を分割したセグメントの3次元位置座標を含み、
前記第1及び第2特徴量集合が、前記セグメントの頂点に関する3次元情報を含み、
前記第3機能が、
前記第1及び第2の3次元復元点集合のセグメントに関して初期照合を行う第4機能と、
前記第1特徴量集合の中から特徴点を選択する第5機能と、
選択された前記特徴点を内部に含む領域を調整領域として指定する第6機能と、
前記調整領域に含まれる前記第1及び第2の3次元復元点集合のセグメントに関して、照合の微調整を行う第7機能とから構成され、
前記コンピュータに、
前記調整領域を段階的に拡大する毎に前記第7機能を実現させ、
前記特徴点を選択する毎に前記第6及び第7機能を実行させる
ことを特徴としている。
本発明に係る3次元位置合わせにおける第2の照合プログラムは、上記の第1の照合プログラムにおいて、
前記セグメントが、直線、円弧、又は、直線及び円弧の組み合わせで近似され、
前記頂点に関する前記3次元情報が、前記頂点の3次元位置座標および2つの3次元接線ベクトルであり、
前記照合が、前記第1特徴量集合の一部を、前記第2特徴量集合の一部に一致するように3次元座標変換する変換行列を求める処理であり、
前記第2の3次元復元点集合の中から前記第1の3次元復元点集合の点に対応する点を決定する処理が、前記変換行列を用いて前記第1の3次元復元点集合の点を3次元座標変換した結果と、前記第2の3次元復元点集合の点との一致性を評価する処理であることを特徴としている。
本発明に係る3次元位置合わせにおける第3の照合プログラムは、
コンピュータに、
相互に異なる2つの視点から対象物を撮像して得られた2枚の画像データから3次元復元点集合および特徴量集合を求める第1機能と、
前記対象物のモデルデータ集合およびモデル特徴量集合を求める第2機能と、
前記モデル特徴量集合を前記特徴量集合と照合することにより、前記3次元復元点集合の中から前記モデルデータ集合の点に対応する点を決定する第3機能とを実現させ、
前記3次元復元点集合が、対応する前記画像データ中の前記対象物の境界線を分割したセグメントの3次元位置座標を含み、
前記特徴量集合が、前記セグメントの頂点に関する3次元情報を含み、
前記第3機能が、
前記3次元復元点集合のセグメントに関して前記モデル特徴量集合との初期照合を行う第4機能と、
前記モデル特徴量集合の中から特徴点を選択する第5機能と、
選択された前記特徴点を内部に含む領域を調整領域として指定する第6機能と、
前記調整領域内に含まれる前記モデルデータ集合及び前記3次元復元点集合のセグメントに関して、照合の微調整を行う第7機能とから構成され、
前記コンピュータに、
前記調整領域を段階的に拡大する毎に前記第7機能を実現させ、
前記特徴点を選択する毎に前記第6及び第7機能を実現させる
ことを特徴としている。
本発明に係る3次元位置合わせにおける第4の照合プログラムは、上記の第3の照合プログラムにおいて、
前記セグメントが、直線、円弧、又は、直線及び円弧の組み合わせで近似され、
前記頂点に関する前記3次元情報が、前記頂点の3次元位置座標および2つの3次元接線ベクトルであり、
前記照合が、前記モデル特徴量集合の一部を、前記特徴量集合の一部に一致するように3次元座標変換する変換行列を求める処理であり、
前記3次元復元点集合の中から前記モデルデータ集合の点に対応する点を決定する処理が、前記変換行列を用いて前記モデルデータ集合の点を3次元座標変換した結果と、前記3次元復元点集合の点との一致性を評価する処理であることを特徴としている。
本発明によれば、初期照合後の微調整を行うときに、対象領域を段階的に大きくして照合する(伝播照合)ことによって、複数の部分的3次元データ群を1つの3次元データに統合する場合や、モデルベース物体認識技術などにおいて、ローカルミニマムなどに陥ることなく、精度よく3次元位置合わせが可能となる。
本発明を実施するための装置の概略構成を示すブロック図である。 本発明の実施の形態に係るに係る照合方法を示すフローチャートである。 調整領域の拡大を示す図である。 実施例の照合対象物を示す三面図である。 照合対象物を撮像した写真である。 特徴点セグメント対のみによる微調整時点での位置合わせ結果を示す図である。 従来の方法による照合結果を示す図である。 本発明による照合結果を示す図である。 照合の失敗を示す斜視図である。
以下、本発明に係る実施の形態を、添付した図面に基づいて説明する。
図1は、本発明を実施するための装置の概略構成を示すブロック図である。本装置は、コンピュータPC及び撮像部C1、C2から構成されている。コンピュータPCは、演算処理部(以下、CPUと記す)1と、データを記録する記録部2と、記憶部(以下、メモリと記す)3と、インタフェース部4と、操作部5と、表示部6と、これら各部の間でデータ(制御信号を含む)を交換するための内部バス7とを備えて構成されている。
CPU1は、記録部2から所定のプログラムをメモリ3に読み出し、メモリ3の一部をワークエリアとして使用して、所定のデータ処理を実行する。CPU1は、実行途中の演算結果や、処理完了後の最終結果を適宜記録部2に記録する。CPU1は、インタフェース部4を介して操作部5からの指示やデータの入力を受け、それらに応じた処理を実行する。また、CPU1は、適宜インタフェース部4を介して、所定の情報を表示部6に表示する。例えば、操作部5からの入力を受け付けるためのグラフィカルなユーザインタフェース画像を表示部6に表示する。CPU1は、人による操作部5の操作状況の情報を取得して、それに応じた処理を実行する。例えば、入力されたデータを記録部2に記録し、指示された処理を実行する。操作部5には、コンピュータ用のキーボードやマウスを使用することができ、表示部6には、CRTディスプレイ、液晶ディスプレイなどを使用することができる。
第1及び第2撮像部C1、C2は、所定の間隔で所定の位置に配置され、撮像の対象物Tを撮像し、撮像された画像データをコンピュータPCに伝送する。コンピュータPCでは、インタフェース部4を介して取得した各撮像部からの画像データを、区別可能に、例えば、各撮像部に対応させて異なるファイル名を付けて、記録部2に記録する。第1及び第2撮像部C1、C2からの出力信号がアナログ信号の場合、コンピュータPCは、AD(アナログデジタル)変換部(図示せず)を備えて、所定の時間間隔で入力されるアナログ信号をサンプリングしてデジタルデータに変換する。第1及び第2撮像部C1、C2からの出力信号がデジタルデータであれば、AD変換部は不要である。第1及び第2撮像部C1、C2は、少なくとも静止画像を撮像できる装置であればよく、ビデオ映像を撮像できる装置であってもよい。例えば、デジタルカメラ、デジタル又はアナログのビデオカメラなどを使用することができる。
以下、本発明の実施の形態について、図2に示したフローチャートに従って説明する。理解を容易にするために、以下では、2つの3次元復元画像の位置合わせを行う場合を説明する。即ち、2つの3次元復元画像が対象物Tの領域Tcを共通に含んでいる、即ち、
一方の3次元復元画像が、対象物Tの領域Taと領域Tcとで構成され、他方の3次元復元画像が、対象物Tの領域Tbと領域Tcとで構成されているとする。従って、この共通する領域Tcを基準として2つの3次元復元画像が統合される。3つ以上の3次元復元画像の
位置合わせを行う場合も同様に行うことができる。
また、以下においては、特に断らない場合、CPU1が行う処理、即ちCPU1が各部を制御して行う処理として記載する。また、第1及び第2撮像部C1、C2の内部及び外部パラメータは、予め校正実験によって求められ、記録部2に記録されているとする。
ステップS1において、初期設定を行う。初期設定は、ステップS2以降の処理を行うために必要な処理であり、例えば、第1及び第2撮像部C1、C2とのデータ伝送経路や制御プロトコルを確立し、第1及び第2撮像部C1、C2を制御可能とする。
ステップS2において、異なる2つの位置で第1及び第2撮像部C1、C2で対象物Tを撮像する。撮像された画像は、コンピュータPCに伝送され、所定のファイル名で記録部2に記録される。これによって、記録部2には、異なる2つの位置で撮像された2組の2枚の2次元画像データが記録される。ここでは、得られた2次元画像データをMijで表す。i、jはそれぞれ撮像位置を区別するため、第1及び第2撮像部C1、C2を区別するためのものである。
ステップS3において、ステップS2で撮像され記録部2に記録された2組の2次元画像データを読み出し、それぞれの3次元復元画像を生成する。即ち、2枚の画像M11、M12(以下ペア画像と記す)を読み出して3次元復元画像を生成し、別途2枚の画像M21、M22を読み出して3次元復元画像を生成する。ここでは、ステレオ対応による3次元復元像を求めるが、点単位(画素単位)ではなく、より大局的な「セグメント」単位で対応を求める。これによって、点単位で処理する場合よりも、探索空間をかなり狭くすることが可能である。具体的な方法は、上記非特許文献1に開示されている公知の方法を用いる。従って、以下には、本発明と直接関係する内容のみ説明する。
具体的には、ペア画像の各画像に対し(a)エッジ抽出、(b)セグメント生成、及び(c)各画像間でのセグメントの連結性と対応評価による3次元復元、の一連の処理を順次行う。以後、本ステップS3で得られたペア画像に関する3次元復元点集合をFiで表
す。iは、上記したように撮像位置を区別する添え字であり、ペアを区別する添え字でもある。
(a)エッジ抽出
各画像のエッジ抽出に関しては、公知の画像処理方法を用いて行えばよい。例えば、1次微分オペレータにより画像の各点についてエッジの強さと方向を求め、エッジの細線化、しきい値処理、延長処理により、ある領域を囲む閉じたエッジ(境界線とも記す)を得る。
(b)セグメント生成
上記の処理によって得られた2枚のエッジ画像を対象として、セグメントを生成する。セグメントとは、エッジを複数の線分(直線)に分割したものである。最初に境界線を所定の条件で仮に分割し、各セグメントを最小2乗法によって直線で近似した場合、誤差が大きいセグメントがあれば、そのセグメントの両端を結ぶ直線から最も離れた点(直線への垂線が最も大きいセグメント上の点)でセグメントを分割する。これを繰り返して、境界線を分割する点(分割点)を決定する。これによって、2枚の画像の各々に対してセグメントが生成され、セグメントを近似する直線が生成される。
処理結果は、境界線表現(構造データ)として記録部2に記録される。即ち、画像は複数の領域の集合によって表現される。具体的には、各領域Rは、その領域の外側の境界線Bと領域の内側の穴に対する境界線Hのリストによって表現され、各境界線B、Hはそれ
を構成するセグメントSのリストによって表現される。領域は、それを囲む外接長方形と明るさとをその値にもつ。セグメントは、それが属する領域を右側に見るように方向づけられており、始点及び終点の座標と、そのセグメントを近似する直線の方程式とをその値にもつ。以上の記述を2枚の画像に対して行う。以下の対応処理はこの記述されたデータ構造上で行われる。
(c)3次元復元
次に、2枚の画像で対応するセグメントを求める。同じ対象物を表すセグメントであるが、照明条件、オクルージョン、ノイズなどの影響によって、対応を決定するのは容易ではない。従って、まず、領域単位で粗く対応を求める。1対の領域が対応する必要条件として、領域の明るさの差が一定値(例えば256レベルの画像の場合、25レベル)以下であること、且つ、領域内にエピポーラ条件を満足する点が存在することを採用する。これは十分条件ではないので、1つの領域が多数の領域に対応する場合もある。つまり、この段階では、その境界線のセグメントが対応する可能性のある領域の対をすべて求めており、次にセグメント単位で対応を求める場合に、その探索空間を減らす役割を果たしており、一種の粗密解析となる。
粗対応する領域の境界線を構成するセグメント間で対応の候補を求め、その対応リストを作成する。一対のセグメントが対応の候補となる条件は、エピポーラ条件を満足する対応部分が存在し、セグメントの方向(それが属する領域を右側に見るように方向づけられている)が上向きか下向きかで一致しており、方向の角度の差が一定値(例えば45°)以内であることである。そして、対応の候補となるそれぞれのセグメント対に対して、その類似度を示す値C、Dを計算する。Cはプラスの要囚を表し、対応する2つのセグメントの短い方のセグメントの長さである。Dはマイナスの要因を表し、対応するセグメントの始点から終点までの視差のずれである。この段階で求められた対応の候補には、1つのセグメントが同じy軸(垂直方向)上で複数のセグメントに対応する多重対応も存在する。次に説明するように、セグメントの類似度とセグメントの接続関係から偽の対応を除去する。
次に、2枚の画像の各々について、セグメントの連結リストを作成する。2つのセグメントが連結する条件は、それぞれが属する領域の明るさの差が一定値(例えば25レベル)以下であり、一方のセグメントの終点と他方のセグメントの始点との距離が一定値(例えば3画素)以下であることである。連続するセグメントは、原則的に、その対応も連続していなければならない。そこで、この連結リストと対応リストとを利用して、各セグメントの前後から、連続して対応するセグメントの列であるパスを、次のようにして求める。
・対応する2つのパスの両者の端点が丁度対応している場合には、それぞれの端点から接続するセグメントで対応の候補となっているセグメント対が存在すればそれらをパスに追加する。
・一方の端点が他方の中間点と対応している場合には、1つのセグメントに接続するセグメントに関して、対応候補であるセグメントが存在すれば、それをパスに追加する。
また、直接的には連結していない場合でも、連続性を仮定できる場合がある。例えば、1つのセグメントに2つのセグメントが対応している場合には、2つのセグメントの両端間の距離が最大となる線分を、2つのセグメントの代わりのセグメントと仮定する。また、点Aで連続する2つのセグメントに、連続していない2つのセグメントが対応している場合がある。この場合には、連続していない2つのセグメントを延長して、点Aを通る水平線と交わる2つの交点の距離が小さければ、延長した2つの線分(一方の端点が交点)を2つのセグメントと仮定する。但し、不必要に多くの仮のセグメントを生成しないように、仮のセグメントと実セグメントとの類似度は、C>|D|の場合に限る。以下同様に
して、パスに追加するセグメントが無くなるまで、上記の処理を繰り返す。以上の処理の結果、仮のセグメントが新たに付け加えられることになる。
次に、パスを3次元空間上に逆射影した場合に、同一の平面を構成するセグメントをグループ化する。これは、正しいセグメントの対を得る拘束条件となるばかりでなく、出力形式として3次元の面領域の境界線を得る手続きでもある。セグメントが同一平面を構成するかどうかの検証には、次の平面拘束定理を利用する。
平面拘束定理: 標準カメラモデルにおいて、平面上の任意の図形に関して、一方のカメラ画像上の投影像と、他方のカメラ画像上の投影像とはアフィン変換可能である。
この定理は、透視投影により得られる画像上のセグメントであっても、同一平面上にあるセグメントの集合は、ステレオ画像間でアフィン変換可能であることを表す。これによりセグメントを直接的に3次元空間に逆射影することなく画像上で平面性を検証できる。この平面拘束定理を用いてセグメントをグループ化する過程は次のとおりである。
まず、対応するパスの対から任意の連続する2つの対応するセグメント対を取り出し、最小のグループ対を形成する。
次に、2枚の画像のそれぞれのセグメントに連続するセグメントを求め、求められた3つのセグメントの端点がすべて同一平面上にあると仮定して、最小2乗法によリ2組の連続するセグメント(各3つのセグメント)間のアフィン変換行列を求める。この3つのセグメントが得られた平面に存在するかどうかは、左右いずれかの端点をアフィン変換することにより得られた点が、他方の端点に一致するか否かで検証する。本明細書において、2つの点が一致するとは、2点間の距離が所定値以下であることを意味する。従って、それらの距離が所定値(例えば3画素)以下であれば、3つのセグメントは同一平面上にあると判断する。
上記で、3つのセグメントが同一平面上にあると判断された場合、再び左右それぞれのセグメントに連続するセグメントを求める。上記と同様に、4つの対応するセグメントについてアフィン変換行列を求め、対応する各端点が得られた変換行列を満たすか否かを検証する。更に、この平面拘束条件を満たす場合には、順次、連続するセグメントを加え、検証を繰り返す。
以上の処理の結果、平面を構成するセグメントのグループ対が得られる。しかし、1つのセグメント対(平面を構成する連続する複数のセグメント)に対して複数のグループ対が得られる場合もある。そこで、各グループ対に対してその形状の類似度を計算し、1つのセグメント対に対して最大の類似度を有する1つのグループ対を割り当てる。グループ対の類似度Gは、そのグループ対に含まれる各セグメント対の類似度C、Dの合計で与えられる。このとき、マイナス因子Dには、マイナス符号を付けて−Dとして加算する。多重対応の場合はいずれかの対応が誤りである。偽の対応となっているセグメント対は、対応する部分が少なく(Cが小さくなる)、始点と終点の間で視差が大きく(|D|は大きくなる)、また連続するセグメントも少ないので、その対を含むグループ対の類似度Gの値は小さくなる。そこで、類似度Gが最大となるグループ対を順に選び、他の対応は除去する。これによって、2枚の画像間で対応するセグメント対を特定することができる。
以上の処理の結果、2枚の画像で対応するセグメント対の視差から3次元空間上のセグメントの座標を求めることができる。視差は、セグメントの関数表現を用いて計算することができるのでサブピクセルの精度で得られ、セグメント上の視差はばらつきもない。例えば、2枚の画像間で対応する2つのセグメントjの方程式を、x=fj(y)、x=gj(
y)とすると、2つのセグメント間の視差dは、d=fj(y)−gj(y)で計算される。実
際には、3次元セグメントは3次元の直線の方程式で表現される。
得られた対応セグメントの情報と視差dとを用い、2つのカメラ(撮像部)の配置を考慮して、3次元復元点集合Fiを求める。対応する画像上の2点と、それらの視差から、
3次元座標を計算する方法は、2台のカメラの光軸が、平行に配置される場合、輻輳角を有して配置される場合の何れにおいても、公知であるので詳細説明を省略する。
以上で得られた結果は、所定のデータ構造で記録部2に記録される。そのデータ構造は、3次元の面を表すグループG*の集合からなり、各グループG*は、その面の境界線を構成する3次元セグメントS*のリストの情報で構成されている。各グループG*は、その面の法線方向を有し、各セグメントは、始点および終点の3次元座標と、直線の方程式とを有する。
ステップS4において、ペア画像データについて特徴量の計算を行う。ここでは、2つの3次元復元画像の位置合わせ(モデル照合の場合も同様)に必要な特徴量である「頂点」の集合を求める。ここで、頂点とは、空間的に隣接する3次元セグメントに当てはめられた直線によって決まる2つのベクトルから成る、いわば仮想直線交点のことである。即ち、3次元復元点集合Fiに関して、隣り合う2つのセグメントに当てはめられた直線の
端点における接線(ここではセグメントを直線で近似しているので、その直線と同じ)を用いて、近傍の2接線の交点を求める。得られた交点を頂点とする。頂点の集合をViで
表す。また、接線ベクトル間の角度(以後、挟角と呼ぶ)を求める。
即ち、具体的な特徴量は、頂点の3次元位置座標、頂点における挟角、及び2法線ベクトル成分である。特徴量を求める具体的な方法には、上記非特許文献2に開示されている公知の方法を用いればよい。
ステップS5において、2つの3次元復元画像データの初期照合を行う。即ち、上記で得られた頂点集合Vi(i=1、2)に対して、その挟角値が近い頂点の組み合わせ(候
補番号jで表す)に対する4×4(4行4列)の座標変換行列Tjを全て求めて解の候補
群Ca(Ca=ΣCj)とする。
具体的な方法は、上記非特許文献2に開示されている公知の方法を用いる。従って、ここでは、直接関係する内容のみ説明する。
3次元座標ベクトルa=[x y z]tから3次元座標ベクトルa’=[x’ y’ z’]tへの変換は(添字tは転置を表す)、3×3の3次元座標の回転行列Rと3×1の平行移動ベクトルtとを用いて、x’=Rx+tで表される。従って、対象物Tを異なる位置で撮像して得られた2つの3次元復元画像中の対象物Tの相互の位置姿勢関係は、一方の3次元復元画像データ中の3次元構造を他方の3次元復元画像データ中の対応する3次元構造に一致するように移動させる4×4座標変換行列Tで記述できる。
上記したように初期照合は、2つの頂点集合V1、V2を照合し、変換行列Tを算出する
処理である。但し、2つの頂点集合V1、V2との間で、頂点の正しい対応を前もって知ることはできないので、可能性が高いと推定される全ての組み合わせを対応候補とする。
頂点集合V1中の頂点VMを、頂点集合V2中の頂点VDに一致するよう移動させることを考える。頂点VM及びVDの3次元位置座標の関係から行列Tの平行移動ベクトルtが決まる。各頂点を構成している2つの3次元ベクトルの方向から回転移動行列Rが決まる。頂点を構成する2つのベクトルのなす角θが大きく異なる組み合わせについては、正しい対応である可能性が低いと考えられるので、候補から除外する。すなわち、VM(i)(i=
1,・・・,m)とVD(j)(j=1,・・・,n)について、|θM(i)−θD(j)|<
θthを満足する全ての組み合わせA(i,j)を対応の候補として、前述の座標変換行列Tjに対応する行列Tij(0)(括弧内の0は、後述する微調整前の状態を意味する)を算出
する。ここで、m、nはそれぞれ、2つの頂点集合V1、V2中に存在する頂点数である。しきい値θthは、例えば経験的に決定すればよい。
次に、ステップS6〜S10を繰り返し実行し、微調整を行う。
ステップS6において、一方の3次元復元画像データに関して1つ特徴点を指定する。ここでは、上記で求めた頂点集合V1中の1つの頂点を指定するとする。
ステップS7において、微調整を行う領域を指定する。例えば、半径r0を指定し、ス
テップS6で指定された特徴点(頂点)を中心とする半径r0の球形領域を微調整領域と
する。例えば、図3において、明るさの異なる複数の円のうち、最も小さい円で表された領域(球形領域)を微調整領域とする。図3の2つの直方体は、2つの3次元復元画像中に含まれる対象物Tの共通領域Tcを模式的に示している(異なる領域Ta、Tbは省略)
。図3は、図9と同様に初期照合の結果が間違っている状況を示している。
ステップS8において、ステップS8で指定された微調整領域内の点を対象として微調整を実行する。微調整は、2つの3次元復元点集合F1、F2間で点を照合する処理であり、A(i,j)の妥当性を判別すると同時に、行列Tij(0)に含まれる誤差を小さくする。頂点集合V1、V2に関する初期照合によって求めた座標変換行列Tij(0)によって移動させ、例えば頂点集合V1の頂点に対応する画像データ点(3次元復元点集合F2中の点)を探索し、最小2乗法により座標変換行列を更新するという処理を繰り返す。具体的な処理は公知の方法を用いる(例えば、上記非特許文献2の「3.2微調整」の項参照)。
具体的には、次のサブステップ1〜7を行う。
サブステップ1: 対応点探索のための空間として、データ点列の2次元座標をプロットした画像を用意する。
サブステップ2: P(k)をTij(0)によってP’(k)に移動させる。
P(k)の3次元座標P(k)と、その法線方向単位ベクトルN(k)は、それぞれ、
P’(k)=Rij(0)P(k)+tij(0)
N’(k)=Rij(0)N(k)
に移動する。ここで、P(k)、N(k)は3×1ベクトルである。
サブステップ3: P’(k)のうち、
cos-1(S’t(k)・N’t(k)/|S’(k)|)>π/2
を満足するものをP(n)(n=1,・・・,p’;p’≦p)とする。ここで、S’(k)は、P’(k)に対応する観測方向ベクトルであり、Cをステレオカメラシステムの観測位置を表す3×1ベクトルとすると、
S’(k)=P’(k)+tij(0)−C
である。即ち、P(n)はTij(0)によって一方の3次元復元画像データの頂点を移動した後に、他方の3次元復元画像中に観測可能な頂点を表している。
サブステップ4: P(n)の3次元座標P(n)を画像座標[coln,rown]に投影し、観測可能な頂点に対応する、他方の3次元復元画像中のデータ点を探索する。P(n)の法線と垂直方向に画像上をトレースし、一定の距離範囲内にデータ点D(l)(l=1,・・・,q)が存在すれば、それをP(n)の対応点とする。ここでは、qはデータ点数である。
サブステップ5: P(n)とD(l)の組み合わせβ(n,l)について、P(n)を、D(
l)の3次元座標D(l)に一致するように移動させる最適な変換行列T’ijを、
J=Σβ|R’ijP(n)+tij’−D(l)|2
を最小にする最小2乗法によって算出する。Σβはβ(n,l)に関する和を意味する。
サブステップ6: サブステップ4における対応点探索の平均2乗誤差、即ち、
ε2=Σβ{(coln−coll2+(corn−rowl2}/r
がしきい値以下になるまで、
T(u)=T’T(u−1)
としてサブステップ2〜5の処理を繰り返す。ここでrは、β(n,l)の総数、すなわち、対応点探索によって見つけられた対応点の数であり、r≦pである。
観測可能な頂点数に対する対応点数の割合r/pが小さい、または、一定回数上記の処理を繰り返してもε2が収束しならば、対応候補A(i,j)は誤りとして破棄する。
サブステップ7: すべての対応候補A(i,j)について上記の処理を行い、rが最大で、対応の誤差、すなわち、
ε2=Σβ|(Rij(u)P(n)+tij(u)−D(l)|2/r
が最小であるTij(u)を認識結果として選ぶ。
なお、初期照合は、局所的な幾何特徴を用いた照合であるため、Tij(0)の算出に用いた頂点位置の近傍にある復元点を除き、対応点探索が有効であるほどの認識精度を得られないことがある。このため、微調整の処理は、次に示すように2段階に適用することが望ましい。
・初期微調整:初期照合に用いた頂点を構成するセグメント上の復元点のみを使って対応誤差を大まかに調整する。
・主微調整:全ての復元点を使って更に精度を向上させる。
ステップS9において、最大の微調整領域について微調整を完了したか否かを判断し、完了していなければステップS7に戻り、微調整範囲を広くする。例えば、半径r0を所
定値Δrだけ大きくし、r0+Δrにする。例えば、図3において、明るさの異なる複数
の円で示したように、最も小さい円で表される領域から段階的に大きい円で表される領域(球形領域)を微調整領域とする。このように、予め設定された最大の微調整領域について微調整が完了するまで、ステップS7〜ステップS9の処理を繰り返す。
最大の微調整領域について微調整が完了すれば、ステップS10において、頂点集合V1中の全特徴点について微調整が完了したか否かを判断する。完了していなければステッ
プS6に戻り、既に指定された特徴点以外の特徴点を指定する。このように、全特徴点について微調整が完了するまで、ステップS6〜S10の処理を繰り返す。
以上によって、従来、正確な位置姿勢計測に失敗していた条件下でも、誤った相互関係
でICPによる微調整が行われることなく、最終的に正確な2つの3次元復元画像データの統合が可能となる。
以上、実施の形態を用いて本発明を説明したが、本発明は上記の実施の形態に限定されず、種々に変更して実施することができる。
例えば、上記では特徴点を指定して、微調整領域を段階的に拡大して処理した後、別の特徴点に関して同様に処理する場合を説明したが、特定の大きさの微調整領域を指定して各特徴点に関して処理を行った後、微調整領域を拡大して各特徴点に関して処理を行ってもよい。
また、上記では特徴点を中心とする半径で微調整領域を指定し、半径を段階的に所定値だけ大きくする場合を説明したが、これに限定されない。微調整領域を段階的に大きく指定できればよく、特徴点を内部に含む任意形状の立体として指定すればよい。領域の拡大方法も任意であり、例えば、相似形で拡大しても、異なる形状で拡大しても、一定の比率で拡大しても、異なる比率で拡大してもよい。各段階で微調整領域を特定する情報を、全て予め記録部に記録しておいてもよい。例えば、領域の拡大パラメータを、数値列として記録しておいてもよい。
また、上記では計測された3次元復元画像データを統合する場合の位置合わせについて説明したが、本発明は、モデルベース物体認識技術、すなわち3次元計測情報に対し、あらかじめ用意された3次元幾何モデルを照合し、そのモデルで表現される現実物体の位置姿勢を計測する場合にも、同様に適用可能である。この場合にはモデル側の幾何構造は事前に分かっているため、その頂点ごとに領域の拡大パラメータを数値列として記録しておいてもよい。また、2次元画像の統合処理にも適用可能である。さらには、時間軸を考慮した4次元画像に関しても適用可能である。なお、微調整領域の次元は、処理対象データの次元に応じて適切に定めればよい。
また、上記では、セグメントを直線で近似する場合を説明したが、セグメントを直線または円弧で近似してもよい。その場合、頂点に加えて、円弧(例えば、円弧の半径、円弧の中心から両端点への方向ベクトルと法線ベクトルなど)を特徴量とすることができる。また、セグメントを、直線と円弧の組み合わせ(複数の円弧のみの組み合わせを含む)で近似してもよい。その場合、頂点に加えて、セグメントの両端に当てはめられた円弧のみを、そのセグメントの特徴としてもよい。
セグメントが円弧で近似されている場合(直線と円弧の組み合わせで近似されている場合を含む)、ステップS4における頂点の算出には、円弧の両端における接線を使用する。円弧の接線は、円弧の中心から両端点への方向ベクトルから求めることができる。また、ステップS5において、頂点に関する処理と同様に、モデルと撮像画像データの円弧の組み合わせについても対応候補を求める。円弧の両端点の3次元座標によって平行移動ベクトルtを決定することができ、円弧の中心から両端点への方向ベクトルと法線ベクトルによって回転行列Rを決定することができる。また、半径が大きく異なる円弧の組み合わせについては候補から除外するのが望ましい。頂点と円弧それぞれによって算出された対応候補を合わせたA(i,j)およびTij(0)が、最終的な初期照合の結果とする。
また、上記では、コンピュータを用い、ソフトウェアプログラムによって実施する場合を説明したが、これに限定されない。上記の機能を、複数の機能に分割し、その一部または全てを1つまたは複数のハードウェア(例えば、専用の半導体チップ(ASIC)及びその周辺回路)によって実現してもよい。例えば、複数のハードウェアで構成する場合、各ペア画像データを用いたステレオ対応による3次元復元像および照合に必要な特徴量を
求める3次元復元計算部と、2つの3次元復元画像データの特徴量の類似性から対応する点を照合する照合調整部とで構成してもよい。
以下に実施例を示し、本発明の有効性をより明らかにする。
2台のカメラを用いて、特定の対象物を撮像し、得られた画像データとモデルデータとの照合を、図2に示したフローチャートに従って行った。ここでは、2つの3次元復元画像データの一方をモデルデータとして処理を行ったが、2つの3次元復元画像データを対象とする場合と同様の処理である。
対象物(実物およびモデル)として、図4の三面図に示すように直方体の胴体中央付近にくびれ部のある形状を使用した。
図4の対象物を2つのカメラで撮像して、図5に示す左右2枚の画像データを得た。そして、図5の画像データを用いて、図2のステップS3〜S5の処理を実施した。
図6は、頂点を形成するセグメント対のみ(画像上部)で照合を行う初期微調整後、つまり本発明の照合(伝播照合)過程に進入前の段階での位置合わせ結果を示す。点線は対象物のデータを表し、実線は画像から得られたエッジを表す。伝播照合の有無に関わらずこの状態を通過することになるが、図6から分かるように計測データの精度不足(不適正な露光時間/ピント、カメラ校正の不良、撮像素子の持つ画像ノイズ等が原因として考えられる)で不正確な位置合わせ状態となっている。
図7は従来の方法による位置合わせ過程の最終結果であるが、画像下側領域でモデル底面とデータ上面とで照合が進み、正しい位置合わせが行われなかったことが分かる。
図8は伝播照合を組み込んだ本発明による位置合わせ過程の最終結果であるが、本発明による手法により正しい位置合わせが行われたことが分かる。
以上のように、従来の方法では、初期照合結果が間違っていた場合、その後に全データを用いたICPアルゴリズム等による微調整を行っても正解には収束しないのに対して、本発明によれば、初期照合結果が間違っていた場合でも、正解に収束させることができる。従来の方法で正解に収束しない問題は、対象物の大きさや形状によらず、セグメントが小さい場合に発生し易い。従って、本発明は、対象物の大きさや形状によらず、セグメントが小さい場合に特に有効である。
1 演算処理部(CPU)
2 記録部
3 記憶部(メモリ)
4 インタフェース部
5 操作部
6 表示部
7 内部バス
PC コンピュータ
C1 第1撮像部
C2 第2撮像部
T 撮像対象物

Claims (8)

  1. 相互に異なる2つの視点から対象物を撮像して得られた2枚の画像データから第1の3次元復元点集合および第1特徴量集合を求める第1ステップと、
    前記視点と異なり、相互に異なる2つの視点から前記対象物を撮像して得られた2枚の画像データから第2の3次元復元点集合および第2特徴量集合を求める第2ステップと、
    前記第1特徴量集合を前記第2特徴量集合と照合することにより、第2の3次元復元点集合の中から前記第1の3次元復元点集合の点に対応する点を決定する第3ステップとを含み、
    前記第1及び第2の3次元復元点集合が、対応する前記画像データ中の前記対象物の境界線を分割したセグメントの3次元位置座標を含み、
    前記第1及び第2特徴量集合が、前記セグメントの頂点に関する3次元情報を含み、
    前記第3ステップが、
    前記第1及び第2の3次元復元点集合のセグメントに関して初期照合を行う第4ステップと、
    前記第1特徴量集合の中から特徴点を選択する第5ステップと、
    選択された前記特徴点を内部に含む領域を調整領域として指定する第6ステップと、
    前記調整領域に含まれる前記第1及び第2の3次元復元点集合のセグメントに関して、照合の微調整を行う第7ステップとから構成され、
    前記調整領域を段階的に拡大する毎に前記第7ステップを実行し、
    前記特徴点を選択する毎に前記第6及び第7ステップを実行する
    ことを特徴とする3次元位置合わせにおける照合方法。
  2. 前記セグメントが、直線、円弧、又は、直線及び円弧の組み合わせで近似され、
    前記頂点に関する前記3次元情報が、前記頂点の3次元位置座標および2つの3次元接線ベクトルであり、
    前記照合が、前記第1特徴量集合の一部を、前記第2特徴量集合の一部に一致するように3次元座標変換する変換行列を求める処理であり、
    前記第2の3次元復元点集合の中から前記第1の3次元復元点集合の点に対応する点を決定する処理が、前記変換行列を用いて前記第1の3次元復元点集合の点を3次元座標変換した結果と、前記第2の3次元復元点集合の点との一致性を評価する処理であることを特徴とする請求項1に記載の照合方法。
  3. 相互に異なる2つの視点から対象物を撮像して得られた2枚の画像データから3次元復元点集合および特徴量集合を求める第1ステップと、
    前記対象物のモデルデータ集合およびモデル特徴量集合を求める第2ステップと、
    前記モデル特徴量集合を前記特徴量集合と照合することにより、前記3次元復元点集合の中から前記モデルデータ集合の点に対応する点を決定する第3ステップとを含み、
    前記3次元復元点集合が、対応する前記画像データ中の前記対象物の境界線を分割したセグメントの3次元位置座標を含み、
    前記特徴量集合が、前記セグメントの頂点に関する3次元情報を含み、
    前記第3ステップが、
    前記3次元復元点集合のセグメントに関して前記モデル特徴量集合との初期照合を行う第4ステップと、
    前記モデル特徴量集合の中から特徴点を選択する第5ステップと、
    選択された前記特徴点を内部に含む領域を調整領域として指定する第6ステップと、
    前記調整領域に含まれる前記モデルデータ集合及び前記3次元復元点集合のセグメントに関して、照合の微調整を行う第7ステップとから構成され、
    前記調整領域を段階的に拡大する毎に前記第7ステップを実行し、
    前記特徴点を選択する毎に前記第6及び第7ステップを実行する
    ことを特徴とする3次元位置合わせにおける照合方法。
  4. 前記セグメントが、直線、円弧、又は、直線及び円弧の組み合わせで近似され、
    前記頂点に関する前記3次元情報が、前記頂点の3次元位置座標および2つの3次元接線ベクトルであり、
    前記照合が、前記モデル特徴量集合の一部を、前記特徴量集合の一部に一致するように3次元座標変換する変換行列を求める処理であり、
    前記3次元復元点集合の中から前記モデルデータ集合の点に対応する点を決定する処理が、前記変換行列を用いて前記モデルデータ集合の点を3次元座標変換した結果と、前記3次元復元点集合の点との一致性を評価する処理であることを特徴とする請求項3に記載の照合方法。
  5. コンピュータに、
    相互に異なる2つの視点から対象物を撮像して得られた2枚の画像データから第1の3次元復元点集合および第1特徴量集合を求める第1機能と、
    前記視点と異なり、相互に異なる2つの視点から前記対象物を撮像して得られた2枚の画像データから第2の3次元復元点集合および第2特徴量集合を求める第2機能と、
    前記第1特徴量集合を前記第2特徴量集合と照合することにより、第2の3次元復元点集合の中から前記第1の3次元復元点集合の点に対応する点を決定する第3機能とを実現させ、
    前記第1及び第2の3次元復元点集合が、対応する前記画像データ中の前記対象物の境界線を分割したセグメントの3次元位置座標を含み、
    前記第1及び第2特徴量集合が、前記セグメントの頂点に関する3次元情報を含み、
    前記第3機能が、
    前記第1及び第2の3次元復元点集合のセグメントに関して初期照合を行う第4機能と、
    前記第1特徴量集合の中から特徴点を選択する第5機能と、
    選択された前記特徴点を内部に含む領域を調整領域として指定する第6機能と、
    前記調整領域に含まれる前記第1及び第2の3次元復元点集合のセグメントに関して、照合の微調整を行う第7機能とから構成され、
    前記コンピュータに、
    前記調整領域を段階的に拡大する毎に前記第7機能を実現させ、
    前記特徴点を選択する毎に前記第6及び第7機能を実行させる
    ことを特徴とする3次元位置合わせにおける照合プログラム。
  6. 前記セグメントが、直線、円弧、又は、直線及び円弧の組み合わせで近似され、
    前記頂点に関する前記3次元情報が、前記頂点の3次元位置座標および2つの3次元接線ベクトルであり、
    前記照合が、前記第1特徴量集合の一部を、前記第2特徴量集合の一部に一致するように3次元座標変換する変換行列を求める処理であり、
    前記第2の3次元復元点集合の中から前記第1の3次元復元点集合の点に対応する点を決定する処理が、前記変換行列を用いて前記第1の3次元復元点集合の点を3次元座標変換した結果と、前記第2の3次元復元点集合の点との一致性を評価する処理であることを特徴とする請求項5に記載の照合プログラム。
  7. コンピュータに、
    相互に異なる2つの視点から対象物を撮像して得られた2枚の画像データから3次元復元点集合および特徴量集合を求める第1機能と、
    前記対象物のモデルデータ集合およびモデル特徴量集合を求める第2機能と、
    前記モデル特徴量集合を前記特徴量集合と照合することにより、前記3次元復元点集合
    の中から前記モデルデータ集合の点に対応する点を決定する第3機能とを実現させ、
    前記3次元復元点集合が、対応する前記画像データ中の前記対象物の境界線を分割したセグメントの3次元位置座標を含み、
    前記特徴量集合が、前記セグメントの頂点に関する3次元情報を含み、
    前記第3機能が、
    前記3次元復元点集合のセグメントに関して前記モデル特徴量集合との初期照合を行う第4機能と、
    前記モデル特徴量集合の中から特徴点を選択する第5機能と、
    選択された前記特徴点を内部に含む領域を調整領域として指定する第6機能と、
    前記調整領域内に含まれる前記モデルデータ集合及び前記3次元復元点集合のセグメントに関して、照合の微調整を行う第7機能とから構成され、
    前記コンピュータに、
    前記調整領域を段階的に拡大する毎に前記第7機能を実現させ、
    前記特徴点を選択する毎に前記第6及び第7機能を実現させる
    ことを特徴とする3次元位置合わせにおける照合プログラム。
  8. 前記セグメントが、直線、円弧、又は、直線及び円弧の組み合わせで近似され、
    前記頂点に関する前記3次元情報が、前記頂点の3次元位置座標および2つの3次元接線ベクトルであり、
    前記照合が、前記モデル特徴量集合の一部を、前記特徴量集合の一部に一致するように3次元座標変換する変換行列を求める処理であり、
    前記3次元復元点集合の中から前記モデルデータ集合の点に対応する点を決定する処理が、前記変換行列を用いて前記モデルデータ集合の点を3次元座標変換した結果と、前記3次元復元点集合の点との一致性を評価する処理であることを特徴とする請求項7に記載の照合プログラム。
JP2010067445A 2010-03-24 2010-03-24 3次元位置合わせにおける照合方法およびそのプログラム Pending JP2011198330A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010067445A JP2011198330A (ja) 2010-03-24 2010-03-24 3次元位置合わせにおける照合方法およびそのプログラム
US13/053,819 US20110235898A1 (en) 2010-03-24 2011-03-22 Matching process in three-dimensional registration and computer-readable storage medium storing a program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010067445A JP2011198330A (ja) 2010-03-24 2010-03-24 3次元位置合わせにおける照合方法およびそのプログラム

Publications (1)

Publication Number Publication Date
JP2011198330A true JP2011198330A (ja) 2011-10-06

Family

ID=44656548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010067445A Pending JP2011198330A (ja) 2010-03-24 2010-03-24 3次元位置合わせにおける照合方法およびそのプログラム

Country Status (2)

Country Link
US (1) US20110235898A1 (ja)
JP (1) JP2011198330A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160088226A (ko) * 2015-01-15 2016-07-25 삼성전자주식회사 3차원 영상 데이터의 정합 방법 및 장치
JP2021056017A (ja) * 2019-09-27 2021-04-08 沖電気工業株式会社 合成処理装置、合成処理システム及び合成処理方法
KR20220142410A (ko) * 2020-08-20 2022-10-21 이마고웍스 주식회사 치과용 3차원 데이터 위치 정렬 자동화 방법 및 이를 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106056599B (zh) * 2016-05-26 2019-04-30 四川大学 一种基于物体深度数据的物体识别算法及装置
US9870603B1 (en) * 2016-08-03 2018-01-16 Rockwell Collins, Inc. Image integrity monitor system and method
CN107657656B (zh) * 2017-08-31 2023-11-10 成都通甲优博科技有限责任公司 同名点匹配及三维重建方法、系统和光度立体摄像终端
CN108492329B (zh) * 2018-03-19 2022-04-12 北京航空航天大学 一种三维重建点云精度和完整度评价方法
US11051780B2 (en) * 2018-07-25 2021-07-06 Siemens Healthcare Gmbh Automatically generating synchronized view and level of concordance of diagnostic exams
CN112381862B (zh) * 2020-10-27 2022-10-14 新拓三维技术(深圳)有限公司 一种cad模型与三角网格全自动配准方法和装置
CN113470084B (zh) * 2021-05-18 2024-01-30 西安电子科技大学 一种基于外轮廓粗匹配的点集配准方法
CN113344984A (zh) * 2021-06-11 2021-09-03 四川九洲电器集团有限责任公司 一种三维模型配准方法、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935062A (ja) * 1995-07-19 1997-02-07 Agency Of Ind Science & Technol 画像処理方法
JPH09511430A (ja) * 1994-09-01 1997-11-18 マサチューセッツ インスティチュート オブ テクノロジー 三次元データ組の登録システムおよび登録方法
JPH10206135A (ja) * 1997-01-21 1998-08-07 Agency Of Ind Science & Technol 3次元物体位置姿勢決定方法
JP2010014541A (ja) * 2008-07-03 2010-01-21 Hokkaido Univ ユークリッド対称性認識システム、方法及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5531520A (en) * 1994-09-01 1996-07-02 Massachusetts Institute Of Technology System and method of registration of three-dimensional data sets including anatomical body data
US6975755B1 (en) * 1999-11-25 2005-12-13 Canon Kabushiki Kaisha Image processing method and apparatus
US6980690B1 (en) * 2000-01-20 2005-12-27 Canon Kabushiki Kaisha Image processing apparatus
GB0212748D0 (en) * 2002-05-31 2002-07-10 Qinetiq Ltd Feature mapping between data sets
US20080246759A1 (en) * 2005-02-23 2008-10-09 Craig Summers Automatic Scene Modeling for the 3D Camera and 3D Video
US8275194B2 (en) * 2008-02-15 2012-09-25 Microsoft Corporation Site modeling using image data fusion

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09511430A (ja) * 1994-09-01 1997-11-18 マサチューセッツ インスティチュート オブ テクノロジー 三次元データ組の登録システムおよび登録方法
JPH0935062A (ja) * 1995-07-19 1997-02-07 Agency Of Ind Science & Technol 画像処理方法
JPH10206135A (ja) * 1997-01-21 1998-08-07 Agency Of Ind Science & Technol 3次元物体位置姿勢決定方法
JP2010014541A (ja) * 2008-07-03 2010-01-21 Hokkaido Univ ユークリッド対称性認識システム、方法及びプログラム

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
CSNG199800170007; 角 保志、外3名: '"セグメントベーストステレオによる自由曲面体の認識"' 電子情報通信学会論文誌 Vol.J81-D-II, No.2, 19980225, p.285-292, 社団法人電子情報通信学会 *
CSNG200000542007; 石山 豊、外4名: '"セグメントベーストステレオにおける対応候補探索"' 映像情報メディア学会誌 Vol.52, No.5, 19980520, p.723-728, 社団法人映像情報メディア学会 *
CSNG200100742013; 石山 豊、外2名: '"ステレオビジョンによる三次元物体の三次元運動追跡"' 日本ロボット学会誌 Vol.18, No.2, 20000315, p.213-220, 社団法人日本ロボット学会 *
CSNG200700312010; 不破 洋平、外5名: '"観測シーンに依存しない3次元物体認識"' 電子情報通信学会技術研究報告 Vol.105, No.302, 20050915, p.71-76, 社団法人電子情報通信学会 *
JPN6013028574; 溝口 知広、金井 理: '"リバースエンジニアリングのためのユークリッド対称性認識に関する研究(第2報) -ICPとregion growingの' 2008年度精密工学会春季大会 学術講演会講演論文集 , 20080303, p.9-10, 社団法人精密工学会 *
JPN6013028576; 不破 洋平、外5名: '"観測シーンに依存しない3次元物体認識"' 電子情報通信学会技術研究報告 Vol.105, No.302, 20050915, p.71-76, 社団法人電子情報通信学会 *
JPN6013028578; 石山 豊、外2名: '"ステレオビジョンによる三次元物体の三次元運動追跡"' 日本ロボット学会誌 Vol.18, No.2, 20000315, p.213-220, 社団法人日本ロボット学会 *
JPN6013028580; 石山 豊、外4名: '"セグメントベーストステレオにおける対応候補探索"' 映像情報メディア学会誌 Vol.52, No.5, 19980520, p.723-728, 社団法人映像情報メディア学会 *
JPN6013028582; 角 保志、外3名: '"セグメントベーストステレオによる自由曲面体の認識"' 電子情報通信学会論文誌 Vol.J81-D-II, No.2, 19980225, p.285-292, 社団法人電子情報通信学会 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160088226A (ko) * 2015-01-15 2016-07-25 삼성전자주식회사 3차원 영상 데이터의 정합 방법 및 장치
KR102220099B1 (ko) * 2015-01-15 2021-02-26 삼성전자주식회사 3차원 영상 데이터의 정합 방법 및 장치
JP2021056017A (ja) * 2019-09-27 2021-04-08 沖電気工業株式会社 合成処理装置、合成処理システム及び合成処理方法
JP7306192B2 (ja) 2019-09-27 2023-07-11 沖電気工業株式会社 合成処理装置、合成処理システム及び合成処理方法
KR20220142410A (ko) * 2020-08-20 2022-10-21 이마고웍스 주식회사 치과용 3차원 데이터 위치 정렬 자동화 방법 및 이를 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체
KR102479109B1 (ko) 2020-08-20 2022-12-19 이마고웍스 주식회사 치과용 3차원 데이터 위치 정렬 자동화 방법 및 이를 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체

Also Published As

Publication number Publication date
US20110235898A1 (en) 2011-09-29

Similar Documents

Publication Publication Date Title
JP5713159B2 (ja) ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム
JP2011198330A (ja) 3次元位置合わせにおける照合方法およびそのプログラム
JP3735344B2 (ja) キャリブレーション装置、キャリブレーション方法、及びキャリブレーション用プログラム
JP6426968B2 (ja) 情報処理装置およびその方法
EP1596330B1 (en) Estimating position and orientation of markers in digital images
JP5430456B2 (ja) 幾何特徴抽出装置、幾何特徴抽出方法、及びプログラム、三次元計測装置、物体認識装置
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
WO2014024579A1 (ja) 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム
Orghidan et al. Camera calibration using two or three vanishing points
CN106447601B (zh) 一种基于投影-相似变换的无人机遥感影像拼接方法
JP2016128810A (ja) 奥行きカメラを校正する方法
Lei et al. A CNN-based 3D patch registration approach for integrating sequential models in support of progress monitoring
US20130058526A1 (en) Device for automated detection of feature for calibration and method thereof
EP3300025B1 (en) Image processing device and image processing method
TW201415010A (zh) 檢查裝置、檢查方法及檢查程式
US8606041B2 (en) Method of local tracing of connectivity and schematic representations produced therefrom
CN110567441A (zh) 基于粒子滤波的定位方法、定位装置、建图及定位的方法
JP6558803B2 (ja) 幾何検証装置及びプログラム
CN113763419B (zh) 一种目标跟踪方法、设备及计算机可读存储介质
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
KR101538014B1 (ko) 3d 모델링을 통해 사진 이미지로부터 입체영상을 생성하는 방법
JP2019211981A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
CN106600651A (zh) 一种成像系统的建模方法
JP4548228B2 (ja) 画像データ作成方法
KR20160049639A (ko) 부분 선형화 기반의 3차원 영상 정합 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140107