JP2008123019A - 3次元サーフェス生成方法 - Google Patents

3次元サーフェス生成方法 Download PDF

Info

Publication number
JP2008123019A
JP2008123019A JP2006302717A JP2006302717A JP2008123019A JP 2008123019 A JP2008123019 A JP 2008123019A JP 2006302717 A JP2006302717 A JP 2006302717A JP 2006302717 A JP2006302717 A JP 2006302717A JP 2008123019 A JP2008123019 A JP 2008123019A
Authority
JP
Japan
Prior art keywords
image
vertex depth
reference image
parameter
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006302717A
Other languages
English (en)
Other versions
JP4392507B2 (ja
Inventor
Masatoshi Okutomi
正敏 奥富
Shigeki Sugimoto
茂樹 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
Original Assignee
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Institute of Technology NUC filed Critical Tokyo Institute of Technology NUC
Priority to JP2006302717A priority Critical patent/JP4392507B2/ja
Priority to PCT/JP2007/072147 priority patent/WO2008056825A1/ja
Priority to US12/513,855 priority patent/US8406509B2/en
Publication of JP2008123019A publication Critical patent/JP2008123019A/ja
Application granted granted Critical
Publication of JP4392507B2 publication Critical patent/JP4392507B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

【課題】対象物体を撮影した複数の画像から物体表面の3次元サーフェスを直接かつ高速に生成できる3次元サーフェス生成方法を提供する。
【解決手段】 対象物体を異なる視点位置から撮影して得られた複数の画像のうち、1枚の画像を基準画像とし、残りの画像を参照画像とした上で、基準画像上に2次元三角メッシュを生成し、メッシュの全頂点奥行きパラメータとカメラパラメータとによって定まる平面射影変換によって参照画像を変形して得られた画像の画素値を要素とするベクトルと、基準画像の画素値を要素とするベクトルとの距離をコスト関数の1つの項とし、複数の画像とカメラパラメータと全頂点奥行きパラメータの初期値とを入力とする最適化手法を用いて、全頂点奥行きパラメータの微小変化量の計算と、全頂点奥行きパラメータの現在値の更新を、所定の条件まで繰り返し行うことによって、コスト関数の値が最小となる、全頂点奥行きパラメータを計算する。
【選択図】図6

Description

本発明は、対象物体を撮影した複数のステレオ画像から、対象物体の3次元サーフェスを生成する3次元サーフェス生成方法に関する。
伝統的なステレオ法では、基準画像上の特定画素に注目し、その画素の対応点を参照画像上に探索することにより奥行き推定を行う。このような方法によって得られる対象物体の3次元情報は、3次元空間中の点群であり、対象物体の密な表面形状(以下、単に、「3次元サーフェス」又は「サーフェス」とも呼ぶ。)を直接的に表現したものではない。
つまり、伝統的なステレオ法では、画像上における隣接する画素に対応する3次元空間中の点の関係づけがなされていないという問題が存在している。
また、ステレオ画像を用いて対象物体の3次元サーフェスを生成するための1つのアプローチは、ステレオ法で得られた奥行きデータを利用して、即ち、対象物体表面を3次元空間中の点の集合として求めた後に、その3次元空間中の点を、サーフェスモデルに当てはめる方法である(例えば、非特許文献1、非特許文献2、非特許文献3、非特許文献4を参照)。このような手法は、ステレオ法に限らず、レーザレンジファインダなどによって得られた3次元情報を活用する技術として、旧来から盛んに研究されてきた。
しかし、伝統的なステレオ法によって得られる3次元空間中の点の情報は、画像ノイズ等の影響を大きく受けて誤差を含んでいるため、このような誤差の大きい3次元情報から対象物体のサーフェスを生成する方法には、適切なサーフェスを生成できなかったり、複雑な計算を必要としたりするなどの、さまざまな問題がある。また、これらの手法のほとんどは、もとの3次元情報を補間および変更することに基づいているため、ステレオ画像の輝度情報を有効に活用していないとの問題もある。
ディー. アール. マリー(D.R. Murray)著,「パッチレツ: ア メソッド オフ インタープレッティング コリレイション ステレオ 3D データ(Patchlets: A method of interpreting correlation stereo 3D data)」,PhD スィーザス, デパートメント オフ コンピュータ サイエンス, ザ ユニバーシティー オフ ブリティシュ コロンビア, 2003年(PhD thesis, Department of Computer Science, The University of British Columbia, 2003) アイ. コヘン(I. Cohen)、エル. ディー. コヘン(L.D. Cohen)、エヌ. アヤチェ(N. Ayache)共著,「イントロジューイング ニュー デフォーマブル サーフェス トゥー セグメント 3D イメージ(Introducing new deformable surfaces to segment 3d images)」,IEEE コンピュータ ソサイアティ カンファレンス オン コンピュータ ビジョン アンド パターン レコグニション(IEEE Computer Society Conference on Computer Vision and Pattern Recognition),p.738-739,1991年 エー. ペントランド(A. Pentland)、エス. スクラロフ(S. Sclaroff)共著,「クローズドフォーム ソリューションズ フォー フィジカルリ ベースド シェイプ モデリング アンド レコグニション(Closed-form solutions for physically based shape modeling and recognition)」,IEEE トランスアクションズ オン パターン アナリシス アンド マシン インテリジェンス(IEEE Transactions on Pattern Analysis and Machine Intelligence),第13巻,p.715-729,1991年 アール. スゼリスキ(R. Szeliski)、ディー. トンネセン(D. Tonnesen)共著,「サーフェス モデリング ウィズ オリエンティド パーティクル システムズ(Surface modeling with oriented particle systems)」,コンピュータ グラフィックス(SIGGRAPH)(Computer Graphics(SIGGRAPH)),p.185-194,1992年 ピー. ジェー. ナラヤナン(P.J. Narayanan)、ピー. ダブリュ. ランデル(P.W. Rander)、ティー. カナデ(T. Kanade)共著,「コンストラクティング バーチャル ワールドズ ユジング デンス ステレオ(Constructing Virtual Worlds using Dense Stereo)」,IEEE インターナショナル カンファレンス オン コンピュータ ビジョン(IEEE International Conference on Computer Vision),p.3-10,1998年 ピー. ファ(P.Fua)著,「フロム マルチプル ステレオ ビューズ トゥー マルチプル 3D サーフェス(From multiple stereo views to multiple 3D surfaces)」,インターナショナル ジャーナル オフ コンピュータ ビジョン(International journal of Computer Vision),第24巻,第1号,p.19-35,1997年 オー. ディー. ファゲラス(O.D. Faugeras)、アール. ケリヴェン(R. Keriven)共著,「コンプリート デンス ステレオビジョン ユジング レベル セット メソッド(Complete Dense Stereovision Using Level Set Methods)」,ヨーロピアン カンファレンス オン コンピュータ ビジョン(European Conference on Computer Vision),第I巻,p.379-393,1998年 エス. ベイカ(S. Baker)、アイ. マシューズ(I. Matthews)共著,「ルーカス・カナデ 20 イヤーズ オン: ア ユニファイング フレームワーク(Lucas-kanade 20 years on: A unifying framework)」,インターナショナル ジャーナル オフ コンピュータ ビジョン(International journal of Computer Vision),第56巻,第3号,p.221-255,2004年 ビー. ディー. ルーカス(B.D. Lucas)、ティー. カナデ(T. Kanade)共著,「アン イテラティブ イメージ レジストレイション テクニック ウィズ アン アプローチ トゥー ステレオ ビジョン(An iterative image registration technique with an approach to stereo vision)」,イメージ アンダスタンディング ワークショップ(Image Understanding Workshop),p.121-130,1981年 オー. ファゲラス(O. Faugeras)、エフ. ラストマン(F. Lustman)共著,「モーション アンド ストラクチャ フロム モーション イン ア ピースワイズ プレーナ エンバイアロンメント(Motion and structure from motion in a piecewise planar environment)」,レポート ディ ルシェルシュ ディ l‘INRIA(Report de Recherche de l’INRIA),1988年
かかる問題を解決するために、ステレオ画像の輝度情報を利用して、対象物体の表面形状を直接的に生成するアプローチが提案されている。このような方法として、ステレオ画像からポリゴンメッシュを生成する手法(非特許文献5を参照)や、oriented particleを最適化する手法(非特許文献6を参照)などが挙げられる。
しかし、これらの手法は、彫像や人形などの静止物体の正確な3次元モデルを得ることを目的にしているため、一般に、数分程度の計算時間を必要とする。これは、ロボットや自動車などのナビゲーションを考えたときには大きな問題となる。例えば、移動するロボットでは、前方の坂の勾配や段差などの形状を速やかに得る必要があり、また、ロケットやヘリコプターの着陸時には、地上のサーフェスを速やかに取得する必要がある。
また、ステレオ画像から直接的に物体の3次元サーフェスを生成する方法として、レベルセット法と呼ばれる手法を用い、対象物体の3次元表面形状をステレオ画像から直接生成する手法がある(例えば、非特許文献7を参照)。この手法は、物体表面形状を関数によって表現して微分方程式を繰り返し計算によって解くアプローチである。しかし、この繰り返し計算は大きな計算量を必要とするため、短時間にて対象物体の3次元サーフェスを生成できないという問題がある。
本発明は、上述のような事情よりなされたものであり、本発明の目的は、このような高速な処理を目的とした効率的な3次元サーフェス生成方法、即ち、対象物体を撮影した複数のステレオ画像から、対象物体の3次元形状を点の情報として求めるのではなく、物体表面の3次元サーフェスを直接かつ高速に生成する、3次元サーフェス生成方法を提供することにある。
本発明は、既知の視点位置にある校正済みのカメラを用い、対象物体を異なる視点位置から撮影して得られた複数の画像から、前記対象物体の3次元サーフェスを直接に生成する、3次元サーフェス生成方法に関し、本発明の上記目的は、前記複数の画像のうち、1枚の画像を基準画像とし、残りの画像を参照画像とした上で、前記基準画像上に複数の三角形によって構成された2次元メッシュを生成する第1のステップと、前記2次元メッシュの全頂点の奥行きを表す全頂点奥行きパラメータと、カメラ視点位置を含むカメラパラメータとによって定まる各三角形の平面射影変換によって前記参照画像を変形して得られた画像の画素値を要素とするベクトルと、前記基準画像の画素値を要素とするベクトルとの距離をコスト関数の1つの項とし、前記複数の画像と、前記カメラパラメータと、前記全頂点奥行きパラメータの初期値とを入力とする最適化手法を用いて、前記全頂点奥行きパラメータの微小変化量の計算と、前記全頂点奥行きパラメータの現在値の更新を、所定の条件まで繰り返し行うことによって、前記コスト関数の値が最小となる、前記全頂点奥行きパラメータを計算する第2のステップとを有することにより、或いは、前記第2のステップをより短時間内で行うために、前記第2のステップでは、前記全頂点奥行きパラメータの現在値が定める平面射影変換と、前記全頂点奥行きパラメータの微小変化量が定める平面射影変換との合成によって真の平面射影変換を表現し、前記全頂点奥行きパラメータの微小変化量が定める平面射影変換の逆変換によって前記基準画像を変形して得られた画像の画素値を要素とするベクトルと、前記全頂点奥行きパラメータの現在値が定める平面射影変換によって前記参照画像を変形して得られた画像の画素値を要素とするベクトルとによって、前記距離と同等の距離を表現することによって、繰り返しごとに必要な情報を1度だけ計算することによって効果的に達成される。
また、本発明の上記目的は、前記複数の画像のうち、1枚の画像を基準画像とし、残りの画像を参照画像とした上で、前記基準画像上に複数の三角形によって構成された2次元メッシュを生成する、2次元メッシュ生成ステップと、前記2次元メッシュ生成ステップで生成された2次元メッシュの全頂点の奥行きを表す全頂点奥行きパラメータによって定まる各三角形の平面射影変換によって前記参照画像を変形して得られた画像の画素値と、前記基準画像の画素値との差が小さくなるように、前記全頂点奥行きパラメータを最適化手法によって推定する、全頂点奥行き推定ステップとを有することにより、或いは、前記全頂点奥行き推定ステップは、前記全頂点奥行きパラメータの微小変化量が定める平面射影変換と、前記全頂点奥行きパラメータの現在値が定める平面射影変換とに基づいて、真の平面射影変換が合成され、前記微小変化量が定める平面射影変換の逆変換によって前記基準画像を変形して得られた画像の画素値と、前記現在値が定める平面射影変換によって前記参照画像を変形して得られた画像の画素値の差が小さくなるように、前記微小変化量を計算することによって、繰り返しごとに必要な情報を1度だけ計算することによってより効果的に達成される。
更に、本発明の上記目的は、前記複数の画像のうち、1枚の画像を基準画像とし、残りの画像を参照画像とした上で、前記基準画像上に複数の三角パッチによって構成された2次元メッシュを生成するステップと、前記2次元メッシュの全頂点の奥行きを表す全頂点奥行きパラメータの初期値を定めるステップと、定めた全頂点奥行きパラメータの初期値と、カメラ視点位置を含むカメラパラメータと、前記複数の画像とに基づいて、前記2次元メッシュにおける全パッチについて加算したSSSDを最小にする、前記全頂点奥行きパラメータを求める最適化処理を行うステップとを有することにより、或いは、前記最適化処理では、前記基準画像、及び前記カメラパラメータを用いて、前記全頂点奥行きパラメータの微小変化量を求めるために利用される情報、即ち、繰り返し処理に必要な情報を一度だけ計算する、繰り返し処理用情報計算ステップと、前記全頂点奥行きパラメータの現在値と、前記カメラパラメータとによって定まる各三角パッチの平面射影変換によって前記参照画像を変形して得られた画像の画素値と、前記基準画像の画素値との差分を計算する、差分値計算処理ステップと、前記繰り返し処理用情報計算ステップで得られた必要な情報と、前記差分値計算処理ステップで得られた差分値と、前記カメラパラメータと、前記全頂点奥行きパラメータの現在値を入力として、前記全頂点奥行きパラメータの微小変化量を計算する、微小変化量計算処理ステップと、前記微小変化量計算処理ステップで得られた微小変化量と、前記全頂点奥行きパラメータの現在値とに基づいて、前記全頂点奥行きパラメータの現在値を更新する、現在値更新処理ステップとを有することにより、或いは、前記最適化処理では、前記差分値計算処理ステップ、前記微小変化量計算処理ステップ及び前記現在値更新処理ステップを、所定の収束条件を満たすまで繰り返し、繰り返し処理により、前記収束条件を満たしたときに得られた全頂点奥行きパラメータの現在値を全頂点奥行きパラメータとすることにより、前記3次元サーフェスを生成することによってより効果的に達成される。
本発明に係る3次元サーフェス生成方法は、対象物体を撮影した複数のステレオ画像から、対象物体の3次元形状を点の情報として求めるのではなく、物体表面の3次元サーフェスを直接かつ高速に生成する方法である。
本発明の3次元サーフェス生成方法では、既知の視点位置を持つ校正済みのステレオカメラで対象物体を撮影して得られたステレオ画像から、対象物体の3次元サーフェスを直接に生成するようにしているので、ステレオ画像上に隣接する画素の3次元情報は、同一の三角パッチ中にあれば同一平面上にあり、そうでなければ、それぞれが稜線(もしくは頂点)を共有する2つの平面上にあるものとして関連付けられるため、明白となる。
本発明によれば、複数のステレオ画像から対象物体の3次元サーフェスを短時間内に効率的に生成できるという優れた効果を奏する。
更に、本発明を適用してステレオ画像から対象物体の3次元サーフェスを直接に生成する際に、所定のパラメータの値を固定することにより高速化処理を行うことで、3次元サーフェス生成における更なる高速化を実現することができる。
従って、例えばロボットや自動車などのナビゲーションにおいても、地上のサーフェスを速やかに取得する必要があるロケットやヘリコプターの着陸時に、前方の坂の勾配や段差などの形状を速やかに得る必要がある移動するロボットに、問題なく本発明を適用することができる。
以下、本発明を実施するための最良の形態を、図面を参照して詳細に説明する。
本発明は、ステレオカメラで撮影された画像(ステレオ画像)を利用して、対象物体の表面形状を高速に推定できる、3次元サーフェス生成方法に関する。
つまり、本発明は、既知の視点位置を持つ校正済みのカメラを用いて、それぞれ異なる視点位置から対象物体を撮影した複数のステレオ画像から、物体表面の3次元サーフェスを直接かつ高速に生成できる、3次元サーフェス生成方法である。

<1>本発明の着眼点及び概説
図1に示すように、2台のステレオカメラで撮影された対象物体(以下、単に、「物体」とも言う。)の3次元表面形状は、複数の三角パッチで構成されるメッシュによって表現できる。
3次元空間中の各三角パッチは、2つの画像に投影されたとき、画像上に2次元の三角形を描き、3次元メッシュは画像上で2次元メッシュを描く。2枚のうちの一方の画像に投影されたメッシュの全頂点は、その画像を撮影したカメラの光学中心からの距離、即ち、「奥行き」を持つ。
したがって、全頂点の奥行きを推定することにより、物体の3次元サーフェスを生成することができる。
ここで、全頂点の奥行きを定める画像を「基準画像」と呼び、もう一方の画像を「参照画像」と呼ぶ。基準画像上の1つの三角パッチの領域内の座標は、その三角パッチの3頂点の奥行きと、既知のカメラ視点位置等の情報を含むカメラパラメータを用いて、参照画像の座標に変換することができる。この座標変換を「平面射影変換(homography)」と呼ぶ。
すなわち、その三角パッチの3頂点の奥行きが既知であれば、基準画像上のその三角パッチ内の画素値は、その画素の座標を平面射影変換した座標における参照画像上の画素値とほぼ一致すると想定できる。
よって、基準画像上のメッシュの全頂点の奥行きが既知であれば、全頂点の奥行きと、カメラパラメータとを用いて、基準画像上の全ての三角パッチの平面射影変換を計算することができる。
このとき、各三角パッチの平面射影変換によって基準画像上の全ての座標を変換した座標における参照画像の画素値を抽出し、基準画像の座標と同じ位置に挿入することによって参照画像を変形した画像を生成すると、その画像は基準画像とほぼ一致する。
そこで、全頂点の奥行きと、カメラパラメータとが定める各三角パッチの平面射影変換を用いて、参照画像を変形した画像の画素値と、基準画像の画素値との差が小さくなるように、全頂点の奥行きを計算する。このようにして、全頂点の奥行きを求めることにより、物体の3次元サーフェスが生成できる。
要するに、本発明では、基準画像を三角パッチによるメッシュ(ポリゴンメッシュ)に分割し、各三角パッチは3次元空間中で平面をなし、物体表面の形状をよく近似できていると仮定する。このとき、それぞれのパッチ領域では、ステレオ画像間において平面射影変換(homography)による座標変換が成立する。
校正済みのステレオカメラを利用することにより、その座標変換は、自由度3の平面パラメータを用いて表すことができ、さらに、その自由度は三角パッチの3頂点の奥行きに対応する。つまり、全パッチの頂点の奥行きを求めることにより、物体表面の3次元形状を得ることができる。
そこで、本発明では、頂点の奥行きを求める際に、基準画像上のパッチと、対応する参照画像上のパッチとのSSD(Sum of Squared Differences)を考え、全パッチについて加算したSSSD(Sum ofSSD)を最小にする奥行きを、Gauss-Newton法を用いて最適化する。
更に、本発明では、パッチに関するステレオ画像間のSSDを、ICIA(Inverse Compositional Image Alignment)を利用して表現することにより、繰り返しごとの計算コストを低く抑える。本発明では、パッチ頂点の画像上の位置を、基準画像上に固定するため、1つの頂点が持つ自由度は、1(奥行き)となる。

<2>平面パラメータの推定
<1>では、本発明の着眼点及び概説を簡潔に述べたが、ここからは、図面及び数式を参照しながら、本発明に係る3次元サーフェス生成方法を詳細に説明する。
ここで、まず、本発明において重要な意味をもつ「平面姿勢パラメータ(以下、単に、平面パラメータと言う)」の推定方法について述べる。
即ち、ここでは、3次元空間中にある1つの平面に注目し、その平面を一意に表す3自由度のパラメータ(平面パラメータ)を、ICIA(Inverse Compositional Image Alignment)(非特許文献8参照)の考え方を利用して高速に推定する方法について、詳細に述べる。
ここで述べる「平面パラメータ推定方法」は、後述する「<3>曲面の形状推定」にて述べる「頂点の奥行き推定」において重要な役割を果たす。

<2−1>ICIA(Inverse Compositional Image Alignment)
まず、ICIAのアルゴリズムについて概説する。
基準画像座標を
Figure 2008123019
、参照画像座標を
Figure 2008123019
とし、2つの座標間の変換(warp)を
Figure 2008123019
と表す。
ただし、
Figure 2008123019
は座標変換を表す。また、
Figure 2008123019
は「座標変換パラメータベクトル」(以下、単に、「変換パラメータ」とも呼ぶ。)を表し、座標間の変換が平行移動の場合に2次元のベクトルとなり、また、座標間の変換がアフィン変換および平面射影変換の場合に、それぞれ6次元および8次元のベクトルとなる。
基準画像をT、参照画像をIとすると、変換パラメータ
Figure 2008123019
は、下記数1で示す画像間のSSD(Sum of Squared Differences)を、最小にする値として得られる。
Figure 2008123019
ただし、
Figure 2008123019
は、基準画像における注目領域内の画素について加算することを表す。
数1を最小化することにより、変換パラメータ
Figure 2008123019
を得る方法は、Gauss-Newton法による最適化を利用したLucas-Kanade法(非特許文献9を参照)が広く知られている。
ICIA(非特許文献8を参照)とは、Lucas-Kanade法の改良版であり、Lucas-Kanade法の精度と安定性を損なうことなく、高速化を実現したアルゴリズムである。
いま、座標変換
Figure 2008123019
は、結合について閉じており、単位変換と逆変換を持つ(すなわち、変換群をなす)ものとする。
すると、座標変換
Figure 2008123019
は、下記数2のように結合変換で表すことができる。
Figure 2008123019
ただし、
Figure 2008123019
は、
Figure 2008123019
の現在値(初期値)であり、
Figure 2008123019
は、微小要素を持つベクトルである。また、
Figure 2008123019
は、単位写像を表すものとする。
ICIAでは、上記数2を利用し、下記数3を最小化する
Figure 2008123019
を求める。
Figure 2008123019
そして、
Figure 2008123019
の規則により、座標変換パラメータを更新する。この操作を、
Figure 2008123019
が収束するまで繰り返し、最終的な値を
Figure 2008123019
の推定値とする。
ICIAの高速性は、次のように説明することができる。
Lucas-Kanade法(非特許文献9を参照)では、数1に対し、
Figure 2008123019
付近でTaylor展開する。この場合、
Figure 2008123019
が繰り返し計算のたびに更新され、それに伴い
Figure 2008123019
が変化することから、
Figure 2008123019
における
Figure 2008123019
の値を繰り返しのたびに計算する必要がある。
これに対し、ICIAでは、数3において、
Figure 2008123019
付近でTaylor展開する。この場合、微分対象は基準画像Tであるため変化せず、また、
Figure 2008123019
の値は常に固定値
Figure 2008123019
において評価されることから、
Figure 2008123019
を再計算する必要がない。これにより、ヘッセ行列を固定化でき、Lucas-Kanade法よりも、はるかに高速な演算を実現できる。
このように、ICIAは、Lucas-Kanade法と比較して、繰り返し計算ごとの計算コストを大幅に削減できるため、近年では、画像レジストレーションのリアルタイム処理を実現するための強力な手段となっている。

<2−2>ICIAを利用した平面射影変換パラメータ推定
ここで、ICIAを利用して、8自由度の平面射影変換パラメータを推定する方法について述べる。
3次元空間中の平面を撮影した2枚の画像間では、下記数4のように、3×3の平面射影変換行列
Figure 2008123019
による座標変換が成立する。
Figure 2008123019
ただし、
Figure 2008123019
および
Figure 2008123019
は、それぞれ
Figure 2008123019
および
Figure 2008123019
の同次座標を表す。また、’〜’は同値関係を表している。
数4は、定数倍の不定性を持つため、3×3の平面射影変換行列
Figure 2008123019
の自由度は8であり、ここでは、一番右下の要素(即ち、第3行第3列要素)を固定したものとする。
また、数4は、
Figure 2008123019
の座標変換に対応している。
ただし、ベクトル
Figure 2008123019
は、
Figure 2008123019
の8個の未知数をラスタ順に並べたものとなる。
ICIAを用いた平面射影変換行列
Figure 2008123019
の推定(非特許文献8を参照)では、現在値(初期値)
Figure 2008123019
と微小要素を持つ行列
Figure 2008123019
を用いて、
Figure 2008123019
を下記数5のように表す。
Figure 2008123019
すなわち、
Figure 2008123019
および
Figure 2008123019
の2つの数式は、それぞれ、
Figure 2008123019
および
Figure 2008123019
による座標変換に対応する。
数3を最小化する
Figure 2008123019
は、
Figure 2008123019
をTaylor展開し、数3を
Figure 2008123019
で微分しゼロとおくことにより、下記数6のように書ける。
Figure 2008123019
ただし、下記数7が成立する。
Figure 2008123019
ここで、
Figure 2008123019
は、基準画像Tの勾配を示す1×2の列ベクトルであり、下記数8と表される。
Figure 2008123019
また、
Figure 2008123019
は、下記数9で示す2×8の行列である。
Figure 2008123019
ここで、eは、
Figure 2008123019
と表され、座標
Figure 2008123019
における基準画像Tの画素値と、
Figure 2008123019
に対応する参照画像I上の画素値との画素値の差を意味する。eは、全ての座標
Figure 2008123019
を用いて、参照画像Iを変形(warp)した画像
Figure 2008123019
を生成しておき、
Figure 2008123019
として求める方法が効率がよいため、一般的に利用される。
Figure 2008123019
および
Figure 2008123019
は、注目領域内の各画素ごとに異なる値を持つ。しかし、既に述べたように、その値は一度だけ計算すればよく、繰り返しのたびに再計算する必要はない。これに伴い、ヘッセ行列の逆行列
Figure 2008123019
も一度だけ計算すればよい。

<2−3>ICIAを利用した平面パラメータ推定
ここでは、前述したICIAの考え方を利用して、3自由度の平面パラメータを高速に推定する方法について説明する。
本発明の実施形態を説明する際にしては、煩雑さを避けるため、以後、画像座標
Figure 2008123019
は内部パラメータが正規化された座標(正規化画像座標)を示すものとする。
図2に示すように、3次元空間中の平面
Figure 2008123019
は、平面パラメータ
Figure 2008123019
を用いて、
Figure 2008123019
で表される。
ただし、
Figure 2008123019
は平面
Figure 2008123019
上の点の3次元座標を表し、基準カメラ座標系にて定義されるものとする。ここでは、
Figure 2008123019
を求めたいパラメータベクトルとする。
平面射影変換行列
Figure 2008123019
は、
Figure 2008123019
を用いて、
Figure 2008123019
と表すことができる(非特許文献10を参照)。ただし、
Figure 2008123019
は、カメラ間の回転行列および平行移動ベクトルを表し、それぞれ既知とする。
このとき、画像の座標変換は、
Figure 2008123019
をパラメータとして、
Figure 2008123019
と書ける。
ICIAを利用して
Figure 2008123019
を求めるには、現在値
Figure 2008123019
と微小変化量
Figure 2008123019
を用いて、座標変換を結合写像
Figure 2008123019
で表現し、下記数10を最小にする
Figure 2008123019
を求めればよい。
Figure 2008123019
結合写像を表現するために、
Figure 2008123019
を用いて、平面射影変換行列
Figure 2008123019
を下記数11のようにおく。
Figure 2008123019
数11を数5の形式に変形すると、
Figure 2008123019
および
Figure 2008123019
は、それぞれ下記数12、数13で表される。
Figure 2008123019
Figure 2008123019
このとき、数12および数13は、それぞれ
Figure 2008123019
および
Figure 2008123019
による座標変換に対応する。
数13は、
Figure 2008123019
の関数として記述したことを意味するため、数10を最小にする
Figure 2008123019
は、微分の連鎖法則を利用して、下記数14のように得られる。
Figure 2008123019
ただし、下記数15、数16及び数17が成立する。
Figure 2008123019
Figure 2008123019
Figure 2008123019
ここで、
Figure 2008123019
である。また、
Figure 2008123019
は、数6の場合と同様に、基準画像Tの勾配を示す1×2の列ベクトルである。そして、
Figure 2008123019
は、下記数18で示す2×9の行列である。
Figure 2008123019
数9と数18における
Figure 2008123019
のサイズが異なるのは、
Figure 2008123019
で表現された
Figure 2008123019
には不定性が存在しないためである。
また、
Figure 2008123019
にて評価した結果であり、行列
Figure 2008123019
は、下記数19で表される。
Figure 2008123019
ただし、下記数20、数21、及び数22が成立する。
Figure 2008123019
Figure 2008123019
Figure 2008123019
ここで、{r,r,…,r}は、
Figure 2008123019
の要素をラスタ順に並べたものであり、また、
Figure 2008123019
である。
κは画像座標
Figure 2008123019
に依存しないため、数14を改めて書き直すと、下記数23のようになる。
Figure 2008123019
ただし、下記数24、数25及び数26が成立する。
Figure 2008123019
Figure 2008123019
Figure 2008123019
<2−2>で述べた平面射影変換パラメータの推定と、ここにて述べた平面パラメータ推定との大きな相違点は、前者では、
Figure 2008123019
が変換群をなすのに対し、後者では、
Figure 2008123019
が変換群をなさないことにある。
そのため、数13が
Figure 2008123019
に依存してしまい、
Figure 2008123019
の値は繰り返し計算ごと変化する。しかし、その変化は、数23におけるスカラーκに集約されており、
Figure 2008123019
および
Figure 2008123019
は変化しないことを考慮すると、変換群でないことによって生じる繰り返しごとの計算コストの増加は、無視できるほど小さい。
これにより、ICIAを利用した平面パラメータ推定は、高速な演算にて実現できることが分かる。

<3>曲面の形状推定
<2−3>では、3次元空間中の1つの平面に注目し、その平面パラメータを高速に推定する方法について述べた。ここでは、<2−3>にて述べた方法を利用して、三角パッチで構成されたポリゴンメッシュ(三角メッシュ)の全頂点の奥行きを求める方法について述べる。

<3−1>三角メッシュによる表面形状モデル
まず、三角メッシュを用いた物体表面形状モデルについて述べる。
本発明では、基準画像を小さな三角形で分割してメッシュを生成する必要がある。
メッシュを生成する方法としては、例えば、画像全体を方形で分割した後に方形の対角線を結び三角形に再分割する方法や、画像上から特徴点を抽出した後に特徴点を母点としてドロネー分割する方法など、様々な方法が考えられる。
本発明では、画像領域全体(基準画像領域全体)が微小な三角形で分割されていれば、上記のメッシュ生成方法に限らず、どのような方法を用いてもよい。ここで、正三角形によって構成されたメッシュの例を図3に示す。
メッシュの頂点を
Figure 2008123019
と表し、
Figure 2008123019
は対象物体表面の3次元形状に対応した奥行きdを持つものとする。また、頂点によって構成される三角形をパッチと呼び、C(n=1,2,…,N)と表す。各パッチは3次元空間中において平面を構成するものとする。
すなわち、パッチによって構成されるメッシュはポリゴンメッシュであり、メッシュが十分細かければ、任意の3次元形状を精度よく近似できると考えられる。
本発明では、メッシュの細かさに関する検討は特に行わない。ただし、画像レジストレーション分野では広く知られているように、粗いメッシュ(即ち、大きなメッシュ)を利用した場合には、より推定が安定になると考えられるため、<3−3>にて述べる全頂点の奥行き推定では、最初は粗いメッシュを用いて奥行きを推定し、徐々にメッシュを細かくする粗密探索のアプローチが有効である。
また、画像のRMSEの値を利用して細かい起伏を持つ領域を推定し、その領域に対応するパッチのみを細かくするなど、再分割(subdivision)の考え方を利用したパッチの分割方法も有効であると考えられる。

<3−2>三角パッチの3頂点に対する奥行き推定
次に、<2−3>にて述べた平面パラメータ推定方法を利用して、1つの三角パッチの3頂点の奥行きを求める方法について述べる。
ある三角パッチの3頂点の画像上の座標を
Figure 2008123019
とし、それら頂点の奥行きをdとする。このとき、当該三角パッチの3頂点の3次元空間中の座標
Figure 2008123019
は、図4に示すように、
Figure 2008123019
と表すことができる。
3次元空間中の三角パッチの平面パラメータを
Figure 2008123019
とすると、ある三角パッチについて、平面パラメータ
Figure 2008123019
と3頂点の奥行きd(m=i,j,k)の関係は、下記数27で表される。
Figure 2008123019
ただし、下記数28及び数29が成立する。
Figure 2008123019
Figure 2008123019
これより、平面パラメータ
Figure 2008123019
と、奥行きパラメータγは比例関係にあり、その比例関係を決定する行列
Figure 2008123019
は、画像上の三角パッチの位置によって一意に定まる。
なお、「奥行き」と「奥行きパラメータ」の関係は、上記数29に示す通りである。つまり、γは、ある三角パッチの3頂点の奥行きパラメータを表し、d(m=i,j,k)はそれら頂点の奥行きを表す。
よって、数23に微分の連鎖法則を適用することにより、平面パラメータ
Figure 2008123019
の微小変化量
Figure 2008123019
の代わりに、奥行きパラメータγの微小変化量を求めることができる。
すなわち、γおよびγΔを、それぞれ奥行きパラメータγの現在値および微小変化量とし、γΔ=γ+γΔとすると、下記数30で表される式を最小化するγΔは、数23により、下記数31で得られる。
Figure 2008123019
Figure 2008123019
ただし、下記数32及び数33が成立する。
Figure 2008123019
Figure 2008123019
ここで、
Figure 2008123019
である。また、κは、数27により平面パラメータの現在値
Figure 2008123019
を求め、求めた
Figure 2008123019
を数24に代入することにより、得られる。そして、
Figure 2008123019
および
Figure 2008123019
は、数23と同じものである。
数23と同様に、数31においても、
Figure 2008123019
は繰り返し計算のたびに変化しない。
よって、平面パラメータ推定の場合とほぼ同等の計算コストで、奥行きパラメータγを推定することが可能となる。

<3−3>三角メッシュの全頂点の奥行き推定
ここで、三角メッシュの全頂点の奥行きを最適化する方法について説明する。
<3−2>では、1つの三角パッチに注目したときの基準画像と参照画像間のSSDを数30によって表し、そのSSDを最小にする3頂点の奥行きパラメータγを求めた。
ここでは、3自由度の平面パラメータと3頂点の奥行きの関係を利用して、<3−1>にて述べた三角メッシュにおける全パッチについてSSDを加算することによって得られるSSSD(Sum of SSD)を最小にすることにより、メッシュの全頂点の奥行きを求める。
<3−1>にて述べたように、三角メッシュにおけるパッチ数をN、頂点の数をMとする。また、全頂点の奥行きd,(m=1,2,…,M)の逆数を並べ、
Figure 2008123019
とする。
ここでは、
Figure 2008123019
を「三角メッシュにおける全頂点の奥行きパラメータ」とし、以下、単に、「全頂点奥行きパラメータ」とも称する。
また、
Figure 2008123019
および
Figure 2008123019
を、それぞれ全頂点奥行きパラメータ
Figure 2008123019
の現在値および微小変化量とし、
Figure 2008123019
とおく。
そして、下記数34に示すように、数30を三角メッシュにおける全パッチについて加算したSSSD(Sum ofSSD)を最小化する問題を考える。
Figure 2008123019
Figure 2008123019
をTaylor展開し、数34を
Figure 2008123019
で微分してゼロとおくことにより、数34を最小にする
Figure 2008123019
は、下記数35となる。
Figure 2008123019
ただし、下記数36及び数37が成立する。
Figure 2008123019
Figure 2008123019
ここで、κは数24に準じたものであるが、平面パラメータの現在値
Figure 2008123019
がパッチごと異なり、それに伴いκの値がパッチごと異なるため、添え字nを付与して表記している。
また、
Figure 2008123019
は数28に準じているが、その要素はパッチの画像上の座標
Figure 2008123019
に依存しており、パッチごと異なるため、κと同様に添え字nを付与した。
そして、表1に、数35の計算に必要な行列やベクトルを示している。
Figure 2008123019
数35により、全頂点奥行きパラメータの微小変化量
Figure 2008123019
を求める場合は、<2−3>で述べた単一平面のパラメータ推定や、<3−2>で述べた三角パッチの3頂点の奥行き推定とは異なり、数36の
Figure 2008123019
に関する計算を繰り返しのたびに行う必要がある。
ただし、
Figure 2008123019
の計算に注目すると、行列
Figure 2008123019
は、各パッチごと異なるものの、繰り返しごとに変化せず、さらに、この行列は実質的に3×3=9個の要素しか持っていないため、全パッチに関して加算しても計算量は比較的小さい。
また、
Figure 2008123019
の計算は、実質的に画素数に依存しており、単一平面のパラメータ推定や3頂点の奥行き推定を、同じ画素数に関して計算した場合とほぼ同じ計算量となる。
すなわち、数35の計算量全体を評価すると、同じ画素数を用いて単一平面のパラメータ推定をした場合と比較して、
Figure 2008123019
の逆行列計算の分だけ計算コストの増加と言える。
ただし、
Figure 2008123019
の行列サイズは、M×Mであり、三角メッシュにおいて頂点の数が多くなるほど、その計算量は大きくなる。本発明では、計算速度に関して、評価の高いCLapackライブラリを利用して逆行列計算を実装し、計算時間の短縮を実現している。
ここで、上述したように、三角メッシュにおける全頂点の奥行き推定を行うことにより、対象物体の表面形状を推定する、「曲面形状推定」、すなわち、「微小平面モデルを用いた曲面形状推定」のアルゴリズムの一例を図5に示す。
図5に例示されるアルゴリズムは、初期化処理と推定処理に分けられる。初期化処理では、推定処理にて利用する固定値(繰り返しごとに変化しない行列やベクトル)を計算している。また、推定処理では、数35の計算に必要な値を各パッチについて求め、
Figure 2008123019
の計算と
Figure 2008123019
の更新を収束するまで繰り返す。
なお、数34は、基準画像1枚と参照画像1枚を利用した場合、即ち2枚の画像を利用した場合のSSSDを示している。参照画像を2枚以上利用する場合は、即ち基準画像を含めて3枚以上の画像を利用する場合は、数34は、基準画像と参照画像のペアの数だけ存在する。そこで、数34を基準画像と参照画像のペアの数だけ加算することによって得られる新たなSSSDを利用して、全頂点の奥行きパラメータを推定する。

<3−4>高速化処理
<3−3>で述べた「三角メッシュの全頂点の奥行き推定方法」において、三角メッシュにおける頂点数が非常に大きい場合は、数35に必要な
Figure 2008123019
の逆行列を得るために、繰り返しごとに必要な計算時間が長くなり、つまり、計算コストが高くなることがある。
この逆行列の計算が必要となるのは、κが繰り返し計算ごとに異なることが原因である。そこで、計算時間をより短くする方法として、κを固定化する方法が考えられる。
数24から明らかなように、κの変化は、n番目のパッチの平面パラメータ
Figure 2008123019
が繰り返し計算ごとに変化することによって生じる。しかし、
Figure 2008123019
の繰り返しごとの変化は、非常に小さいため、κを固定しても、計算結果に大きな違いは生じない。
よって、特定の繰り返し回数の間は、全パッチにおけるκを固定化し、
Figure 2008123019
の再計算を行わずに計算時間を短くすることが可能である。例えば、1〜5回、6〜10回の繰り返しの間では、
Figure 2008123019
を固定し、1回目と6回目だけ
Figure 2008123019
とその逆行列を再計算する方法などが考えられる。
さらに、もし、n番目のパッチにおける平面パラメータ
Figure 2008123019
の現在値が、
Figure 2008123019
とほぼ直交している場合、もしくは、
Figure 2008123019
で表される平面と基準カメラ座標原点との距離が大きければ、数24により
Figure 2008123019
となることが分かる。
そこで、はじめからκ=−1,(n=1,2,…,N)として、対象物体の表面モデルを生成することも可能である。この場合、1度だけ
Figure 2008123019
を求めればよく、計算時間をさらに短縮することができる。

<3−5>本発明による3次元サーフェスを生成するための処理の流れ
図6に、本発明を適用して、対象物体を撮影した複数のステレオ画像から、対象物体の3次元サーフェスを生成するための基本的な処理の流れを示す。
なお、複数のステレオ画像のうち、一枚のみを基準画像とし、残りの画像を参照画像とする。また、ステレオ画像を撮影した多眼ステレオカメラについて、カメラのレンズ歪や焦点距離などの内部パラメータと、ステレオカメラ間の配置を示す外部パラメータとをあわせて、「カメラパラメータ」としている。
説明を簡単にするために、以下、2眼ステレオカメラを用いた場合について説明する。つまり、撮影したステレオ画像が2枚で、1枚は基準画像とし、もう1枚は参照画像とする。
図6に示されるように、この処理における入力は、複数のステレオ画像と、ステレオカメラのカメラパラメータである。
即ち、既知の視点位置にある校正済みの多眼ステレオカメラを用いて、対象物体を撮影して、ステレオ画像を取得すれば、本発明を適用して対象物体の3次元サーフェスを直接かつ高速に生成することができる。
処理の手順として、図6に示されるように、まず、所定の方法(<3−1>の記述を参照)により、基準画像上に2次元三角メッシュ(三角メッシュ)を生成する。
次に、生成された三角メッシュの全頂点に対して、奥行きパラメータの初期値(全頂点奥行きパラメータの初期値)を定める。
そして、定めた全頂点奥行きパラメータの初期値と、カメラパラメータと、基準画像及び参照画像で構成される複数のステレオ画像(2眼ステレオカメアを用いた場合に、一枚の基準画像と一枚の参照画像で構成する2枚のステレオ画像になる。)とを入力とし、基準画像上のパッチと対応する参照画像上のパッチとのSSDを考え、三角メッシュにおける全パッチについて加算したSSSDを最小にする、全頂点奥行きパラメータを求める最適化処理(全頂点奥行きパラメータ最適化処理)を行う。
即ち、全パッチについて加算したSSSDを最小にする、最適な全頂点奥行きパラメータは、全頂点奥行きパラメータの初期値とカメラパラメータとを入力とする最適化手法を用いて、求めることができる。最適化手法では、全頂点奥行きパラメータの微小変化量の計算と、全頂点奥行きパラメータの現在値の更新とを繰り返し行う必要がある。
最適化計算における微小変化量の計算は、コスト関数を微小変化量で表現した後に、コスト関数を微小変化量で微分してその結果をゼロとおくことにより、コスト関数の極値(極小値)となるパラメータを求める方程式をたてる。このとき、その方程式を解くために必要な情報は、繰り返しごとに求める必要があるため、一般に短時間で計算を行うことは困難である。
しかし、<3−4>高速化処理でも述べたように、全頂点奥行きパラメータの微小変化量の計算において、必要な情報を固定化することができれば、これらの情報は繰り返し毎に計算する必要はなくなり、一度だけ計算すればよいことになり、極めて短時間で計算することが可能となる。
全頂点の真の奥行きパラメータが定める平面射影変換は、全頂点奥行きパラメータの現在値が定める平面射影変換と、全頂点奥行きパラメータの微小変化量が定める平面射影変換の合成によって表すことができる。そして、全頂点奥行きパラメータの微小変化量が定める平面射影変換の逆変換によって基準画像を変形して得られた画像の画素値と、全頂点奥行きパラメータの現在値が定める平面射影変換によって参照画像を変形して得られた画像の画素値との差を用いて、コスト関数を表現すると、繰り返しごとに必要な多くの情報は固定化でき、一度だけ計算すればよいことになる。これにより、より短時間での計算を実現できる。
図7は、図6に示した最適化処理(全頂点奥行きパラメータ最適化処理)の基本フローである。
図7に示されるように、最適化処理(全頂点奥行きパラメータ最適化処理)では、まず、基準画像及び基準画像を撮影した基準カメラのカメラパラメータを用いて、全頂点奥行きパラメータの微小変化量を求めるために利用される情報、即ち、繰り返し計算に必要な情報を一度だけ計算する。
次に、全頂点奥行きパラメータの現在値と、カメラ視点位置を含むカメラパラメータとによって定まる各三角形(各三角パッチ)の平面射影変換によって参照画像を変形して得られた画像の画素値と、基準画像の画素値との差分を計算する。以下、この処理を「差分値計算処理」とも称する。
差分値が得られた後に、全頂点奥行きパラメータの微小変化量を計算する。つまり、図7に示されるように、繰り返し計算に必要な情報と、差分値と、カメラパラメータと、全頂点奥行きパラメータの現在値を入力として、全頂点奥行きパラメータの微小変化量を計算する。以下、この処理を「全頂点奥行きパラメータの微小変化量計算処理」とも称する。
そして、得られた全頂点奥行きパラメータの微小変化量と、全頂点奥行きパラメータの現在値とに基づいて、全頂点奥行きパラメータの現在値を更新する。以下、この処理を「全頂点奥行きパラメータの現在値更新処理」とも称する。
「最適化処理」では、「差分値計算処理」、「全頂点奥行きパラメータの微小変化量計算処理」及び「全頂点奥行きパラメータの現在値更新処理」を、所定の収束条件を満たすまで繰り返す。繰り返し処理(繰り返し計算)により、所定の収束条件を満たしたときに最終的に得られた全頂点奥行きパラメータの現在値を「全頂点奥行きパラメータ」とし、よって、三角メッシュにおける全頂点の奥行きが定められることになり、対象物体の3次元サーフェスを生成できる訳である。

<4>実験結果
以下では、本発明の有効性を確認するために行った実験結果を示す。まず、合成画像を利用して本発明を適用した様々なシミュレーション実験の結果について示し、次に、実画像を用いて本発明を適用した実画像実験の結果を示す。

<4−1>シミュレーション実験
シミュレーション実験(合成画像を用いた実験)では、512[pix]×512[pix]の画像を利用し、また、ステレオカメラの設定パラメータは、以下に示す値を利用した。
カメラの内部パラメータは、基準カメラ及び参照カメラとも同じであり、下記数38の
Figure 2008123019
で示す。
Figure 2008123019
また、カメラの外部パラメータは、
Figure 2008123019
(ここで、
Figure 2008123019
は単位行列である)、
Figure 2008123019
とした。ここで、
Figure 2008123019
は、カメラ間の回転行列と平行移動ベクトルをそれぞれ示している。
図8には、シミュレーション実験用に作成した合成画像を示す。本発明では、推定時に使用するメッシュを生成するのに、即ち、基準画像上に三角メッシュを生成するのに、前述したように、例えば、固定のメッシュを利用する方法や、抽出された画像特徴点を母点としたドロネー分割などの方法を利用することができるが、シミュレーション実験では、図8に示すように、50[pix]の辺を持つ正三角形を用いてメッシュを作成し、テクスチャを張った平面を10m先に配置した。
よって、図8の合成画像を用いた場合、頂点の奥行きは全て10mであり、全パッチの平面パラメータは、
Figure 2008123019
である。
図8(A)及び図8(B)には、作成された参照画像と基準画像をそれぞれ示している。図8(A)及び図8(B)の画像は、512[pix]×512[pix]の画像における中央部分の420[pix]×420[pix]領域を表示したものである。このようにして作成した参照画像及び基準画像に対し、図8(C)に示したメッシュの頂点に関して、奥行き推定を行った。
図8(C)におけるメッシュの頂点数は61で、パッチ数は96である。奥行き推定に利用した初期値は、全頂点において、15mとした。
本実験では、収束条件を特に設定せず、30回まで繰り返し計算を行った。プログラムはC言語で実装し、逆行列計算にはCLapackライブラリを利用した。
図8(C)で示したメッシュを利用した場合、Pentium(登録商標)IV(2.8GHz)でLinux(登録商標)OSを備えたパソコン上において、30回の繰り返し計算に要する時間は、約0.9秒であった。
メッシュが収束してゆく様子を図9に示す。図9では、基準画像上のメッシュを赤線で示しており、また、真値から計算される参照画像上の頂点を、推定された奥行きによって得られる平面射影変換を用いて基準画像上に投影し、その点によって構成されるメッシュを緑線で示している。
よって、正しい奥行きが推定されれば、赤線のメッシュと緑線のメッシュは、完全に一致する。図9から、奥行き推定を繰り返すことにより、赤線のメッシュと緑線のメッシュが一致してゆくことがよく分かる。
また、図10には、画像のRMSE(Root Mean Squared Error)と奥行きについて、繰り返し計算ごとの値の変化を示している。即ち、図10の横軸は、最適化計算(最適化処理)における繰り返し回数を表している。
図10(A)に、いくつかのパッチに関する画像RMSEの変化と、全パッチについての画像RMSEの変化(*付きの実線)を示す。図10(A)から、30回の繰り返し計算までに、適切に収束していることが分かる。
そして、図10(B)は、いくつかの頂点の奥行きの変化を示している。図10(B)から、最終的に、真値(10m)に収束していることが分かる。
次に、対象を球体として生成した合成画像を図11に示す。図11では、光軸上の15m先に中心を持ち、半径約7mの球体にテクスチャを貼り付けた。図11(A)及び図11(B)は、作成された参照画像と基準画像を示している。図11の画像は、図8の場合と同様に、512[pix]×512[pix]の画像における中央部分の420[pix]×420[pix]領域を表示したものである。このようにして作成した参照画像及び基準画像に対し、図11(C)に示したメッシュの頂点に関して、奥行き推定を行った。
図8の場合と同様に、図11(C)におけるメッシュの頂点数は61で、パッチ数は96である。奥行き推定に利用した初期値は、全頂点において、10mとした。
図12に、図11の物体の実形状と、推定された形状を示す。図12により、奥行き推定が適切に行われていることがよく分かる。なお、図12(A)、図12(B)、図12(C)及び図12(D)は、全て同一視点から見たものである。
また、繰り返し計算における画像RMSEの変化、および、各頂点の真の奥行きと推定された奥行きとの絶対誤差(以下、単に、奥行き推定誤差の絶対値と呼ぶ。)を、図13に示す。図13(A)では、いくつかのパッチにおける画像RMSEと、全パッチに関する画像RMSEを示し、図13(B)では、いくつかの頂点における奥行き推定誤差の絶対値と、全頂点に関する奥行きのRMSEを示している。図13(A)及び図13(B)から、ほぼ20回の繰り返し計算にて、物体の形状が正しく推定できていることが分かる。
更に、球体を用いた実験において、κ=−1,(n=1,2,…,N)と固定した場合における繰り返しごとの画像RMSEの変化と奥行きの絶対誤差の変化を図14に示す。
図14(A)及び図14(B)は、図13(A)及び図13(B)と、同様である。繰り返しごとの画像RMSE、および奥行き推定誤差の絶対値は、図13(A)及び図13(B)のものとはやや異なるものの、ほぼ20回の繰り返し計算にて、物体の形状が正しく推定できていることが分かる。
すなわち、κ=−1と固定して計算を行っても、κの値を固定しない場合との違いは、僅かである。よって、κの値を固定することにより、計算時間を一層短縮できることが分かる。

<4−2>実画像実験
実画像実験(実画像を用いた実験)に利用された実画像を図15に示す。図15の画像は、月面を模擬した1280[pix]×960[pix]のステレオ画像である。
本実験では、粗いメッシュを徐々に細かくしてゆく粗密探索的な方法を用いて、表面モデルを生成した。
ここでは、一辺の長さが464[pix]の三角パッチから始め、次の推定では、パッチのサイズを半分にするとともに、前回の頂点の奥行きを初期値とした推定を行った。
図15(A)の基準画像では、最後にパッチのサイズとして使用した29[pix]のメッシュを示している。このとき、メッシュの頂点数は817で、パッチ数は1536であった。
図15(A)の基準画像及び、図15(B)の参照画像に基づいて、本発明を適用して生成された表面モデルを図16に示す。
図16には、図15の実画像を用いた実験において、別々の視点から見た、本発明を適用して推定された3次元形状を示している。図16(A)、図16(C)及び図16(E)は、メッシュとテクスチャを同時に表示したもので、図16(B)、図16(D)及び図16(F)は、テクスチャのみを表示したものである。
図16から、メッシュの端に位置する頂点は、その外側にメッシュが存在しないため、他のメッシュによる十分な拘束を受けることができず、推定が不安定になる傾向が見られる。しかし、メッシュ内部の領域の推定は安定であり、メッシュ中央部に見られるエッジを持った勾配や、左上部にみられる小さなクレータの穴が良好に復元されている。

以上のように、合成画像を用いた実験、及び実画像を用いた実験を通じて、本発明の有効性、即ち、本発明を適用することにより、効率的な表面形状推定が可能であることを確認した。
また、上記の実験では、2台のステレオカメラを利用して得られた2枚のステレオ画像に基づいて、本発明を適用し、対象物体の3次元サーフェスを生成したが、本発明はそれに限定されず、3台以上のステレオカメラを利用して得られた3枚以上のステレオ画像に基づいても、本発明を適用し、対象物体の3次元サーフェスを生成することができる。
対象物体とその3次元形状を説明するための模式図である。 3次元空間中の平面を説明するための模式図である。 基準画像上に生成した三角メッシュの例を示す図である。 三角パッチの頂点の3次元座標を説明するための模式図である。 本発明において、曲面形状推定のアルゴリズムを示すプログラムフローである。 本発明を適用して3次元サーフェスを生成するための基本的な処理の流れを示す図である。 図6に示した最適化処理の基本フローである。 シミュレーション実験用に作成した合成画像を示す図である。図8(A)に参照画像を、図8(B)に基準画像を、図8(C)に基準画像上に生成されたメッシュ(推定時使用メッシュ)をそれぞれ示している。 図8の合成画像を用いた実験におけるメッシュが収束してゆく様子を説明するための図である。 図8の合成画像を用いた実験において、画像のRMSEと奥行きについて、繰り返し計算ごとの値の変化を示すグラフである。 シミュレーション実験用に対象を球体として生成された合成画像を示す図である。図11(A)に参照画像を、図11(B)に基準画像を、図11(C)に基準画像上に生成されたメッシュ(推定時使用メッシュ)をそれぞれ示している。 図11の合成画像を用いた実験における実形状と、本発明を適用して推定された形状を示す図である。 図11の合成画像を用いた実験において、画像のRMSEと奥行き推定誤差の絶対値について、繰り返し計算ごとの値の変化を示すグラフである。 図11の合成画像を用いた実験において、κの値を「−1」と固定した場合に、画像のRMSEと奥行き推定誤差の絶対値について、繰り返し計算ごとの値の変化を示すグラフである。 実画像実験に利用された実画像(ステレオ画像)を示す図である。図15(A)に基準画像を、図15(B)に参照画像をそれぞれ示している。 図15の実画像を用いた実験において、本発明を適用して推定された3次元形状を示す図である。

Claims (7)

  1. 既知の視点位置にある校正済みのカメラを用い、対象物体を異なる視点位置から撮影して得られた複数の画像から、前記対象物体の3次元サーフェスを直接に生成する、3次元サーフェス生成方法であって、
    前記複数の画像のうち、1枚の画像を基準画像とし、残りの画像を参照画像とした上で、前記基準画像上に複数の三角形によって構成された2次元メッシュを生成する第1のステップと、
    前記2次元メッシュの全頂点の奥行きを表す全頂点奥行きパラメータと、カメラ視点位置を含むカメラパラメータとによって定まる各三角形の平面射影変換によって前記参照画像を変形して得られた画像の画素値を要素とするベクトルと、前記基準画像の画素値を要素とするベクトルとの距離をコスト関数の1つの項とし、
    前記複数の画像と、前記カメラパラメータと、前記全頂点奥行きパラメータの初期値とを入力とする最適化手法を用いて、前記全頂点奥行きパラメータの微小変化量の計算と、前記全頂点奥行きパラメータの現在値の更新を、所定の条件まで繰り返し行うことによって、前記コスト関数の値が最小となる、前記全頂点奥行きパラメータを計算する第2のステップと、
    を有することを特徴とする3次元サーフェス生成方法。
  2. 前記第2のステップをより短時間内で行うために、
    前記第2のステップでは、
    前記全頂点奥行きパラメータの現在値が定める平面射影変換と、前記全頂点奥行きパラメータの微小変化量が定める平面射影変換との合成によって真の平面射影変換を表現し、
    前記全頂点奥行きパラメータの微小変化量が定める平面射影変換の逆変換によって前記基準画像を変形して得られた画像の画素値を要素とするベクトルと、前記全頂点奥行きパラメータの現在値が定める平面射影変換によって前記参照画像を変形して得られた画像の画素値を要素とするベクトルとによって、前記距離と同等の距離を表現することによって、繰り返しごとに必要な情報を1度だけ計算する請求項1に記載の3次元サーフェス生成方法。
  3. 既知の視点位置にある校正済みのカメラを用い、対象物体を異なる視点位置から撮影して得られた複数の画像から、前記対象物体の3次元サーフェスを直接に生成する、3次元サーフェス生成方法であって、
    前記複数の画像のうち、1枚の画像を基準画像とし、残りの画像を参照画像とした上で、前記基準画像上に複数の三角形によって構成された2次元メッシュを生成する、2次元メッシュ生成ステップと、
    前記2次元メッシュ生成ステップで生成された2次元メッシュの全頂点の奥行きを表す全頂点奥行きパラメータによって定まる各三角形の平面射影変換によって前記参照画像を変形して得られた画像の画素値と、前記基準画像の画素値との差が小さくなるように、前記全頂点奥行きパラメータを最適化手法によって推定する、全頂点奥行き推定ステップと、
    を有することを特徴とする3次元サーフェス生成方法。
  4. 前記全頂点奥行き推定ステップは、
    前記全頂点奥行きパラメータの微小変化量が定める平面射影変換と、前記全頂点奥行きパラメータの現在値が定める平面射影変換とに基づいて、真の平面射影変換が合成され、
    前記微小変化量が定める平面射影変換の逆変換によって前記基準画像を変形して得られた画像の画素値と、前記現在値が定める平面射影変換によって前記参照画像を変形して得られた画像の画素値の差が小さくなるように、前記微小変化量を計算することによって、繰り返しごとに必要な情報を1度だけ計算する請求項3に記載の3次元サーフェス生成方法。
  5. 既知の視点位置にある校正済みのカメラを用い、対象物体を異なる視点位置から撮影して得られた複数の画像から、前記対象物体の3次元サーフェスを直接に生成する、3次元サーフェス生成方法であって、
    前記複数の画像のうち、1枚の画像を基準画像とし、残りの画像を参照画像とした上で、前記基準画像上に複数の三角パッチによって構成された2次元メッシュを生成するステップと、
    前記2次元メッシュの全頂点の奥行きを表す全頂点奥行きパラメータの初期値を定めるステップと、
    定めた全頂点奥行きパラメータの初期値と、カメラ視点位置を含むカメラパラメータと、前記複数の画像とに基づいて、前記2次元メッシュにおける全パッチについて加算したSSSDを最小にする、前記全頂点奥行きパラメータを求める最適化処理を行うステップと、
    を有することを特徴とする3次元サーフェス生成方法。
  6. 前記最適化処理では、
    前記基準画像、及び前記カメラパラメータを用いて、前記全頂点奥行きパラメータの微小変化量を求めるために利用される情報、即ち、繰り返し処理に必要な情報を一度だけ計算する、繰り返し処理用情報計算ステップと、
    前記全頂点奥行きパラメータの現在値と、前記カメラパラメータとによって定まる各三角パッチの平面射影変換によって前記参照画像を変形して得られた画像の画素値と、前記基準画像の画素値との差分を計算する、差分値計算処理ステップと、
    前記繰り返し処理用情報計算ステップで得られた必要な情報と、前記差分値計算処理ステップで得られた差分値と、前記カメラパラメータと、前記全頂点奥行きパラメータの現在値を入力として、前記全頂点奥行きパラメータの微小変化量を計算する、微小変化量計算処理ステップと、
    前記微小変化量計算処理ステップで得られた微小変化量と、前記全頂点奥行きパラメータの現在値とに基づいて、前記全頂点奥行きパラメータの現在値を更新する、現在値更新処理ステップと、
    を有する請求項5に記載の3次元サーフェス生成方法。
  7. 前記最適化処理では、前記差分値計算処理ステップ、前記微小変化量計算処理ステップ及び前記現在値更新処理ステップを、所定の収束条件を満たすまで繰り返し、繰り返し処理により、前記収束条件を満たしたときに得られた全頂点奥行きパラメータの現在値を全頂点奥行きパラメータとすることにより、前記3次元サーフェスを生成する請求項6に記載の3次元サーフェス生成方法。
JP2006302717A 2006-11-08 2006-11-08 3次元サーフェス生成方法 Active JP4392507B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006302717A JP4392507B2 (ja) 2006-11-08 2006-11-08 3次元サーフェス生成方法
PCT/JP2007/072147 WO2008056825A1 (fr) 2006-11-08 2007-11-08 Procédé de création d'une surface tridimensionnelle
US12/513,855 US8406509B2 (en) 2006-11-08 2007-11-08 Three-dimensional surface generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006302717A JP4392507B2 (ja) 2006-11-08 2006-11-08 3次元サーフェス生成方法

Publications (2)

Publication Number Publication Date
JP2008123019A true JP2008123019A (ja) 2008-05-29
JP4392507B2 JP4392507B2 (ja) 2010-01-06

Family

ID=39364628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006302717A Active JP4392507B2 (ja) 2006-11-08 2006-11-08 3次元サーフェス生成方法

Country Status (3)

Country Link
US (1) US8406509B2 (ja)
JP (1) JP4392507B2 (ja)
WO (1) WO2008056825A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012527787A (ja) * 2009-05-21 2012-11-08 インテル・コーポレーション 画像から高速に立体構築を行なう方法
JP2013120083A (ja) * 2011-12-06 2013-06-17 Honda Motor Co Ltd 環境認識装置
CN105243687A (zh) * 2015-10-23 2016-01-13 佛山市南海区广工大数控装备协同创新研究院 一种义齿模型三角网格优化方法
US9243935B2 (en) 2012-08-31 2016-01-26 Canon Kabushiki Kaisha Distance information estimating apparatus
WO2019229913A1 (ja) * 2018-05-30 2019-12-05 株式会社ニコン 情報処理装置、情報処理方法、情報処理プログラム、及び顕微鏡

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2569411T3 (es) 2006-05-19 2016-05-10 The Queen's Medical Center Sistema de seguimiento de movimiento para imágenes adaptativas en tiempo real y espectroscopia
US8290246B1 (en) * 2007-12-17 2012-10-16 The United States of America as represented by the Administrator of the National Aeronautics & Space Administration (NASA) Photogrammetric recession measurements of an ablating surface
JP5390813B2 (ja) * 2008-09-02 2014-01-15 東急建設株式会社 空間情報表示装置及び支援装置
WO2010042731A2 (en) * 2008-10-10 2010-04-15 The University Of Utah Research Foundation Mesh formation for multi-element volumes
US9317970B2 (en) 2010-01-18 2016-04-19 Disney Enterprises, Inc. Coupled reconstruction of hair and skin
US8670606B2 (en) * 2010-01-18 2014-03-11 Disney Enterprises, Inc. System and method for calculating an optimization for a facial reconstruction based on photometric and surface consistency
JP5035372B2 (ja) * 2010-03-17 2012-09-26 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
JP5024410B2 (ja) * 2010-03-29 2012-09-12 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
IT1401368B1 (it) * 2010-07-28 2013-07-18 Active Srl Metodo e sistema per il controllo di un dispositivo robotizzato semovente
KR101247761B1 (ko) * 2011-07-15 2013-04-01 삼성중공업 주식회사 로봇의 선체면 주행 가능 영역 확인 방법, 로봇 및 기록 매체
US9606209B2 (en) 2011-08-26 2017-03-28 Kineticor, Inc. Methods, systems, and devices for intra-scan motion correction
US9305365B2 (en) * 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
CN105338897B (zh) * 2013-01-24 2019-06-14 凯内蒂科尔股份有限公司 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法
CN105392423B (zh) 2013-02-01 2018-08-17 凯内蒂科尔股份有限公司 生物医学成像中的实时适应性运动补偿的运动追踪系统
EP3053102B1 (en) * 2013-10-02 2018-01-31 Given Imaging Ltd. System and method for size estimation of in-vivo objects
US10004462B2 (en) 2014-03-24 2018-06-26 Kineticor, Inc. Systems, methods, and devices for removing prospective motion correction from medical imaging scans
WO2016014718A1 (en) 2014-07-23 2016-01-28 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
EP3180775B1 (en) 2014-11-18 2019-02-13 St. Jude Medical, Cardiology Division, Inc. Method and system for generating a patch surface model of a geometric structure
US9721385B2 (en) * 2015-02-10 2017-08-01 Dreamworks Animation Llc Generation of three-dimensional imagery from a two-dimensional image using a depth map
US9897806B2 (en) 2015-02-10 2018-02-20 Dreamworks Animation L.L.C. Generation of three-dimensional imagery to supplement existing content
US10368104B1 (en) * 2015-04-01 2019-07-30 Rockwell Collins, Inc. Systems and methods for transmission of synchronized physical and visible images for three dimensional display
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
US10360718B2 (en) 2015-08-14 2019-07-23 Samsung Electronics Co., Ltd. Method and apparatus for constructing three dimensional model of object
US10388065B2 (en) 2015-11-10 2019-08-20 Landmark Graphics Corporation Fracture network triangle mesh adjustment
EP3374804B1 (en) * 2015-11-10 2022-08-24 Landmark Graphics Corporation Target object simulation using orbit propagation
WO2017082872A1 (en) 2015-11-10 2017-05-18 Landmark Graphics Corporation Target object simulation using undulating surfaces
WO2017091479A1 (en) 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
KR102236222B1 (ko) * 2016-08-24 2021-04-05 한국전자통신연구원 중첩영역의 제어점들을 이용한 시차 최소화 스티칭 장치 및 방법
US10558881B2 (en) * 2016-08-24 2020-02-11 Electronics And Telecommunications Research Institute Parallax minimization stitching method and apparatus using control points in overlapping region
DE102018113015A1 (de) * 2018-05-30 2019-12-05 Armin Stark Autonome, mobile Arbeitmaschine
CN109086724B (zh) * 2018-08-09 2019-12-24 北京华捷艾米科技有限公司 一种加速的人脸检测方法及存储介质
CN112771855A (zh) * 2018-09-17 2021-05-07 美国斯耐普公司 在三维深度视频和图像中创建冲击波
CN112771438B (zh) * 2018-09-26 2023-10-10 美国斯耐普公司 利用二维输入选择对三维深度图像进行深度雕塑
CN109816789B (zh) * 2018-12-14 2023-02-07 广东三维家信息科技有限公司 一种基于深度神经网络的三维模型参数化方法
CN111857515B (zh) * 2020-07-24 2024-03-19 深圳市欢太科技有限公司 图像处理方法、装置、存储介质及电子设备
CN113255650B (zh) * 2021-06-24 2021-10-01 北京市水利自动化研究所 一种基于slimSSD模型的水表计量快速精准识别方法
CN114820329B (zh) * 2022-07-01 2022-11-25 之江实验室 基于高斯过程大核注意力装置引导的曲面测量方法及装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3740865B2 (ja) * 1998-10-08 2006-02-01 コニカミノルタホールディングス株式会社 多視点3次元データの合成方法および記録媒体
US8023724B2 (en) * 1999-07-22 2011-09-20 Photon-X, Inc. Apparatus and method of information extraction from electromagnetic energy based upon multi-characteristic spatial geometry processing
US6677957B2 (en) * 2001-01-09 2004-01-13 Intel Corporation Hardware-accelerated visualization of surface light fields
GB2381429B (en) * 2001-09-28 2005-07-27 Canon Europa Nv 3D computer model processing apparatus
GB0224449D0 (en) * 2002-10-21 2002-11-27 Canon Europa Nv Apparatus and method for generating texture maps for use in 3D computer graphics
JP2006053754A (ja) 2004-08-11 2006-02-23 Honda Motor Co Ltd 平面検出装置及び検出方法
JP4457186B2 (ja) 2004-09-17 2010-04-28 国立大学法人東京工業大学 準統計モデルによるメッシュ修正方法
JP2006145419A (ja) 2004-11-22 2006-06-08 Univ Nihon 画像処理方法
US7869021B2 (en) * 2007-04-05 2011-01-11 Asti Holdings Limited Multiple surface inspection system and method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012527787A (ja) * 2009-05-21 2012-11-08 インテル・コーポレーション 画像から高速に立体構築を行なう方法
JP2013120083A (ja) * 2011-12-06 2013-06-17 Honda Motor Co Ltd 環境認識装置
US8896689B2 (en) 2011-12-06 2014-11-25 Honda Motor Co., Ltd. Environment recognition apparatus
US9243935B2 (en) 2012-08-31 2016-01-26 Canon Kabushiki Kaisha Distance information estimating apparatus
CN105243687A (zh) * 2015-10-23 2016-01-13 佛山市南海区广工大数控装备协同创新研究院 一种义齿模型三角网格优化方法
WO2019229913A1 (ja) * 2018-05-30 2019-12-05 株式会社ニコン 情報処理装置、情報処理方法、情報処理プログラム、及び顕微鏡

Also Published As

Publication number Publication date
WO2008056825A1 (fr) 2008-05-15
US20100054579A1 (en) 2010-03-04
US8406509B2 (en) 2013-03-26
JP4392507B2 (ja) 2010-01-06

Similar Documents

Publication Publication Date Title
JP4392507B2 (ja) 3次元サーフェス生成方法
Schöps et al. Surfelmeshing: Online surfel-based mesh reconstruction
US20190364265A1 (en) Free-viewpoint video generating method and free-viewpoint video generating system
KR100721536B1 (ko) 2차원 평면상에서 실루엣 정보를 이용한 3차원 구조 복원방법
EP2671210B1 (en) Three-dimensional environment reconstruction
JP2019534510A5 (ja)
KR20070095040A (ko) 카메라 보정 방법 및 이를 이용한 3차원 물체 재구성 방법
US20110128286A1 (en) Image restoration apparatus and method thereof
CN110567441B (zh) 基于粒子滤波的定位方法、定位装置、建图及定位的方法
CN104715504A (zh) 一种鲁棒的大场景稠密三维重建方法
JP2000268179A (ja) 三次元形状情報取得方法及び装置,二次元画像取得方法及び装置並びに記録媒体
JPH11504452A (ja) 2次元投影図に基づいて3次元の対象物を再現し、取り扱うための装置と方法
WO2021187157A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2009530701A (ja) 深度マップを画像から判定する方法、深度マップを判定する装置
WO2023088127A1 (zh) 室内导航方法、服务器、装置和终端
Deepu et al. 3D Reconstruction from Single 2D Image
JP2008204318A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN114663599A (zh) 一种基于多视图的人体表面重建方法及系统
Li et al. An occlusion detection algorithm for 3d texture reconstruction of multi-view images
JP6641313B2 (ja) 領域抽出装置及びプログラム
KR101673442B1 (ko) 비주얼 헐 근사화에 대해 dbss로 재메쉬화하는 방법 및 장치
WO2024048210A1 (ja) 視点画像生成装置、視点画像生成方法、及びプログラム
CN116091871B (zh) 一种针对目标检测模型的物理对抗样本生成方法及装置
Lai Augmented Reality visualization of building information model
JP2009294956A (ja) 3次元形状復元方法とその装置、プログラム及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090507

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20090507

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20090608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090915

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150