JP2008123019A - 3次元サーフェス生成方法 - Google Patents
3次元サーフェス生成方法 Download PDFInfo
- Publication number
- JP2008123019A JP2008123019A JP2006302717A JP2006302717A JP2008123019A JP 2008123019 A JP2008123019 A JP 2008123019A JP 2006302717 A JP2006302717 A JP 2006302717A JP 2006302717 A JP2006302717 A JP 2006302717A JP 2008123019 A JP2008123019 A JP 2008123019A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vertex depth
- reference image
- parameter
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】 対象物体を異なる視点位置から撮影して得られた複数の画像のうち、1枚の画像を基準画像とし、残りの画像を参照画像とした上で、基準画像上に2次元三角メッシュを生成し、メッシュの全頂点奥行きパラメータとカメラパラメータとによって定まる平面射影変換によって参照画像を変形して得られた画像の画素値を要素とするベクトルと、基準画像の画素値を要素とするベクトルとの距離をコスト関数の1つの項とし、複数の画像とカメラパラメータと全頂点奥行きパラメータの初期値とを入力とする最適化手法を用いて、全頂点奥行きパラメータの微小変化量の計算と、全頂点奥行きパラメータの現在値の更新を、所定の条件まで繰り返し行うことによって、コスト関数の値が最小となる、全頂点奥行きパラメータを計算する。
【選択図】図6
Description
ディー. アール. マリー(D.R. Murray)著,「パッチレツ: ア メソッド オフ インタープレッティング コリレイション ステレオ 3D データ(Patchlets: A method of interpreting correlation stereo 3D data)」,PhD スィーザス, デパートメント オフ コンピュータ サイエンス, ザ ユニバーシティー オフ ブリティシュ コロンビア, 2003年(PhD thesis, Department of Computer Science, The University of British Columbia, 2003) アイ. コヘン(I. Cohen)、エル. ディー. コヘン(L.D. Cohen)、エヌ. アヤチェ(N. Ayache)共著,「イントロジューイング ニュー デフォーマブル サーフェス トゥー セグメント 3D イメージ(Introducing new deformable surfaces to segment 3d images)」,IEEE コンピュータ ソサイアティ カンファレンス オン コンピュータ ビジョン アンド パターン レコグニション(IEEE Computer Society Conference on Computer Vision and Pattern Recognition),p.738-739,1991年 エー. ペントランド(A. Pentland)、エス. スクラロフ(S. Sclaroff)共著,「クローズドフォーム ソリューションズ フォー フィジカルリ ベースド シェイプ モデリング アンド レコグニション(Closed-form solutions for physically based shape modeling and recognition)」,IEEE トランスアクションズ オン パターン アナリシス アンド マシン インテリジェンス(IEEE Transactions on Pattern Analysis and Machine Intelligence),第13巻,p.715-729,1991年 アール. スゼリスキ(R. Szeliski)、ディー. トンネセン(D. Tonnesen)共著,「サーフェス モデリング ウィズ オリエンティド パーティクル システムズ(Surface modeling with oriented particle systems)」,コンピュータ グラフィックス(SIGGRAPH)(Computer Graphics(SIGGRAPH)),p.185-194,1992年 ピー. ジェー. ナラヤナン(P.J. Narayanan)、ピー. ダブリュ. ランデル(P.W. Rander)、ティー. カナデ(T. Kanade)共著,「コンストラクティング バーチャル ワールドズ ユジング デンス ステレオ(Constructing Virtual Worlds using Dense Stereo)」,IEEE インターナショナル カンファレンス オン コンピュータ ビジョン(IEEE International Conference on Computer Vision),p.3-10,1998年 ピー. ファ(P.Fua)著,「フロム マルチプル ステレオ ビューズ トゥー マルチプル 3D サーフェス(From multiple stereo views to multiple 3D surfaces)」,インターナショナル ジャーナル オフ コンピュータ ビジョン(International journal of Computer Vision),第24巻,第1号,p.19-35,1997年 オー. ディー. ファゲラス(O.D. Faugeras)、アール. ケリヴェン(R. Keriven)共著,「コンプリート デンス ステレオビジョン ユジング レベル セット メソッド(Complete Dense Stereovision Using Level Set Methods)」,ヨーロピアン カンファレンス オン コンピュータ ビジョン(European Conference on Computer Vision),第I巻,p.379-393,1998年 エス. ベイカ(S. Baker)、アイ. マシューズ(I. Matthews)共著,「ルーカス・カナデ 20 イヤーズ オン: ア ユニファイング フレームワーク(Lucas-kanade 20 years on: A unifying framework)」,インターナショナル ジャーナル オフ コンピュータ ビジョン(International journal of Computer Vision),第56巻,第3号,p.221-255,2004年 ビー. ディー. ルーカス(B.D. Lucas)、ティー. カナデ(T. Kanade)共著,「アン イテラティブ イメージ レジストレイション テクニック ウィズ アン アプローチ トゥー ステレオ ビジョン(An iterative image registration technique with an approach to stereo vision)」,イメージ アンダスタンディング ワークショップ(Image Understanding Workshop),p.121-130,1981年 オー. ファゲラス(O. Faugeras)、エフ. ラストマン(F. Lustman)共著,「モーション アンド ストラクチャ フロム モーション イン ア ピースワイズ プレーナ エンバイアロンメント(Motion and structure from motion in a piecewise planar environment)」,レポート ディ ルシェルシュ ディ l‘INRIA(Report de Recherche de l’INRIA),1988年
<1>本発明の着眼点及び概説
図1に示すように、2台のステレオカメラで撮影された対象物体(以下、単に、「物体」とも言う。)の3次元表面形状は、複数の三角パッチで構成されるメッシュによって表現できる。
<2>平面パラメータの推定
<1>では、本発明の着眼点及び概説を簡潔に述べたが、ここからは、図面及び数式を参照しながら、本発明に係る3次元サーフェス生成方法を詳細に説明する。
<2−1>ICIA(Inverse Compositional Image Alignment)
まず、ICIAのアルゴリズムについて概説する。
は座標変換を表す。また、
は「座標変換パラメータベクトル」(以下、単に、「変換パラメータ」とも呼ぶ。)を表し、座標間の変換が平行移動の場合に2次元のベクトルとなり、また、座標間の変換がアフィン変換および平面射影変換の場合に、それぞれ6次元および8次元のベクトルとなる。
付近でTaylor展開する。この場合、
が繰り返し計算のたびに更新され、それに伴い
が変化することから、
における
の値を繰り返しのたびに計算する必要がある。
付近でTaylor展開する。この場合、微分対象は基準画像Tであるため変化せず、また、
の値は常に固定値
において評価されることから、
を再計算する必要がない。これにより、ヘッセ行列を固定化でき、Lucas-Kanade法よりも、はるかに高速な演算を実現できる。
<2−2>ICIAを利用した平面射影変換パラメータ推定
ここで、ICIAを利用して、8自由度の平面射影変換パラメータを推定する方法について述べる。
と表され、座標
における基準画像Tの画素値と、
に対応する参照画像I上の画素値との画素値の差を意味する。eは、全ての座標
を用いて、参照画像Iを変形(warp)した画像
を生成しておき、
として求める方法が効率がよいため、一般的に利用される。
および
は、注目領域内の各画素ごとに異なる値を持つ。しかし、既に述べたように、その値は一度だけ計算すればよく、繰り返しのたびに再計算する必要はない。これに伴い、ヘッセ行列の逆行列
も一度だけ計算すればよい。
<2−3>ICIAを利用した平面パラメータ推定
ここでは、前述したICIAの考え方を利用して、3自由度の平面パラメータを高速に推定する方法について説明する。
に依存してしまい、
の値は繰り返し計算ごと変化する。しかし、その変化は、数23におけるスカラーκに集約されており、
および
は変化しないことを考慮すると、変換群でないことによって生じる繰り返しごとの計算コストの増加は、無視できるほど小さい。
<3>曲面の形状推定
<2−3>では、3次元空間中の1つの平面に注目し、その平面パラメータを高速に推定する方法について述べた。ここでは、<2−3>にて述べた方法を利用して、三角パッチで構成されたポリゴンメッシュ(三角メッシュ)の全頂点の奥行きを求める方法について述べる。
<3−1>三角メッシュによる表面形状モデル
まず、三角メッシュを用いた物体表面形状モデルについて述べる。
と表し、
は対象物体表面の3次元形状に対応した奥行きdmを持つものとする。また、頂点によって構成される三角形をパッチと呼び、Cn(n=1,2,…,N)と表す。各パッチは3次元空間中において平面を構成するものとする。
<3−2>三角パッチの3頂点に対する奥行き推定
次に、<2−3>にて述べた平面パラメータ推定方法を利用して、1つの三角パッチの3頂点の奥行きを求める方法について述べる。
<3−3>三角メッシュの全頂点の奥行き推定
ここで、三角メッシュの全頂点の奥行きを最適化する方法について説明する。
を求める場合は、<2−3>で述べた単一平面のパラメータ推定や、<3−2>で述べた三角パッチの3頂点の奥行き推定とは異なり、数36の
に関する計算を繰り返しのたびに行う必要がある。
の計算に注目すると、行列
は、各パッチごと異なるものの、繰り返しごとに変化せず、さらに、この行列は実質的に3×3=9個の要素しか持っていないため、全パッチに関して加算しても計算量は比較的小さい。
の行列サイズは、M×Mであり、三角メッシュにおいて頂点の数が多くなるほど、その計算量は大きくなる。本発明では、計算速度に関して、評価の高いCLapackライブラリを利用して逆行列計算を実装し、計算時間の短縮を実現している。
の計算と
の更新を収束するまで繰り返す。
<3−4>高速化処理
<3−3>で述べた「三角メッシュの全頂点の奥行き推定方法」において、三角メッシュにおける頂点数が非常に大きい場合は、数35に必要な
の逆行列を得るために、繰り返しごとに必要な計算時間が長くなり、つまり、計算コストが高くなることがある。
が繰り返し計算ごとに変化することによって生じる。しかし、
の繰り返しごとの変化は、非常に小さいため、κnを固定しても、計算結果に大きな違いは生じない。
の再計算を行わずに計算時間を短くすることが可能である。例えば、1〜5回、6〜10回の繰り返しの間では、
を固定し、1回目と6回目だけ
とその逆行列を再計算する方法などが考えられる。
を求めればよく、計算時間をさらに短縮することができる。
<3−5>本発明による3次元サーフェスを生成するための処理の流れ
図6に、本発明を適用して、対象物体を撮影した複数のステレオ画像から、対象物体の3次元サーフェスを生成するための基本的な処理の流れを示す。
<4>実験結果
以下では、本発明の有効性を確認するために行った実験結果を示す。まず、合成画像を利用して本発明を適用した様々なシミュレーション実験の結果について示し、次に、実画像を用いて本発明を適用した実画像実験の結果を示す。
<4−1>シミュレーション実験
シミュレーション実験(合成画像を用いた実験)では、512[pix]×512[pix]の画像を利用し、また、ステレオカメラの設定パラメータは、以下に示す値を利用した。
<4−2>実画像実験
実画像実験(実画像を用いた実験)に利用された実画像を図15に示す。図15の画像は、月面を模擬した1280[pix]×960[pix]のステレオ画像である。
以上のように、合成画像を用いた実験、及び実画像を用いた実験を通じて、本発明の有効性、即ち、本発明を適用することにより、効率的な表面形状推定が可能であることを確認した。
Claims (7)
- 既知の視点位置にある校正済みのカメラを用い、対象物体を異なる視点位置から撮影して得られた複数の画像から、前記対象物体の3次元サーフェスを直接に生成する、3次元サーフェス生成方法であって、
前記複数の画像のうち、1枚の画像を基準画像とし、残りの画像を参照画像とした上で、前記基準画像上に複数の三角形によって構成された2次元メッシュを生成する第1のステップと、
前記2次元メッシュの全頂点の奥行きを表す全頂点奥行きパラメータと、カメラ視点位置を含むカメラパラメータとによって定まる各三角形の平面射影変換によって前記参照画像を変形して得られた画像の画素値を要素とするベクトルと、前記基準画像の画素値を要素とするベクトルとの距離をコスト関数の1つの項とし、
前記複数の画像と、前記カメラパラメータと、前記全頂点奥行きパラメータの初期値とを入力とする最適化手法を用いて、前記全頂点奥行きパラメータの微小変化量の計算と、前記全頂点奥行きパラメータの現在値の更新を、所定の条件まで繰り返し行うことによって、前記コスト関数の値が最小となる、前記全頂点奥行きパラメータを計算する第2のステップと、
を有することを特徴とする3次元サーフェス生成方法。 - 前記第2のステップをより短時間内で行うために、
前記第2のステップでは、
前記全頂点奥行きパラメータの現在値が定める平面射影変換と、前記全頂点奥行きパラメータの微小変化量が定める平面射影変換との合成によって真の平面射影変換を表現し、
前記全頂点奥行きパラメータの微小変化量が定める平面射影変換の逆変換によって前記基準画像を変形して得られた画像の画素値を要素とするベクトルと、前記全頂点奥行きパラメータの現在値が定める平面射影変換によって前記参照画像を変形して得られた画像の画素値を要素とするベクトルとによって、前記距離と同等の距離を表現することによって、繰り返しごとに必要な情報を1度だけ計算する請求項1に記載の3次元サーフェス生成方法。 - 既知の視点位置にある校正済みのカメラを用い、対象物体を異なる視点位置から撮影して得られた複数の画像から、前記対象物体の3次元サーフェスを直接に生成する、3次元サーフェス生成方法であって、
前記複数の画像のうち、1枚の画像を基準画像とし、残りの画像を参照画像とした上で、前記基準画像上に複数の三角形によって構成された2次元メッシュを生成する、2次元メッシュ生成ステップと、
前記2次元メッシュ生成ステップで生成された2次元メッシュの全頂点の奥行きを表す全頂点奥行きパラメータによって定まる各三角形の平面射影変換によって前記参照画像を変形して得られた画像の画素値と、前記基準画像の画素値との差が小さくなるように、前記全頂点奥行きパラメータを最適化手法によって推定する、全頂点奥行き推定ステップと、
を有することを特徴とする3次元サーフェス生成方法。 - 前記全頂点奥行き推定ステップは、
前記全頂点奥行きパラメータの微小変化量が定める平面射影変換と、前記全頂点奥行きパラメータの現在値が定める平面射影変換とに基づいて、真の平面射影変換が合成され、
前記微小変化量が定める平面射影変換の逆変換によって前記基準画像を変形して得られた画像の画素値と、前記現在値が定める平面射影変換によって前記参照画像を変形して得られた画像の画素値の差が小さくなるように、前記微小変化量を計算することによって、繰り返しごとに必要な情報を1度だけ計算する請求項3に記載の3次元サーフェス生成方法。 - 既知の視点位置にある校正済みのカメラを用い、対象物体を異なる視点位置から撮影して得られた複数の画像から、前記対象物体の3次元サーフェスを直接に生成する、3次元サーフェス生成方法であって、
前記複数の画像のうち、1枚の画像を基準画像とし、残りの画像を参照画像とした上で、前記基準画像上に複数の三角パッチによって構成された2次元メッシュを生成するステップと、
前記2次元メッシュの全頂点の奥行きを表す全頂点奥行きパラメータの初期値を定めるステップと、
定めた全頂点奥行きパラメータの初期値と、カメラ視点位置を含むカメラパラメータと、前記複数の画像とに基づいて、前記2次元メッシュにおける全パッチについて加算したSSSDを最小にする、前記全頂点奥行きパラメータを求める最適化処理を行うステップと、
を有することを特徴とする3次元サーフェス生成方法。 - 前記最適化処理では、
前記基準画像、及び前記カメラパラメータを用いて、前記全頂点奥行きパラメータの微小変化量を求めるために利用される情報、即ち、繰り返し処理に必要な情報を一度だけ計算する、繰り返し処理用情報計算ステップと、
前記全頂点奥行きパラメータの現在値と、前記カメラパラメータとによって定まる各三角パッチの平面射影変換によって前記参照画像を変形して得られた画像の画素値と、前記基準画像の画素値との差分を計算する、差分値計算処理ステップと、
前記繰り返し処理用情報計算ステップで得られた必要な情報と、前記差分値計算処理ステップで得られた差分値と、前記カメラパラメータと、前記全頂点奥行きパラメータの現在値を入力として、前記全頂点奥行きパラメータの微小変化量を計算する、微小変化量計算処理ステップと、
前記微小変化量計算処理ステップで得られた微小変化量と、前記全頂点奥行きパラメータの現在値とに基づいて、前記全頂点奥行きパラメータの現在値を更新する、現在値更新処理ステップと、
を有する請求項5に記載の3次元サーフェス生成方法。 - 前記最適化処理では、前記差分値計算処理ステップ、前記微小変化量計算処理ステップ及び前記現在値更新処理ステップを、所定の収束条件を満たすまで繰り返し、繰り返し処理により、前記収束条件を満たしたときに得られた全頂点奥行きパラメータの現在値を全頂点奥行きパラメータとすることにより、前記3次元サーフェスを生成する請求項6に記載の3次元サーフェス生成方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006302717A JP4392507B2 (ja) | 2006-11-08 | 2006-11-08 | 3次元サーフェス生成方法 |
PCT/JP2007/072147 WO2008056825A1 (fr) | 2006-11-08 | 2007-11-08 | Procédé de création d'une surface tridimensionnelle |
US12/513,855 US8406509B2 (en) | 2006-11-08 | 2007-11-08 | Three-dimensional surface generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006302717A JP4392507B2 (ja) | 2006-11-08 | 2006-11-08 | 3次元サーフェス生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008123019A true JP2008123019A (ja) | 2008-05-29 |
JP4392507B2 JP4392507B2 (ja) | 2010-01-06 |
Family
ID=39364628
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006302717A Active JP4392507B2 (ja) | 2006-11-08 | 2006-11-08 | 3次元サーフェス生成方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8406509B2 (ja) |
JP (1) | JP4392507B2 (ja) |
WO (1) | WO2008056825A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012527787A (ja) * | 2009-05-21 | 2012-11-08 | インテル・コーポレーション | 画像から高速に立体構築を行なう方法 |
JP2013120083A (ja) * | 2011-12-06 | 2013-06-17 | Honda Motor Co Ltd | 環境認識装置 |
CN105243687A (zh) * | 2015-10-23 | 2016-01-13 | 佛山市南海区广工大数控装备协同创新研究院 | 一种义齿模型三角网格优化方法 |
US9243935B2 (en) | 2012-08-31 | 2016-01-26 | Canon Kabushiki Kaisha | Distance information estimating apparatus |
WO2019229913A1 (ja) * | 2018-05-30 | 2019-12-05 | 株式会社ニコン | 情報処理装置、情報処理方法、情報処理プログラム、及び顕微鏡 |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2569411T3 (es) | 2006-05-19 | 2016-05-10 | The Queen's Medical Center | Sistema de seguimiento de movimiento para imágenes adaptativas en tiempo real y espectroscopia |
US8290246B1 (en) * | 2007-12-17 | 2012-10-16 | The United States of America as represented by the Administrator of the National Aeronautics & Space Administration (NASA) | Photogrammetric recession measurements of an ablating surface |
JP5390813B2 (ja) * | 2008-09-02 | 2014-01-15 | 東急建設株式会社 | 空間情報表示装置及び支援装置 |
WO2010042731A2 (en) * | 2008-10-10 | 2010-04-15 | The University Of Utah Research Foundation | Mesh formation for multi-element volumes |
US9317970B2 (en) | 2010-01-18 | 2016-04-19 | Disney Enterprises, Inc. | Coupled reconstruction of hair and skin |
US8670606B2 (en) * | 2010-01-18 | 2014-03-11 | Disney Enterprises, Inc. | System and method for calculating an optimization for a facial reconstruction based on photometric and surface consistency |
JP5035372B2 (ja) * | 2010-03-17 | 2012-09-26 | カシオ計算機株式会社 | 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム |
JP5024410B2 (ja) * | 2010-03-29 | 2012-09-12 | カシオ計算機株式会社 | 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム |
IT1401368B1 (it) * | 2010-07-28 | 2013-07-18 | Active Srl | Metodo e sistema per il controllo di un dispositivo robotizzato semovente |
KR101247761B1 (ko) * | 2011-07-15 | 2013-04-01 | 삼성중공업 주식회사 | 로봇의 선체면 주행 가능 영역 확인 방법, 로봇 및 기록 매체 |
US9606209B2 (en) | 2011-08-26 | 2017-03-28 | Kineticor, Inc. | Methods, systems, and devices for intra-scan motion correction |
US9305365B2 (en) * | 2013-01-24 | 2016-04-05 | Kineticor, Inc. | Systems, devices, and methods for tracking moving targets |
US9717461B2 (en) | 2013-01-24 | 2017-08-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US10327708B2 (en) | 2013-01-24 | 2019-06-25 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
CN105338897B (zh) * | 2013-01-24 | 2019-06-14 | 凯内蒂科尔股份有限公司 | 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法 |
CN105392423B (zh) | 2013-02-01 | 2018-08-17 | 凯内蒂科尔股份有限公司 | 生物医学成像中的实时适应性运动补偿的运动追踪系统 |
EP3053102B1 (en) * | 2013-10-02 | 2018-01-31 | Given Imaging Ltd. | System and method for size estimation of in-vivo objects |
US10004462B2 (en) | 2014-03-24 | 2018-06-26 | Kineticor, Inc. | Systems, methods, and devices for removing prospective motion correction from medical imaging scans |
WO2016014718A1 (en) | 2014-07-23 | 2016-01-28 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
EP3180775B1 (en) | 2014-11-18 | 2019-02-13 | St. Jude Medical, Cardiology Division, Inc. | Method and system for generating a patch surface model of a geometric structure |
US9721385B2 (en) * | 2015-02-10 | 2017-08-01 | Dreamworks Animation Llc | Generation of three-dimensional imagery from a two-dimensional image using a depth map |
US9897806B2 (en) | 2015-02-10 | 2018-02-20 | Dreamworks Animation L.L.C. | Generation of three-dimensional imagery to supplement existing content |
US10368104B1 (en) * | 2015-04-01 | 2019-07-30 | Rockwell Collins, Inc. | Systems and methods for transmission of synchronized physical and visible images for three dimensional display |
US9943247B2 (en) | 2015-07-28 | 2018-04-17 | The University Of Hawai'i | Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan |
US10360718B2 (en) | 2015-08-14 | 2019-07-23 | Samsung Electronics Co., Ltd. | Method and apparatus for constructing three dimensional model of object |
US10388065B2 (en) | 2015-11-10 | 2019-08-20 | Landmark Graphics Corporation | Fracture network triangle mesh adjustment |
EP3374804B1 (en) * | 2015-11-10 | 2022-08-24 | Landmark Graphics Corporation | Target object simulation using orbit propagation |
WO2017082872A1 (en) | 2015-11-10 | 2017-05-18 | Landmark Graphics Corporation | Target object simulation using undulating surfaces |
WO2017091479A1 (en) | 2015-11-23 | 2017-06-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
KR102236222B1 (ko) * | 2016-08-24 | 2021-04-05 | 한국전자통신연구원 | 중첩영역의 제어점들을 이용한 시차 최소화 스티칭 장치 및 방법 |
US10558881B2 (en) * | 2016-08-24 | 2020-02-11 | Electronics And Telecommunications Research Institute | Parallax minimization stitching method and apparatus using control points in overlapping region |
DE102018113015A1 (de) * | 2018-05-30 | 2019-12-05 | Armin Stark | Autonome, mobile Arbeitmaschine |
CN109086724B (zh) * | 2018-08-09 | 2019-12-24 | 北京华捷艾米科技有限公司 | 一种加速的人脸检测方法及存储介质 |
CN112771855A (zh) * | 2018-09-17 | 2021-05-07 | 美国斯耐普公司 | 在三维深度视频和图像中创建冲击波 |
CN112771438B (zh) * | 2018-09-26 | 2023-10-10 | 美国斯耐普公司 | 利用二维输入选择对三维深度图像进行深度雕塑 |
CN109816789B (zh) * | 2018-12-14 | 2023-02-07 | 广东三维家信息科技有限公司 | 一种基于深度神经网络的三维模型参数化方法 |
CN111857515B (zh) * | 2020-07-24 | 2024-03-19 | 深圳市欢太科技有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN113255650B (zh) * | 2021-06-24 | 2021-10-01 | 北京市水利自动化研究所 | 一种基于slimSSD模型的水表计量快速精准识别方法 |
CN114820329B (zh) * | 2022-07-01 | 2022-11-25 | 之江实验室 | 基于高斯过程大核注意力装置引导的曲面测量方法及装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3740865B2 (ja) * | 1998-10-08 | 2006-02-01 | コニカミノルタホールディングス株式会社 | 多視点3次元データの合成方法および記録媒体 |
US8023724B2 (en) * | 1999-07-22 | 2011-09-20 | Photon-X, Inc. | Apparatus and method of information extraction from electromagnetic energy based upon multi-characteristic spatial geometry processing |
US6677957B2 (en) * | 2001-01-09 | 2004-01-13 | Intel Corporation | Hardware-accelerated visualization of surface light fields |
GB2381429B (en) * | 2001-09-28 | 2005-07-27 | Canon Europa Nv | 3D computer model processing apparatus |
GB0224449D0 (en) * | 2002-10-21 | 2002-11-27 | Canon Europa Nv | Apparatus and method for generating texture maps for use in 3D computer graphics |
JP2006053754A (ja) | 2004-08-11 | 2006-02-23 | Honda Motor Co Ltd | 平面検出装置及び検出方法 |
JP4457186B2 (ja) | 2004-09-17 | 2010-04-28 | 国立大学法人東京工業大学 | 準統計モデルによるメッシュ修正方法 |
JP2006145419A (ja) | 2004-11-22 | 2006-06-08 | Univ Nihon | 画像処理方法 |
US7869021B2 (en) * | 2007-04-05 | 2011-01-11 | Asti Holdings Limited | Multiple surface inspection system and method |
-
2006
- 2006-11-08 JP JP2006302717A patent/JP4392507B2/ja active Active
-
2007
- 2007-11-08 US US12/513,855 patent/US8406509B2/en not_active Expired - Fee Related
- 2007-11-08 WO PCT/JP2007/072147 patent/WO2008056825A1/ja active Application Filing
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012527787A (ja) * | 2009-05-21 | 2012-11-08 | インテル・コーポレーション | 画像から高速に立体構築を行なう方法 |
JP2013120083A (ja) * | 2011-12-06 | 2013-06-17 | Honda Motor Co Ltd | 環境認識装置 |
US8896689B2 (en) | 2011-12-06 | 2014-11-25 | Honda Motor Co., Ltd. | Environment recognition apparatus |
US9243935B2 (en) | 2012-08-31 | 2016-01-26 | Canon Kabushiki Kaisha | Distance information estimating apparatus |
CN105243687A (zh) * | 2015-10-23 | 2016-01-13 | 佛山市南海区广工大数控装备协同创新研究院 | 一种义齿模型三角网格优化方法 |
WO2019229913A1 (ja) * | 2018-05-30 | 2019-12-05 | 株式会社ニコン | 情報処理装置、情報処理方法、情報処理プログラム、及び顕微鏡 |
Also Published As
Publication number | Publication date |
---|---|
WO2008056825A1 (fr) | 2008-05-15 |
US20100054579A1 (en) | 2010-03-04 |
US8406509B2 (en) | 2013-03-26 |
JP4392507B2 (ja) | 2010-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4392507B2 (ja) | 3次元サーフェス生成方法 | |
Schöps et al. | Surfelmeshing: Online surfel-based mesh reconstruction | |
US20190364265A1 (en) | Free-viewpoint video generating method and free-viewpoint video generating system | |
KR100721536B1 (ko) | 2차원 평면상에서 실루엣 정보를 이용한 3차원 구조 복원방법 | |
EP2671210B1 (en) | Three-dimensional environment reconstruction | |
JP2019534510A5 (ja) | ||
KR20070095040A (ko) | 카메라 보정 방법 및 이를 이용한 3차원 물체 재구성 방법 | |
US20110128286A1 (en) | Image restoration apparatus and method thereof | |
CN110567441B (zh) | 基于粒子滤波的定位方法、定位装置、建图及定位的方法 | |
CN104715504A (zh) | 一种鲁棒的大场景稠密三维重建方法 | |
JP2000268179A (ja) | 三次元形状情報取得方法及び装置,二次元画像取得方法及び装置並びに記録媒体 | |
JPH11504452A (ja) | 2次元投影図に基づいて3次元の対象物を再現し、取り扱うための装置と方法 | |
WO2021187157A1 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP2009530701A (ja) | 深度マップを画像から判定する方法、深度マップを判定する装置 | |
WO2023088127A1 (zh) | 室内导航方法、服务器、装置和终端 | |
Deepu et al. | 3D Reconstruction from Single 2D Image | |
JP2008204318A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
CN114663599A (zh) | 一种基于多视图的人体表面重建方法及系统 | |
Li et al. | An occlusion detection algorithm for 3d texture reconstruction of multi-view images | |
JP6641313B2 (ja) | 領域抽出装置及びプログラム | |
KR101673442B1 (ko) | 비주얼 헐 근사화에 대해 dbss로 재메쉬화하는 방법 및 장치 | |
WO2024048210A1 (ja) | 視点画像生成装置、視点画像生成方法、及びプログラム | |
CN116091871B (zh) | 一种针对目标检测模型的物理对抗样本生成方法及装置 | |
Lai | Augmented Reality visualization of building information model | |
JP2009294956A (ja) | 3次元形状復元方法とその装置、プログラム及び記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090507 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20090507 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20090608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090623 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090818 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090915 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |