JP6216468B2 - 無特徴抽出の高密度sfm三次元再構成法 - Google Patents

無特徴抽出の高密度sfm三次元再構成法 Download PDF

Info

Publication number
JP6216468B2
JP6216468B2 JP2016557182A JP2016557182A JP6216468B2 JP 6216468 B2 JP6216468 B2 JP 6216468B2 JP 2016557182 A JP2016557182 A JP 2016557182A JP 2016557182 A JP2016557182 A JP 2016557182A JP 6216468 B2 JP6216468 B2 JP 6216468B2
Authority
JP
Japan
Prior art keywords
camera
scene
depth
reconstruction
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016557182A
Other languages
English (en)
Other versions
JP2017503290A (ja
Inventor
ペイ チョン
ペイ チョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Publication of JP2017503290A publication Critical patent/JP2017503290A/ja
Application granted granted Critical
Publication of JP6216468B2 publication Critical patent/JP6216468B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Description

本発明は、画像の三次元再構成に関し、より詳しくは、無特徴抽出の高密度SFM三次元再構成法に関する。
コンピュータビジョンに基く三次元再構成は、デジタルカメラやビデオカメラで画像を取得し、ピラミッド法を構成することで、撮影されたシーン又は目標の三次元情報を推定することで、三次元の客観的世界を表現するという目的を実現でき、これがロボットナビゲーション、自動車自動または補助駆動、バーチャルリアリティ、デジタルメディアの作成、コンピュータアニメーション、画像ベース・レンダリング(image−based rendering)、文化遺産の保護などに用いられる。
運動からの構造復元(Structure from Motion,SFM)は、一般的な三次元再構成法であり、二つ、複数の画像又はビデオからシーンや目標の三次元情報を推定する。従来技術では、SFM三次元再構成を実現する技術が、特徴点に基づいたもので、スパースで、二段階に分けて実現するという特徴がある。従来のSFM三次元再構成は、ま画像からスケール不変性(scale invariance)やアフィン不変性(affine−invariant)などを備える特徴点を検出し整合するステップと、検出された特徴量の三次元情報とカメラの姿勢(位置や角度など)を推定するステップ、という二つのステップを含む。上記特徴点がハリス(Harris)による特徴点、Kanade−Lukas−Tomasi法による(KLT)特徴、ロウ(Lowe)によるスケール不変性(scale invariant feature transform,SIFT)を備える。
従来技術では、SFM三次元再構成アルゴリズムが二段階に分けて実現するため、本当に最適な効果を達成できない。画像から検出された特徴点の二次元座標が誤差あるので、これに基づいて最適化アルゴリズムを採用し三次元情報を再構成しても、全体的に最適化結果が得られない。通常は、特徴点のマッチング精度が低いので、結果的には、精度が低い三次元再構成になる。
三次元再構成の効果が疎(sparse)であり、抽出された特徴点のみに対して三次元情報を推定するので、高密度(dense)SFM三次元再構成ができなく、つまり、すべての画素点の三次元情報が推定できない。30万画素を持つ640x480の画像に対して、一定の正確なマッチング率を保証するという前提で、通常には200−300個又はこれ以下の特徴点しか検出できない。上記特徴点が30万画素に対して非常に疎であり、大部分の画素が直接的に三次元情報の推定のために利用されていない。さらに特徴点に基づいて、推定されたエピポーラ拘束(epipolar constraint)などの技術手段により、他の点の三次元情報を推定し、高密度又は準密(quasi dense)の再構成ができるが、推定された特徴点の三次元情報とカメラの姿勢とがある程度の誤差あり、後続の他の点の三次元推定効果に影響を与える。
従来技術の問題点を克服するために、本発明は、無特徴抽出の高密度SFM三次元再構成法を提出する。本発明のSFM三次元再構成法を採用することで、特徴点の検出やマッチングが必要なく、ワンステップで最適化することにより高密度三次元再構成が実現できる。
上記目的を達成するため、本発明に係る無特徴抽出の高密度SFM三次元再構成法は、
あるシーンに関するn枚(n≧2)の画像を入力するステップS1と、
あるカメラ座標系と一致するワールド座標系を確立し、ワールド座標系と第1カメラの座標系が一致するように設定し、すなわち、ワールド座標系の原点、x軸、及びy軸と、第1カメラのカメラ中心、第1カメラの結像面のx軸及びy軸とが重なり、そのZ軸が第1カメラの結像面に垂直するように設定するステップS2と、
1枚目の画像の画素点に対応する三次元空間の点が備える深度qである三次
Figure 0006216468
カメラ射影行列とを、変数とするステップS3と、
オプティカルフロー推定に類似する、連続領域における変分目標関数又はその離散形態の目標関数である目標関数を構造するステップS4と、
粗から密へのピラミッド法で、連続領域又は離散領域において目標関数を最適化するように反復(iterance・イテレーション)アルゴリズムを設計し、シーンの三次元情報を示す深度と、カメラの相対姿勢を示すカメラ射影行列とを出力するステップS5と、
シーンの三次元情報を示す深度に基づいて、高密度投影、類似またはユークリッド再構成を実現するステップS6とを備えることを、特徴とする。
上記方法により、ワンステップでSFM三次元再構成ができ、ワンステップで最適化することにより三次元情報の推定を実現し、目標関数値をターゲットにすることで、最適の解決策が得られ、少なくとも部分最適の解決策が得られるため、従来技術に対して大きく改善され、実験で初期的な検証が行われた。
上記カメラが、ある画像に対応するカメラであり、本発明には、シーンに関わる1枚目の画像に対応するカメラが第1カメラであり、第1カメラの座標系とワールド座標系が一致しており、各画像がそれぞれ一つの3×4のカメラ射影行列に対応する。
本発明において、より簡単に計算するために、上記方法でワールド座標系が構成されるが、実際には、任意にワールド座標系を確立することができる。任意に座標系を確立する場合には、推定すべきパラメータがn個のカメラ射影行列を含み、各三次元点を描くためには三つの座標パラメータが必要である。本発明には、この技術案の具体的な内容が記載されていないが、任意に座標系が確立されたという技術案の基本技術思想と、上記ワールド座標系が確立されたという技術案の基本技術思想とが同じである。
投影三次元再構成を実現するために、まずはパラメータ化設定が行われ、すなわち、投影三次元再構成の実現中に、以下のようにパラメータ化する。具体的には、
ワールド座標系を確立すると共に、この第1カメラのカメラ射影行列が、[I 0]∈R3,4に設定し、ここで、Iが3×3の単位行列であり、0が3×1の零ベクトルであり、
Figure 0006216468
として設定され、
シーンの三次元構造が、1枚目の画像に定義された三次元シーンの深度により決められ、
1枚目画像の画素(x,y)に対応する三次元空間の点における三次元シーンの深度がqx,yである場合には、前記三次元点の三次元座標が下式になり、
Figure 0006216468
投影三次元再構成において、カメラ射影行列Pと三次元シーンの深度qx,yが、推定されるべき未決定のパラメータとして設定され、
誤解が発生しないという前提で、数学公式を簡潔にするため、下付き文字x、yを省略する。
連続領域において投影三次元再構成を実現する具体的な実現プロセスには、
構成された連続領域における目標関数が、
Figure 0006216468
であり、ここで、
Figure 0006216468
上記目標関数を説明すると、
Figure 0006216468
あり、
(b)目標関数が、データ項fdata、オフセット平滑化項fsmooth_uv、および深度平滑化項fsmooth_depthという三つの部分に分けられ、ここで、α、β、τおよびτが非負の重みであり、
Figure 0006216468
Iの成分値を示し、
(d)深度が激変的に変化することにより発生する影響を克服するために、ロバスト関数ρが導入され、ロバスト関数ρがシャルボニエ(Charbonnier)関数
Figure 0006216468
定数であり、一方、ロバスト関数が導入されない場合には、ρ(x)=x、
(e)uとvは、画像領域に定義され、カメラ射影行列Pと深度qをパラメータ
Figure 0006216468
ここで、Pi,jがi番目のカメラ射影行列Pのj番目の行ベクトルであり、誤解が発
Figure 0006216468
連続領域に設定された反復最適化アルゴリズムに関して、具体的には、三次元シーンの深度が1枚目の画像に定義された連続函数であるため、極点においてオイラー・ラグランジュ方程式を満たす必要があるとともに、極点においてカメラ射影行列のパラメータに対する偏導関数が0になり、画像の離散格子点においてオイラー・ラグランジュ方程式と、カメラ射影行列のパラメータに対する偏導関数が0であるという二つの方程式に基づいて、増分法で表現することにより、カメラ射影行列と三次元シーンの深度増分を求めるための反復プロセスが、次の線形方程式を解くことになり、
Figure 0006216468
Figure 0006216468
順番的に構成され、そして、各反復が、下式
Figure 0006216468
を解くことになることで、対応する増分δPとδqを確定し、
求められた増分に基づいて、収束するまで、P←δP+P、q←δq+qのようにパラメータPとqを更新し、
つまり、アルゴリズム1の具体的なプロセスでは、
入力:n枚画像、初期化された三次元シーンの深度qとカメラ射影行列P
Figure 0006216468
示、
1.反復(iterance・イテレーション)
1)オイラー・ラグランジュ方程式と、目標関数のカメラ射影行列のパラメータに対する偏導関数が0であることにより、式(7)のHとbを確定し、
2)式(7)に基づいて増分δθを計算し、さらに対応する増分δPとδqを確定し、
Figure 0006216468
収束するまで繰り返し、
2.収束した三次元シーンの深度qにより、式(1)に基づいてシーンの三次元表示を計算する。
上記カラー画像が、一般的にRGB又はHSVで表示されており、例えば、RGB式であれば、画像が三成分、すなわち赤(R)、緑(G)、青(B)成分を有する。色成分が、異なるフォーマットの組み合わせあってもよく、例えば、R、G、B及びHと四つの成分を使用する。上記ロバスト(ROBUST)関数が多くの選択肢を持つが、上記記載された関数に限定されるものではない。
上記式(1)において目標関数f(P,q)が構成される根拠は、ある程度でオプティカルフロー推定に類似し、すなわち、グレースケール不変仮定と画素オフセッ
Figure 0006216468
y)|))である平滑化項に対応する。式(1)の第三部分τρ(|∇q|/q+τ|Δq|/q)対が深度の平滑仮定に対応する。
さらに、前記目標関数におけるデータ項、オフセット平滑化項が、その他の類似の変形形態を採用でき、つまり、
Figure 0006216468
ロバスト関数の導入が、その他の変形形態で行われてもよく、式(3)におけるデータ項について、その他の変形形態が、
Figure 0006216468
である。
上記連続領域の状況に類似し、構成された離散形態の目標関数が、下式になり、
Figure 0006216468
ここで、
Figure 0006216468
Figure 0006216468
離散目標関数(11)とその変形形態の反復最適化アルゴリズムに関して、具体的には、離散形態の目標関数(11)が本質的に非線形最小二乗問題であり、従来のレーベンバーグ・マーカート法(Levenberg−Marquardt)またはガウス−ニュートン法を採用でき、各反復プロセスが線型方程式系(15)を解くことになり
Figure 0006216468
ここで、Hがヘッセ行列(Hessian matrix)又はガウス・ニュートン・ヘッセ行列であり、bが梯度向量であり、μが非負数であり、レーベンバーグ・マーカート法(Levenberg−Marquardt)またはガウス−ニュートン法により、対応する増分δPとδqを確定し、
求められた増分に基づいて、収束するまでパラメータPとqを、P←δP+P、q←δq+qのように更新し、
アルゴリズム2の具体的な実現プロセスにおいて、
Figure 0006216468
qの初期化、
Figure 0006216468
示、
1.反復(iterance・イテレーション)
1)式(15)におけるガウス・ニュートン・ヘッセ行列Hと勾配ベクトルbを計算し、
2)式(15)に基づいて増分δθを計算し、さらにそれぞれに対応する増分δPとδqを確定し、
Figure 0006216468
収束するまで繰り返し、
2.収束した三次元シーンの深度qにより、式(1)に基づいてシーンの三次元表示を計算する。
さらに、粗から密へ(From Coarse TO Fine)のピラミッド法における具体的なステップについて、
画像のn層のピラミッド表示を算出し、
Figure 0006216468
なるように初期化し、すべての点における三次元シーンの深度を1になるように初期化し、
粗から密へ順番的にカメラ射影行列と三次元シーンの深度とを推定するとともに、カメラ射影行列と三次元シーンの深度に対してそれぞれ校正し補間することで、次の細かい画像層に対する反復プロセスの初期値として設定され、
精度が異なる層の間に三次元シーンの深度の補間が、バイリニア補間値、双三次補間法又は他の類似の補間方法で実現され、
精度が異なる層の間にカメラ射影行列の修正に関しては、隣接する二つの精度を持つ画像はx及びy方向における画素比率がそれぞれs、s(s,s<1)であるように設定し、精度が低い画像層において、推定されたあるカメラのカメラ射影行列が、P(k+1)であり、ここで、上付き(k+1)がピラミッド構造のk+1層目を示し、対応するk層目の画像のカメラ射影行列が、下式になり、
Figure 0006216468
粗から密へのピラミッド法の具体的な反復アルゴリズム、すなわち、アルゴリズム3の具体的なプロセスにおいて、
入力:複数の画像、
Figure 0006216468
示、
1.画像におけるm層のピラミッド表示を計算し、
2.反復:画像層kがm層目から順番的に1層目まで、
(1)k≠mである場合には、
一つ上の層で推定された三次元シーンの深度q(k+1)を基準にして、補間方法で本層における三次元シーンの深度q(k)を、三次元シーンの初期化として計算し、
Figure 0006216468
用して、式(16)により本層におけるカメラ射影行列P (k)を、カメラ射影行列の初期化として計算し、
それ以外の場合は、m層目の画像において、
Figure 0006216468
設置し、すべての点における三次元シーンの深度情報をq(m)=1に設置し、
終わり、
2)ピラミッド法1又はピラミッド法2でこの層のカメラ射影行列P (k)
Figure 0006216468
反復の終わり、
Figure 0006216468
4.三次元シーンの深度qに基づいて、式(1)によりシーンの三次元シーン表示を計算する。
さらに、類似三次元再構成またはユークリッド三次元再構成を実現する具体的なプロセスでは、
パラメータ化について、具体的には、
カメラ射影行列がカメラ内部パラメータとカメラ外部パラメータで表示され、
P=K[R t]
Figure 0006216468
に含まれ、カメラ外部パラメータが3×3回転行列Rと3×1シフトベクトルtにより確定され、回転行列Rが三つの角度パラメータであるx軸、y軸、z軸周りの回転角γ、γ、γにより確定され、
Figure 0006216468
カメラ内部パラメータとカメラ外部パラメータが未知である場合には、内部パラメータα、α、s、p、p、フトベクトルt、回転角γ、γ、γ、および三次元シーンの深度qが推定すべきの未定のパラメータであり、類似の三次元再構成を実現し、
カメラ内部パラメータが既知で、カメラ外部パラメータが未知である場合には、フトベクトルt、回転角γ、γ、γ、および三次元シーンの深度qが推定すべきの未定のパラメータであり、類似の三次元再構成を実現し、
カメラ内部パラメータが既知で、カメラ外部パラメータも既知である場合には、ユークリッド(Euclidean Stratification)三次元再構成を実現する中に、この場合には、三次元シーンの深度qが推定すべきの未定パラメータである。
さらに、前記無特徴抽出の高密度SFM三次元再構成法が大きなベースラインに応用でき、具体的には、射影幾何学において、大きなベースラインというのが、カメラの間に相対運動が大きいため、画像の間に顕著な区別が発生し、大きなベースラインの場合には、SFM三次元再構成が、
画像からハリス(Harris)特徴、SIFT特徴又はKLT特徴という特徴を抽出し、マッチングする第1ステップと、
抽出された特徴に基づいて、特徴点の三次元情報とカメラ射影行列を推定する第2ステップと、
上記二つのステップに基づいて、ピラミッド法3で高密度SFM三次元再構成を実現する第3ステップと、を含み、
ここで、第2ステップで推定されたカメラ射影行列を、第3ステップにおけるカメラ射影行列の初期値として設定し、第2ステップで推定された三次元シーンの深度に対して補間することで、第3ステップにおける次元シーンの深度の初期値として設定する。
以上のように、本発明によれば、無特徴抽出の高密度SFM三次元再構成法が得られ、従来のSFM三次元再構成法に比べて、ワンステップで高密度SFM三次元再構成を実現できる。また、本発明によれば、ワンステップで最適化することにより高密度三次元情報の推定を実現できるとともに、目標関数値をターゲットにすることで、最適の解決策が得られ、少なくとも部分最適の解決策が得られる。従来技術に対して大きく改善され、実験で初期的な検証が行われた。
図1は、本発明に係る三次元再構成の実現を示すフローチャート図である。
以下では、本発明を詳しく説明するが、本発明の実施形態はこれに限定されない。
図1のように、S1において、あるシーンに関するn枚(n≧2)の画像を入力し、
S2において、あるカメラ座標系と一致するワールド座標系を確立し、ワールド座標系と第1カメラの座標系が一致するように設定し、すなわち、ワールド座標系の原点、x軸、及びy軸と、第1カメラのカメラ中心、第1カメラの結像面のx軸及びy軸とが重なり、そのZ軸が第1カメラの結像面に垂直するように設定し、
S3において、1枚目の画像の画素点に対応する三次元空間の点が備える深度
Figure 0006216468
列Piであるカメラ射影行列とを、変数と設定し、
S4において、オプティカルフロー推定に類似する、連続領域における変分目標関数又はその離散形態の目標関数である目標関数を構造し、
S5において、粗から密へのピラミッド法で、連続領域又は離散領域において目標関数を最適化するように反復アルゴリズムを設計し、シーンの三次元情報を示す深度と、カメラの相対姿勢を示すカメラ射影行列とを出力し、
S6において、シーンの三次元情報を示す深度に基づいて、高密度投影、類似またはユークリッド再構成を実現する。
以下では、各三次元再構成の実現方法を例として挙げられる。
A、連続領域において二つのグレースケール画像に基づく投影三次元再構成
ここで、連続領域において二つのグレースケール画像から投影(projective)三次元再構成を実現するという本発明のコアモデルを説明する。第1及び第2の画像がそれぞれIとI(上付きが画像の番号を示す)であり、第1の画像の位
Figure 0006216468
が離散格子点(lattice)に定義されたデジタル画像であるが、本発明に提出した技術案によると、画像が連続領域に定義され、数値最適化アルゴリズムで三次元再構成を実現する。
具体的な三次元情報を描画するため、ワールド座標系は、その原点、x軸、及びy軸が、第1カメラのカメラ中心(camera centre)、第1カメラの結像面のx軸及びy軸と重なるとともに、そのz軸が、第1カメラの結像面に対して垂直するように、構成される。
射影幾何原理に基づいて、第1カメラのカメラ射影行列が[I 0]∈R3,4であり、ここで、Iが3×3の単位行列(identity matrix)であり、0が3×1の零ベクトルであり、第2カメラのカメラ射影行列が3×4の行列P∈R3,4であると仮定する。また、1枚目の画像の画素(x,y)に対応する三次元点における深度がqx,yであり、つまりそのz座標がqx,yであることを仮定し、対応してこの点の三次元座標が、
Figure 0006216468
になる。
このようにすることで、撮影されたシーン又は目標の三次元構成が、1枚目の画像に定義された深度qx,yにより決められており、第2カメラのカメラ射影行列Pが二つのカメラの間の相対運動情報を示す。投影三次元再構成の目的が、シーンの深度情報qx,y(深度情報qx,yに基づいて、式(1)により対応する三次元座標を計算する)とカメラ射影行列Pとを推定することである。
射影幾何原理に基づいて、1枚目の画像の画素(x,y)に対応する三次元点の、2枚目の画像における結像位置(ux,y,vx,y)が下式である。
Figure 0006216468
ここで、Pがカメラ射影行列Pのj番目の行ベクトルである。誤解が発生しないという前提で、数学公式を簡潔にするため、下付き文字x、yを省略する。式(2)により、uとvが画像領域に定義され、カメラ射影行列Pと深度qとをパラメータとして設定された関数u(P,q)とv(P,q)である。
投影三次元再構成を実現するため、下記の変数目標関数が構成される。
Figure 0006216468
における第一部分が、同じ三次元空間の点が異なる画像で同じグレースケール値を持つというオプティカルフロー計算中のグレースケール不変仮定(gray valueconstancy assumption)に基づいたものである。グレースケール不変仮定のみがあれば、最適化問題は不良問題になる。このため、目標関数(3)に第二部分を導入し、二つの画像における結像が平滑のオフセットu−xとv−yを含むように設定することで、この平滑仮定が目標関数(3)の第二部分で描画される。目標関数(3)の二つの部分がそれぞれデータ項と、オフセット平滑化項と呼ばれ、オプティカルフロー計算中のデータ項、オフセット平滑化項に対応する。
本発明において、反復アルゴリズムで目標関数(3)の最適化を実現でき、その一番重要な技術思想が、変分法(variational method)におけるオイラー・ラグランジュ方程式(Euler‐Lagrange equation)である。変分法におけるオイラー・ラグランジュ方程式(Euler‐Lagrange equation)の標準形態を満足するため、目標関数(3)の最適化中の積分量Lが下式のように定義される(一時的にカメラ射影行列のパラメータPを無視し、深度のパラメータqのみを検討する)。
Figure 0006216468
オイラー・ラグランジュ方程式によると、極点が得られるため、目標関数(3)が、下式
Figure 0006216468
を満足する必要がある。
具体的には、オイラー・ラグランジュ方程式(5)が、
Figure 0006216468
になる。
また、導関数が極点において0になるという性質によると、目標関数(3)が、下式
Figure 0006216468
を満足する。すなわち、
Figure 0006216468
になる。
反復アルゴリズムにおいて、その前の反復ステップで既にPとqの現在推定値が得られ、毎回の反復プロセスの目的は、Pとqの増分δPとδqを確定し、以下のようにパラメータを更新する。
Figure 0006216468
Figure 0006216468
数であり、q+δqの1次差分でqとqを近似し、div(∇q)の代わりに、div(∇(q+δq))を用いる。式(6)と式(7)の増分形態を連立すると、画像格子点上に増分δP、δqを変数として、(n+12)個の線形方程式を確立でき、上記線形方程式の変数の数も、(n+12)個である。ここで、nが画像の画素の数で、すなわち、深度qがn個の変数があり、カメラ射影行列も12個の変数がある。
公式を簡潔にするために、カメラ射影行列Pの12個の変数と深度qのn個の変数とにより、(n+12)次元のベクトルθが構成される。整理が行われると、式(6)及び(7)の増分形態が以下の線形方程式の形式で表される。
Figure 0006216468
よって、毎回の反復が、
Figure 0006216468
を求めることになる。
上述したように、二つのグレースケール画像と、カメラ射影行列と、深度の初期値に基づいて、以下のアルゴリズムでSFM投影三次元再構成を実現できる。
つまり、アルゴリズム1の具体的なプロセスでは、
入力:二つのグレースケール画像IとI、およびカメラ射影行列P、深度qの初期化、
出力:カメラ射影行列P、深度q、
収束するまで、反復(iterance・イテレーション)が行われる。
1.式(6)と式(7)に基づいて式(9)のHとbを確定する、
2.式(10)に基づいて増分δθを計算すると共に、対応する増分δP、δqを確定する、
3.式(8)に基づいてパラメータPとqを更新する。
部分的な極値点の困難を克服するために、粗から密へ(from coarse to fine)のピラミッド法を採用する。具体的には、まず、低解像度の画像において三次元再構成が実現され、さらに、推定された深度に対して補間が行われたとともに、カメラ射影行列が修正されたものを、次の層における高解像度の三次元再構成の初期値として設定される。上記プロセスを、最高解像度が得られるまで、繰り返す。
深度の補間について、バイリニア補間値(bilinear interpolation)、双三次補間法(bicubic interpolation)、又は他の類似の補間方法で実現する。
精度が異なる層の間にカメラ射影行列の補間が行われる。隣接する二つの層の画像はx及びy方向に画素比率がそれぞれsとsであり(s,s<1)、精度が低い画像層において、推定された第2カメラのカメラ射影行列がP(i+1)である(ここで、上付きi+1がピラミッド構造のi+1層目を示す)と仮定すると、対応するi層目の画像の第2カメラの射影行列が、下式になる。
Figure 0006216468
つまり、アルゴリズム2の具体的なプロセスでは、
入力:二つのグレースケール画像、
出力:カメラ射影行列P、深度q
1.二つの画像のm層ピラミッド表示を計算し、
2.for i=m:−1:1
ifi≠m
一つ上の層で推定された深度q(i+1)を基準にして、補間方法で本層における深度q(i)を、深度の初期化として計算し、
一つ上の層で推定されたカメラ射影行列P(i+1)を利用して、式(11)で本層におけるカメラ射影行列P(i)を、第2カメラの射影行列の初期化として計算し、
else
初期化:第2カメラのカメラ射影行列を、P(m)=[I 0]に設置し、すべての点における深度情報をq(m)=1に設置し、
end
アルゴリズム1により本層におけるカメラ射影行列P(i)と深度q(i)を計算し、
end
B、二つのグレースケール画像に基づいた投影三次元再構成の離散形態
デジタル画像自体が離散形態で存在するため、以下では、目標関数(3)に対して直接的にその離散形態を示す。
Figure 0006216468
目標関数(12)が本質的には非線形最小二乗問題であり、ガウス−ニュートン(Gauss−Newton)法(又は、他の類似するアルゴリズム、例えばレーベンバーグ・マーカート法(Levenberg−Marquardt、LMアルゴリズム)で反復・最適化を実現する。理解しやすいため、まず、uとvを変数として設定することを考える。目標関数(12)の第一部分であるデータ項に対して、ガウス−ニュートン近似法を採用することで、以下のように関わるガウス−ニュートンヘッセ(Hessian)行列Hdataと勾配ベクトルbdataが得られる。
Figure 0006216468
目標関数(12)の第二部分である平滑化項に対して、偏導関数の代わりに、
Figure 0006216468
用してもよく、こんな微妙な変化が、アルゴリズムの全体的な構成を変更できない。
差分計算は、その隣接する画素に関わるため、平滑化項に対する導出が各画素点を分析することになり、データ項(13)の方が簡明である。反復アルゴリズム1と同じく、前回の反復により既にuとvの推定値が得られ、毎回の反復の目的がその増分δuとδvを確定する。従って、目標関数(12)における平滑化項が、下式で示される。
Figure 0006216468
上記二つの式の合計が、以下のように、ガウス−ニュートンヘッセ行列Hx,yと勾配ベクトルbx,yにより示される。
Figure 0006216468
すべての画素に対して式(14)のようなガウス−ニュートン近似を確立し、連立することで、以下のように平滑化項のガウス−ニュートンヘッセ行列Hsmoothと勾配ベクトルbsmoothが得られる。
Figure 0006216468
ここで、δx,yの定義から、各δx,yが隣接する画素に関わることが理解できたので、式(15)における加算項の加算が通常の加算とは異り、式(15)における加算がδx,yの間のアライメントを考える必要がある。
式(13)と式(15)に基づいて、以下のように目標関数(12)におけるガウス−ニュートンヘッセ行列Hと勾配ベクトルbが求められる。
Figure 0006216468
以下の式を求めることで、増分δuとδvが得られる。
Figure 0006216468
本発明で提出した技術案において、最後のパラメータは、カメラの射影行列Pおよび深度qである。連続領域における導出のように、数学公式を簡潔にするため、カメラの射影行列Pおよび深度qを備えるパラメータベクトθを設定する。
合成関数の規則によると、増分δθが下式になる。
Figure 0006216468
すなわち、アルゴリズム3の具体的なプロセスでは、
入力:二つのグレースケール画像IとI、およびカメラ射影行列P、深度qの初期化
出力:カメラ射影行列P、深度q
収束するまで、反復が行われる。
1.式(18)のH、Jおよびbを計算し、
2.式(18)に基づいて、増分δθを計算し、対応する増分δPとδqをそれぞれ計算し、
3.式(8)に基づいてパラメータPとqを更新する。
連続領域における三次元再構成と同様に、粗から密へのピラミッド法で、離散形態の三次元再構成を実現でき、その基本フレームがアルゴリズム2sと同じである。異なるのは、離散の三次元再構成において、アルゴリズム2で各層の三次元再構成を実現する点である。冗長性を避けるために、粗から密へのピラミッド法で離散領域に三次元再構成をするアルゴリズムの説明を省略する。
C、二つのカラー画像に基づいた三次元再構成
二つのカラー画像に基づいた三次元再構成の原理が、グレースケール画像に基づいた三次元再構成と同じである。カラー画像の表示方法が様々であり、例えば、RGB((Red Green Blue:赤、緑、青)、HSV(Hue Saturation Value:色相彩度値)、HSL((Hue Saturation Lightness:色相彩度明度)およびHSI(Hue Saturation Intensity:色相飽和強度)がある。以下では、RGBカラー画像の離散形態の三次元再構成を例として、どうやってカラー画像に基づいた三次元再構成を処理するのかを説明する。離散形態の目標関数が下式のように構成される(同じく、連続領域において目標関数を構成できる)。
Figure 0006216468
目標関数(19)を最適化するアルゴリズムが目標関数(12)と同じであるため、ここで説明を省略する。また、このように連続領域においてカラー画像に基づいた三次元再構成が実現でき、その実現アルゴリズムが連続領域におけるグレースケール画像に基づいた三次元再構成に類似している。
D、複数の画像に基づいた三次元再構成
n幅(n>2)の画像に基づいた三次元再構成の基本的なアルゴリズムが、二つの画像に基づいた三次元再構成と同じであり、式(3)又は式(12)のような目標関数を構成し、データ項と平滑化項とを備える。二つの画像に基づいた三次元再構成と同じく、ワールド座標系を第1カメラの座標系に設定することで、第1カメラの射影行列が[I 0]∈R3,4になり、他のn−1個カメラ射影行列と深度qが推定すべきパラメータである。
複数の画像に基づいた三次元再構成において、データ項と平滑化項の構成が様々な選択ある。ここで、データ項と平滑化項に対して、それぞれ二つ異なる構成案が提出されるが、これに限定されない。データ項の第1構成案が、下式で示される。
Figure 0006216468
(u,v)がi幅目の画像において(x,y)に対応する座標である。データ項の第2構成案が、下式で示される。
Figure 0006216468
第1構成案には、式(20)において、二つの画像に関する(12)のデータ項と非常に類似しており、すなわち、同じ点がすべての画像で同じグレースケール値を持つというグレースケール不変仮定である。第2構成案の式(21)には、グレースケール不変仮定が少し変更し、隣接する画像の間のグレースケール不変仮定のみを考える。第2構成案が、ビデオシーケンスに基づいた三次元再構成のために適用する。
平滑化項について、以下のように二つの構成案(22)と(23)が提出された。
Figure 0006216468
式(22)において、オフセット量が1幅目の画像に基づいたものであり、式(23)において、オフセット量が隣接する画像の間のオフセット量を考える。
複数の画像に基づいた三次元再構成を実現するアルゴリズムが、二つの画像に基づいた三次元再構成に類似しているため、具体的なアルゴリズムを省略する。
E、三次元再構成に勾配(gradient)不変仮定を導入する
異なる照明条件による画像の変化を克服するために、目的関数の最適化中に勾配(gradient)不変仮定を導入し、すなわち、同じ三次元点が異なる画像で同じ勾配を持つことである。二つのグレースケール画像に基づく投影三次元再構成を例として、どうやって三次元再構成に勾配不変仮定を導入するのかを説明する。構成された目標関数が次式で示す。
Figure 0006216468
式(24)の反復最適化アルゴリズムがアルゴリズム3と同じであるので、ここで説明を省略する。
F、目的関数の最適化中にバスト関数を導入する
目的関数(3)と(12)が最適化され、他の類似の構成でもデータ項と平滑化項が二乗項という形態で表現されたため、これらのモデルがシーンや目標の深度に不均一な状況で、効果は悪くなる。このため、目的関数の最適化中、あるバスト関数ρが導入(introduce)される。式(12)を例にすると、下式になる。
Figure 0006216468
バスト関数ρが様々であり、例えばシャルボニエ(charbonnier)関数
Figure 0006216468
G、深度に平滑化拘束を導入する
画像のオフセットに平滑化拘束を導入すること以外には、一つの案としては直接的に平滑化拘束を三次元目標の深度qに導入する。離散形態の式(12)を例にすると、次式で目標関数を構成できる。
Figure 0006216468
もう一つの案としては、画像のオフセットと深度に対して同時に平滑化拘束を導入し、目的関数を最適化することで、次式になる。
Figure 0006216468
H、二つのグレースケール画像に基づく類似三次元再構成とユークリッド三次元再構成
上記技術案には、再構成された結果が、射影再構成であり、一般的なユークリッド(Euclidean)三次元構成ではない。ここで、類似(similarity)三次元再構成とユークリッド三次元再構成を提出する。
射影幾何原理に基づいて、カメラの射影行列がカメラの内部パラメータおよびカメラの外部カメラパラメータによって、以下のように示される。
Figure 0006216468
まられ、カメラの外部パラメータが、ワールド座標系からカメラ座標系への回転変換を示す回転行列Rとシフトベクトルtにより確定される。
上記説明した投影再構成と類似して、ワールド座標系と第1カメラの座標系と同じであるように仮定すると、カメラの間の運動情報が完全に第2カメラの外部パラメータによって示される。簡単にするため、二つのカメラが同一内部パラメータを持つことを仮定する。第1カメラの射影行列を標準形態(I 0]にするために、第2カメラを次式のように設定する。
Figure 0006216468
シーン又は目標を示す深度qが投影三次元再構成と同じである
類似三次元再構成を実現する技術案が、投影再構成と類似し、すなわち、目的関数(3)又は(12)を最適化する。異なるところが、第2カメラの射影行列Pの形態(27)である。ここで、類似三次元再構成の離散形態を実現する方法のみ記載された。投影三次元再構成の連続領域の技術案と同じく、連続領域において類似三次元再構成も実現できる。
回転行列Rが、以下のように、三つの角度パラメータであるx軸、y軸、z軸周りの各回転角γ、γ、γにより確定された。
Figure 0006216468
射影三次元再構成において、(n+12)次元のパラメータベクトルθの最初から12までの値がカメラ射影行列パラメータであり、残りがn個の深度パラメータであると仮定する。また、類似三次元再構成において、パラメータベクトルθ′の最初から11までの値が、三つの回転角度パラメータγ=[γ,γ,γ、三つのシフトベクトルt、および五つのカメラ内部パラメータα、α、s、p、pであり、11次元のベクトルθ″を構成し、その後にn個の深度パラメータがあると仮定する。
式(27)について、下式のようにヤコビアン行列(Jacobian matrix)を定義する。
Figure 0006216468
ここで、Iがn×nの単位行列である。従って、類似三次元再構成において、反復プロセスで以下のパラメータ増分が求められる。
Figure 0006216468
ここで、H、J、bが式(18)におけるH、J、bである。
カメラの一部パラメータが既知である場合には、例えばカメラがキャリブレーションであって、カメラの内部パラメータが既知であるときに、同じく上記類似三次元再構成を実現できる。カメラの内部パラメータと外部パラメータがすべて既知であるときに、ユークリッド三次元再構成を実現できる。
I、大きなベースライン(large baseline)におけるSFM三次元再構成
射影幾何学において、大きなベースライン(large baseline)とは、カメラの間に相対運動が大きいため、画像の間に顕著な差が生成されることである。原因としては、カメラの間の回転角又はシフトが大きすぎ、又はカメラの間の焦点距離差が大きすぎる。大きなベースラインの場合には、従来の三次元再構成方法と本発明に提出した上記方法に基づいて、大きなベースラインの三次元再構成を実現できる。具体的には、SFM三次元再構成が、画像からハリス(Harris)特徴、SIFT特徴又はKLT特徴を抽出し、マッチングする第1ステップと、抽出された特徴に基づいて、特徴点の三次元情報とカメラのカメラ射影行列を推定する第2ステップと、上記二つステップに基づいて、上記提出した方法で高密度SFM三次元再構成を実現する第3ステップと、を含む。ここで、第2ステップで推定されたカメラ射影行列を、第3ステップにおけるカメラ射影行列の初期値として設定し、第2ステップで推定された三次元シーンの深度に対して補間することで、第3ステップにおける次元シーンの深度の初期値として設定する。
なお、今回開示した上記実施の形態はすべての点で例示であって制限的なものではない。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更を含むものである。
−専門用語の日本語・英語参照−
Figure 0006216468
Figure 0006216468

Claims (7)

  1. あるシーンに関するn枚(n≧2)の画像を入力するステップS1と、
    あるカメラ座標系と一致するワールド座標系を確立し、ワールド座標系と第1カメラの座標系が一致するように設定し、すなわち、ワールド座標系の原点、x軸、及びy軸と、第1カメラのカメラ中心、第1カメラの結像面のx軸及びy軸とが重なり、そのZ軸が第1カメラの結像面に垂直するように設定するステップS2と、
    1枚目の画像の画素点に対応する三次元空間の点が備える深度qである三次元シーンの
    Figure 0006216468
    変数とするステップS3と、
    オプティカルフロー計算中のデータ項およびオフセット平滑化項を用いた、連続領域における変分目標関数又はその離散形態の目標関数である目標関数を構造するステップS4と、
    粗から密へのピラミッド法で、連続領域又は離散領域において目標関数を最適化するように反復アルゴリズムを設計し、シーンの三次元情報を示す深度と、カメラの相対姿勢を示すカメラ射影行列とを出力するステップS5と、
    シーンの三次元情報を示す深度に基づいて、すべての画素点の三次元情報が推定できる投影、相似またはユークリッド再構成を実現するステップS6とを備える、
    ことを特徴とする無特徴抽出のすべての画素点の三次元情報が推定できる、SFM三次元再構成法。
  2. 投影三次元再構成を実現する中において、
    パラメータ化について、具体的には、
    ワールド座標系を確立すると共に、その第1カメラのカメラ射影行列を[I 0]∈R3,4に設定し、ここで、Iが3×3の単位行列であり、0が3×1の零ベクトルであり、
    Figure 0006216468
    定され、
    シーンの三次元構造が、1枚目の画像に定義された三次元シーンの深度により決められ、
    1枚目画像の画素(x,y)に対応する三次元空間の点における三次元シーンの深度がqx,yである場合には、前記三次元点の三次元座標が下式になり、
    Figure 0006216468
    投影三次元再構成において、カメラ射影行列Pと三次元シーンの深度qx,yが、推定されるべき未決定のパラメータとして設定され、
    誤解が発生しないという前提で、数学公式を簡潔にするため、下添え字x、yを省略する、ことを特徴とする請求項1に記載の無特徴抽出のすべての画素点の三次元情報が推定できる、SFM三次元再構成法。
  3. 連続領域において投影三次元再構成を実現する具体的な実現プロセスには、
    構成された連続領域における目標関数が、下式になり、
    Figure 0006216468
    ここで、
    Figure 0006216468
    上記目標関数を説明すると、
    Figure 0006216468
    (b)目標関数が、データ項fdata、オフセット平滑化項fsmooth_uv、および深度平滑化項fsmooth_depthという三つの部分に分けられ、ここで、α、β、τおよびτが非負の重みであり、
    Figure 0006216468
    し、
    (d)深度が不均一な状況により発生する影響を克服するために、ロバスト関数ρが導入さ
    Figure 0006216468
    十分に小さい正数であり、ε<10−6、又はロバスト関数ρがローレンツ(Lorentzian)関数
    Figure 0006216468
    合には、ρ(x)=x、
    (e)uとvは、画像領域に定義され、カメラ射影行列Pと深度qをパラメータとして設定
    Figure 0006216468
    Figure 0006216468
    ここで、Pi,jがi番目のカメラ射影行列Pのj番目の行ベクトルであり、誤解が発生しないと
    Figure 0006216468
    連続領域に設定された反復最適化アルゴリズムに関して、具体的には、三次元シーンの深度が1枚目の画像に定義された連続函数であるため、極点においてオイラー・ラグランジュ方程式を満たす必要があるとともに、極点においてカメラ射影行列のパラメータに対する偏導関数が0になり、画像の離散格子点において、オイラー・ラグランジュ方程式と、カメラ射影行列のパラメータに対する偏導関数が0であるという二つの方程式に基づいて、増分法で表現することにより、カメラ射影行列と三次元シーンの深度増分を求めるための反復プロセスが、次の線形方程式を解くことになり、
    Figure 0006216468
    Figure 0006216468
    構成され、そして、各反復が、下式
    Figure 0006216468
    を解くことになることで、対応する増分δPとδqを確定し、
    求められた増分に基づいて、収束するまで、P←δP+P、q←δq+qのようにパラメータPとqを更新し、
    つまり、アルゴリズム1の具体的なプロセスでは、
    Figure 0006216468
    1.反復
    1)オイラー・ラグランジュ方程式と、目標関数のカメラ射影行列のパラメータに対する偏導関数が0であることにより、式(7)のHとbを確定し、
    2)式(7)に基づいて増分δθを計算し、さらに対応する増分δPとδqを確定し、
    Figure 0006216468
    収束するまで繰り返し、
    2.収束した三次元シーンの深度qにより、式(1)に基づいてシーンの三次元表示を計算する、
    ことを特徴とする請求項2に記載の無特徴抽出のすべての画素点の三次元情報が推定できる、SFM三次元再構成法。
  4. 目標関数(2)におけるデータ項、オフセット平滑化項が、その他の変形形態を採用でき、すなわち、
    Figure 0006216468
    ロバスト関数の導入が、その他の変形形態で行われてもよく、
    式(3)におけるデータ項について、その他の変形形態が、
    Figure 0006216468
    になる、
    ことを特徴とする請求項3に記載の無特徴抽出のすべての画素点の三次元情報が推定できる、SFM三次元再構成法。
  5. 構成された離散形態の目標関数が、下式になり、
    Figure 0006216468
    ここで、
    Figure 0006216468
    離散目標関数(11)とその変形形態に対する反復最適化アルゴリズムに関しては、具体的に、離散形態の目標関数(11)が本質的に非線形最小二乗問題であり、従来のレーベンバーグ・マーカート法(Levenberg−Marquardt)またはガウス−ニュートン法を採用でき、各反復プロセスが線型方程式系(15)を解くことになり、
    Figure 0006216468
    ここで、Hがヘッセ行列又はガウス・ニュートン・ヘッセ行列であり、bが梯度向量であり、μが非負数であり、レーベンバーグ・マーカート法またはガウス−ニュートン法により、対応する増分δPとδqを確定し、
    求められた増分に基づいて、収束するまでパラメータPとqを、P←δP+P、q←δq+qのように更新し、
    アルゴリズム2の具体的な実現プロセスにおいて、
    Figure 0006216468
    1.反復
    1)式(15)におけるガウス・ニュートン・ヘッセ行列Hと勾配ベクトルbを計算し、
    2)式(15)に基づいて増分δθを計算し、さらにそれぞれに対応する増分δPとδqを確定し、
    Figure 0006216468
    収束するまで繰り返し、
    2.収束した三次元シーンの深度qにより、式(1)に基づいてシーンの三次元表示を計算する、
    ことを特徴とする請求項2に記載の無特徴抽出のすべての画素点の三次元情報が推定できる、SFM三次元再構成法。
  6. 粗から密へのピラミッド法における具体的なステップについて、
    画像のn層のピラミッド表示を算出し、
    Figure 0006216468
    うに初期化し、すべての点における三次元シーンの深度を1になるように初期化し、
    粗から密へ順番的にカメラ射影行列と三次元シーンの深度とを推定するとともに、カメラ射影行列と三次元シーンの深度に対してそれぞれ校正し補間することで、次の細かい画像層に対する反復プロセスの初期値として設定され、
    精度が異なる層の間に三次元シーンの深度の補間が、バイリニア補間値又は双三次補間法で実現され、
    精度が異なる層の間にカメラ射影行列の修正に関しては、隣接する二つの精度を持つ画像はx及びy方向における画素比率がそれぞれs、s(s,s<1)であるように設定し、精度が低い画像層において、推定されたあるカメラのカメラ射影行列が、P(k+1)であり、ここで、上付き(k+1)がピラミッド構造のk+1層目を示し、対応するk層目の画像のカメラ射影行列が、下式になり、
    Figure 0006216468
    粗から密へのピラミッド法の具体的な反復アルゴリズム、すなわち、アルゴリズム3の具体的なプロセスにおいて、
    入力:n枚画像、
    Figure 0006216468
    1.画像におけるm層のピラミッド表示を計算し、
    2.反復:画像層kがm層目から順番的に1層目まで、
    (1)k≠mである場合には、
    一つ上の層で推定された三次元シーンの深度q(k+1)を基準にして、補間方法で本層における三次元シーンの深度q(k)を、三次元シーンの初期化として計算し、
    Figure 0006216468
    式(16)により本層におけるカメラ射影行列P (k)を、カメラ射影行列の初期化として計算し、
    それ以外の場合は、m層目の画像において、
    Figure 0006216468
    べての点における三次元シーンの深度情報をq(m)=1に設置し、
    終わり、
    Figure 0006216468
    三次元シーンの深度情報q(k)を計算し、
    反復の終わり、
    Figure 0006216468
    4.三次元シーンの深度qに基づいて、式(1)によりシーンの三次元シーン表示を計算する、
    ことを特徴とする請求項1に記載の無特徴抽出のすべての画素点の三次元情報が推定でき る、SFM三次元再構成法。
  7. 相似三次元再構成またはユークリッド三次元再構成を実現する具体的なプロセスでは、
    パラメータ化について、具体的には、
    カメラ射影行列がカメラ内部パラメータとカメラ外部パラメータで表示され、
    P=K[R t]
    Figure 0006216468
    れ、カメラ外部パラメータが3×3回転行列Rと3×1フトベクトルtにより確定され、回転行列Rが三つの角度パラメータであるx軸、y軸、z軸周りの回転角γ、γ、γにより確定され、
    Figure 0006216468
    カメラ内部パラメータとカメラ外部パラメータが未知である場合には、内部パラメータα、α、s、p、pフトベクトルt、回転角γ、γ、γ、および三次元シーンの深度qが推定すべきの未定のパラメータであり、相似の三次元再構成を実現し、
    カメラ内部パラメータが既知で、カメラ外部パラメータが未知である場合には、フトベクトルt、回転角γ、γ、γ、および三次元シーンの深度qが推定すべきの未定のパラメータであり、相似の三次元再構成を実現し、
    カメラ内部パラメータが既知で、カメラ外部パラメータも既知である場合には、ユークリッド三次元再構成を実現する中に、この場合には、三次元シーンの深度qが推定すべきの未定パラメータである、
    ことを特徴とする請求項2又は6に記載の無特徴抽出のすべての画素点の三次元情報が推定できる、SFM三次元再構成法。
JP2016557182A 2014-04-08 2015-03-11 無特徴抽出の高密度sfm三次元再構成法 Expired - Fee Related JP6216468B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410139234.4 2014-04-08
CN201410139234.4A CN103914874B (zh) 2014-04-08 2014-04-08 一种无特征提取的紧致sfm三维重建方法
PCT/CN2015/073999 WO2015154601A1 (zh) 2014-04-08 2015-03-11 一种基于无特征提取的紧致sfm三维重建方法

Publications (2)

Publication Number Publication Date
JP2017503290A JP2017503290A (ja) 2017-01-26
JP6216468B2 true JP6216468B2 (ja) 2017-10-18

Family

ID=51040527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016557182A Expired - Fee Related JP6216468B2 (ja) 2014-04-08 2015-03-11 無特徴抽出の高密度sfm三次元再構成法

Country Status (4)

Country Link
US (1) US9686527B2 (ja)
JP (1) JP6216468B2 (ja)
CN (1) CN103914874B (ja)
WO (1) WO2015154601A1 (ja)

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103914874B (zh) * 2014-04-08 2017-02-01 中山大学 一种无特征提取的紧致sfm三维重建方法
CN104574432B (zh) * 2015-02-15 2017-05-24 四川川大智胜软件股份有限公司 一种自动多视角人脸自拍图像的三维人脸重建方法及系统
CN104599284B (zh) * 2015-02-15 2017-06-13 四川川大智胜软件股份有限公司 基于多视角手机自拍图像的三维人脸重建方法
CN104777700B (zh) * 2015-04-01 2016-08-24 北京理工大学 高沉浸投影多投影机优化部署方法
CN105069804B (zh) * 2015-08-21 2018-04-20 清华大学 基于智能手机的三维模型扫描重建方法
CN105160673A (zh) * 2015-08-28 2015-12-16 山东中金融仕文化科技股份有限公司 一种物体的定位方法
US10424072B2 (en) * 2016-03-01 2019-09-24 Samsung Electronics Co., Ltd. Leveraging multi cues for fine-grained object classification
US10579860B2 (en) 2016-06-06 2020-03-03 Samsung Electronics Co., Ltd. Learning model for salient facial region detection
CN106952215B (zh) * 2017-02-27 2020-02-28 珠海全志科技股份有限公司 一种图像金字塔特征提取电路、装置及方法
CN108618749B (zh) * 2017-03-22 2020-06-19 南通大学 基于便携式数字化眼底照相机的视网膜血管三维重建方法
CN109559271B (zh) * 2017-09-26 2023-02-28 富士通株式会社 对深度图像进行优化的方法和装置
CN107680159B (zh) * 2017-10-16 2020-12-08 西北工业大学 一种基于投影矩阵的空间非合作目标三维重建方法
CN109816687A (zh) * 2017-11-20 2019-05-28 天津工业大学 轮式移动机器人视觉伺服轨迹跟踪并发深度辨识
CN108259858B (zh) * 2018-04-10 2020-10-30 华雁智能科技(集团)股份有限公司 变电站场景与设备的监控方法及装置
CN110378993A (zh) * 2018-04-12 2019-10-25 Oppo广东移动通信有限公司 建模方法及相关装置
CN108876897B (zh) * 2018-04-20 2022-10-18 杭州电子科技大学 快速运动下的场景三维重建方法
CN108828533B (zh) * 2018-04-26 2021-12-31 电子科技大学 一种类内样本相似结构保持非线性投影特征提取方法
CN109147025B (zh) * 2018-07-11 2023-07-18 北京航空航天大学 一种面向rgbd三维重建的纹理生成方法
TWI676153B (zh) * 2018-07-25 2019-11-01 國立中央大學 利用2d影像資訊修補不完整3d深度影像之方法
CN109242955B (zh) * 2018-08-17 2023-03-24 山东师范大学 一种基于单幅图像的工件制造特征自动识别方法及装置
CN109410316B (zh) * 2018-09-21 2023-07-07 达闼机器人股份有限公司 物体的三维重建的方法、跟踪方法、相关装置及存储介质
CN109325992B (zh) * 2018-10-19 2023-07-04 珠海金山数字网络科技有限公司 图像绘制方法和装置、计算设备及存储介质
CN109697753B (zh) * 2018-12-10 2023-10-03 智灵飞(北京)科技有限公司 一种基于rgb-d slam的无人机三维重建方法、无人机
CN109741403B (zh) * 2018-12-29 2023-04-07 重庆邮电大学 一种基于全局线性的相机平移标定方法
CN109785373B (zh) * 2019-01-22 2022-12-23 东北大学 一种基于散斑的六自由度位姿估计系统及方法
CN109919911B (zh) * 2019-01-26 2023-04-07 中国海洋大学 基于多视角光度立体的移动三维重建方法
CN109829502B (zh) * 2019-02-01 2023-02-07 辽宁工程技术大学 一种面向重复纹理及非刚性形变的像对高效稠密匹配方法
CN110012474A (zh) * 2019-02-18 2019-07-12 长江大学 三维锥体有向传感器网络覆盖方法及系统
CN110223348B (zh) * 2019-02-25 2023-05-23 湖南大学 基于rgb-d相机的机器人场景自适应位姿估计方法
WO2020181509A1 (zh) * 2019-03-12 2020-09-17 深圳市大疆创新科技有限公司 一种影像处理方法、装置及系统
CN110009732B (zh) * 2019-04-11 2023-10-03 司岚光电科技(苏州)有限公司 基于gms特征匹配的面向复杂大尺度场景三维重建方法
CN110033447B (zh) * 2019-04-12 2022-11-08 东北大学 一种基于点云方法的高铁重轨表面缺陷检测方法
CN110084887B (zh) * 2019-04-15 2022-10-28 北京空间飞行器总体设计部 一种空间非合作目标相对导航模型三维重建方法
CN110378995B (zh) * 2019-05-29 2023-02-17 中德(珠海)人工智能研究院有限公司 一种利用投射特征进行三维空间建模的方法
CN110310337B (zh) * 2019-06-24 2022-09-06 西北工业大学 一种基于光场基本矩阵的多视光场成像系统全参数估计方法
CN110310338B (zh) * 2019-06-24 2022-09-06 西北工业大学 一种基于多中心投影模型的光场相机标定方法
CN110298890B (zh) * 2019-06-24 2022-09-06 西北工业大学 一种基于普朗克参数化的光场相机标定方法
CN110322514B (zh) * 2019-06-24 2022-05-03 西北工业大学 一种基于多中心投影模型的光场相机参数估计方法
CN110490928B (zh) * 2019-07-05 2023-08-15 天津大学 一种基于深度神经网络的相机姿态估计方法
CN110544294B (zh) * 2019-07-16 2023-09-01 深圳进化动力数码科技有限公司 一种基于全景视频的稠密三维重构方法
CN110740331B (zh) * 2019-08-05 2023-01-31 辽宁师范大学 基于自适应步长和Levenberg-Marquardt优化的视频弹性运动估计方法
CN110555908B (zh) * 2019-08-28 2022-12-02 西安电子科技大学 基于室内移动目标背景修复的三维重建方法
CN110706332B (zh) * 2019-09-25 2022-05-17 北京计算机技术及应用研究所 一种基于噪声点云的场景重建方法
CN110880185B (zh) * 2019-11-08 2022-08-12 南京理工大学 基于条纹投影的高精度动态实时360度全方位点云获取方法
CN111127560B (zh) * 2019-11-11 2022-05-03 江苏濠汉信息技术有限公司 一种用于三维重建的三目视觉系统的标定方法及系统
CN110909778B (zh) * 2019-11-12 2023-07-21 北京航空航天大学 一种基于几何一致性的图像语义特征匹配方法
CN111210507B (zh) * 2020-01-06 2024-03-19 合肥工业大学 一种面向多视图三维重建的初始视图选取方法
CN111353537B (zh) * 2020-02-28 2023-02-07 西安理工大学 基于EPI_Volume的LF_SURF光场图像特征匹配方法
CN111383354B (zh) * 2020-04-02 2024-02-20 西安因诺航空科技有限公司 一种基于sfm的三维点云朝向修正方法
CN111598954A (zh) * 2020-04-21 2020-08-28 哈尔滨拓博科技有限公司 一种快速高精度摄像头参数计算方法
CN111739068B (zh) * 2020-05-06 2024-03-01 西安电子科技大学 一种光场相机相对位姿估计方法
CN111724466B (zh) * 2020-05-26 2023-09-26 同济大学 一种基于旋转矩阵的3d重建优化方法和装置
CN111899280B (zh) * 2020-07-13 2023-07-25 哈尔滨工程大学 采用深度学习和混合型位姿估计的单目视觉里程计方法
CN112395775B (zh) * 2020-12-04 2024-02-13 西安工业大学 一种战斗部破片飞散参数计算方法
CN112509109A (zh) * 2020-12-10 2021-03-16 上海影创信息科技有限公司 一种基于神经网络模型的单视图光照估计方法
CN112472293B (zh) * 2020-12-15 2022-10-21 山东威高医疗科技有限公司 一种术前三维影像与术中透视图像的配准方法
CN112762825B (zh) * 2020-12-24 2022-02-22 复旦大学 表征摄影测量系统三维坐标重构误差的矩阵谱半径方法
CN112581494B (zh) * 2020-12-30 2023-05-02 南昌航空大学 基于金字塔块匹配的双目场景流计算方法
JP7076598B1 (ja) 2021-02-03 2022-05-27 株式会社Albert 動画又は複数画像からの3次元情報生成装置
CN112815849B (zh) * 2021-02-19 2022-07-12 三门核电有限公司 一种基于激光跟踪的核电管道建模方法
CN113096174A (zh) * 2021-03-24 2021-07-09 苏州中科广视文化科技有限公司 一种基于多平面扫描的端到端网络的多视点场景重建方法
CN113034695B (zh) * 2021-04-16 2022-11-22 广东工业大学 一种基于Wasserstein距离的物体包络体多视图重建与优化方法
CN113096107A (zh) * 2021-04-20 2021-07-09 湖南科技大学 基于傅立叶变换的b样条函数欧拉解概率密度成像方法
CN113256796A (zh) * 2021-06-01 2021-08-13 北京理工大学 基于Kinect V2传感器三维点云环境实时重构方法
CN113658263B (zh) * 2021-06-17 2023-10-31 石家庄铁道大学 基于视觉场景的电磁干扰源可视化标注方法
CN113689535B (zh) * 2021-08-20 2022-11-22 北京道达天际科技股份有限公司 基于无人机影像的建筑物模型的生成方法和装置
CN114463357B (zh) * 2022-01-27 2024-05-24 枣庄矿业(集团)付村煤业有限公司 一种在重介质选煤中实时确定介质堆动态信息的方法
CN114565714B (zh) * 2022-02-11 2023-05-23 山西支点科技有限公司 一种单目视觉传感器混合式高精度三维结构恢复方法
CN114494383B (zh) * 2022-04-18 2022-09-02 清华大学 基于Richard-Lucy迭代的光场深度估计方法
CN115035240B (zh) * 2022-05-13 2023-04-11 清华大学 实时三维场景重建方法及装置
CN115063485B (zh) * 2022-08-19 2022-11-29 深圳市其域创新科技有限公司 三维重建方法、装置及计算机可读存储介质
CN115908708B (zh) * 2022-11-16 2023-08-15 南京农业大学 基于Kinect的植物群体全局三维重建方法
CN115797796B (zh) * 2023-02-08 2023-05-02 中国科学院空天信息创新研究院 基于光学影像和sar影像密集匹配的目标级变化检测方法
CN116433476B (zh) * 2023-06-09 2023-09-08 有方(合肥)医疗科技有限公司 Ct图像处理方法及装置
CN117474993B (zh) * 2023-10-27 2024-05-24 哈尔滨工程大学 水下图像特征点亚像素位置估计方法及装置
CN117994358A (zh) * 2024-04-03 2024-05-07 苏州西默医疗科技有限公司 一种精确度高的牙科手术显微镜标定方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6760488B1 (en) * 1999-07-12 2004-07-06 Carnegie Mellon University System and method for generating a three-dimensional model from a two-dimensional image sequence
US6859549B1 (en) * 2000-06-07 2005-02-22 Nec Laboratories America, Inc. Method for recovering 3D scene structure and camera motion from points, lines and/or directly from the image intensities
SE518620C2 (sv) * 2000-11-16 2002-10-29 Ericsson Telefon Ab L M Scenkonstruktion och kamerakalibrering med robust användning av "cheiralitet"
US7046840B2 (en) * 2001-11-09 2006-05-16 Arcsoft, Inc. 3-D reconstruction engine
CN100533487C (zh) * 2007-04-19 2009-08-26 北京理工大学 基于单幅对称图像的光滑曲面三维实体模型重建方法
US9153025B2 (en) * 2011-08-19 2015-10-06 Adobe Systems Incorporated Plane detection and tracking for structure from motion
CN102663812B (zh) * 2012-03-27 2015-02-11 南昌航空大学 基于变分光流的三维运动检测与稠密结构重建的直接方法
US9083945B2 (en) * 2012-04-06 2015-07-14 Adobe Systems Incorporated Keyframe selection for robust video-based structure from motion
CN103247075B (zh) * 2013-05-13 2015-08-19 北京工业大学 基于变分机制的室内环境三维重建方法
CN103914874B (zh) * 2014-04-08 2017-02-01 中山大学 一种无特征提取的紧致sfm三维重建方法

Also Published As

Publication number Publication date
US9686527B2 (en) 2017-06-20
CN103914874A (zh) 2014-07-09
WO2015154601A1 (zh) 2015-10-15
JP2017503290A (ja) 2017-01-26
US20170019653A1 (en) 2017-01-19
CN103914874B (zh) 2017-02-01

Similar Documents

Publication Publication Date Title
JP6216468B2 (ja) 無特徴抽出の高密度sfm三次元再構成法
Xue et al. Toward hierarchical self-supervised monocular absolute depth estimation for autonomous driving applications
Kumar et al. Stereo rectification of uncalibrated and heterogeneous images
CN110111250B (zh) 一种鲁棒的自动全景无人机图像拼接方法及装置
CN110246161B (zh) 一种360度全景图像无缝拼接的方法
CN108629829B (zh) 一种球幕相机与深度相机结合的三维建模方法和系统
CN108830925B (zh) 一种基于球幕视频流的三维数字化建模方法
CN112929626B (zh) 一种基于智能手机影像的三维信息提取方法
CN112862683B (zh) 一种基于弹性配准和网格优化的邻接图像拼接方法
CN113920205A (zh) 一种非同轴相机的标定方法
TWI599987B (zh) 點雲拼接系統及方法
CN110580715B (zh) 一种基于照度约束和格网变形的图像对齐方法
CN107220996A (zh) 一种基于三角结构一致的无人机线阵与面阵影像匹配方法
CN104077764A (zh) 一种基于图像拼接的全景图合成方法
CN111126418A (zh) 一种基于平面透视投影的倾斜影像匹配方法
Benhimane et al. Integration of Euclidean constraints in template based visual tracking of piecewise-planar scenes
Aganj et al. Multi-view texturing of imprecise mesh
Bushnevskiy et al. Multimode camera calibration
CN114998496A (zh) 一种基于场景航拍图及稀疏点云的正射影像快速生成方法
Baker et al. Lucas-kanade 20 years on: Part 5
CN109242910B (zh) 一种基于任意已知平面形状的单目相机自标定方法
Li et al. Have we underestimated the power of image undistortion?
Mkhitaryan et al. RGB-D sensor data correction and enhancement by introduction of an additional RGB view
Silveira et al. Visual servoing from robust direct color image registration
Tamaki et al. A method for compensation of image distortion with image registration technique

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170922

R150 Certificate of patent or registration of utility model

Ref document number: 6216468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees