JP6143704B2 - 3dラインを再構成する方法 - Google Patents

3dラインを再構成する方法 Download PDF

Info

Publication number
JP6143704B2
JP6143704B2 JP2014082059A JP2014082059A JP6143704B2 JP 6143704 B2 JP6143704 B2 JP 6143704B2 JP 2014082059 A JP2014082059 A JP 2014082059A JP 2014082059 A JP2014082059 A JP 2014082059A JP 6143704 B2 JP6143704 B2 JP 6143704B2
Authority
JP
Japan
Prior art keywords
line
lines
scene
image
reconstructing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014082059A
Other languages
English (en)
Other versions
JP2014229305A (ja
JP2014229305A5 (ja
Inventor
スリクマール・ラマリンガム
マッシュー・ブランド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2014229305A publication Critical patent/JP2014229305A/ja
Publication of JP2014229305A5 publication Critical patent/JP2014229305A5/ja
Application granted granted Critical
Publication of JP6143704B2 publication Critical patent/JP6143704B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/543Depth or shape recovery from line drawings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)

Description

本発明は、包括的にはコンピュータービジョンに関し、より詳細には、単一の2D画像内の2Dラインから3Dワールド座標系内の3Dラインを再構成し、シーン再構成に3Dラインを用いることができるようにすることに関する。
コンピュータービジョンにおける基本的な問題は、単一ビュー再構成(SVR)である。SVRは、単一の2D画像から3D実世界シーンを復元する問題に対処する。
人工構造物、例えば、建物および部屋を含む屋内シーン、または屋外シーンの2D画像において、顕著な特徴は、3つの直交する方向における3Dラインである。画像内でラインが交差するときを求めるのは、比較的容易である。しかしながら、これは、必ずしも、3D実世界において対応するラインが交差することを意味するものではない。
自明な反例として、画像内の共通の消失点を共有するラインがある。これらのラインは、消失点において交差するように見えるが、いずれも実世界において交差せず、実世界では、これらのラインは、互いに平行である。このため、画像内の見掛けの交差が、実世界の交差に対応するときを特定するのは困難である。ラインの3D構造を推測するには、いくつかの難題がある。
最大の難題は、誤交差を生じる画像内の遮蔽エッジに関するものである。実画像におけるライン検出方法は、多くの場合に重要なラインを見逃し、スプリアスラインを生成する。検出されるラインは、多くの場合に途切れているかまたは短く、交差の証拠がなくなっている。加えて、実世界シーンは、クラッターに起因して特に難易度が高い。
SVRは、コンピュータービジョンにおける明確には解決されていない問題である。再構成は、幾何学的または意味的に行うことができる。最も一般的な幾何学的再構成方法は、ラインを凸ライン、凹ライン、または遮蔽ラインとしてラベリングすることに基づく。ラインラベルリング問題は、一般に、NP困難である。いくつかの難易度が高い線画が研究され、SVR問題を解決する新規の制約充足方法が開発された。これらの方法は、主に合成線画またはコンピューター生成線画に対し動作し、一般に、実世界画像には不十分である。実画像に対し良好な結果を与えるほとんどの他の幾何学的単一ビュー再構成方法は、ある種のユーザーインタラクションに頼る。
より全体的な手法が利用可能になるにつれて、SVR問題への関心が新たになっている。例えば、画像内のピクセルは、空、建物および地面として分類することができる。その分類により、面の向きの推定と併せて、いくつかの用途に十分な3Dモデルを生成することができる。いくつかの用途とは、ウォークスルーの合成、映画用の立体コンテンツの生成、ならびに物体検出および認識用の3Dコンテキスト等である。こうした粗いモデリングに用いられる方法は、いくつかの幾何学的特徴および画像特徴を用いる。
いくつかの画像特徴、ならびに共平面性および共線性に対する弱い推定と併せて、1つの方法は、単一画像から奥行きを推定する。別の方法は、直方体を用いて部屋の幾何学的形状を概算し、様々な仮説をサンプリングし、いくつかの画像特徴および幾何学的特徴に基づいて、最も良好な仮説を選択する。屋内シーン内のクラッターは、直方体としてモデリングされ、3Dで再構成される。
SVRは、不良設定問題であるので、いくつかの解法が導かれる。いくつかの解法とは、方位マップの計算、人間の活動からの幾何学的形状推測、境界情報、テンプレート3D形状、さらには物理学主導の安定性制約および機械的制約の明白な使用等である。
より大きな解空間からレイアウトを正確に推測する最適化戦略を用いることによって、性能を大幅に改善することができる。航空写真から建物をモデリングするのにマンハッタン推定に基づく制約が用いられてきた。
本発明の実施の形態は、単一の2D画像から抽出された2Dラインから3Dワールド座標系内の3Dラインを再構成する方法を提供する。これらの3Dラインをシーン再構成に用いることができる。本方法は、消失点、直交構造、およびライン間の全ての妥当な連結性制約を検討する最適化手順を用いた、2D画像から抽出されたラインの3D再構成に基づく。
画像内の結合点において実質的に交差するラインが特定される。しかしながら、比較的少ない数の結合点のみが、3Dシーン内の実際の交差に対応する。本方法は、線形計画法(LP)を用いて、ラインを明確に再構成するのに十分な最小数の最も違反されていない連結性制約を特定する。
厳密に拘束する推定を用いた良好に機能する合成(グラフィック)線画に主に焦点を当てた既知のLPによる解決法と対照的に、本方法は、実世界の画像からシーンを再構成することができる。
本発明の実施の形態による、単一の2D画像内の2Dラインから3Dワールド座標系内の3Dラインを再構成する方法のブロック図である。 切頂四面体の合成線画である。 切頂四面体の合成線画である。 切頂四面体の合成線画である。 本発明の実施の形態による、ラインを含む屋外シーンの2D画像である。 本発明の実施の形態による、ライン、交差および制約の概略図である。 本発明の実施の形態による制約グラフである。 本発明の実施の形態による、画像平面内の交差するラインの概略図である。 本発明の実施の形態による、結合点の概略図である。
本発明の実施の形態は、単一画像内の2Dラインから3Dワールド座標系内の3Dラインを再構成する方法を提供する。再構成されたラインは、次に、2D画像から3次元(3D)シーンを再構成するのに用いることができる。
図1は、ライン抽出方法を示している。カメラを較正し、2D画像101の向きを推定した後、ラインが検出され、消失点が推定され、ラインがクラスター化される(110)。ラインクラスター115から、共線性制約および直交性制約を用いて制約グラフ125を生成する(120)。グラフから、制約グラフ内の頂点について、結合点135に基づくペナルティ項を求める(130)。
線形計画法(LP)140および最小全域木150を用いて、3Dワールド座標系内の3Dラインを再構成する(160)。次に、3Dラインを用いてシーンを再構成する(170)ことができる。
ここで、これらのステップをより詳細に説明する。ステップは、当該技術分野において既知のメモリおよび入/出力インターフェースに接続されたプロセッサにおいて実行することができる。
カメラアラインメント
本発明の方法は、全ての3Dラインが3つの直交軸のうちの1つに沿ってアラインされる3Dワールド(マンハッタン)座標系を用いる。これを達成するために、ワールドに対するカメラの向きを求め、必要な回転を行う。
3つの消失点vp、vp、およびvpを求める。これらの消失点のうちの2つを用いて、2Dカメラ座標系と3Dワールド座標系との間の回転Rを求めることができる。この回転を用いて、再構成するラインが、実世界の座標系とアラインされるように、カメラの光線を向ける。
カメラ行列Kを用いて較正されるカメラの場合、画像平面内の全てのピクセルp(x,y)が、単位ベクトルd=RK−1(x y 1)によって与えられるワールド座標系内の3D投影射線に対応する。dxp、dyp、およびdzpは、方向ベクトルdのx成分、y成分、およびz成分を表す。
ライン抽出
線画のためのSVRにおいて、結合点およびラインラベルを用いて、3D物体の構造を理解することができる。結合点は、2つ以上のラインが交差する点である。2D画像座標系内のラインの角度および向きに基づいて、結合点をL、T、Y、またはWとしてそれらに分類することができる。
図2A、図2B、および図2Cは、切頂四面体の線画である。頂点A、B、およびCは、W結合点に対応し、頂点D、E、およびFは、Y結合点に対応する。合成線画において、結合点を検出するのは簡単である。結合点が検出された後、入射ラインが、凸(+)、凹(−)、および遮蔽ライン(←→)を表すように、ラベリングされる。遮蔽ラベルの方向は、遮蔽面を示す。
カメラ較正を用いた、画像内の全てのピクセルへの投影射線が知られている。3D空間における線図からの全ての制約は、一次不等式である。例えば、4つ組(A,B,E,D)は、単一面上に位置する。ラインラベリングは、DがAよりもカメラの近くにあることを矯正する。そのような制約は、一次不等式の形で書くことができる。線形計画法が許容解を有する場合、線画は、物理的に実現可能である。これらの連立一次方程式の階数を研究することによって、線画が複数の3D解釈を有するとき、またはそうでないときを理解することができる。
投影射線に沿って3D点を抽出するように、連立一次不等式を生成する。本発明の解法は、従来の解法と異なる。なぜなら、実世界画像は、完全に異なる1組の難題を課し、これらは、幾何学的構造および組み合わされた構造のみを用いてモデリングすることが困難であるためである。
図3は、建物およびラインを有する3Dシーンの画像を示している。いずれの3D点がこの実世界画像内の平面に位置し、いずれの点が位置しないかを知ることは、容易でない。欠落したラインおよびスプリアスラインに起因して、非常に高い信頼度で結合点を検出することができない。
本発明では、検出した結合点からの平面性制約も、困難な不等式も有しない。さらに、実際のシーンは、多くの誤った交点を有し、これらによって、常に非許容解が導かれる。これらの実世界の難題に対処するために、本発明では、見掛けの結合点から絶対制約を一切導出しない。代わりに、結合点に関する証拠を用いて、LPにおける一貫した3D構造を得るためのペナルティ項を通知する。
制約グラフ
図3におけるような実世界画像は、ライン検出にいくつかの難題を課す。結果として、ライン検出器は、一般に、欠落したライン、スプリアスライン、および途切れたラインをもたらす。本発明では、ライン間の最短距離がしきい値未満であるとき、2つのライン間の連結性制約を考察する。本発明は、2つのタイプの連結性を考察する。2つの直交ラインは、交点において交差することができる。2つの共線ラインは、入射点において合わさるように延長することができる。
交差および入射は、2D画像内の2Dラインから3Dワールド座標系内の3Dラインを再構成するための結合制約を与える。また、入射関係は、ワールド座標系内で2つの異なる物体から到来する2つの共線ラインを連結する。そのような関係を用いて、連結グラフを構成することができる。
しかしながら、実際の画像では、偶然の共線性が生じる可能性がある。しかし、これも、許容可能である。本発明のLP定式化は、結合点に基づくペナルティ項を用いることによって、真でない場合がある制約に対処するように設計される。LPにおいて用いる制約は、点および線にのみ依拠する方向制約である。この制約は、点が交差であるかまたは入射であるかに無関係である。
図4に示すように、制約を表すのに統一された表現を用いる。nは、画像内のライン数を表し、lは、インデックスiを有するラインを表すものとする。mは、交差および入射の総数を表すものとする。制約グラフG=(V,E)を用いて、交差および入射の関係を表すことができる。ここで、頂点V={1,2,・・・,n}は、ラインを表し、エッジ(i,j)∈Eは、ラインlとラインlとの間の交差または入射を表す。4つのラインl、l、l、およびlを示す。これらのラインは、3つの交差I12、I13、およびI14をもたらす。ラインlおよびlは、共線であり、これらのラインは、入射点I14をもたらす。グラフの頂点およびエッジは、それぞれV=(1,2,3,4)およびE={(1,2),(1,3),(1,4),(2,3)}によって与えられる。
図5に示すように、画像内の全てのラインは、頂点(x,x,x,x)であり、全ての交差および入射は、制約グラフにおけるエッジ(e12,e13,e14,e23)である。
線形計画法
図6に示すように、ピクセルに対応する3D点は、その投影射線上にあり、点は、λdによって表すことができる。ここで、λは、カメラ中心からの3D点の距離に等しい未知のスケールパラメータである。一般に、2D画像ラインから3Dラインを再構成するには、3D空間内で双方の端点を再構成する2つのパラメーターを必要とする。しかしながら、マンハッタンワールド推定の下では、一方の点を再構成すれば、他方の点を復元するのに十分である。本発明の定式化では、単一のパラメーターλを用いて、ラインの端点のうちの一方のスケールを表す。
図6では、点Iijにおいて交差する2つのラインlおよびlを示している。制約グラフG=(V,E)に関して、全ての頂点i∈Vについて、1つの未知のλを有し、全てのエッジ(i,j)∈Eについて、1つの未知のλijを有する。全ての交差または入射Iijが、画像ラインlおよびlに対応する双方の3Dライン上に独立して位置する。このため、ベクトルλ−λijijは、ラインlに対応する3Dラインの方向に沿ってアラインされる。同様に、ベクトルλ−λijijは、ラインlに対応する3Dラインの方向に沿ってアラインされる。
この特性は、ラインを再構成する際の制約として用いられる。本発明の目標は、以下の最適化問題において、そのような制約の最大数を満たすような未知のパラメーターを求めることである。
Figure 0006143704
ここで、a、A∈{x,y,z}およびAは、lの向きに対応する。単一の2D画像から、再構成は、未知のグローバルスケールまでのみ可能である。制約λ,λij≧1は、ラインがカメラから、またカメラの正面において、少なくとも単位距離にあることを確保する。全てのエッジ(i,j)について、2つのスラック変数sij1およびsij2を有する。
元のLノルム最大化問題を解く代わりに、LPを用いて、以下の最小化を解く。
Figure 0006143704
目的関数(3)における重みパラメーターwijは、以下に示すように結合点特徴から得られる。LPは、全てのスラック変数sijkについての解を与える。全てのエッジ(i,j)について、スラック変数sij1およびsij2は、シーンの最低コストの大域一貫3D解釈を得るのに必要なラインiとラインj間の最小奥行き分離を与える。(sij1+sij2)をエッジコストとして用いて、エッジ集合Eによって表される最小全域木を求める。スケール係数λおよびλijは、ツリー構造グラフに対応する連立一次方程式から直接求めることができる。
結合点コスト
マンハッタンワールド推定の下で、投票を用いてLPにおけるペナルティ項として結合点特徴を求める。式(3)における重みパラメーターwijは、エッジ(i,j)に対応する制約が違反されたときに課すペナルティに対応する。これらの重みは、結合点特徴の関数としてモデリングされる。関数が特定の結合点について高い値を有する場合、この関数が異なる結合点について高いスコアを有し得る可能性は、極めて低い。
図7は、本発明の結合点の基礎をなす着想および結合点を求める方法を示している。画像内の全てのピクセルについて、消失点vp、vp、およびvpに関して、6つの可能な向きの領域が存在する。これらの向きは、集合
Figure 0006143704
によって表される。
全ての部分集合A⊆Sは、結合点を表し、全ての可能な部分集合Aおよびピクセルpについて、関数F(A,p)を求めることができる。関数の値は、ピクセルpにおいて結合点Aの存在を示すスコアを与える。例えば、図7のピクセルpにおけるY結合点は、集合
Figure 0006143704
に対応する。ピクセルqにおいて、T結合点が存在する。
以下は、マンハッタンシーンにおける結合点の場合にあてはまる。L結合点およびX結合点は、平面上で生じる。T結合点は、平面および遮蔽境界の双方で生じる。Y結合点およびW結合点は、凸エッジおよび凹エッジ上で共通である。
J(p)がピクセルpにおける結合点のタイプを表すものとする。pは、制約グラフ内のエッジ(i,p)にマッピングされる交点を表す。LPにおいて、wijの重みを、以下のように設定する。
Figure 0006143704
ここで、CおよびCは、結合点ごとの視覚的証拠の品質に従ってスケーリングされる定数であり、それによって、ラインを延長することによって得られる結合点は、より弱いペナルティを有する。
Tは、場合によって、欠落したラインに起因してLとして検出される可能性があるので、L結合点を何ら優先しない。
応用形態
1つの応用形態において、再構成は、シーンの複数の画像に適用され、大きなシーンが再構成される。別の応用形態は、立体コンテンツを生成するのに3Dラインを用いる。カメラを家庭用品に搭載して屋内シーンを再構成し、暖房、換気および空調ユニットにおける空気の流れを最適に制御することができる。カメラを車両に搭載して、障害物または車両のロケーションを検出することもできる。

Claims (12)

  1. シーンの2次元(2D)画像内の2Dラインから3Dワールド座標系内の3次元(3D)ラインを再構成する方法であって、
    消失点を用いて前記2Dラインを検出およびクラスター化するステップと、
    頂点およびエッジのグラフを生成するステップであって、前記グラフの各頂点は、前記2D画像内のラインを表し、2つの頂点を接続する各エッジは、前記3Dワールド座標系内の前記2つの頂点に対応する2つのラインの交差の制約の可能性を表す、ステップと、
    前記3Dライン上で満たされる交差に対する前記制約を特定するために、ソフトペナルティとして前記交差の直交性制約、共線性制約、および結合点制約を用いて交差に対する制約をテストするステップと、
    交差に対して特定された前記制約を用いて、前記3Dワールド座標系における前記3Dラインを再構成するステップと、
    を含各ステップは、プロセッサにより実行される、シーンの2次元画像内の2Dラインから3Dワールド座標系内の3次元ラインを再構成する方法。
  2. 前記特定するステップは、線形計画法を用いる、請求項1に記載の方法。
  3. 前記3Dラインを用いて前記シーンを再構成するステップ
    をさらに含む、請求項1に記載の方法。
  4. 前記線形計画法におけるペナルティ項は、L結合点、X結合点、T結合点、W結合点、およびY結合点を用いる、請求項に記載の方法。
  5. 前記線形計画法の解に対し最小全域木アルゴリズムを用いて前記満たされる制約を特定する、請求項に記載の方法。
  6. 前記再構成は、複数の画像に適用される、請求項1に記載の方法。
  7. 前記3Dラインは、立体コンテンツを生成するのに用いられる、請求項1に記載の方法。
  8. 前記3Dラインは、物体検出および物体認識の3Dコンテキストを提供するのに用いられる、請求項1に記載の方法。
  9. カメラを家庭用品上に搭載して屋内シーンを再構成する、請求項に記載の方法。
  10. 前記屋内シーン再構成を用いて、暖房、換気、および空調ユニットにおける空気の流れの最適制御を行う、請求項に記載の方法。
  11. カメラを自動車に搭載し、大きなシーンの再構成を用いて障害を検出する、請求項に記載の方法。
  12. カメラを自動車に搭載し、大きなシーンの再構成を3D街モデルとマッチングして自動車のロケーションを計算する、請求項に記載の方法。
JP2014082059A 2013-05-20 2014-04-11 3dラインを再構成する方法 Active JP6143704B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/897,675 US9183635B2 (en) 2013-05-20 2013-05-20 Method for reconstructing 3D lines from 2D lines in an image
US13/897,675 2013-05-20

Publications (3)

Publication Number Publication Date
JP2014229305A JP2014229305A (ja) 2014-12-08
JP2014229305A5 JP2014229305A5 (ja) 2017-02-16
JP6143704B2 true JP6143704B2 (ja) 2017-06-07

Family

ID=51895828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014082059A Active JP6143704B2 (ja) 2013-05-20 2014-04-11 3dラインを再構成する方法

Country Status (3)

Country Link
US (1) US9183635B2 (ja)
JP (1) JP6143704B2 (ja)
CN (1) CN104183019B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9898822B2 (en) 2016-02-03 2018-02-20 Mitsubishi Electric Research Laboratories, Inc. Method and system for reconstructing scenes as 3D models from sequences of images using constraint satisfaction
CN106156437B (zh) * 2016-07-14 2019-09-03 四川拼趣科技有限公司 通过关联约束多轴仿真图形实现自动推算产品的结构数据
US10627910B2 (en) 2017-02-21 2020-04-21 Adobe Inc. Stroke operation prediction for three-dimensional digital content
US10657682B2 (en) * 2017-04-12 2020-05-19 Adobe Inc. Drawing curves in space guided by 3-D objects
US10748345B2 (en) * 2017-07-07 2020-08-18 Adobe Inc. 3D object composition as part of a 2D digital image through use of a visual guide
US10628997B2 (en) 2017-08-24 2020-04-21 Emilio Santos Method for generating three-dimensional models from constrained sketches and an instruction set
CN108805972A (zh) * 2018-04-11 2018-11-13 杭州电子科技大学 一种基于地面法向和二维交线的三维重建方法
CN109242958A (zh) * 2018-08-29 2019-01-18 广景视睿科技(深圳)有限公司 一种三维建模的方法及其装置
CN110782524B (zh) * 2019-10-25 2023-05-23 重庆邮电大学 基于全景图的室内三维重建方法
US20230334810A1 (en) * 2022-04-14 2023-10-19 Hover Inc. Methods, storage media, and systems for generating a three-dimensional coordinate system
CN117115760B (zh) * 2023-07-21 2024-08-20 中铁十局集团第三建设有限公司 基于视频画面的工程车辆限高检测方法及系统

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3792541B2 (ja) * 2001-06-07 2006-07-05 富士通株式会社 3次元モデル表示プログラムおよび3次元モデル表示装置
US7023432B2 (en) * 2001-09-24 2006-04-04 Geomagic, Inc. Methods, apparatus and computer program products that reconstruct surfaces from data point sets
US8396329B2 (en) * 2004-12-23 2013-03-12 General Electric Company System and method for object measurement
CN101292255B (zh) * 2005-09-22 2012-05-23 3M创新有限公司 三维成像中的人工痕迹消除
US7639250B2 (en) * 2005-11-01 2009-12-29 Microsoft Corporation Sketching reality
WO2010088840A1 (en) * 2009-02-06 2010-08-12 The Hong Kong University Of Science And Technology Generating three-dimensional models from images
US8396285B2 (en) * 2009-04-20 2013-03-12 Hewlett-Packard Development Company, L.P. Estimating vanishing points in images
US8933925B2 (en) * 2009-06-15 2015-01-13 Microsoft Corporation Piecewise planar reconstruction of three-dimensional scenes
EP2513868A4 (en) * 2009-12-16 2014-01-22 Hewlett Packard Development Co ESTIMATING A 3D STRUCTURE FROM A 2D IMAGE
US8837811B2 (en) * 2010-06-17 2014-09-16 Microsoft Corporation Multi-stage linear structure from motion
US8718393B2 (en) * 2010-07-28 2014-05-06 Shenzhen Institutes Of Advanced Technology Chinese Academy Of Sciences Method for reconstruction of urban scenes
CN102833460B (zh) * 2011-06-15 2015-03-11 富士通株式会社 图像处理方法、图像处理设备及扫描仪
US9191650B2 (en) * 2011-06-20 2015-11-17 National Chiao Tung University Video object localization method using multiple cameras
US9196096B2 (en) * 2013-03-11 2015-11-24 Adobe Systems Incorporated 3D-consistent 2D manipulation of images
US9595134B2 (en) * 2013-05-11 2017-03-14 Mitsubishi Electric Research Laboratories, Inc. Method for reconstructing 3D scenes from 2D images

Also Published As

Publication number Publication date
CN104183019B (zh) 2017-12-01
JP2014229305A (ja) 2014-12-08
US9183635B2 (en) 2015-11-10
US20140341463A1 (en) 2014-11-20
CN104183019A (zh) 2014-12-03

Similar Documents

Publication Publication Date Title
JP6143704B2 (ja) 3dラインを再構成する方法
KR102647351B1 (ko) 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
CN109564690B (zh) 使用多向相机评估封闭空间的尺寸
Mastin et al. Automatic registration of LIDAR and optical images of urban scenes
Moghadam et al. Line-based extrinsic calibration of range and image sensors
Ding et al. Automatic registration of aerial imagery with untextured 3d lidar models
US20180322646A1 (en) Gaussian mixture models for temporal depth fusion
Stamos et al. Integration of range and image sensing for photo-realistic 3D modeling
US12125191B1 (en) Collaborative disparity decomposition
CN102945565B (zh) 一种物体的三维真实感重建方法、系统及电子设备
Häne et al. Stereo depth map fusion for robot navigation
You et al. An accurate and practical calibration method for roadside camera using two vanishing points
CN103994755B (zh) 一种基于模型的空间非合作目标位姿测量方法
Alidoost et al. An image-based technique for 3D building reconstruction using multi-view UAV images
Li et al. Dense surface reconstruction from monocular vision and LiDAR
Kuschk Large scale urban reconstruction from remote sensing imagery
Concha et al. Incorporating scene priors to dense monocular mapping
Tian et al. Knowledge-based building reconstruction from terrestrial video sequences
Pitzer et al. Automatic reconstruction of textured 3D models
Yamaguchi et al. Superimposing thermal-infrared data on 3D structure reconstructed by RGB visual odometry
JP6579659B2 (ja) 光源推定装置及びプログラム
Demonceaux et al. Robust attitude estimation with catadioptric vision
Ikeda et al. 3D indoor environment modeling by a mobile robot with omnidirectional stereo and laser range finder
Tanaka et al. Single-Image Camera Calibration for Furniture Layout Using Natural-Marker-Based Augmented Reality
Argiles et al. Dense multi-planar scene estimation from a sparse set of images

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161226

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20161226

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170509

R150 Certificate of patent or registration of utility model

Ref document number: 6143704

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250