JP2004288180A - 較正された画像の組からシーンの3次元モデルを構築する方法 - Google Patents

較正された画像の組からシーンの3次元モデルを構築する方法 Download PDF

Info

Publication number
JP2004288180A
JP2004288180A JP2004074788A JP2004074788A JP2004288180A JP 2004288180 A JP2004288180 A JP 2004288180A JP 2004074788 A JP2004074788 A JP 2004074788A JP 2004074788 A JP2004074788 A JP 2004074788A JP 2004288180 A JP2004288180 A JP 2004288180A
Authority
JP
Japan
Prior art keywords
scene
image
cells
images
cell
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004074788A
Other languages
English (en)
Other versions
JP4423074B2 (ja
Inventor
Remo Ziegler
レモ・ツィーグラー
Wojciech Matusik
ウォーチエック・マトゥシック
Hanspeter Pfister
ハンスピーター・フィスター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2004288180A publication Critical patent/JP2004288180A/ja
Application granted granted Critical
Publication of JP4423074B2 publication Critical patent/JP4423074B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)

Abstract

【課題】本方法は、2次元(2D)入力画像の組からシーンの3次元(3D)モデルを構築するものである。この3Dモデルは、その後、任意の視点からシーンを復元するのに使用することができる。
【解決手段】ユーザは、従来の2D写真編集ツールを使用して、各画像において対応する多角形の領域の組をセグメント化し、その組にラベル付けを行う。本発明は、3Dモデルが、入力画像においてラベル付けされた領域の組と整合性を有する最大ボリュームを有するように、3Dモデルを構築する。本発明による方法は、3D多角形モデルを直接構築する。
【選択図】図1

Description

本発明は、包括的には、イメージベースモデリングに関し、詳細には、2次元画像から3次元シーンを復元することに関する。
フォトリアリスティックな3次元(3D)モデルを、シーンの複数の2次元(2D)画像から構成することは、コンピュータビジョンおよびイメージベースモデリングにおける重要な問題である。その後、この3Dモデルは、任意の視点からシーンを復元するために使用することができる。
ほとんどの従来技術のコンピュータビジョンの方法は、ユーザがほとんどまたはまったく介入することなく、シーンを自動的に復元することに重点を置いてきた。その結果、コンピュータビジョンの方法は、シーンの幾何学的配列および反射率について事前に仮定を行う。これらの仮定は、正しくないことが多い。
それに反して、多くのイメージベースモデリングシステムでは、ユーザが、シーンの表現として使用される3Dモデルの構築を指示することが必要とされる。しかしながら、それらの3Dモデルの詳述は、難しくなる可能性があり、モデルを構築するのに使用されるツールは、融通の利かないことが多い。すなわち、それらのツールは、非常に簡単な形状の組にしか対応しておらず、したがって、複雑なシーンに使用することができない。
3Dシーンの復元の重要な問題は、シーンにおいて同じ点の投影である2つまたは3つ以上の画像の点同士の対応関係を割り当てることである。これまでの研究は、画素またはオブジェクトシルエットを使用して、点の対応関係を指定している。
画像から3Dモデルを構築する問題は、コンピュータビジョンの文献で非常に大きな注目を受けてきた。この概要については、Kutulakos等著「A theory of shape by space carving」Intl. Journal of Computer Vision Vol. 38:3, pp. 199-218, 2000を参照されたい。
多視点ステレオ復元
多視点ステレオ法は、複数の画像の画素の対応関係を自動的に決定することによって3Dモデルを構築する。ステレオ対応法は、ベースラインと呼ばれることが多い、異なる視点間の距離が小さい場合にうまく機能する。
これは、トラッキングが、フレーム間の対応関係と一致する場合、一連のフレームまたはビデオに特に当てはまる。視点の大きな変化に対応するために、いくつかの方法は、マルチベースラインステレオ技法を使用して、画像のサブセットから部分的な3D形状を抽出する。
しかしながら、単一の3Dモデルを構築するには、複雑な復元方法および融合方法が必要とされ、画像の組全体と、融合されたモデルとの間の全体的な整合性は保証されない。正確な点の対応関係を、同種の色および輝度を有する領域で決定することは難しい。
視点依存効果、例えば鏡面ハイライトまたは鏡面反射は、対応関係の不一致につながる。画像の多くの点の緻密な対応関係を得ることは、特に困難である。オクルージョンのため、画像間の相違を処理することも難しい。このようなオクルージョンが頻繁に発生すると、これは、一般的な3Dシーン復元にとって深刻な問題である。
シェイプフロムシルエット(Shape-From-Silhouette)復元
シェイプフロムシルエット法は、カメラの投影の中心からオブジェクトのシルエットのすべての点を通る可視光線の交差として3Dモデルを構築する。
シェイプフロムシルエット法は、ビジュアルハル(visual hull)として知られている形状を構築する。しかしながら、それらの方法は、凹部を再現することができない。多視点ステレオ画像からの奥行きを追加することにより、ビジュアルハルを改良することができるが、上述した欠点のいくつかを受ける。シェイプフロムシルエット法は、大幅なオクルージョンを有するシーンに対して機能せず、アウトサイドルッキングイン(outside-looking-in)のカメラ配置でのみ機能する。すなわち、シーンは、カメラの凸状ハル(convex hull)の内部に存在しなければならない。
したがって、凹部を有する3Dモデルを構築し、かつ、任意のシーンのオクルージョンおよびカメラの配置を取り扱うことが要求されている。
測光復元(photometric reconstruction)
測光制約を使用して、ビジュアルハルよりも明らかに良い3Dモデルを構築することができる。ボクセルカラーリングを使用して、ボクセルが投影されるどの画像画素とも色の整合性を有しない当該ボクセルを3Dボリュームから徐々に切り出すことができる。
また、ボクセルカラーリングは、任意のカメラ配置、グラフィックスハードウェアによる加速、および各ボクセルの多色仮説(multiple color hypothesis)と共に使用されてきた。しかしながら、ボクセルカラーリングは、大きなシーンに対してうまく機能せず、スケールが大きく異なるオブジェクトに対してもうまく機能しない。対話形式で見ることができる3Dモデルを構築するには、形状の表現に不整合性を導入する可能性のある非常に長いプロセスが必要となる。
基本的に、すべての測光手法は、局所的に計算可能な反射率の分析モデルに依拠する。この前提は、例えば、影、透明、または内部反射といったグローバルな光効果に対して機能しない。
表面の形状、反射率、および照明を同時に再現することは難しいので、従来技術の測光構築方法は、表面が乱反射面または均等拡散面、あるいはほぼそのような面であると仮定する。したがって、測光方法は、均一な表面色を有するオブジェクトに対して機能しない。
したがって、従来技術の限界を克服し、高い鏡面性、透明性、および一様な色を有するオブジェクトを含むシーンのモデルを構築できるユーザ支援されたモデル構築方法を提供することが要求されている。
イメージベース復元
イメージベースモデリング法は、通常、ユーザとコンピュータとの間で、3Dモデル構築の作業を分割する。方法の中には、ユーザ定義の掲示板を使用するか、または、奥行き画像をペイントするユーザツール、モデルを編集するユーザツール、および画像の照明を変更するユーザツールを使用して、単一の画像からモデルを構築するものがある。
それらの方法の有用性および多機能性にもかかわらず、複数の画像の奥行き画像を指定するには、実行不可能ではない量だとしてもかなりの量のユーザ入力が必要となる。より重要なこととして、結果の3Dモデルが、すべての入力画像と全体的に整合性を有することが保証されないことが挙げられる。
シーンが、ある一定の構造を有することが分かっている場合、幾何学的制約を使用することは、かなり有利である。いくつかの方法は、ユーザがガイドした、多面体の基本形状の配置に依存して、建築シーンを復元する。他の方法は、平面または平行線を有するシーンの幾何学的特徴を利用する。しかしながら、それらの方法は、一般に、任意のシーンの3Dモデルを構築することに適用できない。その上、それらの方法は、非常に長い最適化手法に依拠している。
したがって、シーンの幾何学的配列についての前提も、シーンの反射率についての前提もなんら設けることなく、全体的に整合性を有するモデルを構築できるように、ユーザが領域の対応関係を割り当てるイメージベースモデリングを使用することが要求されている。
本発明は、2次元(2D)入力画像の組からシーンの3次元(3D)モデルを構築する方法を提供する。この3Dモデルは、その後、任意の視点からシーンを復元するのに使用することができる。
ユーザは、従来の2D写真編集ツールを使用して、各画像において対応する多角形の領域の組をセグメント化し、その組にラベル付けを行う。本発明は、3Dモデルが、入力画像においてラベル付けされた領域の組と整合性を有する最大ボリュームを有するように、3Dモデルを構築する。本発明による方法は、3D多角形モデルを直接構築する。
図7は、任意の視点から取得され、較正された2次元(2D)画像701の組からシーンの3次元(3D)モデル707を構築する方法700を示している。
まず、シーンの画像701が取得される(710)。バウンディングボリュームV702が初期化される(720)。この初期化は、手動で行うこともできるし、自動的に行うこともできる。このバウンディングボリュームは、シーン全体を取り囲む。
画像は、領域703にセグメント化される(730)。例えば、人の画像は、頭、胴、および手足にセグメント化することができるし、スチールライブシーンは、テーブル、コップ、皿、および花瓶にセグメント化することができる。従来のユーザが操作するセグメント化ツールまたは自動セグメント化ツールは、領域を識別することができる。好ましい実施の形態では、セグメント化は、シーンの奥行き不連続性に従う。
領域703は、一意のラベル<L,I>704または識別情報(ID)によりラベル付けされる(740)。ラベル付けされた領域は、ボリューム702に投影されて(750)、一致しない点P705が検出される(760)。次に、一致しない点Pは、画像のすべてに投影されて(770)、一致しない領域R708が識別され(780)、一致しない領域において一致しないセルC706が決定される(790)。
そのシーンと一致する最大ボリュームが、そのシーンの3Dモデルとして残るまで、一致しないセルC706は、ボリュームから除去される(795)。次に、モデル707は、従来のレンダリング(796)を行うハードウェアまたはソフトウェアを使用して、任意の視点で、出力デバイスに表示することができる。
本発明の方法は、セグメント化と一致する3D幾何モデル707を自動的に生成する。この解は、セグメント化を再現する最大ボリュームである点で唯一である。この方法は、シーンの1つまたは2つ以上の「完璧な」ポリゴンメッシュを直接計算する。
本発明の方法は、任意の画像領域間の対応関係を使用する最初のものである。本発明は、画像の領域からの一般的なシーン復元のための新規な問題の定式化を提供する。
また、本発明は、複数の視野で不一致を有するラベル付けされた領域を除去するための必要条件も定義する。
本発明の方法は、新規なセルカービング手法を使用する。このセルカービング手法は、問題に対する唯一の解を生成する。また、本発明は、グラフィックスハードウェアおよび標準的な2Dポリゴン交差を使用するセルカービングの効率的な実施態様についても説明する。
本発明のユーザ支援された方法は、従来の方法では復元が非常に難しいか、または、不可能であるシーンを復元することができる。例えば、複数のオブジェクト間の実質的なオクルージョンを有するシーン、幾何学的スケールおよび詳細の大きなばらつきがあるシーン、ならびに織り目の写った表面、一様な色の表面、鏡面、および透明な表面が混合したシーンを復元することができる。
分析
図1に示すように、本発明の背後にあるアイデアは、以下の分析に基づいている。n個の画像の組、例えば3つの画像の組が、較正されたカメラC、C、Cによって静的なシーン101の任意の視点から取得される。この例では、オブジェクト101は、2つの色を有する。例えば、実線の部分はほとんどが赤であり、オブジェクト101の右前面の短い破線113の部分は緑である。
この分析の目的のため、各カメラは、そのカメラの投影中心(COP(center of projection))104から単位距離103の球形像面102を有する全方向性である。破線116は、シーン101の凸状のビジュアルハルである。
カメラに入るすべての光線は、球面座標(ρ,θ)の形でパラメータ化される。以下では、本発明は、直交パラメータ化を用いた、より伝統的なピンホールカメラのモデルについて説明する。
シーン内の点105は、カメラの球形像面102がその点からカメラのCOP104への有向直線106と交差することにより、あらゆるカメラに投影することができる。任意の2つの点について、オープンセグメントPが、シーンのどのオブジェクトにも接触しない場合、本発明は、点Pが点Pから可視であると言う。画像は、シーンにおいて可視であるすべての点の球形像面102への投影である。
奥行き画像は、可視であるそれぞれの点への視線に沿った奥行き値を記憶する。奥行き不連続性は、奥行き画像で奥行きが突然変化することである。
シーンが、拡散色を有するオブジェクトを含む場合、画像の各点は、視線に沿って最も近い可視であるオブジェクト表面の色を含む。とりあえず、奥行きおよび色の不連続性を無視して、本発明は、同じ色を有するすべての画像点の組を画像領域と呼ぶ。本発明は、画像領域の色を、その領域識別情報(ID)またはラベルと呼ぶ。
それぞれの点についての領域IDを含む画像は、ラベル付けされた画像と呼ばれる。
本発明の問題は、n個のラベル付けされた画像の組からシーンを復元することである。理論上、このようなシーンは無限個存在する。これについては、上記のKutulakos等の著を参照されたい。唯一の解を得るために、本発明は、ラベル付けされた画像の組を生成する最大ボリュームを有するシーンを見つけ出すように自身に制限を課す。他のいくつかの基準を使用することができる。例えば、ラベル付けされた画像の組を生成する最もスムーズなシーンを見つけ出すように試みることができる。
整合性およびセル
本発明の分析を続けるために、光線が、シーンの点pからカメラcに投影される。この光線は、関連する領域IDを有する画像領域でcのラベル付けされた画像と交差する。この点は、可視であるカメラの組の同じ領域IDに投影されると、その可視であるカメラの組と整合性を有する。点が、特定のカメラに可視でない場合、その点は、その特定のカメラとの整合性はわずかである。点が1つのカメラだけに可視である場合も、その点は、整合性はわずかである。
図1では、点Pは、その投影の領域IDが同じでない、すなわち、いくつかは「赤」であるのに対して、それ以外は「緑」であるので、整合性を有しない。これは、オブジェクトの破線部113は、そのオブジェクトの残りの部分とは異なる色を有するからである。点Pは、すべての領域IDが「赤色」であるので、整合性を有する。実際には、領域112のすべての点が整合性を有さず、領域114のすべての点が整合性を有する。
本発明は、3Dシーンの点pからすべてのカメラに光線を投影し、光線が画像平面と交差するすべての画像領域を、オクルージョンを考慮することなく識別する。本発明は、これらの投影の領域IDを、カメラごとに1つのエントリを有するベクトルとして列挙する。本発明は、このベクトルを点IDと呼ぶ。各3D点は、正確に1つの点IDを有するが、同じIDを有する多くの点が存在し得る。本発明は、同じIDを有する点の組をセルと呼ぶ。セル内の点の点IDは、セルIDと呼ばれる。
セルは、そのセルのすべての点がカメラの組全体と整合性を有する場合に限って、カメラの組と整合性を有すると呼ばれる。可視である点のみが整合性を有することができるので、本発明は、整合性チェックをセルの境界に限定することができる。
図1は、オブジェクト101の凸状ハル116内の整合性を有しないセル112および整合性を有するセル114の例を示している。本発明の整合性の定義は、Kutulakos等が述べたような写真整合性を拡張したものである。Kutulakos等の著については、上記を参照されたい。本発明は、今のところ、全方向性カメラを前提とするので、背景領域を考慮しない。
Kutulakos等は、写真整合性を有する最大ボリュームを写真ハル(photo hull)と呼ぶ。ラベル付けされた画像が、上述したようにシーンを投影することによって生成される場合、本発明の復元問題は、写真ハルを見つけ出すことと等価である。
KutulakosおよびSeitzは、写真ハルの内部のすべての点が整合性を有することを証明し、写真ハルの外部のすべての点が整合性を有しないことを証明している。
セル復元定理
n個のラベル付けされた画像の組について、それらのラベル付けされた画像を生成する最大ボリュームVを有するシーンは、整合性を有するセルCのみからなる。最大ボリュームVの外部のすべてのセルは、整合性を有しない。この定理の証明は、付録Aで行う。
整合性の必要条件
上記定理は、整合性を有しないすべてのセルを除去することにより、ラベル付けされた画像を生成する最大ボリュームVが得られることを述べている。次の重要な論点は、セルの整合性を決定するのに必要なカメラの個数を決定することである。
Kutulakos等のアルゴリズムによって説明される空間カービング法(space carving method)は、単一の掃引面(sweeping plane)の複数の通過を用い、その面の一方の側のカメラへの点の投影を評価する。それは、ある一定のカメラの配置については、点の写真整合性がわずか2つのカメラでチェックされることを意味する。
しかしながら、図2に示すように、2つのカメラとの整合性のチェックは、2DのV形の凹部領域を有するシーン201の写真ハルを見つけ出すのに十分ではない。凹部の両側は、例えば赤211および黄212の2つの異なる一様な色を有する。2つのカメラCおよびCは、各カメラが2つの色の正確に一方の投影を見るように配置される。
破線220は、このシーンの初期ボリュームの輪郭を示している。カメラCおよびCだけを使用すると、三角形内部のセル230は、写真整合性のためにKutulakos等によって除去されることになる。しかしながら、画像と写真整合性を有する最大ボリュームは、セル230の大部分を含み得るので、これは正しくない。
図3に示すように、V形凹部は、2つのカメラと写真整合性も有しない無限に多くの形状301〜303によって取り替えることができる。この制限において、これらの形状は、各カメラに異なる色を投影するマイクロファセットの平面に収束する。本発明は、これらの形状を測光不明瞭と呼ぶ。これらは、従来技術では正確に処理されない。
2Dのセルの整合性を決定するには、少なくとも3つの可視であるカメラが必要となることを容易に示すことができる。3Dの等価な例は、面の法線方向から直角に見えるそれぞれの可視である側面に異なる色を有する積み重ねた立方体からなる。これは、3Dで整合性を決定するには、少なくとも4つのカメラが必要となることを意味する。通常、d次元のセルの整合性を決定するには、少なくともd+1個の可視であるカメラ、すなわち異なる視点からの画像が必要となる。3Dの整合性を決定するために4つの可視であるカメラを有するという要件を実際に満たすことは、特に入力画像数が少ないと、困難な場合がある。
静的なシーンの場合、単一のカメラが、必要な個数の異なる視点から必要な画像の組を連続的に取得できることに留意すべきである。したがって、本発明は、カメラの要件について話題にする場合、画像を取得する異なる視点の個数を指すものとする。
一方、本発明のシステムにより、ユーザは、画像のセグメント化730(図7参照)による測光不明瞭の状況を解決することができる。ユーザが、奥行き不連続性を有するすべての内部のエッジも識別すると、正確な整合性チェックに2つのカメラ(視点)だけが必要とされる。すなわち、画像が、シーンの奥行き不整合に沿ってセグメント化されると(730)、4つのカメラ視点よりも少ないカメラ視点で、整合性の正確な決定を行うことができる。
セルカービングによる復元
図4は、本発明による3Dシーン復元のためのセルカービング方法400のステップの擬似コードを示している。
シーン全体を収容するバウンディングボリュームを形成するセルVの初期の組を与えると、この方法は、少なくとも4つのカメラで整合性を有しないセルCをVから除去することを繰り返す。残ったセルは、ラベル付けされた画像を生成する最大ボリュームであり、これが、シーンの3Dモデルである。
画像領域の組は、すべての長方形画像画素の組である。本発明が、各画素におけるシーン放射輝度をその画素の領域IDとして使用する場合、セルカービングは、写真ハルを復元する。他方で、ユーザが、前景オブジェクトおよび背景オブジェクトにそれぞれ同じ領域IDを割り当てると、セルカービングは、写真ハルではなく、ビジュアルハルを復元する。
シーン復元の品質は、画像領域のセグメント化および識別を行っている間に、ユーザがどれだけ多くの努力を行ったかに依存する。領域が小さくて多いほど、領域が大きくて少ない場合よりも詳細な3Dモデルが得られる。これは、シーンの正確さが、ある事前に定められたボクセルのグリッドによってではなく、画像内で観察される実際の幾何学的配列によって決定されるという点で、ボクセルカービングの一般化でもある。画像領域の個数は、最大ボリュームを構成するセルの個数を決定する。本発明が、n個の画像を有し、各画像にm個の領域を有すると仮定すると、多くてもmn個のセルが存在する。
しかしながら、これらのセルの大部分は空である。例えば、画像が立方体の3つの側面に対応する場合には、m個の整合性を有するセルが存在し得る構成がある。実際の用途では、整合性を有するセルの個数mは、通常、小さく、たいてい、1つの画像あたり20領域よりも少ない。処理時間およびメモリをさらに削減するために、本発明は、後述するように、必要な場合にのみセルを構築する。
付加的な制約
これまで、本発明は、本発明のシーン復元方法の理論的基礎を説明してきた。次に、本発明は、この方法を実施するために実践するいくつかの付加的な制約を説明する。まず、本発明は、全方向性カメラの前提を透視ピンホールカメラに限定する。ここで、3つの次元における直線を投影したものは、像面における直線となる。逆に、ポリゴンによって定義される領域は、3Dでは、多面体セルになる。これにより、本発明は、後述するように、多面体を構築する高速な方法を用いることが可能になり、この方法は、2Dポリゴン交差のみを使用する。
セルを一意に識別するために、シーンのすべての点は、すべてのカメラの領域に投影される必要がある。しかしながら、ピンホールカメラの視錘台は限られている。本発明は、像面が無限であると仮定することにより、全方向性カメラをシミュレートする。視錘台の外部の点は、一意の未知のIDを有する像面のいずれかの側面の領域に投影される。ユーザは、復元されるべきでないそれ以外の画像領域、例えば背景の空にラベル付けを行う必要はない。ラベル付けされない領域には、一意の背景IDが割り当てられる。
Kutulakos等によって説明されるように、整合性を有する最大ボリュームは、有限でない場合がある。そのボリュームは、すべての自由空間を満たし、ラベル付けされた画像を再生するボリュームである場合がある。本発明は、復元されるシーン全体を収容するように保証される初期バウンディングボリュームによってシーンを限定する。この初期ボリュームの選択は、シーンおよびカメラの配置に依存する。すべてのカメラにシーン内のオブジェクトが見える場合、本発明は、ビジュアルハルを計算し、そのビジュアルハルを初期ボリュームとして使用する。そうでない場合、本発明は、後述するように、ユーザに初期ボリュームを指定させる。
ユーザ入力
較正が不明であるシーンの場合、本発明は、従来のコンピュータビジョン法を用いて、カメラの内部パラメータおよび外部パラメータを推定する。ユーザは、各画像で約20個の特徴点を選択し、それらの特徴点に対応関係を割り当てる。例えば、特徴点は、オブジェクトのエッジまたはコーナに存在する可能性がある。次に、すべてのカメラの位置および向きを決定するためにこの対応関係を用いることができる。
カメラの配置のために、シーンのビジュアルハルを決定できない場合には、ユーザが、バウンディングボリュームを初期化することができる(720)。作業を簡単にするために、本発明は、較正の間に、カメラの直交的視界および3D特徴点を表示デバイスに表示することができる。次に、ユーザは、シーンのバウンディングボリュームV702のコーナを指定する。
ユーザは、写真編集ソフトウェアで共通に利用可能なセグメント化ツールのいずれかを使用して、各画像を任意の2D画像領域の組にセグメント化する(730)。このセグメント化ツールとしては、例えば、ブラシ、スネーク、インテリジェントシザー、領域成長、フラッドフィル、ウォータシェッドアルゴリズム、またはインテリジェントペイントがある。上述したように、セグメント化が、シーンの奥行き不連続性に従っていると、より良い結果を得ることができる。
領域の境界は、1つの外部境界および0個または1つ以上の内部境界からなる(場合によっては孔を有する)ポリゴンによって定められる。隣接するポリゴン同士の交差は、双方のポリゴンに共通のエッジの組となる。また、ユーザは、シーン内のさまざまなオブジェクトに対応する各ポリゴン領域へラベルLの割り当ても行う(740)。
色の不連続性
色のセグメント化に基づくラベル付けだけでは、あらゆる場合に十分であるとは限らない。図5に示すように、オブジェクト501の場合、同じラベルを有する隣接しない領域が、過度にカービングを引き起こす場合が存在する。このオブジェクトは、3つのカメラにおいて、黄の領域(中央前部の破線)によって切断される赤の領域(実線)に投影される。本発明は、これを色の不連続性と呼ぶ。2つの斜線のセルCryrは、同じセルID、例えば赤−黄−赤を有する。
これら2つのセルの最前面、すなわち図5での底部は、3つのカメラと整合性を有しないので、除去されることになる。しかし、それは、後方のセルも、同じセルIDを有することから除去されることを意味する。
しかしながら、後方のセルは、可視ではなく、保存されるべきであるので、整合性はわずかである。幸いにも、この状況に対して、簡単な改善法がある。本発明は、切断された各画像領域に一意のインデックスIを自動的に割り当てる。したがって、対<L,I>704が、領域IDとして使用される。ここで、Lは、ユーザが割り当てたラベルであり、Iは、インデックスである。この手法により、2つのセルCryrは、異なるセルIDを有し、前方のセルのみが除去されることになる。
セルカービングの実施態様
次に、本発明は、グラフィックスハードウェアおよび高速2Dポリゴン交差を利用するセルカービングの効率的な実施態様を説明する。セルの完全なボリュームを構築する代わりに、本発明は、遅延評価を用い、必要に応じたセルのみを生成する。その理由は、本発明の興味が復元の境界表現にしかないからである。
図6は、本発明の方法のこの実施の形態の擬似コード600を示している。
ライン1および2−前処理
上述したように、本発明は、シーン全体を収容する初期バウンディングボリューム702から開始する。ユーザは、各画像について、対応する領域IDを有する、ラベル付けされたポリゴン、例えば三角形の組も提供する。点が投影される領域IDを高速にチェックするために、本発明は、それらの領域IDに対応する色を有するポリゴンをスキャンコンバートして、フラッドフィルする。
ライン4−初期境界セルの構築
本発明は、ビジュアルハルを、初期ボリュームの境界表現として、または、ユーザが指定したバウンディングボックスとして使用する。本発明の方法は、セルに対してのみ機能するので、本発明は、このバウンディングボックスを、当該バウンディングボックスを包含するセルの組と取り替える。このようにして、本発明は、セルと境界表現との間の任意の難しいCSG操作を回避する。
初期境界セルを構築するために、本発明は、カメラのいくつかで可視であるバウンディングボックスの表面で任意の点を選定する。次に、本発明は、これらの点を、当該点の対応するセルと取り替える。セルを構築するために、本発明は、一定の断面を有する固体の交差を計算する手法を用いる。これにより、この計算は、2Dで効率的に実行できるポリゴンの交差の組に削減される。
本発明は、バウンディングボックスが可視でなくなるまで、セルの構築を繰り返す。
可視性をチェックするために、本発明は、グラフィックスハードウェアを使用し、各メッシュを異なる色で独立にレンダリングする。
バウンディングボックスのポリゴンがまだ可視である場合、バウンディングボックス全体がカバーされるまで、本発明は、対応するセルを生成する。
ライン5−背景IDを有するすべてのセルの除去
セルカービングを高速化するために、本発明は、まず、背景IDを有する領域に投影されるすべてのセルを除去する。本発明は、すべての境界セルをチェックして、境界セルが背景IDを含むかどうかを調べる。セルを除去するために、本発明は、境界セルのリストからセルを削除し、除去セルのリストにそのセルを追加する。境界セルを除去したときの孔を埋めるために、その近傍のセルが境界セルのリストまたは除去セルのリストにない場合、本発明は、その近傍のセルを生成する。
あるセルの近傍セルを生成するために、現在生成されているすべてのセルの近傍セルのセルIDを記憶する隣接グラフを使用することができる。通常、セルの個数は少数であるので、本発明は、隣接したセルを見つけ出すのに効率性の低いサーチ方法を用いる。初期バウンディングボリュームの外部のセルは生成されない。その代わり、外部のセルは、除去セルのリストに追加される。境界セルのリストにもなく、除去セルのリストにもないセルは、上述したように生成される。
ライン8から21−整合性を有しないセルの検出
この方法のメインループは、整合性を有しないセルを検出して除去する。まず、本発明は、セルが整合性を有しない画像を決定する。各セルについて、本発明は、三角形のリストを保持する。各三角形について、本発明は、その三角形が可視である領域IDを記録する。これは、その三角形を投影して、その投影の領域IDを記録することにより行われる。構成によれば、セルの三角形の投影が、画像領域の境界を横断することはない。次に、本発明は、三角形が領域IDと一致しなかった画像数をチェックする。三角形が、少なくともk個の画像と整合性を有しない場合、本発明は、その対応するセルに、整合性を有しないものとしての印を付ける。なお、3Dでは、例えばk=4である。次に、本発明は、整合性を有しないセルを除去し、上述したように、近傍セルを挿入する。整合性を有しないセルがなくなるまで、本発明はこのループを繰り返す。
ユーザの入力量をできる限り減らすために、カメラの姿勢および領域の対応関係についての情報を使用して、初期ボリュームの自動計算を行うことができる。ユーザ入力は、監視されないセグメント化手順、および、領域の対応関係の自動割り当てによって取り替えることができる。
より正確な復元を得るためには、分析的な可視性解決法を用いることができる。しかしながら、浮動小数点フレームバッファおよび算術演算を含むグラフィックスハードウェアの最近の進歩により、これは不要になっている。よりスムーズな復元を得るためには、三角形の代わりに、例えばスプラインといった他の輪郭表現を使用することができる。
この復元を、他の技法、例えば多視点ステレオにより改良することができる。画素単位の奥行きが推定されると、ポリゴンごとのディスプレースメントマップにより、シーンのメッシュを生成することができる。
付加的な幾何学的制約を設けることができる。例えば、ユーザは、ある一定の画像領域に、例えば壁および地面といった平坦の制約を割り当てて、復元を改良することができる。プレノプティック画像編集は、復元された3Dモデルを使用して、ある画像を他のすべての画像に編集して挿入する。
発明の効果
本発明は、入力画像の組から任意の3Dシーンを復元する方法を提供する。本発明の手法は、セグメント化およびオブジェクト認識のコンピュータビジョン技法に頼るのではなく、ユーザとコンピュータとに公平に作業を分割する。ユーザは、画像の組の対応するオブジェクトを容易に認識し、セグメント化して、ラベル付けすることができる一方、コンピュータは、ユーザのラベル付けと整合性を有する3Dモデルを自動的に構築するのによく適している。
本発明は、ラベル付けされた画像領域のための3D復元問題の新規な定式化を提供する。本発明は、ラベルの整合性の必要条件を説明し、復元にセルを使用することの正当性を証明する。本発明のセルカービング法は、効率的に実施することができ、従来のレンダリング技法を使用してすぐにテクスチャマッピングおよび表示を行うことができるポリゴンメッシュを生成する。
本発明を好ましい実施の形態の例によって説明してきたが、本発明の精神および範囲内で、さまざまな他の適応および変更を行い得ることが理解されるべきである。したがって、添付した特許請求の範囲の目的は、本発明の真の精神および範囲に含まれるすべての変形および変更をカバーすることである。
付録A
セル復元定理
補助定理1:
そのセルIDに列挙された領域の組に投影されるセルは、最大ボリュームである。矛盾律により、同じ領域の組に投影されるセルの外部のシーンに別の点が存在すると仮定する。定義によれば、それは、そのセルの一部である。
補助定理2:
異なるセルIDを有するセルの交差は空である。矛盾律により、交差が空でないと仮定する。2つの異なる点IDを有する2つのセルの交差に点が存在しなければならない。構成によれば、シーンのあらゆる点は、唯一無二の点IDを有する。
補助定理3:
シーンは、セルCによって完全に分割される。すなわち、R−∪C=0である。これは、補助定理1および補助定理2から直接得られる。
補助定理4:
セルCのすべての点は、すべてのカメラで同じ可視性を有する。矛盾律により、そのセルに、カメラCで異なる可視性を有する2つの点が存在すると仮定する。例えば、点Pは可視でなく、点Pは可視である。領域IDは、可視である点によって決定されるので、PおよびPは、カメラCで異なるIDを有する領域に投影されなければならない。これは、それらの点IDが同じでないことを意味し、それらの点が同じセルに存在する場合、これは不可能である。
補助定理5:
n個のラベル付けされた画像が与えられたものとする。ラベル付けされた画像を生成する最大ボリュームVを有するシーンは、∀C:V∩C=CとなるようなセルCから構成される。矛盾律により、Vによって部分的に占有されるセルCが存在すると仮定する。ボリュームVは、整合性を有するすべての点を含み、V’=R−Vは、整合性を有しないすべての点を含む。それは、セルCが、少なくとも1つの整合性を有する点Pおよび少なくとも1つの整合性を有しない点Pを含まなければならないことを意味する。定義により、整合性は、点IDおよび点の可視性によって決定される。点PおよびPは、セルの定義により、同じ点IDを有し、これらの点は、補助定理4により、同じ可視性を有する。これは、それらの点の整合性が同じであることを意味する。
セル再現定理:
n個のラベル付けされた画像が与えられたものとする。ラベル付けされた画像を生成する最大ボリュームVを有するシーンは、整合性を有するセルCのみから構成される。ボリュームVの外部のセルは、整合性を有しない。
証明:補助定理3および補助定理5により、RおよびVは、セルから完全に構成される。Vの一部でない整合性を有するセルCが存在すると仮定する。Cは、整合性を有するので、Cのすべての点は、同じ領域IDを生成する。これは、このセルがVに加えられることを意味する。Vの一部である整合性を有しないセルCが存在すると仮定する。それは、Cが異なる領域IDを生成することを意味し、したがって、セルCは、ボリュームVの一部となることはできない。
系:
セルカービング方法は、ラベル付けされた画像を生成する最大ボリュームVを正確に計算する。
証明:セルカービング方法は、整合性を有しないすべてのセルCをRから除去する。残っているセルは、セル復元定理によってボリュームVに存在する。
本発明によって使用される分析的モデルの2次元概略図である。 凹部領域を有するシーンの概略図である。 複数の凹部領域を有するシーンの概略図である。 本発明によるセルカービング方法の擬似コードである。 色の不連続性を有するシーンの概略図である。 本発明によるセルカービング方法の別の実施の形態の擬似コードである。 シーンの2D画像から3Dモデルを構築する方法の流れ図である。

Claims (20)

  1. 較正された画像の組からシーンの3次元モデルを構築する方法であって、
    シーンの画像の組を取得することと、
    前記シーン用のバウンディングボリュームを初期化することと、
    各画像を複数の領域にセグメント化することと、
    前記領域の対応関係を決定するために各領域をラベルによってラベル付けすることと、
    整合性を有しない点を検出するために前記画像内の点を前記バウンディングボリュームに投影することと、
    整合性を有しない領域を識別するために前記整合性を有しない点を前記画像のすべてに投影することと、
    前記整合性を有しない領域の整合性を有しないセルを決定することと、
    前記シーンと整合性を有する最大ボリュームが、前記シーンのモデルとして残るまで、前記ボリュームから前記整合性を有しないセルを除去することと
    を含む方法。
  2. 前記3次元モデルを出力デバイスに任意の視点でレンダリングすることをさらに含む請求項1に記載の方法。
  3. 前記3次元モデルは、ポリゴンメッシュである請求項1に記載の方法。
  4. 前記シーンは、複数のオブジェクト間の実質的なオクルージョン(隠蔽)、幾何学的スケールおよび詳細の大きなばらつき、ならびに織り目の写った表面、一様な色の表面、鏡面、および透明な表面が混合したものを含む請求項1に記載の方法。
  5. 前記整合性を有しない点および前記整合性を有しないセルを検出するために使用される画像数は、前記シーンおよび前記モデルの次元数よりも1つ大きい請求項1に記載の方法。
  6. 奥行き不連続性に従って前記画像を領域にセグメント化することをさらに含む請求項1に記載の方法。
  7. 前記領域のラベルは、前記シーンによって前記画像に放射される放射輝度から導き出される請求項1に記載の方法。
  8. 前記セルは、多面体である請求項1に記載の方法。
  9. ラベル付けされない領域は、固有の背景ラベルを割り当てられる請求項1に記載の方法。
  10. 前記初期バウンディングボリュームは、ビジュアルハル(visual hull)である請求項1に記載の方法。
  11. 前記初期バウンディングボリュームは、ユーザが指定したバウンディングボックスである請求項1に記載の方法。
  12. 前記画像の組は、較正される請求項1に記載の方法。
  13. 前記セグメント化は、写真編集ソフトウェアを用いてユーザにより実行される請求項1に記載の方法。
  14. 前記ラベル付けは、ユーザによって実行される請求項1に記載の方法。
  15. ユーザが割り当てたラベルをLとし、インデックスをIとすると、各ラベルは、対<L、I>である請求項1に記載の方法。
  16. 各領域は、ラベル付けされたポリゴンの組である請求項1に記載の方法。
  17. 前記セグメント化は、自動的に実行される請求項1に記載の方法。
  18. 前記領域は、スプラインから構築される請求項1に記載の方法。
  19. 前記領域は、三角形から構築される請求項1に記載の方法。
  20. 前記画像の組は、任意の視野方向を有する任意のさまざまな視点から取得される請求項1に記載の方法。
JP2004074788A 2003-03-19 2004-03-16 較正された画像の組からシーンの3次元モデルを構築するためのコンピュータによる画像処理方法 Expired - Fee Related JP4423074B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/391,998 US7142726B2 (en) 2003-03-19 2003-03-19 Three-dimensional scene reconstruction from labeled two-dimensional images

Publications (2)

Publication Number Publication Date
JP2004288180A true JP2004288180A (ja) 2004-10-14
JP4423074B2 JP4423074B2 (ja) 2010-03-03

Family

ID=32987808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004074788A Expired - Fee Related JP4423074B2 (ja) 2003-03-19 2004-03-16 較正された画像の組からシーンの3次元モデルを構築するためのコンピュータによる画像処理方法

Country Status (2)

Country Link
US (1) US7142726B2 (ja)
JP (1) JP4423074B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008533892A (ja) * 2005-03-17 2008-08-21 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー ビデオシーケンスにおけるオブジェクト追跡の方法
JP2013537997A (ja) * 2010-09-27 2013-10-07 インテル・コーポレーション エッジの検出およびシェーダの再利用による多視点光線追跡
JP2014140158A (ja) * 2012-12-20 2014-07-31 Ricoh Co Ltd オクルージョンを意識した明視野像からの3次元シーンの再構成
CN108475413A (zh) * 2016-01-11 2018-08-31 汤姆逊许可公司 一致地编辑光场数据
JP2023518908A (ja) * 2020-03-30 2023-05-08 ユーム.コム リミテッド ラベル付き入力を使用してメッシュ精度を向上させる技法

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7304644B2 (en) * 2003-03-12 2007-12-04 Siemens Medical Solutions Usa, Inc. System and method for performing a virtual endoscopy
JP2005100176A (ja) * 2003-09-25 2005-04-14 Sony Corp 画像処理装置およびその方法
US7739623B2 (en) * 2004-04-15 2010-06-15 Edda Technology, Inc. Interactive 3D data editing via 2D graphical drawing tools
US8059153B1 (en) * 2004-06-21 2011-11-15 Wyse Technology Inc. Three-dimensional object tracking using distributed thin-client cameras
WO2006088429A1 (en) * 2005-02-17 2006-08-24 Agency For Science, Technology And Research Method and apparatus for editing three-dimensional images
US8948461B1 (en) * 2005-04-29 2015-02-03 Hewlett-Packard Development Company, L.P. Method and system for estimating the three dimensional position of an object in a three dimensional physical space
US20070046699A1 (en) * 2005-09-01 2007-03-01 Microsoft Corporation Three dimensional adorner
US8464170B2 (en) * 2005-09-09 2013-06-11 Microsoft Corporation 2D editing metaphor for 3D graphics
US20070152157A1 (en) * 2005-11-04 2007-07-05 Raydon Corporation Simulation arena entity tracking system
TW200734618A (en) * 2006-03-06 2007-09-16 Benq Corp Bulb sorting device and sorting method thereof
WO2007117535A2 (en) * 2006-04-07 2007-10-18 Sick, Inc. Parcel imaging system and method
US8139117B2 (en) * 2006-04-21 2012-03-20 Sick, Inc. Image quality analysis with test pattern
US8959005B2 (en) * 2012-01-31 2015-02-17 Autodesk, Inc. Building envelope determination
US20100274375A1 (en) * 2007-02-21 2010-10-28 Team-At-Work, Inc. Method and system for making reliefs and sculptures
US8132728B2 (en) * 2007-04-04 2012-03-13 Sick, Inc. Parcel dimensioning measurement system and method
US8675951B2 (en) * 2007-05-11 2014-03-18 Three Pixels Wide Pty Ltd. Method and system for generating a 3D model
US7995055B1 (en) 2007-05-25 2011-08-09 Google Inc. Classifying objects in a scene
US20080306708A1 (en) * 2007-06-05 2008-12-11 Raydon Corporation System and method for orientation and location calibration for image sensors
EP2183724B1 (en) * 2007-07-27 2019-06-26 Esri R&D Center Zurich AG Computer system and method for generating a 3d geometric model
US7983487B2 (en) * 2007-11-07 2011-07-19 Mitsubishi Electric Research Laboratories, Inc. Method and system for locating and picking objects using active illumination
KR100914845B1 (ko) * 2007-12-15 2009-09-02 한국전자통신연구원 다시점 영상 정보를 이용한 물체의 삼차원 형상복원 방법및 장치
JP2011507584A (ja) * 2007-12-20 2011-03-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 身体及び体輪郭の3次元再構成
TWI346309B (en) * 2007-12-21 2011-08-01 Ind Tech Res Inst Method for reconstructing three dimension model
US8737721B2 (en) 2008-05-07 2014-05-27 Microsoft Corporation Procedural authoring
US8204299B2 (en) * 2008-06-12 2012-06-19 Microsoft Corporation 3D content aggregation built into devices
US8131063B2 (en) * 2008-07-16 2012-03-06 Seiko Epson Corporation Model-based object image processing
US8531450B2 (en) * 2008-08-28 2013-09-10 Adobe Systems Incorporated Using two dimensional image adjustment operations on three dimensional objects
US8503826B2 (en) * 2009-02-23 2013-08-06 3DBin, Inc. System and method for computer-aided image processing for generation of a 360 degree view model
US8260038B2 (en) * 2009-02-25 2012-09-04 Seiko Epson Corporation Subdivision weighting for robust object model fitting
US8204301B2 (en) * 2009-02-25 2012-06-19 Seiko Epson Corporation Iterative data reweighting for balanced model learning
US8260039B2 (en) * 2009-02-25 2012-09-04 Seiko Epson Corporation Object model fitting using manifold constraints
US8208717B2 (en) * 2009-02-25 2012-06-26 Seiko Epson Corporation Combining subcomponent models for object image modeling
US20130124148A1 (en) * 2009-08-21 2013-05-16 Hailin Jin System and Method for Generating Editable Constraints for Image-based Models
WO2012101832A1 (ja) * 2011-01-28 2012-08-02 三菱電機株式会社 リモートコントロール装置及び空調システム
US9019350B2 (en) 2012-04-12 2015-04-28 Raytheon Company Stereo rectification method
US10455219B2 (en) 2012-11-30 2019-10-22 Adobe Inc. Stereo correspondence and depth sensors
US9135710B2 (en) 2012-11-30 2015-09-15 Adobe Systems Incorporated Depth map stereo correspondence techniques
US9208547B2 (en) 2012-12-19 2015-12-08 Adobe Systems Incorporated Stereo correspondence smoothness tool
US10249052B2 (en) 2012-12-19 2019-04-02 Adobe Systems Incorporated Stereo correspondence model fitting
FI125913B (en) * 2013-03-25 2016-04-15 Mikkelin Ammattikorkeakoulu Oy A state-defining object for computer-aided design
US10008027B1 (en) * 2014-10-20 2018-06-26 Henry Harlyn Baker Techniques for determining a three-dimensional representation of a surface of an object from a set of images
US9721385B2 (en) * 2015-02-10 2017-08-01 Dreamworks Animation Llc Generation of three-dimensional imagery from a two-dimensional image using a depth map
US9897806B2 (en) 2015-02-10 2018-02-20 Dreamworks Animation L.L.C. Generation of three-dimensional imagery to supplement existing content
CN105139445B (zh) * 2015-08-03 2018-02-13 百度在线网络技术(北京)有限公司 场景重建方法及装置
CN105389846B (zh) * 2015-10-21 2018-07-06 北京雅昌文化发展有限公司 一种三维模型的展示方法
US10257505B2 (en) 2016-02-08 2019-04-09 Microsoft Technology Licensing, Llc Optimized object scanning using sensor fusion
US10136116B2 (en) 2016-03-07 2018-11-20 Ricoh Company, Ltd. Object segmentation from light field data
US10430994B1 (en) 2016-11-07 2019-10-01 Henry Harlyn Baker Techniques for determining a three-dimensional textured representation of a surface of an object from a set of images with varying formats
WO2018118534A1 (en) * 2016-12-19 2018-06-28 Hang Li Item authentication using composite label
EP3602503A4 (en) * 2017-07-10 2020-11-18 Hewlett-Packard Development Company, L.P. ASSOCIATION OF OBJECT PROPERTY DATA WITH LOCATIONS
EP3474185B1 (en) * 2017-10-18 2023-06-28 Dassault Systèmes Classification of 2d images according to types of 3d arrangement
US10832436B2 (en) * 2018-04-05 2020-11-10 Symbol Technologies, Llc Method, system and apparatus for recovering label positions
CN112686084A (zh) * 2019-10-18 2021-04-20 宏达国际电子股份有限公司 图像标注系统
CN112288689B (zh) * 2020-10-09 2024-03-22 浙江清华长三角研究院 一种显微手术成像过程中术区三维重建方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6990228B1 (en) * 1999-12-17 2006-01-24 Canon Kabushiki Kaisha Image processing apparatus
GB2381429B (en) * 2001-09-28 2005-07-27 Canon Europa Nv 3D computer model processing apparatus
US6930683B2 (en) * 2002-04-19 2005-08-16 Hewlett-Packard Development Company, L.P. Three-dimensional reconstruction method utilizing reprojective optimization

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008533892A (ja) * 2005-03-17 2008-08-21 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー ビデオシーケンスにおけるオブジェクト追跡の方法
JP4741650B2 (ja) * 2005-03-17 2011-08-03 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー ビデオシーケンスにおけるオブジェクト追跡の方法
JP2013537997A (ja) * 2010-09-27 2013-10-07 インテル・コーポレーション エッジの検出およびシェーダの再利用による多視点光線追跡
JP2014140158A (ja) * 2012-12-20 2014-07-31 Ricoh Co Ltd オクルージョンを意識した明視野像からの3次元シーンの再構成
CN108475413A (zh) * 2016-01-11 2018-08-31 汤姆逊许可公司 一致地编辑光场数据
JP2019511026A (ja) * 2016-01-11 2019-04-18 トムソン ライセンシングThomson Licensing ライトフィールドデータの一貫した編集
JP2023518908A (ja) * 2020-03-30 2023-05-08 ユーム.コム リミテッド ラベル付き入力を使用してメッシュ精度を向上させる技法

Also Published As

Publication number Publication date
US7142726B2 (en) 2006-11-28
JP4423074B2 (ja) 2010-03-03
US20040184655A1 (en) 2004-09-23

Similar Documents

Publication Publication Date Title
JP4423074B2 (ja) 較正された画像の組からシーンの3次元モデルを構築するためのコンピュータによる画像処理方法
Kutulakos et al. A theory of shape by space carving
Dyer Volumetric scene reconstruction from multiple views
Franco et al. Exact polyhedral visual hulls
Lhuillier et al. Match propagation for image-based modeling and rendering
Mulayim et al. Silhouette-based 3-D model reconstruction from multiple images
US6081269A (en) Image processing system and method for generating data representing a number of points in a three-dimensional space from a plurality of two-dimensional images of the space
Cabral et al. Piecewise planar and compact floorplan reconstruction from images
Pulli et al. Surface reconstruction and display from range and color data
Kutulakos et al. A theory of shape by space carving
Yu et al. Extracting objects from range and radiance images
Taylor Surface reconstruction from feature based stereo
Holzmann et al. Semantically aware urban 3d reconstruction with plane-based regularization
Ziegler et al. 3D reconstruction using labeled image regions
Slabaugh et al. Multi-resolution space carving using level set methods
Lhuillier Toward flexible 3d modeling using a catadioptric camera
Steinbach et al. 3-D reconstruction of real-world objects using extended voxels
Holzmann et al. Regularized 3d modeling from noisy building reconstructions
Wong et al. 3D object model reconstruction from image sequence based on photometric consistency in volume space
Chhabra Reconstructing specular objects with image based rendering using color caching
Chen et al. Image synthesis from a sparse set of views
Stereopsis Accurate, dense, and robust multiview stereopsis
Cooper Robust generation of 3D models from video footage of urban scenes
Zeng et al. Recent methods for reconstructing surfaces from multiple images
Lamond et al. Hybrid rendering-a new integration of photogrammetry and laser scanning for image based rendering

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131211

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees