JP2004288180A - 較正された画像の組からシーンの3次元モデルを構築する方法 - Google Patents
較正された画像の組からシーンの3次元モデルを構築する方法 Download PDFInfo
- Publication number
- JP2004288180A JP2004288180A JP2004074788A JP2004074788A JP2004288180A JP 2004288180 A JP2004288180 A JP 2004288180A JP 2004074788 A JP2004074788 A JP 2004074788A JP 2004074788 A JP2004074788 A JP 2004074788A JP 2004288180 A JP2004288180 A JP 2004288180A
- Authority
- JP
- Japan
- Prior art keywords
- scene
- image
- cells
- images
- cell
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Image Generation (AREA)
Abstract
【解決手段】ユーザは、従来の2D写真編集ツールを使用して、各画像において対応する多角形の領域の組をセグメント化し、その組にラベル付けを行う。本発明は、3Dモデルが、入力画像においてラベル付けされた領域の組と整合性を有する最大ボリュームを有するように、3Dモデルを構築する。本発明による方法は、3D多角形モデルを直接構築する。
【選択図】図1
Description
多視点ステレオ法は、複数の画像の画素の対応関係を自動的に決定することによって3Dモデルを構築する。ステレオ対応法は、ベースラインと呼ばれることが多い、異なる視点間の距離が小さい場合にうまく機能する。
シェイプフロムシルエット法は、カメラの投影の中心からオブジェクトのシルエットのすべての点を通る可視光線の交差として3Dモデルを構築する。
測光制約を使用して、ビジュアルハルよりも明らかに良い3Dモデルを構築することができる。ボクセルカラーリングを使用して、ボクセルが投影されるどの画像画素とも色の整合性を有しない当該ボクセルを3Dボリュームから徐々に切り出すことができる。
イメージベースモデリング法は、通常、ユーザとコンピュータとの間で、3Dモデル構築の作業を分割する。方法の中には、ユーザ定義の掲示板を使用するか、または、奥行き画像をペイントするユーザツール、モデルを編集するユーザツール、および画像の照明を変更するユーザツールを使用して、単一の画像からモデルを構築するものがある。
図1に示すように、本発明の背後にあるアイデアは、以下の分析に基づいている。n個の画像の組、例えば3つの画像の組が、較正されたカメラC1、C2、C3によって静的なシーン101の任意の視点から取得される。この例では、オブジェクト101は、2つの色を有する。例えば、実線の部分はほとんどが赤であり、オブジェクト101の右前面の短い破線113の部分は緑である。
本発明の分析を続けるために、光線が、シーンの点pからカメラcに投影される。この光線は、関連する領域IDを有する画像領域でcのラベル付けされた画像と交差する。この点は、可視であるカメラの組の同じ領域IDに投影されると、その可視であるカメラの組と整合性を有する。点が、特定のカメラに可視でない場合、その点は、その特定のカメラとの整合性はわずかである。点が1つのカメラだけに可視である場合も、その点は、整合性はわずかである。
n個のラベル付けされた画像の組について、それらのラベル付けされた画像を生成する最大ボリュームVを有するシーンは、整合性を有するセルCのみからなる。最大ボリュームVの外部のすべてのセルは、整合性を有しない。この定理の証明は、付録Aで行う。
上記定理は、整合性を有しないすべてのセルを除去することにより、ラベル付けされた画像を生成する最大ボリュームVが得られることを述べている。次の重要な論点は、セルの整合性を決定するのに必要なカメラの個数を決定することである。
図4は、本発明による3Dシーン復元のためのセルカービング方法400のステップの擬似コードを示している。
これまで、本発明は、本発明のシーン復元方法の理論的基礎を説明してきた。次に、本発明は、この方法を実施するために実践するいくつかの付加的な制約を説明する。まず、本発明は、全方向性カメラの前提を透視ピンホールカメラに限定する。ここで、3つの次元における直線を投影したものは、像面における直線となる。逆に、ポリゴンによって定義される領域は、3Dでは、多面体セルになる。これにより、本発明は、後述するように、多面体を構築する高速な方法を用いることが可能になり、この方法は、2Dポリゴン交差のみを使用する。
較正が不明であるシーンの場合、本発明は、従来のコンピュータビジョン法を用いて、カメラの内部パラメータおよび外部パラメータを推定する。ユーザは、各画像で約20個の特徴点を選択し、それらの特徴点に対応関係を割り当てる。例えば、特徴点は、オブジェクトのエッジまたはコーナに存在する可能性がある。次に、すべてのカメラの位置および向きを決定するためにこの対応関係を用いることができる。
色のセグメント化に基づくラベル付けだけでは、あらゆる場合に十分であるとは限らない。図5に示すように、オブジェクト501の場合、同じラベルを有する隣接しない領域が、過度にカービングを引き起こす場合が存在する。このオブジェクトは、3つのカメラにおいて、黄の領域(中央前部の破線)によって切断される赤の領域(実線)に投影される。本発明は、これを色の不連続性と呼ぶ。2つの斜線のセルCryrは、同じセルID、例えば赤−黄−赤を有する。
次に、本発明は、グラフィックスハードウェアおよび高速2Dポリゴン交差を利用するセルカービングの効率的な実施態様を説明する。セルの完全なボリュームを構築する代わりに、本発明は、遅延評価を用い、必要に応じたセルのみを生成する。その理由は、本発明の興味が復元の境界表現にしかないからである。
上述したように、本発明は、シーン全体を収容する初期バウンディングボリューム702から開始する。ユーザは、各画像について、対応する領域IDを有する、ラベル付けされたポリゴン、例えば三角形の組も提供する。点が投影される領域IDを高速にチェックするために、本発明は、それらの領域IDに対応する色を有するポリゴンをスキャンコンバートして、フラッドフィルする。
本発明は、ビジュアルハルを、初期ボリュームの境界表現として、または、ユーザが指定したバウンディングボックスとして使用する。本発明の方法は、セルに対してのみ機能するので、本発明は、このバウンディングボックスを、当該バウンディングボックスを包含するセルの組と取り替える。このようにして、本発明は、セルと境界表現との間の任意の難しいCSG操作を回避する。
セルカービングを高速化するために、本発明は、まず、背景IDを有する領域に投影されるすべてのセルを除去する。本発明は、すべての境界セルをチェックして、境界セルが背景IDを含むかどうかを調べる。セルを除去するために、本発明は、境界セルのリストからセルを削除し、除去セルのリストにそのセルを追加する。境界セルを除去したときの孔を埋めるために、その近傍のセルが境界セルのリストまたは除去セルのリストにない場合、本発明は、その近傍のセルを生成する。
この方法のメインループは、整合性を有しないセルを検出して除去する。まず、本発明は、セルが整合性を有しない画像を決定する。各セルについて、本発明は、三角形のリストを保持する。各三角形について、本発明は、その三角形が可視である領域IDを記録する。これは、その三角形を投影して、その投影の領域IDを記録することにより行われる。構成によれば、セルの三角形の投影が、画像領域の境界を横断することはない。次に、本発明は、三角形が領域IDと一致しなかった画像数をチェックする。三角形が、少なくともk個の画像と整合性を有しない場合、本発明は、その対応するセルに、整合性を有しないものとしての印を付ける。なお、3Dでは、例えばk=4である。次に、本発明は、整合性を有しないセルを除去し、上述したように、近傍セルを挿入する。整合性を有しないセルがなくなるまで、本発明はこのループを繰り返す。
本発明は、入力画像の組から任意の3Dシーンを復元する方法を提供する。本発明の手法は、セグメント化およびオブジェクト認識のコンピュータビジョン技法に頼るのではなく、ユーザとコンピュータとに公平に作業を分割する。ユーザは、画像の組の対応するオブジェクトを容易に認識し、セグメント化して、ラベル付けすることができる一方、コンピュータは、ユーザのラベル付けと整合性を有する3Dモデルを自動的に構築するのによく適している。
セル復元定理
補助定理1:
そのセルIDに列挙された領域の組に投影されるセルは、最大ボリュームである。矛盾律により、同じ領域の組に投影されるセルの外部のシーンに別の点が存在すると仮定する。定義によれば、それは、そのセルの一部である。
異なるセルIDを有するセルの交差は空である。矛盾律により、交差が空でないと仮定する。2つの異なる点IDを有する2つのセルの交差に点が存在しなければならない。構成によれば、シーンのあらゆる点は、唯一無二の点IDを有する。
シーンは、セルCによって完全に分割される。すなわち、R3−∪Ci=0である。これは、補助定理1および補助定理2から直接得られる。
セルCのすべての点は、すべてのカメラで同じ可視性を有する。矛盾律により、そのセルに、カメラCkで異なる可視性を有する2つの点が存在すると仮定する。例えば、点Piは可視でなく、点Pvは可視である。領域IDは、可視である点によって決定されるので、PiおよびPvは、カメラCkで異なるIDを有する領域に投影されなければならない。これは、それらの点IDが同じでないことを意味し、それらの点が同じセルに存在する場合、これは不可能である。
n個のラベル付けされた画像が与えられたものとする。ラベル付けされた画像を生成する最大ボリュームVを有するシーンは、∀C:V∩C=CとなるようなセルCから構成される。矛盾律により、Vによって部分的に占有されるセルCが存在すると仮定する。ボリュームVは、整合性を有するすべての点を含み、V’=R3−Vは、整合性を有しないすべての点を含む。それは、セルCが、少なくとも1つの整合性を有する点Pcおよび少なくとも1つの整合性を有しない点Piを含まなければならないことを意味する。定義により、整合性は、点IDおよび点の可視性によって決定される。点PcおよびPiは、セルの定義により、同じ点IDを有し、これらの点は、補助定理4により、同じ可視性を有する。これは、それらの点の整合性が同じであることを意味する。
n個のラベル付けされた画像が与えられたものとする。ラベル付けされた画像を生成する最大ボリュームVを有するシーンは、整合性を有するセルCのみから構成される。ボリュームVの外部のセルは、整合性を有しない。
セルカービング方法は、ラベル付けされた画像を生成する最大ボリュームVを正確に計算する。
Claims (20)
- 較正された画像の組からシーンの3次元モデルを構築する方法であって、
シーンの画像の組を取得することと、
前記シーン用のバウンディングボリュームを初期化することと、
各画像を複数の領域にセグメント化することと、
前記領域の対応関係を決定するために各領域をラベルによってラベル付けすることと、
整合性を有しない点を検出するために前記画像内の点を前記バウンディングボリュームに投影することと、
整合性を有しない領域を識別するために前記整合性を有しない点を前記画像のすべてに投影することと、
前記整合性を有しない領域の整合性を有しないセルを決定することと、
前記シーンと整合性を有する最大ボリュームが、前記シーンのモデルとして残るまで、前記ボリュームから前記整合性を有しないセルを除去することと
を含む方法。 - 前記3次元モデルを出力デバイスに任意の視点でレンダリングすることをさらに含む請求項1に記載の方法。
- 前記3次元モデルは、ポリゴンメッシュである請求項1に記載の方法。
- 前記シーンは、複数のオブジェクト間の実質的なオクルージョン(隠蔽)、幾何学的スケールおよび詳細の大きなばらつき、ならびに織り目の写った表面、一様な色の表面、鏡面、および透明な表面が混合したものを含む請求項1に記載の方法。
- 前記整合性を有しない点および前記整合性を有しないセルを検出するために使用される画像数は、前記シーンおよび前記モデルの次元数よりも1つ大きい請求項1に記載の方法。
- 奥行き不連続性に従って前記画像を領域にセグメント化することをさらに含む請求項1に記載の方法。
- 前記領域のラベルは、前記シーンによって前記画像に放射される放射輝度から導き出される請求項1に記載の方法。
- 前記セルは、多面体である請求項1に記載の方法。
- ラベル付けされない領域は、固有の背景ラベルを割り当てられる請求項1に記載の方法。
- 前記初期バウンディングボリュームは、ビジュアルハル(visual hull)である請求項1に記載の方法。
- 前記初期バウンディングボリュームは、ユーザが指定したバウンディングボックスである請求項1に記載の方法。
- 前記画像の組は、較正される請求項1に記載の方法。
- 前記セグメント化は、写真編集ソフトウェアを用いてユーザにより実行される請求項1に記載の方法。
- 前記ラベル付けは、ユーザによって実行される請求項1に記載の方法。
- ユーザが割り当てたラベルをLとし、インデックスをIとすると、各ラベルは、対<L、I>である請求項1に記載の方法。
- 各領域は、ラベル付けされたポリゴンの組である請求項1に記載の方法。
- 前記セグメント化は、自動的に実行される請求項1に記載の方法。
- 前記領域は、スプラインから構築される請求項1に記載の方法。
- 前記領域は、三角形から構築される請求項1に記載の方法。
- 前記画像の組は、任意の視野方向を有する任意のさまざまな視点から取得される請求項1に記載の方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/391,998 US7142726B2 (en) | 2003-03-19 | 2003-03-19 | Three-dimensional scene reconstruction from labeled two-dimensional images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004288180A true JP2004288180A (ja) | 2004-10-14 |
JP4423074B2 JP4423074B2 (ja) | 2010-03-03 |
Family
ID=32987808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004074788A Expired - Fee Related JP4423074B2 (ja) | 2003-03-19 | 2004-03-16 | 較正された画像の組からシーンの3次元モデルを構築するためのコンピュータによる画像処理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7142726B2 (ja) |
JP (1) | JP4423074B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008533892A (ja) * | 2005-03-17 | 2008-08-21 | ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | ビデオシーケンスにおけるオブジェクト追跡の方法 |
JP2013537997A (ja) * | 2010-09-27 | 2013-10-07 | インテル・コーポレーション | エッジの検出およびシェーダの再利用による多視点光線追跡 |
JP2014140158A (ja) * | 2012-12-20 | 2014-07-31 | Ricoh Co Ltd | オクルージョンを意識した明視野像からの3次元シーンの再構成 |
CN108475413A (zh) * | 2016-01-11 | 2018-08-31 | 汤姆逊许可公司 | 一致地编辑光场数据 |
JP2023518908A (ja) * | 2020-03-30 | 2023-05-08 | ユーム.コム リミテッド | ラベル付き入力を使用してメッシュ精度を向上させる技法 |
Families Citing this family (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7304644B2 (en) * | 2003-03-12 | 2007-12-04 | Siemens Medical Solutions Usa, Inc. | System and method for performing a virtual endoscopy |
JP2005100176A (ja) * | 2003-09-25 | 2005-04-14 | Sony Corp | 画像処理装置およびその方法 |
US7739623B2 (en) * | 2004-04-15 | 2010-06-15 | Edda Technology, Inc. | Interactive 3D data editing via 2D graphical drawing tools |
US8059153B1 (en) * | 2004-06-21 | 2011-11-15 | Wyse Technology Inc. | Three-dimensional object tracking using distributed thin-client cameras |
WO2006088429A1 (en) * | 2005-02-17 | 2006-08-24 | Agency For Science, Technology And Research | Method and apparatus for editing three-dimensional images |
US8948461B1 (en) * | 2005-04-29 | 2015-02-03 | Hewlett-Packard Development Company, L.P. | Method and system for estimating the three dimensional position of an object in a three dimensional physical space |
US20070046699A1 (en) * | 2005-09-01 | 2007-03-01 | Microsoft Corporation | Three dimensional adorner |
US8464170B2 (en) * | 2005-09-09 | 2013-06-11 | Microsoft Corporation | 2D editing metaphor for 3D graphics |
US20070152157A1 (en) * | 2005-11-04 | 2007-07-05 | Raydon Corporation | Simulation arena entity tracking system |
TW200734618A (en) * | 2006-03-06 | 2007-09-16 | Benq Corp | Bulb sorting device and sorting method thereof |
WO2007117535A2 (en) * | 2006-04-07 | 2007-10-18 | Sick, Inc. | Parcel imaging system and method |
US8139117B2 (en) * | 2006-04-21 | 2012-03-20 | Sick, Inc. | Image quality analysis with test pattern |
US8959005B2 (en) * | 2012-01-31 | 2015-02-17 | Autodesk, Inc. | Building envelope determination |
US20100274375A1 (en) * | 2007-02-21 | 2010-10-28 | Team-At-Work, Inc. | Method and system for making reliefs and sculptures |
US8132728B2 (en) * | 2007-04-04 | 2012-03-13 | Sick, Inc. | Parcel dimensioning measurement system and method |
US8675951B2 (en) * | 2007-05-11 | 2014-03-18 | Three Pixels Wide Pty Ltd. | Method and system for generating a 3D model |
US7995055B1 (en) | 2007-05-25 | 2011-08-09 | Google Inc. | Classifying objects in a scene |
US20080306708A1 (en) * | 2007-06-05 | 2008-12-11 | Raydon Corporation | System and method for orientation and location calibration for image sensors |
EP2183724B1 (en) * | 2007-07-27 | 2019-06-26 | Esri R&D Center Zurich AG | Computer system and method for generating a 3d geometric model |
US7983487B2 (en) * | 2007-11-07 | 2011-07-19 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for locating and picking objects using active illumination |
KR100914845B1 (ko) * | 2007-12-15 | 2009-09-02 | 한국전자통신연구원 | 다시점 영상 정보를 이용한 물체의 삼차원 형상복원 방법및 장치 |
JP2011507584A (ja) * | 2007-12-20 | 2011-03-10 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 身体及び体輪郭の3次元再構成 |
TWI346309B (en) * | 2007-12-21 | 2011-08-01 | Ind Tech Res Inst | Method for reconstructing three dimension model |
US8737721B2 (en) | 2008-05-07 | 2014-05-27 | Microsoft Corporation | Procedural authoring |
US8204299B2 (en) * | 2008-06-12 | 2012-06-19 | Microsoft Corporation | 3D content aggregation built into devices |
US8131063B2 (en) * | 2008-07-16 | 2012-03-06 | Seiko Epson Corporation | Model-based object image processing |
US8531450B2 (en) * | 2008-08-28 | 2013-09-10 | Adobe Systems Incorporated | Using two dimensional image adjustment operations on three dimensional objects |
US8503826B2 (en) * | 2009-02-23 | 2013-08-06 | 3DBin, Inc. | System and method for computer-aided image processing for generation of a 360 degree view model |
US8260038B2 (en) * | 2009-02-25 | 2012-09-04 | Seiko Epson Corporation | Subdivision weighting for robust object model fitting |
US8204301B2 (en) * | 2009-02-25 | 2012-06-19 | Seiko Epson Corporation | Iterative data reweighting for balanced model learning |
US8260039B2 (en) * | 2009-02-25 | 2012-09-04 | Seiko Epson Corporation | Object model fitting using manifold constraints |
US8208717B2 (en) * | 2009-02-25 | 2012-06-26 | Seiko Epson Corporation | Combining subcomponent models for object image modeling |
US20130124148A1 (en) * | 2009-08-21 | 2013-05-16 | Hailin Jin | System and Method for Generating Editable Constraints for Image-based Models |
WO2012101832A1 (ja) * | 2011-01-28 | 2012-08-02 | 三菱電機株式会社 | リモートコントロール装置及び空調システム |
US9019350B2 (en) | 2012-04-12 | 2015-04-28 | Raytheon Company | Stereo rectification method |
US10455219B2 (en) | 2012-11-30 | 2019-10-22 | Adobe Inc. | Stereo correspondence and depth sensors |
US9135710B2 (en) | 2012-11-30 | 2015-09-15 | Adobe Systems Incorporated | Depth map stereo correspondence techniques |
US9208547B2 (en) | 2012-12-19 | 2015-12-08 | Adobe Systems Incorporated | Stereo correspondence smoothness tool |
US10249052B2 (en) | 2012-12-19 | 2019-04-02 | Adobe Systems Incorporated | Stereo correspondence model fitting |
FI125913B (en) * | 2013-03-25 | 2016-04-15 | Mikkelin Ammattikorkeakoulu Oy | A state-defining object for computer-aided design |
US10008027B1 (en) * | 2014-10-20 | 2018-06-26 | Henry Harlyn Baker | Techniques for determining a three-dimensional representation of a surface of an object from a set of images |
US9721385B2 (en) * | 2015-02-10 | 2017-08-01 | Dreamworks Animation Llc | Generation of three-dimensional imagery from a two-dimensional image using a depth map |
US9897806B2 (en) | 2015-02-10 | 2018-02-20 | Dreamworks Animation L.L.C. | Generation of three-dimensional imagery to supplement existing content |
CN105139445B (zh) * | 2015-08-03 | 2018-02-13 | 百度在线网络技术(北京)有限公司 | 场景重建方法及装置 |
CN105389846B (zh) * | 2015-10-21 | 2018-07-06 | 北京雅昌文化发展有限公司 | 一种三维模型的展示方法 |
US10257505B2 (en) | 2016-02-08 | 2019-04-09 | Microsoft Technology Licensing, Llc | Optimized object scanning using sensor fusion |
US10136116B2 (en) | 2016-03-07 | 2018-11-20 | Ricoh Company, Ltd. | Object segmentation from light field data |
US10430994B1 (en) | 2016-11-07 | 2019-10-01 | Henry Harlyn Baker | Techniques for determining a three-dimensional textured representation of a surface of an object from a set of images with varying formats |
WO2018118534A1 (en) * | 2016-12-19 | 2018-06-28 | Hang Li | Item authentication using composite label |
EP3602503A4 (en) * | 2017-07-10 | 2020-11-18 | Hewlett-Packard Development Company, L.P. | ASSOCIATION OF OBJECT PROPERTY DATA WITH LOCATIONS |
EP3474185B1 (en) * | 2017-10-18 | 2023-06-28 | Dassault Systèmes | Classification of 2d images according to types of 3d arrangement |
US10832436B2 (en) * | 2018-04-05 | 2020-11-10 | Symbol Technologies, Llc | Method, system and apparatus for recovering label positions |
CN112686084A (zh) * | 2019-10-18 | 2021-04-20 | 宏达国际电子股份有限公司 | 图像标注系统 |
CN112288689B (zh) * | 2020-10-09 | 2024-03-22 | 浙江清华长三角研究院 | 一种显微手术成像过程中术区三维重建方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6990228B1 (en) * | 1999-12-17 | 2006-01-24 | Canon Kabushiki Kaisha | Image processing apparatus |
GB2381429B (en) * | 2001-09-28 | 2005-07-27 | Canon Europa Nv | 3D computer model processing apparatus |
US6930683B2 (en) * | 2002-04-19 | 2005-08-16 | Hewlett-Packard Development Company, L.P. | Three-dimensional reconstruction method utilizing reprojective optimization |
-
2003
- 2003-03-19 US US10/391,998 patent/US7142726B2/en not_active Expired - Fee Related
-
2004
- 2004-03-16 JP JP2004074788A patent/JP4423074B2/ja not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008533892A (ja) * | 2005-03-17 | 2008-08-21 | ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | ビデオシーケンスにおけるオブジェクト追跡の方法 |
JP4741650B2 (ja) * | 2005-03-17 | 2011-08-03 | ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | ビデオシーケンスにおけるオブジェクト追跡の方法 |
JP2013537997A (ja) * | 2010-09-27 | 2013-10-07 | インテル・コーポレーション | エッジの検出およびシェーダの再利用による多視点光線追跡 |
JP2014140158A (ja) * | 2012-12-20 | 2014-07-31 | Ricoh Co Ltd | オクルージョンを意識した明視野像からの3次元シーンの再構成 |
CN108475413A (zh) * | 2016-01-11 | 2018-08-31 | 汤姆逊许可公司 | 一致地编辑光场数据 |
JP2019511026A (ja) * | 2016-01-11 | 2019-04-18 | トムソン ライセンシングThomson Licensing | ライトフィールドデータの一貫した編集 |
JP2023518908A (ja) * | 2020-03-30 | 2023-05-08 | ユーム.コム リミテッド | ラベル付き入力を使用してメッシュ精度を向上させる技法 |
Also Published As
Publication number | Publication date |
---|---|
US7142726B2 (en) | 2006-11-28 |
JP4423074B2 (ja) | 2010-03-03 |
US20040184655A1 (en) | 2004-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4423074B2 (ja) | 較正された画像の組からシーンの3次元モデルを構築するためのコンピュータによる画像処理方法 | |
Kutulakos et al. | A theory of shape by space carving | |
Dyer | Volumetric scene reconstruction from multiple views | |
Franco et al. | Exact polyhedral visual hulls | |
Lhuillier et al. | Match propagation for image-based modeling and rendering | |
Mulayim et al. | Silhouette-based 3-D model reconstruction from multiple images | |
US6081269A (en) | Image processing system and method for generating data representing a number of points in a three-dimensional space from a plurality of two-dimensional images of the space | |
Cabral et al. | Piecewise planar and compact floorplan reconstruction from images | |
Pulli et al. | Surface reconstruction and display from range and color data | |
Kutulakos et al. | A theory of shape by space carving | |
Yu et al. | Extracting objects from range and radiance images | |
Taylor | Surface reconstruction from feature based stereo | |
Holzmann et al. | Semantically aware urban 3d reconstruction with plane-based regularization | |
Ziegler et al. | 3D reconstruction using labeled image regions | |
Slabaugh et al. | Multi-resolution space carving using level set methods | |
Lhuillier | Toward flexible 3d modeling using a catadioptric camera | |
Steinbach et al. | 3-D reconstruction of real-world objects using extended voxels | |
Holzmann et al. | Regularized 3d modeling from noisy building reconstructions | |
Wong et al. | 3D object model reconstruction from image sequence based on photometric consistency in volume space | |
Chhabra | Reconstructing specular objects with image based rendering using color caching | |
Chen et al. | Image synthesis from a sparse set of views | |
Stereopsis | Accurate, dense, and robust multiview stereopsis | |
Cooper | Robust generation of 3D models from video footage of urban scenes | |
Zeng et al. | Recent methods for reconstructing surfaces from multiple images | |
Lamond et al. | Hybrid rendering-a new integration of photogrammetry and laser scanning for image based rendering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090806 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090825 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091030 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091201 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091207 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121211 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131211 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |