JP2004502997A - ベイジアンフレームワークにおける仮説混合による深度マップの生成 - Google Patents
ベイジアンフレームワークにおける仮説混合による深度マップの生成 Download PDFInfo
- Publication number
- JP2004502997A JP2004502997A JP2002506563A JP2002506563A JP2004502997A JP 2004502997 A JP2004502997 A JP 2004502997A JP 2002506563 A JP2002506563 A JP 2002506563A JP 2002506563 A JP2002506563 A JP 2002506563A JP 2004502997 A JP2004502997 A JP 2004502997A
- Authority
- JP
- Japan
- Prior art keywords
- depth map
- reference image
- depth
- pixel
- hypothetical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000002156 mixing Methods 0.000 title claims abstract description 16
- 238000000034 method Methods 0.000 claims abstract description 60
- 238000005457 optimization Methods 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 abstract description 23
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 5
- 239000000243 solution Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000011960 computer-aided design Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000011259 mixed solution Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000135 prohibitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
(関連出願の相互参照)
本特許出願は、本明細書に包含する2000年6月28日出願の合衆国予備出願No.60/214792を基礎とし、およびその優先権を主張する。
(本発明の技術分野)
本発明は、概して較正された画像の整合により深度マップを推定するためのシステムに関し、特に既知の基準画像データおよび基準画像データを使用した深度マップの確率にベイジアンフレームワークを応用することにより深度マップ推定の精度を向上させるためのシステムに関する。
【0002】
(背景情報)
コンピュータ支援画像は、コンピュータの処理およびデータ操作能力の補助により2つ以上のデジタル化された2次元画像から、端末スクリーンまたはグラフィカルユーザインターフェース上に、物体または景色の新たな2次元または3次元画像を表現する処理である。2次元(以後「2D」)画像からの3次元(以後「3D」)モデルの構成は、もともとは有限の数の2D画像によって表現された物体または景色のグラフィカル3Dモデルを処理の目標とする、例えばコンピュータ支援デザイン(以後「CAD」)、3D通信販売およびバーチャルリアリティーシステムで使用される。コンピュータグラフィックスまたはコンピュータビジョンを使用することで、3Dモデルが構成されるもととなる2D画像は、物体又は景色の周りの異なる視点または位置から知覚された物体または景色を表現している。該画像は、物体または景色の周辺に配設した複数のカメラか、物体の写真または画像のビデオストリームを記録する、物体の周りを移動する単一のカメラから得られる。2D画像内の情報は、コンピュータベースのグラフィカル3Dモデルを合成するために結合および対比される。近年のコンピュータ処理能力およびデータ操作能力の進歩はコンピュータによる3Dモデリングを改善したが、これら3D構築システムは依然として、大きなコンピュータ処理能力、巨大なデータ記憶要求、および長い処理時間の需要により特徴づけられる。さらに、グラフィカル3Dモデルのような空間の体積表現は、3Dモデルと第2の3Dモデルとの結合または、新たな視点または投影中心からの空間知覚のような動的な変形に対応して容易に修正することができない。
【0003】
通常、複数の視点またはカメラ位置からの3D画像を構成するには、まず、カメラで撮った画像が、画像によって表現された物体または景色を適切な3Dに再構成するために正確に結合されるように、カメラの較正が必要である。カメラまたはカメラ位置の較正は、画像を収集する各位置または視点でのカメラパラメータを獲得または計算する工程であり、そのようなパラメータにはカメラの焦点距離、画角、ポーズおよび方向などの情報が含まれる。較正情報が容易に利用できない場合、多数の較正アルゴリズムが較正情報を計算するために利用できる。あるいは、較正情報が欠けている場合、いくつかの画像再構成方法により、カメラまたは視点がある位置から他の位置へ移動するような場合のカメラ位置の較正を推定することができる。しかしながら、較正の推定では3Dグラフィカルモデル描写過程で付加的な変数を導入し、これが出力グラフィックを不正確にする原因となる。さらに、カメラの視野の較正には、カメラの動きおよび/または方向を事前に把握しておくことが必ず必要となるので、新たな位置へ較正された視点を外挿することにより3Dモデルの構成に利用できるビューまたは画像が限定される。
【0004】
多重視点から物体のグラフィカル3Dモデルを再構成する現在の方法は、ステレオマッピングとして知られる、一度に物体の一対の画像を用いる処理であり、該処理では、物体の合成画像を生成するために2つの画像間の対応が計算される。しかしながら、物体の2つの視点のみから再生された形状情報は完全でもなく正確でもない。そのためにしばしば3Dモデルの形状を精緻化するためにさらなる視点からの画像を組み入れる必要がある。さらに、一部のグラフィカルシステム内では、画像または較正データにおいて既知の、または認知された誤りを調整するために、1つ以上の画像の重み付け、ワープ、および/または混合により、ステレオマップされた3Dモデルの形状を操作することが多い。しかしながら、そのような操作はマニュアル処理であり、合成グラフィカル画像の自動計算に限界があるだけでなく、重み付け、ワープ、および/または混合の適当なレベルを推定するときに誤差が導入される危険性がある。
【0005】
物体または景色の新たな2D図および3Dモデルを描写するため、近年、深度マップ形式のグラフィカルな画像がステレオマッッピングに応用されている。深度マップは空間の表面を数学的に表現する値の2次元配列である。該配列の列および行は表面のx座標およびy座標上の位置情報に対応し、配列要素は特定の点またはカメラ位置から表面への深度または距離の読みである。深度マップは、物体表面の各点における強度および色情報、またはピクセルを深度情報に置き換えて、物体のグレースケール画像として表現され得る。それに応じて、表面の点は3Dグラフィック構成技術においてはピクセルと呼ばれ、本明細書の中では交換可能に使用される。
【0006】
物体のグラフィカルな表現は、一度に較正された1対の図を用いて、ステレオマッピングされた深度マップにより推定することができる。ステレオ深度マッピングでは、通常、2つのマップ内のピクセルに対して共通深度値を見つけるためにセクション間の整合を見つけるため、一度に2つの深度マップのセクションを比較する。しかしながら、推定された深度マップはいつも誤差を含んでいるので、マップが互いに一致し、必要な箇所で整合がとれるという保証はない。1つの悪いデータまたは誤差のあるデータの影響を最小にするために多数のデータが有効であるが、不特定多数の深度マップは誤った較正、不正確な重み付け、または特定のビューの値に関する推測による誤差を含み、深度マップ内のあらゆる誤差が最終的な合成画像へ投影されるため、同じ原理を深度マップへ応用することはできない。さらに、深度マップによる従来式のステレオマッピング法は、1つの深度マップを推定する時点で精緻化処理を終了する。
【0007】
基準画像または、物体または景色の所望の画像の深度マップの良好な推定を決定するための他の方法は、特定の推定された深度マップから良好な深度マップを生成するために確率を応用することである。特に、既存の推定された深度マップと基準画像に関連した既知の要素をベイジアンフレームワークに適用し、元の推定された深度マップより正確となるように推定された深度マップを精緻化するために、最も確率の高い、または帰納的最大確率(以後「MAP」とする)の解を導く。
【0008】
以下に示すベイジアンフレームワークは、ベイジアン仮説確率を利用して精緻化した推定された深度マップを計算するために利用されるパラメータを表している。既知の入力値を使用することにより、その結果は元の深度マップより正確である。ここで、既知の値は画像の推定された深度マップ、基準画像情報、および画像ビューの較正情報を含む。基準画像Dおよび事前情報I(較正情報、カメラポーズ、画像のワールド状態についての仮定、その他)を特定した場合の、深度マップZが正確である確率は、以下の式で表すことができる。
【数1】
ここで、d1は基準画像、およびD〜は画像を表している。帰納的最大確率の解は以下の式で定義される。
【数2】
【0009】
項
【数3】
は基準画像を特定した場合の深度マップZの確率である。項
【数4】
は第1画像およびそれに対応する深度マップを特定した場合の残りの画像の確率である。該確率計算式は、該式をエネルギー方程式と見なし、エネルギーコストを最小にするように該エネルギー方程式を解くことにより解くことができる。上式はエネルギー領域内に
【数5】
とおくことができる。
【0010】
逆(負の)確率の対数それぞれはエネルギー項
【数6】
および
【数7】
に対応している。ここで、
【数8】
は再投影誤差の目安を表し、
【数9】
は仮説深度マップの不連続誤差の目安を表している。該再投影誤差は各個々のピクセルからの誤差の寄与の和を表している。式を対数へ変換することの利点は、有効なコンピュータ処理内の乗算において、それぞれの確率および対応する精度の問題に関連する微小な数を回避することができることである。
【0011】
再投影誤差に関連する確率は、仮説深度マップ内の各ピクセルの再投影要素の分布を調べることによって評価される。特に、各ピクセルの再投影要素の周波数関数は汚染された3次元ガウシアン分布
【数10】
として表現される。この式は、仮説深度マップが基準画像の純粋な再生成である場合、理想的な分布の近傍の3つのピクセル投影値の分布を表す。Y,U,Vはピクセルの輝度およびクロミナンス色要素であり、Y,U,およびVは、基準画像を特定した場合の、ピクセルのそれぞれの理想要素値を表す。P0は、再投影されたピクセルが隠蔽、鏡面反射、較正誤差、その他のため重大に異なる確率である。256は有用なスペクトラム内の色数を表し、分布式は色の3つの要素、すなわちY,U,およびVを評価しているため、3で累乗される。eは自然対数の底2.72である。σは、ピクセルに一様分布を割り当てた場合の、再投影要素のノルム周辺の標準偏差の目安を表す。ガウシアン分布の確率をエネルギー問題として見ると、エネルギー項
【数11】
は基準画像内の全ピクセルのピクセル投影エネルギーの和
【数12】
と見なすことができる。
【0012】
推定された深度マップと仮説深度マップ間の不連続エネルギー
【数13】
は、図1で示したように、画像内の連結する4つのピクセル隣接点100−106の全ての対からの誤差の寄与からなる。輝度Yなどの基準画像のピクセル100の要素内の対応する不連続性が特定された場合、各ピクセルの深度領域内の不連続の確率はより大きい。これは隣接または近隣するピクセルは類似の特徴および特性を持つ傾向があるという原理に由来する。ピクセル100とピクセル102間の輝度の不連続をh110で表す。これはピクセル100と102間の水平方向の結合と見なすこともできる。この結合間を絶縁するのに必要なエネルギーが小さいほど、ピクセル100と102間の不連続性は小さい。同様に、v114はピクセル100と隣のピクセル104間の垂直方向の結合を示している。例えば、グラジエント▽Y=[YxYy](xおよびyはピクセル100の座標を表す。)が大きい場合、ピクセル100と104間の任意の不連続性は、不連続エネルギーのより小さな寄与によってモデル化できる。これを達成するために、隣接するピクセル102および104との間の水平結合110および垂直結合114に対応する2つのエネルギー係数chおよびcvを使用する。ピクセル要素Yのグラジエントとして表されるこれらの結合のエネルギーは
【数14】
として表される。ここでαは実験により決定された重みであり、z1とz2は結合に関係する隣接ピクセルの深度値であり、距離値Vはメトリックである(不等三角形を満足する)。該エネルギー係数は以下の式で決定される。
【数15】
ここで、
【数16】
が導かれた適切な関数である。これらの関係の基本は、長さlの直線として形状される不連続性は、輝度グラジエント▽Yが該直線に垂直である場合、水平結合(近似値)
【数17】
および垂直結合(近似値)
【数18】
と交差する。従って、その様な不連続の負担は
【数19】
に比例し、よって不連続の方位に無関係である。画像の量をベクトルで表すことによって、輝度およびクロミナンス要素は下記の式20のようになる。
【数20】
エネルギー係数は下記の式21に一般化される。
【数21】
ここで、J=[WxWy]は3×2のヤコビヤン行列導関数であり、座標xおよびyを有するピクセル周囲の色強度の変化の度合いの目安となる。該行列のノルムは、
【数22】
である。導出された関数f(x)は、‖J‖により不連続のエネルギーがどのように変化するかを決定する。ここでf(x)を
【数23】
とおく。定数aminは不連続の最小コストである。さらにメトリックVは、
【数24】
とおくことができる。ここで、Tdは不連続と判断する閾値であり、u1およびu2は深度マップ値から計算された第1のビュー以外のビューの相違である。u1およびu2は、異なる深度値に対応する特定の第1のビューの背景に投影された光線に沿うピクセルである。これらのピクセルは第1のビュー内の共通点と見なされるが、他の観点から見ると間の距離を有した離れた点であり、間にいくらかの不連続性を有する離れたピクセルである。
【0013】
上述のエネルギー関数を解くことによりピクセル単位で最良の深度マップ値を探索する、最近考案された方法では、グラフカットを使用する。このとき、基準画像に対する投影の中心からの光線に沿う各反復では、ここまでに達成された深度マップの解が平面内の固定深度値に対して検査され、最終的な解は画像のあらゆるピクセルで深度マップ値を固定できる。次いで基準画像の全ての深度値を最適値が見つかるまで検討する。しかしながら、予定する深度マップの数が多いとき、および使用される仮説深度マップが所望の深度マップに殆ど類似していないとき、その様な方法で全ての深度マップの値を検査するには法外な時間がかかり、所定の精度の深度マップに集束させることが必ずしもできない。
【0014】
本発明の好適な実施例は、推定された深度マップおよび1つ以上の仮説深度マップから物体または景色の基準画像の最適化された深度マップを導くための既存のシステムに関連した問題を克服する。
【0015】
(発明の要旨)
本発明は、確率のベイジアンフレームワーク内で複数の仮説深度マップを反復混合することにより、最適化された深度マップを生成するためのシステムおよび方法を目的としている。当該システムはまず基準画像の深度マップを推定し、該推定された深度マップが現在の深度マップとなる。該システムは、いくつかの既知の深度マップ生成方法およびアルゴリズムから導かれる、基準画像の複数の仮説深度マップを利用できる。各仮説深度マップは、システムで利用できる基準、方向性、および較正情報が与えられて、基準画像の妥当な近似である複雑な深度マップを表す。現在の深度マップおよび各仮説深度マップを、一度に1つまたは2つのピクセルについて反復して比較し、ベイジアンフレームワークを元にして、当該ピクセルにおいて仮説深度マップが現在の深度マップより基準画像の表現に近い確率を計算する。画像をより正確に表現する確率が高いと判明した該深度マップ値は、現在の深度マップに使用するために選択される。この処理では2つの深度マップは画像をより正確に表現する1つの深度マップに混合され、該混合された深度マップが新しい現在の深度マップとなる。確率は、結果的に得られる深度マップ内の不連続エネルギーおよび再投影エネルギーを最小にする目的に基づいて決定される。これらのエネルギーは、各ピクセルにおける2つの可能な深度マップ値候補間の可能な深度マップグラフカット構成を比較するという処理を通して最小化される。最適化または混合処理は、各ピクセルまたは各ピクセルグループにおける深度マップ値間の差が所望の最小値に達したとき終了する。
【0016】
本発明の1つの実施形態において、本発明のシステムと方法は、一度に2つの深度マップを使って複数の深度マップを混合することにより、基準画像の深度マップ推定の最適化を行うもので、基準画像の隣接する2つのピクセルをそれぞれ2つの異なる深度マップに割り当てる再投影エネルギーを計算することと、基準画像の隣接する各ピクセルそれぞれに関連する不連続エネルギー、および基準画像の隣接するピクセル間のエッジに関連した不連続エネルギーを計算することと、隣接するピクセルおよび計算された再投影エネルギーおよび不連続エネルギーが特定された後、2つの異なる深度マップ間の最小グラフカットに基づき、2つの隣接したピクセルに対して深度マップ値を割り当てることとを含む。
【0017】
本発明の他の実施形態では、本発明のシステムと方法は、一度に2つの深度マップを使用して複数の深度マップを混合することにより、基準画像の深度マップの推定を行うもので、基準画像の特定のビューの現在の深度マップを推定することと、導出された基準画像の複数の仮説深度マップそれぞれに対して、仮説深度マップ上のピクセルに対応する現在の深度マップ上の各ピクセルに対し、仮説深度マップ上のピクセルの深度マップ値と現在の深度マップ上のピクセルの深度マップ値とを比較し、 比較された仮説深度マップ上のピクセルの深度マップ値が、現在の深度マップ上のピクセルの深度マップ値より基準画像を正確に表現する確率が高い場合、現在の深度マップ上のピクセルの深度マップ値を対応する仮説深度マップ上のピクセルの深度マップ値に置き換えることを含む。
【0018】
本発明の他のさらなる実施形態では、本発明のシステムと方法は、物体の基準画像の深度マップ推定の最適化を行うもので、物体の基準画像の所望のビューの第1の深度マップを推定することと、導出された基準画像の複数の仮説深度マップそれぞれに対して、第1の深度マップと導出された仮説深度マップ両方のすべてのピクセルに対し、2つの深度マップ間の最適なピクセルを決定するためにベイジアン確率フレームワークを適用し、その時該決定は隣り合うピクセル対間のグラフカットに関連するエネルギーコストを最小にすることによって達成することと、第1の深度マップ内の深度マップ値を最適な深度マップ値に置き換えることとを含む。
【0019】
本発明のこれらおよび他の目的と利点は、添付の図面を参照しながら以下に記載する本発明の好適な実施例の詳細な説明から当業者は明確且つ容易に理解できる。図中、同様の要素には同じ参照番号を使用する。
【0020】
(好ましい実施例の詳細な記載)
後述では、限定ではなく説明を目的として、本発明の理解のために特定の実施例について詳細な説明を行う。しかしながら、当業者には明白であるように、本発明は以下の詳細な実施例とは別の実施例においても実行することができる。他の実施例において、既知の方法、装置、および回路の詳細な記載は本発明を明確にするために省略する。
【0021】
本発明は、仮想的にあらゆる物体または景色の基準画像の最適化された深度マップを導出するために利用することができるが、以下の議論では本発明の実施例の説明を単純にするためにそのようなすべての画像を「物体」の画像と称する。本発明のすべての実施例は既知のビューの、または投影の中心から捉えた物体の基準画像の推定された深度マップから開始される。推定された深度マップは深度マップを推定または導出するための複数の既知の方法のうち1つから導出される。第2に画像の仮説深度マップを導出するが、第2の深度マップも、複数の既知の深度マップの導出方法のうちの1つから導出される。好ましくは、第2の深度マップは、基準画像に数学的に適切に近似する複合型の多面深度マップである。そのような近似の深度マップは、本発明で所望の最小の不連続に収束する最適化された深度マップを導出するために必須ではないが、そのような近似を用いることにより本発明の処理は最小化される。本発明において、複合仮説マップとベイジアン確率フレームワークを組み合わせることは、深度マップ値の空間コヒーレンスを利用しながら基準画像内に自然に存在する深度不連続を保存するという利点を有する。
【0022】
本発明の好ましい実施例では、一度に2つの深度マップを高い事後確率を有する1つの合致する深度マップに混合するベイジアンフレームワークの再投影エネルギーおよび不連続エネルギーを最小化するために、基準画像ピクセル対に対してグラフカットを利用する。基準画像の少なくともサブ領域全体にわたり、推定された深度マップ全体(f(x)と表す)および付加的な仮説深度マップ(g(x)と表す)が特定された場合の処理は、最適な深度マップ値を推定された深度マップf(x)に反復的に混合する。混合された解は、仮説深度マップの集合全体の帰納的最大確率解であり、これは基準画像内のいずれのピクセルの位置xiについても、対応する基準画像のピクセルをより正確に表示する深度マップ値として深度マップ値f(xi)または深度マップ値g(xi)を予測する。
【0023】
図2には、例えば25ピクセルから構成され、頂点204、206、208、および210のピクセルによって特徴づけられる基準画像セグメントが示されている。ソースv+200は導出された仮説深度マップg(x)を表しており、シンクv−202は推定された深度マップf(x)を示している。ピクセル単位で、深度マップf(x)とg(x)との間で確率が高い方の深度マップ値を決定することは、グラフG=<V,E>上の最小グラフカットCを探すことによるエネルギー最小化処理を通して達成される。ここで頂点の集合
【数25】
は図2に示したピクセルの集合にソースv+200およびシンクv−202を足したものである。グラフカットCは、シンクv−202またはソースv+200のどちらにピクセルを割り当てるかを決定することによって基準画像の各ピクセルにf(xi)またはg(xi)いずれかの深度マップ値を分配することにより、シンクv−202からソースv+200を分離する役割を果たす。最小グラフカットCは、以下により詳細に議論されるように、カット、または破壊、端部重みの和が最小になるように、図2のピクセルによって表現されたグラフを通過する。
【0024】
ピクセルa204などの各ピクセルは、ソースv+200方向のエッジ(エッジ212)と、シンクv−202方向のエッジ(エッジ214)と、および少なくとも1つの隣り合うピクセルb216方向のエッジ222のような少なくとも1つのエッジの方向に接続される。これら各エッジは2つのピクセル間の不連続の目安を示すエネルギーまたは重みを有している。グラフのエッジ重みは、ピクセルxiがカットグラフ
【数26】
内のシンクv−202へ接続する場合、深度マップ値f(xi)がピクセルxiと関連し、そうでない場合は深度マップ値g(xi)がピクセルxiと関連するように定義される。図4を簡単に参照すると、隣接する、または隣り合うピクセル対a204およびb216を深度マップf(x)またはg(x)へ割り当てることに関連したエネルギーが示されている。例えば、ピクセルa204およびシンクv−202間の結合は、深度マップg(x)に関連したピクセルa204とソースv+200間のエッジまたはリンクの破壊に要求されるエネルギーを表すため、深度マップf(x)にピクセルa204を割り当てることに関連するエッジ重み、またはエネルギーコストが、ag402として示されている。【0025】
次に、図2および3を参照すると、近隣ピクセルa204およびb216の対に対するカットグラフには、図3a、3b、3cおよび3dにそれぞれ示したように(f、f)、(f、g)、(g、f)および(g,g)の仮説割り当てに対応する4つの可能な構成がある。図3aは、シンクv−202において推定された深度マップf(x)へピクセルa204およびb216の両方を割り当てることを示している。この割り当てを図3aに示し、図中ピクセルa204およびb216と、ソースv+200間のエッジまたは結合が破壊されている。図3bはシンクv−202および深度マップf(x)へピクセルa204を割り当てること、およびソースv+200へピクセルb216を割り当てることを示している。ゆえに、図3bで示された深度値の割り当ては、推定された深度マップf(x)から対応する深度マップ値が基準画像のピクセルa204に割り当てられており、および仮説深度マップg(x)から対応する深度マップ値が基準画像のピクセルb216に割り当てられていることを意味する。同様に、図3cは、ソースv+200へピクセルa204を割り当てることと、およびシンクv−202へピクセルb216を割り当てることを示しており、図3dはソースv+200へピクセルa204およびb216両方を割り当てることを示している。
【0026】
4つの可能な割り当てのうち各ピクセル対に最適な1つの割り当てを決定することは、各割り当てに関連したエネルギーコストを最小にすることに基づいている。前記割り当てにより、割り当てによって破壊されるエッジまたは結合の破壊に関連して、複数の個々のエネルギーコストが必然的に必要となる。本発明の目的は、割り当てに加えてこれら構成のすべてに対する定数に関連したエネルギーに等価なエッジ削除のコストの和を有することである。これは、4つの構成それぞれに対する不連続エネルギーEdが不等式Ed(f,f)+Ed(g,g)≦Ed(f,g)+Ed(g,f)を満たす場合に可能となる。ここでEd(f,g)は図3bによって示されており、f(x)へピクセル対の第1のピクセルを、およびg(x)へ第2のピクセルを割り当てることに関連した不連続エネルギーを意味し、特に、ピクセルa204とソースv+200間の結合の破壊、およびピクセルb216とシンクv−202間の結合の破壊のコストの和を表す。図3bおよび3cによって示された割り当てはまた、ピクセルa204とb216間のエッジの破壊のコストを付加的に有することに注目されたい。さらに、不連続エネルギーEdは測定基準とするための三角不等式を満足する。さらに、深度マップg(x)は連続であると仮定されており、これは近似Ed(g,g)≒0であることを意味し、必要な不等式を少なくとも近似的に満足する。ここで図4を参照する。ピクセルとソースv+200およびシンクv−202および互い(図4のc408)間のエッジの重みを計算するために、本発明によるシステムは、af400として示されたf(x)へのa204の割り当ての再投影エネルギーErとして、ピクセルa204からソースv+200へのエッジの重み(エッジ212)、またはエネルギーをまず計算する。同様に、bf406として示されたピクセルb216からソースv+200へのエッジも計算する。同様に、ピクセルaおよびbに対して、a204およびb216からシンクv−202への各エッジの重みは、それぞれag402およびbg404として定義された、g(x)へa204およびb216を割り当てる再投影エネルギーに設定される。
【0027】
ピクセル頂点a204およびb216のすべての隣り合う対に対する不連続エネルギーは以下のように計算される。上述のように、第1および第2のピクセルa204およびb216からv+200へのエッジの重みは、af400およびbf406によってそれぞれ示される。同様に、第1および第2のピクセルa204およびb216からv−202へのエッジの重みはag402およびbg404によってそれぞれ示される。最後に、第1および第2のピクセルa204およびb216間のエッジの重みはc408によって示される。
3つの不連続エネルギー値を下の式により計算する。
【数27】
【0028】
以下のように計算された不連続エネルギーに対する再投影エネルギーの調節は以下のように行う。すなわち、ピクセル対間のエッジへの計算されたエネルギー値内の因子として、m1をcへ加える。
【0029】
ピクセルa204に関連した再投影エネルギーに計算された不連続エネルギー値内の因子として、
m2>0ならば、m2をafへ加え、
そうでなければ −m2をagへ加える。
【0030】
ピクセルb216に関連した再投影エネルギーに計算された不連続エネルギー値内の因子として、
m3>0ならば、m3をbfへ加え、
そうでなければ −m3をbgへ加える。
【0031】
図3a、3b、3cおよび3dによってそれぞれ示されたように4つの可能な各割り当てに関連するエネルギーコストの和は、以下の式で決定される。
Ea=ag+bg
Eb=ag+bf+c
Ec=af+bg+c
Ed=af+bf
【0032】
Ea−Edのエネルギー値を最小にする構成は、グラフの最小カット、およびそれによって深度マップf(x)およびg(x)に対するピクセルa204およびb216の最適な割り当てを示す。この処理を基準画像内の隣り合う対のすべてについて反復し、2つの深度マップf(x)およびg(x)を最適化された深度マップf(x)に混合する。この処理はピクセル対すべてを完全に反復している間に深度マップ関連の変化が起こらなく(または最小限の変化に)なるまで繰り返すことができる。結果は1つの深度マップ内へ2つの深度マップf(x)およびg(x)の最適な混合に対応する総エネルギーの極小である。すべてのピクセル対が上述のグラフカット最小化処理を通して処理されると、新しい仮説深度マップg(x)は多数の既知の深度マップ導出法のうち1つから導出され、部分的に最適化された現在の深度マップf(x)に対して最適化処理が続行される。本発明の好適な実施例では、導出された仮説深度マップは、最適な深度マップに収束するようにスピードを増加させて基準画像に適正に近似する複合型の非平面深度マップである。処理された各仮説深度マップは、本発明の最適化処理における1回の反復と見なすことができる。最適化処理の進行中には、各ピクセルまたはピクセルの各グループに対する深度マップ値間の相対的な変化を計算し保存することができる。変動が変化の所定の最小値に達すると、最適化処理は有限数の段階を経て収束最適化された深度マップへの収束が達成されて終了する。次いで、結果として最適化された深度マップf(x)は、多数のコンピュータグラフィックスおよびコンピュータ映像アプリケーション内で基準画像の最適化された深度マップ表示として利用するために保存および/または出力される。
【0033】
上で簡単に説明したように、本発明の他の実施例では、2つの深度マップを、一度に1対のピクセル単位で混合する最適化処理は、基準画像のピクセルの全部にわたって多数回反復することができる。本発明のこの形態では、全ての基準画像ピクセルが一度処理されてしまうと新しい仮説深度マップは導出されない。そのかわりに、基準画像のピクセルの集合が、一度に一対のピクセル対単位で、反復の付加的レベルとして複数回にわたって処理され、混合された深度マップの改良の度合いが所定の最小値に到達すると、新たな仮説深度マップが導出される。処理が再開されると、該混合された深度マップが推定された深度マップになる。
【0034】
次に図5を参照すると、本発明による例示的深度マップ最適化システムの装置および通信リンクが示されている。図5の要素は本発明の方法で利用される装置およびデータまたは通信経路の例示を目的としており、限定的なものではない。プロセッサ500は、最適な深度マップへ2つの深度マップを反復して混合する操作ができる本発明のシステムと方法が動作できる1つ以上のコンピュータを示している。本発明の様々な機能的側面および、第1、第2、第3、第4および第5のプロセッサ、すなわち比較装置、置換装置のような、最適化された深度マップを計算するためのシステムに対応する装置部分は、単一のプロセッサ500内に存在することができ、または複数のプロセッサ500および記憶装置502の中に分散させることができる。
【0035】
最適化された深度マップがプロセッサ500によって計算され、データベース502上に記憶されると、プロセッサ500を操作する権限のあるあらゆる多数のユーザによって利用することができる。これらユーザはプロセッサ500のスクリーンまたはグラフィカルユーザインターフェース上に最適化された深度マップの2D表示を表示することができ、および/または該2D表示をプリンタ504で印刷することができる。
【0036】
本発明の好適な実施例を示し記載したが、当業者には本発明の原理と思想から逸脱することなくこれらの実施例を容易に変更することが可能であることは明白であり、本発明の範囲は請求項および同等物で定義される。
【図面の簡単な説明】
【図1】図1は、基準画像内の近隣ピクセル間の水平および垂直不連続エネルギー結合を示している。
【図2】図2は、隣接するピクセルを含む深度マップの一部を示している。
【図3】図3a、3b、3cおよび3dは、2つの隣接するピクセル間の特定の不連続を有する異なるグラフカットを示している。
【図4】図4は、近隣ピクセル対間の不連続エネルギーに関連したエッジ重みを示している。
【図5】図5は、例示的深度マップ最適化システムの装置および通信リンクを示している。
Claims (23)
- 一度に2つの深度マップを使用し、複数の深度マップを混合して基準画像の深度マップの推定を最適化するための方法であって、
2つの異なる深度マップへ、基準画像の隣接する2つのピクセルそれぞれを割り当てる再投影エネルギーを計算することと、
基準画像の隣接するピクセルそれぞれに関連した不連続エネルギー、および基準画像の隣接するピクセルの間のエッジに関連する不連続エネルギーを計算することと、
隣接するピクセルおよび計算された再投影および不連続エネルギーが特定された後、2つの異なる深度マップ間の最小グラフカットに基づいて2つの隣接するピクセルに対して深度マップを割り当てることとを含む方法。 - 深度マップ値を割り当てる段階は、
計算された不連続エネルギーで計算された再投影エネルギーを調節することと、
隣接するピクセルへの2つの異なる深度マップの割り当てに関連したエネルギーコストを決定することと、
隣接するピクセルへの2つの異なる深度マップの割り当てに関連する最小エネルギーコストに基づき、2つの隣接するピクセルに対して深度マップ値を割り当てることとを更に含む、請求項1に記載の方法。 - 2つの異なる深度マップは、第1の推定された深度マップと、第2の仮説深度マップからなり、深度マップ値を割り当てる段階は、続いて最適化を繰り返す際に第1の推定された深度マップとなる第3の最適化された深度マップを生成するために、第1の推定された深度マップの深度マップ値を置換することを含む、請求項1に記載の方法。
- 第2の仮説深度マップは複合型の非平面深度マップであることを特徴とする請求項3に記載の方法。
- 2つの隣接するピクセルは、隣り合うピクセル対を構成することを特徴とする請求項3に記載の方法。
- 再投影エネルギーを計算する段階、不連続エネルギーを計算する段階、および基準画像の各ピクセル対に深度マップ値を割り当てる段階を、基準画像のピクセル対の集合の各反復で割り当てられる深度マップ値間の差異が所定の最小値に達するまで繰り返すことをさらに含む、請求項5に記載の方法。
- 基準画像ピクセル対の集合の各反復で割り当てられる深度マップ値間の差異が所定の最小値に達すると、さらなる処理のための新しい第2の仮説深度マップを導出することを含む請求項6に記載の方法。
- 一度に2つの深度マップを使用し、複数の深度マップを混合することにより、基準画像の深度マップを推定するための方法であって、
基準画像の特定のビューの現在の深度マップを推定することと、
基準画像の導出された複数の仮説深度マップそれぞれに対して、
仮説深度マップ上のピクセルに対応する現在の深度マップ上の各ピクセルに対して、現在の深度マップ上のピクセルの深度マップ値と、仮説深度マップ上のピクセルの深度マップ値とを比較し、
比較された仮説深度マップ上のピクセルの深度マップが、比較された現在の深度マップのピクセルの深度マップ値より基準画像を正確に表現する可能性が高い場合は、現在の深度マップ上のピクセルの深度マップ値を、仮説深度マップ上のピクセルの深度マップ値に置き換えることとを含む方法。 - 複数の仮説深度マップそれぞれのビューは、少なくとも現在の深度マップのビューのサブ領域を含むことを特徴とする請求項8に記載の方法。
- 1つ以上の複数の仮説深度マップは、複合型の非平面深度マップであることを特徴とする請求項8に記載の方法。
- 深度マップ値の比較は、現在の深度マップの深度マップ値と導出された仮説深度マップの深度マップ値間の差異が所定の最小値に到達すると終了することを特徴とする請求項8に記載の方法。
- 深度マップ値の比較は、現在の深度マップの深度マップ値と導出された仮説深度マップの深度マップ値間の差異が所定の最小値に到達するまで、基準画像の全てのピクセルに渡って多数回実行されることを特徴とする請求項8に記載の方法。
- 基準画像の正確表現の確率が、ベイジアンフレームワークによって決定されることを特徴とする請求項8に記載の方法。
- 基準画像の正確表現の確率が、エネルギーコストとグラフカットにより決定されることを特徴とする請求項13に記載の方法。
- 物体の基準画像の深度マップの推定の最適化を行うための方法であって、
物体の基準画像の所望のビューの第1の深度マップを推定することと、
導出された基準画像の複数の仮説深度マップそれぞれに対し、
第1の深度マップと導出された仮説深度マップ内両方のすべてのピクセルに対して、2つの深度マップ間の最適な深度マップ値を決定するためにベイジアン確率フレームワークを適用し、
その時前記決定は隣り合うピクセル対間のグラフカットに関連するエネルギーコストを最小にすることによって達成されることと、
第1の深度マップ内の深度マップ値を、最適な深度マップ値に置き換えることとを含む方法。 - 一度に2つの深度マップを使用し、複数の深度マップを混合して基準画像の深度マップの推定を最適化するためのシステムであって、
2つの異なる深度マップへ基準画像の2つの隣接するピクセルそれぞれを割り当てる再投影エネルギーを計算する第1のプロセッサと、
基準画像の隣接する各ピクセルそれぞれに関連した不連続エネルギーと、基準画像の隣接するピクセル間のエッジに関連する不連続エネルギーとを計算する第2のプロセッサと、
隣接するピクセルおよび計算された再投影および不連続エネルギーが特定された後、2つの異なる深度マップ間の最小グラフカットに基づいて2つの隣接するピクセルに対して深度マップ値を割り当てる第3のプロセッサを有するシステム。 - 第3のプロセッサは、
計算された不連続エネルギーで、計算された再投影エネルギーを調節する第4のプロセッサと、
隣接するピクセルへの2つの異なる深度マップの割り当てに関連するエネルギーコストを決定する第5のプロセッサと、
隣接するピクセルへの2つの異なる深度マップの割り当てに関連する最小エネルギーコストに基づいて、2つの隣接するピクセルに対して深度マップ値を割り当てる置換装置をさらに含む請求項16に記載のシステム。 - 一度に2つの深度マップを使用し、複数の深度マップを混合して基準画像の深度マップを推定するためのシステムであって、
基準画像の特定のビューの現在の深度マップを推定する第1のプロセッサと、 仮説深度マップ上のピクセルに対応する現在の深度マップ上の各ピクセルに対し、
現在の深度マップ上のピクセルの深度マップ値と仮説深度マップ上のピクセルの深度マップ値とを比較する比較装置と、
比較された仮説深度マップ上のピクセルの深度マップ値が、比較された現在の深度マップ上のピクセルの深度マップ値よりも、基準画像を正確に表現する確率が高い場合、現在の深度マップ上のピクセルの深度マップ値を、対応する仮説深度マップ上のピクセルの深度マップ値に置き換える置換装置とを有する第3のプロセッサを、基準画像の導出された複数の仮説深度マップそれぞれに対して有する第2のプロセッサとを有しているシステム。 - 比較装置は、現在の深度マップの深度マップ値と導出された仮説深度マップの深度マップ値間の差異が所定の最小値に到達すると終了する請求項18に記載のシステム。
- 比較装置は、現在の深度マップの深度マップ値と導出された仮説深度マップの深度マップ値間の差異が所定の最小値に到達するまで、基準画像の全てのピクセルにわたって深度マップ値を多数回比較する請求項18に記載のシステム。
- 基準画像の正確表現の確率が、ベイジアンフレームワークによって決定されることを特徴とする請求項18に記載のシステム。
- 基準画像の正確表現の確率が、エネルギーコストとグラフカットにより決定されることを特徴とする請求項21に記載のシステム。
- 物体の基準画像の深度マップの推定を最適化するシステムであって、
物体の基準画像の所望のビューの第1の深度マップを推定する第1のプロセッサと、
第1の深度マップと導出された仮説深度マップ両方のすべてのピクセルに対して2つの深度マップ間の最適化された深度マップ値を決定するためにベイジアン確率フレームワークを適用し、その際、前記決定を隣り合うピクセル対間のグラフカットに関連するエネルギーコストを最小にすることによって達成する第3のプロセッサと、
第1の深度マップ内の深度マップ値を最適化された深度マップ値に置き換える置換装置とを、基準画像の導出された複数の仮説深度マップそれぞれに対して有する第2のプロセッサとを有するシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US21479200P | 2000-06-28 | 2000-06-28 | |
US60/214,792 | 2000-06-28 | ||
US09/891,344 | 2001-06-27 | ||
US09/891,344 US20030206652A1 (en) | 2000-06-28 | 2001-06-27 | Depth map creation through hypothesis blending in a bayesian framework |
PCT/SE2001/001502 WO2002001503A2 (en) | 2000-06-28 | 2001-06-28 | Depth map creation through hypothesis blending in a bayesian framework |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004502997A true JP2004502997A (ja) | 2004-01-29 |
JP4889182B2 JP4889182B2 (ja) | 2012-03-07 |
Family
ID=26909363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002506563A Expired - Fee Related JP4889182B2 (ja) | 2000-06-28 | 2001-06-28 | ベイジアンフレームワークにおける仮説混合による深度マップの生成 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20030206652A1 (ja) |
EP (1) | EP1360647A2 (ja) |
JP (1) | JP4889182B2 (ja) |
AU (1) | AU2001267979A1 (ja) |
WO (1) | WO2002001503A2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008146647A (ja) * | 2006-12-05 | 2008-06-26 | Fujifilm Corp | 画像処理方法および装置 |
JP2010531490A (ja) * | 2007-06-20 | 2010-09-24 | トムソン ライセンシング | 画像のステレオ・マッチングのためのシステム及び方法 |
JP2015531098A (ja) * | 2012-06-21 | 2015-10-29 | マイクロソフト コーポレーション | デプスカメラを使用するアバター構築 |
US9646340B2 (en) | 2010-04-01 | 2017-05-09 | Microsoft Technology Licensing, Llc | Avatar-based virtual dressing room |
CN109146941A (zh) * | 2018-06-04 | 2019-01-04 | 成都通甲优博科技有限责任公司 | 一种基于网格区域划分的深度图像优化方法及系统 |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7212201B1 (en) | 1999-09-23 | 2007-05-01 | New York University | Method and apparatus for segmenting an image in order to locate a part thereof |
US6973212B2 (en) * | 2000-09-01 | 2005-12-06 | Siemens Corporate Research, Inc. | Graph cuts for binary segmentation of n-dimensional images from object and background seeds |
US7489812B2 (en) | 2002-06-07 | 2009-02-10 | Dynamic Digital Depth Research Pty Ltd. | Conversion and encoding techniques |
AUPS283602A0 (en) * | 2002-06-07 | 2002-06-27 | Dynamic Digital Depth Research Pty Ltd | Improved conversion and encoding techniques |
US7277599B2 (en) * | 2002-09-23 | 2007-10-02 | Regents Of The University Of Minnesota | System and method for three-dimensional video imaging using a single camera |
US7672516B2 (en) * | 2005-03-21 | 2010-03-02 | Siemens Medical Solutions Usa, Inc. | Statistical priors for combinatorial optimization: efficient solutions via graph cuts |
US20080030497A1 (en) * | 2005-12-08 | 2008-02-07 | Yangqiu Hu | Three dimensional modeling of objects |
US8103068B2 (en) * | 2006-09-29 | 2012-01-24 | Cornell Research Foundation, Inc. | Methods and systems for reconstruction of objects |
KR101570377B1 (ko) * | 2009-03-31 | 2015-11-20 | 엘지전자 주식회사 | 단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법 |
US8917956B1 (en) * | 2009-08-12 | 2014-12-23 | Hewlett-Packard Development Company, L.P. | Enhancing spatial resolution of an image |
TWI420413B (zh) * | 2010-07-15 | 2013-12-21 | Chunghwa Picture Tubes Ltd | 深度圖強化方法及其電腦可讀媒體 |
US9406132B2 (en) | 2010-07-16 | 2016-08-02 | Qualcomm Incorporated | Vision-based quality metric for three dimensional video |
US8428342B2 (en) | 2010-08-12 | 2013-04-23 | At&T Intellectual Property I, L.P. | Apparatus and method for providing three dimensional media content |
US8971641B2 (en) * | 2010-12-16 | 2015-03-03 | Microsoft Technology Licensing, Llc | Spatial image index and associated updating functionality |
FR2976107B1 (fr) * | 2011-05-30 | 2014-01-03 | Commissariat Energie Atomique | Procede de localisation d'une camera et de reconstruction 3d dans un environnement partiellement connu |
US8432435B2 (en) * | 2011-08-10 | 2013-04-30 | Seiko Epson Corporation | Ray image modeling for fast catadioptric light field rendering |
KR101680186B1 (ko) * | 2011-08-30 | 2016-11-28 | 삼성전자주식회사 | 영상 촬영 장치 및 그 제어 방법 |
JP6192853B2 (ja) * | 2014-12-19 | 2017-09-06 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 超音波深度検出を使用するオプティカルフロー画像化システム及び方法 |
CN113077505B (zh) * | 2021-04-19 | 2023-11-17 | 大连理工大学人工智能大连研究院 | 一种基于对比学习的单目深度估计网络的优化方法 |
CN115170745B (zh) * | 2022-09-07 | 2022-12-06 | 武汉图科智能科技有限公司 | 一种基于立体视觉的无人机测距方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1074272A (ja) * | 1996-08-30 | 1998-03-17 | Minolta Co Ltd | 3次元形状データ処理装置 |
JPH11512856A (ja) * | 1995-10-04 | 1999-11-02 | ビジュアル・インターフェース・インコーポレーテッド | 2次元イメージから3次元イメージを生成する方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2954320B2 (ja) * | 1990-10-31 | 1999-09-27 | キヤノン株式会社 | 画像処理方法及び装置 |
US5179441A (en) * | 1991-12-18 | 1993-01-12 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Near real-time stereo vision system |
US6046763A (en) * | 1997-04-11 | 2000-04-04 | Nec Research Institute, Inc. | Maximum flow method for stereo correspondence |
JP2001501348A (ja) * | 1997-07-29 | 2001-01-30 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 3次元シーンの再構成方法と、対応する再構成装置および復号化システム |
-
2001
- 2001-06-27 US US09/891,344 patent/US20030206652A1/en not_active Abandoned
- 2001-06-28 AU AU2001267979A patent/AU2001267979A1/en not_active Abandoned
- 2001-06-28 EP EP01945870A patent/EP1360647A2/en not_active Withdrawn
- 2001-06-28 WO PCT/SE2001/001502 patent/WO2002001503A2/en active Application Filing
- 2001-06-28 JP JP2002506563A patent/JP4889182B2/ja not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11512856A (ja) * | 1995-10-04 | 1999-11-02 | ビジュアル・インターフェース・インコーポレーテッド | 2次元イメージから3次元イメージを生成する方法 |
JPH1074272A (ja) * | 1996-08-30 | 1998-03-17 | Minolta Co Ltd | 3次元形状データ処理装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008146647A (ja) * | 2006-12-05 | 2008-06-26 | Fujifilm Corp | 画像処理方法および装置 |
JP2010531490A (ja) * | 2007-06-20 | 2010-09-24 | トムソン ライセンシング | 画像のステレオ・マッチングのためのシステム及び方法 |
US9646340B2 (en) | 2010-04-01 | 2017-05-09 | Microsoft Technology Licensing, Llc | Avatar-based virtual dressing room |
JP2015531098A (ja) * | 2012-06-21 | 2015-10-29 | マイクロソフト コーポレーション | デプスカメラを使用するアバター構築 |
CN109146941A (zh) * | 2018-06-04 | 2019-01-04 | 成都通甲优博科技有限责任公司 | 一种基于网格区域划分的深度图像优化方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
AU2001267979A1 (en) | 2002-01-08 |
US20030206652A1 (en) | 2003-11-06 |
WO2002001503A3 (en) | 2003-08-21 |
JP4889182B2 (ja) | 2012-03-07 |
EP1360647A2 (en) | 2003-11-12 |
WO2002001503A2 (en) | 2002-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4889182B2 (ja) | ベイジアンフレームワークにおける仮説混合による深度マップの生成 | |
JP4679033B2 (ja) | 深度マップのメジアン値融合のためのシステムおよび方法 | |
JP5011168B2 (ja) | 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
US8655052B2 (en) | Methodology for 3D scene reconstruction from 2D image sequences | |
US9251623B2 (en) | Glancing angle exclusion | |
EP3367334B1 (en) | Depth estimation method and depth estimation apparatus of multi-view images | |
KR101560508B1 (ko) | 3차원 이미지 모델 조정을 위한 방법 및 장치 | |
JP4216824B2 (ja) | 3次元モデル生成装置、3次元モデル生成方法および3次元モデル生成プログラム | |
CN108335353A (zh) | 动态场景的三维重建方法、装置和系统、服务器、介质 | |
CN106846467B (zh) | 基于每个相机位置优化的实体场景建模方法和系统 | |
US7528831B2 (en) | Generation of texture maps for use in 3D computer graphics | |
JP2002183761A (ja) | 画像生成の方法および装置 | |
CN113269862A (zh) | 场景自适应的精细三维人脸重建方法、系统、电子设备 | |
US7505623B2 (en) | Image processing | |
JP2009116532A (ja) | 仮想視点画像生成方法および仮想視点画像生成装置 | |
EP3935602B1 (en) | Processing of depth maps for images | |
JP2001067463A (ja) | 異なる視点からの複数のフェイシャル画像に基づき新たな視点からのフェイシャル画像を生成するフェイシャル画像生成装置及び方法並びにその応用装置及び記録媒体 | |
CN111369660A (zh) | 一种三维模型的无接缝纹理映射方法 | |
Kwak et al. | View synthesis with sparse light field for 6DoF immersive video | |
JP5373931B2 (ja) | 仮想視点画像生成方法,仮想視点画像生成装置および仮想視点画像生成プログラム | |
EP2660781A1 (en) | Three-dimensional model generation | |
CN113421292A (zh) | 一种三维建模细节增强方法及装置 | |
CN111178501A (zh) | 双循环对抗网络架构的优化方法、系统、电子设备及装置 | |
JP4168103B2 (ja) | テクスチャ画像の生成・マッピングシステム | |
EP1398734A2 (en) | Texture mapping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080604 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110104 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110401 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110408 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110621 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110916 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111115 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4889182 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141222 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |