JP2004502997A - ベイジアンフレームワークにおける仮説混合による深度マップの生成 - Google Patents

ベイジアンフレームワークにおける仮説混合による深度マップの生成 Download PDF

Info

Publication number
JP2004502997A
JP2004502997A JP2002506563A JP2002506563A JP2004502997A JP 2004502997 A JP2004502997 A JP 2004502997A JP 2002506563 A JP2002506563 A JP 2002506563A JP 2002506563 A JP2002506563 A JP 2002506563A JP 2004502997 A JP2004502997 A JP 2004502997A
Authority
JP
Japan
Prior art keywords
depth map
reference image
depth
pixel
hypothetical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002506563A
Other languages
English (en)
Other versions
JP4889182B2 (ja
Inventor
ニステル, ダヴィッド
Original Assignee
テレフォンアクチーボラゲット エル エム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフォンアクチーボラゲット エル エム エリクソン(パブル) filed Critical テレフォンアクチーボラゲット エル エム エリクソン(パブル)
Publication of JP2004502997A publication Critical patent/JP2004502997A/ja
Application granted granted Critical
Publication of JP4889182B2 publication Critical patent/JP4889182B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本発明は確率のベイジアンフレームワークにおける複数の仮説深度マップの反復混合による、最適化された深度マップの生成のためのシステムおよび方法を目的としている。当該システムはまず基準画像の深度マップを推定し、該推定された深度マップが現在の深度マップとなる。該システムは、いくつかの既知の深度マップ生成方法およびアルゴリズムから導かれる、基準画像の複数の仮説深度マップを利用できる。現在の深度マップおよび各仮説深度マップは、基準画像ピクセルへの深度マップ値の最適な割り当てを計算するために、ベイジアン確率フレームワーク内のグラフカット処理により、再投影および不連続エネルギーを最小化することに基づいて、一度にピクセルまたはピクセル対を反復して比較される。この処理において、2つの深度マップは基準画像をより良く表示する深度マップに混合され、混合された深度マップは新たに現在の深度マップとなる。最適化または混合の処理は、各ピクセルまたは各ピクセルグループに対する深度マップ値の差異が所望の最小値に達すると終了する。

Description

【0001】
(関連出願の相互参照)
本特許出願は、本明細書に包含する2000年6月28日出願の合衆国予備出願No.60/214792を基礎とし、およびその優先権を主張する。
(本発明の技術分野)
本発明は、概して較正された画像の整合により深度マップを推定するためのシステムに関し、特に既知の基準画像データおよび基準画像データを使用した深度マップの確率にベイジアンフレームワークを応用することにより深度マップ推定の精度を向上させるためのシステムに関する。
【0002】
(背景情報)
コンピュータ支援画像は、コンピュータの処理およびデータ操作能力の補助により2つ以上のデジタル化された2次元画像から、端末スクリーンまたはグラフィカルユーザインターフェース上に、物体または景色の新たな2次元または3次元画像を表現する処理である。2次元(以後「2D」)画像からの3次元(以後「3D」)モデルの構成は、もともとは有限の数の2D画像によって表現された物体または景色のグラフィカル3Dモデルを処理の目標とする、例えばコンピュータ支援デザイン(以後「CAD」)、3D通信販売およびバーチャルリアリティーシステムで使用される。コンピュータグラフィックスまたはコンピュータビジョンを使用することで、3Dモデルが構成されるもととなる2D画像は、物体又は景色の周りの異なる視点または位置から知覚された物体または景色を表現している。該画像は、物体または景色の周辺に配設した複数のカメラか、物体の写真または画像のビデオストリームを記録する、物体の周りを移動する単一のカメラから得られる。2D画像内の情報は、コンピュータベースのグラフィカル3Dモデルを合成するために結合および対比される。近年のコンピュータ処理能力およびデータ操作能力の進歩はコンピュータによる3Dモデリングを改善したが、これら3D構築システムは依然として、大きなコンピュータ処理能力、巨大なデータ記憶要求、および長い処理時間の需要により特徴づけられる。さらに、グラフィカル3Dモデルのような空間の体積表現は、3Dモデルと第2の3Dモデルとの結合または、新たな視点または投影中心からの空間知覚のような動的な変形に対応して容易に修正することができない。
【0003】
通常、複数の視点またはカメラ位置からの3D画像を構成するには、まず、カメラで撮った画像が、画像によって表現された物体または景色を適切な3Dに再構成するために正確に結合されるように、カメラの較正が必要である。カメラまたはカメラ位置の較正は、画像を収集する各位置または視点でのカメラパラメータを獲得または計算する工程であり、そのようなパラメータにはカメラの焦点距離、画角、ポーズおよび方向などの情報が含まれる。較正情報が容易に利用できない場合、多数の較正アルゴリズムが較正情報を計算するために利用できる。あるいは、較正情報が欠けている場合、いくつかの画像再構成方法により、カメラまたは視点がある位置から他の位置へ移動するような場合のカメラ位置の較正を推定することができる。しかしながら、較正の推定では3Dグラフィカルモデル描写過程で付加的な変数を導入し、これが出力グラフィックを不正確にする原因となる。さらに、カメラの視野の較正には、カメラの動きおよび/または方向を事前に把握しておくことが必ず必要となるので、新たな位置へ較正された視点を外挿することにより3Dモデルの構成に利用できるビューまたは画像が限定される。
【0004】
多重視点から物体のグラフィカル3Dモデルを再構成する現在の方法は、ステレオマッピングとして知られる、一度に物体の一対の画像を用いる処理であり、該処理では、物体の合成画像を生成するために2つの画像間の対応が計算される。しかしながら、物体の2つの視点のみから再生された形状情報は完全でもなく正確でもない。そのためにしばしば3Dモデルの形状を精緻化するためにさらなる視点からの画像を組み入れる必要がある。さらに、一部のグラフィカルシステム内では、画像または較正データにおいて既知の、または認知された誤りを調整するために、1つ以上の画像の重み付け、ワープ、および/または混合により、ステレオマップされた3Dモデルの形状を操作することが多い。しかしながら、そのような操作はマニュアル処理であり、合成グラフィカル画像の自動計算に限界があるだけでなく、重み付け、ワープ、および/または混合の適当なレベルを推定するときに誤差が導入される危険性がある。
【0005】
物体または景色の新たな2D図および3Dモデルを描写するため、近年、深度マップ形式のグラフィカルな画像がステレオマッッピングに応用されている。深度マップは空間の表面を数学的に表現する値の2次元配列である。該配列の列および行は表面のx座標およびy座標上の位置情報に対応し、配列要素は特定の点またはカメラ位置から表面への深度または距離の読みである。深度マップは、物体表面の各点における強度および色情報、またはピクセルを深度情報に置き換えて、物体のグレースケール画像として表現され得る。それに応じて、表面の点は3Dグラフィック構成技術においてはピクセルと呼ばれ、本明細書の中では交換可能に使用される。
【0006】
物体のグラフィカルな表現は、一度に較正された1対の図を用いて、ステレオマッピングされた深度マップにより推定することができる。ステレオ深度マッピングでは、通常、2つのマップ内のピクセルに対して共通深度値を見つけるためにセクション間の整合を見つけるため、一度に2つの深度マップのセクションを比較する。しかしながら、推定された深度マップはいつも誤差を含んでいるので、マップが互いに一致し、必要な箇所で整合がとれるという保証はない。1つの悪いデータまたは誤差のあるデータの影響を最小にするために多数のデータが有効であるが、不特定多数の深度マップは誤った較正、不正確な重み付け、または特定のビューの値に関する推測による誤差を含み、深度マップ内のあらゆる誤差が最終的な合成画像へ投影されるため、同じ原理を深度マップへ応用することはできない。さらに、深度マップによる従来式のステレオマッピング法は、1つの深度マップを推定する時点で精緻化処理を終了する。
【0007】
基準画像または、物体または景色の所望の画像の深度マップの良好な推定を決定するための他の方法は、特定の推定された深度マップから良好な深度マップを生成するために確率を応用することである。特に、既存の推定された深度マップと基準画像に関連した既知の要素をベイジアンフレームワークに適用し、元の推定された深度マップより正確となるように推定された深度マップを精緻化するために、最も確率の高い、または帰納的最大確率(以後「MAP」とする)の解を導く。
【0008】
以下に示すベイジアンフレームワークは、ベイジアン仮説確率を利用して精緻化した推定された深度マップを計算するために利用されるパラメータを表している。既知の入力値を使用することにより、その結果は元の深度マップより正確である。ここで、既知の値は画像の推定された深度マップ、基準画像情報、および画像ビューの較正情報を含む。基準画像Dおよび事前情報I(較正情報、カメラポーズ、画像のワールド状態についての仮定、その他)を特定した場合の、深度マップZが正確である確率は、以下の式で表すことができる。
【数1】
Figure 2004502997
ここで、dは基準画像、およびDは画像を表している。帰納的最大確率の解は以下の式で定義される。
【数2】
Figure 2004502997
【0009】

【数3】
Figure 2004502997
は基準画像を特定した場合の深度マップZの確率である。項
【数4】
Figure 2004502997
は第1画像およびそれに対応する深度マップを特定した場合の残りの画像の確率である。該確率計算式は、該式をエネルギー方程式と見なし、エネルギーコストを最小にするように該エネルギー方程式を解くことにより解くことができる。上式はエネルギー領域内に
【数5】
Figure 2004502997
とおくことができる。
【0010】
逆(負の)確率の対数それぞれはエネルギー項
【数6】
Figure 2004502997
および
【数7】
Figure 2004502997
に対応している。ここで、
【数8】
Figure 2004502997
は再投影誤差の目安を表し、
【数9】
Figure 2004502997
は仮説深度マップの不連続誤差の目安を表している。該再投影誤差は各個々のピクセルからの誤差の寄与の和を表している。式を対数へ変換することの利点は、有効なコンピュータ処理内の乗算において、それぞれの確率および対応する精度の問題に関連する微小な数を回避することができることである。
【0011】
再投影誤差に関連する確率は、仮説深度マップ内の各ピクセルの再投影要素の分布を調べることによって評価される。特に、各ピクセルの再投影要素の周波数関数は汚染された3次元ガウシアン分布
【数10】
Figure 2004502997
として表現される。この式は、仮説深度マップが基準画像の純粋な再生成である場合、理想的な分布の近傍の3つのピクセル投影値の分布を表す。Y,U,Vはピクセルの輝度およびクロミナンス色要素であり、Y,U,およびVは、基準画像を特定した場合の、ピクセルのそれぞれの理想要素値を表す。Pは、再投影されたピクセルが隠蔽、鏡面反射、較正誤差、その他のため重大に異なる確率である。256は有用なスペクトラム内の色数を表し、分布式は色の3つの要素、すなわちY,U,およびVを評価しているため、3で累乗される。eは自然対数の底2.72である。σは、ピクセルに一様分布を割り当てた場合の、再投影要素のノルム周辺の標準偏差の目安を表す。ガウシアン分布の確率をエネルギー問題として見ると、エネルギー項
【数11】
Figure 2004502997
は基準画像内の全ピクセルのピクセル投影エネルギーの和
【数12】
Figure 2004502997
と見なすことができる。
【0012】
推定された深度マップと仮説深度マップ間の不連続エネルギー
【数13】
Figure 2004502997
は、図1で示したように、画像内の連結する4つのピクセル隣接点100−106の全ての対からの誤差の寄与からなる。輝度Yなどの基準画像のピクセル100の要素内の対応する不連続性が特定された場合、各ピクセルの深度領域内の不連続の確率はより大きい。これは隣接または近隣するピクセルは類似の特徴および特性を持つ傾向があるという原理に由来する。ピクセル100とピクセル102間の輝度の不連続をh110で表す。これはピクセル100と102間の水平方向の結合と見なすこともできる。この結合間を絶縁するのに必要なエネルギーが小さいほど、ピクセル100と102間の不連続性は小さい。同様に、v114はピクセル100と隣のピクセル104間の垂直方向の結合を示している。例えば、グラジエント▽Y=[Y](およびはピクセル100の座標を表す。)が大きい場合、ピクセル100と104間の任意の不連続性は、不連続エネルギーのより小さな寄与によってモデル化できる。これを達成するために、隣接するピクセル102および104との間の水平結合110および垂直結合114に対応する2つのエネルギー係数cおよびcを使用する。ピクセル要素Yのグラジエントとして表されるこれらの結合のエネルギーは
【数14】
Figure 2004502997
として表される。ここでαは実験により決定された重みであり、zとzは結合に関係する隣接ピクセルの深度値であり、距離値Vはメトリックである(不等三角形を満足する)。該エネルギー係数は以下の式で決定される。
【数15】
Figure 2004502997
ここで、
【数16】
Figure 2004502997
が導かれた適切な関数である。これらの関係の基本は、長さlの直線として形状される不連続性は、輝度グラジエント▽Yが該直線に垂直である場合、水平結合(近似値)
【数17】
Figure 2004502997
および垂直結合(近似値)
【数18】
Figure 2004502997
と交差する。従って、その様な不連続の負担は
【数19】
Figure 2004502997
に比例し、よって不連続の方位に無関係である。画像の量をベクトルで表すことによって、輝度およびクロミナンス要素は下記の式20のようになる。
【数20】
Figure 2004502997
エネルギー係数は下記の式21に一般化される。
【数21】
Figure 2004502997
ここで、J=[W]は3×2のヤコビヤン行列導関数であり、座標およびを有するピクセル周囲の色強度の変化の度合いの目安となる。該行列のノルムは、
【数22】
Figure 2004502997
である。導出された関数f(x)は、‖J‖により不連続のエネルギーがどのように変化するかを決定する。ここでf(x)を
【数23】
Figure 2004502997
とおく。定数aminは不連続の最小コストである。さらにメトリックVは、
【数24】
Figure 2004502997
とおくことができる。ここで、Tは不連続と判断する閾値であり、uおよびuは深度マップ値から計算された第1のビュー以外のビューの相違である。uおよびuは、異なる深度値に対応する特定の第1のビューの背景に投影された光線に沿うピクセルである。これらのピクセルは第1のビュー内の共通点と見なされるが、他の観点から見ると間の距離を有した離れた点であり、間にいくらかの不連続性を有する離れたピクセルである。
【0013】
上述のエネルギー関数を解くことによりピクセル単位で最良の深度マップ値を探索する、最近考案された方法では、グラフカットを使用する。このとき、基準画像に対する投影の中心からの光線に沿う各反復では、ここまでに達成された深度マップの解が平面内の固定深度値に対して検査され、最終的な解は画像のあらゆるピクセルで深度マップ値を固定できる。次いで基準画像の全ての深度値を最適値が見つかるまで検討する。しかしながら、予定する深度マップの数が多いとき、および使用される仮説深度マップが所望の深度マップに殆ど類似していないとき、その様な方法で全ての深度マップの値を検査するには法外な時間がかかり、所定の精度の深度マップに集束させることが必ずしもできない。
【0014】
本発明の好適な実施例は、推定された深度マップおよび1つ以上の仮説深度マップから物体または景色の基準画像の最適化された深度マップを導くための既存のシステムに関連した問題を克服する。
【0015】
(発明の要旨)
本発明は、確率のベイジアンフレームワーク内で複数の仮説深度マップを反復混合することにより、最適化された深度マップを生成するためのシステムおよび方法を目的としている。当該システムはまず基準画像の深度マップを推定し、該推定された深度マップが現在の深度マップとなる。該システムは、いくつかの既知の深度マップ生成方法およびアルゴリズムから導かれる、基準画像の複数の仮説深度マップを利用できる。各仮説深度マップは、システムで利用できる基準、方向性、および較正情報が与えられて、基準画像の妥当な近似である複雑な深度マップを表す。現在の深度マップおよび各仮説深度マップを、一度に1つまたは2つのピクセルについて反復して比較し、ベイジアンフレームワークを元にして、当該ピクセルにおいて仮説深度マップが現在の深度マップより基準画像の表現に近い確率を計算する。画像をより正確に表現する確率が高いと判明した該深度マップ値は、現在の深度マップに使用するために選択される。この処理では2つの深度マップは画像をより正確に表現する1つの深度マップに混合され、該混合された深度マップが新しい現在の深度マップとなる。確率は、結果的に得られる深度マップ内の不連続エネルギーおよび再投影エネルギーを最小にする目的に基づいて決定される。これらのエネルギーは、各ピクセルにおける2つの可能な深度マップ値候補間の可能な深度マップグラフカット構成を比較するという処理を通して最小化される。最適化または混合処理は、各ピクセルまたは各ピクセルグループにおける深度マップ値間の差が所望の最小値に達したとき終了する。
【0016】
本発明の1つの実施形態において、本発明のシステムと方法は、一度に2つの深度マップを使って複数の深度マップを混合することにより、基準画像の深度マップ推定の最適化を行うもので、基準画像の隣接する2つのピクセルをそれぞれ2つの異なる深度マップに割り当てる再投影エネルギーを計算することと、基準画像の隣接する各ピクセルそれぞれに関連する不連続エネルギー、および基準画像の隣接するピクセル間のエッジに関連した不連続エネルギーを計算することと、隣接するピクセルおよび計算された再投影エネルギーおよび不連続エネルギーが特定された後、2つの異なる深度マップ間の最小グラフカットに基づき、2つの隣接したピクセルに対して深度マップ値を割り当てることとを含む。
【0017】
本発明の他の実施形態では、本発明のシステムと方法は、一度に2つの深度マップを使用して複数の深度マップを混合することにより、基準画像の深度マップの推定を行うもので、基準画像の特定のビューの現在の深度マップを推定することと、導出された基準画像の複数の仮説深度マップそれぞれに対して、仮説深度マップ上のピクセルに対応する現在の深度マップ上の各ピクセルに対し、仮説深度マップ上のピクセルの深度マップ値と現在の深度マップ上のピクセルの深度マップ値とを比較し、 比較された仮説深度マップ上のピクセルの深度マップ値が、現在の深度マップ上のピクセルの深度マップ値より基準画像を正確に表現する確率が高い場合、現在の深度マップ上のピクセルの深度マップ値を対応する仮説深度マップ上のピクセルの深度マップ値に置き換えることを含む。
【0018】
本発明の他のさらなる実施形態では、本発明のシステムと方法は、物体の基準画像の深度マップ推定の最適化を行うもので、物体の基準画像の所望のビューの第1の深度マップを推定することと、導出された基準画像の複数の仮説深度マップそれぞれに対して、第1の深度マップと導出された仮説深度マップ両方のすべてのピクセルに対し、2つの深度マップ間の最適なピクセルを決定するためにベイジアン確率フレームワークを適用し、その時該決定は隣り合うピクセル対間のグラフカットに関連するエネルギーコストを最小にすることによって達成することと、第1の深度マップ内の深度マップ値を最適な深度マップ値に置き換えることとを含む。
【0019】
本発明のこれらおよび他の目的と利点は、添付の図面を参照しながら以下に記載する本発明の好適な実施例の詳細な説明から当業者は明確且つ容易に理解できる。図中、同様の要素には同じ参照番号を使用する。
【0020】
(好ましい実施例の詳細な記載)
後述では、限定ではなく説明を目的として、本発明の理解のために特定の実施例について詳細な説明を行う。しかしながら、当業者には明白であるように、本発明は以下の詳細な実施例とは別の実施例においても実行することができる。他の実施例において、既知の方法、装置、および回路の詳細な記載は本発明を明確にするために省略する。
【0021】
本発明は、仮想的にあらゆる物体または景色の基準画像の最適化された深度マップを導出するために利用することができるが、以下の議論では本発明の実施例の説明を単純にするためにそのようなすべての画像を「物体」の画像と称する。本発明のすべての実施例は既知のビューの、または投影の中心から捉えた物体の基準画像の推定された深度マップから開始される。推定された深度マップは深度マップを推定または導出するための複数の既知の方法のうち1つから導出される。第2に画像の仮説深度マップを導出するが、第2の深度マップも、複数の既知の深度マップの導出方法のうちの1つから導出される。好ましくは、第2の深度マップは、基準画像に数学的に適切に近似する複合型の多面深度マップである。そのような近似の深度マップは、本発明で所望の最小の不連続に収束する最適化された深度マップを導出するために必須ではないが、そのような近似を用いることにより本発明の処理は最小化される。本発明において、複合仮説マップとベイジアン確率フレームワークを組み合わせることは、深度マップ値の空間コヒーレンスを利用しながら基準画像内に自然に存在する深度不連続を保存するという利点を有する。
【0022】
本発明の好ましい実施例では、一度に2つの深度マップを高い事後確率を有する1つの合致する深度マップに混合するベイジアンフレームワークの再投影エネルギーおよび不連続エネルギーを最小化するために、基準画像ピクセル対に対してグラフカットを利用する。基準画像の少なくともサブ領域全体にわたり、推定された深度マップ全体(f(x)と表す)および付加的な仮説深度マップ(g(x)と表す)が特定された場合の処理は、最適な深度マップ値を推定された深度マップf(x)に反復的に混合する。混合された解は、仮説深度マップの集合全体の帰納的最大確率解であり、これは基準画像内のいずれのピクセルの位置xについても、対応する基準画像のピクセルをより正確に表示する深度マップ値として深度マップ値f(x)または深度マップ値g(x)を予測する。
【0023】
図2には、例えば25ピクセルから構成され、頂点204、206、208、および210のピクセルによって特徴づけられる基準画像セグメントが示されている。ソースv200は導出された仮説深度マップg(x)を表しており、シンクv202は推定された深度マップf(x)を示している。ピクセル単位で、深度マップf(x)とg(x)との間で確率が高い方の深度マップ値を決定することは、グラフG=<V,E>上の最小グラフカットCを探すことによるエネルギー最小化処理を通して達成される。ここで頂点の集合
【数25】
Figure 2004502997
は図2に示したピクセルの集合にソースv200およびシンクv202を足したものである。グラフカットCは、シンクv202またはソースv200のどちらにピクセルを割り当てるかを決定することによって基準画像の各ピクセルにf(x)またはg(x)いずれかの深度マップ値を分配することにより、シンクv202からソースv200を分離する役割を果たす。最小グラフカットCは、以下により詳細に議論されるように、カット、または破壊、端部重みの和が最小になるように、図2のピクセルによって表現されたグラフを通過する。
【0024】
ピクセルa204などの各ピクセルは、ソースv200方向のエッジ(エッジ212)と、シンクv202方向のエッジ(エッジ214)と、および少なくとも1つの隣り合うピクセルb216方向のエッジ222のような少なくとも1つのエッジの方向に接続される。これら各エッジは2つのピクセル間の不連続の目安を示すエネルギーまたは重みを有している。グラフのエッジ重みは、ピクセルxがカットグラフ
【数26】
Figure 2004502997
内のシンクv202へ接続する場合、深度マップ値f(x)がピクセルxと関連し、そうでない場合は深度マップ値g(x)がピクセルxと関連するように定義される。図4を簡単に参照すると、隣接する、または隣り合うピクセル対a204およびb216を深度マップf(x)またはg(x)へ割り当てることに関連したエネルギーが示されている。例えば、ピクセルa204およびシンクv202間の結合は、深度マップg(x)に関連したピクセルa204とソースv200間のエッジまたはリンクの破壊に要求されるエネルギーを表すため、深度マップf(x)にピクセルa204を割り当てることに関連するエッジ重み、またはエネルギーコストが、a402として示されている。【0025】
次に、図2および3を参照すると、近隣ピクセルa204およびb216の対に対するカットグラフには、図3a、3b、3cおよび3dにそれぞれ示したように(f、f)、(f、g)、(g、f)および(g,g)の仮説割り当てに対応する4つの可能な構成がある。図3aは、シンクv202において推定された深度マップf(x)へピクセルa204およびb216の両方を割り当てることを示している。この割り当てを図3aに示し、図中ピクセルa204およびb216と、ソースv200間のエッジまたは結合が破壊されている。図3bはシンクv202および深度マップf(x)へピクセルa204を割り当てること、およびソースv200へピクセルb216を割り当てることを示している。ゆえに、図3bで示された深度値の割り当ては、推定された深度マップf(x)から対応する深度マップ値が基準画像のピクセルa204に割り当てられており、および仮説深度マップg(x)から対応する深度マップ値が基準画像のピクセルb216に割り当てられていることを意味する。同様に、図3cは、ソースv200へピクセルa204を割り当てることと、およびシンクv202へピクセルb216を割り当てることを示しており、図3dはソースv200へピクセルa204およびb216両方を割り当てることを示している。
【0026】
4つの可能な割り当てのうち各ピクセル対に最適な1つの割り当てを決定することは、各割り当てに関連したエネルギーコストを最小にすることに基づいている。前記割り当てにより、割り当てによって破壊されるエッジまたは結合の破壊に関連して、複数の個々のエネルギーコストが必然的に必要となる。本発明の目的は、割り当てに加えてこれら構成のすべてに対する定数に関連したエネルギーに等価なエッジ削除のコストの和を有することである。これは、4つの構成それぞれに対する不連続エネルギーEが不等式E(f,f)+E(g,g)≦E(f,g)+E(g,f)を満たす場合に可能となる。ここでE(f,g)は図3bによって示されており、f(x)へピクセル対の第1のピクセルを、およびg(x)へ第2のピクセルを割り当てることに関連した不連続エネルギーを意味し、特に、ピクセルa204とソースv200間の結合の破壊、およびピクセルb216とシンクv202間の結合の破壊のコストの和を表す。図3bおよび3cによって示された割り当てはまた、ピクセルa204とb216間のエッジの破壊のコストを付加的に有することに注目されたい。さらに、不連続エネルギーEは測定基準とするための三角不等式を満足する。さらに、深度マップg(x)は連続であると仮定されており、これは近似E(g,g)≒0であることを意味し、必要な不等式を少なくとも近似的に満足する。ここで図4を参照する。ピクセルとソースv200およびシンクv202および互い(図4のc408)間のエッジの重みを計算するために、本発明によるシステムは、a400として示されたf(x)へのa204の割り当ての再投影エネルギーEとして、ピクセルa204からソースv200へのエッジの重み(エッジ212)、またはエネルギーをまず計算する。同様に、b406として示されたピクセルb216からソースv200へのエッジも計算する。同様に、ピクセルaおよびbに対して、a204およびb216からシンクv202への各エッジの重みは、それぞれa402およびb404として定義された、g(x)へa204およびb216を割り当てる再投影エネルギーに設定される。
【0027】
ピクセル頂点a204およびb216のすべての隣り合う対に対する不連続エネルギーは以下のように計算される。上述のように、第1および第2のピクセルa204およびb216からv200へのエッジの重みは、a400およびb406によってそれぞれ示される。同様に、第1および第2のピクセルa204およびb216からv202へのエッジの重みはa402およびb404によってそれぞれ示される。最後に、第1および第2のピクセルa204およびb216間のエッジの重みはc408によって示される。
3つの不連続エネルギー値を下の式により計算する。
【数27】
Figure 2004502997
【0028】
以下のように計算された不連続エネルギーに対する再投影エネルギーの調節は以下のように行う。すなわち、ピクセル対間のエッジへの計算されたエネルギー値内の因子として、mをcへ加える。
【0029】
ピクセルa204に関連した再投影エネルギーに計算された不連続エネルギー値内の因子として、
>0ならば、mをaへ加え、
そうでなければ −mをaへ加える。
【0030】
ピクセルb216に関連した再投影エネルギーに計算された不連続エネルギー値内の因子として、
>0ならば、mをbへ加え、
そうでなければ −mをbへ加える。
【0031】
図3a、3b、3cおよび3dによってそれぞれ示されたように4つの可能な各割り当てに関連するエネルギーコストの和は、以下の式で決定される。
=a+b
=a+b+c
=a+b+c
=a+b
【0032】
−Eのエネルギー値を最小にする構成は、グラフの最小カット、およびそれによって深度マップf(x)およびg(x)に対するピクセルa204およびb216の最適な割り当てを示す。この処理を基準画像内の隣り合う対のすべてについて反復し、2つの深度マップf(x)およびg(x)を最適化された深度マップf(x)に混合する。この処理はピクセル対すべてを完全に反復している間に深度マップ関連の変化が起こらなく(または最小限の変化に)なるまで繰り返すことができる。結果は1つの深度マップ内へ2つの深度マップf(x)およびg(x)の最適な混合に対応する総エネルギーの極小である。すべてのピクセル対が上述のグラフカット最小化処理を通して処理されると、新しい仮説深度マップg(x)は多数の既知の深度マップ導出法のうち1つから導出され、部分的に最適化された現在の深度マップf(x)に対して最適化処理が続行される。本発明の好適な実施例では、導出された仮説深度マップは、最適な深度マップに収束するようにスピードを増加させて基準画像に適正に近似する複合型の非平面深度マップである。処理された各仮説深度マップは、本発明の最適化処理における1回の反復と見なすことができる。最適化処理の進行中には、各ピクセルまたはピクセルの各グループに対する深度マップ値間の相対的な変化を計算し保存することができる。変動が変化の所定の最小値に達すると、最適化処理は有限数の段階を経て収束最適化された深度マップへの収束が達成されて終了する。次いで、結果として最適化された深度マップf(x)は、多数のコンピュータグラフィックスおよびコンピュータ映像アプリケーション内で基準画像の最適化された深度マップ表示として利用するために保存および/または出力される。
【0033】
上で簡単に説明したように、本発明の他の実施例では、2つの深度マップを、一度に1対のピクセル単位で混合する最適化処理は、基準画像のピクセルの全部にわたって多数回反復することができる。本発明のこの形態では、全ての基準画像ピクセルが一度処理されてしまうと新しい仮説深度マップは導出されない。そのかわりに、基準画像のピクセルの集合が、一度に一対のピクセル対単位で、反復の付加的レベルとして複数回にわたって処理され、混合された深度マップの改良の度合いが所定の最小値に到達すると、新たな仮説深度マップが導出される。処理が再開されると、該混合された深度マップが推定された深度マップになる。
【0034】
次に図5を参照すると、本発明による例示的深度マップ最適化システムの装置および通信リンクが示されている。図5の要素は本発明の方法で利用される装置およびデータまたは通信経路の例示を目的としており、限定的なものではない。プロセッサ500は、最適な深度マップへ2つの深度マップを反復して混合する操作ができる本発明のシステムと方法が動作できる1つ以上のコンピュータを示している。本発明の様々な機能的側面および、第1、第2、第3、第4および第5のプロセッサ、すなわち比較装置、置換装置のような、最適化された深度マップを計算するためのシステムに対応する装置部分は、単一のプロセッサ500内に存在することができ、または複数のプロセッサ500および記憶装置502の中に分散させることができる。
【0035】
最適化された深度マップがプロセッサ500によって計算され、データベース502上に記憶されると、プロセッサ500を操作する権限のあるあらゆる多数のユーザによって利用することができる。これらユーザはプロセッサ500のスクリーンまたはグラフィカルユーザインターフェース上に最適化された深度マップの2D表示を表示することができ、および/または該2D表示をプリンタ504で印刷することができる。
【0036】
本発明の好適な実施例を示し記載したが、当業者には本発明の原理と思想から逸脱することなくこれらの実施例を容易に変更することが可能であることは明白であり、本発明の範囲は請求項および同等物で定義される。
【図面の簡単な説明】
【図1】図1は、基準画像内の近隣ピクセル間の水平および垂直不連続エネルギー結合を示している。
【図2】図2は、隣接するピクセルを含む深度マップの一部を示している。
【図3】図3a、3b、3cおよび3dは、2つの隣接するピクセル間の特定の不連続を有する異なるグラフカットを示している。
【図4】図4は、近隣ピクセル対間の不連続エネルギーに関連したエッジ重みを示している。
【図5】図5は、例示的深度マップ最適化システムの装置および通信リンクを示している。

Claims (23)

  1. 一度に2つの深度マップを使用し、複数の深度マップを混合して基準画像の深度マップの推定を最適化するための方法であって、
    2つの異なる深度マップへ、基準画像の隣接する2つのピクセルそれぞれを割り当てる再投影エネルギーを計算することと、
    基準画像の隣接するピクセルそれぞれに関連した不連続エネルギー、および基準画像の隣接するピクセルの間のエッジに関連する不連続エネルギーを計算することと、
    隣接するピクセルおよび計算された再投影および不連続エネルギーが特定された後、2つの異なる深度マップ間の最小グラフカットに基づいて2つの隣接するピクセルに対して深度マップを割り当てることとを含む方法。
  2. 深度マップ値を割り当てる段階は、
    計算された不連続エネルギーで計算された再投影エネルギーを調節することと、
    隣接するピクセルへの2つの異なる深度マップの割り当てに関連したエネルギーコストを決定することと、
    隣接するピクセルへの2つの異なる深度マップの割り当てに関連する最小エネルギーコストに基づき、2つの隣接するピクセルに対して深度マップ値を割り当てることとを更に含む、請求項1に記載の方法。
  3. 2つの異なる深度マップは、第1の推定された深度マップと、第2の仮説深度マップからなり、深度マップ値を割り当てる段階は、続いて最適化を繰り返す際に第1の推定された深度マップとなる第3の最適化された深度マップを生成するために、第1の推定された深度マップの深度マップ値を置換することを含む、請求項1に記載の方法。
  4. 第2の仮説深度マップは複合型の非平面深度マップであることを特徴とする請求項3に記載の方法。
  5. 2つの隣接するピクセルは、隣り合うピクセル対を構成することを特徴とする請求項3に記載の方法。
  6. 再投影エネルギーを計算する段階、不連続エネルギーを計算する段階、および基準画像の各ピクセル対に深度マップ値を割り当てる段階を、基準画像のピクセル対の集合の各反復で割り当てられる深度マップ値間の差異が所定の最小値に達するまで繰り返すことをさらに含む、請求項5に記載の方法。
  7. 基準画像ピクセル対の集合の各反復で割り当てられる深度マップ値間の差異が所定の最小値に達すると、さらなる処理のための新しい第2の仮説深度マップを導出することを含む請求項6に記載の方法。
  8. 一度に2つの深度マップを使用し、複数の深度マップを混合することにより、基準画像の深度マップを推定するための方法であって、
    基準画像の特定のビューの現在の深度マップを推定することと、
    基準画像の導出された複数の仮説深度マップそれぞれに対して、
    仮説深度マップ上のピクセルに対応する現在の深度マップ上の各ピクセルに対して、現在の深度マップ上のピクセルの深度マップ値と、仮説深度マップ上のピクセルの深度マップ値とを比較し、
    比較された仮説深度マップ上のピクセルの深度マップが、比較された現在の深度マップのピクセルの深度マップ値より基準画像を正確に表現する可能性が高い場合は、現在の深度マップ上のピクセルの深度マップ値を、仮説深度マップ上のピクセルの深度マップ値に置き換えることとを含む方法。
  9. 複数の仮説深度マップそれぞれのビューは、少なくとも現在の深度マップのビューのサブ領域を含むことを特徴とする請求項8に記載の方法。
  10. 1つ以上の複数の仮説深度マップは、複合型の非平面深度マップであることを特徴とする請求項8に記載の方法。
  11. 深度マップ値の比較は、現在の深度マップの深度マップ値と導出された仮説深度マップの深度マップ値間の差異が所定の最小値に到達すると終了することを特徴とする請求項8に記載の方法。
  12. 深度マップ値の比較は、現在の深度マップの深度マップ値と導出された仮説深度マップの深度マップ値間の差異が所定の最小値に到達するまで、基準画像の全てのピクセルに渡って多数回実行されることを特徴とする請求項8に記載の方法。
  13. 基準画像の正確表現の確率が、ベイジアンフレームワークによって決定されることを特徴とする請求項8に記載の方法。
  14. 基準画像の正確表現の確率が、エネルギーコストとグラフカットにより決定されることを特徴とする請求項13に記載の方法。
  15. 物体の基準画像の深度マップの推定の最適化を行うための方法であって、
    物体の基準画像の所望のビューの第1の深度マップを推定することと、
    導出された基準画像の複数の仮説深度マップそれぞれに対し、
    第1の深度マップと導出された仮説深度マップ内両方のすべてのピクセルに対して、2つの深度マップ間の最適な深度マップ値を決定するためにベイジアン確率フレームワークを適用し、
    その時前記決定は隣り合うピクセル対間のグラフカットに関連するエネルギーコストを最小にすることによって達成されることと、
    第1の深度マップ内の深度マップ値を、最適な深度マップ値に置き換えることとを含む方法。
  16. 一度に2つの深度マップを使用し、複数の深度マップを混合して基準画像の深度マップの推定を最適化するためのシステムであって、
    2つの異なる深度マップへ基準画像の2つの隣接するピクセルそれぞれを割り当てる再投影エネルギーを計算する第1のプロセッサと、
    基準画像の隣接する各ピクセルそれぞれに関連した不連続エネルギーと、基準画像の隣接するピクセル間のエッジに関連する不連続エネルギーとを計算する第2のプロセッサと、
    隣接するピクセルおよび計算された再投影および不連続エネルギーが特定された後、2つの異なる深度マップ間の最小グラフカットに基づいて2つの隣接するピクセルに対して深度マップ値を割り当てる第3のプロセッサを有するシステム。
  17. 第3のプロセッサは、
    計算された不連続エネルギーで、計算された再投影エネルギーを調節する第4のプロセッサと、
    隣接するピクセルへの2つの異なる深度マップの割り当てに関連するエネルギーコストを決定する第5のプロセッサと、
    隣接するピクセルへの2つの異なる深度マップの割り当てに関連する最小エネルギーコストに基づいて、2つの隣接するピクセルに対して深度マップ値を割り当てる置換装置をさらに含む請求項16に記載のシステム。
  18. 一度に2つの深度マップを使用し、複数の深度マップを混合して基準画像の深度マップを推定するためのシステムであって、
    基準画像の特定のビューの現在の深度マップを推定する第1のプロセッサと、 仮説深度マップ上のピクセルに対応する現在の深度マップ上の各ピクセルに対し、
    現在の深度マップ上のピクセルの深度マップ値と仮説深度マップ上のピクセルの深度マップ値とを比較する比較装置と、
    比較された仮説深度マップ上のピクセルの深度マップ値が、比較された現在の深度マップ上のピクセルの深度マップ値よりも、基準画像を正確に表現する確率が高い場合、現在の深度マップ上のピクセルの深度マップ値を、対応する仮説深度マップ上のピクセルの深度マップ値に置き換える置換装置とを有する第3のプロセッサを、基準画像の導出された複数の仮説深度マップそれぞれに対して有する第2のプロセッサとを有しているシステム。
  19. 比較装置は、現在の深度マップの深度マップ値と導出された仮説深度マップの深度マップ値間の差異が所定の最小値に到達すると終了する請求項18に記載のシステム。
  20. 比較装置は、現在の深度マップの深度マップ値と導出された仮説深度マップの深度マップ値間の差異が所定の最小値に到達するまで、基準画像の全てのピクセルにわたって深度マップ値を多数回比較する請求項18に記載のシステム。
  21. 基準画像の正確表現の確率が、ベイジアンフレームワークによって決定されることを特徴とする請求項18に記載のシステム。
  22. 基準画像の正確表現の確率が、エネルギーコストとグラフカットにより決定されることを特徴とする請求項21に記載のシステム。
  23. 物体の基準画像の深度マップの推定を最適化するシステムであって、
    物体の基準画像の所望のビューの第1の深度マップを推定する第1のプロセッサと、
    第1の深度マップと導出された仮説深度マップ両方のすべてのピクセルに対して2つの深度マップ間の最適化された深度マップ値を決定するためにベイジアン確率フレームワークを適用し、その際、前記決定を隣り合うピクセル対間のグラフカットに関連するエネルギーコストを最小にすることによって達成する第3のプロセッサと、
    第1の深度マップ内の深度マップ値を最適化された深度マップ値に置き換える置換装置とを、基準画像の導出された複数の仮説深度マップそれぞれに対して有する第2のプロセッサとを有するシステム。
JP2002506563A 2000-06-28 2001-06-28 ベイジアンフレームワークにおける仮説混合による深度マップの生成 Expired - Fee Related JP4889182B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US21479200P 2000-06-28 2000-06-28
US60/214,792 2000-06-28
US09/891,344 2001-06-27
US09/891,344 US20030206652A1 (en) 2000-06-28 2001-06-27 Depth map creation through hypothesis blending in a bayesian framework
PCT/SE2001/001502 WO2002001503A2 (en) 2000-06-28 2001-06-28 Depth map creation through hypothesis blending in a bayesian framework

Publications (2)

Publication Number Publication Date
JP2004502997A true JP2004502997A (ja) 2004-01-29
JP4889182B2 JP4889182B2 (ja) 2012-03-07

Family

ID=26909363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002506563A Expired - Fee Related JP4889182B2 (ja) 2000-06-28 2001-06-28 ベイジアンフレームワークにおける仮説混合による深度マップの生成

Country Status (5)

Country Link
US (1) US20030206652A1 (ja)
EP (1) EP1360647A2 (ja)
JP (1) JP4889182B2 (ja)
AU (1) AU2001267979A1 (ja)
WO (1) WO2002001503A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146647A (ja) * 2006-12-05 2008-06-26 Fujifilm Corp 画像処理方法および装置
JP2010531490A (ja) * 2007-06-20 2010-09-24 トムソン ライセンシング 画像のステレオ・マッチングのためのシステム及び方法
JP2015531098A (ja) * 2012-06-21 2015-10-29 マイクロソフト コーポレーション デプスカメラを使用するアバター構築
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
CN109146941A (zh) * 2018-06-04 2019-01-04 成都通甲优博科技有限责任公司 一种基于网格区域划分的深度图像优化方法及系统

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7212201B1 (en) 1999-09-23 2007-05-01 New York University Method and apparatus for segmenting an image in order to locate a part thereof
US6973212B2 (en) * 2000-09-01 2005-12-06 Siemens Corporate Research, Inc. Graph cuts for binary segmentation of n-dimensional images from object and background seeds
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
AUPS283602A0 (en) * 2002-06-07 2002-06-27 Dynamic Digital Depth Research Pty Ltd Improved conversion and encoding techniques
US7277599B2 (en) * 2002-09-23 2007-10-02 Regents Of The University Of Minnesota System and method for three-dimensional video imaging using a single camera
US7672516B2 (en) * 2005-03-21 2010-03-02 Siemens Medical Solutions Usa, Inc. Statistical priors for combinatorial optimization: efficient solutions via graph cuts
US20080030497A1 (en) * 2005-12-08 2008-02-07 Yangqiu Hu Three dimensional modeling of objects
US8103068B2 (en) * 2006-09-29 2012-01-24 Cornell Research Foundation, Inc. Methods and systems for reconstruction of objects
KR101570377B1 (ko) * 2009-03-31 2015-11-20 엘지전자 주식회사 단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법
US8917956B1 (en) * 2009-08-12 2014-12-23 Hewlett-Packard Development Company, L.P. Enhancing spatial resolution of an image
TWI420413B (zh) * 2010-07-15 2013-12-21 Chunghwa Picture Tubes Ltd 深度圖強化方法及其電腦可讀媒體
US9406132B2 (en) 2010-07-16 2016-08-02 Qualcomm Incorporated Vision-based quality metric for three dimensional video
US8428342B2 (en) 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
US8971641B2 (en) * 2010-12-16 2015-03-03 Microsoft Technology Licensing, Llc Spatial image index and associated updating functionality
FR2976107B1 (fr) * 2011-05-30 2014-01-03 Commissariat Energie Atomique Procede de localisation d'une camera et de reconstruction 3d dans un environnement partiellement connu
US8432435B2 (en) * 2011-08-10 2013-04-30 Seiko Epson Corporation Ray image modeling for fast catadioptric light field rendering
KR101680186B1 (ko) * 2011-08-30 2016-11-28 삼성전자주식회사 영상 촬영 장치 및 그 제어 방법
JP6192853B2 (ja) * 2014-12-19 2017-09-06 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 超音波深度検出を使用するオプティカルフロー画像化システム及び方法
CN113077505B (zh) * 2021-04-19 2023-11-17 大连理工大学人工智能大连研究院 一种基于对比学习的单目深度估计网络的优化方法
CN115170745B (zh) * 2022-09-07 2022-12-06 武汉图科智能科技有限公司 一种基于立体视觉的无人机测距方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1074272A (ja) * 1996-08-30 1998-03-17 Minolta Co Ltd 3次元形状データ処理装置
JPH11512856A (ja) * 1995-10-04 1999-11-02 ビジュアル・インターフェース・インコーポレーテッド 2次元イメージから3次元イメージを生成する方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2954320B2 (ja) * 1990-10-31 1999-09-27 キヤノン株式会社 画像処理方法及び装置
US5179441A (en) * 1991-12-18 1993-01-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Near real-time stereo vision system
US6046763A (en) * 1997-04-11 2000-04-04 Nec Research Institute, Inc. Maximum flow method for stereo correspondence
JP2001501348A (ja) * 1997-07-29 2001-01-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3次元シーンの再構成方法と、対応する再構成装置および復号化システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11512856A (ja) * 1995-10-04 1999-11-02 ビジュアル・インターフェース・インコーポレーテッド 2次元イメージから3次元イメージを生成する方法
JPH1074272A (ja) * 1996-08-30 1998-03-17 Minolta Co Ltd 3次元形状データ処理装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146647A (ja) * 2006-12-05 2008-06-26 Fujifilm Corp 画像処理方法および装置
JP2010531490A (ja) * 2007-06-20 2010-09-24 トムソン ライセンシング 画像のステレオ・マッチングのためのシステム及び方法
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
JP2015531098A (ja) * 2012-06-21 2015-10-29 マイクロソフト コーポレーション デプスカメラを使用するアバター構築
CN109146941A (zh) * 2018-06-04 2019-01-04 成都通甲优博科技有限责任公司 一种基于网格区域划分的深度图像优化方法及系统

Also Published As

Publication number Publication date
AU2001267979A1 (en) 2002-01-08
US20030206652A1 (en) 2003-11-06
WO2002001503A3 (en) 2003-08-21
JP4889182B2 (ja) 2012-03-07
EP1360647A2 (en) 2003-11-12
WO2002001503A2 (en) 2002-01-03

Similar Documents

Publication Publication Date Title
JP4889182B2 (ja) ベイジアンフレームワークにおける仮説混合による深度マップの生成
JP4679033B2 (ja) 深度マップのメジアン値融合のためのシステムおよび方法
JP5011168B2 (ja) 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US8655052B2 (en) Methodology for 3D scene reconstruction from 2D image sequences
US9251623B2 (en) Glancing angle exclusion
EP3367334B1 (en) Depth estimation method and depth estimation apparatus of multi-view images
KR101560508B1 (ko) 3차원 이미지 모델 조정을 위한 방법 및 장치
JP4216824B2 (ja) 3次元モデル生成装置、3次元モデル生成方法および3次元モデル生成プログラム
CN108335353A (zh) 动态场景的三维重建方法、装置和系统、服务器、介质
CN106846467B (zh) 基于每个相机位置优化的实体场景建模方法和系统
US7528831B2 (en) Generation of texture maps for use in 3D computer graphics
JP2002183761A (ja) 画像生成の方法および装置
CN113269862A (zh) 场景自适应的精细三维人脸重建方法、系统、电子设备
US7505623B2 (en) Image processing
JP2009116532A (ja) 仮想視点画像生成方法および仮想視点画像生成装置
EP3935602B1 (en) Processing of depth maps for images
JP2001067463A (ja) 異なる視点からの複数のフェイシャル画像に基づき新たな視点からのフェイシャル画像を生成するフェイシャル画像生成装置及び方法並びにその応用装置及び記録媒体
CN111369660A (zh) 一种三维模型的无接缝纹理映射方法
Kwak et al. View synthesis with sparse light field for 6DoF immersive video
JP5373931B2 (ja) 仮想視点画像生成方法,仮想視点画像生成装置および仮想視点画像生成プログラム
EP2660781A1 (en) Three-dimensional model generation
CN113421292A (zh) 一种三维建模细节增强方法及装置
CN111178501A (zh) 双循环对抗网络架构的优化方法、系统、电子设备及装置
JP4168103B2 (ja) テクスチャ画像の生成・マッピングシステム
EP1398734A2 (en) Texture mapping

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110104

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110401

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111213

R150 Certificate of patent or registration of utility model

Ref document number: 4889182

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees