JP4679033B2 - 深度マップのメジアン値融合のためのシステムおよび方法 - Google Patents

深度マップのメジアン値融合のためのシステムおよび方法 Download PDF

Info

Publication number
JP4679033B2
JP4679033B2 JP2002506562A JP2002506562A JP4679033B2 JP 4679033 B2 JP4679033 B2 JP 4679033B2 JP 2002506562 A JP2002506562 A JP 2002506562A JP 2002506562 A JP2002506562 A JP 2002506562A JP 4679033 B2 JP4679033 B2 JP 4679033B2
Authority
JP
Japan
Prior art keywords
depth map
pixel
value
view
minimum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002506562A
Other languages
English (en)
Other versions
JP2004502249A (ja
Inventor
ダヴィッド ニステル,
Original Assignee
テレフオンアクチーボラゲット エル エム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフオンアクチーボラゲット エル エム エリクソン(パブル) filed Critical テレフオンアクチーボラゲット エル エム エリクソン(パブル)
Publication of JP2004502249A publication Critical patent/JP2004502249A/ja
Application granted granted Critical
Publication of JP4679033B2 publication Critical patent/JP4679033B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images

Description

【0001】
(関連出願の相互参照)
本特許出願は、本明細書に包含する2000年6月28日出願の合衆国予備出願No.60/214791を基礎とし、およびその優先権を主張する。
(本発明の技術分野)
本発明は、概して動画シーケンスからグラフィックモデルを生成するためのシステムに関し、さらに詳細には、複数の較正済みのカメラの視点から画像の正確なグラフィック表現を構成するためのシステムに関する。
【0002】
(背景情報)
コンピュータ支援画像は、コンピュータの処理およびデータ操作能力の補助により2つ以上のデジタル化された2次元の画像から、新たな2次元および3次元画像を端末スクリーン、またはグラフィック・ユーザー・インターフェースに表現する処理である。2次元(以後「2D」)画像からの3次元(以後「3D」)モデルの構成は、もともとは有限の数の2D画像によって表現された物体または景色のグラフィカル3Dモデルを処理の目標とする、例えばコンピュータ支援デザイン(以後「CAD」)、3D通信販売およびバーチャルリアリティーシステムで使用される。コンピュータグラフィックスまたはコンピュータビジョンを使用することで、3Dモデルが構成されるもととなる2D画像は、物体又は景色の周りの異なる視点または位置から知覚された物体または景色を表現している。該画像は、物体または景色の周辺に配設した複数のカメラか、物体の写真または画像のビデオストリームを記録する、物体の周りを移動する単一のカメラから得られる。2D画像内の情報は、コンピュータベースのグラフィカル3Dモデルを合成するために結合および対比される。近年のコンピュータ処理能力およびデータ操作能力の進歩はコンピュータによる3Dモデリングを改善したが、これら3D構成システムは依然として、大きなコンピュータ処理能力、巨大なデータ記憶要求、および長い処理時間の需要により特徴づけられる。さらに、グラフィカル3Dモデルのような空間の体積表現は、3Dモデルと第2の3Dモデルとの結合または、新たな視点または投影中心からの空間知覚のような動的な変形に対応して容易に修正することができない。
【0003】
通常、複数の視点またはカメラ位置からの3D画像を構成するには、まず、カメラで撮った画像が、画像によって表現された物体または景色を適切な3Dに再構成するために正確に結合されるように、カメラの較正が必要である。カメラまたはカメラ位置の較正は、画像を収集する各位置または視点でのカメラパラメータを獲得または計算する工程であり、そのようなパラメータにはカメラの焦点距離、画角、ポーズおよび方向などの情報が含まれる。較正情報が容易に利用できない場合、多数の較正アルゴリズムが較正情報を計算するために利用できる。あるいは、較正情報が欠けている場合、いくつかの画像再構成方法により、カメラまたは視点がある位置から他の位置へ移動するような場合のカメラ位置の較正を推定することができる。しかしながら、較正の推定では3Dグラフィカルモデル描写過程で付加的な変数を導入し、これが出力グラフィックを不正確にする原因となる。さらに、カメラの視点の較正には、カメラの動きおよび/または方向を事前に把握しておくことが必ず必要となるので、新たな位置へ較正された視点を外挿することにより3Dモデルの構成に利用できる視点または画像が限定される。
【0004】
多重視点から物体のグラフィカル3Dモデルを再構成する現在の方法は、ステレオマッピングとして知られる、一度に物体の一対の画像を用いる処理であり、該処理では、物体の合成画像を生成するために2つの画像間の対応が計算される。しかしながら、物体の2つの視点のみから再生された形状情報は完全でもなく正確でもない。そのためにしばしば3Dモデルの形状を精緻化するためにさらなる視点からの画像を組み入れる必要がある。さらに、一部のグラフィカルシステム内では、画像または較正データにおいて既知の、または認知された誤りを調整するために、1つ以上の画像の重み付け、ワープ、および/または混合により、ステレオマップされた3Dモデルの形状を操作することが多い。しかしながら、そのような操作はマニュアル処理であり、合成画像の自動計算に限界があるだけでなく、重み付け、ワープ、および/または混合の適当なレベルを推定するときに誤差が導入される危険性がある。
【0005】
物体または景色の新たな2D図および3Dモデルを描写するため、近年、深度マップ形式のグラフィカルな画像がステレオマッッピングに応用されている。深度マップは空間の表面を数学的に表現する値の2次元配列である。該配列の列および行は表面のx座標およびy座標上の位置情報に対応し、配列要素は特定の点またはカメラ位置から表面への深度または距離の読みである。深度マップは、物体表面の各点における強度情報、またはピクセルを深度情報に置き換えて、物体のグレースケール画像として表現され得る。それに応じて、表面の点は3Dグラフィック構成技術においてはピクセルと呼ばれ、本明細書の中では交換可能に使用される。
【0006】
物体のグラフィカルな表現は、一度に1対の図を用いて、ステレオマッピングされた深度マップにより推定することができる。ステレオ深度マッピングでは、通常、2つのマップ内のピクセルに対して共通深度値を見つけるためにセクション間の整合を見つけるため、一度に2つの深度マップのセクションを比較する。しかしながら、推定された深度マップはいつも誤差を含んでいるので、マップが互いに一致し、必要な箇所で整合がとれるという保証はない。1つの悪いデータまたは誤差のあるデータの効果を最小にするために多数のデータが有効であるが、不特定多数の深度マップは誤った較正、不正確な重み付け、または特定の視野の値に関する推測による誤差を含み、深度マップ内のあらゆる誤差が最終的な合成画像へ投影されるため、同じ原理を深度マップへ応用することはできない。さらに、深度マップによる従来式のステレオマッピング法は、1つの深度マップを推定する時点で精緻化処理を終了する。
【0007】
本発明の好適な実施形態は、複数の深度マップを3次元の物体または景色の矛盾のない正確な表現へと融合させるための現存のシステムに関連した問題を克服する。
【0008】
(発明の趣旨)
本発明は、複数の推定された深度マップから精緻化された立体的表現の深度マップを計算するためのシステムおよび方法を目的としている。本システムは、最適な深度マップを精緻化するために、表現された画像の複数の深度マップ内の情報を利用し、新たなビューに適応された各深度マップ内の各ピクセルに対して、メジアン深度値を選択する。本システムは、適応された深度マップ内の全ての対応するピクセルの中からメジアン値に相当する適応されたピクセル深度値を選択することにより、各ピクセルについてメジアン深度マップ値を決定する。適応された深度マップは、物体または景色の新たなビューに一度に1つずつ融合される。結果として得られたメジアン値融合深度マップを使用して、新たな視点から知覚されたグラフィック画像またはビデオ画像をさらに正確に表すことができる。
【0009】
本発明の1つの実施形態によると、本発明のシステムと方法は、物体のビューの融合深度マップを計算することを目的としており、物体の新たなビューのためのカメラ較正データを獲得することと、新たなビューのカメラ較正に基づき物体の新たなビューに物体の複数の既存の深度マップの1つ1つを適応することと、物体の新たなビューの融合深度マップの深度マップ要素を計算することを含み、ここで前記深度マップ要素のそれぞれは物体の新たなビュー内のピクセルに対応し、また前記深度マップ要素のそれぞれは適応された一群の深度マップ要素のメジアン値を備え、それぞれが複数の適応された深度マップの1つの各ピクセルに対応することを含む。
【0010】
本発明の他の実施形態によると、本発明のシステムと方法は、複数の較正済みの視点から、所望の視点から知覚された物体のグラフィック表現を構成することを目的としており、物体の所望のビューのためのカメラ較正データを獲得することと、それぞれが物体の複数の較正済みのビューのそれぞれに対応する複数の深度マップを計算することと、計算された複数の深度マップそれぞれについて、選択された、計算された深度マップを所望のビューへ適応することと、所望のビュー内の各ピクセルについて、該各ピクセルにおけるメジアン融合深度マップ値を計算することを含み、それにより、前記ピクセルを塞ぐ適応された深度マップの数が、前記ピクセルを通過する適応された深度マップの数と同数になる。また、計算されたメジアン融合深度マップ値を利用して、所望のビューから知覚された物体のグラフィック表現を投影することを含む。
【0011】
本発明のこれらおよび他の目的と利点は、添付の図面を参照しながら以下に記載する本発明の好適な実施例の詳細な説明から当業者は明確且つ容易に理解できる。図中、同様の要素には同じ参照番号を使用する。
【0012】
(好ましい実施例の詳細な記載)
後述では、限定ではなく説明を目的として、本発明の理解のために特定の実施例について詳細な説明を行う。しかしながら、当業者には明白であるように、本発明は以下の詳細な実施例とは別の実施例においても実行することができる。他の実施例において、既知の方法、装置、および回路の詳細な記載は本発明を明確にするために省略する。
【0013】
本発明は、実質的にすべての物体または景色の融合深度マップの決定のため、およびそのような物体および景色の3D画像の構成に利用することができるが、以下の論議では本発明の実施例の説明を単純にするためにそのようなすべての3Dアイテムを「物体」と呼ぶ。まず図1には、視点iから知覚された物体の一部が示されている。線セグメント、d106は、ビューiの投影中心(以後COPと表す)であるP100から広がり線L102およびL104により形成される画像面内において、視点iから見た物体のビューを表す。ビューiは物体の複数の既存のビューのうちの1つを表し、そのカメラ較正は既に判明しているか、または計算することができる。視点aは、物体を見る新たな所望の方向を表し、ビューaのCOPであるP108におけるカメラ較正およびビューが既に判明している場合、本発明によるシステムの好適な実施例により、ビューaの最適化された深度マップとしてメジアン値融合深度マップが計算される。本発明は現在のところパーソナルまたはラップトップコンピュータでの実施を想定しているが、本発明によるメジアン値深度マップ融合システムの方法および装置は、システムの進歩的特徴を損なうことなく、多数のコンピュータまたはプロセッサ上で同様にうまく機能することができる。
【0014】
物体のメジアン値融合深度マップを計算するための本発明による好適な実施例では、物体のビューを取得する複数の既知の方法のいずれか1つにより、第一に物体のn個の較正済みのビューのセット、
【数1】
Figure 0004679033
を得る。本発明は最低2つの物体のビューがあれば操作可能であるが、融合深度マップの計算に利用できるビューが多いほど、結果として得られる融合深度マップは、物体のより正確なグラフィック表現となる。
【0015】
物体のそれぞれのビューi(Vと表す)について、物体の画像の領域に定義される関連する深度関数dがある。ビューi内の各ピクセルx110について、深度関数は深度マップ値d(x)を有する。深度マップ値d(x)は、ビューiの投影中心から、物体のビューi内の最も近いポイント、または物体のビューi内の画像ポイントxに該当する逆投影された光線に沿ったピクセルxまでの距離の推定値である。図1を参照すると、ビューi内のピクセルx110についての深度値d(x)は、COPであるP100からピクセルx110までの距離である。
【0016】
図1、図2、および図3を参照すると、物体のイメージ領域内の任意のピクセルx110、200、または300は、図1のように表面d上にあるか、図2のようにPから見た表面よりも奥にあるか、または図3のようにPから見た表面の手前にあるかである。図2のように、Pから見た表面dの奥にあるポイントは、ビューaでは表面dが有るためにPがポイントx200を「見る」ことができないため、深度マップdにより「塞がれている」と言われる。図3に示されているように、dの前に位置するポイントは、ビューiでは深度マップdにより「通過される」と言われる。連続関数として見た場合、深度マップdは、図1、図2および図3の平面図内の要素d106によりグラフィック表示された、ビューiから知覚された空間内の表面を画定する。
【0017】
本発明はメジアン値の数学的原理の変形を利用して、物体の既知のビュー
【数2】
Figure 0004679033
に該当する複数の推定された深度マップ
【数3】
Figure 0004679033
から、新たな所望のビューaの最適な深度マップfを計算する。本発明の好適な実施例により計算される、この最適な深度マップは、後述するような、複数の深度マップを融合させて新たなビューa内の物体の表面上にある各ピクセルx110についてメジアン深度値を決定するプロセスのために「メジアン値融合深度マップ」と名付けられる。新たなビューa内のピクセルxのメジアン値融合深度マップ値が、「ビューaについて一定である」と定義されるのは、物体の既知の深度マップのセット
【数4】
Figure 0004679033
において、ビューa内でx200を塞ぐ深度マップの数がビューa内でx300を通過する深度マップと少なくとも同じである時である。従って、本発明のプロセスは、ビューa内でx200を塞ぐ既知の深度マップdの数がビューa内でx300を通過する既知の深度マップdと少なくとも同数になるように、新たなビューa内の各ピクセルx110について最適な深度値を決定することである。ビューa内の各ピクセルx110についての最適値またはメジアン値融合深度値であるf(x)は、全深度値d(x)の下限または最低値であり、従って全ピクセル
【数5】
Figure 0004679033
110はビューaについて一定である。
【0018】
本発明の好適な実施例によるメジアン値融合深度マップの計算について説明する前に、システムのいくつかの作用要素を定義する。システムにより計算されるビューaのメジアン値融合深度マップはfと表し、ビューa内のピクセルxのメジアン値融合深度マップはf(x)と表す。図4のフローチャートに示すように、メジアン値深度マップ融合プロセスの第1のステップのうちの1つは、ステップ400について後述するように、fについて推定された最低値を設定することである。3つの2次元配列を利用して、全深度マップ
【数6】
Figure 0004679033
を処理する間、融合深度値、閉塞インジケータ、および適応された深度マップの最小値の作用値を保持する。最小深度マップ値行列o(x)を利用して、ビューaのピクセル、x、の最小深度マップを保持する。それぞれの新たな深度マップ、d、i=1、…nがビューaへ適応される際、ビューaに適応された深度マップdのピクセルxの最小深度マップ値はo(x)として記憶される。その後深度マップ、d、i=1、…、nがビューaへと適応される度に、最小深度マップ値行列o(x)の値または要素はリセットされる。ビューaの画像領域上に定義される支持行列、s(x)、は、ビューa内の任意の目標ピクセルxを、複数の深度マップ
【数7】
Figure 0004679033
が通過するか、または塞ぐかに関する「投票」の数を保持する。s(x)は支持行列と呼ばれ、s(x)が正の値である場合、ピクセルxにおける、より大きな深度マップ値の支持を表す。つまり、ビューaにおいて、xは深度マップdにより通過されている。s(x)は、ステップ404において、深度マップのセット
【数8】
Figure 0004679033
の各反復処理のはじめにゼロに設定される。メジアン値融合深度マップの計算の間、ビューa内の各ピクセルxについて、ビューaに適応された深度マップdがポイントxを塞ぐ場合には、s(x)における支持行列値から1を引く。適応された深度マップがビューa内でxを通過している場合、後述するように対応する支持行列値s(x)に1を加える。本発明は、深度マップのセット
【数9】
Figure 0004679033
を処理して各ピクセルxにおける深度マップの次の可能な候補を表すものであるため、次の深度マップ候補n(x)は各ピクセルxについて計算されたメジアン値融合深度値の集積である。次の深度マップ値候補はステップ406において最初に∞に設定される。
【0019】
ビューa内の各ピクセルxの目標メジアン値融合深度値、f(x)、は、次のように計算される。それぞれのビュー
【数10】
Figure 0004679033
の2つ以上の深度マップ
【数11】
Figure 0004679033
と、ビュー
【数12】
Figure 0004679033
のいずれとも異なる新たなビューaについてのカメラ較正が存在する場合に、本発明はビューaのメジアン値融合深度マップfを計算する。メジアン値の概念を利用し、本システムは、ビューa内の各ピクセルxの最小深度値候補をfの最初の深度マップ値として用いることにより、まず深度マップの最初の推定値fを設定する。これは、ステップ400において、深度バッファリングを用いて、深度マップの全セット
【数13】
Figure 0004679033
を1つずつビューa内へ適応することにより達成される。全ての適応にわたって、各ピクセルxの最小深度値f(x)は、深度マップfの最初の推定値として保持される。
【0020】
次に、図1から図4に示すように、新たな所望のビューaのメジアン値融合深度マップを計算するために複数の既知の深度マップ
【数14】
Figure 0004679033
を処理する方法は、ステップ408において、一度に1つのビューずつ、ビューiの各深度マップdをビューaへ適応する事から始める。各深度マップdをビューaへ適応する前に、ステップ406において最小深度マップ値行列o(x)の要素を∞に初期化する。深度マップdをビューaに適応した後、ビューaのピクセルxである110、200、および300のそれぞれはステップ410で処理され、o(x)の各要素は、ピクセルx110、200、および300の最小の深度マップ値に設定される。深度マップが射線を横切って折り重なっている場合には、ピクセルxは、逆投影された射線に沿って、ピクセルからビューaの投影中心P108までに相当する複数の深度マップ値または距離をそれぞれ有することができる。o(x)の初期化により、ビューaの処理されないピクセルの深度値はo(x)内で∞に保持される。
【0021】
図2のように、ビューaの全てのピクセルxについて、ポイントx200が深度マップdにより塞がれる場合、ステップ412においてそのポイントの支持行列値が1だけ減らされる。
o(x)≦f(x)の場合、s(x)=s(x)−1に設定 (1)
【0022】
ポイントxの支持行列値から1が差し引かれることにより、ポイントxはdで表される表面により塞がれている、すなわち該表面より奥にあることになるので、本システムは、このポイントの目標融合深度マップに対してそれ以上大きな深度値を拒否する投票を登録する。図1、および図3のように、ポイントx110および300が適応された深度マップdにより塞がれていない場合、ステップ414において、次の深度マップ値候補n(x)が、ポイントx110および300について存在する次の深度マップ値候補と、ビューdのビューaへの適応から得た最小深度マップ値行列要素との最小値に設定される。
n(x)=min(n(x),o(x))に設定 (2)
【0023】
次の深度マップ値候補n(x)を設定した後、図1および図3のビューa内のピクセルx110および300から深度f(x)へ射線を逆投影する。結果として生じるピクセルx110または300を、ステップ416でビューi内に投影することにより、ビューi内のピクセルr112または302を得、またPからx110または300までの深度mを得る。x300が画像領域内に適切に収まり、またステップ418で判断されたようにd(x)がmより大きい場合(図3)には、dはx300を通過し、ステップ420においてそのピクセルの支持行列値を1だけ増加する。
s(x)=s(x)+1に設定 (3)
【0024】
ピクセルの支持行列値に1を加えることにより、ピクセルxはdで表される表面を通過する、すなわちピクセルxはdで表される表面の手前にあることになるので、システムは、このピクセルの目標融合深度マップについて、もっと大きな深度値を許可する投票を登録する。図1のように、ピクセルxが表面d上にあると判明した場合は、そのピクセルではそれよりも大きな、または小さな深度マップ値に投票する必要がないので、該ピクセルの支持行列値は同じままである。
【0025】
ステップ422では、処理されるピクセルx、110、200、または300が、現在のビューi内で処理されるべき最後のピクセルでない場合、 ビューa内の次のピクセルについてステップ412に戻って処理を継続する。そうでない場合、ステップ424において、dがセット
【数15】
Figure 0004679033
の最後の深度マップでない場合、セットの次の深度マップについてステップ408に戻って処理を継続する。最後の深度マップの最後のピクセルが処理されると、メジアン値融合深度マップの深度マップ値は、ステップ426において、ビューaの領域内の各ピクセルx、110、200,および300の支持行列の値を次の式で評価することにより設定される。
ビューa内の全ピクセルxについて、s(x)>0の場合、f(x)=n(x)に設定 (4)
【0026】
ピクセルxにおける支持行列の値がゼロより大きい場合には、ビューaへ適応された既知の深度マップの処理からのネット投票は、最小深度値より大きな深度値を示し、該より大きな値はピクセルxの次の深度マップn(x)候補に算入されている。支持行列の値が0以下の場合は、適応された深度マップのネット処理により、ピクセルxについてより小さな深度マップ値が必要であり、ステップ404で計算されたf(x)内の初期化された最小値が保持されると結論づけられる。融合深度マップfの値のセットが更新および精緻化されると、全深度マップの処理をステップ402に戻って再開し、深度マップの全セットを新たなビューaにn−1回にわたって適応するまで繰り返して、確実にステップ408から426の処理をn回行ってから収束する。
【0027】
図5は、本発明による例示的なメジアン値深度マップ融合システムの装置および通信リンクについて示している。図5の構成要素は、本発明のシステムに利用できる装置および経路を限定するものではなく、例示を目的としている。ビルディング500は本発明によるビューの対象画像となりうる物体または景色を表し、カメラ502から510は物体500を知覚することができ、その位置についての深度マップを得ることができる複数の視点または位置を表す。視点512は、そこからのビューについて本発明によるシステムがメジアン値融合深度マップを計算することができる新たな視点を表し、視点512に関連する較正データは既知である。視点502ないし510から撮影されたそれぞれの画像は、プロセッサ514に転送またはダウンロードされ、最終的にデータベース516に記憶される。対応する視点502ないし512についての較正情報は、プロセッサ514に転送することができ、プロセッサ518で計算することができ、および/またはデータベース記憶装置516から検索することができる。視点502ないし510についての深度マップを、複数の既知の深度マップ計算技術の1つにより計算または推定し、データベース516に記憶させる。或いは、プロセッサ514の処理機能とデータベース516の記憶機能を、プロセッサ518で表したパーソナルコンピュータのような単一の装置にまとめることができ、または複数のプロセッサ514、518、およびデータベース516に分散することもできる。
【0028】
メジアン値融合深度マップの実際の計算はプロセッサ518で行われ、データはデータベース516から引き出され、また記憶される。本発明の他の実施形態では、データベース516による記憶装置をプロセッサ518に統合することができる。本発明の様々な機能特性、およびそれに対応するシステム内のメジアン値融合深度マップ計算のための装置部分である、初期化装置、選択装置、統合装置、およびプロセッサなどは、単一のプロセッサ518にまとめることもできるし、複数のプロセッサ518、および記憶装置516に分散することもできる。
【0029】
メジアン値融合深度マップがプロセッサ518で計算され、データベース516に記憶されると、プロセッサ522を操作する任意の数の認可されたユーザーによりアクセス可能である。これらのユーザーは、メジアン値融合深度マップの2Dまたは3Dの描写を、プロセッサ522のスクリーンまたはグラフィックインターフェイスに表示できる、または同じ物をプリンタ524で印刷できる。
【0030】
様々な機構構成要素を接続している図5の通信およびデータリンクは、無線または有線リンク、あるいはそれらの任意の組み合わせでよい。同様に、図5に示した本発明によるシステムは、本メジアン値深度マップ融合システムの進歩的特徴を損なうことなく、独立システムとして実行することができ、またはローカルエリア・ネットワーク、広域ネットワーク、イントラネット、またはインターネットのような、任意の既知のネットワーク上で、またはそのようなネットワークの組み合わせで、実行することができる。
【0031】
上述で本発明による好適な実施例を示し、それについて記述したが、本明細書の請求の範囲とその均等物により定義される本発明の原理および精神から逸脱することなく、これらの実施形態に変更を加えることができることは、当業者にとって明らかである。
【図面の簡単な説明】
【図1】 ビューiの深度マップを示し、図中のポイントxはビューaの目標表面上に位置している。
【図2】 ビューiの深度マップを示し、図中のポイントxはビューaでは塞がれている。
【図3】 ビューiの深度マップを示し、図中のポイントxはビューaでは通過されている。
【図4】 ビューのメジアン値融合深度マップを構成するための例示的な方法のブロックフローチャートを示す。
【図5】 例示的なメジアン値深度マップ融合システムの装置および通信リンクを示す。

Claims (14)

  1. 物体のビューの融合深度マップを計算する方法であって:
    物体の新たなビューについてカメラ較正データを獲得することと、
    新たなビューのカメラ較正に基づいて物体の新たなビューに物体の複数の既知の深度マップのそれぞれを適応することと、
    物体の新たなビューの融合深度マップの深度マップ要素を計算することとを含み、ここで前記深度マップ要素のそれぞれは物体の新たなビュー内のピクセルに対応し、また前記深度マップ要素のそれぞれは適応された深度マップ要素のセットのメジアン値を備え、それぞれが複数の適応された深度マップの1つのピクセルに対応し、
    深度マップ要素を計算する段階はさらに:
    物体の新たなビュー内の各ピクセルについて、該ピクセルに対応する新たなビューの融合深度マップの深度マップ要素を、ピクセルに対応する複数の適応された深度マップ要素の最小値で初期化することと、
    物体の新たなビューの領域内に定義される支持行列をゼロに初期化することと、
    次の深度マップ候補の要素を無限大に初期化することと、
    物体の新たなビューに適応された既知の深度マップそれぞれについて、および物体の新たなビュー内の各ピクセルについて、最小深度マップ値行列を、前記各ピクセルの最小深度マップ値で初期化することと、
    ピクセルが適応された深度マップで塞がれている場合、該ピクセルにおける支持行列を1だけ減じることと、
    ピクセルが適応された深度マップにより塞がれていない場合、且つ該ピクセルの対応する最小深度マップ値行列要素が該ピクセルの次の深度マップ要素候補よりも小さい場合、該ピクセルにおける次の深度マップ候補の要素を対応する最小深度マップ値行列要素に設定することと、
    適応された深度マップがピクセルを通過している場合、該ピクセルにおける支持行列を1だけ増加させることと、
    対応する支持行列要素がゼロより大きい新たなビュー内の各ピクセルについて、新たなビューの融合深度マップ要素を対応する次の深度マップ値候補で更新すること
    とを含む方法。
  2. 物体のビューの融合深度マップを決定するための方法であって:
    融合深度マップを決定するべき物体の所望のビューを選択することと、
    それぞれが物体のビューの少なくとも一部を含む、複数の既知の深度マップを選択することと、
    複数の既知の深度マップを物体の所望のビューに適応し、所望のビュー内の各ピクセルについて、所望のビューの対応する融合深度マップ要素を、前記ピクセルに対応している複数の適応された深度マップ要素の最小深度マップ値で初期化することと、
    大きさについて融合深度マップに対応する支持行列の要素をゼロに設定することと、
    大きさについて融合深度マップに対応する次の深度マップ候補の要素を無限大に設定することと、
    複数の既知の深度マップそれぞれについて、
    既知の深度マップを物体の所望のビューに適応すること、および
    所望のビュー内のピクセルそれぞれについて、各前記ピクセルにおいて適応された深度マップの値に基づいて支持行列の対応する要素を更新すること、とを行うことと、
    所望のビュー内の各ピクセルについて、
    ピクセルの支持行列の値がゼロより大きい場合は、該ピクセルにおける融合深度マップ値を次の深度マップ候補の対応する要素に等しく設定すること
    とを含む方法。
  3. 前記支持行列の対応する要素を更新する段階は:
    前記ピクセルにおける最小深度マップ値行列要素を、各前記ピクセルにおける適応された深度マップ値の最小値で初期化することと、
    前記ピクセルにおける最小深度マップ値行列要素が対応するピクセルにおける融合深度マップ値以下の場合、支持行列の対応する要素を1だけ減じることと、
    前記ピクセルにおける最小深度マップ値行列要素が対応するピクセルにおける融合深度マップ値より大きい場合、前記ピクセルに対応する次の深度マップ候補および支持行列要素を更新すること
    とを含む請求項に記載の方法。
  4. 前記次の深度マップ候補および支持行列要素を更新する段階は:
    ピクセルにおける次の深度マップ値候補を、次の深度マップ値候補と、該ピクセルに対応する最小深度マップ値行列要素との最小値に設定することと、
    適応された深度マップがピクセルを通過する場合は、ピクセルに対応する支持行列要素を1だけ増加させること
    とを含む請求項に記載の方法。
  5. 前記支持行列の要素をゼロに設定することから始まる段階を、複数の既知の深度マップの数をnとして、n−1回繰り返す、請求項に記載の方法。
  6. 物体のビューの融合深度マップを決定するための方法であって:
    融合深度マップを決定するべき物体の所望のビューを選択することと、
    それぞれが物体のビューの少なくとも一部を含む、複数の既知の深度マップを選択することと、
    複数の既知の深度マップを物体の所望のビューに適応し、所望のビュー内の各ピクセルについて、所望のビューの対応する融合深度マップ要素を、前記ピクセルに対応している複数の適応された深度マップ要素の最小深度マップ値で初期化することと、
    大きさにおいて融合深度マップに対応する支持行列の要素をゼロに設定することと、
    大きさにおいて融合深度マップに対応する次の深度マップ候補の要素を無限大に設定することと、
    複数の既知の深度マップそれぞれについて、
    既知の深度マップを物体の所望のビューに適応すること、および
    物体の所望のビュー内の各ピクセルについて、
    前記ピクセルにおける最小深度マップ値行列要素を、各前記ピクセルにおいて適応された深度マップ値の最小値で初期化すること、
    前記ピクセルの最小深度マップ値行列要素が対応するピクセルの融合深度マップ値以下の場合、支持行列の対応する要素を1だけ減じること、および
    前記ピクセルの最小深度マップ値行列要素が対応するピクセルの融合深度マップ値より大きい場合、
    ピクセルの次の深度マップ候補を、次の深度マップ値候補と、ピクセルに対応する最小深度マップ値行列要素との最小値に設定すること、および
    適応された深度マップがピクセルを通過する場合、ピクセルに対応する支持行列要素を1だけ増加することと、
    所望のビュー内の各ピクセルについて、
    ピクセルの支持行列の値がゼロより大きい場合、該ピクセルにおける融合深度マップ値を次の深度マップ候補の対応する要素に等しく設定すること
    とを含む方法。
  7. 支持行列の要素をゼロに設定する段階から、ピクセルにおける融合深度マップ値を次の深度マップ候補の対応する要素に等しく設定する段階を、複数の既知の深度マップの数をnとして、n−1回繰り返す、請求項に記載の方法。
  8. 物体のビューの融合深度マップを計算するためのシステムであって:
    物体の新たなビューについてカメラ較正データを獲得する計測装置と、
    新たなビューのカメラ較正に基づいて、物体の新たなビューに物体の複数の既知の深度マップを適応させる統合装置と、
    物体の新たなビューの融合深度マップの深度マップ要素を計算するためのプロセッサと
    を備え、ここで前記深度マップ要素のそれぞれは物体の新たなビュー内のピクセルに対応し、また前記深度マップ要素のそれぞれは適応された深度マップ要素のセットのメジアン値を有し、それぞれが複数の適応された深度マップの1つのピクセルに対応し、
    プロセッサはさらに:
    物体の新たなビュー内の各ピクセルについて、該ピクセルに対応する新たなビューの融合深度マップの深度マップ要素を、ピクセルに対応する複数の適応された深度マップ要素の最小値に初期化する第1の初期化装置と、
    物体の新たなビューの領域内に定義される支持行列をゼロに初期化する第2の初期化装置と、
    次の深度マップ候補の要素を無限大に初期化する第3の初期化装置と、
    物体の新たなビューに適応された既知の深度マップそれぞれについて、および物体の新たなビュー内の各ピクセルについて、最小深度マップ値行列を、前記各ピクセルの最小深度マップ値で初期化する第四初期化装置と、
    ピクセルが適応された深度マップで塞がれている場合、該ピクセルにおける支持行列を1だけ減じる第1の計算プロセッサと、
    ピクセルが適応された深度マップにより塞がれていない場合、且つ該ピクセルの対応する最小深度マップ値行列要素が該ピクセルの次の深度マップ要素候補よりも小さい場合、該ピクセルにおける次の深度マップ候補の要素を対応する最小深度マップ値行列要素に設定する割り当て装置と、
    適応された深度マップがピクセルを通過している場合、該ピクセルにおける支持行列を1だけ増加させる第2の計算プロセッサと、
    対応する支持行列要素がゼロより大きい新たなビュー内の各ピクセルについて、新たなビューの融合深度マップ要素を対応する次の深度マップ値候補で更新する更新装置
    とを備えるシステム。
  9. 物体のビューの融合深度マップを決定するためのシステムであって:
    融合深度マップを決定するべき物体の所望のビューを選択する第1の選択装置と、
    それぞれが物体のビューの少なくとも一部を含む、複数の既知の深度マップを選択する第2の選択装置と、
    複数の既知の深度マップを物体の所望のビューに適応し、所望のビュー内の各ピクセルについて、所望のビューの対応する融合深度マップ要素を、前記ピクセルに対応している複数の適応された深度マップ要素の最小深度マップ値で初期化する第1の統合装置と、
    大きさについて融合深度マップに対応する支持行列の要素をゼロに設定する第1の初期化装置と、
    大きさについて融合深度マップに対応する次の深度マップ候補の要素を無限大に設定する第2の初期化装置と、
    複数の既知の深度マップそれぞれについて、
    既知の深度マップを物体の所望のビューに適応する第2の統合装置、および
    所望のビュー内のピクセルそれぞれについて、各前記ピクセルにおいて適応された深度マップの値に基づいて支持行列の対応する要素を更新する第2のプロセッサ、とを具備する第1のプロセッサと、
    所望のビュー内の各ピクセルについて、
    ピクセルの支持行列の値がゼロより大きい場合は、該ピクセルにおける融合深度マップ値を次の深度マップ候補の対応する要素に等しく設定する更新装置
    とを備えるシステム。
  10. 第2のプロセッサは:
    前記ピクセルにおける最小深度マップ値行列要素を、各前記ピクセルにおける適応された深度マップ値の最小値で初期化する第3初期化装置と、
    前記ピクセルにおける最小深度マップ値行列要素が対応するピクセルにおける融合深度マップ値以下の場合、支持行列の対応する要素を1だけ減じる第1の計算プロセッサと、
    前記ピクセルにおける最小深度マップ値行列要素が対応するピクセルにおける融合深度マップ値より大きい場合、前記ピクセルに対応する次の深度マップ候補および支持行列要素を更新する第3のプロセッサ
    とを備える請求項に記載のシステム。
  11. プロセッサは:
    ピクセルにおける次の深度マップ値候補を、次の深度マップ値候補と、該ピクセルに対応する最小深度マップ値行列要素との最小値に設定する割り当て装置と、
    適応された深度マップがピクセルを通過する場合は、ピクセルに対応する支持行列要素を1だけ増加させる第2の計算プロセッサと
    を備える請求項10に記載のシステム。
  12. 複数の既知の深度マップの数をnとすると、第1初期化装置、第2初期化装置、第1プロセッサ、および更新装置それぞれの作用がn−1回繰り返される、請求項に記載のシステム。
  13. 物体のビューの融合深度マップを決定するためのシステムであって:
    融合深度マップを決定するべき物体の所望のビューを選択する第1の選択装置と、
    それぞれが物体のビューの少なくとも一部を含む、複数の既知の深度マップを選択する第2の選択装置と、
    複数の既知の深度マップを物体の所望のビューに適応し、所望のビュー内の各ピクセルについて、所望のビューの対応する融合深度マップ要素を、前記ピクセルに対応している複数の適応された深度マップ要素の最小深度マップ値で初期化する第1の統合装置と、
    大きさにおいて融合深度マップに対応する支持行列の要素をゼロに設定する第1の初期化装置と、
    大きさにおいて融合深度マップに対応する次の深度マップ候補の要素を無限大に設定する第2の初期化装置と、
    複数の既知の深度マップそれぞれについて、
    既知の深度マップを物体の所望のビューに適応する第2の統合装置、および
    物体の所望のビュー内の各ピクセルについて、
    前記ピクセルにおける最小深度マップ値行列要素を、各前記ピクセルにおいて適応された深度マップ値の最小値で初期化する第3の初期化装置、
    前記ピクセルの最小深度マップ値行列要素が対応するピクセルにおける融合深度マップ値以下の場合、支持行列の対応する要素を1だけ減らす第1の計算プロセッサ、および
    前記ピクセルの最小深度マップ値行列要素が対応するピクセルにおける融合深度マップ値より大きい場合:
    ピクセルの次の深度マップ候補を、次の深度マップ値候補と、ピクセルに対応する最小深度マップ値行列要素との最小値に設定する割り当て装置、および
    適応された深度マップがピクセルを通過する場合、ピクセルに対応する支持行列要素を1だけ増加する第2の計算プロセッサ
    を具備する第3のプロセッサ
    を具備する第2のプロセッサ
    を具備する第1のプロセッサ、および
    所望のビュー内の各ピクセルについて、
    ピクセルの支持行列の値がゼロより大きい場合、該ピクセルにおける融合深度マップ値を次の深度マップ候補の対応する要素に等しく設定する更新装置
    を具備する第4のプロセッサ
    とを含むシステム。
  14. 複数の既知の深度マップの数をnとすると、第1初期装置から更新装置までのそれぞれの作用がn−1回繰り返される、請求項13に記載のシステム。
JP2002506562A 2000-06-28 2001-06-28 深度マップのメジアン値融合のためのシステムおよび方法 Expired - Fee Related JP4679033B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US21479100P 2000-06-28 2000-06-28
US09/891,238 US6868191B2 (en) 2000-06-28 2001-06-27 System and method for median fusion of depth maps
PCT/SE2001/001494 WO2002001502A2 (en) 2000-06-28 2001-06-28 System and method for median fusion of depth maps

Publications (2)

Publication Number Publication Date
JP2004502249A JP2004502249A (ja) 2004-01-22
JP4679033B2 true JP4679033B2 (ja) 2011-04-27

Family

ID=26909361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002506562A Expired - Fee Related JP4679033B2 (ja) 2000-06-28 2001-06-28 深度マップのメジアン値融合のためのシステムおよび方法

Country Status (7)

Country Link
US (1) US6868191B2 (ja)
EP (1) EP1303839B1 (ja)
JP (1) JP4679033B2 (ja)
AT (1) ATE382177T1 (ja)
AU (1) AU2001266530A1 (ja)
DE (1) DE60132092D1 (ja)
WO (1) WO2002001502A2 (ja)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004066212A2 (en) * 2003-01-17 2004-08-05 Koninklijke Philips Electronics N.V. Full depth map acquisition
KR100528343B1 (ko) * 2003-07-14 2005-11-15 삼성전자주식회사 3차원 객체의 영상 기반 표현 및 편집 방법 및 장치
US8477135B2 (en) * 2006-05-31 2013-07-02 Koninklijke Philips Electronics N.V. Method and apparatus for volume rendering using depth weighted colorization
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
US10298834B2 (en) * 2006-12-01 2019-05-21 Google Llc Video refocusing
US8559705B2 (en) * 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
WO2009150597A2 (en) * 2008-06-12 2009-12-17 Spandan Choudury A non-virtual-3d- video/photo generator rendering relative physical proportions of image in display medium (and hence also of the display medium itself) the same as the relative proportions at the original real life location
WO2011033673A1 (ja) * 2009-09-18 2011-03-24 株式会社 東芝 画像処理装置
US8659592B2 (en) * 2009-09-24 2014-02-25 Shenzhen Tcl New Technology Ltd 2D to 3D video conversion
US8830300B2 (en) * 2010-03-11 2014-09-09 Dolby Laboratories Licensing Corporation Multiscalar stereo video format conversion
US8971641B2 (en) * 2010-12-16 2015-03-03 Microsoft Technology Licensing, Llc Spatial image index and associated updating functionality
JP5155462B2 (ja) * 2011-08-17 2013-03-06 株式会社スクウェア・エニックス・ホールディングス 動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体
US9191646B2 (en) 2011-08-29 2015-11-17 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
JP5307958B1 (ja) 2012-02-23 2013-10-02 株式会社スクウェア・エニックス・ホールディングス 動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体
WO2013153787A1 (ja) * 2012-04-12 2013-10-17 株式会社スクウェア・エニックス・ホールディングス 動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体
US8462155B1 (en) 2012-05-01 2013-06-11 Google Inc. Merging three-dimensional models based on confidence scores
US9607424B2 (en) 2012-06-26 2017-03-28 Lytro, Inc. Depth-assigned content for depth-enhanced pictures
US10129524B2 (en) 2012-06-26 2018-11-13 Google Llc Depth-assigned content for depth-enhanced virtual reality images
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
WO2014056150A1 (en) * 2012-10-09 2014-04-17 Nokia Corporation Method and apparatus for video coding
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
US9424650B2 (en) * 2013-06-12 2016-08-23 Disney Enterprises, Inc. Sensor fusion for depth estimation
DE102013110615B3 (de) * 2013-09-26 2014-11-27 Sick Ag 3D-Kamera nach dem Stereoskopieprinzip und Verfahren zum Erfassen von Tiefenkarten
EP3040941B1 (en) * 2014-12-29 2017-08-02 Dassault Systèmes Method for calibrating a depth camera
CN105812649B (zh) * 2014-12-31 2019-03-29 联想(北京)有限公司 一种摄像方法和装置
CN104539934A (zh) * 2015-01-05 2015-04-22 京东方科技集团股份有限公司 图像采集装置和图像处理方法、系统
US10404969B2 (en) * 2015-01-20 2019-09-03 Qualcomm Incorporated Method and apparatus for multiple technology depth map acquisition and fusion
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10672186B2 (en) 2015-06-30 2020-06-02 Mapillary Ab Method in constructing a model of a scenery and device therefor
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
US9639945B2 (en) 2015-08-27 2017-05-02 Lytro, Inc. Depth-based application of image effects
CN105374019B (zh) * 2015-09-30 2018-06-19 华为技术有限公司 一种多深度图融合方法及装置
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
US10349032B2 (en) * 2016-09-30 2019-07-09 Veoneer Us, Inc. Vehicle occupant head positioning system
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
EP3474185B1 (en) * 2017-10-18 2023-06-28 Dassault Systèmes Classification of 2d images according to types of 3d arrangement
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
CN110895822B (zh) * 2018-09-13 2023-09-01 虹软科技股份有限公司 深度数据处理系统的操作方法
EP4285325A1 (en) * 2021-01-28 2023-12-06 Visionary Machines Ptd Ltd Systems and methods for combining multiple depth maps

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996029678A1 (en) * 1995-03-22 1996-09-26 Idt International Digital Technologies Deutschland Gmbh Method and apparatus for depth modelling and providing depth information of moving objects
US6084979A (en) * 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
US6052124A (en) * 1997-02-03 2000-04-18 Yissum Research Development Company System and method for directly estimating three-dimensional structure of objects in a scene and camera motion from three two-dimensional views of the scene
US6046763A (en) 1997-04-11 2000-04-04 Nec Research Institute, Inc. Maximum flow method for stereo correspondence
EP0928460B1 (en) 1997-07-29 2003-01-29 Philips Electronics N.V. Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system
JP4056154B2 (ja) * 1997-12-30 2008-03-05 三星電子株式会社 2次元連続映像の3次元映像変換装置及び方法並びに3次元映像の後処理方法
JP2881193B1 (ja) * 1998-03-02 1999-04-12 防衛庁技術研究本部長 3次元物体認識装置および方法
US6504569B1 (en) * 1998-04-22 2003-01-07 Grass Valley (U.S.), Inc. 2-D extended image generation from 3-D data extracted from a video sequence
US6266064B1 (en) * 1998-05-29 2001-07-24 Microsoft Corporation Coherent visibility sorting and occlusion cycle detection for dynamic aggregate geometry
US6633664B1 (en) * 1999-05-11 2003-10-14 Nippon Telegraph And Telephone Corporation Three-dimensional structure acquisition method, apparatus and computer readable medium
FR2798761B1 (fr) 1999-09-17 2002-03-29 Thomson Multimedia Sa Procede de construction d'un modele de scene 3d par analyse de sequence d'images

Also Published As

Publication number Publication date
AU2001266530A1 (en) 2002-01-08
US6868191B2 (en) 2005-03-15
WO2002001502A2 (en) 2002-01-03
DE60132092D1 (de) 2008-02-07
JP2004502249A (ja) 2004-01-22
EP1303839A2 (en) 2003-04-23
ATE382177T1 (de) 2008-01-15
US20020015048A1 (en) 2002-02-07
WO2002001502A3 (en) 2002-06-27
EP1303839B1 (en) 2007-12-26

Similar Documents

Publication Publication Date Title
JP4679033B2 (ja) 深度マップのメジアン値融合のためのシステムおよび方法
JP4216824B2 (ja) 3次元モデル生成装置、3次元モデル生成方法および3次元モデル生成プログラム
JP4889182B2 (ja) ベイジアンフレームワークにおける仮説混合による深度マップの生成
KR101613721B1 (ko) 2d 이미지 시퀀스들로부터 3d 장면을 재구성하기 위한방법
JP5011168B2 (ja) 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US7643025B2 (en) Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
US8933965B2 (en) Method for calculating light source information and generating images combining real and virtual images
KR101560508B1 (ko) 3차원 이미지 모델 조정을 위한 방법 및 장치
JP3992629B2 (ja) 画像生成システム、画像生成装置、画像生成方法
CN113012293B (zh) 石刻模型构建方法、装置、设备及存储介质
US7528831B2 (en) Generation of texture maps for use in 3D computer graphics
WO2000036564A9 (en) Creating a three-dimensional model from two-dimensional images
JP2000067267A (ja) 三次元シーンにおける形状及び模様の復元方法及び装置
JP2006065862A (ja) ビュー・モーフィング法の改良
US20220148207A1 (en) Processing of depth maps for images
JP2019128641A (ja) 画像処理装置、画像処理方法及びプログラム
CA2540538C (en) Stereoscopic imaging
CN114255285B (zh) 视频与城市信息模型三维场景融合方法、系统及存储介质
KR100837776B1 (ko) 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치 및그 방법
JP2001291116A (ja) 三次元画像生成装置および三次元画像生成方法、並びにプログラム提供媒体
CN113614791A (zh) 动态三维成像方法
CN111178501A (zh) 双循环对抗网络架构的优化方法、系统、电子设备及装置
JP2006300656A (ja) 画像計測方法、装置、プログラム及び記録媒体
CN108510578A (zh) 三维模型搭建方法、装置及电子设备
WO2023233575A1 (ja) 推定装置、学習装置、推定方法、学習方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110201

R150 Certificate of patent or registration of utility model

Ref document number: 4679033

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees