JP2003323631A - 3dシーンのモデリング方法 - Google Patents

3dシーンのモデリング方法

Info

Publication number
JP2003323631A
JP2003323631A JP2003080969A JP2003080969A JP2003323631A JP 2003323631 A JP2003323631 A JP 2003323631A JP 2003080969 A JP2003080969 A JP 2003080969A JP 2003080969 A JP2003080969 A JP 2003080969A JP 2003323631 A JP2003323631 A JP 2003323631A
Authority
JP
Japan
Prior art keywords
image
depth
point
model
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003080969A
Other languages
English (en)
Other versions
JP4376532B2 (ja
Inventor
Philippe Robert
ロベール フィリップ
Yannick Nicolas
ニコラ ヤニック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2003323631A publication Critical patent/JP2003323631A/ja
Application granted granted Critical
Publication of JP4376532B2 publication Critical patent/JP4376532B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Generation (AREA)

Abstract

(57)【要約】 【課題】 1つの閾値のみを使用する従来のモデリング
方法の不利点を解決する方法を提供する。 【解決手段】 本発明の方法は、モデルを有効にするた
めに、モデル(2)に固有の近似によって生成される、
2D合成画像(4)上の最大許容歪み(5)を前もって
決定する段階と、基準画像(7)の点Iに対し、且つ、
点Iに対応する、シーンの3D点を表す合成画像のセッ
トに基いて、最大許容歪みに対応する、点Iの奥行きz
の最小奥行き値(z−Δzi )及び最大奥行き値
(z+Δ zi )を計算する段階と、合成画像のセッ
トに対し計算された値から、誤差Δ zi の最小値、及
び、誤差Δzi の最小値に依存する、点Iの奥行きz
の範囲を計算する段階とを含むことを特徴とする。本
発明は特に、画像の合成又はデータの圧縮のためのモデ
ルの構成に適用される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、3Dシーンモデリ
ング処理方法に係り、特に、合成画像における歪みの制
御を可能にする、平面を有する(plane faceted)3D
モデルによって3D物体をモデリングする又は近似する
方法に係る。
【0002】
【従来の技術】本発明は、奥行き画像を有する基準画像
に基いた、シーンの3Dモデルの構成を必要とする。
【0003】図1は、3D空間1における物体のサーフ
ェイスを表す。ファセット化(facetization)及び三角
測量によってこの物体を近似することによって、サーフ
ェイス2を有するモデルがもたらされる。合成画像は、
モデルを、視点6から平面4上に投影することにより得
られる。物体のサーフェイスからモデルのサーフェイス
への近似に起因する誤差3は、2Dの歪み5として合成
画像に現れる。図1は、平面による3D物体のサーフェ
イスの近似に起因する誤差は、合成画像においてその輪
郭の位置の誤差として現れることを示す。より一般的に
は、合成画像における物体の形状及びテクスチャの歪み
として現れ得る。
【0004】従来のタイプの3Dモデルは、3Dのファ
セット(facet)による再現である。奥行き画像のファ
セット化に対し、既知の方法がある。1つのスキーム
は、奥行き画像の最初の三角測量に基いた反復方法を必
要とする。この方法は、例えば、非特許文献1に記載さ
れる。
【0005】図2は、このような種類の「粗いから細か
い」タイプのインクリメンタルなファセット化を示す。
より正確には、図2(a)乃至2(d)は、連続する反
復に対応する。図2(a)は第1の反復であり、矩形画
像から2つの三角形を作成する。尚、ファセット化は、
最初のモデルを構成するために前もって多角形及び三角
形に分割された画像の1つの領域に限定することが可能
である。
【0006】各反復において、近似誤差画像が計算され
る。画像の全ての点で計算されるこの誤差は、画素の奥
行き値と、ファセット化による画素の近似値との差に対
応する。この誤差画像に基いて、最も劣悪に近似される
点が検出される。最も劣悪に近似される点とは、絶対値
で最大誤差を有する点である。この誤差は閾値と比較さ
れる。誤差が閾値以下の場合、ファセット化スキームは
終了する。誤差が閾値以上の場合、その対応する点は、
新しいファセットの頂点として導入され、その点が属す
るファセットは、次の反復のために、図2(b)に示す
ように3つの新しいファセットに分解されるか、又は、
その点が稜線に位置する場合は、図2(c)に示すよう
に、4つの新しいファセットに分解される。
【0007】最も劣悪に近似される点を用いるファセッ
ト化の既知の方法では、画像の全ての点に対し1つの閾
値が使用される。その結果、得られる品質は均一ではな
い。更に、モデリング費用、モデルを画成するのに必要
とする情報、又は、再現費用は、最低限必要な品質に対
し、少なくない。
【0008】
【非特許文献1】シン・チェン、フランシス・シュミッ
ト、「制限されたサーフェイス三角測量による適応間隔
データ近似」、IFIP、“コンピュータグラフィック
スにおけるモデリング」の運営会議、イタリア、ジェノ
バ、1993年7月、p.95−113(Xin CHEN, Fr
ancis SCHMITT, “Adaptive interval data approximat
ion by constrained surface triangulation”, IFIP,
Working conferenceon “Modelling in Computer Graph
ics”, Genova, Italy, July 1993, p. 95-113)
【発明が解決しようとする課題】本発明は上述した欠点
を解決することを目的とする。
【0009】
【課題を解決するための手段】本発明の主題は、モデル
を記述する近似奥行き画像を計算することにより、視点
に関連付けられる基準画像とオリジナルの奥行き画像に
基いて画成される3Dシーンをモデリングする方法であ
る。この方法は、以下の段階を含むことを特徴とする。
−モデルに固有の近似によって生成される、2D合成画
像上の最大許容歪みを前もって決定する段階と、−基準
画像の点Iに対し、且つ、点Iに対応する、3Dシーン
の3D点を表す合成画像のセットに基いて、最大許容歪
みに対応する、点Iの奥行きzの最小奥行き値(z
−Δzi )及び最大奥行き値(z+Δzi )を計
算する段階と、−合成画像のセットに対し計算された値
から、誤差Δzi の最小値、及び、誤差Δzi の最
小値に依存する、点Iの奥行きzの範囲を計算する段
階と、−基準画像の点Iに関連する、対応するモデルの
3D点の近似奥行きzappの関数として、反復によっ
て計算される近似奥行き画像が、点Iに対し計算された
範囲に属するか否かに依存して、近似奥行き画像を有効
にする段階。
【0010】特定の実施例では、本発明の方法は、合成
画像に対する、点Iの奥行きの最小値及び最大値の計算
は、合成画像における点Iに対応するエピポーラライン
を用いることによって行われ、最小値及び最大値は、最
大許容歪みに対応する距離に関連することを特徴とす
る。
【0011】特定の実施例では、モデルはエレメンタリ
領域のセットによって画成され、有効化段階において、
その奥行きが使用される3D点は、モデルのエレメンタ
リ領域の点であることを特徴とする。
【0012】特定の実施例では、エレメンタリ領域はフ
ァセットであり、反復による計算は、上記奥行き画像の
ファセット化であり、反復は、方法が、「粗いから細か
い」タイプ、又は、「細かいから粗い」タイプであるか
に依存して、モデルの新しい3Dファセット頂点の作
成、又は、モデルの3Dファセット頂点の削除を含むこ
とを特徴とする。
【0013】特定の特徴では、「粗いから細かい」タイ
プの方法では、反復は、1つのファセットに関連し、範
囲から外れる複数の近似値のうち、最も劣悪に近似され
る値の計算を含み、新しい3Dファセット頂点は、最も
劣悪に近似される値に対応する点に関することを特徴と
する。
【0014】特定の特徴では、誤差の計算が行われる合
成画像のセットは、基準画像を使用する視点のセットの
代表サンプルに対応する。
【0015】別の特定の特徴は、誤差の計算が行われる
合成画像のセットは、基準画像と共通の3D点の閾値よ
り大きい数を有する画像から構成されることである。
【0016】特定の実施例では、最大許容歪みは、画像
の特徴、例えば、輝度勾配の関数として前もって決定さ
れる。
【0017】本発明は更に、画像を生成する方法に係
り、この応報は、上述した方法によるシーンのモデリン
グに基いて、画像が生成されることを特徴とする。
【0018】本発明は更に、3Dシーンを画成するデー
タを圧縮する方法に係り、これらのデータは、レンディ
ションのための基準画像、及び、関連付けられる奥行き
画像に関連し、この方法は、奥行き画像は、請求項4の
方法によるファセット化によってモデリングされ、基準
画像、及び、奥行き画像に関連するデータは、ファセッ
トを画成するデータに置換されることを特徴とする。
【0019】本発明は更に、3Dシーンを画成するデー
タを圧縮する方法に係り、これらのデータは、レンディ
ションのための基準画像、及び、関連付けられる奥行き
画像に関連し、この方法は、請求項3のモデリング方法
によるモデリング段階を含み、モデルのエレメンタリ領
域は、奥行き画像を画像ブロックに分割することによっ
て画成され、近似奥行き画像の、反復による計算は、画
像ブロックの量子化ステップサイズを変更して、近似奥
行きである量子化された奥行きを与えることを含むこと
を特徴とする。
【0020】この方法の特定の実施例では、量子化ステ
ップサイズの変更は、1つのブロックに対し同一の量子
化奥行き値が得られるよう行われる。
【0021】各画素に適応され、補助的な手順によって
計算される可変閾値を使用することにより、得られる画
像画像の画質を制御することが可能となる。
【0022】本発明の原理は、モデルから合成される視
点を表すサンプルを用い、サンプルの様々な視点におい
て生じた歪みを制御しながらモデルの構成を行うことに
ある。より正確には、画像における歪みの最大固定値
が、全ての点において、3D物体の、そのモデルによる
近似の誤差について上限を決めることができる。従っ
て、本発明の方法は、レンディションの過程において生
じた歪み誤差を制御することを可能にする。
【0023】本発明は、ファセット化の結果得られる3
Dモデルの使用空間が既知であるとき、つまり、モデル
から生成される視点のセットが既知であるときに、或い
は、これらの視点の代表サンプルが既知であるときに、
可変閾値を正確に画成することを提案する。1つの視点
に対し、ファセット化手順によって作成される奥行き画
像の近似の誤差は、3Dモデルに持ち越され、一般的
に、モデルから合成される、他の視点に対する画像に、
2Dの幾何歪みとして現れる。
【0024】本発明は、再構成される画像の画質の損
失、ここでは、2Dの幾何歪み、を制御しながら、あま
り高価でない再現を得られるよう、奥行き画像の単純化
を可能にする。モデルの費用は減少される。
【0025】
【発明の実施の形態】本発明の他の特徴及び利点は、非
制限的な例により与えられ、添付図面と共に提供される
以下の説明から明らかとなろう。
【0026】図3は、3D物体のサーフェイスの近似の
誤差の結果生じる、合成画像における誤差を示す。この
近似は、基準画像7の奥行き画像のファセット化に対応
する。奥行き近似誤差3は、視点Jからの横方向の眺め
に対し、2Dの歪み誤差5として現れる。
【0027】考え方としては、既知の視点J又は任意に
決められる視点に対し、2D画像におけるこの歪み誤差
を考慮に入れることである。これらの視点の数量は、代
表サンプルに対応するよう十分でなくてはならない。最
大誤差は、2D画像のレベルにおいて決められ、これ
は、2D画像の歪みの最大許容値に対応する。
【0028】目的としては、歪みを制限しながら基準画
像7の奥行き画像をモデリングすることであり、この歪
みは、このモデリングが、視点Jに対する画像に生じさ
せるものである。このためには、基準画像7の全ての点
において、近似誤差を制限する最小値及び最大値を計算
し、それにより、画像Jに必要とされる画質を保証す
る。基準画像7の各点において、N個の対の最小値及び
最大値が計算される。これは、各点を見るN個の画像J
に対応する。次に、点の最終値の対が、N個の画像J全
体のレンディションの質を保証するよう計算される。
【0029】従って、基準画像7について、画像の各画
素に対し、最小奥行きに対応する最小値を有する画像
と、最大奥行きに対応する最大値を有する画像とが作成
される。これらの奥行きを超えると、視点Jのセットか
らの少なくとも1つの画像上に、許容値より大きい2D
の歪みが現れる。これらの閾値、即ち、実際の3Dの奥
行きと、最小値及び最大値との逸脱が、新しいファセッ
トの作成の決定に使用される。
【0030】基準画像7は、物体を特徴付けることを可
能にするのに十分であるよう数多くなければならない。
例えば、基準画像は、物体の様々な特徴、又は、より一
般的には、どのようなシーンであるのかを決めるため
に、物体の周りに割当てられるべきである。物体又はシ
ーンは、これらの基準視点によってのみ既知となる。
【0031】図4は、物体1の点Oの、視点Jに関連す
る選択画像4への投影Pと、視点Iに関連する基準画
像7への投影Pを示す。図4は、基準画像7又は再現
画像の点の、選択画像又はレンダリング画像4上への透
視投影8を示す。これは、再現における点Pの奥行き
における誤差と、点Pの再構成されるべき画像への投
影の結果として得られる点Pの2D位置における誤差
とを結びつける関係の計算が関連する。
【0032】(u,v)は、画像における点の座標であ
り、zはこの点に対する奥行き値、従って光学中心(I
又はJ)から物体Oまでの距離である。指数は、視点I
又はJとして見なされる画像に対応する。従って、画像
は画像I又は画像Jと称する。
【0033】点Pの座標(u,v,z)は、画
素P(u,v,z)の画像Jへの透視投影によ
り得られる。
【0034】式は以下の形式で書き表すことができる。
【数1】 係数a及びtは、2つの視点についての基準フレーム、
回転、平行移動、及び、カメラ固有のパラメータの変更
に関する数学演算に対応する。
【0035】図5は、画像Iの点Pの投影により生じ
る、画像Jにおける点Pを示す。この点は一般的に、
ターゲット画像Jの画素に対応しない。
【0036】実際の物体のモデルへの近似により、つま
り、基準画像における、(z+Δ zi)による奥行き
の近似により、投影点の位置に誤差が現れる。座標
(u ,v)を有するPは、実際の物体に基いた透
視投影であり、座標(u+ε,v+ε)を有す
るP´はモデルに基いた透視投影である。zは、点
の奥行きに対応し、z+εは、点P´の奥行
きに対応する。
【0037】(z+Δzi)によるzの近似と、レ
ンダリング画像におけるサーフェイスの歪みに対応する
投影された点(u+ε,v+ε)の位置におけ
る誤差との関係は、以下の式により与えられる。
【数2】 歪みが、観察者にとって支障でない限り、許容可能であ
ると考えると、値ε及びεにおいて、歪みが許容可
能である間隔を決めることができる。これは、言い換え
ると、奥行きzにおける許容可能な下限(z−Δ
zi)及び上限(z+Δ zi)を見つけることが可
能となる。これらの値は、上述の式から容易に推論する
ことができる。
【0038】空間における点、第1の画像への3D投影
は、エピポーララインと称する第1の画像の直線上にあ
り、第1の画像は、第2の画像への投影点と全く同一の
投影点を有することは既知である。このライン上の投影
点の位置は、視点から第2の画像までの奥行き、つま
り、値zに依存する。このラインは、図6に破線で示
す。
【0039】投影点の許容される位置誤差は、例えば、
図6において記号[ ]により表すことができ、ここ
で、投影点についての最大距離が画成される。例えば、
半画素以下の歪みがある場合、これらの位置は、画素間
の距離の半分に等しいε及びεの最大値、及び、対
応する負の値に対応する。これらの2つの制限値は、エ
ピポーラライン上の2点を画成し、その2点から、z
min(i,j)=(z−Δ zi)と、z
max(i,j)=(z zi)の値を計算でき
る。
【0040】従って、再現における各点Piは、画像J
に投影される。画像Jの再構成に各点Piは参加する。
基準画像の点Piは、各画像Jにおいて、対(zmin
(i,j),zmax(i,j))に関連付けられる点
Pjに対応する。値zmin(i,j)と値z
max(i,j)が、各画像Jに対し計算される。
【0041】これらの値のうち、複数の値z
min(i,j)から最大値z(i)が、複数の値z
max(i,j)から最小値z(i)が選択される。
点Pに対するz+ΔZiの値が、この範囲[z
(i),z(i)]内にある場合、画像Jが何であ
ろうと、そこから、画像Jセット全体の、点Iを表す画
素に関連する歪みは、所定の制限より少ないことを推論
することができ、それにより、全ての再構成画像の画質
制御が保証される。
【0042】ファセット化手順において、適応閾値が以
下のように用いられる:各画素の近似奥行き値zapp
(i)は、間隔[z(i),z(i)]への従属性
に関して試験される。全ての画素において、近似奥行き
値zapp(i)がこの間隔に属する場合、この奥行き
画像は、「よい近似」として見なされ、ファセット化ス
キームは停止される。一方で、近似奥行き値z
app(i)が、この間隔から外れる画素が存在する場
合、最も劣悪に近似される点Piが選択され、ファセッ
ト頂点として導入され、そして、反復スキームが続行さ
れる。
【0043】図7a及び図7bは、曲線を、直線セグメ
ントで近似する原理を説明するが、第1の場合では固定
閾値を用い、第2の場合では適応閾値を用いる。近似さ
れるべき曲線には参照符号9が付けられ、間隔、即ち、
閾値には参照符号10が付けられ、近似により得られる
曲線には、参照符号11が付けられる。
【0044】ファセットによりサーフェイスを近似する
場合は、この実例から容易に推定することができる。シ
ーンに対応するオリジナルの奥行き画像と、モデルに対
応する近似奥行き画像は、それぞれ、近似されるべき曲
線9と直線セグメント11と比較される。奥行き画像の
画素に割当てられる範囲は可変閾値10に対応する。
【0045】シーンを画成する3Dモデルは、例えば、
ファセットであるエレメンタリ領域に基いて記述され
る。最初の奥行き画像は、図2で説明したように反復に
よりファセット化され、近似奥行き画像、即ち、合成奥
行き画像が得られる。
【0046】反復は、例えば、以下の通りに行われる。
【0047】近似奥行き画像に基いて、3Dシーンのエ
レメンタリ領域、即ち、ファセットに関するこの奥行き
画像の各領域に対し、各画素の近似値が、各画素に割当
てられる範囲と比較される。例えば、複数のファセット
の頂点の奥行きからの補間により、周知の方法で計算さ
れる、近似奥行き画像の画素に割当てられる奥行きは、
シーンを記述するするオリジナルの奥行き画像の対応す
る画素の奥行きと比較される。画素の近似値が、割当て
られている範囲から外れる場合、その画素に対応する近
似誤差が計算される。次に、その近似値が範囲から外れ
る画素のうち、その誤差が最大であるものが選択され
る。そして、このエレメンタリ領域に対し、新しいファ
セット化が決められる。この処理は、このように、奥行
き画像の領域セットに対し続けられる。奥行き画像に行
われる反復は、近似奥行き画像において、全ての点が、
それらの点に割当てられる範囲内にある近似奥行きを有
すると、停止する。
【0048】適応閾値の利点は、特に、特定のカメラ動
作構成において現れる。例えば、カメラ動作がフロンタ
ルタイプの場合、カメラが向けられるゾーンのレリーフ
は、粗く近似することができる。同様に、カメラ動作が
回転の場合、奥行き情報は有用でなくなるので、間隔は
無限であり、そして、ファセットによる表示は最小で済
む。
【0049】適応閾値は、全ての投影点に対し固定の許
容最大歪み誤差に基いて、各点において決められる。こ
の歪み自体は、以下の点に応じて多少許容可能となる。
‐レンダリングされた画像における投影点が、2D物体
の輪郭上であるか、又は、中であるかに応じる。正確な
輪郭を保持することも重要であるが、内部の歪みは、例
えば、可視ではない。‐再現の画像上の点が、物体の幾
何学タイプに関しての特徴、例えば、正確に維持される
ことが望まれる線形に突出したエッジ、テクスチャライ
ズされたエッジ、又は、欠陥がほとんど見えない均等な
テクスチャの領域に位置しているかに応じる。
【0050】従って、許容された歪み自体は、そのよう
なファクタの関数として変化し得る。従って、ファセッ
ト化閾値は、例えば、各点について、対応する投影点に
最も近い画素に割当てられる最大歪み値を考慮に入れる
ことによって計算される。
【0051】この最大歪み値は、例えば、輝度勾配であ
る画像を決めるパラメータの関数として自動的に計算す
ることができる。
【0052】上述した、閾値を計算する方法は、1つ以
上の奥行き画像のモデリングのコンテキストにあり、結
果として得られるモデルは、一方で、情報を圧縮するの
に必要とされ、他方で、視点を合成し、そのレンディシ
ョンの質は制御することが望ましい。このコンテキスト
において、奥行き値の近似を含む、他のモードのモデリ
ングも、レンディションの質を制御するために適応閾値
に基いてもよい。ファセット化は、奥行き画像に関する
データを圧縮する手段である。従って、3Dシーンは、
各画素に割当てられる奥行き値に基づくのではなく、フ
ァセットを決めるデータに基いて決められる。空間的な
相関関係を利用する別の手段は、従来の方法で、画像の
画像ブロックへの分割、及び、画像ブロックの量子化後
に離散コサイン変換を行う。例えば、画像ブロックの全
ての点において、この近似が計算された下限及び上限に
適合する場合、その画像ブロックの全ての点を同一の奥
行き値に設定することにより、変換前に画像ブロックの
コンテンツを単純化することができる。
【0053】オリジナルの奥行き画像は、画像ブロック
に分割される。物体に投影される各ブロックは、エレメ
ンタリ領域を表す。モデルを画成するための奥行き画像
の近似は、ここでは、画像ブロックを構成する奥行き値
を量子化することにより行われる。量子化ステップサイ
ズは、例えば、反復の間に増加するよう選択され、量子
化された画像ブロックとオリジナル画像ブロックとの誤
差は、モデルへの近似を表す。奥行きが、画像ブロック
内における最大誤差に対応する、画素に関連する範囲
は、近似誤差と比較されて、次の反復が決められる。
【0054】図3を共に参照するに、図8は、それぞれ
単一の物体及び1つのファセット化されたモデルに必ず
しも制限されない、シーン及び関連付けられるモデルを
概括したものである。
【0055】本出願人が所有する「Process for constr
ucting a 3D scene model by analysis of image seque
nces」なる名称の仏国特許第2798761号は、モデ
ル構成のために選択された画素であり、一連の画像の画
像のマスクと奥行き画像に基いた3Dシーンの記述を説
明する。上述したファセット化をモデルの構成に適用す
ることが可能である。一連の画像に基いて構成され、2
D領域、奥行き画像、及び視点の位置を記述する2値マ
スクである3Dの再現は、基準画像に相当する。レンデ
ィションにおいて全く同一の領域を必要とする視点のリ
スト、つまり、全く同一の3D点と共通の画素を有する
画像に対応する視点のリスト、又は、リストが大きい場
合には、そのリストの当該のサブセットが、適応閾値の
計算に用いられる。
【0056】本発明は、「粗いから細かい」又は「細か
いから粗い」タイプのモデルの構成に、同等に関連す
る。
【0057】「粗いから細かい」タイプのモデルのイン
クリメンタルな構成は、最初の粗いモデルに基いて、モ
デリングされるべき物体の新しい3D点を各反復におい
て導入することによりそのモデルの構成を高めることに
ある。この手順の間、各反復にて、画像における最大歪
みを計算することにより、基準セットの各視点について
モデルの有効性を試験することができ、また、最大歪み
が閾値より大きい場合に、新しい3D点を導入すること
ができる。従って、この手順は、全ての基準視点が、全
ての点において、固定の閾値より少ない歪みを有する
と、停止される。視点の画像における歪みが、全ての点
において、閾値より小さくなると、その視点がもはや考
慮に入れられなくてよいようにすることが可能である。
【0058】「細かいから粗い」タイプのモデルのイン
クリメンタルな構成は、最大分解能を有するモデルに基
いて、モデルの質が許容可能である限り、点を取り除く
ことにある。このコンテキストにおいても、各反復にお
いて、所与の視点のそれぞれについて、モデルの有効性
を試験し、そして、各画像において視点からもたらされ
る歪みが閾値より小さい場合、その点を削除することが
可能である。従って、この手順は、点を削除することに
よって、少なくともN個の視点において固定の閾値より
大きい歪みがもたらすようになる停止される。
【0059】本発明は特に、画像の品質又はデータの圧
縮のためのモデルの構成に適用される。
【図面の簡単な説明】
【図1】3D空間におけるシーンとそのモデリングを示
す図である。
【図2】「粗いから細かい」タイプのファセット化を示
す図である。
【図3】物体のモデリングに起因する、合成画像におけ
る誤差を示す図である。
【図4】合成画像における、基準画像の点の透視投影を
示す図である。
【図5】実際のシーンから合成画像上に投影される点
と、モデルから合成画像上に投影される点を示す図であ
る。
【図6】投影点に関連するエピポーララインを示す図で
ある。
【図7a】固定閾値に基づく、セグメントによる曲線の
近似を示す図である。
【図7b】可変閾値に基づく、セグメントによる曲線の
近似を示す図である。
【図8】シーンのモデリングに起因する誤差を示す図で
ある。
【符号の説明】
1 3D空間 2 モデル 3 近似誤差 4 平面 5 2Dの歪み 6 視点 7 基準画像 8 透視投影 9 近似されるべき曲線 10 閾値 11 近似により得られる曲線
───────────────────────────────────────────────────── フロントページの続き (72)発明者 フィリップ ロベール フランス国 35235 トリニュ・フィヤー ル アレ・デュ・ブワ・ルウェ 7 (72)発明者 ヤニック ニコラ フランス国 22480 ケルペール ル・ゲ ルニュ(番地なし) Fターム(参考) 5B080 AA19 DA06 FA08 GA02 5C061 AA21 AB08

Claims (13)

    【特許請求の範囲】
  1. 【請求項1】 モデルを記述する近似奥行き画像を計算
    することにより、視点(I)に関連付けられる基準画像
    (7)、及び、オリジナルの奥行き画像に基いて画成さ
    れる3Dシーン(1)をモデリングする方法であって、 上記モデル(2)に固有の近似によって生成される、2
    D合成画像(4)上の最大許容歪み(5)を前もって決
    定する段階と、 上記基準画像(7)の点Iに対し、且つ、上記点Iに対
    応する、上記3Dシーンの3D点を表す上記合成画像
    (4)のセットに基いて、上記最大許容歪みに対応す
    る、上記点Iの奥行きzの最小奥行き値(z−Δ
    zi )及び最大奥行き値(z+Δzi )を計算す
    る段階と、 上記合成画像のセットに対し計算された値から、誤差Δ
    zi の最小値、及び、誤差Δzi の最小値に依存す
    る、上記点Iの奥行きzの範囲を計算する段階と、 上記基準画像の点Iに関連する、対応するモデルの3D
    点の近似奥行きzap の関数として、反復によって計
    算される近似奥行き画像が、上記点Iに対し計算された
    範囲に属するか否かに依存して、上記近似奥行き画像を
    有効にする段階とを含むことを特徴とする方法。
  2. 【請求項2】 上記合成画像(4)に対する、上記点I
    の奥行きの上記最小値及び上記最大値の計算は、上記合
    成画像における上記点Iに対応するエピポーララインを
    用いることによって行われ、上記最小値及び上記最大値
    は、上記最大許容歪みに対応する距離に関連することを
    特徴とする請求項1記載の方法。
  3. 【請求項3】 上記モデルはエレメンタリ領域のセット
    によって画成され、 上記有効化段階において、その奥行きが使用される上記
    3D点は、上記モデルのエレメンタリ領域の点であるこ
    とを特徴とする請求項1記載の方法。
  4. 【請求項4】 上記エレメンタリ領域はファセットであ
    り、 上記反復による計算は、上記奥行き画像のファセット化
    であり、 上記反復は、上記方法が、「粗いから細かい」タイプ、
    又は、「細かいから粗い」タイプであるかに依存して、
    上記モデルの新しい3Dファセット頂点の作成、又は、
    上記モデルの3Dファセット頂点の削除を含むことを特
    徴とする請求項3記載の方法。
  5. 【請求項5】 「粗いから細かい」タイプの方法では、
    上記反復は、1つのファセットに関連し、上記範囲から
    外れる複数の近似値のうち、最も劣悪に近似される値の
    計算を含み、 上記新しい3Dファセット頂点は、上記最も劣悪に近似
    される値に対応する点に関することを特徴とする請求項
    4記載の方法。
  6. 【請求項6】 上記誤差の計算が行われる上記合成画像
    (4)のセットは、上記基準画像(7)を使用する視点
    のセットの代表サンプルに対応することを特徴とする請
    求項1記載の方法。
  7. 【請求項7】 上記誤差の計算が行われる上記合成画像
    のセットは、上記基準画像と共通の3D点の閾値より大
    きい数を有する画像から構成されることを特徴とする請
    求項6記載の方法。
  8. 【請求項8】 上記最大許容歪みは、画像の特徴の関数
    として前もって決定されることを特徴とする請求項1記
    載の方法。
  9. 【請求項9】 上記画像の特徴は、輝度勾配であること
    を特徴とする請求項8記載の方法。
  10. 【請求項10】 請求項1の方法によるシーンのモデリ
    ングに基いて、画像が生成されることを特徴とする、画
    像生成方法。
  11. 【請求項11】 レンディションのための基準画像、及
    び、関連付けられる奥行き画像に関連し、3Dシーンを
    画成するデータを圧縮する方法であって、上記奥行き画
    像は、請求項4の方法によるファセット化によってモデ
    リングされ、 上記基準画像、及び、上記奥行き画像に関連する上記デ
    ータは、ファセットを画成するデータに置換されること
    を特徴とする方法。
  12. 【請求項12】 レンディションのための基準画像、及
    び、関連付けられる奥行き画像に関連し、3Dシーンを
    画成するデータを圧縮する方法であって、 請求項3のモデリング方法によるモデリング段階を含
    み、 上記モデルの上記エレメンタリ領域は、上記奥行き画像
    を画像ブロックに分割することによって画成され、 近似奥行き画像の、反復による計算は、上記画像ブロッ
    クの量子化ステップサイズを変更して、近似奥行きであ
    る量子化された奥行きを与えることを含むことを特徴と
    する方法。
  13. 【請求項13】 上記量子化ステップサイズの変更は、
    最大幅の量子化ステップサイズ、又は、ブロックに対し
    同一の量子化された奥行き値を得るための上記量子化ス
    テップサイズにおける増加であることを特徴とする請求
    項12記載の方法。
JP2003080969A 2002-03-25 2003-03-24 3dシーンのモデリング方法 Expired - Fee Related JP4376532B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0203663 2002-03-25
FR0203663A FR2837597A1 (fr) 2002-03-25 2002-03-25 Procede de modelisation d'une scene 3d

Publications (2)

Publication Number Publication Date
JP2003323631A true JP2003323631A (ja) 2003-11-14
JP4376532B2 JP4376532B2 (ja) 2009-12-02

Family

ID=27799215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003080969A Expired - Fee Related JP4376532B2 (ja) 2002-03-25 2003-03-24 3dシーンのモデリング方法

Country Status (6)

Country Link
US (1) US7113635B2 (ja)
EP (1) EP1349116B1 (ja)
JP (1) JP4376532B2 (ja)
KR (1) KR20030077985A (ja)
CN (1) CN100337252C (ja)
FR (1) FR2837597A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015033047A (ja) * 2013-08-05 2015-02-16 Kddi株式会社 複数カメラを用いた奥行き推定装置

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7161579B2 (en) 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US9682319B2 (en) 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
AU2003292490A1 (en) * 2003-01-17 2004-08-13 Koninklijke Philips Electronics N.V. Full depth map acquisition
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US8072470B2 (en) * 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US7660436B2 (en) * 2003-06-13 2010-02-09 Sarnoff Corporation Stereo-vision based imminent collision detection
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
KR100682935B1 (ko) * 2005-02-17 2007-02-15 삼성전자주식회사 데이터베이스의 비정상샘플 제거 방법 및 장치
US20060233461A1 (en) * 2005-04-19 2006-10-19 Honeywell International Inc. Systems and methods for transforming 2d image domain data into a 3d dense range map
EP2016559A2 (en) * 2006-05-05 2009-01-21 Thomson Licensing System and method for three-dimensional object reconstruction from two-dimensional images
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US20080158254A1 (en) * 2006-12-29 2008-07-03 Hong Jiang Using supplementary information of bounding boxes in multi-layer video composition
KR101483659B1 (ko) * 2008-07-11 2015-01-16 삼성디스플레이 주식회사 입체영상 표시방법, 이를 수행하기 위한 표시장치
KR101556593B1 (ko) * 2008-07-15 2015-10-02 삼성전자주식회사 영상 처리 방법
US8180167B2 (en) * 2008-07-16 2012-05-15 Seiko Epson Corporation Model-based error resilience in data communication
US8233664B2 (en) * 2008-11-12 2012-07-31 Eastman Kodak Company Determining relative depth of points in multiple videos
US8248410B2 (en) * 2008-12-09 2012-08-21 Seiko Epson Corporation Synthesizing detailed depth maps from images
US8194097B2 (en) * 2008-12-12 2012-06-05 Seiko Epson Corporation Virtual masking using rigid parametric modeling
US8705852B2 (en) 2011-01-27 2014-04-22 Samsung Electronics Co., Ltd. Image processing apparatus and method for defining distortion function for synthesized image of intermediate view
KR101332628B1 (ko) * 2011-11-23 2013-11-25 에스케이플래닛 주식회사 3차원 입체영상의 입체감 측정 장치 및 방법
WO2013077510A1 (ko) * 2011-11-23 2013-05-30 에스케이플래닛 주식회사 3차원 입체영상의 입체감, 안정성 또는 오류성 측정 장치 및 방법
EP2728306A1 (en) * 2012-11-05 2014-05-07 Hexagon Technology Center GmbH Method and device for determining three-dimensional coordinates of an object
CN104768018B (zh) * 2015-02-04 2016-09-21 浙江工商大学 一种基于深度图的快速视点预测方法
KR101768532B1 (ko) * 2016-06-08 2017-08-30 주식회사 맥스트 증강 현실을 이용한 화상 통화 시스템 및 방법
US11245888B2 (en) * 2018-03-19 2022-02-08 Ricoh Company, Ltd. Information processing apparatus, image capture apparatus, image processing system, and method of processing a plurality of captured images of a traveling surface where a moveable apparatus travels
CN108961404B (zh) * 2018-06-27 2022-02-08 衡阳师范学院 一种积木式构建不规则模型的方法和系统
CN113096254B (zh) * 2021-04-23 2023-09-22 北京百度网讯科技有限公司 目标物渲染方法及装置、计算机设备和介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69232403T2 (de) * 1991-08-06 2002-08-22 Canon K.K., Tokio/Tokyo Dreidimensionales Modellverarbeitungsverfahren und -gerät
FR2724033B1 (fr) * 1994-08-30 1997-01-03 Thomson Broadband Systems Procede de generation d'image de synthese
IL113496A (en) * 1995-04-25 1999-09-22 Cognitens Ltd Apparatus and method for recreating and manipulating a 3d object based on a 2d projection thereof
US5905500A (en) * 1997-02-19 1999-05-18 Seiko Epson Corporation Method and apparatus for adaptive nonlinear projective rendering
US6198486B1 (en) * 1998-09-23 2001-03-06 Intel Corporation Method of using a hybrid error metric for multi-resolution mesh generation
FR2798761B1 (fr) * 1999-09-17 2002-03-29 Thomson Multimedia Sa Procede de construction d'un modele de scene 3d par analyse de sequence d'images
JP3906615B2 (ja) * 1999-10-29 2007-04-18 株式会社明電舎 回帰的対応点探索方法、これを利用した三次元位置計測方法、これらの装置、並びに、記録媒体
JP4192377B2 (ja) * 1999-12-27 2008-12-10 コニカミノルタセンシング株式会社 三次元形状データのデータ削減方法及びデータ削減装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015033047A (ja) * 2013-08-05 2015-02-16 Kddi株式会社 複数カメラを用いた奥行き推定装置

Also Published As

Publication number Publication date
CN1447288A (zh) 2003-10-08
EP1349116A1 (en) 2003-10-01
KR20030077985A (ko) 2003-10-04
FR2837597A1 (fr) 2003-09-26
US20030179194A1 (en) 2003-09-25
JP4376532B2 (ja) 2009-12-02
CN100337252C (zh) 2007-09-12
US7113635B2 (en) 2006-09-26
EP1349116B1 (en) 2018-07-18

Similar Documents

Publication Publication Date Title
JP4376532B2 (ja) 3dシーンのモデリング方法
US7542034B2 (en) System and method for processing video images
EP1640915B1 (en) Method and system for providing a volumetric representation of a 3-dimensional object
KR100967701B1 (ko) 3차원 유화 데이터의 복원
JP2007305133A (ja) 3次元スキャンデータを使用して本来の設計意図を確認するためのシステム及び方法
JP2005038426A (ja) 映像基盤レンダリングおよび編集の方法ならびにその装置
JPH07121700A (ja) 画像データの表現方法および復元方法
CN101119442A (zh) 基于全景图拼接的视频编辑方法
CN110827408B (zh) 一种基于深度传感器的实时三维重建方法
Xu et al. Anisotropic denoising of 3D point clouds by aggregation of multiple surface-adaptive estimates
Na et al. Hierarchical retargetting of fine facial motions
KR20050063994A (ko) 경계셀 축소 방식을 이용하여 3차원 측정점들로부터 3차원메쉬를 생성하는 방법
Park Interactive 3D reconstruction from multiple images: A primitive-based approach
KR100265720B1 (ko) 2차원삼각형선격자모델을이용한동영상의움직임보상방법
Takai et al. Harmonised texture mapping
CN111028349B (zh) 一种适用于海量三维实景数据快速可视化的层级构建方法
CN110766117B (zh) 一种二维码的生成方法及系统
CN111199572B (zh) 基于连续简化的超大几何体实时渲染方法
Pintus et al. A Streaming Framework for Seamless Detailed Photo Blending on Massive Point Clouds.
JP4166646B2 (ja) デジタル画像の拡大補間方法、デジタル画像の圧縮方法、デジタル画像の復元方法、デジタル画像の拡大補間プログラムが記録された記録媒体、デジタル画像の圧縮プログラムが記録された記録媒体、デジタル画像の復元プログラムが記録された記録媒体
JP7040422B2 (ja) 動きベクトル生成装置、投影像生成装置、動きベクトル生成方法、およびプログラム
JPH11195139A (ja) 自由曲面生成装置および方法、並びに提供媒体
Rasmuson et al. User-guided 3D reconstruction using multi-view stereo
Zhang et al. Superpixel-based image inpainting with simple user guidance
JP7312040B2 (ja) テクスチャマッピング装置およびテクスチャマッピング用プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090127

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090427

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090501

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090825

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090909

R150 Certificate of patent or registration of utility model

Ref document number: 4376532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120918

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130918

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees