JPH10508396A - 合成画像の生成方法 - Google Patents
合成画像の生成方法Info
- Publication number
- JPH10508396A JPH10508396A JP8508524A JP50852496A JPH10508396A JP H10508396 A JPH10508396 A JP H10508396A JP 8508524 A JP8508524 A JP 8508524A JP 50852496 A JP50852496 A JP 50852496A JP H10508396 A JPH10508396 A JP H10508396A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vector
- scene
- key
- interpolation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0085—Motion estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0096—Synchronisation or controlling aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/005—Aspects relating to the "3D+depth" image format
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Generation (AREA)
Abstract
(57)【要約】
画像生成処理は、3Dシーンの関係する点の座標及び幾何学的変換の係数から直接的に、画像(Z,D)から次の画像への変化を表わす動きベクトルを計算することにより行われる。本発明は、時間的な内挿による単眼シーケンスの生成と、外挿によるステレオシーケンスとに関する。
Description
【発明の詳細な説明】
合成画像の生成方法
本発明は、合成画像を生成する方法に係り、特に、画像シーケンスを生成する
方法に関する。
本発明の分野は、コンピュータによる画像の生成の分野、即ち、従来のスクリ
ーン上に表示するための単眼画像、及び、仮想画像タイプのアプリケーションに
おいて浮き上がって見える表示用の両眼又はステレオ画像の合成である。
かかる方法の目的は、生成される画像シーケンスの計算コストを削減すること
である。
周知の方法において、必要とされる計算量は、表示されるべき3Dシーンをモ
デリングする構造データに基づく2D画像の準備を可能にさせるレンダリングア
ルゴリズムにより処理された情報要素の時間及び空間域で均一になされた制限に
よって削減される。従って、計算コストの減少が、かくして生成されたシーンの
写実性に害を与えることは避けられない。
従来周知の計算コストの削減の次の段階は、レンダリングアルゴリズムに基づ
いて計算される唯一の画像であるキー画像から中間画像を再生する時間的な内挿
である。かかる画像の生成は、一般的に、上記画像を用いて一つの画像から次の
画像に計算された速度ベクトルの利用に基づいているので、画像の画素の変位の
評価に基づいている。
画像の単純な繰り返し、或いは、空間/時間フィルタリング演算のような一層
の複雑さを必然的に伴う方法の何れであろうとも、上記全ての内挿の場合に、ジ
ャーキングとエコーの影響がある。上記影響は、シーン内の対象の個々の動き、
又は、観察点の動きの何れもが考慮されていないことから生じる。従って、時間
的な内挿は、
必ずしも良質ではない“評価された”画像を生成する。
本発明は上記合成画像の劣化の低減を目的とする。
このため、本発明によれば、表示されるべき3Dシーンをモデリングし、3D
シーンの点の座標の計算が可能である構造データと、視点に対するシーンの見え
方の相対的な変化を表わし、構造データ及びレンダリングアルゴリズムに基づい
て、上記視点から見えるシーンを表わす2D画像が生成される上記点に関係した
幾何学的変換の係数の計算が可能である上記シーンの変化に関するデータとから
合成画像を生成する方法であって、上記2D画像の各点には、3D画像の対応す
る点と、視点に対する3Dシーンの対応する点の見え方の変化に起因した上記画
像の点の変位を表わす動きベクトルとが関係し、生成された画像の上記動きベク
トルは、第1の画像に基づいて少なくとも一つの別の2D画像の生成にそれらを
使用するため3Dシーンの関係した点の座標及び係数に基づいて計算され、次い
で、生成された画像が表示スクリーン上に表わされることを特徴とする方法が提
案される。
更に、本発明の目的は、時間的な内挿に対する逆の見え方の速度ベクトル場、
又は、画像の立体視の対を生成する画像の外挿に対する不同(disparity)ベクト
ルを使用することである。本発明の目的は、更に、外挿及び内挿ベクトルに基づ
いてステレオシーケンスを生成することである。
従って、本発明は、単眼シーケンス及びステレオシーケンスの生成に関する。
本発明によって得られる利点には、画像、或いは、単眼又はステレオ画像のシ
ーケンスを計算するコストの減少と、ステレオ画像に対する時間的な内挿又は空
間的な外挿ベクトルのより信頼性が高く、かつ、より単純な計算を用いて改善さ
れた画質、即ち、シーンの高い写実性と、最終又は最初の画像に基づいて内挿を
得るため、出現、消失するゾーンの管理と、3Dシーンの対応する点から観察点
ま
での距離の関数としての内挿ベクトルの投影の衝突の管理と、一つのチャンネル
の外挿ベクトルに基づく二つのステレオチャンネルの一方の生成とがある。
要約すると、先行技術の場合、最初に、少なくとも二つの連続的なキー2D画
像がレンダリングアルゴリズムを用いて生成され、次いで、中間画像が上記キー
画像の中の二つの間で内挿によって計算される。これにより、二つの画像の特徴
的な点を互いに対応させる際に重大な困難さが伴う。一方、本発明は、レンダリ
ングアルゴリズムによって得られたキー画像と、3Dシーンの変化(回転、並進
移動、焦点の変化)を定義するデータに基づいて直接計算された動きベクトルと
からの付加的な画像の生成を提案する。
本発明の他の特徴及び利点は、その例に限定されることなく、添付図面を参照
した以下の説明から更に明らかになるであろう。添付図面において:
−図1は単眼画像のシーケンスの生成のアルゴリズムを表わし、
−図2はキー画像K(t)の見え方の速度ベクトルのマップを表わし、
−図3は3Dシーンの点の焦平面への投影を表わし、
−図4は速度ベクトルの場の取得を可能にさせる“画像”の重ね合わせを表わ
し、
−図5は時間的な内挿の計算のアルゴリズムを表わし、
−図6は速度ベクトルの中間画像への投影を表わし、
−図7は中間画像上への投影の衝突を表わし、
−図8は“出現”及び“消失”ゾーンの分類を表わし、
−図9はステレオシーケンスを表わし、
−図10はステレオシーケンスの生成のアルゴリズムを表わし、
−図11は右側チャンネルのキー画像のマークされたゾーンを表わし、
−図12は不同ベクトルの判定を表わしている。
図1のブロック図には、単眼動画像のシーケンスの場合における画像合成の加
速アルゴリズムが示されている。
アルゴリズムの入力1で得られる動画像のシーケンスの対象である3Dシーン
に属する利用されたデータは、モデルを形成する3Dシーンの構造と、運動学的
な値とに関する情報要素である。
ステップ2において、情報要素は、キー画像として知られているシーケンスの
限定された数の画像を生成するためレンダリングアルゴリズムによって処理され
る。ステップ3において、シーンの運動学的な値に関するデータに関する動画の
パラメータと、ステップ2の間に生成されたキー画像とに基づいて速度及び距離
ベクトルのマップが計算される。これにより、キー画像K(t)の各画素(i,
j)に、前のキー画像K(t−N)から今のキー画像K(t)までの上記画素の
変位に対応する見え方の速度ベクトルV+(i,j,t)と、今のキー画像K(
t)から画像K(t+N)までの上記画素の変位に対応する見え方の速度ベクト
ルV-(i,j,t)、又は、より厳密には上記動きベクトルの逆とが割り当て
られる。上記速度ベクトルは、二つの連続的なキー画像の間の時間間隔中に一つ
の画像から次の画像に準えられる。
図2には、キー画像K(t)のベクトルマップを表わす見え方の速度ベクトル
V+及びV-の二つの場の定義が示されている。上記ベクトルは、時間の単位が二
つのキー画像間の間隔であるならば、二つのキー画像間の見え方の変位に対応す
る。ベクトル場V-(t)は、次のキー画像K(t+N)からキー画像K(t)
までのキー画像K(t)の全画素の変位を表わし、ベクトル場V+(t)は、前
のキー画像K(t−N)からキー画像K(t)までのキー画像K(t)の全画素
の変位を表わしている。
各画素に対し、このステップは、更に、3Dシーン内の対応する点からそのシ
ーンが見られる点、即ち、シーンを撮影すると仮定された仮想カメラまでの距離
を計算する。この値は、隠れた要素の場
合、考慮したカメラに最も近い要素であるので、シーンとカメラの間の画素によ
って画成された方向の最小距離を表わす。キー画像の生成法が、各画素に対する
上記最小距離を表わす値の記憶によって画像平面内の3D情報の投影を管理する
Zバッファ法(depth buffer)タイプの方法に基づいているとき、上記値は画像生
成ステップ2からも得られる。この場合、距離マップはステップ2から直接得ら
れる。
*見え方の速度の計算
次のステップ4に進む前に、キー画像の各画素の見え方の速度の計算方法を以
下に説明する。
見え方の速度、即ち、そこから3Dシーンが見える点に対する画像平面内の画
像の画素の変位の速度は、3Dシーンのモデルに基づいて計算される。
理論的に、見え方の動き(2Dモーション)は、カメラの焦平面(画像平面)
上の実際の動き(3Dモーション)の投影である。画像合成に最も一般的に使用
される投影モデルは、平面投影モデル(ピンホールタイプの透視投影)である。
他の投影モデルが使用された場合、動きの計算の定式化をそれに従って適合さ
せることが必要である。
ピンホールモデルを定義するため、以下の点及びパラメータが図3に示されて
いる:
P 3D画像が投影される投影面
(O,x,y,z) 時点tにおける投影基準(中心Oと、軸
Ox,Oy,Oz)
f 投影面に対応する“焦点距離”、即ち、投
影中心Oと投影面Pの間の距離
M(X,Y,Z) 基準系(o,x,y,z)内で座標X,Y,
Zを有する3D空間の点
m(x,y) 投影面Pが軸ozに垂直であると想定され
た場合の投影面内のMの投影
C 原基準系に対し座標が(x,y)である点
m(x,y)に対し原基準系を定める平面
P内の中心Oの投影された点
上記投影モデルの基本的な関係は:
であり、基準系(O,x,y,z)において:
に一致する。
1次の定式化は以下の通りである:
動きベクトル(dx,dy)は、投影の中心に対するシーンの点Mの変位(d
X,dY,dZ)の関数及び焦点距離の変化dfの関数として、各画素に対し求
められる。
以下の式(式1):
は微分によって得られ、距離Zは距離のマップに基づいて各画素に対し分かって
いる。
動画情報要素、即ち、シーンの運動学的な値に属する情報要素に基づいて、間
隔dtの間に3Dシーンの点Moの幾何学的変換(Rdt,Tdt)が分かっている
ならば、以下の式:
のように表わすことが可能であり、式中:
を表わす。上記式を展開することにより:
が得られる。
上記値を(式1)に入れることにより:
本発明によれば、(dx,dy)の組は、(レンダリングアルゴリズムによっ
て生成された)上記画像から他の画像を生成し得るため2D画像の各点(x,y
)と関係する動きベクトルを表わす。各点のx及びy座標に基づく動きベクトル
の計算のため利用される係数は、表示されるべきシーン内の対応する点の変化(
回転、並進、焦点距離の変化)を定義するデータから得られる。上記係数は視点
に対するシーンの相対的な見え方を表わす。これは、シーンの要素が相互に変化
し得るだけではなく、カメラの相対的な位置がシーンに対し変化し得る場合の相
対的な見え方の変化である。
変化は、通常、連続的な画像シーケンスの生成に対し時間的に生じるが、特別
の場合には、変化は、二つの別個の視点から見られる
全く同一の時点に対応する二つの画像の生成に対し空間的であることが分かる。
従って、動きベクトル(dx,dy)は、互いに非常に相違した二つの可能な用
法がある。上記二つの用法は組み合わせてもよい。第1の用法では、“速度ベク
トル”と呼ばれ、第2の用法では、“不同ベクトル”と呼ばれる。
上記式から、dx及びdyは、9個の項:
に分割され、それらの線形結合からなることが分かる。
定数である第1の項を除いて、上記9個の項は、(最初の6個の項に対し)画
像内で全体的に定められる方法、或いは、観察されたシーンの関数(1/Zの項
)としての何れかで空間的に変化する。
以下の表には係数が記載されている:
最初の6個の項(1乃至6)の組は、シーンに対するカメラの回転/ズームの
影響の見え方の動きへの寄与を表わしている。実際に、
点Mが固定している場合を想定すると、カメラの回転をシミュレートする投影基
準系Ox,Oy,Ozの回転は、投影された点m(x,y)のx,y座標を変更
する。同様に、カメラの焦点距離をシミュレートする投影の中心Oと投影面Pの
間の焦点距離fの変更は、固定した画像の点M(X,Y,Z)の投影された点m
のx,y座標を変更する。
動きベクトルdx,dyの成分は上記式から各点に対し計算される。
動きベクトルdx,dyの成分は、一般的な画像処理方法によっても計算でき
る:x,y座標の点からなる画像を生成し、各点に“輝度”の値と、“色”の値
を割り当てることが可能である。例えば、輝度の値は、回転/ズームの寄与(表
の項1乃至6)を表わし、一方、色は項7乃至9の寄与を表わしている。総合的
な画像処理方法により、全てのx,yの点に対し動きベクトルの値の総合的な計
算を行うことが可能である。
かくして、回転/ズームの影響を寄与を評価するため、その輝度がi,x,y
,x2,y2及びxyの稠密な関数である6枚の画像の間で上記の表に対応する重
み付け演算との線形結合を行うことが可能である。
かかる処理は図4に示されている。
上記表の中の最後の三つの項(7乃至9)は、シーンとカメラの間の3D並進
の場合、非零である。この場合、以下に説明するように、表示されるべき3Dシ
ーンの各点に関係した距離情報を利用することが必要である。
移動するカメラによって観察された静止したシーンの場合、Tx、Ty及びTz
の値は、シーンの全ての点に対し一定であり、かつ、投影基準の並進移動を表わ
し、投影面Pは投影基準に結合されていると考えられる。
上記並進運動の見え方の動きの場への寄与を得るため、その輝度
た上記画像信号の線形結合を行うことが必要である。
ファと呼ぶ距離のメモリに格納された情報に基づいて得られる。
夫々乗算することにより得られる。
シーンが動的な場合、Tx、Ty及びTzの値は、シーンの点に対し、もはや一
定ではなく、シーンの3Dモデルに基づく画像合成が必要である。3D並進場を
シーンの点に割り当てるステップを行ない、上記3D並進運動を画像平面に投影
するステップを後に続ける必要がある。この目的のため、ピークの空間内の個別
の並進運動を表わす“色”が、シーンの各ピークに割り当てられる。上記ピーク
情報のシーン全体への伝播は、例えば、“グロー(Gouraud)”タイプのアルゴリ
ズムを用いることにより、対象の表面上で色の線形補間によって近似される。
り当てられた上記“色”情報は、最初に、レンダリングアルゴリズムに類似した
画像合成投影アルゴリズムを用いて画像平面に投影される。次いで、上記信号は
、項7乃至9を得るため、
重み付けされる。
見え方の速度ベクトル率の構成項の値を有する画像の組合せによって、キー画
像の速度ベクトルが演繹される。これは、時間の間隔dtが二つのキー画像の間
にあるならば行われる。時間の間隔が
ないならば、二つのキー画像の間の動きは直線的であり、かつ、一定速度である
ことを仮定することにより、上記間隔に対応する計算を常に行うことが可能であ
る。ベクトルは、この時点tと、ベクトルV-に対する時点t+dtと、ベクト
ルV+に対する時点t−dtとの3Dシーンを考慮して、キー画像K(t)の画
素に割り当てられる。ベクトルV+の場合、キー画像K(t)の画素に対応する
シーンの各点に使用されるのは、時点t−dtから時点tまで進行させることを
可能にさせる幾何学的変換である。
図1のアルゴリズムをもう一度参照する。ステップ3の後に続く時間的内挿ス
テップ4を以下詳細に説明する。時間的内挿ステップによって、二つの画像の間
で見えない中間画像の生成が可能になる。ステップ5において、上記中間画像は
、画像の単眼シーケンスを得るため、ステップ2で生成されたキー画像の間に挿
入される。
図5において、時間的内挿に関係する図1のステップ4の詳細な図がステップ
4a乃至4eに示されている。ステップ4aにおいて、再構成される中間画像が
定められる。I(t−n)と呼ばれるこの画像は、K(t)及びK(t−N)と
呼ばれる二つのキー画像の間にある。
ステップ4bにおいて、定義された中間画像及びキー画像K(t−N)に関し
それらの反対の方向にキー画像K(t)の速度ベクトルV+(t)の投影が行わ
れ、定義された中間画像及びキー画像K(t)に関しそれらの反対の方向にキー
画像K(t−N)の速度ベクトルV-(t−N)の投影が行われる。図6におい
て、画像K(t−N)の画像点P1と、キー画像K(t)の画像点P2に対する
投影が示されている。
投影されたベクトルV-及びV+、即ち、11及び12に対応する中間画像の画
素は、画像が画素のグリッド上で定義された投影点に最も近い画素である。
かくして、N INT(ニアリスト インテジャー)が最も近い
整数の値を示し、空間的なサンプリンググリッドの点に対応するならば:
が得られる。
I1、I2、P1及びP2はグリット上の点の座標であり、V-及びV+は速度
ベクトルの率である。
ステップ4bは、更に、上記投影中に、衝突の管理を行う。
二つのベクトル場V+(t)及びV-(t−N)は組織的に走査される。二つの
著しく相違した速度ベクトルが全く同一の点I(t−n)のIに投影されたとき
、衝突が生じる。衝突は、特に、背景に対し(相対的に)変位した前景内に細か
い対象が有る場合、生じる。従って、対象が前景にある場合、カメラに最も近い
対象に対応するベクトルを選択することが必要である。カメラからの距離に関す
る情報は、キー画像の各画素で分かっているので、投影された各速度ベクトルと
関係付けられる。最小の距離情報(Z)を有するベクトルは、かくして選択され
、同一の内挿点に将来の衝突があるとしても解決するために、この距離情報が点
Iに格納される。図7の例では、対象AはBよりもカメラの近くにある(Z(A
)<Z(B))。従って、Iで実際に投影されるのは、値D(A)である。
上記二つのベクトルの場が完全に走査されたとき、投影された速度ベクトルを
伴うことなく、I(t−n)の画素が残される可能性がある。近くに投影された
ベクトルの内挿によって、速度ベクトルが割り当てられる。
次いで、ステップ4cにおいて、内挿された画素の分類が行われる。
中間画像I(t−n)の画素は、二つのキー画像K(t−N)と
K(t)内で見える(即ち、“標準”画素)、K(t−N)で見え、K(t)で
マスクされる(“消失”画素)、或いは、逆に、K(t−N)でマスクされ、K
(t)で見える(“出現”画素)の何れであるかに依存して、三つのクラスに分
割される。画素I(t−n)のラベリングは2段階で行われる:
− V+(t)及びV-(t−N)のK(t−N)及びK(t)夫々へのそのパ
スに沿った逆方向の投影によるキー画像のラベリング:図8に示したように、投
影されたベクトルのない画素(“ホール”)は、K(t−N)(消失画素)に対
しマスクされたゾーン(図8aのZd)と、K(t)(出現画素)に対しマスク
されていないゾーン(図8bのZa)とに対応する(前景及び移動する背景内の
固定した対象を例としている)。
− ベクトルがI(t−n)に実際に投影されたゾーンK(t)及びK(t−
N)のラベルの試験による中間画像のラベリングが目的とされる。これにより、
“出現”及び“消失”ラベルは中間画像上に投影される。
次のステップ4dにおいて、中間画像の画素Iの輝度値が、Iに対し選択され
た投影ベクトルに対応する画像K(t−N)及びK(t)の画素P及びSの輝度
値の内挿によって計算される。
輝度に関して:
I=α×P+(I−α)×S
であり、式中、αは以下の値:
をとる。
n及びNは、K(t)の前のn番目の中間画像が想定され、キー画像K(t)
及びK(t−N)は(N−1)枚の中間画像によって分離されることによって定
められる。
Iが“出現(アペアリング)”のようにラベリングされたとき、
α=0である。
Iが“消失(バニシング)”のようにラベリングされたとき、α=1である。
最終的に、最後のステップ4eにおいて、内挿誤差の管理が行われる。
低コスト、高速合成の応用において、レンダリングアルゴリズムを使用しない
限り、内挿誤差があるにしても予測することは不可能である。上記誤差は、速度
ベクトルの場のホールを充填するため必要とされたゾーン内で第一に予測し得る
。これにより、変位及び構造に基づいて、使用された簡単なモデルの失敗が生じ
る。上記不確実性のあるゾーンは、そのV+(t)及びV-(t−N)が一致して
いない中間画像の全ての画素に拡大することが可能である。誤差の評価されたマ
スクは、そこから演繹され、レンダリングアルゴリズムは対応する画素を合成す
るため適用される。
上記方法及び計算は、両眼又はステレオ的なシーケンスの画像の生成にも利用
される。
図9には、左側シーケンス及び右側シーケンスのため生成されたキー画像と中
間画像が示され、上記二つのステレオチャンネルによって、表示を浮き上がって
見せることが可能になる。
例えば、左側シーケンスの生成は、上記のような単眼シーケンスの発生と同一
である。同図において、二つの中間画像は黒で表わされた二つの連続的なキー画
像の間で内挿され、計算時間の増加は、左側の画像に対し3の割合である。右側
シーケンスのキー画像は、垂直方向にハッチングされている。かかる画像は、以
下に説明するように、左側シーケンスのキー画像から外挿され、中間画像は上記
新しいキー画像に基づいて計算される。外挿に対応する時間が、左側チャンネル
のキー画像の生成を可能にさせるレンダリングアルゴリズムの実行のための時間
と比較して無視できるならば、計算時間の増加は、ここに示された例の場合、6
の割合に対応する。
外挿によって合成画像の両眼シーケンスの生成を加速する方法を図10の概要
図を用いて説明する。
3Dシーンモデルのデータ及びその運動学的値を入力11で使用することによ
り、この場合、ステップ12において、計算は、単眼シーケンスの生成のため、
図1のステップ2及び3と同じ方法で、キー画像と、単眼シーケンス、例えば、
左側シーケンスに対する上記画像に対応する見え方の速度ベクトル及び距離の場
とを利用する。従って、特に、キー画像の生成のためのレンダリングアルゴリズ
ムが利用される。
ステップ13において、ステップ12で計算されたデータと、入力11で得ら
れた3Dモデルのデータが、不同ベクトルと呼ばれるベクトルの計算を行うため
処理される。
3Dシーンの実際の点は、右側画像と左側画像とで異なる座標を有する点に投
影される。実際、右側画像に使用された投影の中心O’は、左側画像に使用され
た投影の中心Oに対しオフセットしている。かかるオフセットは、投影の中心O
に対する静止3Dシーンの見え方のオフセットに対応している。これこそが、ス
テレオ効果を生じ、左側画像の座標ig、jgを有する各画素に対し、右側画像の
座標id、jdを有する画素が対応している。不同ベクトルは、座標ig、jgを有
する画素の方向への座標id、jdを有する画素の並進である。それは、元の画像
の各画素に割り当てられた投影点の変位中に画像の変化を表わす動きベクトルで
ある。
換言すれば、左側シーケンスのキー画像に割り当てられた両眼不同ベクトルD
(ig,jg)は、3Dシーンの同一の実際の点を二つの2Dのビューに対応付け
る。不同ベクトルによって、右側キー画像を左側キー画像から外挿することが可
能になる。
上記不同ベクトルの計算は、上記の如く、見え方の速度ベクトルから非常に簡
単に得られる。
実際上、不同ベクトルは、ステレオ効果を得るため同一の3D
シーンの二つのビューに異なる角度で対応する。
上記二つのビューは、固定し、即ち、静止している3Dシーンの見え方の変位
に対応する。かかる変位は二つの視点に対応する。
かくして、上記方法によれば、単眼シーケンスのキー画像の速度ベクトルの計
算中に上記変位を受けた静止したシーンに対し見え方の速度ベクトルを計算する
ことで十分である。上記速度ベクトルは、左側画像に基づいて右側画像の計算を
可能にさせる仮想速度ベクトルである。上記画像は、全く同一の時点tに対応し
、実際の速度ベクトルの場合のように別の時点には対応しない。従って、時点t
で全ての画像点の不同ベクトルを計算することが可能である。
キー画像に対する全ての不同ベクトルは不同場を形成する。かかる場及び対応
するキー画像とに基づいて、不同−補償された外挿がステップ14で行われる。
左側画像Ig(t)と、この画像の不同場D(t)とからの右側画像Id(t)
の外挿を図11を参照して説明する。
Ig(t)の各画素は、画像Id(t)上で不同ベクトルの逆方向に投影される
。衝突がある場合、即ち、Ig(t)の中の幾つかの画素が全く同一の点に投影
された場合、カメラに最も近い画素の選択は、上記の如く、単眼画像の生成と関
連して行われる。キー画像と関係した距離マップによって、このような選択が行
われる。
図11に示したように、投影が到達しない画像Id(t)の画素は、通常、Id
(t)に表われ、Ig(t)でマスクされたゾーンに対応する。それらの画素は
、ステップ15で、Ig(t)の生成を可能にさせたレンダリングアルゴリズム
によって計算される。これらの再生された画素は、ステップ16において、ステ
ップ14で得られた画像に追加される。
かくして得られた右側シーケンスのキー画像に、ステップ17で計算された速
度ベクトルマップが追加される。二つの連続的な右側キー画像Id(t−N)と
Id(t)の間の速度ベクトル場Vd
(t)は、図12に表わされた関係:
Vg(t)−Vd(t)+D(t−N)−D(t)=0
によって、二つの連続的な左側キー画像Ig(t−N)とIg(t)の間の速度ベ
クトル場Vg(t)と、上記キー画像の単眼不同フィールドD(t−N)とD(
t)とから導かれる。
実際上、画素の不同性が一つのキー画像と他のキー画像との間で僅かに変化す
る場合を想定すると、不同ベクトルによって右側及び左側ビューに対応させられ
た二つの点の見え方の速度は略等しい。かくして、右側キー画像の速度ベクトル
及び距離ベクトルのマップは、左側画像のベクトルのマップ及びその不同場から
得られる。
次いで、ステップ18において、上記の方法に従って時間的内挿が行われる。
この内挿は、左側チャンネルに関しステップ19においても行われるので、ステ
ップ20において、かくして生成された上記画像をキー画像と並置することによ
って、シーケンスがステレオ的に得られる。
変位の値を定めるため使用された計算方法は、一例として与えられたものに過
ぎない。
従って、二つの時点t及びt+dtのシーンをモデリングするデータに基づい
て、速度ベクトルを同様に適切に計算することが可能である。
─────────────────────────────────────────────────────
フロントページの続き
(72)発明者 デュズ,ジャン−クリストフ
フランス国,92402 クールベボワ・セデ
ックス,ベペ 329,トムソン―セエスエ
フ エスセペイ
(72)発明者 ボルデ,フィリップ
フランス国,92402 クールベボワ・セデ
ックス,ベペ 329,トムソン―セエスエ
フ エスセペイ
Claims (1)
- 【特許請求の範囲】 1. 表示されるべき3Dシーンをモデリングし、上記3Dシーンの点の座標の 計算が可能である構造データと、視点(1,11)に対する上記シーンの見え方 の相対的変化を表わし、上記構造データ及びレンダリングアルゴリズム(2,1 2)に基づいて上記視点から見えるシーンを表わす2D画像が生成される上記点 に関係した幾何学的変換の係数の計算が可能である上記シーンの変化を定めるデ ータとから合成画像を生成する方法であって: 上記2D画像の各点に、3D画像の対応する点と、上記視点に対し上記3Dシ ーンの対応する点の見え方の変位に起因した画像の上記点の変位を表わす動きベ クトルとが関係し、 上記画像の画素の上記生成された動きベクトル(3,13)は、上記第1の画 像に基づいて少なくとも一つの別の2D画像(4,14,18,19)を生成す る際にそれらを利用するため、上記3Dシーンの関係する点の座標及び係数に基 づいて計算され、 生成された画像は表示スクリーン上に表わされることを特徴とする方法。 2. 上記変化を定義するデータは、時間tに定義された静止したシーンの見え 方の変位に対応する上記3Dシーンの観察の視点の変化に基づくデータからなり 、 ステレオビュー(20)を形成するため、同一の時点tの上記シーンの第2の 視点に対応する第2の画像(14)は、上記レンダリングアルゴリズム(12) によって生成され時点tの上記シーンの視点に対応する基準画像と、不同ベクト ル(13)と呼ばれ上記データから計算された動きベクトルとに基づく空間的な 外挿によって計算されることを特徴とする請求項1記載の方法。 3. 上記変化を定義するデータは3Dシーンの時間的変化に関するデータより なり、 別個の時点に対応する中間画像(4)は、レンダリングアルゴリズムを用いて 生成され時点tの上記3Dシーンに対応する基準画像(2)と、速度ベクトル( 3)と呼ばれ上記データから計算された動きベクトルとに基づく時間的な内挿に よって計算されることを特徴とする請求項1記載の方法。 4. 単眼画像のシーケンス(5)は、上記3Dシーン及び時間的内挿によって 得られた中間画像(4)のレンダリングアルゴリズムと、上記キー画像及び上記 計算された速度ベクトル(3)とに基づいて構成されることを特徴とする請求項 3記載の方法。 5. 両眼シーケンス(20)は、上記レンダリングアルゴリズムに基づいて生 成されたキー画像(12)と、時間的な内挿によって形成された中間画像(19 )とによって構成された基準チャンネルと、 ステレオ効果を得るため、上記不同ベクトルに基づく上記基準チャンネルのキ ー画像の外挿によって形成されたキー画像(14)と、上記キー画像の時間的な 内挿によって形成された中間画像(18)とによって構成された複合チャンネル とからなることを特徴とする請求項2又は3記載の方法。 6. 上記複合チャンネルのキー画像の速度ベクトルは、上記基準チャンネルの 対応するキー画像の速度ベクトル及び不同ベクトルに基づいて計算されることを 特徴とする請求項5記載の方法。 7. 上記不同ベクトルによって対応して置かれていない上記複合された画像内 のゾーンは、レンダリングアルゴリズムによって生成 されることを特徴とする請求項2、5又は6のうちいずれか1項記載の方法。 8. その逆のベクトルがキー画像K(t)の各画素に対し上記画像から次のキ ー画像K(t+N)までの変位を定める第1の見え方の速度ベクトル場V-と、 前のキー画像K(t−N)から次のキー画像K(t)までの上記画素の変位を定 める第2の見え方の速度ベクトル場V+は、各キー画像K(t)に起因し、上記 ベクトルは、上記3Dシーンの構造及び変化に関係したデータと、上記キー画像 K(t)の各画素と関係した距離マップと、上記3Dの対応する可視点から上記 シーンが見える点までの距離とに基づいて計算され、 二つのキー画像K(t−N)とK(t)の間の内挿は、上記キー画像K(t) のベクトルV+の上記中間画像及び上記キー画像K(t−N)への逆投影と、上 記キー画像K(t−N)のベクトルV-の上記中間画像及び上記キー画像K(t )への逆投影とにより行われることを特徴とする請求項4記載の方法。 9. 二つの画像K(t−N)とK(t)の間の中間画像I(t−n)の時間的 な内挿中、上記画像K(t)のベクトルV+の間、又は、上記画像K(t−N) のベクトルV-の間の上記中間画像I(t−n)への投影の衝突、即ち、幾つか のベクトルの中間画像の全く同一のベクトルへの割り当ては、選択されたベクト ルとして、原点が最短距離を有するキー画像の画素を始点とするベクトルを選択 することにより解決され、 選択されなかったベクトルは上記中間画像の時間的な内挿に考慮されないこと を特徴とする請求項8記載の方法。 10. 二つの画像K(t−N)とK(t)の間の中間画像I(t−n)の時間 的な内挿中、第1のステップにおいて、各キー画像に 対し、上記画像K(t−N)の反転された見え方の速度ベクトルV-が向けられ ていないゾーン又は画素に対応する上記K(t)上の“出現”ゾーンと、上記画 像K(t)の逆の反転された見え方の速度ベクトルV+が向けられていないゾー ン又は画素に対応する上記K(t−N)上の“消失”ゾーンとを定義し、上記出 現ゾーンに到達するベクトルV+および上記消失ゾーンに到達するベクトルV-は 、上記ゾーンの関数としてラベリングされ、 第2のステップにおいて、出現及び消失としてラベリングされたベクトルV+ 及びV-の中間画像への投影に夫々対応するように中間画像の出現及び消失ゾー ンを定義し、 第3のステップにおいて、上記中間画像の上記時間的な内挿に上記ゾーンを使 用することを特徴とする請求項8又は9記載の方法。 11. 上記中間画像I(t−n)の出現及び消失ゾーンは、上記キー画像K( t)の対応する出現ゾーン及び上記キー画像K(t−n)の対応する消失ゾーン に基づいて、夫々に排他的に生成され、 それ以外の所謂“ノーマル”ゾーンはK(t−N)及びK(t)の両方に対応 するゾーンを考慮することにより内挿されることを特徴とする請求項10記載の 方法。 12. 内挿誤差の管理は、上記ベクトルV+とV-が一致しない上記中間画像の ゾーンに対応する上記内挿誤差の評価されたマスクを用いて行われることを特徴 とする請求項8乃至11のうちいずれか1項記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR9410413A FR2724033B1 (fr) | 1994-08-30 | 1994-08-30 | Procede de generation d'image de synthese |
FR94/10413 | 1994-08-30 | ||
PCT/FR1995/001019 WO1996007162A1 (fr) | 1994-08-30 | 1995-07-28 | Procede de generation d'image de synthese |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10508396A true JPH10508396A (ja) | 1998-08-18 |
Family
ID=9466560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8508524A Pending JPH10508396A (ja) | 1994-08-30 | 1995-07-28 | 合成画像の生成方法 |
Country Status (9)
Country | Link |
---|---|
US (1) | US6031538A (ja) |
EP (1) | EP0725957B1 (ja) |
JP (1) | JPH10508396A (ja) |
KR (1) | KR960706149A (ja) |
CN (1) | CN1150848A (ja) |
DE (1) | DE69515287T2 (ja) |
ES (1) | ES2146765T3 (ja) |
FR (1) | FR2724033B1 (ja) |
WO (1) | WO1996007162A1 (ja) |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100393185B1 (ko) * | 1996-12-20 | 2004-01-24 | 삼성전자주식회사 | 삼차원구조 데이터와 그래픽스 오브젝트의 합성장치 및 그 방법 |
JPH10224825A (ja) * | 1997-02-10 | 1998-08-21 | Canon Inc | 画像表示システム及び該システムにおける画像表示装置及び情報処理装置及びそれらの制御方法及び記憶媒体 |
JP4105788B2 (ja) * | 1997-11-14 | 2008-06-25 | 任天堂株式会社 | ビデオゲーム装置およびその記憶媒体 |
US6215499B1 (en) * | 1999-05-06 | 2001-04-10 | Phillips Petroleum Company | Method and apparatus for interactive curved surface seismic interpretation and visualization |
US6424464B1 (en) * | 1999-05-06 | 2002-07-23 | Phillips Petroleum Company | Method and apparatus for interactive curved surface seismic interpretation and visualization |
US6665117B2 (en) * | 1999-05-06 | 2003-12-16 | Conocophillips Company | Method and apparatus for interactive curved surface borehole interpretation and visualization |
CA2279797C (en) * | 1999-08-06 | 2010-01-05 | Demin Wang | A method for temporal interpolation of an image sequence using object-based image analysis |
US7236622B2 (en) * | 1999-08-25 | 2007-06-26 | Eastman Kodak Company | Method for forming a depth image |
JP2001252463A (ja) * | 2000-03-10 | 2001-09-18 | Konami Co Ltd | ゲーム装置、指定位置の判定方法、及び記録媒体並びにプログラム |
JP2001276420A (ja) * | 2000-03-30 | 2001-10-09 | Namco Ltd | ゲーム装置および情報記憶媒体 |
KR20010113210A (ko) * | 2000-06-17 | 2001-12-28 | 조병우 | 외곽선 및 특징점 검출을 이용한 3차원 영상처리 방법 및신호처리 장치 |
EP1185112B1 (en) * | 2000-08-25 | 2005-12-14 | Fuji Photo Film Co., Ltd. | Apparatus for parallax image capturing and parallax image processing |
US20020041339A1 (en) * | 2000-10-10 | 2002-04-11 | Klaus Diepold | Graphical representation of motion in still video images |
JP4011327B2 (ja) * | 2000-11-15 | 2007-11-21 | 株式会社レクサー・リサーチ | 表示オブジェクト提供装置、表示オブジェクト提供方式及び表示オブジェクト提供プログラム |
FI109633B (fi) * | 2001-01-24 | 2002-09-13 | Gamecluster Ltd Oy | Menetelmä videokuvan pakkauksen nopeuttamiseksi ja/tai sen laadun parantamiseksi |
FR2837597A1 (fr) * | 2002-03-25 | 2003-09-26 | Thomson Licensing Sa | Procede de modelisation d'une scene 3d |
EP1353518A1 (en) * | 2002-04-09 | 2003-10-15 | STMicroelectronics S.r.l. | Process and system for generating stereoscopic images from monocular images |
CA2380105A1 (en) * | 2002-04-09 | 2003-10-09 | Nicholas Routhier | Process and system for encoding and playback of stereoscopic video sequences |
JP4053490B2 (ja) * | 2003-03-25 | 2008-02-27 | 株式会社東芝 | フレーム補間のための補間画像作成方法及びこれを用いた画像表示システム、補間画像作成装置 |
DE60325954D1 (de) * | 2003-07-07 | 2009-03-12 | St Microelectronics Srl | Graphisches System mit einer Graphikdatenpipeline, Verfahren zur Pipeline-Verarbeitung und Computerprogrammprodukt |
FR2864878B1 (fr) * | 2004-01-06 | 2006-04-14 | Thomson Licensing Sa | Procede et systeme de determination du deplacement d'un pixel, et support d'enregistrement pour la mise en oeuvre du procede |
US7983835B2 (en) | 2004-11-03 | 2011-07-19 | Lagassey Paul J | Modular intelligent transportation system |
JP4516536B2 (ja) * | 2005-03-09 | 2010-08-04 | 富士フイルム株式会社 | 動画生成装置、動画生成方法、及びプログラム |
KR101423915B1 (ko) * | 2006-04-21 | 2014-07-29 | 삼성전자주식회사 | 3차원 그래픽을 이용한 온스크린 디스플레이 생성 방법 및장치 |
JP4403173B2 (ja) * | 2006-12-22 | 2010-01-20 | 富士フイルム株式会社 | 立体表示用ファイルの生成方法および装置並びに表示制御方法および装置 |
US8508550B1 (en) * | 2008-06-10 | 2013-08-13 | Pixar | Selective rendering of objects |
WO2010025458A1 (en) * | 2008-08-31 | 2010-03-04 | Mitsubishi Digital Electronics America, Inc. | Transforming 3d video content to match viewer position |
JP5450200B2 (ja) | 2009-07-17 | 2014-03-26 | 富士フイルム株式会社 | 撮像装置、方法およびプログラム |
US9380292B2 (en) | 2009-07-31 | 2016-06-28 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene |
US20110025830A1 (en) * | 2009-07-31 | 2011-02-03 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation |
US8508580B2 (en) * | 2009-07-31 | 2013-08-13 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for creating three-dimensional (3D) images of a scene |
JP4660618B1 (ja) * | 2009-09-16 | 2011-03-30 | 株式会社東芝 | 映像処理装置、映像表示システム、及び映像表示方法 |
US10095953B2 (en) | 2009-11-11 | 2018-10-09 | Disney Enterprises, Inc. | Depth modification for display applications |
US8711204B2 (en) * | 2009-11-11 | 2014-04-29 | Disney Enterprises, Inc. | Stereoscopic editing for video production, post-production and display adaptation |
US9445072B2 (en) | 2009-11-11 | 2016-09-13 | Disney Enterprises, Inc. | Synthesizing views based on image domain warping |
US8446461B2 (en) * | 2010-07-23 | 2013-05-21 | Superd Co. Ltd. | Three-dimensional (3D) display method and system |
KR101666019B1 (ko) * | 2010-08-03 | 2016-10-14 | 삼성전자주식회사 | 외삽 뷰 생성을 위한 장치 및 방법 |
WO2012061549A2 (en) | 2010-11-03 | 2012-05-10 | 3Dmedia Corporation | Methods, systems, and computer program products for creating three-dimensional video sequences |
US10200671B2 (en) | 2010-12-27 | 2019-02-05 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
US8274552B2 (en) | 2010-12-27 | 2012-09-25 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
WO2012092246A2 (en) | 2010-12-27 | 2012-07-05 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation |
CN102034248B (zh) * | 2010-12-31 | 2012-08-22 | 浙江大学 | 单目图像序列的运动分割和3d表达方法 |
RU2562759C2 (ru) * | 2011-01-07 | 2015-09-10 | Сони Компьютер Энтертейнмент Америка Ллк | Морфологическое сглаживание (мс) при повторном проецировании двухмерного изображения |
US9183670B2 (en) | 2011-01-07 | 2015-11-10 | Sony Computer Entertainment America, LLC | Multi-sample resolving of re-projection of two-dimensional image |
US9041774B2 (en) | 2011-01-07 | 2015-05-26 | Sony Computer Entertainment America, LLC | Dynamic adjustment of predetermined three-dimensional video settings based on scene content |
US8514225B2 (en) | 2011-01-07 | 2013-08-20 | Sony Computer Entertainment America Llc | Scaling pixel depth values of user-controlled virtual object in three-dimensional scene |
US8619094B2 (en) | 2011-01-07 | 2013-12-31 | Sony Computer Entertainment America Llc | Morphological anti-aliasing (MLAA) of a re-projection of a two-dimensional image |
US20140218488A1 (en) * | 2011-05-17 | 2014-08-07 | Max-Planck-Gesellschaft Zur Forderung Der Wissenschaften E.V | Methods and device for processing digital stereo image content |
US9571812B2 (en) | 2013-04-12 | 2017-02-14 | Disney Enterprises, Inc. | Signaling warp maps using a high efficiency video coding (HEVC) extension for 3D video coding |
EP3032828A4 (en) * | 2013-08-06 | 2016-12-14 | Sony Interactive Entertainment Inc | DEVICE FOR GENERATING THREE-DIMENSIONAL PICTURES, METHOD FOR GENERATING THREE-DIMENSIONAL PICTURES, PROGRAM AND INFORMATION MEMORY MEDIUM |
US20150113372A1 (en) * | 2013-10-18 | 2015-04-23 | Apple Inc. | Text and shape morphing in a presentation application |
CN112991211B (zh) * | 2021-03-12 | 2024-07-05 | 中国大恒(集团)有限公司北京图像视觉技术分公司 | 一种工业相机暗角校正方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4600919A (en) * | 1982-08-03 | 1986-07-15 | New York Institute Of Technology | Three dimensional animation |
CA2040273C (en) * | 1990-04-13 | 1995-07-18 | Kazu Horiuchi | Image displaying system |
KR950006045B1 (ko) * | 1990-05-21 | 1995-06-07 | 마쯔시다덴기산교 가부시기가이샤 | 움직임벡터검출장치 및 화상흔들림보정장치 |
EP0461577B1 (en) * | 1990-06-11 | 1998-12-02 | Hitachi, Ltd. | Apparatus for generating object motion path |
US5359703A (en) * | 1990-08-02 | 1994-10-25 | Xerox Corporation | Moving an object in a three-dimensional workspace |
US5513306A (en) * | 1990-08-09 | 1996-04-30 | Apple Computer, Inc. | Temporal event viewing and editing system |
US5390291A (en) * | 1990-10-05 | 1995-02-14 | Atlantic Richfield Company | Method for interpolating between two regions of a display |
US5301284A (en) * | 1991-01-16 | 1994-04-05 | Walker-Estes Corporation | Mixed-resolution, N-dimensional object space method and apparatus |
TW221312B (ja) * | 1991-06-27 | 1994-02-21 | Eastman Kodak Co | |
FR2695230B1 (fr) * | 1992-08-26 | 1994-11-04 | Cuadros Isabelle | Procédé de création d'images animées. |
US5432895A (en) * | 1992-10-01 | 1995-07-11 | University Corporation For Atmospheric Research | Virtual reality imaging system |
US5579455A (en) * | 1993-07-30 | 1996-11-26 | Apple Computer, Inc. | Rendering of 3D scenes on a display using hierarchical z-buffer visibility |
JP3052681B2 (ja) * | 1993-08-06 | 2000-06-19 | 松下電器産業株式会社 | 3次元動画像生成装置 |
JP3513219B2 (ja) * | 1994-07-12 | 2004-03-31 | キヤノン株式会社 | 対応点マッチング方法および装置 |
-
1994
- 1994-08-30 FR FR9410413A patent/FR2724033B1/fr not_active Expired - Fee Related
-
1995
- 1995-07-28 ES ES95926989T patent/ES2146765T3/es not_active Expired - Lifetime
- 1995-07-28 DE DE69515287T patent/DE69515287T2/de not_active Expired - Fee Related
- 1995-07-28 US US08/619,526 patent/US6031538A/en not_active Expired - Fee Related
- 1995-07-28 WO PCT/FR1995/001019 patent/WO1996007162A1/fr active IP Right Grant
- 1995-07-28 KR KR1019960702242A patent/KR960706149A/ko active IP Right Grant
- 1995-07-28 EP EP95926989A patent/EP0725957B1/fr not_active Expired - Lifetime
- 1995-07-28 JP JP8508524A patent/JPH10508396A/ja active Pending
- 1995-07-28 CN CN95190839A patent/CN1150848A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
ES2146765T3 (es) | 2000-08-16 |
FR2724033A1 (fr) | 1996-03-01 |
EP0725957A1 (fr) | 1996-08-14 |
DE69515287D1 (de) | 2000-04-06 |
EP0725957B1 (fr) | 2000-03-01 |
KR960706149A (ko) | 1996-11-08 |
CN1150848A (zh) | 1997-05-28 |
WO1996007162A1 (fr) | 1996-03-07 |
FR2724033B1 (fr) | 1997-01-03 |
DE69515287T2 (de) | 2000-09-21 |
US6031538A (en) | 2000-02-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH10508396A (ja) | 合成画像の生成方法 | |
EP1141893B1 (en) | System and method for creating 3d models from 2d sequential image data | |
US5613048A (en) | Three-dimensional image synthesis using view interpolation | |
US7528830B2 (en) | System and method for rendering 3-D images on a 3-D image display screen | |
JP4214976B2 (ja) | 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム | |
US6466207B1 (en) | Real-time image rendering with layered depth images | |
US8471898B2 (en) | Medial axis decomposition of 2D objects to synthesize binocular depth | |
EP1437898A1 (en) | Video filtering for stereo images | |
EP1550984A2 (en) | Integrating particle rendering and three-dimensional geometry rendering | |
JP2000215311A (ja) | 仮想視点画像生成方法およびその装置 | |
KR100517517B1 (ko) | 중간 시점 영상 합성 방법 및 그를 적용한 3d 디스플레이장치 | |
WO2006114898A1 (en) | 3d image generation and display system | |
JPH0749964A (ja) | 3次元動画像生成装置 | |
Miller et al. | Interactive free-viewpoint video | |
EP3935602B1 (en) | Processing of depth maps for images | |
JP3561446B2 (ja) | 画像生成方法及びその装置 | |
JP4214529B2 (ja) | 奥行き信号生成装置、奥行き信号生成プログラム、擬似立体画像生成装置、及び擬似立体画像生成プログラム | |
KR100381817B1 (ko) | 제트버퍼를 이용한 입체영상 생성방법 및 기록매체 | |
JP4370672B2 (ja) | 三次元画像生成装置および三次元画像生成方法、並びにプログラム提供媒体 | |
JP4214527B2 (ja) | 擬似立体画像生成装置及び擬似立体画像生成プログラム並びに擬似立体画像表示システム | |
JPH07200870A (ja) | 立体視用3次元画像生成装置 | |
US20030090485A1 (en) | Transition effects in three dimensional displays | |
JPH03296176A (ja) | 高速画像生成表示方法 | |
Makiguchi et al. | 21‐1: Reducing Image Quality Variation with Motion Parallax for Glassless 3D Screens using Linear Blending Technology | |
KR100272132B1 (ko) | 가상 세계 모델링 언어에 의해 표현된 영상의 입체화방법 및그 장치 |