JP3579162B2 - 3D CG image generation device - Google Patents
3D CG image generation device Download PDFInfo
- Publication number
- JP3579162B2 JP3579162B2 JP720996A JP720996A JP3579162B2 JP 3579162 B2 JP3579162 B2 JP 3579162B2 JP 720996 A JP720996 A JP 720996A JP 720996 A JP720996 A JP 720996A JP 3579162 B2 JP3579162 B2 JP 3579162B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional
- camera
- unit
- observer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Processing Or Creating Images (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、3次元構造情報から生成した2次元画像を立体表示して立体視を可能とするための立体CG画像生成装置に関するものである。
【0002】
【従来の技術】
従来の立体CG画像生成装置は、例えば図10に示すようなものがある。これは、物体の3次元形状をサーフェスモデルで記述した3次元構造情報(物体を複数の小面(ポリゴン)で近似し、各ポリゴンに含まれる頂点の3次元位置と各ポリゴンにより合成される面、稜線を定義した情報)を入力とし、これで定義された物体をワールド座標系に配置する。これを仮想的なカメラで撮像した時にフイルムに投影される物体の2次元位置を投影変換部1,2で計算し、更にレンダリング部3,4で各ポリゴン内部の画像の輝度と色(例えば、R、G、Bの値)を物体の材質や光源の種類、3次元位置により決定する。
【0003】
例えば、図11(a)に示すような多面体の形状モデルは、図11(b)に示すように、頂点V1〜V8の3次元座標、形状モデルのデータ構造(面、稜線の構成)で記述され、この情報で記述される物体を図12(a)に示すようなワールド座標系に配置する。この時、カメラの視点Eから見た物体のスクリーン50に投影される像(頂点)を計算する。そして、各頂点により構成される面、稜線のスクリーン上での位置・輝度・色を計算して出力画像を得る。この時、立体画像であるので、少なくとも2視点での画像を計算する必要があるが、図12(b)で示されるように、カメラのパラメータは複数のカメラの間隔2Wc、カメラ CL、CR の視点位置、カメラの輻輳点Pの3次元座標、カメラの焦点距離f( または画角θ)を決定する必要がある。
【0004】
【発明が解決しようとする課題】
しかしながら、上記のような従来の立体CG画像生成装置では、複数のカメラパラメータは、視距離や画面の大きさにより変化させる必要があるにもかかわらず、生成された立体CG画像を観察しながら経験則にて、観察者が見易いと思われるように、CG制作者が調整していたため、調整が不適切で生成された立体CG画像が立体画像表示装置で表示された場合、立体CG画像の両眼視差(例えば左右画像の同じ頂点の水平位置の差を視角で表したもの)が観察者の許容範囲を越えてしまい、不自然で疲れやすい立体画像となる場合が多いという課題がある
。
【0005】
本発明は、従来のこのような立体CG画像生成装置の課題を考慮し、観察者にとってどのような視距離でも、どのような大きさの画面でも自動的に自然で見やすい立体画像を生成できる立体CG画像生成装置を提供することを目的とするものである。
【0006】
【課題を解決するための手段】
本発明は、物体の3次元形状を記述する3次元構造情報から、複数のカメラから見た時の複数の2次元投影画像を生成する投影変換部と、前記物体とカメラとの距離を生成する距離情報抽出部と、予め入力された、少なくとも前記物体の立体画像を表示するための立体画像表示装置のスクリーンサイズ及びそのスクリーンと観察者との視距離に基づいて、前記観察者の両眼融合範囲を算出する融合範囲算出手段と、その両眼融合範囲と前記距離情報抽出部の出力に基づいて、前記観察者の両眼融合範囲内に前記物体の全部が収まるようなカメラパラメータの組み合わせ条件を計算するカメラパラメータ計算手段と、そのカメラパラメータ計算手段の出力から前記カメラパラメータの条件を満たす範囲内でカメラパラメータを決定するためのカメラパラメータ決定部とを備え、前記投影変換部は、その決定されたカメラパラメータを利用して、前記複数の2次元投影画像を生成することを特徴とする立体CG画像生成装置である。
【0007】
また、本発明は、予め入力された、少なくとも物体の立体画像を表示するための立体画像表示装置のスクリーンサイズ及びそのスクリーンと観察者との視距離に基づいて、観察者の両眼融合範囲を融合範囲算出手段により算出し、カメラパラメータ計算手段が、その両眼融合範囲と距離情報抽出部により生成された物体とカメラとの距離に基づいて、観察者の両眼融合範囲内に物体の全部が収まるように、カメラパラメータの条件を計算し、CG制作者がカメラパラメータ決定部により、そのカメラパラメータ計算手段の出力からカメラパラメータを決定し、投影変換部が、その決定されたカメラパラメータを利用して、物体の3次元形状を記述する3次元構造情報から、複数のカメラから見た時の複数の2次元投影画像を生成する。
【0008】
また、本発明は、1つまたは複数の立体CG画像をウインドウ環境にて一度に表示する場合において、物体の3次元形状を記述する3次元構造情報から、複数のカメラから見た時の複数の2次元投影モデルを生成する投影変換部と、前記物体とカメラとの距離を生成する距離情報抽出部と、立体画像を表示している全てのウインドウの大きさ、表示しているコンピュータ画面の映像の解像度、または同期周波数の情報を検出するウインドウ情報管理部と、そのウインドウ情報管理部の出力から最終的に生成される2次元投影モデルを表示する立体画像表示装置のウインドウサイズを計算し、これと前期距離情報抽出部の出力、観察者の視距離から、観察者の両眼融合範囲内に立体CG画像を収めるためのカメラパラメータをそれぞれのウインドウに対して計算する融合範囲確認部と、その融合範囲確認部の出力を用いて最終的にそれぞれのウインドウに対応する立体画像のカメラパラメータを決定するカメラパラメータ決定部とを備え、前記投影変換部は、その決定されたカメラパラメータを利用して、前記複数の2次元投影画像を生成することを特徴とする立体CG画像生成装置である。
【0009】
【発明の実施の形態】
以下に、本発明をその実施の形態を示す図面に基づいて説明する。
【0010】
図1は、本発明の第1の実施の形態における立体CG画像生成装置の構成図を示すものである。図1において、1、2は投影変換部、3、4はレンダリング部であり、これらは従来の立体CG画像生成装置のものと同じものである。本実施の形態が従来の立体CG画像生成装置と異なる点は、距離情報抽出部5と融合範囲確認部11とカメラパラメータ決定部6と操作部12が追加されている点である。ここで、融合範囲確認部11は、融合範囲算出手段とカメラパラメータ計算手段とを含んでいる。
【0011】
以上のように構成された本実施の形態の立体CG画像生成装置について、以下その動作を説明する。
【0012】
まず、物体の3次元形状をサーフェスモデルで記述した3次元構造情報が投影変換部1、2と距離情報抽出部5に入力される。CG制作者は、レンダリング部3、4に接続された立体画像表示装置(図示省略)を見て出力画像を確認しながら、好みに合わせて被写体と仮想カメラ(左右カメラの位置の中点)をワールド座標系の適当な位置に配置し、その方向を決定する。左右のカメラ位置は、仮想カメラ位置Vを中心としてX軸方向に±Wc の位置に配置される(図2参照)。この時のカメラパラメータ(カメラ間隔Wc (ここのカメラ間隔とは、左右のカメラ間の距離の半分を言う。以下、特にことわらない限り同様とする)、焦点距離f、輻輳点までの距離dx:図3で後述)は、初期値として予め設定されてい るとする。
【0013】
次に、距離情報抽出部5は、被写体のうち、仮想カメラから最も近い点(近点N)、カメラから最も遠い点(遠点F)を抽出し、これのx、y座標を算出し、これらをN(XN,YN,ZN)、F(XF,YF,ZF)とする(図2参照)。この2点が両方、観察者の両眼融合範囲内に収まれば、良好な立体CG画像が得られることになる。この時、遠点・近点は、左右カメラ・仮想カメラからの距離を平均等して、総合して判定してもよい。
【0014】
次に、融合範囲確認部11は、近点N・遠点Fの3次元座標値と、予め入力された立体CG画像を観察する立体画像表示装置のスクリーンの大きさM、観察者の視距離dsを基に、カメラパラメータ(カメラ間隔Wc、カメラの焦点距離f、カメラの輻輳点と仮想カメラ位置Vの距離dx )の有効範囲(観察者が両眼融合できる範囲)を計算する。観察者空間のパラメータ定義は図3に示される。
【0015】
計算式は、
近点条件:
【0016】
【数1】
【0017】
遠点条件:
【0018】
【数2】
【0019】
である。ただし、2×ΔSは、立体画像表示スクリーン上における左右画像の位相差を示し、通常は2×ΔSは観察者の両眼間隔(60mm程度)に設定されることが多い。また、D−、D+は、それぞれ観察者が両眼融合できる最も近い点での両眼視差、最も遠い点での両眼視差である。また、焦点距離fとカメラの画角θには、一意な関係、
【0020】
【数3】
【0021】
があるので、どちらで定義しても良い。また、dx は、カメラの位置とカメラの向ける点の3次元位置を決定しても自動的に決定出来る。融合範囲確認部11は、これらの式を両方満足するカメラ間隔Wc 、カメラの焦点距離f、カメラの輻輳点Pと仮想カメラ位置Vの距離dxの組合せを全て計算することになる。
【0022】
次に、カメラパラメータ決定部6は、融合範囲確認部11により計算されたカメラパラメータの組合せの中で、どれを採用するかを決定する。
【0023】
決定方法は、例えば、
(1)CG制作者が操作部12を操作して出力画像を確認しながら、融合範囲確認部11が計算したカメラパラメータの組合せを色々試しながら選ぶ方法。
(2)CG制作者がカメラパラメータWc、f、dxのうちどれか1つをまず決定し、残りの2つのパラメータを操作部12を操作して、融合範囲確認部11が示すパラメータの組合せ((数1)、(数2)の式を満足する2つのパラメータの組合わせ)の中で自由に変化させて出力画像を確認しながら決定する方法。
(3)CG制作者がカメラパラメータWc、f、dxのうちどれか2つをまず決定し、残りの1つのパラメータを操作部12を操作して、融合範囲確認部11が示すパラメータの範囲((数1)、(数2)の式を満足する1つのパラメータの範囲)の中で自由に変化させて出力画像を確認しながら決定する方法。
のうち、どれかを採用する。以下、(1)〜(3)の手法例について更に詳しく説明する。
【0024】
(1)の場合、まず、操作部12に配された表示部に、図5(a)に示すように、観察者が両眼融合できるパラメータWc、f、dxの組合せの領域(有効領域)と、現在設定しているWc、f、dxを示すポインタ13が表示される。CG制作者は、3次元マウス等を用いて、このポインタの位置を設定する。この時、ポインタの位置によってWc、f、dxの値が変化するが、有効領域以外の領域には設定できないようになっている。そして、ポインタの示す座標でのパラメータがカメラパラメータ決定部6に出力され、出力の立体CG画像が投影変換部1,2、レンダリング部3,4により計算される。これを立体画像表示装置を用いて観察し、CG制作者は好みに合わせてポインタの位置を調節する。このようにすることにより、常に観察者の両眼融合範囲内に出力の立体CG画像が収まるように制御される。
【0025】
(2)、(3)の場合、操作パネル12aは、図5(b)に示すように、各パラメータを調節する3つのボリューム14、15、16と、各パラメータを固定する固定ボタン17、18、19で構成される。最初は、固定ボタンはOnされていないと仮定する。まずCG制作者は、出力の立体CG画像を観察しながら画角を考慮して、図5(b)の操作パネル12aに対して、カメラパラメータのうち焦点距離fをf0に決定する。ボリューム14をf0に合わせ、固定ボタン17を押す。これにより、パラメータfはf0に固定される。パラメータfが固定されると、融合範囲確認部11は残りのパラメータWc、dxのうち、(数1)、(数2)を満足する組み合わせを計算する。次にCG制作者はボリューム15、16を操作してパラメータWc、dxを色々変化させながら出力画像を確認する。この時、CG制作者が設定しようとするWc、dxの値のうち、(数1)、(数2)を満足する範囲のみ操作パネル12aでWc、dxを変化出来るように設定される。この時、固定ボタン18、19により、Wc、dxのどちらかを固定することも可能である。この場合、出力立体CG画像を確認しながら残された一つのパラメータのみを変化させることになる。このようにすることにより、常に観察者の両眼融合範囲内に出力立体CG画像が収まるように保ちながら、パラメータをひとつずつ決定していくことが出来る。
【0026】
以上の様にして決定されたカメラパラメータWc、f、dxを用いて投影変換部1,2は、左右のカメラで撮像した時にフイルムに投影される物体の2次元位置を計算し、更にレンダリング部3、4で各ポリゴン内部の画像の輝度と色を物体の材質や光源の種類、3次元位置により決定する。そして、最終的な左右眼用の立体CG画像を出力する。
【0027】
なお、本実施の形態では、カメラは輻輳撮影を行なうことを想定したが(図2で左右カメラ7、8が点Pに向いている)、図4に示すように左右カメラを平行に設置しても良い。この場合は、融合範囲確認部11は、被写体の遠点の3次元座標値は用いる必要はなく、
【0028】
【数4】
【0029】
で示される条件を満足するWcとfの組合せを計算するのみでよい(dxは∞に設定されるのと等価である)。
【0030】
また、本実施の形態では、観察者が両眼融合できる範囲の制限を(数1)、(数2)で与えたが、これの中のD−、D+もしくはこれに相当する奥行き距離をCG制作者が手動で与えても良い。
【0031】
また、本実施の形態では、カメラパラメータを一つのCG画像データを元に決定したが、動画の場合にも、それぞれの時刻でのCG画像データを用いてカメラパラメータを逐次決定することも可能である。また、ある所定の期間でのカメラパラメータのシーケンスを求めておき、これを記憶しておいて、同じ変化を有する立体カメラパラメータを用いて何度も同じシーンを再生することも可能である。
【0032】
以上の様に、本実施の形態によれば、カメラと被写体の距離情報と、生成された立体CG画像の表示装置における視差の大きさを表示装置の大きさと観察距離から計算し、これが観察者の両眼融合範囲に収まるかどうかを判断することにより、適切なカメラパラメータ(焦点距離または画角、カメラ間隔、輻輳点)を決定し、見やすい立体CG画像を自動的に得ることができる。
【0033】
図6は、本発明の第2の実施の形態における立体CG画像生成装置の構成図を示すものである。図6において、1、2は投影変換部、3、4はレンダリング部、6はカメラパラメータ決定部であり、これらは本発明の第1の実施の形態の立体CG画像生成装置のものと同じものである。本実施の形態が第1の実施の形態の立体CG画像生成装置と異なる点は、図1の距離情報抽出部5と融合範囲確認部11に代えて、視差地図計算部20と画素数計算手段としての融合領域判断部A21が設けられている点である。
【0034】
以上のように構成された本実施の形態の立体CG画像生成装置について、以下その動作を説明する。
【0035】
本実施の形態は、カメラパラメータWc、f、dxの内、少なくとも1つ、特にWc がCG制作者により固定されており、このままでは出力される立体CG画像の全体を観察者の両眼融合範囲に収めることが出来ない場合に効果を発する。
【0036】
物体の3次元形状をサーフェスモデルで記述した3次元構造情報は投影変換部1、2に入力される。第1の実施の形態と同様に、まず、CG制作者は、レンダリング部3、4に接続された立体画像表示装置(図示省略)を見て出力画像を確認しながら、好みに合わせて被写体と仮想カメラ(左右カメラの位置の中点)をワールド座標系の適当な位置に配置し、その方向を決定する。左右のカメラ位置は、仮想カメラ位置Vを中心としてX軸方向に±Wc の位置に配置される(図2参照)。カメラパラメータWc、f、dxは、予め設定された初期値が用いられる(これらの内いずれかは固定値である)。
【0037】
これにより設定されたパラメータを用いて、投影変換部1、2は3次元構造情報を2次元画面に投影した画像を出力し、レンダリング部3、4にてCG画像を生成する。レンダリング部3、4の出力と3次元構造情報から、視差地図計算部20は投影変換された画像上の各点での左右画像の奥行きデータ、即ち視差地図(各画素での奥行き量を示した画像)を計算する。例えば、従来からCGに使用されているZバッファ処理の結果を用いれば、画面の各点での奥行き量を得ることが出来、これを元にして視差地図を作成することは容易に可能である。また、レンダリングを行なわない、ワイヤーフレームの様な画像の場合は、投影変換部1、2と3次元構造情報から視差地図を作成することになる。
【0038】
この視差地図を基に、融合領域判断部A21は、画面中で、立体CG画像観察者の両眼融合範囲(視差がD−〜D+の間の値)に入る領域の画素数(これを有効画素数と定義する)を計算する。次に、視差地図計算部20、融合領域判断部A21は、カメラパラメータWc、f、dxを順次変化させて、固定値以外の予め設定されたWc、f、dxの変化範囲の全ての組合せについて、有効画素数を計算する。
【0039】
次に、カメラパラメータ決定部6は、これまで計算されたパラメータWc 、f、dx の全ての組合せに対する有効画素数のうち、これの最大値に対応するパラメータWc、f、dxを算出する。そして、算出されたWc、f、dxを投影変換部1、2に出力する。この場合、有効画素数の最大値ではなく、最大値に近い組合せを複数個列挙し、CG制作者がこれらの中から好みの組合せを選んで投影変換部1、2に出力してもよい。また、カメラパラメータ決定部6は、3つのパラメータのうち、どれか(複数個可能)を固定しておいて、残りのパラメータの組合せのうちで、有効画素数が最大、または、有効画素数の最大値に近い残りのパラメータの組合せを列挙し、CG制作者が好みの組合せを決定してもよい。
【0040】
そして、投影変換部1、2及びレンダリング部3、4は、これらのパラメータを用いて最終的な立体CG画像を算出する。このようにすることによって、観察者の両眼融合範囲内に画像が最も多く入るようにカメラパラメータを自動的に決定するすることができる。有効画素数の最大値が複数存在する場合は、それぞれの場合のパラメータでの立体CG画像を生成し、立体CG制作者がこれを立体画像表示装置で観察し、好みのパラメータの組合せを選ぶ。
【0041】
以上の様に、本実施の形態によれば、カメラパラメータに制約条件があり、最終的な出力の立体CG画像全体が観察者の両眼融合範囲内に収まらない場合でも、両眼融合可能な画像の面積が最も広くなるように、カメラパラメータWc、f、dxを自動的に決定できる。
【0042】
また、上記第2の実施の形態において、視差地図から被写体の近点・遠点を算出し、これを元にして、後は前述の第1の実施の形態の手法を用いて立体カメラパラメータを決定してもよい。
【0043】
図7は、本発明の第3の実施の形態における立体CG画像生成装置の構成図を示すものである。図7において、1、2は投影変換部、3、4はレンダリング部、6はカメラパラメータ決定部、20は視差地図計算部であり、これらは本発明の第2の実施の形態の立体CG画像生成装置のものと同じものである。第2の実施の形態の立体CG画像生成装置と異なる点は、融合領域判断部A21が画素数計算手段としての融合領域判断部B21’に変わり、特定画像処理部としてのクリッピング値決定部22が追加されている点である。
【0044】
以上のように構成された本実施の形態の立体CG画像生成装置について、以下その動作を説明する。
【0045】
まず、上記第2の実施の形態と同様にして、カメラパラメータ決定部6は、投影変換部1、2でのカメラパラメータ(Wc、dx、f)を決定する。概略を説明すると、まず、CG制作者は、レンダリング部3、4に接続された立体画像表示装置を見て出力画像を確認しながら、好みに合わせて被写体と仮想カメラをワールド座標系の適当な位置に配置し、その方向を決定する。
【0046】
これにより設定されたパラメータを用いて、投影変換部1、2は3次元構造情報を2次元画面に投影した画像を出力し、レンダリング部3、4にてCG画像を生成する。レンダリング部3、4の出力と3次元構造情報から、視差地図計算部20は投影変換された画像上の各点での視差地図を計算する。
【0047】
この視差地図を基に、融合領域判断部B21’は、画面中で、立体CG画像観察者の両眼融合範囲に入る領域の有効画素数を計算し、視差地図計算部20、融合領域判断部B21’は、カメラパラメータWc、f、dxを順次変化させて有効画素数を計算する。
【0048】
次に、カメラパラメータ決定部6は、これまで計算されたパラメータWc 、f、dx の全ての組合せに対する有効画素数のうち、これの最大値に対応するパラメータWc、f、dxを算出する。そして、算出されたWc、f、dxを投影変換部1、2に出力する。投影変換部1、2及びレンダリング部3、4はこれらのパラメータを用いて最終的な立体CG画像を算出する。このカメラパラメータは一度決定したら固定であるとする。
【0049】
ここで、物体が移動するか、左右カメラがお互いの位置関係を保ちつつ移動することを考える。カメラが被写体に向かって移動すると、被写体との距離は小さくなり、両眼視差も大きくなり、観察者の両眼範囲内に入らなくなってしまう場合が発生する。遠点についても同様である。そこで、カメラパラメータは固定でクリッピングによる処理を行なう。
【0050】
レンダリング部3、4において、近い被写体、遠い被写体はクリッピングをかけて表示しない、という処理を従来のCG画像では行なっていたが、本実施の形態では、図8(a)に示すように、このクリッピング位置を、レンダリング部3、4に対して両眼融合範囲内にない画像は出力されぬような値に決定する。即ち、融合領域判断部B21’によって観察者の両眼融合限界(遠い方の限界、近い方の限界の2種類が存在する)を計算する。具体的には図8(a)のワールド座標系において(数1)、(数2)を満たす点を全て算出し、これが図8(a)の斜線領域であるとする。次に、この斜線領域以外の点が最終CG画像出力に出力されないようにNearクリッピング値CLN、farクリッピング値CLF を決定する(CLNR、CLNLはそれぞれ右カメラ、左カメラのNearクリッピング面、CLFR、CLFLはそれぞれ右カメラ、左カメラのFarクリップ面である)。それぞれのNear クリッピング面、Far クリッピング面で囲まれた領域の物体のみレンダリング部3、4から出力する。
【0051】
また、前述の例では、左右カメラそれぞれについて、クリッピング面CLNR、CLNL、CLFR、CLFLを設定したが、図8(b)に示すように、仮想カメラ(原点)について、Nearクリッピング面CLCN、Farクリッピング面CLCF を決定し、これを左右カメラに共通で適用してもよい。
【0052】
また、本実施の形態において、クリッピングされる領域に被写体が存在する場合には、これを最終出力画像に表示しないように設定したが、クリッピングされる領域に物体が近づくにつれて、徐々に物体のコントラストを下げたり、物体の色を透明にしていけば、観察者が両眼融合できない領域において、自然に物体が消失するので更に違和感が少ない立体CG画像を得ることが出来る。
【0053】
以上の様に、本実施の形態によれば、カメラパラメータ固定であっても、クリッピング面を観察者の両眼融合範囲を考慮に入れて設定することにより、最終的な出力の立体CG画像を観察者の両眼融合範囲内に収めることが出来る。
【0054】
図9は、本発明の第4の実施の形態における立体CG画像生成装置の構成図を示すものである。図9において、1、2は投影変換部、3、4はレンダリング部、6はカメラパラメータ決定部、20は視差地図計算部、21’は融合領域判断部Bであり、これらは前述の第3の実施の形態の立体CG画像生成装置のものと同じものである。第3の実施の形態の立体CG画像生成装置と異なる点は、クリッピング値決定部22に代えて、ピントパラメータ決定部23及び霧効果パラメータ決定部24が設けられた点であり、被写体の両眼視差量に合わせて、これらのパラメータを制御している点である。このピントパラメータ決定部23および霧効果パラメータ決定部24が特定画像処理部を構成している。
【0055】
以上のように構成された本実施の形態の立体CG画像生成装置について、以下その動作を説明する。
【0056】
まず、上述の第3の実施の形態と同様にして、カメラパラメータ決定部6は、投影変換部1、2でのカメラパラメータ(Wc、dx、f)を決定する。まず、CG制作者は、レンダリング部3、4に接続された立体画像表示装置を見て出力画像を確認しながら、好みに合わせて被写体と仮想カメラをワールド座標系の適当な位置に配置し、その方向を決定する。その後、投影変換部1、2は3次元構造情報を2次元画面に投影した画像を出力し、レンダリング部3、4にてCG画像を生成する。
【0057】
次にレンダリング部3、4の出力と3次元構造情報から、視差地図計算部20は投影変換された画像上の各点での視差地図を計算する。この視差地図を基に、融合領域判断部B21’は、画面中で立体CG画像観察者の両眼融合範囲に入る領域の有効画素数を計算し、視差地図計算部20、融合領域判断部B21’は、カメラパラメータWc、f、dxを順次変化させて有効画素数を計算する。
【0058】
次に、カメラパラメータ決定部6は、これまで計算されたパラメータWc 、f、dx の全ての組合せに対する有効画素数のうち、これの最大値に対応するパラメータWc、f、dxを算出する。そして、算出されたWc、f、dxを投影変換部1、2に出力する。投影変換部1、2及びレンダリング部3、4はこれらのパラメータを用いて最終的な立体CG画像を算出する。このカメラパラメータは一度決定したら固定であるとする。
【0059】
ここで、レンダリング部3、4は、最終的なCG画像を生成する際に、カメラのピントをぼかした様な処理や、遠い被写体は霧のかかった状態を表現することにより遠近感を表現する場合がある。これらの、ピントをぼかせる処理や霧の効果の度合を、前述の視差地図と観察者の両眼融合範囲によりピントパラメータ決定部23、霧効果パラメータ決定部24が決定する。
【0060】
例えば、ピントパラメータ決定部23は、ワールド座標系において、融合領域判断部B21’により観察者が両眼融合できない領域を計算する。計算は、(数1)、(数2)、もしくはこれらのうちいずれかを満たさない3次元座標を計算することになる。これらの領域に属する物体についてレンダリングをレンダリング部3、4で行なう際は、ピントパラメータ決定部23が、出力画像がピントぼけ状態のような、不明瞭な画面になるような効果を出すようなピントパラメータを出力する。もちろん、観察者が両眼融合できる限界領域に近い領域から、この効果を徐々に強くかけていくと、更に自然にピントぼけの画像を得ることが出来る。
【0061】
ピントぼけの処理については、従来のCG画像技術、例えば光線追跡により、カメラのピントぼけ状態をシミュレートしてもよいし、生成されたCG画像に空間的なフイルタリング操作(低域通過フィルタ等)を行なうという手法もある。また、ピントぼけの量に応じて物体の位置を微妙に変化させて、同じ物体を何度も同じ画像メモリに描き、エッジの部分などにボケを生じさせる方法もある。この物体の位置を変化させるのを、カメラのピントが合う焦点面からの距離に比例させればピントボケ効果が得られる(本実施の形態では、観察者の両眼融合限界からの距離に比例させればよい)。このようにすることにより、観察者が両眼融合できない物体については、ピントぼけの効果を付することにより両眼融合ができない状態での違和感を低減することが出来る。
【0062】
また、霧効果パラメータ決定部24は、前述と同様にして、ワールド座標系において融合領域判断部B21’により観察者が両眼融合できない領域(特に、遠点条件(数2)が成立しない領域)を計算する。この領域での物体のレンダリング処理において、霧効果パラメータ決定部24は、大気中に霧がかかったような効果をレンダリング部3、4で与えるように霧効果パラメータを制御する。もちろん、観察者が両眼融合できる限界領域に近い領域から、この霧を徐々に濃く付加するように設定すれば、更に自然に遠い領域が霧に隠れているような状況のCG画面を生成することが出来る。このように、遠い物体の両眼視差が大き過ぎて両眼融合不可能な場合に、霧の効果を付加することにより、両眼融合不可能なことによる観察者の違和感を低減することができる。
【0063】
レンダリング処理での霧効果の生成方法については、例えば、距離が遠くなるにしたがって、減少する霧係数f(0.0〜1.0)を考える。fが1で霧なし、0で真っ白な画像になることを示す。この効果の度合はカメラからの距離をzとして
【0064】
【数5】
【0065】
【数6】
【0066】
などで定義できる。ここで、far,nearは生成されるCG画像の、カメラからの最も遠い,または近い距離、densityは霧の濃度である。また、レンダリングされる色は、
【0067】
【数7】
【0068】
で計算される。ここでC0はレンダリングされた物体の色、Cf は霧の色である。霧効果パラメータ決定部24は、観察者の両眼融合範囲内ではf=1、両眼融合限界に近い領域から両眼融合範囲外の領域になるに従ってf=0までなめらかに変化させる。これにより、レンダリング部3、4は両眼融合範囲外で遠い被写体を霧がかかった様な画像とし、両眼融合範囲から外れたことによる違和感を低減する。
【0069】
以上の様に、本実施の形態によれば、両眼融合ができない様な両眼視差の物体が表示されても、遠い物体は霧の効果、近い物体および遠い物体ではピントボケの効果を付加することにより、この悪影響を低減し、更に見やすい立体CG画像を生成することができる。
【0070】
図13は、本発明の第5の実施の形態における立体TV装置の構成図を示すものである。図13において、1、2は投影変換部、3、4はレンダリング部、6はカメラパラメータ決定部、12は操作部、11は融合範囲確認部、5は距離情報抽出部、127はCG画像発生部であり、以上は本発明の第1の実施の形態と同じものである。第1の実施の形態と異なるのは、以下の構成であり、128はウインドウ情報管理部、129はウインドウ情報管理制御部、130はマウス状態検出部、131は表示画面大きさ・ドット数検出部、132はウインドウサイズ検出部、133はウインドウ生成・消滅検出部、134はウインドウ表示位置検出部、135はウインドウフォーカス変化検出部、136は映像信号変換部、137は立体ディスプレイ部、138はマウス、139は液晶シャッタ付き眼鏡、140は視距離測定手段である。
【0071】
以上のように構成された本実施の形態の立体TV装置について,以下その動作を説明する。
【0072】
本実施の形態では、複数の立体画像を最近主流のコンピュータ画面でのウインドウ環境に複数種類の立体画像を大きさの異なる複数のウインドウに表示するものである。これに対し、本発明の第1〜4の実施の形態では、画像を表示する大きさは表示装置固有の大きさであった。
【0073】
図13の立体ディスプレイ部137に示されるように、同一画面上にA、B、Cのウインドウが存在し、それぞれ異なった立体画像を表示しているものとする。
ここで立体画像の表示方法は、既存の立体表示技術を使用することが出来る。本実施の形態では映像信号変換部136により映像信号化された立体画像が立体ディスプレイ部137に入力され、観察者は液晶シャッタ付き眼鏡を通して立体画像を観察する、いわゆる時分割方式の立体画像表示を用いている。これは、映像信号変換部により入力されるR、L映像信号はR、L、R、L...というように時間的に交互に切替えられ、これが立体ディスプレイ部137に表示され、Rの画像が表示されている時には液晶シャッタ付き眼鏡139の右目が光を透過、左目が遮断状態になり、Lの画像が表示されている時にはその逆になる。これにより、観察者の右目、左目独立にR、L画像をそれぞれ表示することが出来る。また、この例以外に、いかなる既存の立体画像表示手法(例えば、偏光式、レンチキュラレンズ式等)を用いてもよい。通常、観察者は好みに応じてマウス138を使用して、ウインドウA、B、Cの大きさを変更することが出来る。これに対応して立体画像の大きさも変化する場合、観察者の両眼融合範囲が変化するため、全てのウインドウサイズを常に監視し、これにあわせて常にカメラパラメータを決定する必要がある。即ち、観察者のマウス操作によるウインドウに関する情報をウインドウ情報管理制御部129が検出し、これを融合範囲確認部11に現在表示されているウインドウ全てについてスクリーンサイズとして出力する。この動作は、ウインドウ生成・消滅検出部133により現在表示されているウインドウを管理し、その個々のウインドウサイズをウインドウ表示位置検出部134、ウインドウサイズ検出部132、表示画面大きさ・ドット数検出部131により決定する。これは、表示画面の大きさ(何インチか)と、これの縦横のドット数(もしくは同期周波数検出により換算できる)と、各ウインドウのサイズ(ドット数)から、実際に表示されているウインドウの大きさ(インチ、センチメートルなど)を計算しこれを融合範囲確認部11に出力することにより得られる。
【0074】
後の処理は、本発明の第1の実施の形態と同じである。即ち、3次元構造情報から得られる距離情報を距離情報抽出部5により検出し、これと視距離測定手段140により検出される観察者とディスプレイ表面までの距離dsを用いて(数1、数2)によりカメラパラメータを計算し、これを投影変換部1、2に出力し、レンダリング部3、4により右目、左目用のR、L画像が計算される。ただし、ウインドウ情報管理部128により検出されている、立体表示されているウインドウすべてについて、この処理を行ない、全てのウインドウについて、独立にこの処理は行なわれる。
【0075】
以上のようにすることにより、複数の立体画像を表示するようなウインドウ環境をもつ表示システムにおいても、個々のウインドウサイズをウインドウ情報管理部128により監視することにより、全てのウインドウに表示された立体画像を全て観察者の融合範囲内に収めるようにカメラパラメータ制御による視差の制御により、見やすく自然な画像に制御することができる。
【0076】
また、本発明の第5の実施の形態において、観察者のマウス操作により指定されたウインドウのみ、前述のカメラパラメータ変更をウインドウフォーカス変化検出部135の出力を用いて行ない、観察者が注目しているウインドウに表示された立体画像のみ、両眼融合範囲内に収められた画像を表示し本発明の動作の効率化を測ることもできる。
【0077】
また、本発明の第1〜4の実施の形態において、観察者と表示面までの視距離を第5の実施の形態で示した視距離測定手段140で測定して用いてもよい。
【0078】
以上種々述べたように、本発明によれば、カメラと被写体の距離情報と、生成された立体CG画像の表示装置における視差の大きさを表示装置の大きさと観察距離から、適切なカメラパラメータ(焦点距離または画角、カメラ間隔、輻輳点)を決定し、見やすい立体CG画像を自動的に得ることができる。
【0079】
なお、本発明の第1〜5の実施の形態において、2眼立体画像を用いて説明したが、これに限らず、多眼立体画像においても、観察者の左右眼に入力される画像の組全てについて、同じ手法でカメラパラメータ決定を行なえば、多眼立体CG画像生成も容易に行なうことが出来る。
【0080】
また、本発明の第1〜5の実施の形態において、生成される画面全体について観察者の両眼融合範囲内に立体CG画像が収まるようにカメラパラメータを決定したが、観察者が画面中特定の被写体のみを注視せざるを得ないようなシーンの場合等においては、それ以外の被写体の部分については両眼融合出来ないような設定にすることも考えられる。この様な場合、CG制作者が出力画面の内、観察者の両眼融合範囲内になくてもよい領域を予め設定し、この領域でのデータはカメラパラメータ決定に用いない様にすることも容易に可能である。
【0081】
また、本発明の第1〜5の実施の形態において、左右眼用の立体画像をCGにより得たが、これを立体カメラに置き換えて自然画撮像の場合に適用してもよい。この場合は、CG処理の式(数1、2)で扱った、複数のカメラの焦点距離f、カメラ間隔Wc、カメラと輻輳点までの距離dx(個々のカメラの光軸の交わる点と複数のカメラの中心点の距離)を実際のカメラにおけるパラメータに直接用いればよい。ただし、(数1、数2)における変数Mはスクリーンサイズではなく、カメラの撮像素子の受光面の大きさと実際に立体画像が表示されるスクリーンの大きさの比になる。
【0082】
また、上記第4の実施の形態では、ピントパラメータ決定部23及び霧効果パラメータ決定部24の両方を設けた構成としたが、これに代えて、そのどちらか一方のみを備えた構成であってもよい。
【0083】
また、上記の第1〜5の実施の形態では、いずれも生成される画面全体について観察者の両眼融合範囲内に立体CG画像が収まるようにカメラパラメータを決定したが、これに限らず、CG制作者が出力画面の内、観察者の両眼融合範囲内になくてもよい領域を予め設定し、この領域でのデータはカメラパラメータ決定に用いない様にすることも容易に可能である。
【0084】
また、上記の第1〜5の実施の形態では、いずれも距離情報抽出部、融合範囲確認部等の各処理部を専用のハードウェアにより構成したが、これに代えて、同様の機能をコンピュータを用いてソフトウェア的に実現してもよい。
【0085】
【発明の効果】
以上述べたところから明らかなように本発明は、観察者にとって自然で見やすい立体画像を生成できるという長所を有する。
【図面の簡単な説明】
【図1】本発明における第1の実施の形態の立体CG画像生成装置の構成図である。
【図2】本発明におけるCG空間(ワールド座標系)での物体とカメラ位置の関係を示す図である。
【図3】本発明における観察者空間(立体画像表示装置を観察する空間の定義)を説明する図である。
【図4】本発明における立体画像平行撮像方法の説明図である。
【図5】同図(a)は、上記第1の実施の形態における操作部の表示部での表示例を説明する図、同図(b)は、その操作部の操作パネルを示す図である。
【図6】本発明における第2の実施の形態の立体CG画像生成装置の構成図である。
【図7】本発明における第3の実施の形態の立体CG画像生成装置の構成図である。
【図8】同図(a)は、上記第3の実施の形態におけるNearクリッピング、Far クリッピング(左右カメラ独立)の概念を説明する図、同図(b)は、Nearクリッピング、Farクリッピング(左右カメラ共通)の概念を説明する図である。
【図9】本発明における第4の実施の形態の立体CG画像生成装置の構成図である。
【図10】従来の立体CG画像生成装置の構成図である。
【図11】同図(a)は、3次元構造情報を説明するための形状モデル例を示す図、同図(b)は、その形状モデルのデータ構造を示す図である。
【図12】同図(a)は、ワールド座標系と投影変換を説明する図、同図(b)は、カメラパラメータを説明する図である。
【図13】本発明における第5の実施の形態の立体CG画像生成装置の構成図である。
【符号の説明】
1 投影変換部(右目用)
2 投影変換部(左目用)
3 レンダリング部(右目用)
4 レンダリング部(左目用)
5 距離情報抽出部
6 カメラパラメータ決定部
11 融合範囲確認部
12 操作部
13 ポインタ
20 視差地図計算部
21 融合領域判断部A
21’ 融合領域判断部B
22 クリッピング値決定部
23 ピントパラメータ決定部
24 霧効果パラメータ決定部
127 CG画像発生部
128 ウインドウ情報管理部
129 ウインドウ情報管理制御部
130 マウス状態検出部
131 検出部
132 ウインドウサイズ検出部
133 ウインドウ生成・消滅検出部
134 ウインドウ表示位置検出部
135 ウインドウフォーカス変化検出部
136 映像信号変換部
137 立体ディスプレイ部
138 マウス
139 液晶シャッタ付き眼鏡
140 視距離測定手段[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a three-dimensional CG image generation device for stereoscopically displaying a two-dimensional image generated from three-dimensional structure information to enable stereoscopic viewing.
[0002]
[Prior art]
As a conventional three-dimensional CG image generation device, for example, there is one as shown in FIG. This is a three-dimensional structure information that describes the three-dimensional shape of the object with a surface model (the object is approximated by a plurality of facets (polygons), and the three-dimensional position of the vertices included in each polygon and the surface synthesized by each polygon , The information defining the ridge line), and the object defined by this is placed in the world coordinate system. When this is captured by a virtual camera, the two-dimensional position of the object projected onto the film is calculated by the
[0003]
For example, as shown in FIG. 11B, a polyhedron shape model as shown in FIG. 11A is described by three-dimensional coordinates of vertices V1 to V8 and a data structure of the shape model (configuration of planes and ridge lines). Then, the object described by this information is arranged in a world coordinate system as shown in FIG. At this time, the image (vertex) projected on the
[0004]
[Problems to be solved by the invention]
However, in the above-described conventional three-dimensional CG image generation apparatus, it is necessary to change a plurality of camera parameters depending on the viewing distance and the size of the screen. According to the rule, since the CG creator made adjustments so that the observer thought it was easy to see, when a stereoscopic CG image generated by improper adjustment was displayed on the stereoscopic image display device, both of the stereoscopic CG images were displayed. There is a problem that the eye parallax (for example, the difference between the horizontal positions of the same vertices of the left and right images expressed by the viewing angle) exceeds the allowable range of the observer, and often results in an unnatural and easily fatigued stereoscopic image.
.
[0005]
The present invention considers the problem of such a conventional stereoscopic CG image generating apparatus, and can automatically generate a natural and easy-to-view stereoscopic image on a screen of any size at any viewing distance for an observer. It is an object to provide a CG image generation device.
[0006]
[Means for Solving the Problems]
The present invention generates, from three-dimensional structure information describing a three-dimensional shape of an object, a projection conversion unit that generates a plurality of two-dimensional projected images when viewed from a plurality of cameras, and generates a distance between the object and the camera. A distance information extraction unit, based on a screen size of a stereoscopic image display device for displaying at least a stereoscopic image of the object and a viewing distance between the screen and an observer, which are input in advance, Said Fusion range calculation means for calculating the binocular fusion range of the observer, based on the binocular fusion range and the output of the distance information extraction unit, Said Within the binocular fusion range of the observer Said So that all of the objects fit What Camera parameters combination A camera parameter calculating means for calculating a condition, and an output from the camera parameter calculating means. Within the range that satisfies the conditions of the camera parameters A camera parameter determination unit for determining camera parameters, The projection conversion unit, Utilizing the determined camera parameters, generating the plurality of two-dimensional projection images Characterized by This is a three-dimensional CG image generation device.
[0007]
Further, the present invention, based on a screen size of a stereoscopic image display device for displaying at least a stereoscopic image of an object and a viewing distance between the screen and the observer, which are input in advance, determine a binocular fusion range of the observer. The calculation is performed by the fusion range calculation unit, and the camera parameter calculation unit calculates all of the objects within the binocular fusion range of the observer based on the binocular fusion range and the distance between the camera and the object generated by the distance information extraction unit. CG creator determines the camera parameters from the output of the camera parameter calculation means by the camera parameter determination unit, and the projection conversion unit uses the determined camera parameters so that Then, a plurality of two-dimensional projection images as viewed from a plurality of cameras are generated from the three-dimensional structure information describing the three-dimensional shape of the object.
[0008]
Further, the present invention provides a method for displaying one or more stereoscopic CG images in a window environment at a time from a plurality of cameras viewed from a plurality of cameras based on three-dimensional structure information describing a three-dimensional shape of an object. A projection conversion unit that generates a two-dimensional projection model; a distance information extraction unit that generates a distance between the object and the camera; sizes of all windows displaying a stereoscopic image; The window size of the window information management unit for detecting the information of the resolution or the synchronization frequency of the stereoscopic image display device for displaying the two-dimensional projection model finally generated from the output of the window information management unit is calculated. From the output of the distance information extraction unit and the viewing distance of the observer, the camera parameters for storing the stereoscopic CG image within the binocular fusion range of the observer are determined for each window. C) a fusion range checking unit for calculating the fusion conversion range, and a camera parameter determination unit for finally determining a camera parameter of a stereoscopic image corresponding to each window using an output of the fusion range confirmation unit; The unit is a three-dimensional CG image generation device that generates the plurality of two-dimensional projection images using the determined camera parameters.
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, the present invention will be described with reference to the drawings showing the embodiments.
[0010]
FIG. 1 shows a configuration diagram of a three-dimensional CG image generation device according to the first embodiment of the present invention. In FIG. 1,
[0011]
The operation of the stereoscopic CG image generating apparatus of the present embodiment configured as described above will be described below.
[0012]
First, three-dimensional structure information describing the three-dimensional shape of an object by a surface model is input to the
[0013]
Next, the distance information extraction unit 5 extracts a point closest to the virtual camera (near point N) and a point farthest from the camera (far point F) among the subjects, and calculates x and y coordinates of these points. Let these be N (XN, YN, ZN) and F (XF, YF, ZF) (see FIG. 2). If these two points fall within the binocular fusion range of the observer, a good stereoscopic CG image can be obtained. At this time, the far point and the near point may be comprehensively determined by averaging the distances from the left and right cameras and the virtual camera.
[0014]
Next, the fusion
[0015]
The calculation formula is
Proximity condition:
[0016]
(Equation 1)
[0017]
Far point condition:
[0018]
(Equation 2)
[0019]
It is. However, 2 × ΔS indicates the phase difference between the left and right images on the stereoscopic image display screen, and usually 2 × ΔS is often set to the distance between both eyes of the observer (about 60 mm). D− and D + are binocular parallax at the closest point and binocular parallax at the farthest point where the observer can perform binocular fusion. Further, the focal length f and the angle of view θ of the camera have a unique relationship,
[0020]
(Equation 3)
[0021]
Since there is, either may be defined. Also, dx can be automatically determined by determining the position of the camera and the three-dimensional position of the point to which the camera points. The fusion
[0022]
Next, the camera
[0023]
The determination method is, for example,
(1) A method in which the CG creator operates the
(2) The CG creator first determines any one of the camera parameters Wc, f, and dx, operates the remaining two parameters on the
(3) The CG creator first determines any two of the camera parameters Wc, f, and dx, operates the remaining one parameter on the
Adopt one of them. Hereinafter, the method examples (1) to (3) will be described in more detail.
[0024]
In the case of (1), first, as shown in FIG. 5A, an area (effective area) of a combination of parameters Wc, f, and dx that allows the observer to perform binocular fusion is displayed on the display unit arranged on the
[0025]
In the cases of (2) and (3), as shown in FIG. 5B, the operation panel 12a includes three
[0026]
Using the camera parameters Wc, f, and dx determined as described above, the
[0027]
In this embodiment, it is assumed that the camera performs convergence shooting (the left and right cameras 7 and 8 are directed to the point P in FIG. 2), but the left and right cameras are installed in parallel as shown in FIG. May be. In this case, the fusion
[0028]
(Equation 4)
[0029]
It is only necessary to calculate a combination of Wc and f that satisfies the condition shown by (dx is equivalent to being set to ∞).
[0030]
Also, in the present embodiment, the range in which the observer can perform binocular fusion is given by (Equation 1) and (Equation 2). However, D-, D + or a depth distance equivalent thereto is CG. The creator may give it manually.
[0031]
Further, in the present embodiment, the camera parameters are determined based on one CG image data. However, in the case of a moving image, the camera parameters can be sequentially determined using the CG image data at each time. is there. It is also possible to obtain a sequence of camera parameters in a certain predetermined period, store the sequence, and reproduce the same scene many times using stereoscopic camera parameters having the same change.
[0032]
As described above, according to the present embodiment, the distance information between the camera and the subject and the magnitude of parallax in the display device for the generated stereoscopic CG image are calculated from the size of the display device and the observation distance, and this is calculated by the observer. It is possible to determine appropriate camera parameters (focal length or angle of view, camera interval, point of convergence) by automatically determining whether or not it falls within the binocular fusion range, and automatically obtain an easy-to-view stereoscopic CG image.
[0033]
FIG. 6 shows a configuration diagram of a stereoscopic CG image generation device according to the second embodiment of the present invention. In FIG. 6,
[0034]
The operation of the stereoscopic CG image generating apparatus of the present embodiment configured as described above will be described below.
[0035]
In the present embodiment, at least one of the camera parameters Wc, f, and dx, particularly Wc, is fixed by the CG creator. It is effective when it is not possible to fit in.
[0036]
The three-dimensional structure information in which the three-dimensional shape of the object is described by the surface model is input to the
[0037]
Using the parameters thus set, the
[0038]
Based on this disparity map, the fusional area determination unit A21 determines the number of pixels of the area in the screen that falls within the binocular fusional range of the stereoscopic CG image viewer (parallax is a value between D− to D +) (Defined as the number of pixels). Next, the parallax
[0039]
Next, the camera
[0040]
Then, the
[0041]
As described above, according to the present embodiment, binocular fusion can be performed even when there is a constraint condition on camera parameters and the entire final output stereoscopic CG image does not fall within the binocular fusion range of the observer. The camera parameters Wc, f, and dx can be automatically determined so that the area of the image is maximized.
[0042]
Further, in the second embodiment, the near point and the far point of the subject are calculated from the parallax map, and based on this, the stereo camera parameters are calculated using the method of the first embodiment. You may decide.
[0043]
FIG. 7 shows a configuration diagram of a stereoscopic CG image generation device according to the third embodiment of the present invention. In FIG. 7,
[0044]
The operation of the stereoscopic CG image generating apparatus of the present embodiment configured as described above will be described below.
[0045]
First, similarly to the second embodiment, the camera
[0046]
Using the parameters thus set, the
[0047]
Based on this disparity map, the fusion area determination unit B21 ′ calculates the number of effective pixels in the area that falls within the binocular fusion range of the stereoscopic CG image viewer on the screen, and calculates the parallax
[0048]
Next, the camera
[0049]
Here, it is considered that the object moves or the left and right cameras move while maintaining the mutual positional relationship. When the camera moves toward the subject, the distance to the subject decreases, the binocular parallax increases, and a case may occur where the camera does not enter the range of both eyes of the observer. The same applies to the far point. Therefore, processing by clipping is performed while the camera parameters are fixed.
[0050]
In the
[0051]
In the above-described example, the clipping planes CLNR, CLNL, CLFR, and CLFL are set for each of the left and right cameras. However, as shown in FIG. 8B, the near clipping planes CLCN and Far clipping are set for the virtual camera (origin). The plane CLCF may be determined and applied to both the left and right cameras.
[0052]
Further, in the present embodiment, when an object is present in the clipped area, it is set not to be displayed in the final output image. However, as the object approaches the clipped area, the contrast of the object gradually decreases. If the color is lowered or the color of the object is made transparent, the object naturally disappears in an area where the observer cannot perform binocular fusion, so that a stereoscopic CG image with less uncomfortable feeling can be obtained.
[0053]
As described above, according to the present embodiment, even if the camera parameters are fixed, the clipping plane is set in consideration of the binocular fusion range of the observer, so that the final output stereoscopic CG image can be obtained. It can be kept within the binocular fusion range of the observer.
[0054]
FIG. 9 shows a configuration diagram of a three-dimensional CG image generation device according to the fourth embodiment of the present invention. In FIG. 9,
[0055]
The operation of the stereoscopic CG image generating apparatus of the present embodiment configured as described above will be described below.
[0056]
First, similarly to the third embodiment, the camera
[0057]
Next, from the outputs of the
[0058]
Next, the camera
[0059]
Here, when generating the final CG image, the
[0060]
For example, the focus
[0061]
Regarding the defocus processing, the defocus state of the camera may be simulated by a conventional CG image technique, for example, ray tracing, or a spatial filtering operation (a low-pass filter or the like) may be performed on the generated CG image. ). There is also a method in which the position of an object is delicately changed in accordance with the amount of out-of-focus, the same object is drawn many times in the same image memory, and an edge portion is blurred. If the position of this object is changed in proportion to the distance from the focal plane where the camera is in focus, the out-of-focus effect can be obtained (in the present embodiment, it is proportional to the distance from the viewer's binocular fusion limit). Just do it.) By doing so, it is possible to reduce the sense of incongruity in a state where binocular fusion cannot be performed for an object for which the observer cannot perform binocular fusion by adding a defocus effect.
[0062]
In the same manner as described above, the fog effect
[0063]
Regarding the method of generating the fog effect in the rendering processing, for example, consider a fog coefficient f (0.0 to 1.0) that decreases as the distance increases. When f is 1, fog is not generated, and when f is 0, a pure white image is obtained. The degree of this effect is the distance from the camera as z
[0064]
(Equation 5)
[0065]
(Equation 6)
[0066]
And so on. Here, far and near are the farthest or closest distances from the camera of the generated CG image, and density is the density of fog. Also, the rendered colors are
[0067]
(Equation 7)
[0068]
Is calculated by Here, C0 is the color of the rendered object and Cf is the color of the fog. The fog effect
[0069]
As described above, according to the present embodiment, even if an object with binocular parallax that cannot be binocularly fused is displayed, a distant object adds a fog effect, and a near object and a distant object adds a defocus effect. Thereby, this adverse effect can be reduced, and a more easily viewable stereoscopic CG image can be generated.
[0070]
FIG. 13 shows a configuration diagram of a stereoscopic TV device according to the fifth embodiment of the present invention. 13,
[0071]
The operation of the stereoscopic TV apparatus according to the present embodiment configured as described above will be described below.
[0072]
In the present embodiment, a plurality of three-dimensional images are displayed in a plurality of windows of different sizes in a window environment on a computer screen which is recently mainstream. On the other hand, in the first to fourth embodiments of the present invention, the size for displaying an image is a size unique to the display device.
[0073]
As shown in the three-
Here, as a method of displaying a stereoscopic image, an existing stereoscopic display technique can be used. In the present embodiment, a stereoscopic image converted into a video signal by the video
[0074]
Subsequent processing is the same as in the first embodiment of the present invention. That is, the distance information obtained from the three-dimensional structure information is detected by the distance information extraction unit 5, and the distance information ds between the observer and the display surface detected by the viewing distance measuring means 140 is used (
[0075]
As described above, even in a display system having a window environment in which a plurality of stereoscopic images are displayed, by monitoring each window size by the window information management unit 128, the stereoscopic images displayed in all the windows can be displayed. By controlling the parallax by the camera parameter control so that all the images fall within the fusional range of the observer, it is possible to control the image to be easy to see and a natural image.
[0076]
Also, in the fifth embodiment of the present invention, the above-described camera parameter change is performed using only the output of the window focus
[0077]
In the first to fourth embodiments of the present invention, the visual distance between the observer and the display surface may be measured by the visual distance measuring means 140 shown in the fifth embodiment.
[0078]
As described variously, according to the present invention, the distance information between the camera and the subject, and the magnitude of the parallax of the generated stereoscopic CG image on the display device are determined based on the appropriate camera parameters ( The focal length or the angle of view, the camera interval, the point of convergence) are determined, and an easy-to-view three-dimensional CG image can be automatically obtained.
[0079]
In the first to fifth embodiments of the present invention, the description has been made using the binocular stereoscopic image. However, the present invention is not limited to this. If the camera parameters are determined in the same manner for all of them, it is possible to easily generate a multi-view stereoscopic CG image.
[0080]
Also, in the first to fifth embodiments of the present invention, the camera parameters are determined so that the stereoscopic CG image falls within the binocular fusion range of the observer for the entire generated screen. In the case of a scene in which it is necessary to watch only the subject, for example, the setting may be made such that the binocular fusion cannot be performed on the other subject. In such a case, the CG creator may preliminarily set an area on the output screen that does not need to be within the binocular fusion area of the observer, and may not use data in this area for determining camera parameters. It is easily possible.
[0081]
In addition, in the first to fifth embodiments of the present invention, the stereoscopic images for the left and right eyes are obtained by CG, but this may be replaced with a stereoscopic camera and applied to the case of natural image capturing. In this case, the focal length f of the plurality of cameras, the camera interval Wc, the distance dx between the cameras and the convergence point, which are treated by the CG processing equation (
[0082]
In the fourth embodiment, both the focus
[0083]
Further, in the first to fifth embodiments, the camera parameters are determined so that the stereoscopic CG image falls within the binocular fusion range of the observer for the entire generated screen. However, the present invention is not limited to this. It is also possible for the CG creator to set in advance in the output screen an area that does not need to be within the binocular fusion range of the observer, and to prevent data in this area from being used for determining camera parameters. .
[0084]
In the first to fifth embodiments, the processing units such as the distance information extraction unit and the fusion range confirmation unit are configured by dedicated hardware. However, similar functions are replaced by a computer. May be implemented by software.
[0085]
【The invention's effect】
As is apparent from the above description, the present invention has an advantage that a stereoscopic image which is natural and easy for the observer to see can be generated.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a stereoscopic CG image generation device according to a first embodiment of the present invention.
FIG. 2 is a diagram illustrating a relationship between an object and a camera position in a CG space (world coordinate system) according to the present invention.
FIG. 3 is a diagram illustrating an observer space (a definition of a space for observing a stereoscopic image display device) according to the present invention.
FIG. 4 is an explanatory diagram of a stereoscopic image parallel imaging method according to the present invention.
FIG. 5A is a diagram for explaining a display example of the operation unit on the display unit according to the first embodiment, and FIG. 5B is a diagram showing an operation panel of the operation unit; is there.
FIG. 6 is a configuration diagram of a stereoscopic CG image generation device according to a second embodiment of the present invention.
FIG. 7 is a configuration diagram of a stereoscopic CG image generation device according to a third embodiment of the present invention.
FIG. 8A is a diagram illustrating the concept of Near clipping and Far clipping (left and right camera independent) in the third embodiment, and FIG. 8B is a diagram illustrating Near clipping and Far clipping (right and left). It is a figure explaining the concept of (common to cameras).
FIG. 9 is a configuration diagram of a stereoscopic CG image generation device according to a fourth embodiment of the present invention.
FIG. 10 is a configuration diagram of a conventional stereoscopic CG image generation device.
FIG. 11A is a diagram illustrating an example of a shape model for explaining three-dimensional structure information, and FIG. 11B is a diagram illustrating a data structure of the shape model.
FIG. 12A is a diagram for explaining a world coordinate system and projection transformation, and FIG. 12B is a diagram for explaining camera parameters.
FIG. 13 is a configuration diagram of a stereoscopic CG image generation device according to a fifth embodiment of the present invention.
[Explanation of symbols]
1 Projection conversion unit (for right eye)
2 Projection conversion unit (for left eye)
3 Rendering unit (for right eye)
4 Rendering unit (for left eye)
5 Distance information extraction unit
6 Camera parameter determination unit
11 Fusion Range Confirmation Section
12 Operation section
13 Pointer
20 Parallax map calculator
21 Fusion area judgment unit A
21 'Fusion area judgment unit B
22 Clipping value determination unit
23 Focus parameter determination unit
24 Fog effect parameter determination unit
127 CG image generator
128 Window information management unit
129 Window information management control unit
130 Mouse state detector
131 detector
132 Window size detector
133 Window Generation / Destruction Detection Unit
134 Window Display Position Detector
135 Window focus change detection unit
136 Video signal converter
137 3D display unit
138 mouse
139 Glasses with LCD shutter
140 Viewing distance measuring means
Claims (14)
Priority Applications (13)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP720996A JP3579162B2 (en) | 1995-06-29 | 1996-01-19 | 3D CG image generation device |
US08/669,768 US6005607A (en) | 1995-06-29 | 1996-06-27 | Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus |
DE69632755T DE69632755T2 (en) | 1995-06-29 | 1996-06-28 | Device for generating computer-generated stereoscopic images |
EP03009048A EP1328129B1 (en) | 1995-06-29 | 1996-06-28 | Apparatus for generating computer generated stereoscopic images |
DE69631496T DE69631496T2 (en) | 1995-06-29 | 1996-06-28 | Stereoscopic television |
EP01118033A EP1168852B1 (en) | 1995-06-29 | 1996-06-28 | Stereoscopic TV apparatus |
DE69619308T DE69619308T2 (en) | 1995-06-29 | 1996-06-28 | Device for generating stereoscopic images and displaying the same |
EP96110505A EP0751689B1 (en) | 1995-06-29 | 1996-06-28 | Stereoscopic image generating apparatus and display therefor |
KR1019960025862A KR970004916A (en) | 1995-06-29 | 1996-06-29 | A stereoscopic CG image generating apparatus and stereoscopic television apparatus |
US09/447,638 US6175379B1 (en) | 1995-06-29 | 1999-11-23 | Stereoscopic CG image generating apparatus and stereoscopic TV apparatus |
US09/668,092 US6268880B1 (en) | 1995-06-29 | 2000-09-22 | Stereoscopic CG image generating apparatus and stereoscopic TV apparatus |
US09/880,287 US6417880B1 (en) | 1995-06-29 | 2001-06-13 | Stereoscopic CG image generating apparatus and stereoscopic TV apparatus |
US09/880,522 US6353457B2 (en) | 1995-06-29 | 2001-06-13 | Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7-163361 | 1995-06-29 | ||
JP16336195 | 1995-06-29 | ||
JP720996A JP3579162B2 (en) | 1995-06-29 | 1996-01-19 | 3D CG image generation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0974573A JPH0974573A (en) | 1997-03-18 |
JP3579162B2 true JP3579162B2 (en) | 2004-10-20 |
Family
ID=26341475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP720996A Expired - Lifetime JP3579162B2 (en) | 1995-06-29 | 1996-01-19 | 3D CG image generation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3579162B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110056775A (en) * | 2009-11-23 | 2011-05-31 | 삼성전자주식회사 | Gui providing method related to 3d image, and display apparatus and 3d image providing system using the same |
WO2014145558A1 (en) * | 2013-03-15 | 2014-09-18 | Rubicon Group Holding Limited | Equidistant stereo lens shader |
US9307224B2 (en) | 2009-11-23 | 2016-04-05 | Samsung Electronics Co., Ltd. | GUI providing method, and display apparatus and 3D image providing system using the same |
Families Citing this family (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69730565T2 (en) * | 1996-06-26 | 2005-02-03 | Matsushita Electric Industrial Co., Ltd., Kadoma | Apparatus for generating a stereoscopic moving image by means of computer graphics |
US7142281B2 (en) | 2000-06-02 | 2006-11-28 | Georae Ltd. | Method and system for providing a three dimensional image |
KR20020014456A (en) * | 2000-08-18 | 2002-02-25 | 윤병이 | A method and system of revision for 3-dimensional image |
US20030113012A1 (en) | 2001-08-17 | 2003-06-19 | Byoungyi Yoon | Method and system for controlling a screen ratio based on a photographing ratio |
US8369607B2 (en) | 2002-03-27 | 2013-02-05 | Sanyo Electric Co., Ltd. | Method and apparatus for processing three-dimensional images |
JP3857988B2 (en) * | 2002-03-27 | 2006-12-13 | 三洋電機株式会社 | Stereoscopic image processing method and apparatus |
JP2004040445A (en) | 2002-07-03 | 2004-02-05 | Sharp Corp | Portable equipment having 3d display function and 3d transformation program |
CA2506608C (en) * | 2002-11-21 | 2013-01-22 | Vision Iii Imaging, Inc. | Critical alignment of parallax images for autostereoscopic display |
JP2004187711A (en) * | 2002-12-06 | 2004-07-08 | Olympus Corp | Endoscopic equipment |
JP4218937B2 (en) * | 2002-12-20 | 2009-02-04 | 株式会社バンダイナムコゲームス | Stereoscopic display device and stereoscopic display method |
JP4218938B2 (en) * | 2002-12-20 | 2009-02-04 | 株式会社バンダイナムコゲームス | Stereoscopic prints |
WO2004093467A1 (en) | 2003-04-17 | 2004-10-28 | Sharp Kabushiki Kaisha | 3-dimensional image creation device, 3-dimensional image reproduction device, 3-dimensional image processing device, 3-dimensional image processing program, and recording medium containing the program |
JP4259913B2 (en) * | 2003-05-08 | 2009-04-30 | シャープ株式会社 | Stereoscopic image processing apparatus, stereoscopic image processing program, and recording medium recording the program |
JP4490074B2 (en) * | 2003-04-17 | 2010-06-23 | ソニー株式会社 | Stereoscopic image processing apparatus, stereoscopic image display apparatus, stereoscopic image providing method, and stereoscopic image processing system |
JP4212987B2 (en) * | 2003-08-26 | 2009-01-21 | シャープ株式会社 | Stereoscopic image display apparatus, stereoscopic image display method, program for causing computer to execute the method, and recording medium recording the program |
JP4125252B2 (en) | 2004-03-02 | 2008-07-30 | 株式会社東芝 | Image generation apparatus, image generation method, and image generation program |
JP2005295004A (en) * | 2004-03-31 | 2005-10-20 | Sanyo Electric Co Ltd | Stereoscopic image processing method and apparatus thereof |
JP4489610B2 (en) * | 2005-01-28 | 2010-06-23 | 株式会社 日立ディスプレイズ | Stereoscopic display device and method |
JP4578294B2 (en) | 2005-03-18 | 2010-11-10 | 株式会社エヌ・ティ・ティ・データ三洋システム | Stereoscopic image display device, stereoscopic image display method, and computer program |
JP4634863B2 (en) * | 2005-05-30 | 2011-02-16 | 日本放送協会 | Stereoscopic image generation apparatus and stereoscopic image generation program |
KR100913173B1 (en) * | 2005-07-05 | 2009-08-19 | 삼성모바일디스플레이주식회사 | 3 dimension graphic processor and autostereoscopic display device using the same |
KR100932977B1 (en) | 2005-07-05 | 2009-12-21 | 삼성모바일디스플레이주식회사 | Stereoscopic video display |
US8279221B2 (en) | 2005-08-05 | 2012-10-02 | Samsung Display Co., Ltd. | 3D graphics processor and autostereoscopic display device using the same |
KR101276720B1 (en) * | 2005-09-29 | 2013-06-19 | 삼성전자주식회사 | Method for predicting disparity vector using camera parameter, apparatus for encoding and decoding muti-view image using method thereof, and a recording medium having a program to implement thereof |
JP4931038B2 (en) * | 2005-11-22 | 2012-05-16 | シャープ株式会社 | Stereoscopic image device, game device, stereoscopic image projection device, stereoscopic image data generation method, control program, and readable recording medium |
KR100906784B1 (en) * | 2007-11-15 | 2009-07-09 | (주)레드로버 | Plug-in module for stereographic imaging program and stereographic imaging method |
JP5313713B2 (en) * | 2009-02-03 | 2013-10-09 | Necカシオモバイルコミュニケーションズ株式会社 | Terminal device and program |
JP4956574B2 (en) * | 2009-03-24 | 2012-06-20 | 株式会社東芝 | Stereoscopic image drawing apparatus and drawing method |
JP2011035592A (en) * | 2009-07-31 | 2011-02-17 | Nintendo Co Ltd | Display control program and information processing system |
JP2013501255A (en) * | 2009-08-03 | 2013-01-10 | ヒューマンアイズ テクノロジーズ リミテッド | Method and system for displaying printing of reconstructed 3D images |
JP2011064894A (en) | 2009-09-16 | 2011-03-31 | Fujifilm Corp | Stereoscopic image display apparatus |
JP5405264B2 (en) | 2009-10-20 | 2014-02-05 | 任天堂株式会社 | Display control program, library program, information processing system, and display control method |
JP4754031B2 (en) | 2009-11-04 | 2011-08-24 | 任天堂株式会社 | Display control program, information processing system, and program used for stereoscopic display control |
JPWO2011070774A1 (en) * | 2009-12-09 | 2013-04-22 | パナソニック株式会社 | 3D video processing apparatus and 3D video processing method |
JPWO2011086636A1 (en) * | 2010-01-13 | 2013-05-16 | パナソニック株式会社 | Stereo image pickup device, stereo image pickup method, stereo image display device, and program |
KR101758314B1 (en) | 2010-01-14 | 2017-07-26 | 휴먼아이즈 테크놀로지즈 리미티드 | Method and system for adjusting depth values of objects in a three dimensional(3d) display |
JP5898842B2 (en) | 2010-01-14 | 2016-04-06 | 任天堂株式会社 | Portable information processing device, portable game device |
EP2355526A3 (en) | 2010-01-14 | 2012-10-31 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
JP2011176823A (en) * | 2010-01-28 | 2011-09-08 | Toshiba Corp | Image processing apparatus, 3d display apparatus, and image processing method |
JP5800501B2 (en) | 2010-03-12 | 2015-10-28 | 任天堂株式会社 | Display control program, display control apparatus, display control system, and display control method |
US9693039B2 (en) | 2010-05-27 | 2017-06-27 | Nintendo Co., Ltd. | Hand-held electronic device |
JP5872185B2 (en) * | 2010-05-27 | 2016-03-01 | 任天堂株式会社 | Portable electronic devices |
EP2482561A4 (en) * | 2010-05-27 | 2013-09-11 | Nintendo Co Ltd | Portable electronic device |
JP5620748B2 (en) * | 2010-05-27 | 2014-11-05 | 任天堂株式会社 | Portable electronic devices |
JP5010022B2 (en) * | 2010-10-28 | 2012-08-29 | シャープ株式会社 | Stereoscopic video output device, stereoscopic video output method, stereoscopic video output program, computer-readable recording medium, and stereoscopic video display device |
JP5302285B2 (en) | 2010-10-28 | 2013-10-02 | シャープ株式会社 | Stereoscopic video output device, stereoscopic video output method, stereoscopic video output program, computer-readable recording medium, and stereoscopic video display device |
JP5289416B2 (en) | 2010-11-10 | 2013-09-11 | 株式会社東芝 | Stereoscopic image display apparatus, method and program |
JP6021296B2 (en) | 2010-12-16 | 2016-11-09 | 任天堂株式会社 | Display control program, display control device, display control system, and display control method |
JP5876983B2 (en) * | 2010-12-29 | 2016-03-02 | 任天堂株式会社 | Display control program, display control device, display control method, and display control system |
JP5798334B2 (en) * | 2011-02-18 | 2015-10-21 | 任天堂株式会社 | Display control program, display control apparatus, display control system, and display control method |
JP2011172253A (en) * | 2011-03-25 | 2011-09-01 | Nintendo Co Ltd | Display control program, display controller, display control system, and display control method |
JP5373222B2 (en) * | 2011-03-28 | 2013-12-18 | パナソニック株式会社 | REPRODUCTION DEVICE, REPRODUCTION METHOD, AND COMPUTER PROGRAM |
EP2706748A4 (en) | 2011-05-06 | 2014-10-01 | Fujitsu Ltd | Stereoscopic image generation device, stereoscopic image generation method, stereoscopic image generation program |
JP5909055B2 (en) * | 2011-06-13 | 2016-04-26 | 株式会社東芝 | Image processing system, apparatus, method and program |
JP5904526B2 (en) * | 2011-07-12 | 2016-04-13 | 国立研究開発法人情報通信研究機構 | Stereoscopic image production support apparatus, stereoscopic image production support method, and stereoscopic image production support program |
JP5439460B2 (en) * | 2011-11-07 | 2014-03-12 | 任天堂株式会社 | Display control program, display control apparatus, display control system, and display control method |
JP5920911B2 (en) * | 2011-11-10 | 2016-05-18 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP6025519B2 (en) * | 2012-11-21 | 2016-11-16 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP5767720B2 (en) * | 2014-01-07 | 2015-08-19 | キヤノン株式会社 | Head-mounted display device, virtual image generation device, system having the same, and control method |
CN106325521B (en) | 2016-08-31 | 2018-06-29 | 北京小米移动软件有限公司 | Test virtual reality head shows the method and device of device software |
-
1996
- 1996-01-19 JP JP720996A patent/JP3579162B2/en not_active Expired - Lifetime
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110056775A (en) * | 2009-11-23 | 2011-05-31 | 삼성전자주식회사 | Gui providing method related to 3d image, and display apparatus and 3d image providing system using the same |
US9307224B2 (en) | 2009-11-23 | 2016-04-05 | Samsung Electronics Co., Ltd. | GUI providing method, and display apparatus and 3D image providing system using the same |
KR101648864B1 (en) * | 2009-11-23 | 2016-08-18 | 삼성전자주식회사 | GUI providing method related to 3D image, and display apparatus and 3D image providing system using the same |
WO2014145558A1 (en) * | 2013-03-15 | 2014-09-18 | Rubicon Group Holding Limited | Equidistant stereo lens shader |
Also Published As
Publication number | Publication date |
---|---|
JPH0974573A (en) | 1997-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3579162B2 (en) | 3D CG image generation device | |
US6175379B1 (en) | Stereoscopic CG image generating apparatus and stereoscopic TV apparatus | |
US8953023B2 (en) | Stereoscopic depth mapping | |
EP2362670B1 (en) | Method and apparatus for processing three-dimensional images | |
KR101602904B1 (en) | A method of processing parallax information comprised in a signal | |
KR100456952B1 (en) | Stereoscopic cg moving image generating apparatus | |
US9106906B2 (en) | Image generation system, image generation method, and information storage medium | |
US20040066555A1 (en) | Method and apparatus for generating stereoscopic images | |
WO2005060271A1 (en) | Method and apparatus for generating a stereoscopic image | |
JP3504111B2 (en) | Stereoscopic system, stereoscopic method, and storage medium for storing computer program for displaying a pair of images viewed from two different viewpoints in a stereoscopic manner | |
JP3934211B2 (en) | Stereoscopic CG video generation device | |
JP2003348621A (en) | Means for setting two-viewpoint camera | |
JPH07240945A (en) | Virtual space generating and presenting device | |
WO2019048819A1 (en) | A method of modifying an image on a computational device | |
JPH03236698A (en) | Picture generating device for both eye stereoscopic view | |
KR19980026635A (en) | 3D parallax drawing apparatus and method | |
JPWO2017191703A1 (en) | Image processing device | |
KR100893381B1 (en) | Methods generating real-time stereo images | |
JP6814686B2 (en) | Stereoscopic image display control device, stereoscopic image display control method and stereoscopic image display control program | |
KR100400209B1 (en) | Apparatus for generating three-dimensional moving pictures from tv signals | |
JP2002165232A (en) | Virtual-space generation and presentation apparatus | |
JP2015056796A (en) | Stereoscopic image processing apparatus, imaging apparatus, stereoscopic image processing method and stereoscopic image processing program | |
KR20200099180A (en) | Viewer-adjustable stereoscopic image display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040422 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040706 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040715 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070723 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080723 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090723 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090723 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100723 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110723 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110723 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120723 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120723 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130723 Year of fee payment: 9 |
|
EXPY | Cancellation because of completion of term |