JP3648099B2 - 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体 - Google Patents

画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体 Download PDF

Info

Publication number
JP3648099B2
JP3648099B2 JP21080999A JP21080999A JP3648099B2 JP 3648099 B2 JP3648099 B2 JP 3648099B2 JP 21080999 A JP21080999 A JP 21080999A JP 21080999 A JP21080999 A JP 21080999A JP 3648099 B2 JP3648099 B2 JP 3648099B2
Authority
JP
Japan
Prior art keywords
image
display
sight
unit
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP21080999A
Other languages
English (en)
Other versions
JP2001034788A (ja
Inventor
昭彦 宮崎
仁志 北澤
秀則 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP21080999A priority Critical patent/JP3648099B2/ja
Publication of JP2001034788A publication Critical patent/JP2001034788A/ja
Application granted granted Critical
Publication of JP3648099B2 publication Critical patent/JP3648099B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、3次元コンピュータグラフィックスにおいて、実写画像を用いて物体を表示する画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体に関するものである。
【0002】
【従来の技術】
本明細書において、3次元コンピュータグラフィックス(以下、3次元CGと記す)とは、3次元仮想空間中の物体を透視投影変換して得られる2次元画像をコンピュータを用いて、ディスプレイに表示することを意味する。
【0003】
3次元CGにおける物体(オブジェクトと呼ぶこともある)のモデリングでは、物体の形状をポリゴンの集合で表し、物体の色をテクスチャマッピングなどによって与える手法が通常よく用いられている。
【0004】
一方、3次元CGにおいて物体をよりリアルに表示するために、ディジタルカメラ等を用いて取得した実写画像を用いる手法が最近注目されている。
【0005】
実写画像を用いる手法として最も単純なものは次のような方法である。まず、表示したい物体を直方体で近似する。次に、直方体の各面の正面にあたる方向からディジタルカメラ等で物体の画像を撮影し、得られた画像をテクスチャとしてそれぞれの面にマッピングする。このようにして作成されたモデルは、物体の形状が直方体に近ければかなりのリアリティを持つ。
【0006】
【発明が解決しようとする課題】
前者の場合、複雑な形状の物体を忠実にポリゴンで再現しようとすると、必要なポリゴンの数が膨大なものとなり、ポリゴンデータ、すなわちジオメトリデータも膨大なものとなる。現状ではこのような作業を自動的に行なう手法が確立されていないため、モデリングは人手を介した大変な労力を要する作業になる。また、3次元CGにおいては、視点や視線が変化するたびにジオメトリデータの変換を行なう必要があるため、ジオメトリデータ変換処理にかかる負担が非常に大きくなってしまうという問題がある。
【0007】
また後者の実写画像を用いた単純な手法では、元の物体の形状が直方体から少しずれている場合、斜め方向から見たときに不自然な歪みが生ずる。例えば、図1のような、直方体の表面に若干の凹凸がある物体にこの手法を用いた場合について考える。斜め方向からこの物体を見たときに、本来であれば図2のように見えるはずであるが、この手法を用いると図3のように表示され、凹凸が再現されない。
【0008】
また、元の物体の形状が直方体から大きくずれている場合にこの手法を用いると、斜め方向から見たときの不自然さはいっそう増す。例えば、図4のような湯のみに対してこの手法を用いた場合について考える。斜め方向からこの湯のみを見たとき、図5のように本来ならば見えないはずの背景が見えてしまい、かなり不自然な表示となる。
【0009】
以上述べた通り、この手法はモデリングが非常に簡単であるという利点はあるが、視点の位置や視線の方向を様々に変化させたときに表示が不自然になってしまうという欠点がある。この不自然さを解消しようとすると、湯飲みの形状を忠実にポリゴンで再現することが必要になり、この場合のジオメトリデータの増大やモデリングにかかる膨大な手間の問題は前述したとおりである。
【0010】
以上述べたような現状を踏まえ、本発明の目的は、
1つには、モデリングが簡単に行なえ、
次に、3次元仮想空間レイアウトシステムへの応用を考慮して物体の操作や衝突検出が可能であるようにし、
更に、3次元CGの重要な応用例であるウォークスルーを実現するために視点や視線の変化を自由に行なうことができ、
また隠面消去を行なうことができるような、充分なリアリティを持つ、実写画像を利用した画像合成表示手法を提供することである。
【0011】
【課題を解決するための手段】
上記目的を達成するための方法として、3次元CGデータとして、一つの物体について、物体の操作や衝突検出のためのジオメトリデータと、表示のための画像データとをそれぞれ独立に持つ構成をとる。ジオメトリデータとしては、物体の概形を表す仮オブジェクトをあらかじめ用意しておく。画像データは、表示対象物体をいくつかの方向から撮影したものをあらかじめ用意し、表示対象物体を抽出しておき、ピクセル毎に奥行き値を与えておく、視点や視線の変化に対して仮オブジェクトの形状が変化するので、それに適合するように実写画像に対する適切な変換を行ない、仮オブジェクトの位置に、奥行き値を考慮して合成し表示する。
【0012】
従来では、実写画像をテクスチャとして、ポリゴンに対してテクスチャマッピングを行なった上で表示を行なっていた。このような手法では、物体の見え方はポリゴン分割の詳細度に依存する。一方、本発明では、仮オブジェクトによって物体の表示される位置と形状とを決め、それに合わせて実写画像を奥行き値を考慮して合成し表示する。したがって、物体の見え方はポリゴン分割の詳細度に依存しない。本発明のように、テクスチャマッピングを行なわずに実写画像を用いて奥行き値を考慮して合成し物体を表示する方法であって、しかも物体の操作や衝突検出が可能であるものは従来存在しなかった。
【0013】
上記課題を解決するための手段として、仮オブジェクト作成手段と、画像撮影手段と、物体抽出手段と、奥行き値付与手段と、カメラパラメータ抽出手段と、仮オブジェクト配置手段と、画像選択手段と、画像変換手段と、画像合成手段と、画像表示手段とを設ける。
【0014】
仮オブジェクト作成手段により作成された仮オブジェクトは、物体の概略の形状(以下概形という)を表すとともに、物体の位置と占有範囲とを表す。したがって、仮オブジェクト配置手段を用いて物体を所望の位置に配置した後、回転や移動などの操作を行なうことができ、また、衝突検出を行なうことができる。仮オブジェクトは物体の概形を表すのみであるので多数のポリゴンを用いる必要がなく、ジオメトリデータの作成を簡単に行なうことができる。
【0015】
実写画像は画像撮影手段によって取得される。次に、取得された実写画像から、物体抽出手段によって表示対象の物体のみをあらかじめ抽出しておく。抽出された部分について、奥行き値付与手段によって、ピクセル毎に奥行き値を持たせる。この奥行き値を用いることにより隠面消去が可能となる。
【0016】
また、カメラパラメータ抽出手段によって、後の画像変換に必要なカメラパラメータを抽出しておく。
【0017】
また、3次元仮想空間中の視点や視線の変化に対して、あらかじめ用意された実写画像の中から画像選択手段によって適切な画像が選択される。
【0018】
選択された画像は、撮影時のカメラの方向や3次元仮想空間中の視点や視線などの情報を用いて、画像変換手段により適切な形に変形される。
【0019】
変形された画像を用いて、画像合成手段によって、表示される大きさを調整し、奥行き値を考慮して表示すべき画像を合成する。
【0020】
最終的に、画像表示手段によって、合成された画像が仮オブジェクトの位置に表示される。
【0021】
以上のようにして、モデリングが簡単に行なえ、物体の操作や衝突検出が可能であり、視点や視線の変化を自由に行なうことができ、隠面消去を行なうことができ、充分なリアリティを持った、実写画像を利用した画像合成表示手法を提供することができる。
【0022】
【発明の実施の形態】
〔実施例1〕
図6は本発明の第1の実施例を説明する図であって、1は仮オブジェクト作成部、2は画像撮影部、3は物体抽出部、4は奥行き値付与部、5はカメラパラメータ抽出部、6は仮オブジェクト配置部、7は画像選択部、8は画像変換部、9は画像補正部、10は画像再投影部、11は画像合成部、12は画像表示部、13は視点情報・視線情報入力部、14はジオメトリデータ格納部、15は画像データ格納部、16はカメラパラメータ格納部、17はモデリング部、18はレンダリング部、19はモデルデータ格納部、20は画像合成表示装置である。
【0023】
仮オブジェクト作成部
仮オブジェクト作成部1では、仮オブジェクト作成手段によって仮オブジェクトのジオメトリデータを作成する。具体的には以下のような手順を実行する。
【0024】
まず、物体に外接するような直方体を一つ作成する。この直方体をバウンディングボックスと呼ぶ。このとき、バウンディングボックスの中心が原点となり、座標軸が直方体の各面の中心と交わるような座標系を定義し、これをオブジェクト座標系とする。物体の正面方向に伸びる座標軸をオブジェクト座標系のX軸とし、物体の上方向に伸びる座標軸をオブジェクト座標系のZ軸とする。Y軸は、オブジェクト座標系が右手系をなすような方向に決める。この様子を図7に示す。
【0025】
次に、物体の形状を直方体の組合せで近似する。具体的には、バウンディングボックスからはみださないように適当な直方体を置いていき、物体の形状を再現する。この様子を図8に示す。図8の左側の物体を右側のように近似する。
【0026】
このときの近似の程度によって、衝突検出の精度が左右される。したがって、どの程度の近似が必要かは、衝突検出の精度がどの程度必要かによる。より正確な衝突判定を行なう必要があれば、たくさんの細かな直方体を組み合わせて仮オブジェクトを作成する。逆に、それほど厳密な衝突判定が必要でなければ、少数の直方体を組み合わせて仮オブジェクトを作成すればよい。バウンディングボックスそのものを仮オブジェクトとしても十分な場合もある。
【0027】
仮オブジェクトを作成したのち、バウンディングボックスの頂点の座標と、仮オブジェクトを構成する直方体の頂点の座標を、ジオメトリデータ格納部14に格納する。
【0028】
画像撮影部
画像撮影部2では、画像撮影手段によって物体の画像を撮影する。具体的な手順は以下の通りである。
【0029】
ディジタルカメラを用いて、光軸がバウンディングボックスの中心を通るようにして画像を撮影する。この様子を図9に示す。このとき、光軸の、オブジェクト座標系のX軸からの回転角θと、XY平面からの仰角φを記録しておく。また、バウンディングボックスの中心(すなわち、オブジェクト座標系の原点)から撮像面までの距離は一定に保っておく。
【0030】
このようにして、物体を囲む複数の点から画像を撮影し、画像ファイルを得る。また、θおよびφと画像ファイルに対する対応とを表すテーブルを作成しておく。また、後の物体抽出部における処理のため、背景を単一色に設定しておく。
【0031】
物体抽出部
物体抽出部3では、画像撮影部2で撮影された画像から、物体抽出手段によって、表示の対象となる物体を抽出する。抽出にはクロマキーを用いる。そして、表示対象部分を表すマスクデータを作成する。マスクデータは以下のようなものである。
【0032】
画像データのサイズがU×V(ピクセル)であるとする。このとき、マスクデータはU×Vの2次元配列であって、その要素は「0」または「1」である。例えば、ピクセル(u、v)が表示対象であれば、(u、v)の要素は「1」であり、そうでなければ「0」である。このようなマスクデータを、各画像データに対して一つ作成する。
【0033】
奥行き値付与部
奥行き値付与部4では、奥行き値付与手段によって、奥行き値データを作成する。奥行き値データは以下のようなものである。
【0034】
画像データのサイズがU×V(ピクセル)であるとする。このとき、奥行き値データはU×Vの2次元配列であって、その要素は奥行き値を表す。奥行き値は、オブジェクト座標系の原点を通り、かつ光軸に垂直な平面からの、符号つきの距離とする。奥行き値付与手段による奥行き値の与え方はいくつかの方法が考えられ、目的に応じて適当なものを採用する。
【0035】
一番単純な方法は、バウンディングボックスの中心の値を奥行き値として採用する方法である。この場合、画面全体の奥行き値は一様にゼロになる。
【0036】
次に考えられる方法は、仮オブジェクトの面の位置を奥行き値として採用する方法である。この場合、画像データと仮オブジェクトとを同時に画面上に表示して、仮オブジェクトの直方体の面を選択し、画像データにおいてそれに対応する範囲を指定することによって各ピクセル毎の奥行き値を与えることができる。
【0037】
最も詳細な方法は、画像データの各ピクセル毎に実際の奥行き値を与える方法である。この方法を実現する手段としては、レンジファインダにより生成された距離画像を用いる方法が考えられる。
【0038】
以上、画像撮影部2において作成された画像ファイル、および物体抽出部3において作成されたマスクデータ、および奥行き値付与部4において作成された奥行き値データは、画像データ格納部15に格納しておく。
【0039】
カメラパラメータ抽出部
カメラパラメータ抽出部5では、カメラパラメータ抽出手段を用いてカメラの内部パラメータを抽出する。パラメータは、撮影に用いたカメラの仕様から見積もり、カメラパラメータ格納部16に格納しておく。なおカメラの内部パラメータは、後述するカメラ内部行列で示される。
【0040】
仮オブジェクト配置部
仮オブジェクト配置部6では、仮オブジェクト配置手段を用いて、仮オブジェクトを3次元仮想空間中に配置する。具体的には以下の手順を実行する。
【0041】
3次元仮想空間の基準となる座標系、すなわちワールド座標系を定義する。そして、ワールド座標系における仮オブジェクトの位置と方向を決めることによって、オブジェクト座標系からワールド座標系への変換が定義される。この変換を用いて、仮オブジェクトのジオメトリデータをワールド座標系で表現し、メモリに記憶しておく。
【0042】
一方、視点情報・視線情報入力部13において視点情報および視線情報が入力されると、ワールド座標系からスクリーン座標系への変換が定義される。この変換を用いて、ワールド座標系で表現された仮オブジェクトのジオメトリデータをスクリーン座標系で表現し、これもメモリに記憶しておく。
【0043】
画像選択部
画像選択部7では、画像選択手段を用いて、画像データ格納部15から適切な画像を一枚選択する。具体的な手順は以下の通りである。
【0044】
【数1】
Figure 0003648099
【0045】
画像変換部
画像変換部8では、画像変換手段を用いて、画像選択部7で選択された画像を変換する。画像変換部は、画像補正部9と画像再投影部10とから構成される。画像補正部では、仮想視線ベクトルと撮影時の視線ベクトルとのずれに応じて画像の補正を行ない、画像再投影部では、3次元仮想空間における視線(表示時視線)ベクトルと仮想視線ベクトルとのずれを補正する。
【0046】
ここで、画像補正部9および画像再投影部10において用いられる画像再投影法について説明する。
【0047】
【数2】
Figure 0003648099
【0048】
透視投影変換は以下の式で表される。
【0049】
【数3】
Figure 0003648099
【0050】
例として、光学中心をワールド座標系の原点に置き、光軸をZ軸方向に向けて、焦点距離をfに設定したカメラを考える。このときの様子を図10に示す。透視投影変換は以下の式で表される。
【0051】
【数4】
Figure 0003648099
【0052】
【数5】
Figure 0003648099
【0053】
に再投影する変換を表す行列である。いいかえれば、ある注目点について、ワールド座標系における3次元空間中の位置が判らなくても、透視投影変換を表す行列と、その変換により投影されたスクリーン上の座標とが判っていれば、適当な3行3列の行列を与えることによって、視線の方向を変化させた時のスクリーン上の位置を求めることができる。
【0054】
次に、具体的な行列の形を求める。1枚の画像およびカメラパラメータが与えられているとする。画像はディジタル画像座標系で表現されているとする。まず、この画像について、ディジタル画像座標系から正規化画像座標系への変換を行なう。正規化画像座標系とは、正規化カメラによって得られる画像座標系であり、正規化カメラとは、光学中心からスクリーン面までの距離が単位長であるようなカメラである。
【0055】
ディジタル画像座標系と正規化画像座標系との間の関係は図11のように表される。画面
【0056】
【数6】
Figure 0003648099
【0057】
はカメラ内部行列であり、fは焦点距離、ku 、kv はそれぞれ正規化画像座標を基準とした時のu、v軸の単位、θはuとv軸のなす角度、u0 、v0 はディジタル画像座標系における正規化画像座標原点の座標である。また、αu =fku 、αv =fkv である。
【0058】
以下、正規化画像座標系を用いて考える。基準となる画像に対して、正規化画像座標系の座標軸とワールド座標系の座標軸とが一致していると考えて一般性を失わない。この場合、カメラの光学中心はワールド座標系の原点にあり、カメラの向きはワールド座標系のZ軸方向と一致している。すなわち、
【0059】
【数7】
Figure 0003648099
【0060】
である。カメラの向きを変えた時の注目点のスクリーン上の位置を求めるには、正規化画像座標系の座標変換をあらわす行列を求めれば良い。
【0061】
正規化画像座標系のX軸の回りにカメラを角度φだけ回転させるような正規化画像座標系の座標変換(図12参照)を表す行列を
【0062】
【数8】
Figure 0003648099
【0063】
である。同様に、正規化画像座標系のY軸の回りにカメラを角度θだけ回転させるような正規化画像座標系の座標変換をあらわす行列を
【0064】
【数9】
Figure 0003648099
【0065】
であり、正規化画像座標系のZ軸の回りにカメラを角度ψだけ回転させるような正規化画像座標系の座標変換をあらわす行列を
【0066】
【数10】
Figure 0003648099
【0067】
である。したがって、カメラを正規化画像座標系のX軸、Y軸、Z軸の回りにそれぞれ角度φ、θ、ψだけ回転させる操作をこの順序にしたがって行なったとすると、
【0068】
【数11】
Figure 0003648099
【0069】
以上の説明では、座標変換をX軸、Y軸、Z軸に関して順を追って行なったが、これを回転軸とそのまわりの回転角度とを与えて一段階で行なうこともできる。
【0070】
【数12】
Figure 0003648099
【0071】
画像補正部
画像補正部9では、画像再投影法を用いて近似的な画像を得る。具体的な手順は以下の通りである。
【0072】
【数13】
Figure 0003648099
【0073】
以上で求まった
【0074】
【数14】
Figure 0003648099
【0075】
を用いて、画像再投影法を適用すると、撮影時の視線ベクトルと仮想視線ベクトルとのずれを補正した、近似的な画像を得ることができる。
【0076】
画像再投影部
画像再投影部10では、画像補正部9で得られた画像について、さらに画像再投影法によってスクリーン座標系の視線(表示時視線)ベクトルと仮想視線ベクトルとのずれを補正する。具体的な手順は以下の通りである。
【0077】
【数15】
Figure 0003648099
【0078】
以上で求まった
【0079】
【数16】
Figure 0003648099
【0080】
を用いて、画像再投影法を適用すると、撮影時の視線ベクトルに垂直なスクリーン面に投影された画像を、スクリーン座標系のスクリーン面に再投影することができる。
【0081】
画像合成部
画像合成部11では、画像合成手段によって表示される画像の合成を行なう。具体的な手順は以下の通りである。
【0082】
まず、画像変換部8で得られた画像について、縦横比を保ったまま、仮オブジェクトの大きさに合わせて拡大または縮小を行なう。一般に、仮オブジェクトの形状と画像変換部8で得られた画像の輪郭とは一致するとは限らないので、縦方向あるいは横方向のいずれかを選択して、仮オブジェクトのサイズと画面上に表示されるサイズを一致させ、実際に描画するサイズの画像を生成する。また、仮オブジェクトの位置に合わせて、描画される画像の位置を決定する。
【0083】
つづいて、描画する画像の各画素の持つ奥行き値を、既に描かれている画像の奥行き値と比較し、奥行き値の小さい方を描画する画素として選択する。
以上の手順によって、奥行き値を考慮した画像の合成が行なわれる。
【0084】
画像表示部
画像表示部12では、画像合成部11によって合成された画像をディスプレイ上に表示する。
【0085】
以上のような作用により、モデリングが簡単に行なえ、物体の操作や衝突検出が可能であり、視点や視線の変化を自由に行なうことができ、充分なリアリティを持った、実写画像を利用した画像合成表示手法を提供することができる。
【0086】
その効果として、ポリゴン分割の詳細度に依存しない、充分な品質を持った、物体の表示を行なうことができる。
【0087】
以下、図18ないし図21を参照して実施例1の場合の要部の処理を記述する。
【0088】
図18は、図6に示す実施例1におけるジオメトリデータ作成のためのフローチャートを示す。
ステップ(S1):バウンディングボックスを生成する。
ステップ(S2):直方体を生成する。
ステップ(S3):直方体を配置する。
ステップ(S4):近似が十分であるか否かを調べる。
ステップ(S5):仮オブジェクトジオメトリデータを生成する。
【0089】
図19は、図6に示す実施例1における画像データ作成のためのフローチャートを示す。
ステップ(S6):画像ファイルの読み込みを行う。
ステップ(S7):表示対象部分を切り出す。
ステップ(S8):マスクデータを生成する。
ステップ(S9):奥行き値データを生成する。
【0090】
図20は、図6に示す実施例1におけるカメラパラメータ抽出のためのフローチャートを示す。
ステップ(S10):カメラパラメータを抽出する。
【0091】
図21は、図6に示す実施例1におけるレンダリング部のフローチャートを示す。
ステップ(S11):視点と視線とに関する情報が入力される。
ステップ(S12):仮オブジェクトデータを読込む。
ステップ(S13):仮オブジェクトを配置する。
ステップ(S14):画像ファイルを選択する。
ステップ(S15):撮影時視線ベクトルと仮想視線ベクトルとのずれを補正する。
ステップ(S16):視線(表示時視線)ベクトルと仮想視線ベクトルとのずれを補正する。
ステップ(S17):拡大または縮小の基準方向を選択する。
ステップ(S18):画像を拡大または縮小する。
ステップ(S19):描画位置を決定する。
ステップ(S20):画素毎の奥行き値を比較する。
ステップ(S21):影にかくれた部分などの描画すべきでない部分か否かを調べる。
ステップ(S22):描画すべき部分については描画する。
ステップ(S23):全ての画素について処理したか否かを調べる。
ステップ(S24):画面表示を行う。
【0092】
〔実施例2〕
図13は本発明の第2の実施例を説明する図であって、1は仮オブジェクト作成部、2は画像撮影部、3は物体抽出部、4は奥行き値付与部、5はカメラパラメータ抽出部、6は仮オブジェクト配置部、7は画像選択部、8は画像変換部、9は画像補正部、11は画像合成部、12は画像表示部、13は視点情報・視線情報入力部、14はジオメトリデータ格納部、15は画像データ格納部、16はカメラパラメータ格納部、17はモデリング部、18はレンダリング部、19はモデルデータ格納部、20は画像合成表示装置である。
【0093】
仮オブジェクト作成部
仮オブジェクト作成部1では、仮オブジェクト作成手段によって仮オブジェクトのジオメトリデータを作成する。具体的には以下のような手順を実行する。
【0094】
まず、物体に外接するような直方体を一つ作成する。この直方体をバウンディングボックスと呼ぶ、このとき、バウンディングボックスの中心が原点となり、座標軸が直方体の各面の中心と交わるような座標系を定義し、これをオブジェクト座標系とする。物体の正面方向に伸びる座標軸をオブジェクト座標系のX軸とし、物体の上方向に伸びる座標軸をオブジェクト座標系のZ軸とする。Y軸は、オブジェクト座標系が右手系をなすような方向に決める。この様子を図7に示す。
【0095】
次に、物体の形状を直方体の組合せで近似する。具体的には、バウンディングボックスからはみださないように適当な直方体を置いていき、物体の形状を再現する。この様子を図8に示す。図8の左側の物体を右側のように近似する。
【0096】
このときの近似の程度によって、衝突検出の精度が左右される。したがって、どの程度の近似が必要かは、衝突検出の精度がどの程度必要かによる。より正確な衝突判定を行なう必要があれば、たくさんの細かな直方体を組み合わせて仮オブジェクトを作成する。逆に、それほど厳密な衝突判定が必要でなければ、少数の直方体を組み合わせて仮オブジェクトを作成すればよい。バウンディングボックスそのものを仮オブジェクトとしても十分な場合もある。
【0097】
仮オブジェクトを作成したのち、バウンディングボックスの頂点の座標と、仮オブジェクトを構成する直方体の頂点の座標を、ジオメトリデータ格納部14に格納する。
【0098】
画像撮影部
画像撮影部2では、画像撮影手段によって物体の画像を撮影する。具体的な手順は以下の通りである。
【0099】
ディジタルカメラを用いて、光軸がバウンディングボックスの中心を通るようにして画像を撮影する。この様子を図9に示す。このとき、光軸の、オブジェクト座標系のX軸からの回転角θと、XY平面からの仰角φを記録しておく。また、バウンディングボックスの中心(すなわち、オブジェクト座標系の原点)から撮像面までの距離は一定に保っておく。
【0100】
このようにして、物体を囲む複数の点から画像を撮影し、画像ファイルを得る。また、θおよびφと画像ファイルに対する対応とを表すテーブルを作成しておく。また、後の物体抽出部における処理のため、背景を単一色に設定しておく。
【0101】
物体抽出部
物体抽出部3では、画像撮影部2で撮影された画像から、物体抽出手段によって、表示の対象となる物体を抽出する。抽出にはクロマキーを用いる。そして、表示対象部分を表すマスクデータを作成する。マスクデータは以下のようなものである。
【0102】
画像データのサイズがU×V(ピクセル)であるとする。このとき、マスクデータはU×Vの2次元配列であって、その要素は「0」または「1」である。例えば、ピクセル(u、v)が表示対象であれば、(u、v)の要素は「1」であり、そうでなければ「0」である。このようなマスクデータを、各画像データに対して一つ作成する。
【0103】
奥行き値付与部
奥行き値付与部4では、奥行き値付与手段によって、奥行き値データを作成する。奥行き値データは以下のようなものである。
【0104】
画像データのサイズがU×V(ピクセル)であるとする。このとき、奥行き値データはU×Vの2次元配列であって、その要素は奥行き値を表す。奥行き値は、オブジェクト座標系の原点を通り、かつ光軸に垂直な平面からの、符号つきの距離とする。奥行き値付与手段による奥行き値の与え方にはいくつかの方法が考えられ、目的に応じて適当なものを採用する。
【0105】
一番単純な方法は、バウンディングボックスの中心の値を奥行き値として採用する方法である。この場合、画面全体の奥行き値は一様にゼロになる。
【0106】
次に考えられる方法は、仮オブジェクトの面の位置を奥行き値として採用する方法である。この場合、画像データと仮オブジェクトとを同時に画面上に表示して、仮オブジェクトの直方体の面を選択し、画像データにおいてそれに対応する範囲を指定することによって各ピクセル毎の奥行き値を与えることができる。
【0107】
最も詳細な方法は、画像データの各ピクセル毎に実際の奥行き値を与える方法である。この方法を実現する手段としては、レンジファインダにより生成された距離画像を用いる方法が考えられる。
【0108】
以上、画像撮影部2において作成される画像ファイル、および物体抽出部3において作成されたマスクデータ、および奥行き値付与部4において作成された奥行き値データは、画像データ格納部15に格納しておく。
【0109】
カメラパラメータ抽出部
カメラパラメータ抽出部5では、カメラパラメータ抽出手段を用いてカメラの内部パラメータを抽出する。パラメータは、撮影に用いたカメラの仕様から見積もり、カメラパラメータ格納部16に格納しておく。
【0110】
仮オブジェクト配置部
仮オブジェクト配置部6では、仮オブジェクト配置手段を用いて、仮オブジェクトを3次元仮想空間中に配置する。具体的には以下の手順を実行する。
【0111】
3次元仮想空間の基準となる座標系、すなわちワールド座標系を定義する。そして、ワールド座標系における仮オブジェクトの位置と方向を決めることによって、オブジェクト座標系からワールド座標系への変換が定義される。この変換を用いて、仮オブジェクトのジオメトリデータをワールド座標系で表現し、メモリに記憶しておく。
【0112】
一方、視点情報・視線情報入力部13において視点情報および視線情報が入力されると、ワールド座標系からスクリーン座標系への変換が定義される。この変換を用いて、ワールド座標系で表現された仮オブジェクトのジオメトリデータをスクリーン座標系で表現し、これもメモリに記憶しておく。
【0113】
画像選択部
画像選択部7では、画像選択手段を用いて、画像データ格納部15から適切な画像を一枚選択する。具体的な手順は以下の通りである。
【0114】
【数17】
Figure 0003648099
【0115】
画像変換部
画像変換部8では、画像変換手段を用いて、画像選択部7で選択された画像を変換する。
【0116】
画像変換部は、画像補正部9から構成される。画像補正部では、仮想視線ベクトルと撮影時の視線ベクトルのずれに応じて画像の補正を行なう。この画像変換部8での処理が実施例1の場合と異なる。
【0117】
画像補正部
画像補正部9では、実施例1において説明した画像再投影法を用いて近似的な画像を得る。具体的な手順は以下の通りである。
【0118】
画像選択部7において選択された画像の撮影時の視線ベクトル
【0119】
【数18】
Figure 0003648099
【0120】
以上で求まった
【0121】
【数19】
Figure 0003648099
【0122】
を用いて、画像再投影法を適用すると、撮影時の視線ベクトルと仮想視線ベクトルのずれを補正した、近似的な画像を得ることができる。
【0123】
画像合成部
画像合成部11では、画像合成手段によって表示される画像の合成を行なう。具体的な手順は以下の通りである。
【0124】
まず、画像変換部8で得られた画像について、縦横比を保ったまま、仮オブジェクトの大きさに合わせて拡大または縮小を行なう。一般に、仮オブジェクトの形状と画像変換部8で得られた画像の輪郭とは一致するとは限らないので、縦方向あるいは横方向のいずれかを選択して、仮オブジェクトのサイズと画面上に表示されるサイズを一致させ、実際に描画するサイズの画像を生成する。また、仮オブジェクトの位置に合わせて、描画される画像の位置を決定する。
【0125】
つづいて、描画する画像の各画素の持つ奥行き値を、既に描かれている画像の奥行き値と比較し、奥行き値の小さい方を描画する画素として選択する。
以上の手順によって、奥行き値を考慮した画像の合成が行なわれる。
【0126】
画像表示部
画像表示部12では、画像合成部11によって合成された画像をディスプレイ上に表示する。
【0127】
以上のような作用により、モデリングが簡単に行なえ、物体の操作や衝突検出が可能であり、視点や視線の変化を自由に行なうことができ、充分なリアリティを持った、実写画像を利用した画像合成表示手法を提供することができる。
【0128】
その効果として、ポリゴン分割の詳細度に依存しない、充分な品質を持った、物体の表示を行なうことができる。実施例1と比較すると、画像再投影部における処理を省略しているため、近似の程度は粗くなるが、その分高度な処理を行なうことができる。
【0129】
図22は、実施例2の場合における、実施例1との相違部分であるレンダリング部についてのフローチャートを示す。なお相違点は、図21におけるステップ(S16)に相当するステップが省略されている点である。
ステップ(S25):視点と視線とに関する情報が入力される。
ステップ(S26):仮オブジェクトデータを読込む。
ステップ(S27):仮オブジェクトを配置する。
ステップ(S28):画像ファイルを選択する。
ステップ(S29):撮影時視線ベクトルと仮想視線ベクトルとのずれを補正する。
ステップ(S30):拡大または縮小の基準方向を選択する。
ステップ(S31):画像を拡大または縮小する。
ステップ(S32):描画位置を決定する。
ステップ(S33):画素毎の奥行き値を比較する。
ステップ(S34):影にかくれた部分などの描画すべきでない部分か否かを調べる。
ステップ(S35):描画すべき部分については描画する。
ステップ(S36):全ての画素について処理したか否かを調べる。
ステップ(S37):画面表示を行う。
【0130】
〔実施例3〕
図14は本発明の第3の実施例を説明する図であって、1は仮オブジェクト作成部、2は画像撮影部、3は物体抽出部、4は奥行き値付与部、5はカメラパラメータ抽出部、6は仮オブジェクト配置部、7は画像選択部、8は画像変換部、10は画像再投影部、11は画像合成部、12は画像表示部、13は視点情報・視線情報入力部、14はジオメトリデータ格納部、15は画像データ格納部、16はカメラパラメータ格納部、17はモデリング部、18はレンダリング部、19はモデルデータ格納部、20は画像合成表示装置である。
【0131】
仮オブジェクト作成部
仮オブジェクト作成部1では、仮オブジェクト作成手段によって仮オブジェクトのジオメトリデータを作成する。具体的には以下のような手順を実行する。
【0132】
まず、物体に外接するような直方体を一つ作成する。この直方体をバウンディングボックスと呼ぶ。このとき、バウンディングボックスの中心が原点となり、座標軸が直方体の各面の中心と交わるような座標系を定義し、これをオブジェクト座標系とする。物体の正面方向に伸びる座標軸をオブジェクト座標系のX軸とし、物体の上方向に伸びる座標軸をオブジェクト座標系のZ軸とする。Y軸は、オブジェクト座標系が右手系をなすような方向に決める。この様子を図7に示す。
【0133】
次に、物体の形状を直方体の組合せで近似する。具体的には、バウンディングボックスからはみださないように適当な直方体を置いていき、物体の形状を再現する。この様子を図8に示す。図8の左側の物体を右側のように近似する。
【0134】
このときの近似の程度によって、衝突検出の精度が左右される。したがって、どの程度の近似が必要かは、衝突検出の精度がどの程度必要かによる。より正確な衝突判定を行なう必要があれば、たくさんの細かな直方体を組み合わせて仮オブジェクトを作成する。逆に、それほど厳密な衝突判定が必要でなければ、少数の直方体を組み合わせて仮オブジェクトを作成すればよい。バウンディングボックスそのものを仮オブジェクトとしても十分な場合もある。
【0135】
仮オブジェクトを作成したのち、バウンディングボックスの頂点の座標と、仮オブジェクトを構成する直方体の頂点の座標を、ジオメトリデータ格納部14に格納する。
【0136】
画像撮影部
画像撮影部2では、画像撮影手段によって物体の画像を撮影する。具体的な手順は以下の通りである。
【0137】
ディジタルカメラを用いて、光軸がバウンディングボックスの中心を通るようにして画像を撮影する。この様子を図9に示す。このとき、光軸の、オブジェクト座標系のX軸からの回転角θと、XY平面からの仰角φを記録しておく。また、バウンディングボックスの中心(すなわち、オブジェクト座標系の原点)から撮像面までの距離は一定に保っておく。
【0138】
このようにして、物体を囲む複数の点から画像を撮影し、画像ファイルを得る。また、θおよびφと画像ファイルに対する対応とを表すテーブルを作成しておく。また、後の物体抽出部における処理のため、背景を単一色に設定しておく。
【0139】
物体抽出部
物体抽出部3では、画像撮影部2で撮影された画像から、物体抽出手段によって、表示の対象となる物体を抽出する。抽出にはクロマキーを用いる。そして、表示対象部分を表すマスクデータを作成する。マスクデータは以下のようなものである。
【0140】
画像データのサイズがU×V(ピクセル)であるとする。このとき、マスクデータはU×Vの2次元配列であって、その要素は「0」または「1」である。例えば、ピクセル(u、v)が表示対象であれば、(u、v)の要素は「1」であり、そうでなければ「0」である。このようなマスクデータを、各画像データに対して一つ作成する。
【0141】
奥行き値付与部
奥行き値付与部4では、奥行き値付与手段によって、奥行き値データを作成する。奥行き値データは以下のようなものである。
【0142】
画像データのサイズがU×V(ピクセル)であるとする。このとき、奥行き値データはU×Vの2次元配列であって、その要素は奥行き値を表す。奥行き値は、オブジェクト座標系の原点を通り、かつ光軸に垂直な平面からの、符号つきの距離とする。奥行き値付与手段による奥行き値の与え方にはいくつかの方法が考えられ、目的に応じて適当なものを採用する。
【0143】
一番単純な方法は、バウンディングボックスの中心の値を奥行き値として採用する方法である。この場合、画面全体の奥行き値は一様にゼロになる。
【0144】
次に考えられる方法は、仮オブジェクトの面の位置を奥行き値として採用する方法である。この場合、画像データと仮オブジェクトとを同時に画面上に表示して、仮オブジェクトの直方体の面を選択し、画像データにおいてそれに対応する範囲を指定することによって各ピクセル毎の奥行き値を与えることができる。
【0145】
最も詳細な方法は、画像データの各ピクセル毎に実際の奥行き値を与える方法である。この方法を実現する手段としては、レンジファインダにより生成された距離画像を用いる方法が考えられる。
【0146】
以上、画像撮影部2において作成された画像ファイル、および物体抽出部3において作成されたマスクデータ、および奥行き値付与部4において作成された奥行き値データは、画像データ格納部15に格納しておく。
【0147】
カメラパラメータ抽出部
カメラパラメータ抽出部5では、カメラパラメータ抽出手段を用いてカメラの内部パラメータを抽出する。パラメータは、撮影に用いたカメラの仕様から見積もり、カメラパラメータ格納部16に格納しておく。
【0148】
仮オブジェクト配置部
仮オブジェクト配置部6では、仮オブジェクト配置手段を用いて、仮オブジェクトを3次元仮想空間中に配置する。具体的には以下の手順を実行する。
【0149】
3次元仮想空間の基準となる座標系、すなわちワールド座標系を定義する。そして、ワールド座標系における仮オブジェクトの位置と方向を決めることによって、オブジェクト座標系からワールド座標系への変換が定義される。この変換を用いて、仮オブジェクトのジオメトリデータをワールド座標系で表現し、メモリに記憶しておく。
【0150】
一方、視点情報・視線情報入力部13において視点情報および視線情報が入力されると、ワールド座標系からスクリーン座標系への変換が定義される。この変換を用いて、ワールド座標系で表現された仮オブジェクトのジオメトリデータをスクリーン座標系で表現し、これもメモリに記憶しておく。
【0151】
画像選択部
画像選択部7では、画像選択手段を用いて、画像データ格納部15から適切な画像を一枚選択する。具体的な手順は以下の通りである。
【0152】
【数20】
Figure 0003648099
【0153】
画像変換部
画像変換部8では、画像変換手段を用いて、画像選択部7で選択された画像を変換する。
【0154】
画像変換部は、画像再投影部10から構成される。画像変換部8での処理が実施例1や実施例2の場合と異なる。
【0155】
画像再投影部
画像再投影部10では、画像選択部7で選択された画像について、画像再投影法によってスクリーン座標系の視線(表示時視線)ベクトルと仮想視線ベクトルのずれを補正する。具体的な手順は以下の通りである。
【0156】
【数21】
Figure 0003648099
【0157】
以上で求まった
【0158】
【数22】
Figure 0003648099
【0159】
を用いて、画像再投影法を適用すると、撮影時の視線ベクトルに垂直なスクリーン面に投影された画像を、スクリーン座標系のスクリーン面に再投影することができる。
【0160】
画像合成部
画像合成部11では、画像合成手段によって表示される画像の合成を行なう。具体的な手順は以下の通りである。
【0161】
まず、画像変換部8で得られた画像について、縦横比を保ったまま、仮オブジェクトの大きさに合わせて拡大または縮小を行なう。一般に、仮オブジェクトの形状と画像変換部8で得られた画像の輪郭とは一致するとは限らないので、縦方向あるいは横方向のいずれかを選択して、仮オブジェクトのサイズと画面上に表示されるサイズを一致させ、実際に描画するサイズの画像を生成する。また、仮オブジェクトの位置に合わせて、描画される画像の位置を決定する。
【0162】
つづいて、描画する画像の各画素の持つ奥行き値を、既に描かれている画像の奥行き値と比較し、奥行き値の小さい方を描画する画素として選択する。
以上の手順によって、奥行き値を考慮した画像の合成が行なわれる。
【0163】
画像表示部
画像表示部12では、画像合成部11によって合成された画像をディスプレイ上に表示する。
【0164】
以上のような作用により、モデリングが簡単に行なえ、物体の操作や衝突検出が可能であり、視点や視線の変化を自由に行なうことができ、充分なリアリティを持った、実写画像を利用した画像合成表示手法を提供することができる。
【0165】
その効果として、ポリゴン分割の詳細度に依存しない、充分な品質を持った、物体の表示を行なうことができる。実施例1と比較すると、画像補正部における処理を省略しているため、近似の程度は粗くなるが、その分高速な処理を行なうことができる。
【0166】
図23は、実施例3の場合における、実施例1との相違部分であるレンダリング部についてのフローチャートを示す。なお、相違点は、図21におけるステップ(S15)に相当するステップが省略されている点である。
ステップ(S38):視点と視線とに関する情報が入力される。
ステップ(S39):仮オブジェクトデータを読込む。
ステップ(S40):仮オブジェクトを配置する。
ステップ(S41):画像ファイルを選択する。
ステップ(S42):視線(表示時視線)ベクトルと仮想視線ベクトルとのずれを補正する。
ステップ(S43):拡大または縮小の基準方向を選択する。
ステップ(S44):画像を拡大または縮小する。
ステップ(S45):描画位置を決定する。
ステップ(S46):画素毎の奥行き値を比較する。
ステップ(S47):影にかくれた部分などの描画すべきでない部分か否かを調べる。
ステップ(S48):描画すべき部分については描画する。
ステップ(S49):全ての画素について処理したか否かを調べる。
ステップ(S50):画面表示を行う。
【0167】
〔実施例4〕
図15は本発明の第4の実施例を説明する図であって、1は仮オブジェクト作成部、2は画像撮影部、3は物体抽出部、4は奥行き値付与部、6は仮オブジェクト配置部、7は画像選択部、11は画像合成部、12は画像表示部、13は視点情報・視線情報入力部、14はジオメトリデータ格納部、15は画像データ格納部、17はモデリング部、18はレンダリング部、19はモデルデータ格納部、20は画像合成表示装置である。
【0168】
仮オブジェクト作成部
仮オブジェクト作成部1では、仮オブジェクト作成手段によって仮オブジェクトのジオメトリデータを作成する。具体的には以下のような手順を実行する。
【0169】
まず、物体に外接するような直方体を一つ作成する。この直方体をバウンディングボックスと呼ぶ、このとき、バウンディングボックスの中心が原点となり、座標軸が直方体の各面の中心と交わるような座標系を定義し、これをオブジェクト座標系とする。物体の正面方向に伸びる座標軸をオブジェクト座標系のX軸とし、物体の上方向に伸びる座標軸をオブジェクト座標系のZ軸とする。Y軸は、オブジェクト座標系が右手系をなすような方向に決める。この様子を図7に示す。
【0170】
次に、物体の形状を直方体の組合せで近似する。具体的には、バウンディングボックスからはみださないように適当な直方体を置いていき、物体の形状を再現する。この様子を図8に示す。図8の左側の物体を右側のように近似する。
【0171】
このときの近似の程度によって、衝突検出の精度が左右される。したがって、どの程度の近似が必要かは、衝突検出の精度がどの程度必要かによる。より正確な衝突判定を行なう必要があれば、たくさんの細かな直方体を組み合わせて仮オブジェクトを作成する。逆に、それほど厳密な衝突判定が必要でなければ、少数の直方体を組み合わせて仮オブジェクトを作成すればよい。バウンディングボックスそのものを仮オブジェクトとしても十分な場合もある。
【0172】
仮オブジェクトを作成したのち、バウンディングボックスの頂点の座標と、仮オブジェクトを構成する直方体の頂点の座標を、ジオメトリデータ格納部14に格納する。
【0173】
画像撮影部
画像撮影部2では、画像撮影手段によって物体の画像を撮影する。具体的な手順は以下の通りである。
【0174】
ディジタルカメラを用いて、光軸がバウンディングボックスの中心を通るようにして画像を撮影する。この様子を図9に示す。このとき、光軸の、オブジェクト座標系のX軸からの回転角θと、XY平面からの仰角φを記録しておく。また、バウンディングボックスの中心(すなわち、オブジェクト座標系の原点)から撮像面までの距離は一定に保っておく。
【0175】
このようにして、物体を囲む複数の点から画像を撮影し、画像ファイルを得る。また、θおよびφと画像ファイルに対する対応とを表すテーブルを作成しておく。また、後の物体抽出部における処理のため、背景を単一色に設定しておく。
【0176】
物体抽出部
物体抽出部3では、画像撮影部2で撮影された画像から、物体抽出手段によって、表示の対象となる物体を抽出する。抽出にはクロマキーを用いる。そして、表示対象部分を表すマスクデータを作成する。マスクデータは以下のようなものである。
【0177】
画像データのサイズがU×V(ピクセル)であるとする。このとき、マスクデータはU×Vの2次元配列であって、その要素は「0」または「1」である。例えば、ピクセル(u、v)が表示対象であれば、(u、v)の要素は「1」であり、そうでなければ「0」である。このようなマスクデータを、各画像データに対して一つ作成する。
【0178】
奥行き値付与部
奥行き値付与部4では、奥行き値付与手段によって、奥行き値データを作成する。奥行き値データは以下のようなものである。
【0179】
画像データのサイズがU×V(ピクセル)であるとする。このとき、奥行き値データはU×Vの2次元配列であって、その要素は奥行き値を表す。奥行き値は、オブジェクト座標系の原点を通り、かつ光軸に垂直な平面からの、符号つきの距離とする。奥行き値付与手段による奥行き値の与え方にはいくつかの方法が考えられ、目的に応じて適当なものを採用する。
【0180】
一番単純な方法は、バウンディングボックスの中心の値を奥行き値として採用する方法である。この場合、画面全体の奥行き値は一様にゼロになる。
【0181】
次に考えられる方法は、仮オブジェクトの面の位置を奥行き値として採用する方法である。この場合、画像データと仮オブジェクトとを同時に画面上に表示して、仮オブジェクトの直方体の面を選択し、画像データにおいてそれに対応する範囲を指定することによって各ピクセル毎の奥行き値を与えることができる。
【0182】
最も詳細な方法は、画像データの各ピクセル毎に実際の奥行き値を与える方法である。この方法を実現する手段としては、レンジファインダにより生成された距離画像を用いる方法が考えられる。
【0183】
以上、画像撮影部2において作成された画像ファイル、および物体抽出部3において作成されたマスクデータ、および奥行き値付与部4において作成された奥行き値データは、画像データ格納部15に格納しておく。
【0184】
仮オブジェクト配置部
仮オブジェクト配置部6では、仮オブジェクト配置手段を用いて、仮オブジェクトを3次元仮想空間中に配置する。具体的には以下の手順を実行する。
【0185】
3次元仮想空間の基準となる座標系、すなわちワールド座標系を定義する。そして、ワールド座標系における仮オブジェクトの位置と方向を決めることによって、オブジェクト座標系からワールド座標系への変換が定義される。この変換を用いて、仮オブジェクトのジオメトリデータをワールド座標系で表現し、メモリに記憶しておく。
【0186】
一方、視点情報・視線情報入力部13において視点情報および視線情報が入力されると、ワールド座標系からスクリーン座標系への変換が定義される。この変換を用いて、ワールド座標系で表現された仮オブジェクトのジオメトリデータをスクリーン座標系で表現し、これもメモリに記憶しておく。
【0187】
画像選択部
画像選択部7では、画像選択手段を用いて、画像データ格納部15から適切な画像を一枚選択する。具体的な手順は以下の通りである。
【0188】
【数23】
Figure 0003648099
【0189】
画像合成部
画像合成部11では、画像合成手段によって表示される画像の合成を行なう。具体的な手順は以下の通りである。この処理が、実施例1や実施例2や実施例3とは異なる。
【0190】
まず、画像選択部7で得られた画像について、縦横比を保ったまま、仮オブジェクトの大きさに合わせて拡大または縮小を行なう。一般に、仮オブジェクトの形状と画像選択部7で得られた画像の輪郭とは一致するとは限らないので、縦方向あるいは横方向のいずれかを選択して、仮オブジェクトのサイズと画面上に表示されるサイズを一致させ、実際に描画するサイズの画像を生成する。また、仮オブジェクトの位置に合わせて、描画される画像の位置を決定する。
【0191】
つづいて、描画する画像の各画素の持つ奥行き値を、既に描かれている画像の奥行き値と比較し、奥行き値の小さい方を描画する画素として選択する。
以上の手順によって、奥行き値を考慮した画像の合成が行なわれる。
【0192】
画像表示部
画像表示部12では、画像合成部11によって合成された画像をディスプレイ上に表示する。
【0193】
以上のような作用により、モデリングが簡単に行なえ、物体の操作や衝突検出が可能であり、視点や視線の変化を自由に行なうことができ、充分なリアリティを持った、実写画像を利用した画像合成表示手法を提供することができる。
【0194】
その効果として、ポリゴン分割の詳細度に依存しない、充分な品質を持った、物体の表示を行なうことができる。実施例1および実施例2、実施例3と比較すると、画像変換部における処理を省略しているため、近似の程度はさらに粗くなるが、その分さらに高速な処理を行なうことができる。
【0195】
図24は、実施例4の場合における、実施例1との相違部分であるレンダリング部についてのフローチャートを示す。なお、相違点は、図21におけるステップ(S15)とステップ(S16)とに相当するステップが省略されている点である。
ステップ(S51):視点と視線とに関する情報が入力される。
ステップ(S52):仮オブジェクトデータを読込む。
ステップ(S53):仮オブジェクトを配置する。
ステップ(S54):画像ファイルを選択する。
ステップ(S55):拡大または縮小の基準方向を選択する。
ステップ(S56):画像を拡大または縮小する。
ステップ(S57):描画位置を決定する。
ステップ(S58):画素毎の奥行き値を比較する。
ステップ(S59):影にかくれた部分などの描画すべきでない部分か否かを調べる。
ステップ(S60):描画すべき部分については描画する。
ステップ(S61):全ての画素について処理したか否かを調べる。
ステップ(S62):画面表示を行う。
【0196】
〔実施例5〕
図16は本発明の第5の実施例を説明する図であって、1は仮オブジェクト作成部、2は画像撮影部、3は物体抽出部、4は奥行き値付与部、6は仮オブジェクト配置部、7は画像選択部、8は画像変換部、11は画像合成部、12は画像表示部、13は視点情報・視線情報入力部、14はジオメトリデータ格納部、15は画像データ格納部、17はモデリング部、18はレンダリング部、19はモデルデータ格納部、20は画像合成表示装置である。
【0197】
仮オブジェクト作成部
仮オブジェクト作成部1では、仮オブジェクト作成手段によって仮オブジェクトのジオメトリデータを作成する。具体的には以下のような手順を実行する。
【0198】
まず、物体に外接するような直方体を一つ作成する。この直方体をバウンディングボックスと呼ぶ、このとき、バウンディングボックスの中心が原点となり、座標軸が直方体の各面の中心と交わるような座標系を定義し、これをオブジェクト座標系とする。物体の正面方向に伸びる座標軸をオブジェクト座標系のX軸とし、物体の上方向に伸びる座標軸をオブジェクト座標系のZ軸とする。Y軸は、オブジェクト座標系が右手系をなすような方向に決める。この様子を図7に示す。
【0199】
次に、物体の形状を直方体の組合せで近似する。具体的には、バウンディングボックスからはみださないように適当な直方体を置いていき、物体の形状を再現する。
【0200】
このときの近似の程度によって、後に衝突検出の精度が左右される。したがって、どの程度の近似が必要かは、衝突検出の精度がどの程度必要かによる。より正確な衝突判定を行なう必要があれば、たくさんの細かな直方体を組み合わせて仮オブジェクトを作成する。逆に、それほど厳密な衝突判定が必要でなければ、少数の直方体を組み合わせて仮オブジェクトを作成すればよい。バウンディングボックスそのものを仮オブジェクトとしても十分な場合もある。
【0201】
仮オブジェクトを作成したら、バウンディングボックスの頂点の座標と、仮オブジェクトを構成する直方体の頂点の座標を、ジオメトリデータ格納部14に格納する。
【0202】
画像撮影部
画像撮影部2では、画像撮影手段によって物体の画像を撮影する。具体的な手順は以下の通りである。
【0203】
ディジタルカメラを用いて、光軸がバウンディングボックスの中心を通るようにして画像を撮影する。このとき、光軸の、オブジェクト座標系のX軸からの回転角θと、XY平面からの仰角φを記録しておく。また、バウンディングボックスの中心(すなわち、オブジェクト座標系の原点)から撮像面までの距離は一定に保っておく。
【0204】
このようにして、物体を囲む複数の点から画像を撮影し、画像ファイルを得る。また、θおよびφと画像ファイルに対する対応とを表すテーブルを作成しておく。また、後の物体抽出部における処理のため、背景を単一色に設定しておく。
【0205】
物体抽出部
物体抽出部3では、画像撮影部2で撮影された画像から、物体抽出手段によって、表示の対象となる物体を抽出する。抽出にはクロマキーを用いる。そして、表示対象部分を表示するマスクデータを作成する。マスクデータは以下のようなものである。
【0206】
画像データのサイズがU×V(ピクセル)であるとする。このとき、マスクデータはU×Vの2次元配列であって、その要素は「0」または「1」である。例えば、ピクセル(u、v)が表示対象であれば、(u、v)の要素は「1」であり、そうでなければ「0」である。このようなマスクデータを、各画像データに対して一つ作成する。
【0207】
奥行き値付与部
奥行き値付与部4では、奥行き値付与手段によって、奥行き値データを作成する。奥行き値データは以下のようなものである。
【0208】
画像データのサイズがU×V(ピクセル)であるとする。このとき、奥行き値データはU×Vの2次元配列であって、その要素は奥行き値を表す。奥行き値は、オブジェクト座標系の原点を通り、かつ光軸に垂直な平面からの、符号つきの距離とする。奥行き値付与手段による奥行き値の与え方には、いくつかのやり方が考えられる。
【0209】
一番単純な方法は、バウンディングボックスの中心の値を奥行き値として採用する方法である。この場合、画面全体の奥行き値は一様にゼロになる。
【0210】
次に考えられる方法は、仮オブジェクトの面の位置を奥行き値として採用する方法である。この場合、画像データと仮オブジェクトとを同時に画面上に表示して、仮オブジェクトの直方体の面を選択し、画像データにおいてそれに対応する範囲を指定することによって各ピクセル毎の奥行き値を与えることができる。
【0211】
最も詳細な方法は、画像データの各ピクセル毎に実際の奥行き値を与える方法である。この方法を実現する手段としては、レンジファインダにより生成された距離画像を用いる方法が考えられる。
【0212】
以上、画像撮影部2において作成された画像ファイル、および物体抽出部3において作成されたマスクデータ、および奥行き値付与部4において作成された奥行き値データは、画像データ格納部15に格納しておく。
【0213】
仮オブジェクト配置部
仮オブジェクト配置部6では、仮オブジェクト配置手段を用いて、仮オブジェクトを3次元仮想空間中に配置する。具体的には以下の手順を実行する。
【0214】
3次元仮想空間の基準となる座標系、すなわちワールド座標系を定義する。そして、ワールド座標系における仮オブジェクトの位置と方向を決めることによって、オブジェクト座標系からワールド座標系への変換が定義される。この変換を用いて、仮オブジェクトのジオメトリデータをワールド座標系で表現し、メモリに記憶しておく。
【0215】
一方、視点情報・視線情報入力部13において視点情報および視線情報が入力されると、ワールド座標系からスクリーン座標系への変換が定義される。この変換を用いて、ワールド座標系で表現された仮オブジェクトのジオメトリデータをスクリーン座標系で表現し、これもメモリに記憶しておく。
【0216】
画像選択部および画像変換部
画像選択部7および画像変換部8では、以下に説明する手法を用いて画像選択処理および画像変換処理を行なう。具体的な処理の内容は、手法の説明の後に記述する。この処理が実施例1ないし実施例4と異なる。
【0217】
視点の位置や視線の方向を様々に変化させたときの画像を得る手段の一つとして、複数枚の画像を用いて仮想的な視点から見た画像を生成する手法が、「S.M.Seitz and C.R.Dyer,"View Morphing",Proc SIGGRAPH 96,In Computer Graphics(1996),pp.21-30 」において提案されている。以下図17を用いてこの文献で提案されている手法(以下、ビューモーフィング法と記す)について概要を説明する。
【0218】
まず、1つの物体について2か所から撮影された2枚の画像I0 、I1 を用意する。画像はそれぞれ光学中心C0 、C1 と視線ベクトル
【0219】
【数24】
Figure 0003648099
【0220】
を持っている。それぞれの画像の光学中心を結んだ線分を一般にベースラインと呼ぶ。
【0221】
(ステップ1):それぞれの視線ベクトルが平行かつベースラインに垂直になるように視線ベクトルの向きを変え、さらにスクリーン面までの距離が単位長になるようにオリジナルの画像を変形する。このとき、視線ベクトルはそれぞれ
【0222】
【数25】
Figure 0003648099
【0223】
となる。変形して得られた画像をそれぞれI′0 、I′1 とする。この操作を、文献中ではprewarp と呼んでいる。
【0224】
(ステップ2):ベースライン上に仮想的な視点Cs を設定する。そして、変形された各々の画像の全ての画素について対応点を探索し、仮想視点の位置に応じて、それぞれの対応点について線形補間を行なう。以上の操作で、prewarp された視線ベクトルの方向
【0225】
【数26】
Figure 0003648099
【0226】
に仮想視点から見た画像I′s を得ることができる。
【0227】
(ステップ3):得られた画像について、視線ベクトル
【0228】
【数27】
Figure 0003648099
【0229】
が所望の方向を向き、所望のスクリーン面までの距離を持つように変形を行ない、仮想視点から見た画像Is を得る。この操作を、文献中ではpostwarpと呼んでいる。
【0230】
以上のステップ1からステップ3までの操作を行なうことにより、仮想的な視点から見た画像を2枚の実写画像から得ることができる。
【0231】
元の文献には記述されていないが、この手法を自然に拡張すれば、撮影点を3点に増やすことにより、この3点を頂点に持つ三角形に囲まれた任意の視点から見た物体の画像を合成することが可能となることは自明である。要するに、ビューモーフィング法を繰り返して実行すれば良い。したがって、任意の視点に対して、必ずその視点を囲むような、3つの撮影点からなる三角形が存在するように、あらかじめ画像を撮影しておけば良い。これが可能であることは、物体を囲む正20面体を想像すれば明らかである。
【0232】
画像選択部
画像選択部7では、画像選択手段を用いて、画像データ格納部15から適切な画像を複数枚選択する。具体的な手順は以下の通りである。
【0233】
【数28】
Figure 0003648099
【0234】
この時点で、視点が撮影点を結んだ線分上に存在すれば画像の選択を終了する。そうでない場合、撮影点をもう一つ選択して、三つの撮影点から構成される三角形が視点を囲むようにする必要がある。したがって、内積の値が3番目に大きい撮影点から順番に、前述の条件を満たすかどうか判定し、条件を満たすような撮影点がみつかったところでその撮影点に対応する画像ファイルを選択し、画像の選択を終了する。
【0235】
画像変換部
画像変換部8では、画像変換手段を用いて、画像選択部7で選択された画像を変換する。画像変換手段には、前述のビューモーフィング法を用いる。
【0236】
画像合成部
画像合成部11では、画像合成手段によって表示されるべき画像の合成を行なう。具体的な手順は以下の通りである。
【0237】
まず、画像変換部8で得られた画像について、縦横比を保ったまま、仮オブジェクトの大きさに合わせて拡大または縮小を行なう。一般に、仮オブジェクトの形状と画像変換部8で得られた画像の輪郭は一致するとは限らないので、縦方向あるいは横方向のいずれかを選択して、画面上に表示される大きさを調整し、実際に描画する画像を生成する。また仮オブジェクトの位置に合わせて、描画される画像の位置を決定する。
【0238】
つづいて、描画する画像の各画素の持つ奥行き値を、既に描かれている画像の奥行き値と比較し、奥行き値の小さい方を描画する画素として選択する。
以上の手順によって奥行き値を考慮した画像の合成が行なわれる。
【0239】
画像表示部
画像表示部12では、画像合成部11によって合成された画像をディスプレイ上に表示する。
【0240】
以上のような作用により、モデリングが簡単に行なえ、物体の操作や衝突検出が可能であり、視点や視線の変化を自由に行なうことができ、充分なリアリティを持った、実写画像を利用した画像合成表示手法を提供することができる。
【0241】
図25は、実施例5の場合における、実施例1との相違部分であるレンダリング部についてのフローチャートを示す。なお、相違点は、図21におけるステップ(S15)とステップ(S16)とに代わって、ステップ(S67)が用いられている点である。
ステップ(S63):視点と視線とに関する情報が入力される。
ステップ(S64):仮オブジェクトデータを読込む。
ステップ(S65):仮オブジェクトを配置する。
ステップ(S66):画像ファイルを選択する。
ステップ(S67):ビューモーフィング法によっての画像変換を行う。
ステップ(S68):拡大または縮小の基準方向を選択する。
ステップ(S69):画像を拡大または縮小する。
ステップ(S70):描画位置を決定する。
ステップ(S71):画素毎の奥行き値を比較する。
ステップ(S72):影にかくれた部分などの描画すべきでない部分か否かを調べる。
ステップ(S73):描画すべき部分については描画する。
ステップ(S74):全ての画素について処理したか否かを調べる。
ステップ(S75):画面表示を行う。
【0242】
その効果として、ポリゴン分割の詳細度に依存しない、充分な品質を持った、物体の表示を行なうことができる。実施例1および実施例2、実施例3、実施例4と比較すると、画像変換部における処理にビューモーフィング法を用いているため、画像変換処理の負担は増加するが、高品質の画像表示を行なうことができる。
【0243】
上記において、画像合成表示方法ならびにそのための装置について説明したが、当該画像合成表示はデータ処理装置が、プログラムを実行する形で記述することが可能であり、プログラムの形で記録保存することが可能である。このことから本願発明は当該プログラムを記録した記録媒体をも本願発明の権利範囲に属するものである。
【0244】
【発明の効果】
以上説明したように、本発明によれば、以下のような利点を兼ね備えた、充分なリアリティを持つ、実写画像を用いた画像合成表示手法を提供することができるという効果がある。
【0245】
まず第一に、本発明では物体の概略形状を表す仮オブジェクトと、いくつかの方向から物体を撮影した実写画像を用いてモデリングを行ない、物体の詳細な形状を多数のポリゴンで表現する必要がないため、モデリングが簡単に行なえる利点がある。
【0246】
次に、仮オブジェクトが物体の概略形状情報を持っているため、回転や平行移動など、物体の操作を行なうことができ、また、衝突検出を行なうことができるという効果がある。この効果によって、本発明を3次元仮想空間レイアウトシステムに応用することができるという利点がある。
【0247】
また、視点や視線の変化を自由に行なうことができ、隠面消去を行なうことができる効果がある。この効果によって、3次元CGの重要な応用例であるウォークスルーを実現することができるという利点がある。
【0248】
さらに、本発明の方法は特殊な装置を必要としないため、ポリゴンとテクスチャマッピングを用いた従来の3次元CG手法と組み合わせて用いることができる。したがって、既存の3次元CG装置に、本発明の方法を実現する装置を組み込むことにより、既存の3次元CG装置の表示のリアリティを増すことができるという利点がある。
【図面の簡単な説明】
【図1】凹凸のある物体を第三角法によって描いたものである。
【図2】図1に示された物体を斜め上方から見た場合の実際の見え方を表すものである。
【図3】図1に示された物体を斜め上方から見た場合に、従来の手法を用いた表示したものを表すものである。
【図4】湯のみを表すものである。
【図5】図4に示された湯のみを、従来の手法を用いて表示したものを表すものである。
【図6】本発明の第1の実施例を説明するブロック図である。
【図7】バウンディングボックスとオブジェクト座標系との関係を表すものである。
【図8】物体を仮オブジェクトで近似する様子を表すものである。左側の図が実際の物体、右側の図が仮オブジェクトをそれぞれ表している。
【図9】物体の撮影の様子を説明するための模型図である。
【図10】ワールド座標系の原点に光学中心を持ち、焦点距離がfであるようなピンホールカメラによる透視投影変換の様子を表すものである。
【図11】ディジタル画像座標系と正規化画像座標系の間の関係を表すものである。
【図12】正規化画像座標系のX軸の回りにカメラを角度φだけ回転させるような正規化画像座標系の座標変換の様子を表すものである。X軸は、紙面から手前の方向を正として、YZ−平面に垂直に伸びているものとする。
【図13】本発明の第2の実施例を説明するブロック図である。
【図14】本発明の第3の実施例を説明するブロック図である。
【図15】本発明の第4の実施例を説明するブロック図である。
【図16】本発明の第5の実施例を説明するブロック図である。
【図17】 View Morphing の手法を説明するための模型図である。
【図18】図6に示す実施例1におけるジオメトリデータ作成のためのフローチャートを示す。
【図19】図6に示す実施例1における画像データ作成のためのフローチャートを示す。
【図20】図6に示す実施例1におけるカメラパラメータ抽出のためのフローチャートを示す。
【図21】図6に示す実施例1におけるレンダリング部のフローチャートを示す。
【図22】実施例2の場合における、実施例1との相違部分であるレンダリング部についてのフローチャートを示す。
【図23】実施例3の場合における、実施例1との相違部分であるレンダリング部についてのフローチャートを示す。
【図24】実施例4の場合における、実施例1との相違部分であるレンダリング部についてのフローチャートを示す。
【図25】実施例5の場合における、実施例1との相違部分であるレンダリング部についてのフローチャートを示す。
【符号の説明】
1 仮オブジェクト作成部
2 画像撮影部
3 物体抽出部
4 奥行き値付与部
5 カメラパラメータ抽出部
6 仮オブジェクト配置部
7 画像選択部
8 画像変換部
9 画像補正部
10 画像再投影部
11 画像合成部
12 画像表示部
13 視点情報・視線情報入力部
14 ジオメトリデータ格納部
15 画像データ格納部
16 カメラパラメータ格納部
17 モデリング部
18 レンダリング部
19 モデルデータ格納部
20 画像合成表示装置

Claims (11)

  1. 物体の3次元コンピュータグラフィックスの画像合成表示方法において、
    前記物体の概形と位置と占有範囲を表す仮オブジェクトを用いて、画像の表示位置と当該画像の表示の大きさとを決定する第1の段階と、
    投影中心から物体へ向かう方向と撮影時視線の方向とが最も近いような前記物体のみを抽出した実写画像を選択する第2の段階と、
    上記第2の段階で選択された実写画像を、投影中心から物体へ向かう方向と表示時視線の方向とのずれに応じて変形する第3の段階と、
    上記第1の段階により決定された表示位置と表示の大きさとに合わせて、上記第3の段階により変形された実写画像を表示する第4の段階と
    を有する
    ことを特徴とする画像合成表示方法。
  2. 請求項記載の画像合成表示方法において、
    選択された実写画像を投影中心から物体へ向かう方向と表示時視線の方向とのずれに応じて変形するに当って画像再投影を行う
    ことを特徴とする画像合成表示方法。
  3. 物体の3次元コンピュータグラフィックスの画像合成表示方法において、
    前記物体の概形と位置と占有範囲を表す仮オブジェクトを用いて、画像の表示位置と当該画像の表示の大きさとを決定する第1の段階と、
    投影中心から物体へ向かう方向と撮影時視線の方向とが最も近いような前記物体のみを抽出した実写画像を選択する第2の段階と、
    上記第2の段階で選択された実写画像を、投影中心から物体へ向かう方向と撮影時視線の方向とのずれに応じて変形する第3の段階と、
    上記第3の段階で変形された実写画像を、さらに投影中心から物体へ向かう方向と表示時視線の方向とのずれに応じて変形する第4の段階と、
    上記第1の段階により決定された表示位置と表示の大きさとに合わせて、上記第4の段階により変形された実写画像を表示する第5の段階と
    を有する
    ことを特徴とする画像合成表示方法。
  4. 請求項記載の画像合成表示方法において、
    選択された実写画像を投影中心から物体へ向かう方向と撮影時視線の方向とのずれに応じて変形する第3の段階においておよび投影中心から物体へ向かう方向と表示時視線の方向とのずれに応じて変形する第4の段階において画像再投影を行う
    ことを特徴とする画像合成表示方法。
  5. 物体の概形と位置と占有範囲を表す仮オブジェクトを3次元仮想空間中に配置する仮オブジェクト配置手段と、
    前記仮オブジェクトを用いて決定した画像の表示位置と当該画像の表示の大きさに合わせて、物体を複数方向から撮影し前記物体のみを抽出した実写画像を選択する画像選択手段と、
    上記画像選択手段により選択された実写画像を、視点情報及び視線情報に基づき、変換する画像変換手段と、
    上記の変換された画像を奥行き値を考慮して合成する画像合成手段と、
    上記画像合成手段によって合成された画像を画面に表示する画像表示手段と
    を備え
    上記画像変換手段が、投影中心から表示物体に向かう方向と表示時視線方向とのずれを補正する画像再投影手段を備える
    ことを特徴とする画像合成表示装置。
  6. 物体の概形と位置と占有範囲を表す仮オブジェクトを3次元仮想空間 中に配置する仮オブジェクト配置手段と、
    前記仮オブジェクトを用いて決定した画像の表示位置と当該画像の表示の大きさに合わせて、物体を複数方向から撮影し前記物体のみを抽出した実写画像を選択する画像選択手段と、
    上記画像選択手段により選択された実写画像を、視点情報及び視線情報に基づき、変換する画像変換手段と、
    上記の変換された画像を奥行き値を考慮して合成する画像合成手段と、
    上記画像合成手段によって合成された画像を画面に表示する画像表示手段と
    を備え、
    上記画像変換手段が、
    上記画像選択手段により選択された画像の撮影時の視線の方向と投影中心から表示物体に向かう方向とのずれを補正する画像補正手段と、
    投影中心から表示物体に向かう方向と表示時視線方向とのずれを補正する画像再投影手段と
    を備える
    ことを特徴とする画像合成表示装置。
  7. 物体の3次元コンピュータグラフィックスの画像合成表示装置において、
    物体の概形と位置と占有範囲を表す仮オブジェクトを作成する仮オブジェクト作成手段と、表示対象物体の実写画像を取得する画像撮影手段と、上記実写画像から表示対象物体を抽出する物体抽出手段と、上記実写画像中の表示対象物体の奥行き値を付与する奥行き値付与手段と、上記実写画像の取得に用いたカメラのカメラパラメータを抽出するカメラパラメータ抽出手段とを有するモデリング装置を備えると共に、
    前記仮オブジェクトを用いて決定した画像の表示位置と当該画像の表示の大きさに合わせて、物体を複数方向から撮影し前記物体のみを抽出した実写画像を選択する画像選択手段と、上記画像選択手段により選択された実写画像を、視点情報及び視線情報に基づき、変換する画像変換手段とを備え、
    上記画像変換手段が、上記画像選択手段により選択された画像の撮影時の視線の方向と投影中心から表示物体に向かう方向とのずれを補正する画像補正手段と、投影中心から表示物体に向かう方向と表示時視線方向とのずれを補正する画像再投影手段とを有する画像合成表示装置と、
    ジオメトリデータを格納するジオメトリデータ格納手段と、
    画像データを格納する画像データ格納手段と、
    カメラパラメータを格納するカメラパラメータ格納手段と
    を備える
    ことを特徴とする画像合成表示装置。
  8. 体の概形と位置と占有範囲を表す仮オブジェクトを用いて、画像の表示位置と当該画像の表示の大きさとを決定する第1の段階と、
    投影中心から物体へ向かう方向と撮影時視線の方向とが最も近いような前記物体のみを抽出した実写画像を選択する第2の段階と、
    上記第2の段階で選択された実写画像を、投影中心から物体へ向かう方向と表示時視線の方向とのずれに応じて変形する第3の段階と、
    上記第1の段階により決定された表示位置と表示の大きさとに合わせて、上記第3の段階により変形された実写画像を表示する第4の段階と
    を有する3次元コンピュータグラフィックスの画像合成表示方法に関し、
    当該画像合成表示方法を記述した画像合成表示プログラムを記録した記録媒体。
  9. 請求項に記載された画像合成表示方法において、選択された実写画像を投影中心から物体へ向かう方向と表示時視線の方向とのずれに応じて変形するに当って画像再投影を行うようにした
    3次元コンピュータグラフィックスの画像合成表示方法に関し、
    当該画像合成表示方法を記述した請求項記載の画像合成表示プログラムを記録した記録媒体。
  10. 体の概形と位置と占有範囲を表す仮オブジェクトを用いて、画像の表示位置と当該画像の表示の大きさとを決定する第1の段階と、
    投影中心から物体へ向かう方向と撮影時視線の方向とが最も近いような前記物体のみを抽出した実写画像を選択する第2の段階と、
    上記第2の段階で選択された実写画像を、投影中心から物体へ向かう方向と撮影時視線の方向とのずれに応じて変形する第3の段階と、
    上記第3の段階で変形された実写画像を、さらに投影中心から物体へ向かう方向と表示時視線の方向とのずれに応じて変形する第4の段階と、
    上記第1の段階により決定された表示位置と表示の大きさとに合わせて、上記第4の段階により変形された実写画像を表示する第5の段階と
    を有する3次元コンピュータグラフィックスの画像合成表示方法に関し、
    当該画像合成表示方法を記述した画像合成表示プログラムを記録した記録媒体。
  11. 請求項10に記載された画像合成表示方法において、選択された実写画像を投影中心から物体へ向かう方向と撮影時視線の方向とのずれに応じて変形する第3の段階においておよび投影中心から物体へ向かう方向と表示時視線の方向とのずれに応じて変形する第4の段階において画像再投影を行うようにした
    3次元コンピュータグラフィックスの画像合成表示方法に関し、
    当該画像合成表示方法を記述した請求項10記載の画像合成表示プログラムを記録した記録媒体。
JP21080999A 1999-07-26 1999-07-26 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体 Expired - Lifetime JP3648099B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21080999A JP3648099B2 (ja) 1999-07-26 1999-07-26 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21080999A JP3648099B2 (ja) 1999-07-26 1999-07-26 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2001034788A JP2001034788A (ja) 2001-02-09
JP3648099B2 true JP3648099B2 (ja) 2005-05-18

Family

ID=16595500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21080999A Expired - Lifetime JP3648099B2 (ja) 1999-07-26 1999-07-26 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP3648099B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4595313B2 (ja) * 2003-11-14 2010-12-08 ソニー株式会社 撮像表示装置及び方法、画像送受信システム
CN113536467A (zh) * 2021-07-24 2021-10-22 深圳市北斗云信息技术有限公司 一种无人机远程操作显示系统

Also Published As

Publication number Publication date
JP2001034788A (ja) 2001-02-09

Similar Documents

Publication Publication Date Title
RU2215326C2 (ru) Иерархическое основанное на изображениях представление неподвижного и анимированного трехмерного объекта, способ и устройство для использования этого представления для визуализации объекта
JP4947593B2 (ja) 局所領域分割による自由視点画像の生成装置およびプログラム
JP3030485B2 (ja) 3次元形状抽出方法及び装置
JP6201476B2 (ja) 自由視点画像撮像装置およびその方法
US7903111B2 (en) Depth image-based modeling method and apparatus
JP4803594B2 (ja) 局所領域分割による自由視点画像の生成装置およびプログラム
US20150358612A1 (en) System and method for real-time depth modification of stereo images of a virtual reality environment
JP4065488B2 (ja) 3次元画像生成装置、3次元画像生成方法及び記憶媒体
US20020113865A1 (en) Image processing method and apparatus
KR101642975B1 (ko) 객체를 관찰하기 위한 파노라마 공간 모델링 방법
WO2002013144A1 (en) 3d facial modeling system and modeling method
JP3855053B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
KR100317138B1 (ko) 얼굴 텍스처 영상을 이용한 3차원 얼굴 모델링방법
JP3643511B2 (ja) 3次元画像処理方法,3次元モデリング方法および3次元画像処理プログラムを記録した記録媒体
US5793372A (en) Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically using user defined points
JP4108171B2 (ja) 画像合成装置
JP2002092625A (ja) 画像処理装置および方法、並びに記録媒体
JP3648099B2 (ja) 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体
JP2005063041A (ja) 3次元モデリング装置、方法、及びプログラム
JPH10208074A (ja) 画像生成方法
JP2010152529A (ja) 頂点テクスチャマッピング装置及びプログラム
JP7394566B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP3850080B2 (ja) 画像生成表示装置
JP3309841B2 (ja) 合成動画像生成装置および合成動画像生成方法
US6633291B1 (en) Method and apparatus for displaying an image

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040817

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050210

R150 Certificate of patent or registration of utility model

Ref document number: 3648099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090218

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090218

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100218

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110218

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110218

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120218

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130218

Year of fee payment: 8

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term