JP2001034788A - 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体 - Google Patents

画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体

Info

Publication number
JP2001034788A
JP2001034788A JP11210809A JP21080999A JP2001034788A JP 2001034788 A JP2001034788 A JP 2001034788A JP 11210809 A JP11210809 A JP 11210809A JP 21080999 A JP21080999 A JP 21080999A JP 2001034788 A JP2001034788 A JP 2001034788A
Authority
JP
Japan
Prior art keywords
image
display
real
displaying
synthesizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11210809A
Other languages
English (en)
Other versions
JP3648099B2 (ja
Inventor
Akihiko Miyazaki
昭彦 宮崎
Hitoshi Kitazawa
仁志 北澤
Hidenori Sato
秀則 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP21080999A priority Critical patent/JP3648099B2/ja
Publication of JP2001034788A publication Critical patent/JP2001034788A/ja
Application granted granted Critical
Publication of JP3648099B2 publication Critical patent/JP3648099B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Studio Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

(57)【要約】 【課題】 本発明は、3次元仮想空間レイアウトシステ
ムへの応用を考慮して物体の操作や衝突検出が可能で、
視点や視線の変化を自由に行い、また隠面消去を行い得
る画像合成を行うことを目的としている。 【解決手段】 3次元コンピュータグラフィックスの画
像合成表示に当たって、ジオメトリデータを用いて、画
像の位置と表示の大きさとを決定し、それに合わせて実
写画像を表示するようにする。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、3次元コンピュー
タグラフィックスにおいて、実写画像を用いて物体を表
示する画像合成表示方法および装置ならびに画像合成表
示プログラムを記録した記録媒体に関するものである。
【0002】
【従来の技術】本明細書において、3次元コンピュータ
グラフィックス(以下、3次元CGと記す)とは、3次
元仮想空間中の物体を透視投影変換して得られる2次元
画像をコンピュータを用いて、ディスプレイに表示する
ことを意味する。
【0003】3次元CGにおける物体(オブジェクトと
呼ぶこともある)のモデリングでは、物体の形状をポリ
ゴンの集合で表し、物体の色をテクスチャマッピングな
どによって与える手法が通常よく用いられている。
【0004】一方、3次元CGにおいて物体をよりリア
ルに表示するために、ディジタルカメラ等を用いて取得
した実写画像を用いる手法が最近注目されている。
【0005】実写画像を用いる手法として最も単純なも
のは次のような方法である。まず、表示したい物体を直
方体で近似する。次に、直方体の各面の正面にあたる方
向からディジタルカメラ等で物体の画像を撮影し、得ら
れた画像をテクスチャとしてそれぞれの面にマッピング
する。このようにして作成されたモデルは、物体の形状
が直方体に近ければかなりのリアリティを持つ。
【0006】
【発明が解決しようとする課題】前者の場合、複雑な形
状の物体を忠実にポリゴンで再現しようとすると、必要
なポリゴンの数が膨大なものとなり、ポリゴンデータ、
すなわちジオメトリデータも膨大なものとなる。現状で
はこのような作業を自動的に行なう手法が確立されてい
ないため、モデリングは人手を介した大変な労力を要す
る作業になる。また、3次元CGにおいては、視点や視
線が変化するたびにジオメトリデータの変換を行なう必
要があるため、ジオメトリデータ変換処理にかかる負担
が非常に大きくなってしまうという問題がある。
【0007】また後者の実写画像を用いた単純な手法で
は、元の物体の形状が直方体から少しずれている場合、
斜め方向から見たときに不自然な歪みが生ずる。例え
ば、図1のような、直方体の表面に若干の凹凸がある物
体にこの手法を用いた場合について考える。斜め方向か
らこの物体を見たときに、本来であれば図2のように見
えるはずであるが、この手法を用いると図3のように表
示され、凹凸が再現されない。
【0008】また、元の物体の形状が直方体から大きく
ずれている場合にこの手法を用いると、斜め方向から見
たときの不自然さはいっそう増す。例えば、図4のよう
な湯のみに対してこの手法を用いた場合について考え
る。斜め方向からこの湯のみを見たとき、図5のように
本来ならば見えないはずの背景が見えてしまい、かなり
不自然な表示となる。
【0009】以上述べた通り、この手法はモデリングが
非常に簡単であるという利点はあるが、視点の位置や視
線の方向を様々に変化させたときに表示が不自然になっ
てしまうという欠点がある。この不自然さを解消しよう
とすると、湯飲みの形状を忠実にポリゴンで再現するこ
とが必要になり、この場合のジオメトリデータの増大や
モデリングにかかる膨大な手間の問題は前述したとおり
である。
【0010】以上述べたような現状を踏まえ、本発明の
目的は、1つには、モデリングが簡単に行なえ、次に、
3次元仮想空間レイアウトシステムへの応用を考慮して
物体の操作や衝突検出が可能であるようにし、更に、3
次元CGの重要な応用例であるウォークスルーを実現す
るために視点や視線の変化を自由に行なうことができ、
また隠面消去を行なうことができるような、充分なリア
リティを持つ、実写画像を利用した画像合成表示手法を
提供することである。
【0011】
【課題を解決するための手段】上記目的を達成するため
の方法として、3次元CGデータとして、一つの物体に
ついて、物体の操作や衝突検出のためのジオメトリデー
タと、表示のための画像データとをそれぞれ独立に持つ
構成をとる。ジオメトリデータとしては、物体の概形を
表す仮オブジェクトをあらかじめ用意しておく。画像デ
ータは、表示対象物体をいくつかの方向から撮影したも
のをあらかじめ用意し、表示対象物体を抽出しておき、
ピクセル毎に奥行き値を与えておく、視点や視線の変化
に対して仮オブジェクトの形状が変化するので、それに
適合するように実写画像に対する適切な変換を行ない、
仮オブジェクトの位置に、奥行き値を考慮して合成し表
示する。
【0012】従来では、実写画像をテクスチャとして、
ポリゴンに対してテクスチャマッピングを行なった上で
表示を行なっていた。このような手法では、物体の見え
方はポリゴン分割の詳細度に依存する。一方、本発明で
は、仮オブジェクトによって物体の表示される位置と形
状とを決め、それに合わせて実写画像を奥行き値を考慮
して合成し表示する。したがって、物体の見え方はポリ
ゴン分割の詳細度に依存しない。本発明のように、テク
スチャマッピングを行なわずに実写画像を用いて奥行き
値を考慮して合成し物体を表示する方法であって、しか
も物体の操作や衝突検出が可能であるものは従来存在し
なかった。
【0013】上記課題を解決するための手段として、仮
オブジェクト作成手段と、画像撮影手段と、物体抽出手
段と、奥行き値付与手段と、カメラパラメータ抽出手段
と、仮オブジェクト配置手段と、画像選択手段と、画像
変換手段と、画像合成手段と、画像表示手段とを設け
る。
【0014】仮オブジェクト作成手段により作成された
仮オブジェクトは、物体の概略の形状(以下概形とい
う)を表すとともに、物体の位置と占有範囲とを表す。
したがって、仮オブジェクト配置手段を用いて物体を所
望の位置に配置した後、回転や移動などの操作を行なう
ことができ、また、衝突検出を行なうことができる。仮
オブジェクトは物体の概形を表すのみであるので多数の
ポリゴンを用いる必要がなく、ジオメトリデータの作成
を簡単に行なうことができる。
【0015】実写画像は画像撮影手段によって取得され
る。次に、取得された実写画像から、物体抽出手段によ
って表示対象の物体のみをあらかじめ抽出しておく。抽
出された部分について、奥行き値付与手段によって、ピ
クセル毎に奥行き値を持たせる。この奥行き値を用いる
ことにより隠面消去が可能となる。
【0016】また、カメラパラメータ抽出手段によっ
て、後の画像変換に必要なカメラパラメータを抽出して
おく。
【0017】また、3次元仮想空間中の視点や視線の変
化に対して、あらかじめ用意された実写画像の中から画
像選択手段によって適切な画像が選択される。
【0018】選択された画像は、撮影時のカメラの方向
や3次元仮想空間中の視点や視線などの情報を用いて、
画像変換手段により適切な形に変形される。
【0019】変形された画像を用いて、画像合成手段に
よって、表示される大きさを調整し、奥行き値を考慮し
て表示すべき画像を合成する。
【0020】最終的に、画像表示手段によって、合成さ
れた画像が仮オブジェクトの位置に表示される。
【0021】以上のようにして、モデリングが簡単に行
なえ、物体の操作や衝突検出が可能であり、視点や視線
の変化を自由に行なうことができ、隠面消去を行なうこ
とができ、充分なリアリティを持った、実写画像を利用
した画像合成表示手法を提供することができる。
【0022】
【発明の実施の形態】〔実施例1〕図6は本発明の第1
の実施例を説明する図であって、1は仮オブジェクト作
成部、2は画像撮影部、3は物体抽出部、4は奥行き値
付与部、5はカメラパラメータ抽出部、6は仮オブジェ
クト配置部、7は画像選択部、8は画像変換部、9は画
像補正部、10は画像再投影部、11は画像合成部、1
2は画像表示部、13は視点情報・視線情報入力部、1
4はジオメトリデータ格納部、15は画像データ格納
部、16はカメラパラメータ格納部、17はモデリング
部、18はレンダリング部、19はモデルデータ格納
部、20は画像合成表示装置である。
【0023】仮オブジェクト作成部 仮オブジェクト作成部1では、仮オブジェクト作成手段
によって仮オブジェクトのジオメトリデータを作成す
る。具体的には以下のような手順を実行する。
【0024】まず、物体に外接するような直方体を一つ
作成する。この直方体をバウンディングボックスと呼
ぶ。このとき、バウンディングボックスの中心が原点と
なり、座標軸が直方体の各面の中心と交わるような座標
系を定義し、これをオブジェクト座標系とする。物体の
正面方向に伸びる座標軸をオブジェクト座標系のX軸と
し、物体の上方向に伸びる座標軸をオブジェクト座標系
のZ軸とする。Y軸は、オブジェクト座標系が右手系を
なすような方向に決める。この様子を図7に示す。
【0025】次に、物体の形状を直方体の組合せで近似
する。具体的には、バウンディングボックスからはみだ
さないように適当な直方体を置いていき、物体の形状を
再現する。この様子を図8に示す。図8の左側の物体を
右側のように近似する。
【0026】このときの近似の程度によって、衝突検出
の精度が左右される。したがって、どの程度の近似が必
要かは、衝突検出の精度がどの程度必要かによる。より
正確な衝突判定を行なう必要があれば、たくさんの細か
な直方体を組み合わせて仮オブジェクトを作成する。逆
に、それほど厳密な衝突判定が必要でなければ、少数の
直方体を組み合わせて仮オブジェクトを作成すればよ
い。バウンディングボックスそのものを仮オブジェクト
としても十分な場合もある。
【0027】仮オブジェクトを作成したのち、バウンデ
ィングボックスの頂点の座標と、仮オブジェクトを構成
する直方体の頂点の座標を、ジオメトリデータ格納部1
4に格納する。
【0028】画像撮影部 画像撮影部2では、画像撮影手段によって物体の画像を
撮影する。具体的な手順は以下の通りである。
【0029】ディジタルカメラを用いて、光軸がバウン
ディングボックスの中心を通るようにして画像を撮影す
る。この様子を図9に示す。このとき、光軸の、オブジ
ェクト座標系のX軸からの回転角θと、XY平面からの
仰角φを記録しておく。また、バウンディングボックス
の中心(すなわち、オブジェクト座標系の原点)から撮
像面までの距離は一定に保っておく。
【0030】このようにして、物体を囲む複数の点から
画像を撮影し、画像ファイルを得る。また、θおよびφ
と画像ファイルに対する対応とを表すテーブルを作成し
ておく。また、後の物体抽出部における処理のため、背
景を単一色に設定しておく。
【0031】物体抽出部 物体抽出部3では、画像撮影部2で撮影された画像か
ら、物体抽出手段によって、表示の対象となる物体を抽
出する。抽出にはクロマキーを用いる。そして、表示対
象部分を表すマスクデータを作成する。マスクデータは
以下のようなものである。
【0032】画像データのサイズがU×V(ピクセル)
であるとする。このとき、マスクデータはU×Vの2次
元配列であって、その要素は「0」または「1」であ
る。例えば、ピクセル(u、v)が表示対象であれば、
(u、v)の要素は「1」であり、そうでなければ
「0」である。このようなマスクデータを、各画像デー
タに対して一つ作成する。
【0033】奥行き値付与部 奥行き値付与部4では、奥行き値付与手段によって、奥
行き値データを作成する。奥行き値データは以下のよう
なものである。
【0034】画像データのサイズがU×V(ピクセル)
であるとする。このとき、奥行き値データはU×Vの2
次元配列であって、その要素は奥行き値を表す。奥行き
値は、オブジェクト座標系の原点を通り、かつ光軸に垂
直な平面からの、符号つきの距離とする。奥行き値付与
手段による奥行き値の与え方はいくつかの方法が考えら
れ、目的に応じて適当なものを採用する。
【0035】一番単純な方法は、バウンディングボック
スの中心の値を奥行き値として採用する方法である。こ
の場合、画面全体の奥行き値は一様にゼロになる。
【0036】次に考えられる方法は、仮オブジェクトの
面の位置を奥行き値として採用する方法である。この場
合、画像データと仮オブジェクトとを同時に画面上に表
示して、仮オブジェクトの直方体の面を選択し、画像デ
ータにおいてそれに対応する範囲を指定することによっ
て各ピクセル毎の奥行き値を与えることができる。
【0037】最も詳細な方法は、画像データの各ピクセ
ル毎に実際の奥行き値を与える方法である。この方法を
実現する手段としては、レンジファインダにより生成さ
れた距離画像を用いる方法が考えられる。
【0038】以上、画像撮影部2において作成された画
像ファイル、および物体抽出部3において作成されたマ
スクデータ、および奥行き値付与部4において作成され
た奥行き値データは、画像データ格納部15に格納して
おく。
【0039】カメラパラメータ抽出部 カメラパラメータ抽出部5では、カメラパラメータ抽出
手段を用いてカメラの内部パラメータを抽出する。パラ
メータは、撮影に用いたカメラの仕様から見積もり、カ
メラパラメータ格納部16に格納しておく。なおカメラ
の内部パラメータは、後述するカメラ内部行列で示され
る。
【0040】仮オブジェクト配置部 仮オブジェクト配置部6では、仮オブジェクト配置手段
を用いて、仮オブジェクトを3次元仮想空間中に配置す
る。具体的には以下の手順を実行する。
【0041】3次元仮想空間の基準となる座標系、すな
わちワールド座標系を定義する。そして、ワールド座標
系における仮オブジェクトの位置と方向を決めることに
よって、オブジェクト座標系からワールド座標系への変
換が定義される。この変換を用いて、仮オブジェクトの
ジオメトリデータをワールド座標系で表現し、メモリに
記憶しておく。
【0042】一方、視点情報・視線情報入力部13にお
いて視点情報および視線情報が入力されると、ワールド
座標系からスクリーン座標系への変換が定義される。こ
の変換を用いて、ワールド座標系で表現された仮オブジ
ェクトのジオメトリデータをスクリーン座標系で表現
し、これもメモリに記憶しておく。
【0043】画像選択部 画像選択部7では、画像選択手段を用いて、画像データ
格納部15から適切な画像を一枚選択する。具体的な手
順は以下の通りである。
【0044】
【数1】
【0045】画像変換部 画像変換部8では、画像変換手段を用いて、画像選択部
7で選択された画像を変換する。画像変換部は、画像補
正部9と画像再投影部10とから構成される。画像補正
部では、仮想視線ベクトルと撮影時の視線ベクトルとの
ずれに応じて画像の補正を行ない、画像再投影部では、
3次元仮想空間における視線ベクトルと仮想視線ベクト
ルとのずれを補正する。
【0046】ここで、画像補正部9および画像再投影部
10において用いられる画像再投影法について説明す
る。
【0047】
【数2】
【0048】透視投影変換は以下の式で表される。
【0049】
【数3】
【0050】例として、光学中心をワールド座標系の原
点に置き、光軸をZ軸方向に向けて、焦点距離をfに設
定したカメラを考える。このときの様子を図10に示
す。透視投影変換は以下の式で表される。
【0051】
【数4】
【0052】
【数5】
【0053】に再投影する変換を表す行列である。いい
かえれば、ある注目点について、ワールド座標系におけ
る3次元空間中の位置が判らなくても、透視投影変換を
表す行列と、その変換により投影されたスクリーン上の
座標とが判っていれば、適当な3行3列の行列を与える
ことによって、視線の方向を変化させた時のスクリーン
上の位置を求めることができる。
【0054】次に、具体的な行列の形を求める。1枚の
画像およびカメラパラメータが与えられているとする。
画像はディジタル画像座標系で表現されているとする。
まず、この画像について、ディジタル画像座標系から正
規化画像座標系への変換を行なう。正規化画像座標系と
は、正規化カメラによって得られる画像座標系であり、
正規化カメラとは、光学中心からスクリーン面までの距
離が単位長であるようなカメラである。
【0055】ディジタル画像座標系と正規化画像座標系
との間の関係は図11のように表される。画面
【0056】
【数6】
【0057】はカメラ内部行列であり、fは焦点距離、
u 、kv はそれぞれ正規化画像座標を基準とした時の
u、v軸の単位、θはuとv軸のなす角度、u0 、v0
はディジタル画像座標系における正規化画像座標原点の
座標である。また、αu =fk u 、αv =fkv であ
る。
【0058】以下、正規化画像座標系を用いて考える。
基準となる画像に対して、正規化画像座標系の座標軸と
ワールド座標系の座標軸とが一致していると考えて一般
性を失わない。この場合、カメラの光学中心はワールド
座標系の原点にあり、カメラの向きはワールド座標系の
Z軸方向と一致している。すなわち、
【0059】
【数7】
【0060】である。カメラの向きを変えた時の注目点
のスクリーン上の位置を求めるには、正規化画像座標系
の座標変換をあらわす行列を求めれば良い。
【0061】正規化画像座標系のX軸の回りにカメラを
角度φだけ回転させるような正規化画像座標系の座標変
換(図12参照)を表す行列を
【0062】
【数8】
【0063】である。同様に、正規化画像座標系のY軸
の回りにカメラを角度θだけ回転させるような正規化画
像座標系の座標変換をあらわす行列を
【0064】
【数9】
【0065】であり、正規化画像座標系のZ軸の回りに
カメラを角度ψだけ回転させるような正規化画像座標系
の座標変換をあらわす行列を
【0066】
【数10】
【0067】である。したがって、カメラを正規化画像
座標系のX軸、Y軸、Z軸の回りにそれぞれ角度φ、
θ、ψだけ回転させる操作をこの順序にしたがって行な
ったとすると、
【0068】
【数11】
【0069】以上の説明では、座標変換をX軸、Y軸、
Z軸に関して順を追って行なったが、これを回転軸とそ
のまわりの回転角度とを与えて一段階で行なうこともで
きる。
【0070】
【数12】
【0071】画像補正部 画像補正部9では、画像再投影法を用いて近似的な画像
を得る。具体的な手順は以下の通りである。
【0072】
【数13】
【0073】以上で求まった
【0074】
【数14】
【0075】を用いて、画像再投影法を適用すると、撮
影時の視線ベクトルと仮想視線ベクトルとのずれを補正
した、近似的な画像を得ることができる。
【0076】画像再投影部 画像再投影部10では、画像補正部9で得られた画像に
ついて、さらに画像再投影法によって視線ベクトルと仮
想視線ベクトルとのずれを補正する。具体的な手順は以
下の通りである。
【0077】
【数15】
【0078】以上で求まった
【0079】
【数16】
【0080】を用いて、画像再投影法を適用すると、撮
影時の視線ベクトルに垂直なスクリーン面に投影された
画像を、スクリーン座標系のスクリーン面に再投影する
ことができる。
【0081】画像合成部 画像合成部11では、画像合成手段によって表示される
画像の合成を行なう。具体的な手順は以下の通りであ
る。
【0082】まず、画像変換部8で得られた画像につい
て、縦横比を保ったまま、仮オブジェクトの大きさに合
わせて拡大または縮小を行なう。一般に、仮オブジェク
トの形状と画像変換部8で得られた画像の輪郭とは一致
するとは限らないので、縦方向あるいは横方向のいずれ
かを選択して、仮オブジェクトのサイズと画面上に表示
されるサイズを一致させ、実際に描画するサイズの画像
を生成する。また、仮オブジェクトの位置に合わせて、
描画される画像の位置を決定する。
【0083】つづいて、描画する画像の各画素の持つ奥
行き値を、既に描かれている画像の奥行き値と比較し、
奥行き値の小さい方を描画する画素として選択する。以
上の手順によって、奥行き値を考慮した画像の合成が行
なわれる。
【0084】画像表示部 画像表示部12では、画像合成部11によって合成され
た画像をディスプレイ上に表示する。
【0085】以上のような作用により、モデリングが簡
単に行なえ、物体の操作や衝突検出が可能であり、視点
や視線の変化を自由に行なうことができ、充分なリアリ
ティを持った、実写画像を利用した画像合成表示手法を
提供することができる。
【0086】その効果として、ポリゴン分割の詳細度に
依存しない、充分な品質を持った、物体の表示を行なう
ことができる。
【0087】以下、図18ないし図21を参照して実施
例1の場合の要部の処理を記述する。
【0088】図18は、図6に示す実施例1におけるジ
オメトリデータ作成のためのフローチャートを示す。 ステップ(S1):バウンディングボックスを生成す
る。 ステップ(S2):直方体を生成する。 ステップ(S3):直方体を配置する。 ステップ(S4):近似が十分であるか否かを調べる。 ステップ(S5):仮オブジェクトジオメトリデータを
生成する。
【0089】図19は、図6に示す実施例1における画
像データ作成のためのフローチャートを示す。 ステップ(S6):画像ファイルの読み込みを行う。 ステップ(S7):表示対象部分を切り出す。 ステップ(S8):マスクデータを生成する。 ステップ(S9):奥行き値データを生成する。
【0090】図20は、図6に示す実施例1におけるカ
メラパラメータ抽出のためのフローチャートを示す。 ステップ(S10):カメラパラメータを抽出する。
【0091】図21は、図6に示す実施例1におけるレ
ンダリング部のフローチャートを示す。 ステップ(S11):視点と視線とに関する情報が入力
される。 ステップ(S12):仮オブジェクトデータを読込む。 ステップ(S13):仮オブジェクトを配置する。 ステップ(S14):画像ファイルを選択する。 ステップ(S15):撮影時視線ベクトルと仮想視線ベ
クトルとのずれを補正する。 ステップ(S16):視線ベクトルと仮想視線ベクトル
とのずれを補正する。 ステップ(S17):拡大または縮小の基準方向を選択
する。 ステップ(S18):画像を拡大または縮小する。 ステップ(S19):描画位置を決定する。 ステップ(S20):画素毎の奥行き値を比較する。 ステップ(S21):影にかくれた部分などの描画すべ
きでない部分か否かを調べる。 ステップ(S22):描画すべき部分については描画す
る。 ステップ(S23):全ての画素について処理したか否
かを調べる。 ステップ(S24):画面表示を行う。
【0092】〔実施例2〕図13は本発明の第2の実施
例を説明する図であって、1は仮オブジェクト作成部、
2は画像撮影部、3は物体抽出部、4は奥行き値付与
部、5はカメラパラメータ抽出部、6は仮オブジェクト
配置部、7は画像選択部、8は画像変換部、9は画像補
正部、11は画像合成部、12は画像表示部、13は視
点情報・視線情報入力部、14はジオメトリデータ格納
部、15は画像データ格納部、16はカメラパラメータ
格納部、17はモデリング部、18はレンダリング部、
19はモデルデータ格納部、20は画像合成表示装置で
ある。
【0093】仮オブジェクト作成部 仮オブジェクト作成部1では、仮オブジェクト作成手段
によって仮オブジェクトのジオメトリデータを作成す
る。具体的には以下のような手順を実行する。
【0094】まず、物体に外接するような直方体を一つ
作成する。この直方体をバウンディングボックスと呼
ぶ、このとき、バウンディングボックスの中心が原点と
なり、座標軸が直方体の各面の中心と交わるような座標
系を定義し、これをオブジェクト座標系とする。物体の
正面方向に伸びる座標軸をオブジェクト座標系のX軸と
し、物体の上方向に伸びる座標軸をオブジェクト座標系
のZ軸とする。Y軸は、オブジェクト座標系が右手系を
なすような方向に決める。この様子を図7に示す。
【0095】次に、物体の形状を直方体の組合せで近似
する。具体的には、バウンディングボックスからはみだ
さないように適当な直方体を置いていき、物体の形状を
再現する。この様子を図8に示す。図8の左側の物体を
右側のように近似する。
【0096】このときの近似の程度によって、衝突検出
の精度が左右される。したがって、どの程度の近似が必
要かは、衝突検出の精度がどの程度必要かによる。より
正確な衝突判定を行なう必要があれば、たくさんの細か
な直方体を組み合わせて仮オブジェクトを作成する。逆
に、それほど厳密な衝突判定が必要でなければ、少数の
直方体を組み合わせて仮オブジェクトを作成すればよ
い。バウンディングボックスそのものを仮オブジェクト
としても十分な場合もある。
【0097】仮オブジェクトを作成したのち、バウンデ
ィングボックスの頂点の座標と、仮オブジェクトを構成
する直方体の頂点の座標を、ジオメトリデータ格納部1
4に格納する。
【0098】画像撮影部 画像撮影部2では、画像撮影手段によって物体の画像を
撮影する。具体的な手順は以下の通りである。
【0099】ディジタルカメラを用いて、光軸がバウン
ディングボックスの中心を通るようにして画像を撮影す
る。この様子を図9に示す。このとき、光軸の、オブジ
ェクト座標系のX軸からの回転角θと、XY平面からの
仰角φを記録しておく。また、バウンディングボックス
の中心(すなわち、オブジェクト座標系の原点)から撮
像面までの距離は一定に保っておく。
【0100】このようにして、物体を囲む複数の点から
画像を撮影し、画像ファイルを得る。また、θおよびφ
と画像ファイルに対する対応とを表すテーブルを作成し
ておく。また、後の物体抽出部における処理のため、背
景を単一色に設定しておく。
【0101】物体抽出部 物体抽出部3では、画像撮影部2で撮影された画像か
ら、物体抽出手段によって、表示の対象となる物体を抽
出する。抽出にはクロマキーを用いる。そして、表示対
象部分を表すマスクデータを作成する。マスクデータは
以下のようなものである。
【0102】画像データのサイズがU×V(ピクセル)
であるとする。このとき、マスクデータはU×Vの2次
元配列であって、その要素は「0」または「1」であ
る。例えば、ピクセル(u、v)が表示対象であれば、
(u、v)の要素は「1」であり、そうでなければ
「0」である。このようなマスクデータを、各画像デー
タに対して一つ作成する。
【0103】奥行き値付与部 奥行き値付与部4では、奥行き値付与手段によって、奥
行き値データを作成する。奥行き値データは以下のよう
なものである。
【0104】画像データのサイズがU×V(ピクセル)
であるとする。このとき、奥行き値データはU×Vの2
次元配列であって、その要素は奥行き値を表す。奥行き
値は、オブジェクト座標系の原点を通り、かつ光軸に垂
直な平面からの、符号つきの距離とする。奥行き値付与
手段による奥行き値の与え方にはいくつかの方法が考え
られ、目的に応じて適当なものを採用する。
【0105】一番単純な方法は、バウンディングボック
スの中心の値を奥行き値として採用する方法である。こ
の場合、画面全体の奥行き値は一様にゼロになる。
【0106】次に考えられる方法は、仮オブジェクトの
面の位置を奥行き値として採用する方法である。この場
合、画像データと仮オブジェクトとを同時に画面上に表
示して、仮オブジェクトの直方体の面を選択し、画像デ
ータにおいてそれに対応する範囲を指定することによっ
て各ピクセル毎の奥行き値を与えることができる。
【0107】最も詳細な方法は、画像データの各ピクセ
ル毎に実際の奥行き値を与える方法である。この方法を
実現する手段としては、レンジファインダにより生成さ
れた距離画像を用いる方法が考えられる。
【0108】以上、画像撮影部2において作成される画
像ファイル、および物体抽出部3において作成されたマ
スクデータ、および奥行き値付与部4において作成され
た奥行き値データは、画像データ格納部15に格納して
おく。
【0109】カメラパラメータ抽出部 カメラパラメータ抽出部5では、カメラパラメータ抽出
手段を用いてカメラの内部パラメータを抽出する。パラ
メータは、撮影に用いたカメラの仕様から見積もり、カ
メラパラメータ格納部16に格納しておく。
【0110】仮オブジェクト配置部 仮オブジェクト配置部6では、仮オブジェクト配置手段
を用いて、仮オブジェクトを3次元仮想空間中に配置す
る。具体的には以下の手順を実行する。
【0111】3次元仮想空間の基準となる座標系、すな
わちワールド座標系を定義する。そして、ワールド座標
系における仮オブジェクトの位置と方向を決めることに
よって、オブジェクト座標系からワールド座標系への変
換が定義される。この変換を用いて、仮オブジェクトの
ジオメトリデータをワールド座標系で表現し、メモリに
記憶しておく。
【0112】一方、視点情報・視線情報入力部13にお
いて視点情報および視線情報が入力されると、ワールド
座標系からスクリーン座標系への変換が定義される。こ
の変換を用いて、ワールド座標系で表現された仮オブジ
ェクトのジオメトリデータをスクリーン座標系で表現
し、これもメモリに記憶しておく。
【0113】画像選択部 画像選択部7では、画像選択手段を用いて、画像データ
格納部15から適切な画像を一枚選択する。具体的な手
順は以下の通りである。
【0114】
【数17】
【0115】画像変換部 画像変換部8では、画像変換手段を用いて、画像選択部
7で選択された画像を変換する。
【0116】画像変換部は、画像補正部9から構成され
る。画像補正部では、仮想視線ベクトルと撮影時の視線
ベクトルのずれに応じて画像の補正を行なう。この画像
変換部8での処理が実施例1の場合と異なる。
【0117】画像補正部 画像補正部9では、実施例1において説明した画像再投
影法を用いて近似的な画像を得る。具体的な手順は以下
の通りである。
【0118】画像選択部7において選択された画像の撮
影時の視線ベクトル
【0119】
【数18】
【0120】以上で求まった
【0121】
【数19】
【0122】を用いて、画像再投影法を適用すると、撮
影時の視線ベクトルと仮想視線ベクトルのずれを補正し
た、近似的な画像を得ることができる。
【0123】画像合成部 画像合成部11では、画像合成手段によって表示される
画像の合成を行なう。具体的な手順は以下の通りであ
る。
【0124】まず、画像変換部8で得られた画像につい
て、縦横比を保ったまま、仮オブジェクトの大きさに合
わせて拡大または縮小を行なう。一般に、仮オブジェク
トの形状と画像変換部8で得られた画像の輪郭とは一致
するとは限らないので、縦方向あるいは横方向のいずれ
かを選択して、仮オブジェクトのサイズと画面上に表示
されるサイズを一致させ、実際に描画するサイズの画像
を生成する。また、仮オブジェクトの位置に合わせて、
描画される画像の位置を決定する。
【0125】つづいて、描画する画像の各画素の持つ奥
行き値を、既に描かれている画像の奥行き値と比較し、
奥行き値の小さい方を描画する画素として選択する。以
上の手順によって、奥行き値を考慮した画像の合成が行
なわれる。
【0126】画像表示部 画像表示部12では、画像合成部11によって合成され
た画像をディスプレイ上に表示する。
【0127】以上のような作用により、モデリングが簡
単に行なえ、物体の操作や衝突検出が可能であり、視点
や視線の変化を自由に行なうことができ、充分なリアリ
ティを持った、実写画像を利用した画像合成表示手法を
提供することができる。
【0128】その効果として、ポリゴン分割の詳細度に
依存しない、充分な品質を持った、物体の表示を行なう
ことができる。実施例1と比較すると、画像再投影部に
おける処理を省略しているため、近似の程度は粗くなる
が、その分高度な処理を行なうことができる。
【0129】図22は、実施例2の場合における、実施
例1との相違部分であるレンダリング部についてのフロ
ーチャートを示す。なお相違点は、図21におけるステ
ップ(S16)に相当するステップが省略されている点
である。 ステップ(S25):視点と視線とに関する情報が入力
される。 ステップ(S26):仮オブジェクトデータを読込む。 ステップ(S27):仮オブジェクトを配置する。 ステップ(S28):画像ファイルを選択する。 ステップ(S29):撮影時視線ベクトルと仮想視線ベ
クトルとのずれを補正する。 ステップ(S30):拡大または縮小の基準方向を選択
する。 ステップ(S31):画像を拡大または縮小する。 ステップ(S32):描画位置を決定する。 ステップ(S33):画素毎の奥行き値を比較する。 ステップ(S34):影にかくれた部分などの描画すべ
きでない部分か否かを調べる。 ステップ(S35):描画すべき部分については描画す
る。 ステップ(S36):全ての画素について処理したか否
かを調べる。 ステップ(S37):画面表示を行う。
【0130】〔実施例3〕図14は本発明の第3の実施
例を説明する図であって、1は仮オブジェクト作成部、
2は画像撮影部、3は物体抽出部、4は奥行き値付与
部、5はカメラパラメータ抽出部、6は仮オブジェクト
配置部、7は画像選択部、8は画像変換部、10は画像
再投影部、11は画像合成部、12は画像表示部、13
は視点情報・視線情報入力部、14はジオメトリデータ
格納部、15は画像データ格納部、16はカメラパラメ
ータ格納部、17はモデリング部、18はレンダリング
部、19はモデルデータ格納部、20は画像合成表示装
置である。
【0131】仮オブジェクト作成部 仮オブジェクト作成部1では、仮オブジェクト作成手段
によって仮オブジェクトのジオメトリデータを作成す
る。具体的には以下のような手順を実行する。
【0132】まず、物体に外接するような直方体を一つ
作成する。この直方体をバウンディングボックスと呼
ぶ。このとき、バウンディングボックスの中心が原点と
なり、座標軸が直方体の各面の中心と交わるような座標
系を定義し、これをオブジェクト座標系とする。物体の
正面方向に伸びる座標軸をオブジェクト座標系のX軸と
し、物体の上方向に伸びる座標軸をオブジェクト座標系
のZ軸とする。Y軸は、オブジェクト座標系が右手系を
なすような方向に決める。この様子を図7に示す。
【0133】次に、物体の形状を直方体の組合せで近似
する。具体的には、バウンディングボックスからはみだ
さないように適当な直方体を置いていき、物体の形状を
再現する。この様子を図8に示す。図8の左側の物体を
右側のように近似する。
【0134】このときの近似の程度によって、衝突検出
の精度が左右される。したがって、どの程度の近似が必
要かは、衝突検出の精度がどの程度必要かによる。より
正確な衝突判定を行なう必要があれば、たくさんの細か
な直方体を組み合わせて仮オブジェクトを作成する。逆
に、それほど厳密な衝突判定が必要でなければ、少数の
直方体を組み合わせて仮オブジェクトを作成すればよ
い。バウンディングボックスそのものを仮オブジェクト
としても十分な場合もある。
【0135】仮オブジェクトを作成したのち、バウンデ
ィングボックスの頂点の座標と、仮オブジェクトを構成
する直方体の頂点の座標を、ジオメトリデータ格納部1
4に格納する。
【0136】画像撮影部 画像撮影部2では、画像撮影手段によって物体の画像を
撮影する。具体的な手順は以下の通りである。
【0137】ディジタルカメラを用いて、光軸がバウン
ディングボックスの中心を通るようにして画像を撮影す
る。この様子を図9に示す。このとき、光軸の、オブジ
ェクト座標系のX軸からの回転角θと、XY平面からの
仰角φを記録しておく。また、バウンディングボックス
の中心(すなわち、オブジェクト座標系の原点)から撮
像面までの距離は一定に保っておく。
【0138】このようにして、物体を囲む複数の点から
画像を撮影し、画像ファイルを得る。また、θおよびφ
と画像ファイルに対する対応とを表すテーブルを作成し
ておく。また、後の物体抽出部における処理のため、背
景を単一色に設定しておく。
【0139】物体抽出部 物体抽出部3では、画像撮影部2で撮影された画像か
ら、物体抽出手段によって、表示の対象となる物体を抽
出する。抽出にはクロマキーを用いる。そして、表示対
象部分を表すマスクデータを作成する。マスクデータは
以下のようなものである。
【0140】画像データのサイズがU×V(ピクセル)
であるとする。このとき、マスクデータはU×Vの2次
元配列であって、その要素は「0」または「1」であ
る。例えば、ピクセル(u、v)が表示対象であれば、
(u、v)の要素は「1」であり、そうでなければ
「0」である。このようなマスクデータを、各画像デー
タに対して一つ作成する。
【0141】奥行き値付与部 奥行き値付与部4では、奥行き値付与手段によって、奥
行き値データを作成する。奥行き値データは以下のよう
なものである。
【0142】画像データのサイズがU×V(ピクセル)
であるとする。このとき、奥行き値データはU×Vの2
次元配列であって、その要素は奥行き値を表す。奥行き
値は、オブジェクト座標系の原点を通り、かつ光軸に垂
直な平面からの、符号つきの距離とする。奥行き値付与
手段による奥行き値の与え方にはいくつかの方法が考え
られ、目的に応じて適当なものを採用する。
【0143】一番単純な方法は、バウンディングボック
スの中心の値を奥行き値として採用する方法である。こ
の場合、画面全体の奥行き値は一様にゼロになる。
【0144】次に考えられる方法は、仮オブジェクトの
面の位置を奥行き値として採用する方法である。この場
合、画像データと仮オブジェクトとを同時に画面上に表
示して、仮オブジェクトの直方体の面を選択し、画像デ
ータにおいてそれに対応する範囲を指定することによっ
て各ピクセル毎の奥行き値を与えることができる。
【0145】最も詳細な方法は、画像データの各ピクセ
ル毎に実際の奥行き値を与える方法である。この方法を
実現する手段としては、レンジファインダにより生成さ
れた距離画像を用いる方法が考えられる。
【0146】以上、画像撮影部2において作成された画
像ファイル、および物体抽出部3において作成されたマ
スクデータ、および奥行き値付与部4において作成され
た奥行き値データは、画像データ格納部15に格納して
おく。
【0147】カメラパラメータ抽出部 カメラパラメータ抽出部5では、カメラパラメータ抽出
手段を用いてカメラの内部パラメータを抽出する。パラ
メータは、撮影に用いたカメラの仕様から見積もり、カ
メラパラメータ格納部16に格納しておく。
【0148】仮オブジェクト配置部 仮オブジェクト配置部6では、仮オブジェクト配置手段
を用いて、仮オブジェクトを3次元仮想空間中に配置す
る。具体的には以下の手順を実行する。
【0149】3次元仮想空間の基準となる座標系、すな
わちワールド座標系を定義する。そして、ワールド座標
系における仮オブジェクトの位置と方向を決めることに
よって、オブジェクト座標系からワールド座標系への変
換が定義される。この変換を用いて、仮オブジェクトの
ジオメトリデータをワールド座標系で表現し、メモリに
記憶しておく。
【0150】一方、視点情報・視線情報入力部13にお
いて視点情報および視線情報が入力されると、ワールド
座標系からスクリーン座標系への変換が定義される。こ
の変換を用いて、ワールド座標系で表現された仮オブジ
ェクトのジオメトリデータをスクリーン座標系で表現
し、これもメモリに記憶しておく。
【0151】画像選択部 画像選択部7では、画像選択手段を用いて、画像データ
格納部15から適切な画像を一枚選択する。具体的な手
順は以下の通りである。
【0152】
【数20】
【0153】画像変換部 画像変換部8では、画像変換手段を用いて、画像選択部
7で選択された画像を変換する。
【0154】画像変換部は、画像再投影部10から構成
される。画像変換部8での処理が実施例1や実施例2の
場合と異なる。
【0155】画像再投影部 画像再投影部10では、画像選択部7で選択された画像
について、画像再投影法によって視線ベクトルと仮想視
線ベクトルのずれを補正する。具体的な手順は以下の通
りである。
【0156】
【数21】
【0157】以上で求まった
【0158】
【数22】
【0159】を用いて、画像再投影法を適用すると、撮
影時の視線ベクトルに垂直なスクリーン面に投影された
画像を、スクリーン座標系のスクリーン面に再投影する
ことができる。
【0160】画像合成部 画像合成部11では、画像合成手段によって表示される
画像の合成を行なう。具体的な手順は以下の通りであ
る。
【0161】まず、画像変換部8で得られた画像につい
て、縦横比を保ったまま、仮オブジェクトの大きさに合
わせて拡大または縮小を行なう。一般に、仮オブジェク
トの形状と画像変換部8で得られた画像の輪郭とは一致
するとは限らないので、縦方向あるいは横方向のいずれ
かを選択して、仮オブジェクトのサイズと画面上に表示
されるサイズを一致させ、実際に描画するサイズの画像
を生成する。また、仮オブジェクトの位置に合わせて、
描画される画像の位置を決定する。
【0162】つづいて、描画する画像の各画素の持つ奥
行き値を、既に描かれている画像の奥行き値と比較し、
奥行き値の小さい方を描画する画素として選択する。以
上の手順によって、奥行き値を考慮した画像の合成が行
なわれる。
【0163】画像表示部 画像表示部12では、画像合成部11によって合成され
た画像をディスプレイ上に表示する。
【0164】以上のような作用により、モデリングが簡
単に行なえ、物体の操作や衝突検出が可能であり、視点
や視線の変化を自由に行なうことができ、充分なリアリ
ティを持った、実写画像を利用した画像合成表示手法を
提供することができる。
【0165】その効果として、ポリゴン分割の詳細度に
依存しない、充分な品質を持った、物体の表示を行なう
ことができる。実施例1と比較すると、画像補正部にお
ける処理を省略しているため、近似の程度は粗くなる
が、その分高速な処理を行なうことができる。
【0166】図23は、実施例3の場合における、実施
例1との相違部分であるレンダリング部についてのフロ
ーチャートを示す。なお、相違点は、図21におけるス
テップ(S15)に相当するステップが省略されている
点である。 ステップ(S38):視点と視線とに関する情報が入力
される。 ステップ(S39):仮オブジェクトデータを読込む。 ステップ(S40):仮オブジェクトを配置する。 ステップ(S41):画像ファイルを選択する。 ステップ(S42):視線ベクトルと仮想視線ベクトル
とのずれを補正する。 ステップ(S43):拡大または縮小の基準方向を選択
する。 ステップ(S44):画像を拡大または縮小する。 ステップ(S45):描画位置を決定する。 ステップ(S46):画素毎の奥行き値を比較する。 ステップ(S47):影にかくれた部分などの描画すべ
きでない部分か否かを調べる。 ステップ(S48):描画すべき部分については描画す
る。 ステップ(S49):全ての画素について処理したか否
かを調べる。 ステップ(S50):画面表示を行う。
【0167】〔実施例4〕図15は本発明の第4の実施
例を説明する図であって、1は仮オブジェクト作成部、
2は画像撮影部、3は物体抽出部、4は奥行き値付与
部、6は仮オブジェクト配置部、7は画像選択部、11
は画像合成部、12は画像表示部、13は視点情報・視
線情報入力部、14はジオメトリデータ格納部、15は
画像データ格納部、17はモデリング部、18はレンダ
リング部、19はモデルデータ格納部、20は画像合成
表示装置である。
【0168】仮オブジェクト作成部 仮オブジェクト作成部1では、仮オブジェクト作成手段
によって仮オブジェクトのジオメトリデータを作成す
る。具体的には以下のような手順を実行する。
【0169】まず、物体に外接するような直方体を一つ
作成する。この直方体をバウンディングボックスと呼
ぶ、このとき、バウンディングボックスの中心が原点と
なり、座標軸が直方体の各面の中心と交わるような座標
系を定義し、これをオブジェクト座標系とする。物体の
正面方向に伸びる座標軸をオブジェクト座標系のX軸と
し、物体の上方向に伸びる座標軸をオブジェクト座標系
のZ軸とする。Y軸は、オブジェクト座標系が右手系を
なすような方向に決める。この様子を図7に示す。
【0170】次に、物体の形状を直方体の組合せで近似
する。具体的には、バウンディングボックスからはみだ
さないように適当な直方体を置いていき、物体の形状を
再現する。この様子を図8に示す。図8の左側の物体を
右側のように近似する。
【0171】このときの近似の程度によって、衝突検出
の精度が左右される。したがって、どの程度の近似が必
要かは、衝突検出の精度がどの程度必要かによる。より
正確な衝突判定を行なう必要があれば、たくさんの細か
な直方体を組み合わせて仮オブジェクトを作成する。逆
に、それほど厳密な衝突判定が必要でなければ、少数の
直方体を組み合わせて仮オブジェクトを作成すればよ
い。バウンディングボックスそのものを仮オブジェクト
としても十分な場合もある。
【0172】仮オブジェクトを作成したのち、バウンデ
ィングボックスの頂点の座標と、仮オブジェクトを構成
する直方体の頂点の座標を、ジオメトリデータ格納部1
4に格納する。
【0173】画像撮影部 画像撮影部2では、画像撮影手段によって物体の画像を
撮影する。具体的な手順は以下の通りである。
【0174】ディジタルカメラを用いて、光軸がバウン
ディングボックスの中心を通るようにして画像を撮影す
る。この様子を図9に示す。このとき、光軸の、オブジ
ェクト座標系のX軸からの回転角θと、XY平面からの
仰角φを記録しておく。また、バウンディングボックス
の中心(すなわち、オブジェクト座標系の原点)から撮
像面までの距離は一定に保っておく。
【0175】このようにして、物体を囲む複数の点から
画像を撮影し、画像ファイルを得る。また、θおよびφ
と画像ファイルに対する対応とを表すテーブルを作成し
ておく。また、後の物体抽出部における処理のため、背
景を単一色に設定しておく。
【0176】物体抽出部 物体抽出部3では、画像撮影部2で撮影された画像か
ら、物体抽出手段によって、表示の対象となる物体を抽
出する。抽出にはクロマキーを用いる。そして、表示対
象部分を表すマスクデータを作成する。マスクデータは
以下のようなものである。
【0177】画像データのサイズがU×V(ピクセル)
であるとする。このとき、マスクデータはU×Vの2次
元配列であって、その要素は「0」または「1」であ
る。例えば、ピクセル(u、v)が表示対象であれば、
(u、v)の要素は「1」であり、そうでなければ
「0」である。このようなマスクデータを、各画像デー
タに対して一つ作成する。
【0178】奥行き値付与部 奥行き値付与部4では、奥行き値付与手段によって、奥
行き値データを作成する。奥行き値データは以下のよう
なものである。
【0179】画像データのサイズがU×V(ピクセル)
であるとする。このとき、奥行き値データはU×Vの2
次元配列であって、その要素は奥行き値を表す。奥行き
値は、オブジェクト座標系の原点を通り、かつ光軸に垂
直な平面からの、符号つきの距離とする。奥行き値付与
手段による奥行き値の与え方にはいくつかの方法が考え
られ、目的に応じて適当なものを採用する。
【0180】一番単純な方法は、バウンディングボック
スの中心の値を奥行き値として採用する方法である。こ
の場合、画面全体の奥行き値は一様にゼロになる。
【0181】次に考えられる方法は、仮オブジェクトの
面の位置を奥行き値として採用する方法である。この場
合、画像データと仮オブジェクトとを同時に画面上に表
示して、仮オブジェクトの直方体の面を選択し、画像デ
ータにおいてそれに対応する範囲を指定することによっ
て各ピクセル毎の奥行き値を与えることができる。
【0182】最も詳細な方法は、画像データの各ピクセ
ル毎に実際の奥行き値を与える方法である。この方法を
実現する手段としては、レンジファインダにより生成さ
れた距離画像を用いる方法が考えられる。
【0183】以上、画像撮影部2において作成された画
像ファイル、および物体抽出部3において作成されたマ
スクデータ、および奥行き値付与部4において作成され
た奥行き値データは、画像データ格納部15に格納して
おく。
【0184】仮オブジェクト配置部 仮オブジェクト配置部6では、仮オブジェクト配置手段
を用いて、仮オブジェクトを3次元仮想空間中に配置す
る。具体的には以下の手順を実行する。
【0185】3次元仮想空間の基準となる座標系、すな
わちワールド座標系を定義する。そして、ワールド座標
系における仮オブジェクトの位置と方向を決めることに
よって、オブジェクト座標系からワールド座標系への変
換が定義される。この変換を用いて、仮オブジェクトの
ジオメトリデータをワールド座標系で表現し、メモリに
記憶しておく。
【0186】一方、視点情報・視線情報入力部13にお
いて視点情報および視線情報が入力されると、ワールド
座標系からスクリーン座標系への変換が定義される。こ
の変換を用いて、ワールド座標系で表現された仮オブジ
ェクトのジオメトリデータをスクリーン座標系で表現
し、これもメモリに記憶しておく。
【0187】画像選択部 画像選択部7では、画像選択手段を用いて、画像データ
格納部15から適切な画像を一枚選択する。具体的な手
順は以下の通りである。
【0188】
【数23】
【0189】画像合成部 画像合成部11では、画像合成手段によって表示される
画像の合成を行なう。具体的な手順は以下の通りであ
る。この処理が、実施例1や実施例2や実施例3とは異
なる。
【0190】まず、画像選択部7で得られた画像につい
て、縦横比を保ったまま、仮オブジェクトの大きさに合
わせて拡大または縮小を行なう。一般に、仮オブジェク
トの形状と画像選択部7で得られた画像の輪郭とは一致
するとは限らないので、縦方向あるいは横方向のいずれ
かを選択して、仮オブジェクトのサイズと画面上に表示
されるサイズを一致させ、実際に描画するサイズの画像
を生成する。また、仮オブジェクトの位置に合わせて、
描画される画像の位置を決定する。
【0191】つづいて、描画する画像の各画素の持つ奥
行き値を、既に描かれている画像の奥行き値と比較し、
奥行き値の小さい方を描画する画素として選択する。以
上の手順によって、奥行き値を考慮した画像の合成が行
なわれる。
【0192】画像表示部 画像表示部12では、画像合成部11によって合成され
た画像をディスプレイ上に表示する。
【0193】以上のような作用により、モデリングが簡
単に行なえ、物体の操作や衝突検出が可能であり、視点
や視線の変化を自由に行なうことができ、充分なリアリ
ティを持った、実写画像を利用した画像合成表示手法を
提供することができる。
【0194】その効果として、ポリゴン分割の詳細度に
依存しない、充分な品質を持った、物体の表示を行なう
ことができる。実施例1および実施例2、実施例3と比
較すると、画像変換部における処理を省略しているた
め、近似の程度はさらに粗くなるが、その分さらに高速
な処理を行なうことができる。
【0195】図24は、実施例4の場合における、実施
例1との相違部分であるレンダリング部についてのフロ
ーチャートを示す。なお、相違点は、図21におけるス
テップ(S15)とステップ(S16)とに相当するス
テップが省略されている点である。 ステップ(S51):視点と視線とに関する情報が入力
される。 ステップ(S52):仮オブジェクトデータを読込む。 ステップ(S53):仮オブジェクトを配置する。 ステップ(S54):画像ファイルを選択する。 ステップ(S55):拡大または縮小の基準方向を選択
する。 ステップ(S56):画像を拡大または縮小する。 ステップ(S57):描画位置を決定する。 ステップ(S58):画素毎の奥行き値を比較する。 ステップ(S59):影にかくれた部分などの描画すべ
きでない部分か否かを調べる。 ステップ(S60):描画すべき部分については描画す
る。 ステップ(S61):全ての画素について処理したか否
かを調べる。 ステップ(S62):画面表示を行う。
【0196】〔実施例5〕図16は本発明の第5の実施
例を説明する図であって、1は仮オブジェクト作成部、
2は画像撮影部、3は物体抽出部、4は奥行き値付与
部、6は仮オブジェクト配置部、7は画像選択部、8は
画像変換部、11は画像合成部、12は画像表示部、1
3は視点情報・視線情報入力部、14はジオメトリデー
タ格納部、15は画像データ格納部、17はモデリング
部、18はレンダリング部、19はモデルデータ格納
部、20は画像合成表示装置である。
【0197】仮オブジェクト作成部 仮オブジェクト作成部1では、仮オブジェクト作成手段
によって仮オブジェクトのジオメトリデータを作成す
る。具体的には以下のような手順を実行する。
【0198】まず、物体に外接するような直方体を一つ
作成する。この直方体をバウンディングボックスと呼
ぶ、このとき、バウンディングボックスの中心が原点と
なり、座標軸が直方体の各面の中心と交わるような座標
系を定義し、これをオブジェクト座標系とする。物体の
正面方向に伸びる座標軸をオブジェクト座標系のX軸と
し、物体の上方向に伸びる座標軸をオブジェクト座標系
のZ軸とする。Y軸は、オブジェクト座標系が右手系を
なすような方向に決める。この様子を図7に示す。
【0199】次に、物体の形状を直方体の組合せで近似
する。具体的には、バウンディングボックスからはみだ
さないように適当な直方体を置いていき、物体の形状を
再現する。
【0200】このときの近似の程度によって、後に衝突
検出の精度が左右される。したがって、どの程度の近似
が必要かは、衝突検出の精度がどの程度必要かによる。
より正確な衝突判定を行なう必要があれば、たくさんの
細かな直方体を組み合わせて仮オブジェクトを作成す
る。逆に、それほど厳密な衝突判定が必要でなければ、
少数の直方体を組み合わせて仮オブジェクトを作成すれ
ばよい。バウンディングボックスそのものを仮オブジェ
クトとしても十分な場合もある。
【0201】仮オブジェクトを作成したら、バウンディ
ングボックスの頂点の座標と、仮オブジェクトを構成す
る直方体の頂点の座標を、ジオメトリデータ格納部14
に格納する。
【0202】画像撮影部 画像撮影部2では、画像撮影手段によって物体の画像を
撮影する。具体的な手順は以下の通りである。
【0203】ディジタルカメラを用いて、光軸がバウン
ディングボックスの中心を通るようにして画像を撮影す
る。このとき、光軸の、オブジェクト座標系のX軸から
の回転角θと、XY平面からの仰角φを記録しておく。
また、バウンディングボックスの中心(すなわち、オブ
ジェクト座標系の原点)から撮像面までの距離は一定に
保っておく。
【0204】このようにして、物体を囲む複数の点から
画像を撮影し、画像ファイルを得る。また、θおよびφ
と画像ファイルに対する対応とを表すテーブルを作成し
ておく。また、後の物体抽出部における処理のため、背
景を単一色に設定しておく。
【0205】物体抽出部 物体抽出部3では、画像撮影部2で撮影された画像か
ら、物体抽出手段によって、表示の対象となる物体を抽
出する。抽出にはクロマキーを用いる。そして、表示対
象部分を表示するマスクデータを作成する。マスクデー
タは以下のようなものである。
【0206】画像データのサイズがU×V(ピクセル)
であるとする。このとき、マスクデータはU×Vの2次
元配列であって、その要素は「0」または「1」であ
る。例えば、ピクセル(u、v)が表示対象であれば、
(u、v)の要素は「1」であり、そうでなければ
「0」である。このようなマスクデータを、各画像デー
タに対して一つ作成する。
【0207】奥行き値付与部 奥行き値付与部4では、奥行き値付与手段によって、奥
行き値データを作成する。奥行き値データは以下のよう
なものである。
【0208】画像データのサイズがU×V(ピクセル)
であるとする。このとき、奥行き値データはU×Vの2
次元配列であって、その要素は奥行き値を表す。奥行き
値は、オブジェクト座標系の原点を通り、かつ光軸に垂
直な平面からの、符号つきの距離とする。奥行き値付与
手段による奥行き値の与え方には、いくつかのやり方が
考えられる。
【0209】一番単純な方法は、バウンディングボック
スの中心の値を奥行き値として採用する方法である。こ
の場合、画面全体の奥行き値は一様にゼロになる。
【0210】次に考えられる方法は、仮オブジェクトの
面の位置を奥行き値として採用する方法である。この場
合、画像データと仮オブジェクトとを同時に画面上に表
示して、仮オブジェクトの直方体の面を選択し、画像デ
ータにおいてそれに対応する範囲を指定することによっ
て各ピクセル毎の奥行き値を与えることができる。
【0211】最も詳細な方法は、画像データの各ピクセ
ル毎に実際の奥行き値を与える方法である。この方法を
実現する手段としては、レンジファインダにより生成さ
れた距離画像を用いる方法が考えられる。
【0212】以上、画像撮影部2において作成された画
像ファイル、および物体抽出部3において作成されたマ
スクデータ、および奥行き値付与部4において作成され
た奥行き値データは、画像データ格納部15に格納して
おく。
【0213】仮オブジェクト配置部 仮オブジェクト配置部6では、仮オブジェクト配置手段
を用いて、仮オブジェクトを3次元仮想空間中に配置す
る。具体的には以下の手順を実行する。
【0214】3次元仮想空間の基準となる座標系、すな
わちワールド座標系を定義する。そして、ワールド座標
系における仮オブジェクトの位置と方向を決めることに
よって、オブジェクト座標系からワールド座標系への変
換が定義される。この変換を用いて、仮オブジェクトの
ジオメトリデータをワールド座標系で表現し、メモリに
記憶しておく。
【0215】一方、視点情報・視線情報入力部13にお
いて視点情報および視線情報が入力されると、ワールド
座標系からスクリーン座標系への変換が定義される。こ
の変換を用いて、ワールド座標系で表現された仮オブジ
ェクトのジオメトリデータをスクリーン座標系で表現
し、これもメモリに記憶しておく。
【0216】画像選択部および画像変換部 画像選択部7および画像変換部8では、以下に説明する
手法を用いて画像選択処理および画像変換処理を行な
う。具体的な処理の内容は、手法の説明の後に記述す
る。この処理が実施例1ないし実施例4と異なる。
【0217】視点の位置や視線の方向を様々に変化させ
たときの画像を得る手段の一つとして、複数枚の画像を
用いて仮想的な視点から見た画像を生成する手法が、
「S.M.Seitz and C.R.Dyer,"View Morphing",Proc SIGG
RAPH 96,In Computer Graphics(1996),pp.21-30 」にお
いて提案されている。以下図17を用いてこの文献で提
案されている手法(以下、ビューモーフィング法と記
す)について概要を説明する。
【0218】まず、1つの物体について2か所から撮影
された2枚の画像I0 、I1 を用意する。画像はそれぞ
れ光学中心C0 、C1 と視線ベクトル
【0219】
【数24】
【0220】を持っている。それぞれの画像の光学中心
を結んだ線分を一般にベースラインと呼ぶ。
【0221】(ステップ1):それぞれの視線ベクトル
が平行かつベースラインに垂直になるように視線ベクト
ルの向きを変え、さらにスクリーン面までの距離が単位
長になるようにオリジナルの画像を変形する。このと
き、視線ベクトルはそれぞれ
【0222】
【数25】
【0223】となる。変形して得られた画像をそれぞれ
I′0 、I′1 とする。この操作を、文献中ではprewar
p と呼んでいる。
【0224】(ステップ2):ベースライン上に仮想的
な視点Cs を設定する。そして、変形された各々の画像
の全ての画素について対応点を探索し、仮想視点の位置
に応じて、それぞれの対応点について線形補間を行な
う。以上の操作で、prewarp された視線ベクトルの方向
【0225】
【数26】
【0226】に仮想視点から見た画像I′s を得ること
ができる。
【0227】(ステップ3):得られた画像について、
視線ベクトル
【0228】
【数27】
【0229】が所望の方向を向き、所望のスクリーン面
までの距離を持つように変形を行ない、仮想視点から見
た画像Is を得る。この操作を、文献中ではpostwarpと
呼んでいる。
【0230】以上のステップ1からステップ3までの操
作を行なうことにより、仮想的な視点から見た画像を2
枚の実写画像から得ることができる。
【0231】元の文献には記述されていないが、この手
法を自然に拡張すれば、撮影点を3点に増やすことによ
り、この3点を頂点に持つ三角形に囲まれた任意の視点
から見た物体の画像を合成することが可能となることは
自明である。要するに、ビューモーフィング法を繰り返
して実行すれば良い。したがって、任意の視点に対し
て、必ずその視点を囲むような、3つの撮影点からなる
三角形が存在するように、あらかじめ画像を撮影してお
けば良い。これが可能であることは、物体を囲む正20
面体を想像すれば明らかである。
【0232】画像選択部 画像選択部7では、画像選択手段を用いて、画像データ
格納部15から適切な画像を複数枚選択する。具体的な
手順は以下の通りである。
【0233】
【数28】
【0234】この時点で、視点が撮影点を結んだ線分上
に存在すれば画像の選択を終了する。そうでない場合、
撮影点をもう一つ選択して、三つの撮影点から構成され
る三角形が視点を囲むようにする必要がある。したがっ
て、内積の値が3番目に大きい撮影点から順番に、前述
の条件を満たすかどうか判定し、条件を満たすような撮
影点がみつかったところでその撮影点に対応する画像フ
ァイルを選択し、画像の選択を終了する。
【0235】画像変換部 画像変換部8では、画像変換手段を用いて、画像選択部
7で選択された画像を変換する。画像変換手段には、前
述のビューモーフィング法を用いる。
【0236】画像合成部 画像合成部11では、画像合成手段によって表示される
べき画像の合成を行なう。具体的な手順は以下の通りで
ある。
【0237】まず、画像変換部8で得られた画像につい
て、縦横比を保ったまま、仮オブジェクトの大きさに合
わせて拡大または縮小を行なう。一般に、仮オブジェク
トの形状と画像変換部8で得られた画像の輪郭は一致す
るとは限らないので、縦方向あるいは横方向のいずれか
を選択して、画面上に表示される大きさを調整し、実際
に描画する画像を生成する。また仮オブジェクトの位置
に合わせて、描画される画像の位置を決定する。
【0238】つづいて、描画する画像の各画素の持つ奥
行き値を、既に描かれている画像の奥行き値と比較し、
奥行き値の小さい方を描画する画素として選択する。以
上の手順によって奥行き値を考慮した画像の合成が行な
われる。
【0239】画像表示部 画像表示部12では、画像合成部11によって合成され
た画像をディスプレイ上に表示する。
【0240】以上のような作用により、モデリングが簡
単に行なえ、物体の操作や衝突検出が可能であり、視点
や視線の変化を自由に行なうことができ、充分なリアリ
ティを持った、実写画像を利用した画像合成表示手法を
提供することができる。
【0241】図25は、実施例5の場合における、実施
例1との相違部分であるレンダリング部についてのフロ
ーチャートを示す。なお、相違点は、図21におけるス
テップ(S15)とステップ(S16)とに代わって、
ステップ(S67)が用いられている点である。 ステップ(S63):視点と視線とに関する情報が入力
される。 ステップ(S64):仮オブジェクトデータを読込む。 ステップ(S65):仮オブジェクトを配置する。 ステップ(S66):画像ファイルを選択する。 ステップ(S67):ビューモーフィング法によっての
画像変換を行う。 ステップ(S68):拡大または縮小の基準方向を選択
する。 ステップ(S69):画像を拡大または縮小する。 ステップ(S70):描画位置を決定する。 ステップ(S71):画素毎の奥行き値を比較する。 ステップ(S72):影にかくれた部分などの描画すべ
きでない部分か否かを調べる。 ステップ(S73):描画すべき部分については描画す
る。 ステップ(S74):全ての画素について処理したか否
かを調べる。 ステップ(S75):画面表示を行う。
【0242】その効果として、ポリゴン分割の詳細度に
依存しない、充分な品質を持った、物体の表示を行なう
ことができる。実施例1および実施例2、実施例3、実
施例4と比較すると、画像変換部における処理にビュー
モーフィング法を用いているため、画像変換処理の負担
は増加するが、高品質の画像表示を行なうことができ
る。
【0243】上記において、画像合成表示方法ならびに
そのための装置について説明したが、当該画像合成表示
はデータ処理装置が、プログラムを実行する形で記述す
ることが可能であり、プログラムの形で記録保存するこ
とが可能である。このことから本願発明は当該プログラ
ムを記録した記録媒体をも本願発明の権利範囲に属する
ものである。
【0244】
【発明の効果】以上説明したように、本発明によれば、
以下のような利点を兼ね備えた、充分なリアリティを持
つ、実写画像を用いた画像合成表示手法を提供すること
ができるという効果がある。
【0245】まず第一に、本発明では物体の概略形状を
表す仮オブジェクトと、いくつかの方向から物体を撮影
した実写画像を用いてモデリングを行ない、物体の詳細
な形状を多数のポリゴンで表現する必要がないため、モ
デリングが簡単に行なえる利点がある。
【0246】次に、仮オブジェクトが物体の概略形状情
報を持っているため、回転や平行移動など、物体の操作
を行なうことができ、また、衝突検出を行なうことがで
きるという効果がある。この効果によって、本発明を3
次元仮想空間レイアウトシステムに応用することができ
るという利点がある。
【0247】また、視点や視線の変化を自由に行なうこ
とができ、隠面消去を行なうことができる効果がある。
この効果によって、3次元CGの重要な応用例であるウ
ォークスルーを実現することができるという利点があ
る。
【0248】さらに、本発明の方法は特殊な装置を必要
としないため、ポリゴンとテクスチャマッピングを用い
た従来の3次元CG手法と組み合わせて用いることがで
きる。したがって、既存の3次元CG装置に、本発明の
方法を実現する装置を組み込むことにより、既存の3次
元CG装置の表示のリアリティを増すことができるとい
う利点がある。
【図面の簡単な説明】
【図1】凹凸のある物体を第三角法によって描いたもの
である。
【図2】図1に示された物体を斜め上方から見た場合の
実際の見え方を表すものである。
【図3】図1に示された物体を斜め上方から見た場合
に、従来の手法を用いた表示したものを表すものであ
る。
【図4】湯のみを表すものである。
【図5】図4に示された湯のみを、従来の手法を用いて
表示したものを表すものである。
【図6】本発明の第1の実施例を説明するブロック図で
ある。
【図7】バウンディングボックスとオブジェクト座標系
との関係を表すものである。
【図8】物体を仮オブジェクトで近似する様子を表すも
のである。左側の図が実際の物体、右側の図が仮オブジ
ェクトをそれぞれ表している。
【図9】物体の撮影の様子を説明するための模型図であ
る。
【図10】ワールド座標系の原点に光学中心を持ち、焦
点距離がfであるようなピンホールカメラによる透視投
影変換の様子を表すものである。
【図11】ディジタル画像座標系と正規化画像座標系の
間の関係を表すものである。
【図12】正規化画像座標系のX軸の回りにカメラを角
度φだけ回転させるような正規化画像座標系の座標変換
の様子を表すものである。X軸は、紙面から手前の方向
を正として、YZ−平面に垂直に伸びているものとす
る。
【図13】本発明の第2の実施例を説明するブロック図
である。
【図14】本発明の第3の実施例を説明するブロック図
である。
【図15】本発明の第4の実施例を説明するブロック図
である。
【図16】本発明の第5の実施例を説明するブロック図
である。
【図17】View Morphing の手法を説明するための模型
図である。
【図18】図6に示す実施例1におけるジオメトリデー
タ作成のためのフローチャートを示す。
【図19】図6に示す実施例1における画像データ作成
のためのフローチャートを示す。
【図20】図6に示す実施例1におけるカメラパラメー
タ抽出のためのフローチャートを示す。
【図21】図6に示す実施例1におけるレンダリング部
のフローチャートを示す。
【図22】実施例2の場合における、実施例1との相違
部分であるレンダリング部についてのフローチャートを
示す。
【図23】実施例3の場合における、実施例1との相違
部分であるレンダリング部についてのフローチャートを
示す。
【図24】実施例4の場合における、実施例1との相違
部分であるレンダリング部についてのフローチャートを
示す。
【図25】実施例5の場合における、実施例1との相違
部分であるレンダリング部についてのフローチャートを
示す。
【符号の説明】
1 仮オブジェクト作成部 2 画像撮影部 3 物体抽出部 4 奥行き値付与部 5 カメラパラメータ抽出部 6 仮オブジェクト配置部 7 画像選択部 8 画像変換部 9 画像補正部 10 画像再投影部 11 画像合成部 12 画像表示部 13 視点情報・視線情報入力部 14 ジオメトリデータ格納部 15 画像データ格納部 16 カメラパラメータ格納部 17 モデリング部 18 レンダリング部 19 モデルデータ格納部 20 画像合成表示装置
───────────────────────────────────────────────────── フロントページの続き (72)発明者 佐藤 秀則 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 Fターム(参考) 5B050 BA09 DA07 EA12 EA13 EA19 EA27 EA28 EA29 FA02 5B057 BA02 CA13 CB13 CD06 CD20 CE08 5B080 BA02 FA08 GA01 GA22 5C023 AA10 AA18 AA37 AA38 CA02 CA05 DA01 5C061 AB03 AB08 AB14 AB17

Claims (29)

    【特許請求の範囲】
  1. 【請求項1】 3次元コンピュータグラフィックスの画
    像合成表示方法において、 ジオメトリデータを用いて、画像の表示位置と当該画像
    の表示の大きさとを決定する第1の段階と、 当該第1の段階により決定された表示位置と表示の大き
    さとに合わせて実写画像を表示する第2の段階とを有す
    ることを特徴とする画像合成表示方法。
  2. 【請求項2】 3次元コンピュータグラフィックスの画
    像合成表示方法において、 ジオメトリデータを用いて、画像の表示位置と当該画像
    の表示の大きさとを決定する第1の段階と、 投影中心から物体へ向かう方向と撮影時視線の方向とが
    最も近いような実写画像を選択する第2の段階と、 上記第1の段階により決定された表示位置と表示の大き
    さとに合わせて、上記第2の段階により選択された実写
    画像を表示する第3の段階とを有することを特徴とする
    画像合成表示方法。
  3. 【請求項3】 3次元コンピュータグラフィックスの画
    像合成表示方法において、 ジオメトリデータを用いて、画像の表示位置と表示の大
    きさとを決定する第1の段階と、 投影中心から物体へ向かう方向と撮影時視線の方向とが
    最も近いような実写画像を選択する第2の段階と、 上記第2の段階で選択された実写画像を、投影中心から
    物体へ向かう方向と撮影時視線の方向とのずれに応じて
    変形する第3の段階と、 上記第1の段階により決定された表示位置と表示の大き
    さとに合わせて、上記第3の段階により変形された実写
    画像を表示する第4の段階とを有することを特徴とする
    画像合成表示方法。
  4. 【請求項4】 請求項3記載の画像合成表示方法におい
    て、 選択された実写画像を、投影中心から物体へ向かう方向
    と撮影時視線の方向とのずれに応じて変形する際に画像
    再投影法を用いることを特徴とする画像合成表示方法。
  5. 【請求項5】 3次元コンピュータグラフィックスの画
    像合成表示方法において、 ジオメトリデータを用いて、画像の表示位置と表示の大
    きさとを決定する第1の段階と、 投影中心から物体へ向かう方向と撮影時視線の方向とが
    最も近いような実写画像を選択する第2の段階と、 上記第2の段階で選択された実写画像を、投影中心から
    物体へ向かう方向と表示時視線の方向とのずれに応じて
    変形する第3の段階と、 上記第1の段階により決定された表示位置と表示の大き
    さとに合わせて、上記第3の段階により変形された実写
    画像を表示する第4の段階とを有することを特徴とする
    画像合成表示方法。
  6. 【請求項6】 請求項5記載の画像合成表示方法におい
    て、 選択された実写画像を投影中心から物体へ向かう方向と
    表示時視線の方向とのずれに応じて変形するに当って画
    像再投影を行うことを特徴とする画像合成表示方法。
  7. 【請求項7】 3次元コンピュータグラフィックスの画
    像合成表示方法において、 ジオメトリデータを用いて、画像の表示位置と表示の大
    きさとを決定する第1の段階と、 投影中心から物体へ向かう方向と撮影時視線の方向とが
    最も近いような実写画像を選択する第2の段階と、 上記第2の段階で選択された実写画像を、投影中心から
    物体へ向かう方向と撮影時視線の方向とのずれに応じて
    変形する第3の段階と、 上記第3の段階で変形された実写画像を、さらに投影中
    心から物体へ向かう方向と表示時視線の方向とのずれに
    応じて変形する第4の段階と、 上記第1の段階により決定された表示位置と表示の大き
    さとに合わせて、上記第4の段階により変形された実写
    画像を表示する第5の段階とを有することを特徴とする
    画像合成表示方法。
  8. 【請求項8】 請求項7記載の画像合成表示方法におい
    て、 選択された実写画像を投影中心から物体へ向かう方向と
    撮影時視線の方向とのずれに応じて変形する第3の段階
    においておよび投影中心から物体へ向かう方向と表示時
    視線の方向とのずれに応じて変形する第4の段階におい
    て画像再投影を行うことを特徴とする画像合成表示方
    法。
  9. 【請求項9】 3次元コンピュータグラフィックスの画
    像合成表示方法において、 ジオメトリデータを用いて、画像の表示位置と表示の大
    きさとを決定する第1の段階と、 投影中心から物体へ向かう方向と撮影時視線の方向とが
    近いような実写画像を複数選択する第2の段階と、 上記第2の段階で選択された複数の実写画像を、対応点
    を用いて補間する第3の段階と、 上記第1の段階により決定された表示位置と表示の大き
    さとに合わせて、上記第3の段階により補間された実写
    画像を表示する第4の段階とを有することを特徴とする
    画像合成表示方法。
  10. 【請求項10】 物体の概形を表す仮オブジェクトを3
    次元仮想空間中に配置する仮オブジェクト配置手段と、 物体を複数方向から撮影した実写画像から表示に用いる
    ための実写画像を選択する画像選択手段と、 上記の選択された画像を奥行き値を考慮して合成する画
    像合成手段と、 上記画像合成手段によって合成された画像を画面に表示
    する画像表示手段とを備えることを特徴とする画像合成
    表示装置。
  11. 【請求項11】 物体の概形を表す仮オブジェクトを3
    次元仮想空間中に配置する仮オブジェクト配置手段と、 物体を複数方向から撮影した実写画像から表示に用いる
    ための実写画像を選択する画像選択手段と、 上記画像選択手段により選択された実写画像を、視点情
    報及び視線情報に基づき、変換する画像変換手段と、 上記の変換された画像を奥行き値を考慮して合成する画
    像合成手段と、 上記画像合成手段によって合成された画像を画面に表示
    する画像表示手段とを備えることを特徴とする画像合成
    表示装置。
  12. 【請求項12】 請求項11記載の画像合成表示装置に
    おいて、 上記画像変換手段が、上記画像選択手段により選択され
    た画像の撮影時の視線の方向と、投影中心から表示物体
    に向かう方向とのずれを補正する画像補正手段を備える
    ことを特徴とする画像合成表示装置。
  13. 【請求項13】 請求項11記載の画像合成表示装置に
    おいて、 上記画像変換手段が、投影中心から表示物体に向かう方
    向と表示時視線方向とのずれを補正する画像再投影手段
    を備えることを特徴とする画像合成表示装置。
  14. 【請求項14】 請求項11記載の画像合成表示装置に
    おいて、 上記画像変換手段が、 上記画像選択手段により選択された画像の撮影時の視線
    の方向と投影中心から表示物体に向かう方向とのずれを
    補正する画像補正手段と、 投影中心から表示物体に向かう方向と表示時視線方向と
    のずれを補正する画像再投影手段とを備えることを特徴
    とする画像合成表示装置。
  15. 【請求項15】 3次元コンピュータグラフィックスの
    画像合成表示装置において、 物体の概形を表す仮オブジェクトを、3次元仮想空間中
    に配置する仮オブジェクト配置手段と、 物体を複数方向から撮影した実写画像から、表示に用い
    るための実写画像を複数選択する画像選択手段と、 上記画像選択手段により選択された複数の実写画像を、
    視点情報及び視線情報に基づき、対応点を用いて補間す
    ることにより変換する画像変換手段と、 上記の変換された画像を、奥行き値を考慮して合成する
    画像合成手段と、 上記画像合成手段によって合成された画像を画面に表示
    する画像表示手段とを備えることを特徴とする画像合成
    表示装置。
  16. 【請求項16】 3次元コンピュータグラフィックスの
    画像合成表示装置において、 物体の概形を表す仮オブジェクトを作成する仮オブジェ
    クト作成手段と、表示対象物体の実写画像を取得する画
    像撮影手段と、上記実写画像から表示対象物体を抽出す
    る物体抽出手段と、上記実写画像中の表示対象物体の奥
    行き値を付与する奥行き値付与手段とを有するモデリン
    グ装置を備えると共に、 物体の概形を表す仮オブジェクトを3次元仮想空間中に
    配置する仮オブジェクト配置手段と、物体を複数方向か
    ら撮影した実写画像から表示に用いるための実写画像を
    選択する画像選択手段と、上記の選択された画像を奥行
    き値を考慮して合成する画像合成手段と、上記画像合成
    手段によって合成された画像を画面に表示する画像表示
    手段とを有する画像合成表示装置と、 ジオメトリデータを格納するジオメトリデータ格納手段
    と、 画像データを格納する画像データ格納手段とを備えるこ
    とを特徴とする画像合成表示装置。
  17. 【請求項17】 3次元コンピュータグラフィックスの
    画像合成表示装置において、 物体の概形を表す仮オブジェクトを作成する仮オブジェ
    クト作成手段と、表示対象物体の実写画像を取得する画
    像撮影手段と、上記実写画像から表示対象物体を抽出す
    る物体抽出手段と、上記実写画像中の表示対象物体の奥
    行き値を付与する奥行き値付与手段と上記実写画像の取
    得に用いたカメラのカメラパラメータを抽出するカメラ
    パラメータ抽出手段とを有するモデリング装置を備える
    と共に、 物体を複数方向から撮影した実写画像から表示に用いる
    ための実写画像を選択する画像選択手段と、上記画像選
    択手段により選択された実写画像を、視点情報及び視線
    情報に基づき、変換する画像変換手段とを備え、 上記画像変換手段が、上記画像選択手段により選択され
    た画像の撮影時の視線の方向と投影中心から表示物体に
    向かう方向とのずれを補正する画像補正手段を有する画
    像合成表示装置と、 ジオメトリデータを格納するジトメトリデータ格納手段
    と、 画像データを格納する画像データ格納手段と、 カメラパラメータを格納するカメラパラメータ格納手段
    とを備えることを特徴とする画像合成表示装置。
  18. 【請求項18】 3次元コンピュータグラフィックスの
    画像合成表示装置において、 物体の概形を表す仮オブジェクトを作成する仮オブジェ
    クト作成手段と、表示対象物体の実写画像を取得する画
    像撮影手段と、上記実写画像から表示対象物体を抽出す
    る物体抽出手段と、上記実写画像中の表示対象物体の奥
    行き値を付与する奥行き値付与手段と、上記実写画像の
    取得に用いたカメラのカメラパラメータを抽出するカメ
    ラパラメータ抽出手段とを有するモデリング装置を備え
    ると共に、物体を複数方向から撮影した実写画像から表
    示に用いるための実写画像を選択する画像選択手段と、
    上記画像選択手段により選択された実写画像を、視点情
    報及び視線情報に基づき、変換する画像変換手段とを備
    え、 上記画像変換手段が、上記画像選択手段により選択され
    た画像の撮影時の視線の方向と投影中心から表示物体に
    向かう方向とのずれを補正する画像再投影手段を有する
    画像合成表示装置と、 ジオメトリデータを格納するジトメトリデータ格納手段
    と、 画像データを格納する画像データ格納手段と、 カメラパラメータを格納するカメラパラメータ格納手段
    とを備えることを特徴とする画像合成表示装置。
  19. 【請求項19】 3次元コンピュータグラフィックスの
    画像合成表示装置において、 物体の概形を表す仮オブジェクトを作成する仮オブジェ
    クト作成手段と、表示対象物体の実写画像を取得する画
    像撮影手段と、上記実写画像から表示対象物体を抽出す
    る物体抽出手段と、上記実写画像中の表示対象物体の奥
    行き値を付与する奥行き値付与手段と、上記実写画像の
    取得に用いたカメラのカメラパラメータを抽出するカメ
    ラパラメータ抽出手段とを有するモデリング装置を備え
    ると共に、 物体を複数方向から撮影した実写画像から表示に用いる
    ための実写画像を選択する画像選択手段と、上記画像選
    択手段により選択された実写画像を、視点情報及び視線
    情報に基づき、変換する画像変換手段とを備え、 上記画像変換手段が、上記画像選択手段により選択され
    た画像の撮影時の視線の方向と投影中心から表示物体に
    向かう方向とのずれを補正する画像補正手段と、投影中
    心から表示物体に向かう方向と表示時視線方向とのずれ
    を補正する画像再投影手段とを有する画像合成表示装置
    と、 ジオメトリデータを格納するジオメトリデータ格納手段
    と、 画像データを格納する画像データ格納手段と、 カメラパラメータを格納するカメラパラメータ格納手段
    とを備えることを特徴とする画像合成表示装置。
  20. 【請求項20】 3次元コンピュータグラフィックスの
    画像合成表示装置において、 物体の概形を表す仮オブジェクトを作成する仮オブジェ
    クト作成手段と、表示対象物体の実写画像を取得する画
    像撮影手段と、上記実写画像から表示対象物体を抽出す
    る物体抽出手段と、上記実写画像中の表示対象物体の奥
    行き値を付与する奥行き値付与手段とを有するモデリン
    グ装置を備えると共に、 物体の概形を表す仮オブジェクトを3次元仮想空間中に
    配置する仮オブジェクト配置手段と、物体を複数方向か
    ら撮影した実写画像から表示に用いるための実写画像を
    複数選択する画像選択手段と、上記画像選択手段により
    選択された複数の実写画像を、視点情報及び視線情報に
    基づき対応点を用いて補間することにより変換する画像
    変換手段と、上記の変換された画像を奥行き値を考慮し
    て合成する画像合成手段と、上記画像合成手段によって
    合成された画像を画面に表示する画像表示手段とを有す
    る画像合成表示装置と、 ジオメトリデータを格納するジオメトリデータ格納手段
    と、 画像データを格納する画像データ格納手段とを備えるこ
    とを特徴とする画像合成表示装置。
  21. 【請求項21】 ジオメトリデータを用いて、画像の表
    示位置と当該画像の表示の大きさとを決定する第1の段
    階と、 当該第1の段階により決定された表示位置と表示の大き
    さとに合わせて実写画像を表示する第2の段階とを有す
    る3次元コンピュータグラフィックスの画像合成表示方
    法に関し、 当該画像合成表示方法を記述した画像合成表示プログラ
    ムを記録した記録媒体。
  22. 【請求項22】 ジオメトリデータを用いて、画像の表
    示位置と当該画像の表示の大きさとを決定する第1の段
    階と投影中心から物体へ向かう方向と撮影時視線の方向
    とが最も近いような実写画像を選択する第2の段階と、 上記第1の段階により決定された表示位置と表示の大き
    さとに合わせて、上記第2の段階により選択された実写
    画像を表示する第3の段階とを有する3次元コンピュー
    タグラフィックスの画像合成表示方法に関し、 当該画像合成表示方法を記述した画像合成表示プログラ
    ムを記録した記録媒体。
  23. 【請求項23】 ジオメトリデータを用いて、画像の表
    示位置と表示の大きさとを決定する第1の段階と、 投影中心から物体へ向かう方向と撮影時視線の方向とが
    最も近いような実写画像を選択する第2の段階と、 上記第2の段階で選択された実写画像を、投影中心から
    物体へ向かう方向と撮影時視線の方向とのずれに応じて
    変形する第3の段階と、 上記第1の段階により決定された表示位置と表示の大き
    さとに合わせて、上記第3の段階により変形された実写
    画像を表示する第4の段階とを有する3次元コンピュー
    タグラフィックスの画像合成表示方法に関し、 当該画像合成表示方法を記述した画像合成表示プログラ
    ムを記録した記録媒体。
  24. 【請求項24】 請求項23に記載された画像合成表示
    方法において、選択された実写画像を、投影中心から物
    体へ向かう方向と撮影時視線の方向とのずれに応じて変
    形するに当って画像再投影を行うようにした3次元コン
    ピュータグラフィックスの画像合成表示方法に関し、 当該画像合成表示方法を記述した請求項23記載の画像
    合成表示プログラムを記録した記録媒体。
  25. 【請求項25】 ジオメトリデータを用いて、画像の表
    示位置と表示の大きさとを決定する第1の段階と、 投影中心から物体へ向かう方向と撮影時視線の方向とが
    最も近いような実写画像を選択する第2の段階と、 上記第2の段階で選択された実写画像を、投影中心から
    物体へ向かう方向と表示時視線の方向とのずれに応じて
    変形する第3の段階と、 上記第1の段階により決定された表示位置と表示の大き
    さとに合わせて、上記第3の段階により変形された実写
    画像を表示する第4の段階とを有する3次元コンピュー
    タグラフィックスの画像合成表示方法に関し、 当該画像合成表示方法を記述した画像合成表示プログラ
    ムを記録した記録媒体。
  26. 【請求項26】 請求項25に記載された画像合成表示
    方法において、選択された実写画像を投影中心から物体
    へ向かう方向と表示時視線の方向とのずれに応じて変形
    するに当って画像再投影を行うようにした3次元コンピ
    ュータグラフィックスの画像合成表示方法に関し、 当該画像合成表示方法を記述した請求項25記載の画像
    合成表示プログラムを記録した記録媒体。
  27. 【請求項27】 ジオメトリデータを用いて、画像の表
    示位置と表示の大きさとを決定する第1の段階と、 投影中心から物体へ向かう方向と撮影時視線の方向とが
    最も近いような実写画像を選択する第2の段階と、 上記第2の段階で選択された実写画像を、投影中心から
    物体へ向かう方向と撮影時視線の方向とのずれに応じて
    変形する第3の段階と、 上記第3の段階で変形された実写画像を、さらに投影中
    心から物体へ向かう方向と表示時視線の方向とのずれに
    応じて変形する第4の段階と、 上記第1の段階により決定された表示位置と表示の大き
    さとに合わせて、上記第4の段階により変形された実写
    画像を表示する第5の段階とを有する3次元コンピュー
    タグラフィックスの画像合成表示方法に関し、 当該画像合成表示方法を記述した画像合成表示プログラ
    ムを記録した記録媒体。
  28. 【請求項28】 請求項27に記載された画像合成表示
    方法において、選択された実写画像を投影中心から物体
    へ向かう方向と撮影時視線の方向とのずれに応じて変形
    する第3の段階においておよび投影中心から物体へ向か
    う方向と表示時視線の方向とのずれに応じて変形する第
    4の段階において画像再投影を行うようにした3次元コ
    ンピュータグラフィックスの画像合成表示方法に関し、 当該画像合成表示方法を記述した請求項27記載の画像
    合成表示プログラムを記録した記録媒体。
  29. 【請求項29】 ジオメトリデータを用いて、画像の表
    示位置と表示の大きさとを決定する第1の段階と、 投影中心から物体へ向かう方向と撮影時視線の方向とが
    近いような実写画像を複数選択する第2の段階と、 上記第2の段階で選択された複数の実写画像を、対応点
    を用いて補間する第3の段階と、 上記第1の段階により決定された表示位置と表示の大き
    さとに合わせて、上記第3の段階により補間された実写
    画像を表示する第4の段階とを有する3次元コンピュー
    タグラフィックスの画像合成表示方法に関し、 当該画像合成表示方法を記述した画像合成表示プログラ
    ムを記録した記録媒体。
JP21080999A 1999-07-26 1999-07-26 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体 Expired - Lifetime JP3648099B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21080999A JP3648099B2 (ja) 1999-07-26 1999-07-26 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21080999A JP3648099B2 (ja) 1999-07-26 1999-07-26 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2001034788A true JP2001034788A (ja) 2001-02-09
JP3648099B2 JP3648099B2 (ja) 2005-05-18

Family

ID=16595500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21080999A Expired - Lifetime JP3648099B2 (ja) 1999-07-26 1999-07-26 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP3648099B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149127A (ja) * 2003-11-14 2005-06-09 Sony Corp 撮像表示装置及び方法、画像送受信システム
CN113536467A (zh) * 2021-07-24 2021-10-22 深圳市北斗云信息技术有限公司 一种无人机远程操作显示系统
CN113536467B (zh) * 2021-07-24 2024-06-04 深圳市北斗云信息技术有限公司 一种无人机远程操作显示系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149127A (ja) * 2003-11-14 2005-06-09 Sony Corp 撮像表示装置及び方法、画像送受信システム
JP4595313B2 (ja) * 2003-11-14 2010-12-08 ソニー株式会社 撮像表示装置及び方法、画像送受信システム
CN113536467A (zh) * 2021-07-24 2021-10-22 深圳市北斗云信息技术有限公司 一种无人机远程操作显示系统
CN113536467B (zh) * 2021-07-24 2024-06-04 深圳市北斗云信息技术有限公司 一种无人机远程操作显示系统

Also Published As

Publication number Publication date
JP3648099B2 (ja) 2005-05-18

Similar Documents

Publication Publication Date Title
US8947422B2 (en) Gradient modeling toolkit for sculpting stereoscopic depth models for converting 2-D images into stereoscopic 3-D images
JP6201476B2 (ja) 自由視点画像撮像装置およびその方法
US6717586B2 (en) Apparatus, method, program code, and storage medium for image processing
US20080246757A1 (en) 3D Image Generation and Display System
JP4065488B2 (ja) 3次元画像生成装置、3次元画像生成方法及び記憶媒体
US20020113865A1 (en) Image processing method and apparatus
JP4285422B2 (ja) 動画像生成システム、動画像生成装置、動画像生成方法、プログラム、及び記録媒体
JP3104638B2 (ja) 3次元画像作成装置
US6795090B2 (en) Method and system for panoramic image morphing
JP3643511B2 (ja) 3次元画像処理方法,3次元モデリング方法および3次元画像処理プログラムを記録した記録媒体
KR20080034419A (ko) 3d 영상 생성 및 디스플레이 시스템
US5793372A (en) Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically using user defined points
KR20000051217A (ko) 얼굴 텍스처 영상을 이용한 3차원 얼굴 모델링방법
JPH11250273A (ja) 画像合成装置
JP2002092625A (ja) 画像処理装置および方法、並びに記録媒体
JPH10208074A (ja) 画像生成方法
JP3648099B2 (ja) 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体
JP7394566B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP3309841B2 (ja) 合成動画像生成装置および合成動画像生成方法
JP7011728B2 (ja) 画像データ出力装置、コンテンツ作成装置、コンテンツ再生装置、画像データ出力方法、コンテンツ作成方法、およびコンテンツ再生方法
JP2022029730A (ja) 3dモデル生成装置ならびに仮想視点映像生成装置、方法およびプログラム
JP2002525764A (ja) グラフィックスおよび画像処理システム
US6633291B1 (en) Method and apparatus for displaying an image
JP3149389B2 (ja) ビットマップ・イメージを環境マップにオーバレイする方法および装置
JP3683927B2 (ja) コンピュータ・グラフィック制作システム及びその制御方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040817

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050210

R150 Certificate of patent or registration of utility model

Ref document number: 3648099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090218

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090218

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100218

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110218

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110218

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120218

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130218

Year of fee payment: 8

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term