JPH09245192A - 仮想環境生成実現方法およびその装置 - Google Patents

仮想環境生成実現方法およびその装置

Info

Publication number
JPH09245192A
JPH09245192A JP5151996A JP5151996A JPH09245192A JP H09245192 A JPH09245192 A JP H09245192A JP 5151996 A JP5151996 A JP 5151996A JP 5151996 A JP5151996 A JP 5151996A JP H09245192 A JPH09245192 A JP H09245192A
Authority
JP
Japan
Prior art keywords
image
space
data
generation
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5151996A
Other languages
English (en)
Inventor
Shinji Uchiyama
晋二 内山
Akihiro Katayama
昭宏 片山
Masahiro Shibata
昌宏 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP5151996A priority Critical patent/JPH09245192A/ja
Priority to US08/812,388 priority patent/US6268862B1/en
Priority to EP97301519A priority patent/EP0794516B1/en
Priority to DE69737780T priority patent/DE69737780T2/de
Publication of JPH09245192A publication Critical patent/JPH09245192A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【課題】 容易に形状モデルデータと実写画像とを生成
し、融合することができ、かつリアリティの高い画像を
表示できるようにする。 【解決手段】 形状モデルデータd1とその表面特性や
模様などを用いて3次元空間を生成し、その3次元空間
から視点位置・向き・画角などで決められるある描画則
によって画像として空間を再現し、また、光線空間デー
タd3から上記描画則を用いて画像を生成し、形状モデ
ルデータd1及び光線空間データd3のそれぞれから生
成された画像を融合する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、バーチャルリアリ
ティのための仮想環境を生成し体験実現する方法および
その装置に関するものである。
【0002】
【従来の技術】3次元物体やシーンを表現し、任意の位
置・向きからの観察画像を提示する手法として、 (1)ポリゴンデータや曲面データなどの形状モデルデ
ータ、その表面特性や模様を表すテクスチャデータ、光
源データなどによって、3次元物体やシーンを表現し、
コンピュータグラフィクスのレンダリング技術により任
意の位置向きでのシーンの見え方を画面に描画すること
によって、3次元シーンや物体を再現する方法があっ
た。
【0003】(2)3次元物体やシーンを多数の視点か
ら予め撮影しておき、その画像群の中から、観察したい
位置・向きに近い撮影条件で撮影された画像を選択する
ことによって、任意に近い位置向きから観察される3次
元物体を提示する方法があった。
【0004】(3)3次元物体やシーンの実写の画像群
を基にして光線空間データを生成し、その光線空間デー
タから、任意位置向きから見える画像を生成し、提示す
ることによって3次元物体やシーンを再現する方法があ
った。
【0005】(4)ある視点から周囲を見回したパノラ
マ画像を入力しておき、そのパノラマ画像から向いてい
る方向に相当する画像を生成する(主に切り出しと歪み
補正処理とからなる)方法により、ある地点からの3次
元シーンを提示する方法があった。
【0006】
【発明が解決しようとする課題】しかしながら、これら
従来の技術には、以下のような問題点があった。
【0007】まず、従来の技術(1)の方法には、形状
が複雑な物体に対してその形状データを生成することが
困難であるという問題点があった。さらに、形状が複雑
な物体の形状データを実物体から獲得することも困難で
あるという問題点があった。特に、既にある複雑な形状
や、複雑な表面の模様・反射特性(吸収透過特性)をも
つような実物体を再現することは、より困難である。そ
して一般的に人工物は表現しやすいが、自然物の表現が
難しい。しかしながら、部屋や街並みと言った人工的な
3次元シーンを表現することが、比較的少ないデータ量
にて比較的容易に行えるという長所を持っている。
【0008】また、従来の技術(2)では上述の問題は
発生しないが、最終的に提示する画像を予め撮影してお
く必要があるため、観察時の視点位置向きを疑似的に任
意であると見なせる程度に画像を準備することが、デー
タ量が膨大になるために事実上困難であるという問題点
があった。同様な理由により、部屋や街並みといった広
い3次元シーンを表現するためにあらゆるデータを保持
しておくことは、不可能に近く、どちらかというと3次
元物体を表現することに向いている手法である。
【0009】また、従来の技術(3)では、従来の技術
(2)で必要であった提示する画像の全てを予め撮影し
ておくという必要はないが、3次元シーンのあらゆる位
置からの画像を提示するためには、やはり膨大な光線空
間データを生成・保持しておく必要があり、どちらかと
いうと、3次元物体向きの手法であって、部屋や街並み
と言ったような3次元シーンを表現するには向いていな
い手法であった。
【0010】また、従来の技術(4)は、部屋や街並み
といった3次元シーンを表現するのに向いた方法であ
り、ある地点から任意の方向を向いたときの観察画像を
提示することが可能である。しかし、視点位置の移動を
行いたいときには、多くのパノラマ画像を用意する必要
がある。そのため、任意と見なせる視点位置からの観察
を行うためには、やはりデータ量が膨大となり、事実上
それが困難であるといった問題点があり、そのために、
離散的な視点位置の移動として、この処理を実現するこ
とが多い。
【0011】本発明は、別々の技術である従来の技術
(1)〜(4)の特性を生かし、これらをうまく組み合
わせてそれぞれの利点のみを有効に利用する方法及びそ
の装置を提供することを目的とする。
【0012】
【課題を解決するための手段】上記の目的を達成するた
めに、本発明にかかる仮想空間生成実現方法は、仮想環
境を生成し体験実現する方法であって、形状モデルデー
タを用いて3次元空間を生成し、該3次元空間からある
観察視点での第1の描画則によって画像として空間を再
現するモデル空間再現工程と、実写画像を基にして、撮
影位置に拘束されない自由な視点からの画像を、上記第
1の描画則と同様の観察条件となる第2の描画則によっ
て生成する実写ベース画像生成工程と、前記モデル空間
再現工程において再現された画像と、前記実写ベース画
像生成工程において生成された画像とを融合する画像融
合工程とを設けた。
【0013】また、上記の目的を達成するために、本発
明にかかる仮想空間生成実現装置は、仮想環境を生成し
体験実現する装置であって、形状モデルデータを用いて
3次元空間を生成し、該3次元空間からある観察視点で
の第1の描画則によって画像として空間を再現するモデ
ル空間再現手段と、実写画像を基にして、撮影位置に拘
束されない自由な視点からの画像を、上記第1の描画則
と同様の観察条件となる第2の描画則によって生成する
実写ベース画像生成手段と、前記モデル空間再現手段に
より再現された画像と、前記実写ベース画像生成手段に
より生成された画像とを融合する画像融合手段とを設け
た。
【0014】
【発明の実施の形態】
(実施の形態1)図1に実施の形態1の仮想環境生成実
現装置ブロック図を示す。1は、本実施の形態1の処理
手順をあらわすプログラムを実行するCPUである。2
は、処理手順をあらわすプログラム記憶しておく処理手
順記憶装置である。この処理手順記憶装置2に記憶して
あるプログラムは、予め記憶しておくこともできるが、
FD、DC−ROM、ROM、磁気テープ等の記憶媒体
に記憶されたプログラムを下記入出力インターフェース
8を通して供給することも可能である。3は、処理前後
および処理中に生成または入力されるデータを保持して
おくデータ記憶装置である。4は、処理過程、処理結果
を提示するための画像を表示装置に送るために蓄えてお
くフレームバッファである。5は、フレームバッファ4
に蓄えてある画像を表示するための画像表示装置のひと
つのウインドウシステムである。6は、処理過程での指
示を入力するキーボードである。7は、画面上での位置
を指定するためのマウスである。8は、データや処理手
順などを入出力するための外部機器との入出力インター
フェイスである。また、9は各部を接続するバスであ
る。
【0015】また、データ記憶装置3において、d1
は、形状モデルデータ、d11は、ポリゴンデータ、d
12は、表面特性データ、d13は、自由曲面データ、
d2は、多視点画像データ、d3は、光線空間データ、
d4は、光線空間データ配置データである。
【0016】また、処理手順記憶装置2において、p1
は、全体処理制御ルーチン、p2は、光線空間生成ルー
チン、p3は、Walk through 制御ルーチ
ン、p4は、描画画面生成ルーチン、p41は、形状モ
デル描画ルーチン、p42は、描画則獲得ルーチン、p
43は、光線空間からの画像生成ルーチン、p44は、
融合処理ルーチンである。
【0017】図2に本実施の形態1の処理の流れを表す
フローチャートを示す。このフローチャートの処理を実
現するためのプログラムは、処理手順記憶装置2に記憶
されている。
【0018】先ず、ステップS201にて、予めなんら
かのコンピュータグラフィクスの形状モデルデータd1
およびテクスチャデータを作成可能なモデラー装置など
により作成しておいた形状モデルデータd1およびその
表面特性データd12を、外部機器から入出力インター
フェース8を通してデータ記憶装置3に入力する。形状
モデルデータd1には、三角形パッチなどのポリゴンデ
ータd11や、NURBSなどの自由曲面データd13
などがある。表面特性データd12とは、その形状の反
射特性や模様などであり、ここでは、模様であるテクス
チャデータを入力する。テクスチャデータとは、ポリゴ
ンデータd11や自由曲面データd13などの表面の模
様を表すデータで、画像データと形状との対応関係を記
述したデータである。次に、ステップS202にて、多
視点画像データd2を外部機器から入出力インターフェ
イス8を通して、データ記憶装置3に入力する。多視点
画像データd2とは、複数の位置から撮影した画像群の
ことである。次に、ステップS203にて、多視点画像
データd2を基にして、処理手順記憶装置2に格納され
ている光線空間生成ルーチンp2に基づいて、光線空間
データd3を生成し、このデータd3をデータ記憶装置
3に格納する。ここで、ステップS202とステップS
203で入力生成する多視点画像データd2および光線
空間データd3は、観察したい物体毎に用意するもので
あり、複数あるものである。ここで、ステップS203
で行う光線空間データd3の生成方法を以下に示す。
【0019】図3(a)に示すような座標系にz=0の
平面を仮定し、この平面(これを基準面31と呼ぶこと
にする)を通過する光線の集合として3次元空間を表現
する手法(光線空間による3次元空間表現)が提案され
ている。図4(a)に示すように、この手法では、3次
元空間内のZ0にある視点位置Pで観察できる画像
は、この基準面31を通過する光線の集合からPを通過
する光線のみをサンプリングして得られる画像と等価に
なる。一般的には、各光線は基準面31を通過する位置
(x,y)、各光線がx軸,y軸のそれぞれとなす角度
を図3(b)のようにφ,ψ、光線が平面を通過した時
間t、光線の色(r,g,b)で表されるが、実際に
は、計算量やデータ量が膨大になるという問題から、対
象は静止物体でy軸方向の視差はないと仮定されること
が多い。この仮定のもとでu=tanφとおいて各光線
をx−u空間に射影し、この射影されたx−u空間で光
線空間を扱う場合、ある点Pを通過する光線は図4
(b)に示すように直線状の軌跡をなす。この軌跡は以
下の式で表される。
【0020】x=X−Z・u (1) u=tanφ (2) ここで(X,Z)は観察視点位置を表し、xは光線がx
−u空間上のx軸と交差する位置を表す。また、φは光
線がz軸となす角度を表す。
【0021】次に、図5(a)に示すように多数の視点
位置で得られた画像から直線状の軌跡を求め、この軌跡
群によりx−u空間が密に埋められていると仮定する。
この時、図5(a)のz0にある視点位置Qの画像
は、図5(b)に示すようにx−u空間上でQを通過す
る光線の軌跡を求め、その軌跡上にすでに記録されてい
る光線の色を逆に求めることにより得ることができる。
ステップS203で行う光線空間データの生成は、この
処理のうちのx−u空間上に多視点画像のデータを写像
することに相当する。
【0022】次に、ステップS204にて、各光線空間
データd3が、形状モデルデータd1に対してどういう
配置となっているかを示す配置データd4を外部機器か
ら入出力インターフェース8を通して、データ記憶装置
3に入力する。配置データd4とは、光線空間データd
3を生成するときに、3次元空間中に光線束の通過する
基準平面を設定するのであるが、その基準平面の位置お
よび向きを規定するものが配置データd4である。その
ときの配置の概念図を図6に示す。また、その光線空間
データd3から画像を生成できる範囲を規定した観察域
も配置データd4に含まれる。その生成範囲に関する概
念図を図7に示す。
【0023】ステップS205においては、表示するた
めの画面の大きさ、観察するときの仮想カメラの画角の
初期設定を行う。
【0024】また、ステップS206においては、仮想
空間内での、観察者の初期位置・初期向きの指定を行
う。
【0025】更に、ステップS207においては、処理
手順記憶装置2の形状モデル描画ルーチンp41によ
り、設定された画面の大きさで観察するときの仮想カメ
ラの画角と、仮想空間での観察者の位置・向きから、形
状モデルデータd1の描画則をもとめ、形状モデルデー
タd1から観察画像を生成する。それで生成された画像
を、ステップS208にて、フレームバッファ4に書き
込むことによって画面5に表示する。その表示例を図8
に示す。
【0026】また更に、ステップS209においては、
各光線空間データd3と観察視点位置との距離を配置デ
ータd4により求める。そしてステップS2095にお
いては、ステップS209で求まった距離に基づいて、
以下のステップS210〜S213までの処理の対象と
なる光線空間データd3の順番を決定する。例えばここ
では、その距離の遠い光線空間データd3から順に処理
をすすめることを決定する。そして、ステップS210
で、すべての光線空間データd3について処理が終わっ
たかどうかを判定し、処理が終わった場合は、ステップ
S214に進み、終わっていない場合は、ステップS2
11に進む。ステップS211では、配置データd4の
うち、その光線空間データd3から画像の生成を行うか
否かの判定を行う。これは、例えば図9に示した領域内
に観察視点および向きが入っていると判定された場合に
は画像を生成すると判定しステップS212に進み、入
っていないと判定された場合には画像を生成しないと判
定し、ステップS210に戻る。ステップS212で
は、処理手順記憶装置2に格納されている描画則獲得ル
ーチンp42により、光線空間データd3から観察画像
を生成するときに必要な描画則(ステップS207で行
った形状モデルからの描画と同じように観察される描画
則)を求め、光線空間データd3からの画像生成ルーチ
ンp43によって、光線空間データd3から画像を生成
する。その画像は、ステップS213にて、フレームバ
ッファ4に上書きされ、画面5に表示される。
【0027】すべての光線空間データd3に関して、ス
テップS210〜S213までの処理が終わったなら
ば、ステップS210から、ステップS214に進む。
【0028】ステップS214では、観察画面の設定変
更を行うかどうかを判定する。変更を行う場合には、ス
テップS218へ進み、ウインドウの枠をマウスで拡げ
ることによって、変更した画角比とウインドウサイズを
更新する。その後、ステップS207に戻り、ステップ
S208において、例えば図8に示した表示例は、図1
0に示すように変更される。なお、観察画面の設定変更
を行わない場合にはステップS215に進む。
【0029】ステップS215では、観察視点位置・向
きの変更を行うかどうかを判定する。判定を行う場合に
は、ステップS219へ進み、ウインドウを操作可能対
象として選択している状態にて矢印キーなどに割り振っ
たスイッチにより、前進、後退、左右旋回、左右横歩
き、左右首振りなどを行い、変更した視点位置と向きを
更新する。その後、ステップS207に戻り、ステップ
S208において、例えば図10に示した表示例は、図
11に示すように変更される。なお、観察視点位置・向
きの変更を行わない場合には、ステップS216に進
む。
【0030】ステップS216では、光線空間データの
配置データの変更を行うかどうかを判定する。変更を行
う場合には、ステップS220へ進み、ステップS21
9の場合と同様に矢印キーなどに割り振ったスイッチに
より光線空間で表現された物体のみに操作を加えて変更
した配置データを更新する。その後、ステップS207
に戻り、ステップS208において、例えば図11に示
した表示例は、図12に示すように変更される。なお、
光線空間データの配置データの変更を行わない場合には
ステップS217に進む。
【0031】これらのステップS214、S215、S
216は、処理手順記憶装置2のWalk throu
gh制御ルーチンp3によって行われる。ステップS2
17では、処理を終わってよいかの入力待ちとなり、終
わってよい場合には処理を終了し、そうでない場合には
ステップS214に戻る。
【0032】なお、観察者の位置・向きが、各光線空間
データd3の配置されている位置向きにより、観察者の
位置・向きから、その光線空間データd3で表現されて
いる物体が観察可能であるかどうかの判定を行う。そし
て、観察可能であると判定されたときには、ステップS
209に進み、そうでなかったならば、ステップS21
1に進む。
【0033】以上のステップにより、形状モデルデータ
d1を用いて3次元空間を生成し、その3次元空間から
ある観察視点での描画則によって画像として空間を再現
し、光線空間データd3から上記描画則と同様な見え方
となる描画則によって画像を生成し、それらの画像を融
合することによって、バーチャルリアリティのための仮
想環境を生成し、それを体験することを実現することが
可能となる。
【0034】本実施の形態1によって実際に生成した空
間とその観察画像例を図9や図12に示す。室内の幾何
形状とその表面の模様を形状モデルにより表現し、兎の
縫いぐるみを光線空間により表現し、それらから本手法
によって生成した画像である。
【0035】また、本実施の形態1において、ステップ
S202で多視点画像を入力し、ステップS203で光
線空間データを生成するという、2つのステップを、予
め生成しておいた光線空間データを読み込むという1つ
のステップにしてもよい。
【0036】(実施の形態2)実施の形態1において
は、実写ベース画像生成処理として、ステップS212
において光線空間データd3から表示画像を生成してい
るが、本実施の形態2では、光線空間データd3を用い
るかわりに、以下の方法により多視点画像から表示に必
要な画像を生成する。
【0037】図13は入力された多視点画像から画像を
再構成する原理を示す図である。この図のように、本実
施の形態2では多視点画像の撮影条件として、撮影方向
に対して垂直な一直線上にカメラを並べて撮影しておく
必要がある。図13中、1001は被写体、1002は
入力画像の撮影位置を結んだ撮影視点並び直線、100
3は仮想カメラの仮想CCD面を表す仮想CCD、10
04は観察者の位置(x′,z′)に置かれた仮想カメ
ラである。
【0038】図14のフローチャートを用いて、多視点
画像から画像を生成する処理を説明するステップS11
01において注目ラインjを画像Pの先頭ラインにセッ
トし、注目画素をjライン目の左端の画素にセットす
る。次に、ステップS1102において、画像Pのjラ
インi番目画素に対応した撮影視点並び直線1002上
の画像Qの位置を計算する。これは次のようにすること
で計算できる。物体中の一点Aが、視点位置Pの仮想カ
メラの画素位置Piに写っているとする。また、位置A
とPを結ぶ直線が撮影視点並び直線1002と交差する
位置をQとする。このとき、図3から、画素位置Piに
写っているものは、視点位置Qで撮影した画像の画素位
置Qiに写っているものと等価であることが分かる。図
3の幾何的な制約条件から、視点位置QのX座標は以下
の式(3)で表すことができる。但し、スキャンライン
の中央の画素位置を0番目の画素とする。また、仮想カ
メラ1004の画素ピッチをd、焦点距離をf、原点か
ら撮影視点並び直線1002までの距離をgとする。
【0039】 x=x′+i・d・(g−z′)/f (3)
【0040】同様に視点位置Pの仮想カメラの画素位置
Pjに写っているものは、データ記憶装置3に記憶され
た視点位置Rの画像の画素位置Rjに写っているものと
等価である。
【0041】この方法により、例えば画像Qのjライン
i番目の画素値を画像Pのjラインi番目画素にコピー
して画像を再構成した場合、再構成された画像が歪む、
すなわち、画像中の物体が縦に伸びたり、縮んだりする
ことがある。そこで、これを解消するためにステップS
43において画像Pのjライン目に対応する画像Qのラ
イン番号を求める。画像Qのライン番号の求め方法に関
して、図15を参照しながら説明する。
【0042】図15は上記で再構成された画像の歪みを
補正する原理を示す図である。図15中、1201は被
写体、1202は再構成したい視点位置Pの画像、12
03は撮影視点並び直線32上の視点位置Sの画像であ
る。
【0043】被写体1201中の一点Bについて考え
る。点BがY軸に近いか、再構成したい視点位置Pの画
像1202、撮影視点並び直線1002上の視点位置S
の画像1203のz座標値が十分に大きい、または、再
構成したい視点位置Pの画像1202、撮影視点並び直
線1002上の視点位置Sの画像1203のz座標値が
ほぼ同じ値であると仮定する。このとき、点Bから発す
る光線は再構成したい視点位置Pの画像1202中のm
ライン目と撮影視点並び直線1002上の視点位置Sの
画像1203中のnライン目に記録される。そこで、仮
想CCD1003の画素ピッチをd、仮想カメラ100
4の焦点距離f、仮想CCD1003のライン数をNと
すれば、 Pz・tanα=Sz・tanβ (4) tanα=d・(N/2−m)/f (5) tanβ=d・(N/2−n)/f (6) となる。式(4)、式(5)、式(6)より、 n=N/2+(m−N/2)・Sz/Pz (7) が得られる。
【0044】従って、再構成したい視点位置Pの画像1
202のm番目のスキャンラインの値は、撮影視点並び
直線1002上の視点位置Sの画像1203の式(7)
で与えられるn番目のスキャンラインの値と等価にな
る。そこで、ステップS1104において、画像Pのj
ラインi番目画素に、画像Qのnラインi番目画素の値
をコピーする。この処理により、S撮影視点並び直線1
002上でない視点位置の画像を再構成するときに画像
が歪むという現象をある程度抑えることができる。その
後、ステップS1105に移り、注目ラインj中のすべ
ての画素の処理が終了していればステップS1107に
移り、そうでなければステップS1106に移る。ステ
ップS1106では、注目画素iを右隣の画素に移し、
ステップS1102に戻る。また、ステップS1107
では、画像P中のすべてのラインに対して処理が終了し
ているならばこのサブルーチンを終了する。そうでなけ
れば、ステップS1108において、注目ラインjを次
のラインに移し、注目画素iをラインjの左端にセット
した後に、ステップS1102に戻る。
【0045】このように、撮影視点並び直線1002上
で微少間隔で撮影された多視点画像群が得られていると
すると、上記の考え方に基づき、すべてのスキャンライ
ンについて同様のことを繰り返せば、撮影視点並び直線
1002上でない視点位置の画像を再構成することがで
きる。
【0046】なお、本発明は、複数の機器から構成され
るシステムに適用しても、一つの機器からなる装置に適
用してもよい。また、本発明はシステムあるいは装置に
プログラムを供給することによって実施される場合にも
適用されることは言うまでもない。この場合、本発明に
係わるプログラムを格納した記憶媒体が、本発明を構成
することになる。そして、該記憶媒体からそのプログラ
ムをシステムあるいは装置に読み出すことによって、そ
のシステムあるいは装置が予め定められた方法で動作す
る。
【0047】
【発明の効果】以上説明したように本発明によれば、別
々の技術である従来の技術(1)〜(4)の特性を生か
し、うまく組み合わせてそれぞれの利点のみを有効に利
用することができ、容易に形状モデルデータと実写画像
とを生成し、融合することが可能となり、また、リアリ
ティの高い画像を表示することが可能となる。
【図面の簡単な説明】
【図1】実施の形態1の仮想環境生成実現装置のブロッ
ク図である。
【図2】実施の形態1の処理の流れを表すフローチャー
トである。
【図3】光線空間の原理を説明するための3次元空間の
模式図である。
【図4】実空間中及び光線空間中の光線の関係図であ
る。
【図5】実空間と光線空間の相互変換を表す原理図であ
る。
【図6】光線空間データの配置データを示すための座標
系の依存関係の概念図である。
【図7】光線空間データの配置データのひとつである描
画判定を行う領域の概念図である。
【図8】実施の形態1により実際に生成した画面例の図
である。
【図9】実施の形態1により実際に生成した画面例の図
である。
【図10】実施の形態1により実際に生成した画面例の
図である。
【図11】実施の形態1により実際に生成した画面例の
図である。
【図12】実施の形態1により実際に生成した画面例の
図である。
【図13】実施の形態2で用いる多視点画像からの画像
生成原理図である。
【図14】実施の形態2で用いる多視点画像からの画像
生成の流れ図である。
【図15】実施の形態2の画像生成における縦方向の歪
み補正の原理図である。
【符号の説明】
1 CPU 2 処理手順記憶装置 3 データ記憶装置 4 フレームバッファ 5 ウインドウシステム(画面) 6 キーボード 7 マウス 8 外部機器との入出力インターフェース

Claims (16)

    【特許請求の範囲】
  1. 【請求項1】 仮想環境を生成し体験実現する方法であ
    って、 形状モデルデータを用いて3次元空間を生成し、該3次
    元空間からある観察視点での第1の描画則によって画像
    として空間を再現するモデル空間再現工程と、 実写画像を基にして、撮影位置に拘束されない自由な視
    点からの画像を、上記第1の描画則と同様の観察条件と
    なる第2の描画則によって生成する実写ベース画像生成
    工程と、 前記モデル空間再現工程において再現された画像と、前
    記実写ベース画像生成工程において生成された画像とを
    融合する画像融合工程とを具備したことを特徴とする仮
    想空間生成実現方法。
  2. 【請求項2】 前記実写ベース画像生成工程において、
    実写画像として光線空間データを用いることを特徴とす
    る請求項1記載の仮想空間生成実現方法。
  3. 【請求項3】 前記モデル空間再現工程において、 観察視点の位置と向きと観察画角とによって導かれる透
    視変換を第1の描画則として画像を再現することを特徴
    とする請求項1記載の仮想空間生成実現方法。
  4. 【請求項4】 前記モデル空間再現工程において、 観察視点の位置と向きとによって導かれる正射影変換を
    第1の描画則として画像を再現することを特徴とする請
    求項1記載の仮想空間生成実現方法。
  5. 【請求項5】 前記画像融合工程において、 形状モデルデータからの描画画像を先に画面に表示し、
    実写画像からの描画画像をその画面に上書きすることに
    より、該両描画画像を融合することを特徴とする請求項
    1記載の仮想空間生成実現方法。
  6. 【請求項6】 前記モデル空間再現工程において、 形状モデルデータは、幾何形状のみを表現するデータで
    なくて、その表面特性や模様を含むデータであることを
    特徴とする請求項1記載の仮想空間生成実現方法。
  7. 【請求項7】 前記実写ベース画像生成工程が、複数の
    位置から撮影された複数の画像から1つの画像を再構成
    する画像再構成工程を具備したことを特徴とする請求項
    1記載の仮想空間生成実現方法。
  8. 【請求項8】 前記実写ベース画像生成工程が、前記画
    像再構成工程における画像の再構成の際に、画像の歪み
    を補正する歪み補正工程を具備したことを特徴とする請
    求項7記載の仮想空間生成実現方法。
  9. 【請求項9】 仮想環境を生成し体験実現する装置であ
    って、 形状モデルデータを用いて3次元空間を生成し、該3次
    元空間からある観察視点での第1の描画則によって画像
    として空間を再現するモデル空間再現手段と、 実写画像を基にして、撮影位置に拘束されない自由な視
    点からの画像を、上記第1の描画則と同様の観察条件と
    なる第2の描画則によって生成する実写ベース画像生成
    手段と、 前記モデル空間再現手段により再現された画像と、前記
    実写ベース画像生成手段により生成された画像とを融合
    する画像融合手段とを具備したことを特徴とする仮想空
    間生成実現装置。
  10. 【請求項10】 前記実写ベース画像生成手段は、実写
    画像として光線空間データを用いることを特徴とする請
    求項9記載の仮想空間生成実現装置。
  11. 【請求項11】 前記モデル空間再現手段は、 観察視点の位置と向きと観察画角とによって導かれる透
    視変換を第1の描画則として画像を再現することを特徴
    とする請求項9記載の仮想空間生成実現装置。
  12. 【請求項12】 前記モデル空間再現手段は、 観察視点の位置と向きとによって導かれる正射影変換を
    第1の描画則として画像を再現することを特徴とする請
    求項9記載の仮想空間生成実現装置。
  13. 【請求項13】 前記画像融合手段は、 形状モデルデータからの描画画像を先に画面に表示し、
    実写画像からの描画画像をその画面に上書きすることに
    より、該両描画画像を融合することを特徴とする請求項
    9記載の仮想空間生成実現装置。
  14. 【請求項14】 前記モデル空間再現手段は、 形状モデルデータは、幾何形状のみを表現するデータで
    なくて、その表面特性や模様を含むデータであることを
    特徴とする請求項9記載の仮想空間生成実現装置。
  15. 【請求項15】 前記実写ベース画像生成手段が、複数
    の位置から撮影された複数の画像から1つの画像を再構
    成する画像再構成手段を具備したことを特徴とする請求
    項9記載の仮想空間生成実現装置。
  16. 【請求項16】 前記実写ベース画像生成手段が、前記
    画像再構成手段による画像の再構成の際に、画像の歪み
    を補正する歪み補正手段を具備したことを特徴とする請
    求項15記載の仮想空間生成実現装置。
JP5151996A 1996-03-08 1996-03-08 仮想環境生成実現方法およびその装置 Pending JPH09245192A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP5151996A JPH09245192A (ja) 1996-03-08 1996-03-08 仮想環境生成実現方法およびその装置
US08/812,388 US6268862B1 (en) 1996-03-08 1997-03-05 Three dimensional virtual space generation by fusing images
EP97301519A EP0794516B1 (en) 1996-03-08 1997-03-06 Image processing method and apparatus
DE69737780T DE69737780T2 (de) 1996-03-08 1997-03-06 Verfahren und Vorrichtung zur Bildverarbeitung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5151996A JPH09245192A (ja) 1996-03-08 1996-03-08 仮想環境生成実現方法およびその装置

Publications (1)

Publication Number Publication Date
JPH09245192A true JPH09245192A (ja) 1997-09-19

Family

ID=12889270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5151996A Pending JPH09245192A (ja) 1996-03-08 1996-03-08 仮想環境生成実現方法およびその装置

Country Status (1)

Country Link
JP (1) JPH09245192A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6674922B1 (en) 1999-03-26 2004-01-06 Canon Kabushiki Kaisha Image processing method, image processing apparatus, and storage medium
JP2008293209A (ja) * 2007-05-23 2008-12-04 Canon Inc 複合現実感提示装置及びその制御方法、コンピュータプログラム
US7567648B2 (en) 2004-06-14 2009-07-28 Canon Kabushiki Kaisha System of generating stereoscopic image and control method thereof
US7620236B2 (en) 2003-07-31 2009-11-17 Canon Kabushiki Kaisha Image processing method and apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6674922B1 (en) 1999-03-26 2004-01-06 Canon Kabushiki Kaisha Image processing method, image processing apparatus, and storage medium
US7620236B2 (en) 2003-07-31 2009-11-17 Canon Kabushiki Kaisha Image processing method and apparatus
US7567648B2 (en) 2004-06-14 2009-07-28 Canon Kabushiki Kaisha System of generating stereoscopic image and control method thereof
JP2008293209A (ja) * 2007-05-23 2008-12-04 Canon Inc 複合現実感提示装置及びその制御方法、コンピュータプログラム

Similar Documents

Publication Publication Date Title
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
EP0794516B1 (en) Image processing method and apparatus
CN109658365B (zh) 图像处理方法、装置、系统和存储介质
JP3420504B2 (ja) 情報処理方法
US5751927A (en) Method and apparatus for producing three dimensional displays on a two dimensional surface
US20020113865A1 (en) Image processing method and apparatus
US20080246757A1 (en) 3D Image Generation and Display System
US20120182403A1 (en) Stereoscopic imaging
KR20070086037A (ko) 장면 간 전환 방법
Oliveira Image-based modeling and rendering techniques: A survey
JPH10255081A (ja) 画像処理方法及び画像処理装置
JP4996922B2 (ja) 立体映像化
KR20170091710A (ko) 디지털 비디오 렌더링
JP3126575B2 (ja) 立体視用3次元画像生成装置
KR20080034419A (ko) 3d 영상 생성 및 디스플레이 시스템
JP3538263B2 (ja) 画像生成方法
CN111327886B (zh) 3d光场渲染方法及装置
KR100489572B1 (ko) 화상 처리 방법
JPH09245192A (ja) 仮想環境生成実現方法およびその装置
JPH10208074A (ja) 画像生成方法
JP7394566B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JPH1188910A (ja) 3次元モデル生成装置、3次元モデル生成方法、3次元モデル生成プログラムを記録した媒体、3次元モデル再生装置、3次元モデル再生方法及び3次元モデル再生プログラムを記録した媒体
JPH1027268A (ja) 画像処理方法及び画像処理装置
Ichikawa et al. Multimedia ambiance communication
JP3648099B2 (ja) 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040706

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040906

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041026

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041227

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050224

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20050408