JPH08153213A - 画像合成表示方法 - Google Patents

画像合成表示方法

Info

Publication number
JPH08153213A
JPH08153213A JP7250995A JP25099595A JPH08153213A JP H08153213 A JPH08153213 A JP H08153213A JP 7250995 A JP7250995 A JP 7250995A JP 25099595 A JP25099595 A JP 25099595A JP H08153213 A JPH08153213 A JP H08153213A
Authority
JP
Japan
Prior art keywords
image
dimensional
information
photographed
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7250995A
Other languages
English (en)
Inventor
Toshiyuki Yuasa
俊之 湯浅
Haruo Takeda
晴夫 武田
Makoto Kato
誠 加藤
Toshio Moriya
俊夫 守屋
Hideo Noyama
英郎 野山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP7250995A priority Critical patent/JPH08153213A/ja
Publication of JPH08153213A publication Critical patent/JPH08153213A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【課題】2次元実写動画像に、動きを伴う3次元CGを
合成して、立体感、現実感のある動画像を作成し表示す
る。 【解決手段】コマンドと記憶装置140内の情報とを用
いてプロセッサ130で合成画像を作成してフレームバ
ッファ150に書き込み、画像表示装置110に表示す
る、という処理を実時間で連続的に行ない、動画像を表
示する。合成画像作成時には描画と同時にZバッファ1
60に奥行き値を書き込み、この奥行き値を参照して隠
面処理を行なう。記憶装置140内には実写動画像デー
タとその各フレームに対応する視点情報と実写画像内に
撮影されている物体の3次元情報と、選択可能なCGデ
ータが格納されており、視点情報と撮影物体の3次元情
報と選択されたCGデータからCG画像を作成し、選択
されたCGに対応する部分以外の部分を実写画像で置き
換えることにより、上記合成画像を作成する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、画像合成表示方法
に関わり、特にビデオカメラで撮影した実写画像と計算
機上で作成したCG画像を合成して表示する方法に関す
る。
【0002】
【従来の技術】CG(コンピュータグラフィックス)技
術の進展により、ワークステーション、パーソナルコン
ピュータや一般の公共端末などにおいて繊細かつ美しい
CG画像が高速に作成表示できるようになってきてお
り、自然物のCG表示も実写画像に近いものが得られる
までに至っている。これに伴い、カメラ等で撮影した実
写画像とCG画像を合成して表示するという応用が拡大
している。このような応用としては実写静止画像に2次
元CGや3次元CGを合成して表示するというものだけ
でなく、実写動画像に3次元CGを合成して表示すると
いうものも提案されている。例えば、電子情報通信学会
論文誌Vol.J76−D−IIの40頁から49頁に掲
載されている、「動画像解析に基づく動画像合成法と景
観シミュレーションへの応用」と題する論文では、路上
を走る車上から景観をビデオカメラで撮影し、得られた
動画像に3次元モデルをもつ建築物のCGを合成すると
いう例が示されている。合成の際には、動画像を撮影し
た視点から、該建築物が2次元的にどのように見えるか
を計算によって求め(レンダリング)、さらに、擬似的
な奥行き値を手入力で与えることにより、該建築物のど
の部分が山などの実写撮影された物体に隠れるかを判断
し、表示している。これにより、合成動画像を現実感の
あるものにしている。
【0003】
【発明が解決しようとする課題】ただし、上記の例では
合成するCGとして構造建築物のような景観内で静止し
ているものを想定している。このため、人間、動物、乗
り物など景観内で動く可能性のあるものをCGで作成し
て合成しようとすると、奥行き値が手入力による擬似的
なものにとどまっているため、CGのどの部分が実写画
像内の物体に隠れる部分かを判定する際に精度が悪くな
るという問題がある。
【0004】これに関して、カメラからの入力画像に基
づいて、実写物体の奥行き値を距離計測回路により求
め、この奥行き値を画像生成回路により生成された画像
の奥行き値と比較して、両者の前後関係を求めるもの
が、特開平4―372079号公報に開示されている。
しかし、この技術では、視点の変更については考慮され
ておらず、視点を変えた場合には、その視点毎に被写体
の奥行き値を計測しなければならない。
【0005】また、特開平5―174129号公報に
は、実写背景に3次元CGモデルの像を、その不透明部
分を指示するキー信号に基づいて、合成する技術が示さ
れている。この技術は、CGモデルが前景であることが
前提とされており、CGモデルが背景物体の背後にかく
れるような場合に対処が困難である。
【0006】また、特開平6―28449号公報には、
実写画像と計算による生成画像を、被写体と3次元モデ
ルの奥行き値の比較や、被写体位置や撮像入力によるキ
ー信号に基づいて、合成する技術が開示されている。こ
の技術では、ズーム/アイリスなどの撮影条件をも考慮
して生成画像が計算されているが、実写画像と生成画像
のおのおのが作成されたのち、画素ごとに両者のうちの
いずれかが選択されているため、実写画像の影が生成画
像に落ちたり、生成画像の影が実写画像に落ちたりする
ことがない。さらに、本公知例には、上記のような合成
を実現する方式については記載されているが、合成を実
現する具体的構成装置と実現アルゴリズムおよびデータ
構造が不明である。
【0007】また、上記のいずれの従来技術も、CGの
物体と実写物体の相互の干渉や衝突に関して考慮されて
いないという点で、なお、現実感、立体感に問題があ
る。
【0008】本発明の目的は、2次元実写画像に、動き
を伴うような3次元CGを合成して、立体感、現実感の
ある画像を作成し表示することができる画像合成表示方
法を提供することにある。
【0009】
【課題を解決するための手段】上記のような問題を解決
するために、本発明による画像合成表示方法は、画像表
示装置とコマンド入力手段とプロセッサと記憶装置とを
備えた計算機システムにおける画像合成表示方法であっ
て、上記記憶装置にディジタル形式の実写画像のデータ
と該実写画像の少なくとも視点位置を表す視点情報と該
実写画像に写された物体の3次元情報を格納しておき、
上記コマンド入力手段より入力される情報と上記視点情
報と上記3次元情報とに基づいて、上記実写画像に合成
されるべきCG画像を作成し、該作成されたCG画像と
上記実写画像とを上記プロセッサで合成して上記画像表
示装置に表示することを特徴とする。
【0010】この画像合成表示方法において、好ましく
は、上記記憶装置に複数のCGのデータを格納してお
き、上記コマンド入力手段により使用するCGの選択
と、該CGの描画すべき3次元位置および向きの指定を
行ない、上記視点情報と上記実写画像に写された物体の
3次元情報から該CGのどの部分が見え、どの部分が隠
れるかを算出し、見える部分のみを上記実写画像と合成
することにより表示画像を作成する。
【0011】また、オペレータが上記コマンド入力手段
より入力するか、プロセッサが自動的に発生するか、少
なくとも一方の方法で、仮想光源の性質と3次元情報を
決定し、上記視点情報と上記実写画像に写された物体の
3次元情報を用いて、該仮想光源による影がどのように
できるか算出し、上記実写画像のディジタルデータを、
影になる部分については輝度を減少させるよう変更し、
影にならない部分についてはそのまま表示するようにし
てもよい。あるいは、上記仮想光源によってどの部分が
どのように照らされるか算出し、上記実写画像のディジ
タルデータを、照らされた度合に基づいて変化させて表
示するようにしてもよい。
【0012】上記記憶装置に複数のCGのデータを格納
しておき、オペレータが上記コマンド入力手段より、使
用するCGの選択を行ない、上記プロセッサが該CGの
データの描画すべき3次元位置および向きの新たな情報
を上記3次元情報との干渉チェックを行ないつつ自動的
に生成し、該処理を反復することにより動画像を上記画
像表示装置に表示させることも可能である。
【0013】好ましくは、上記実写画像のデータは同一
対象を異なる方向から撮影した複数枚の実写画像のデー
タであり、視点情報は各実写画像に対応した視点情報が
格納されており、上記コマンド入力手段よりオペレータ
の視点位置が入力され、入力される視点位置にもっとも
近い視点情報と対応する実写画像が選ばれる。
【0014】上記光源の性質は、例えば、点光源である
か面光源であるかを表す情報である。
【0015】本発明による画像合成表示方法は、他の見
地によれば、画像表示装置とコマンド入力手段とプロセ
ッサと記憶装置とを備えた計算機システムにおける画像
合成表示方法であって、上記記憶装置にディジタル形式
の少くとも1フレーム分の実写画像のデータと、該実写
画像の少なくとも視点位置を表す視点情報と、該実写画
像に写された物体の3次元情報と、上記実写画像に合成
すべきあらかじめ定めた少くとも1つの3次元合成物体
のCGデータとを格納しておく第1のステップと、上記
コマンド入力手段より、あるいは上記プロセッサで自動
的に発生させることにより、上記3次元合成物体の上記
3次元空間内の位置および向きのパラメータを指定する
第2のステップと、該位置および向きのパラメータを考
慮して、上記実写画像に写された物体の3次元情報と同
一の座標系内での上記3次元合成物体の座標値を算出す
る第3のステップと、上記実写画像の視点情報に基づい
て、上記実写画像の物体を上記3次元合成物体と組み合
わせて、CG描画する第4のステップと、該CG描画結
果の上記3次元合成物体以外の部分を、該部分に対応す
る上記実写画像の部分で置き換える第5のステップと、
該置き換えた結果を上記画像表示装置に表示する第6の
ステップとを有することを特徴とする。
【0016】この画像合成表示方法において、好ましく
は、上記第3のステップのあと、上記3次元合成物体C
Gと上記実写画像に写された物体との相互の干渉をチェ
ックし、干渉が検出された場合、上記3次元合成物体の
位置および向きのパラメータの少なくとも一方を変更し
て再度上記第2のステップへ戻る。
【0017】本発明は、さらに他の見地によれば、画像
表示装置とコマンド入力手段とプロセッサと記憶装置と
を備えた計算機システムにおける画像合成表示方法であ
って、上記記憶装置にディジタル形式の少くとも1フレ
ーム分の実写画像のデータと、該実写画像の少なくとも
視点位置を含む視点情報と、該実写画像に写された3次
元物体の3次元情報と、上記実写画像に合成すべきあら
かじめ定めた少くとも1つの合成物体のCGデータとを
格納しておく第1のステップと、オペレータが上記コマ
ンド入力手段より入力するか、プロセッサが自動的に発
生するか、少なくとも一方の方法で、上記実写画像の3
次元空間内における上記合成物体の位置および向きのパ
ラメータを指定する第2のステップと、該位置および向
きのパラメータを考慮して、上記実写画像に写された3
次元物体の3次元情報と同一の座標系内での上記合成物
体を表わす3次元座標値群を算出する第3のステップ
と、上記実写画像の視点情報に基づいて、上記実写画像
の3次元物体をCG描画する第4のステップと、該CG
描画結果に対して、ブレンド合成により、対応する上記
実写画像を合成することにより、合成画像を作成する第
5のステップと、上記第3のステップで算出された3次
元座標値群に従って、上記合成画像に対して上記合成物
体を合成描画する第6のステップと、第6のステップで
作成された合成画像を上記画像表示装置に表示する第7
のステップと、を有することを特徴とする。
【0018】本発明では、実写画像内に撮影された物体
の3次元情報を有しており、合成する対象の3次元合成
物体(実施の形態では、うさぎのCGなど)のCGデー
タに基づいて、同一の3次元空間座標系内でこの3次元
合成物体の座標値を算出する。すなわち、実写画像内に
撮影された物体の3次元構造の中に、3次元合成物体を
埋め込むことができる。3次元情報によれば、物体の各
点の正確な奥行き値を算出でき、3次元合成物体が動き
を持つ場合でも、どの部分が撮影物体に隠れるかを正確
に特定できる。したがって、撮影された物体および3次
元合成物体の両者のCG描画結果から、その3次元合成
物体以外の部分を、対応する実写画像で置き換えること
により、正確かつ容易に、実写画像への3次元CGの合
成が行なえる。
【0019】また、上記3次元情報を用いて計算するこ
とにより、仮想光源による影を作成することができた
り、どの部分がどれくらいの照度で照らされるかを計算
して、合成画像に反映させることができる。
【0020】さらに、上記3次元情報による制約からC
Gが物体にぶつかるなどの、より現実的な動きを導きだ
すことができる。
【0021】
【発明の実施の形態】以下、本発明の実施の形態を詳細
に説明する。
【0022】図1は第1の実施の形態の構成を示したも
のである。図1において、110は画像表示装置、12
0はコマンド入力装置(キーボードおよびポインティン
グデバイス等を含む)、130はプロセッサ、140は
記憶装置、150はフレームバッファ、160はZバッ
ファである。プロセッサ130からの描画命令でフレー
ムバッファ150に画像データが書き込まれ、プロセッ
サ130からの表示命令でフレームバッファ150に書
き込まれている内容が画像表示装置110に表示され
る。Zバッファ160には奥行きデータが書き込まれ
る。この奥行きデータは隠面処理(Zバッファ法)を行
なう際に用いる。記憶装置140内にはフレーム情報領
域141と3次元構造領域142とCG領域143が設
けられている。
【0023】フレーム情報領域141には実写画像デー
タと視点情報が各フレーム毎に格納される。実写画像デ
ータはディジタル形式で、その構造は各フレーム毎に画
素値の2次元配列となっており、例えばビデオカメラで
撮影して出力されるアナログ信号をAD変換することよ
って得ることができる。ただし、本実施の形態では撮影
対象は静止しており、ビデオカメラを移動させて同一対
象を撮影するものとする。図2、図3は実写画像の例
で、机に数冊の本が置かれているという対象を、ビデオ
カメラを右側から左側へと移動させながら(すなわち視
点を変えながら)撮った画像のうちの任意の2枚のフレ
ームである。
【0024】図1に戻り、フレーム情報領域141内の
視点情報は、この実写画像を撮影した際の視点の3次元
位置と、視線の方向ベクトルと、この方向ベクトルを軸
とする回転角の大きさからなる。視点情報と実写画像デ
ータはそれぞれ独立に使用することができ、1フレーム
のみの情報を取り出すこともできる。本実施の形態では
格納されるフレーム数をfとしている。3次元構造領域
142には後述するように、上記実写画像に撮影されて
いる物体の全部あるいは一部について、物体の頂点等の
特徴点の3次元座標と各特徴点同士の接続関係が格納さ
れる。さらに3次元構造領域142には、剛体存在情報
としての「ボクセルデータ」が格納される(図6で後
述)。CG領域143には、いくつかのCGデータが格
納される。後述するようにオペレータが好みのCGを選
ぶことができるようになっている。なお、本実施の形態
では3個のCGデータを用意している。また、視点情報
と3次元構造の座標は同一空間内の座標である。
【0025】以上が本実施の形態の構成であり、プロセ
ッサ130が後に詳述する処理手順に従って、オペレー
タがコマンド入力装置120を通じて与える情報と記憶
装置140に格納された情報を用いて合成画像をフレー
ムバッファ150に作成し、画像表示装置110に表示
する。コマンド入力装置120としてはマウス付きキー
ボードであってもよいし、他のものであってもよい。マ
ウス付きキーボードを用いる場合は、メニューを表示
し、マウスをクリックする等によりコマンド入力する。
コマンド入力に位置座標などの数値が必要な場合はキー
ボード入力、あるいはマウスポインタで位置を合わせて
クリックする等の方法を用いることができる。
【0026】次に記憶装置140に格納される情報のデ
ータ構造について詳細に述べる。フレーム情報領域14
1内に格納される実写画像データは、図4のような構造
で各画素のRGB値およびα値を要素とする2次元配列
であり、これがフレーム数f個だけ区切り可能な状態で
格納される。グラフィックス用計算機において、赤色の
強さR、緑色の強さG、青色の強さB、およびα値の計
4個の要素でもってひとつの色を表現することが一般的
になってきている。色相だけならRGBの3個の要素で
表現可能であるが、計算機上で色を生成する様々な場面
では、RGB以外の情報を必要とすることが多いので、
この情報をα値として持たせたものである。最もよく使
われる例としては、α値を透過係数として用いるものが
挙げられる。例えば、オーバーラップさせる方のαの値
を0以上1以下の実数であるとして、 (元の画像のRGB値)×α+(オーバーラップさせる画
像のRGB値)×(1―α) として表示色を決定することにすれば、αが1のところ
では全透明、それ以外のところではαの値に応じた半透
明が表現できる。後述する影の合成の別法でもこのα値
を利用している。
【0027】視点情報は1個のフレームに対して図5の
ように7個のパラメータを有し、最初の3個のパラメー
タ(x,y,z)は視点(カメラ)の三次元位置、次の
3個のパラメータ(p,q,r)は視線の向き、すなわ
ち方向ベクトル、最後のaは視線を軸とした回転角を示
している。この例では、カメラの方向ベクトル(p,
q,r)は、位置(x,y,z)を基準とした相対座標
とも言える。たとえば、(p,q,r)=(3,4,
5)、(x,y,z)=(0,1,2)とすると、カメ
ラの向く軸は、位置(0,1,2)、(3,5,7)を
結ぶ直線となる。
【0028】3次元構造領域142に格納される情報
は、図6に示すように特徴点座標データ610、面情報
620、ボクセルデータ630からなる。特徴点座標デ
ータ610は特徴点の3次元位置座標を表わす。各特徴
点に番号付けされ、この番号が次の面情報620に用い
られる。面情報620は、例えば(1−2−3)で点1
と点2と点3を頂点とする三角形が面をなす、というこ
とを意味する。ボクセルデータ630は、3次元空間内
の各位置に物質がつまっているかどうかを表わす。つま
っている部分を1で、つまっていない部分を0で示して
おり、後述する干渉チェックに用いられる。すなわち、
後述するCGキャラクタはボクセルデータが0の部分で
のみ移動可能であり、1の部分にはぶつかったり、上に
乗ったりすることができる。
【0029】次にプロセッサ130の処理手順について
詳しく説明する。図7に処理手順のフローチャートを示
す。
【0030】まず、ステップ700で光源情報を指定す
る。光源情報は光源の性質と光源の3次元情報からな
る。光源の性質は光源が点光源であるか平行光線(面光
源)であるかということである。点光源である場合は3
次元情報として3次元位置座標およびスポット角と減衰
度が指定され、平行光線である場合には3次元情報とし
て光源の存在方向のベクトルが指定される。これらの情
報はコマンド入力装置120より入力される。あるい
は、記憶装置140の図示しない領域に格納しておき、
それを読み出してもよい。
【0031】次のステップ710では、実写画像に対し
て合成しようとする3次元CGデータをコマンド入力装
置120より選択し、選択したCGを描画する位置と向
きを定める。3次元CGとして何を用いるかに関しては
特に制限はないが、例としてうさぎのCGキャラクタ、
かえるのCGキャラクタ、カンガルーのCGキャラクタ
のデータが、それぞれCGデータ1、CGデータ2、C
Gデータ3として、CG領域143に格納されていると
する。このとき、コマンド入力装置120よりCGデー
タ1を選択するコマンドが入力されると、うさぎのCG
を用いることに決まる。うさぎのCGを図8に示す。さ
らに、このステップ710では、コマンド入力装置12
0より、最初にうさぎのCGを三次元内のどこ(初期位
置)に、どのような向き(初期向き)に描くかという描
画パラメータの初期値を受け付け、次のステップへ向か
う。
【0032】図7に戻り、次のステップ720からステ
ップ799まではループを形成する。ステップ799で
終了指示を受けるまでは、ステップ720からステップ
780までで表示すべき画面を生成し、ステップ790
で表示する、という処理を実時間で繰り返す。表示内容
が1回ごとに少しずつ変化すれば動画表示となるが、そ
の変化させるためのステップが720である。
【0033】ステップ720では、さきほど選択された
うさぎのCGを3次元空間内のどこにどのような向きに
描くかというパラメータを決定する。このパラメータの
決定はプロセッサ130が計算により自動的に行なう
が、うさぎのCGを自然な動きで表示するためには、パ
ラメータの変化量は少量ずつでなければならない。この
パラメータの決定の為の計算の具体例は後述する。ま
た、1回目のループでは、ステップ710ですでにパラ
メータを決定しているため、ステップ720で新たに決
定する必要はない。
【0034】次のステップ730では、ステップ720
で決定したCGの描画パラメータから、CGのグローバ
ル座標系における位置を計算する。すなわち、これによ
り、3次元構造領域142に格納されている撮影物体の
位置座標と同一座標系でCGが表わされることになり、
CGが撮影物体の3次元構造の中に埋め込まれる形とな
る。
【0035】ステップ740ではステップ730で算出
されたCGの位置が適当であるかどうかの干渉チェック
を行なう。ここでは三次元構造領域142に格納されて
いるボクセルデータを用いる。前述のうさぎのCGの例
をとると、ステップ730で算出されたCGの位置か
ら、うさぎのCGの足の3次元位置や鼻先の3次元位置
等を算出できる。算出された足や鼻先の3次元座標に対
応するボクセルデータを調べ、値が0であれば干渉なし
として次のステップに進む。もし値が1であれば、これ
はうさぎのCGの足あるいは鼻がなにかの物体(本や
壁)にめりこんでいるということであるから、干渉あり
と判断してステップ720へ戻り、描画パラメータの指
定のやりなおしをする。このとき、CGのどの部分が干
渉したかという情報を保存しておき、描画パラメータの
再決定に用いる。
【0036】次のステップ750では、ステップ700
で指定した光源情報を用いて、光源から光を当てた場合
にどのような影ができるかを計算する。この影の計算に
ついては、例えば文献M.Segal et al.,
Fast Shadows and Lighting E
ffect Using Texture Mappin
g,Proc. SIGGRAPH ’92,pp.24
9−252, 1992に記載されているような方法を
用いればよい。この方法は、要約すれば、光源の位置を
視点として一旦描画し、このとき陰面として取り除かれ
た部分を影が生じている部分とする、という方法であ
る。本実施の形態ではステップ700で光源として指定
された位置を視点とし、うさぎのCGのほか、撮影物体
をも3次元構造情報をもとにCG描画する。このとき、
周知のZ−buffer法により陰面除去する。具体的
には、フレームバッファ150に画素のRGB濃度値を
書き込むと同時に、奥行き値をZバッファ160に書き
込む。Z−buffer法とは、順次CGを書き加えよ
うとするときにこの奥行き値を参照し、そのCGが参照
奥行き値より手前にある場合だけフレームバッファ15
0とZバッファ160のデータを更新するというもので
ある。そして、このZ−buffer法により陰面とし
て除かれた部分はどの面かという情報を影が生じた部分
の情報として、記憶装置140内の図示しない別の領域
に保存しておく。
【0037】次のステップ760では、ステップ750
で描画した内容は破棄し、フレーム情報領域141内に
格納された視点情報のうち、あるフレームのものを視点
としてCG描画する。ここでもうさぎのCGだけでなく
撮影物体をも3次元構造情報をもとにCG描画する。な
お、視点情報はどのフレームのものを用いるかが問題と
なるが、一回毎に異なるフレーム(視点)を用いる例に
ついては第二の実施の形態で述べる。本実施の形態では
用いるフレームは固定とし、図3に示した実写画像のフ
レームを用いるものとする。この描画内容はまだ表示さ
れるわけではないが、表示するとすれば図9のようにな
る。図9ではうさぎのCG800を真中の本の向う側に
配置した例を示している。
【0038】次のステップ770では、まずステップ7
60で描画した内容から、表面に表れたうさぎのCG以
外の部分を消去する。消去した結果が図10である。そ
して、消去した部分のみに実写画像をフレーム情報領域
141から読み出して貼り付ける。ここで用いる実写画
像データはステップ760で用いた視点情報のフレーム
と同じフレームの実写画像データである。本実施の形態
では図3の実写画像ということになる。貼り付けた結果
を図11に示す。このステップ770の具体的な処理手
順については後述する。
【0039】次のステップ780ではステップ750で
保存した影を画面に合成する。仮に影は70%の輝度に
することにしておくと、例えばある画素のRGB値が
(150、200、100)であり、その部分が影にな
っている場合はRGB値を(105、140、70)に
変更する。影になっていない場合はRGB値を変更しな
い。
【0040】次のステップ790では、ここまでの処理
でフレームバッファ150に作成された画像を画像表示
装置110に表示する。そしてステップ799で終了判
定し、終了指示があるまではステップ720からステッ
プ790までの処理を繰り返す。
【0041】なお、ステップ760でうさぎのCGに加
えて撮影物体をもCG描画すると述べたが、撮影物体の
CGの部分はステップ770前半で消去されることにな
る。従って、実際には撮影物体のCGは黒(RGB値
(0、0、0))で描いておけば、消去処理をする必要
がなくなるため、処理の簡略化ができる。さらにこのよ
うにしておけば、何も描かれていない部分も撮影物体の
CG部分も黒色になっており、ステップ770後半で実
写画像で置き換える部分を検出するときに、黒であるか
否かを判別するだけでよく、高速化にも効果がある。
【0042】あるいは、陰面消去をZ−バッファ法で行
なっているが、Z−バッファ160だけにデータを書き
込み、フレームバッファ150には書き込まないという
ことにしてもよい。これはステップ750についても同
様に言えることで、ステップ750で描画したCGは撮
影物体のみならずうさぎのCGの方も消去することにな
るので初めから描画を行なわず、Z−バッファにのみデ
ータを書き込めばよい。
【0043】また、影の合成は、以下のように処理する
こともできる。ステップ750で計算した影を、ステッ
プ760のCG描画の際にα値のテクスチャとして張り
付ける。ステップ770の撮影物体CG消去では、RG
B値のみ消去し、α値は消去しない。すなわち、影情報
は残しておく。そして、ステップ780とステップ79
0を上記と同様に行なう。すなわち、α値が非0の画素
のみ前述の輝度演算を行なうような一種のαブレンディ
ング表示を行なう。この場合、α値は前述したような透
過係数ではなく、あとの処理で影を合成しなければなら
ない場所(画素)に特定のα値を与えて、一種のマーキ
ングをおこなうものである。
【0044】実際のプログラムを以上のように組むこと
によりステップ750からステップ790が簡単に実現
できる。
【0045】なお、本実施の形態ではステップ750で
影を計算しているが、仮想光源(たとえば、スポットラ
イト)によって照らされる部分を計算することにしても
よい。この場合も、上記と同様に照らされた度合をα値
として保持させておき、ステップ760でこのα値の度
合に応じて画素の輝度値を増減させてやればよい。この
例は後述する第3の実施の形態で説明する。
【0046】さらにステップ770を詳述しておく。図
12には、ステップ770の処理のフローチャートを示
す。ステップ771では、うさぎのCG(キャラクタC
G)が見えている部分の画素を検出する。図9に示した
ように、うさぎが本に隠れていると、検出される部分は
うさぎのからだの一部だけとなる。ステップ772で
は、検出された部分の画素はそのままに残し、それ以外
の画素を消去する。消去される部分は、撮影物体(本や
机など)のCGが描かれた画素と、何も描かれていない
画素である。ただし、前述のように撮影物体を黒でCG
描画した場合は、この消去処理は必ずしも必要ではな
い。ステップ773では消去した画素のそれぞれに、実
写データの対応する画素の値を読みだして、その色で描
画する。これにより、消去した部分にだけ実写が貼り付
けられる。
【0047】次に描画パラメータの決定法の例を説明す
る。うさぎのCGがxy平面に平行な机の上に立ってお
り、机の上を跳びはねながら前に進んでいき、壁にぶつ
かれば一定角度だけ向きをかえるという動きを想定す
る。使用するパラメータはtとθの2個で、tが位置の
パラメータ、θが向きのパラメータである。θはうさぎ
のCGのxy平面上の向きを表す。
【0048】ステップ720でのパラメータの決定およ
びステップ730での三次元座標の計算は次のように行
なう。1回目のループでは初期値としてt←0,θ←θ
oと定める。干渉なしでステップ799からステップ7
20に戻ってきたときはt←t+dt,θ←θとする。
すなわち、tはきざみ幅dtで増加させ、θはそのまま
とする。このt,θを用いてうさぎのCGの三次元座標
(x,y,z)をx←xo+tcosθ,y←yo+tsin
θ,z←zo−lt2+mt,で定める。ただし、xo,
yo,zoはステップ710で定める初期値で、l,mは
正定数である。これにより、うさぎのCGが放物運動す
る。また、l,mにより運動の放物線の形が決まる。
【0049】ステップ740でうさぎの足が干渉してス
テップ720に戻った場合は、t←0,θ←θとし、x
o←x,yo←y,zo←zとする。すなわちパラメータ
tを0に戻し(θはそのまま)、その時点の三次元座標
を新たな初期値とする。これにより、新たな放物運動が
始まり、うさぎが跳びはねたように見える。ステップ7
40でうさぎの鼻が干渉してステップ720に戻ってき
た場合は、θ←θ+dθとしてθを少量dθだけ変化さ
せて、次に干渉が生じるまでx,yの値を変更しない。
これによりうさぎが壁にぶつかりそれ以上前に進まず向
きをかえるという動きに見せることができる。すなわ
ち、うさぎの鼻が壁にぶつかるのは、跳びはねている途
中、つまり空中なので、ぶつかったあと(z座標値が変
化して)足が床(または机)に接触するまでは前に進ま
ない(x,y座標値を変化させない)ということであ
る。
【0050】次に第2の実施の形態について説明する。
第2の実施の形態は複数のフレームの実写画像と視点情
報を用意しておき、オペレータの視点の位置をもとに、
使用するフレームを選択する例である。すなわち、動画
の実写画像にCGを合成して表示する。本実施の形態で
は簡単のため、干渉チェックおよび影の合成は行なって
いない。本実施の形態の構成は図1と同様であるが、コ
マンド入力装置120にはオペレータの視点の位置を入
力する手段が設けられているものとする。視点位置の入
力手段としては三次元磁気センサが一般的であるが、複
数台のビデオカメラを設けてオペレータの頭部を撮影
し、画像処理により目の部分を認識し、3次元位置を計
算するという方法を用いることもできる。
【0051】本実施の形態の処理手順のフローチャート
を図13に示す。ステップ710から730およびステ
ップ760から799については図7で説明済みであ
る。ステップ730の後に挿入したステップ1310お
よびステップ1320について説明する。ステップ13
10では上記コマンド入力装置に設けられた視点位置入
力手段より視点の三次元位置座標を入力する。ここで、
センサと視点との相対的な位置情報が入力された場合に
は、これをグローバル座標系における位置座標に変換
し、フレーム情報領域141に格納された視点情報の座
標と同等に扱えるようにする。
【0052】次のステップ1320では、ステップ13
10で得たオペレータの視点座標とフレーム情報領域1
41に格納された各視点情報の比較を行ない、どのフレ
ームがオペレータの視点に最も近い視点情報を持つかを
判定する。これにより選び出されたフレームの視点情報
および実写画像データをあとに続くステップ760およ
びステップ770で用いる。
【0053】以上が第2の実施の形態の説明であるが、
もちろん第1の実施の形態において説明した影の合成や
干渉チェックを、図14に示すように、第2の実施の形
態にて実施することができる。図14の処理は、以上の
説明から容易に類推されるので、その詳細は説明はここ
では省略する。
【0054】次に第3の実施の形態について説明する。
第3の実施の形態はビル街を撮影した実写画像にサーチ
ライトを放つヘリコプターをCGとして合成し、表示さ
せるというものである。ここではヘリコプターだけでな
く、サーチライトによる明暗や光の道筋をもCGによっ
て合成表示する。サーチライトの光源位置は常に変化し
得るものである。なお、本例では、干渉チェックと影の
合成および3次元CGの選択は、便宜上、行なわない
が、前実施の形態と同様にこれらの処理を追加すること
もできる。
【0055】第3の実施の形態の構成は図1と同様であ
る。実写フレーム情報領域141には複数フレームの実
写画像データおよび視点情報が各フレームごとに独立に
読みだし可能な形で格納されている。本実施の形態にお
ける実写画像のうちのひとつのフレームを図15に示
す。これはある街に高層ビルが建っているという風景を
空中から撮影したものである。3次元構造領域142に
は図15に撮影されている物体の3次元構造が格納され
ており、そのデータ形式は図6と同様である。本例では
図15に撮影されている中心のビルを1個の直方体で、
地面を1枚の平面(長方形)でモデル化して3次元構造
領域142に格納している。この3次元構造のモデルを
図で表すと、図16のようになる。CG領域143には
ヘリコプターのCGモデルおよび円錐形のCGモデルを
格納しておく。後述するように、半透明の円錐形状のC
Gを重ね描きすることで、ヘリコプターが放つサーチラ
イトの光の道筋が少し明るくなる様子を疑似的に表現す
る。図17にヘリコプターのCG1710と円錐形のC
G1720の例を示す。
【0056】次に、第3の実施の形態におけるプロセッ
サ130の処理手順について説明する。本処理手順を表
すフローチャートを図18に示す。ステップ1800で
は光源の性質を指定する。光源の性質とは点光源である
か、平行光線(面光源)であるかということで、点光源
である場合はスポット角と中心軸からの減衰度も指定す
る。スポット角とは図17の円錐形の頂角、すなわち中
心軸と母線のなす角度にあたる。また、スポットライト
はその照射方向に垂直な面に当たると照射される部分は
円形になるが、その円の中心部分で最も明るく、周辺部
分で少し暗くなる。その暗くなる度合を減衰度という。
後で本例の出力結果を示すように4台のヘリコプターが
スポットライトを放つものとしており、光源としてはヘ
リコプターが放つ4つの光を、点光源でスポット角10
°減衰度0とし、他に環境光として薄い平行光線を定義
している。
【0057】次のステップ1810ではユーザ定義3次
元CG(ここではヘリコプターと円錐)をどの位置にど
のような向きに描くか、その初期パラメータを指定す
る。
【0058】ステップ1820からステップ1890ま
で(ステップ1310、1320を含む)はループをな
す。ステップ1820からステップ1870までで描く
べき画像をフレームバッファ150上に生成し、ステッ
プ1880で表示する。ステップ1890の終了判定
で、終了と判定されるまではループを回り続ける。
【0059】より具体的には、ステップ1820ではユ
ーザ定義3次元CGの描く位置および向きのパラメータ
を決定する。ループの1回目ではステップ1810で指
定した初期パラメータをそのまま用いる。ループの2回
目以降は前回のループで用いた値を少しずつ変化させ
て、ユーザ定義3次元CGになめらかな動きを与えるよ
うにする。
【0060】ステップ1830では、ステップ1820
で決定したユーザ定義3次元CGの描画位置向きパラメ
ータから、グローバル座標系における位置座標と向きの
方向ベクトルを算出する。すなわち、図16のモデルと
同一の座標系でのユーザ定義3次元CGの描画の位置と
向きを算出する。
【0061】ステップ1840ではグローバル座標系に
おける光源の位置・向きを決定する。本例では4つのス
ポットライトはユーザ定義3次元CGであるヘリコプタ
ーが放つので、ステップ1830で求めたヘリコプター
の位置をそのまま光源の位置とし、円錐形の中心軸の向
きをそのまま光源の向きとして決定すればよい。平行光
線の環境光は静止光とし、1回目のループで適当な値を
与え、2回目以降のループでは変更しなくてよい。
【0062】次のステップ1310の視点を入力するス
テップでは、第2の実施の形態の場合と同様、コマンド
入力装置120に設けられた視点位置入力手段より視点
の3次元位置座標を入力する。ここで、前述のように、
センサと視点との相対的な位置情報が入力される場合に
は、これをグローバル座標系における位置座標に変換
し、フレーム情報領域141に格納された視点情報の座
標と同等に扱えるようにする。ステップ1320も第2
の実施の形態と同様で、ステップ1310で得たオペレ
ータの視点座標とフレーム情報領域141に格納された
各視点情報との比較を行ない、どのフレームがオペレー
タの視点に最も近い視点情報を持つかを判定する。
【0063】続くステップ1850では、ステップ13
20で選び出されたフレームの視点情報、およびステッ
プ1800で指定された性質の光源のステップ1840
で決定した光源情報に基づいて、撮影物体のモデルをグ
レー色でレンダリングする。ここのレンダリングではZ
バッファ160を利用するZバッファ法により隠面消去
を行ない、描画結果をフレームバッファ150に、奥行
き値をZバッファ160に書き込む。まだ、ここでは表
示しないが、表示するとすれば描画結果は図19のよう
になる。図19に示すように、スポットライトのあたる
部分はモデルの3次元形状に沿って白くなり、その他の
部分はグレーのままである。
【0064】ステップ1860では、ステップ1850
で描画された結果に、実写画像をブレンドする。ブレン
ド方法はつぎの通りである。実写画像のある画素のRG
B値が(R、G、B)であり、ブレンド前のフレームバ
ッファの対応画素領域に格納されているRGB値が
(X、X、X)である(グレーなのでR,G,Bはすべ
て同じ値)とすると、(R×X/255、G×X/25
5、B×X/255)を新しい値としてフレームバッフ
ァ150の対応画素領域に書き込む。したがって、図1
9の白部分には実写画像がそのまま描かれ、グレー部分
には実写画像を少し暗くして描かれる。なお、用いる実
写画像はステップ1320で求めたフレームの画像であ
る。また、本ステップではZバッファ160に格納され
ている奥行き値は更新せず、ステップ1850で生成さ
れたものをそのまま保存しておく。
【0065】ステップ1870ではユーザ定義3次元C
Gをレンダリングし描画する。ここでもZバッファ法に
よる隠面消去を行なうが、新たに描画するわけではな
く、前ステップまでで生成されているフレームバッファ
150の画像データとZバッファ160の奥行きデータ
に追加する形で描く。円錐形のCGについてはあらかじ
め0より大きく1より小さい一定の値を透過係数αとし
て定義しておき、半透明の物体として描く。すなわち、
フレームバッファに書き込む輝度の決定を、 (フレームバッファの値)×α+(円錐形の色)×(1
ーα) により行なう。
【0066】ステップ1880ではステップ1870ま
でで得られた描画結果、すなわちフレームバッファ15
0に生成されている画像データに基づいて、画像表示装
置110に表示する。図20に表示画像例を示す。
【0067】ステップ1890では終了判定を行なう。
終了しない場合はステップ1820に戻り、ループ処理
を続ける。
【0068】
【発明の効果】本発明の画像合成表示方法では、実写画
像に写された物体の3次元情報を有しているので、合成
するCGをどの位置に配置しても、物体に隠れる部分を
正確に算出して表示できるという効果がある。
【0069】また、合成するCGに動きを与える場合、
上記3次元情報から存在禁止部分がわかるので、物体に
ぶつかるなどの自然な動きをCGに与えることができ
る。
【0070】さらに、上記3次元情報を用いることによ
り、2次元の画像に仮想的な光源による影や照らされる
度合を、凹凸を考慮して表示することができるので、表
示画像の立体感が増す。
【0071】このように、実写画像に写された環境の中
をCGが動く様子が、実際のオペレータの視点から見る
のと同じに表示できるので、立体感、現実感が増す。
【図面の簡単な説明】
【図1】本発明の実施の形態の構成図。
【図2】第1の実施の形態における実写動画像の1フレ
ームの説明図。
【図3】図2の実写動画像の他の1フレームの説明図。
【図4】1フレームにおける実写画像データの構造の説
明図。
【図5】1フレームにおける視点情報の構造の説明図。
【図6】3次元構造データの構造の説明図。
【図7】第1の実施の形態の全体フローチャート。
【図8】第1の実施の形態のうさぎのCGの説明図。
【図9】第1の実施の形態の撮影物体とうさぎのCG描
画結果の説明図。
【図10】第1の実施の形態のうさぎのCG以外の部分
を消去した結果の画像の説明図。
【図11】第1の実施の形態の消去部分に実写画像をは
めこんだ結果の画像の説明図。
【図12】図7のフローチャートの1ステップの処理を
表すフローチャート。
【図13】第2の実施の形態の全体フローチャート。
【図14】第1の実施の形態と第2の実施の形態をあわ
せた例の全体フローチャート。
【図15】第3の実施の形態における実写動画像の1フ
レームの説明図。
【図16】第3の実施の形態の撮影物体の3次元モデル
の説明図。
【図17】第3の実施の形態のユーザ定義による3次元
合成物体CGの説明図。
【図18】第3の実施の形態の全体フローチャート。
【図19】第3の実施の形態の撮影物体のCG描画結果
の説明図。
【図20】第3の実施の形態の合成結果の画像の説明
図。
【符号の説明】
110…画像表示装置、120…コマンド入力装置、1
30…プロセッサ、140…記憶装置、141…フレー
ム情報領域、142…3次元構造領域、143…CG領
域、150…フレームバッファ、160…Zバッファ、
200…画像表示装置の画面、610…特徴点座標デー
タ、620…特徴点の接続関係情報、630…ボクセル
データ、700…影の合成のための光源情報を指定する
ステップ、710…3次元CGを選択し描画パラメータ
の初期値を指定するステップ、720…3次元CGの描
画パラメータを決定するステップ、730…グローバル
座標系における3次元CGの描画位置を計算するステッ
プ、740…3次元CGと撮影物体の3次元構造との干
渉チェックを行なうステップ、750…影を計算するス
テップ、760…撮影物体と3次元CGを描画するステ
ップ、770…3次元CG以外の部分を実写画像で置き
換えるステップ、771…キャラクタCGが見えている
画素を検出するステップ、772…検出された画素以外
の画素を消去するステップ、773…消去したそれぞれ
の画素に実写画像データの同じ位置の画素値を読みだし
て描画するステップ、780…影を合成するステップ、
790…描画結果を表示するステップ、799…終了す
るかどうかを判定するステップ、800…うさぎのC
G、1310…オペレータの視点の位置を入力するステ
ップ、1320…実写画像の中のどのフレームを使用す
るか決定するステップ、1710…ヘリコプターのC
G、1720…光の道筋をあらわすための円錐形状のC
G、1800…光源の性質を指定するステップ、181
0…3次元CGの描画パラメータの初期値を指定するス
テップ、1820…3次元CGの描画パラメータを決定
するステップ、1830…グローバル座標系における3
次元CGの描画位置を計算するステップ、1840…グ
ローバル座標系における光源の位置と向きを決定するス
テップ、1850…実写画像に写された物体を3次元C
Gでグレー色で描くステップ、1860…実写画像をブ
レンドによって貼り付けるステップ、1870…ユーザ
定義のCGを描画合成するステップ、1880…描画結
果を表示するステップ、1890…終了するかどうかを
判定するステップ。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 守屋 俊夫 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内 (72)発明者 野山 英郎 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内

Claims (14)

    【特許請求の範囲】
  1. 【請求項1】画像表示装置とコマンド入力手段とプロセ
    ッサと記憶装置とを備えた計算機システムにおける画像
    合成表示方法であって、 上記記憶装置にディジタル形式の実写画像のデータと該
    実写画像の少なくとも視点位置を表す視点情報と該実写
    画像に写された物体の3次元情報を格納しておき、 上記コマンド入力手段より入力される情報と上記視点情
    報と上記3次元情報とに基づいて、上記実写画像に合成
    されるべきCG画像を作成し、 該作成されたCG画像と上記実写画像とを上記プロセッ
    サで合成して上記画像表示装置に表示することを特徴と
    する画像合成表示方法。
  2. 【請求項2】請求項1の画像合成表示方法において、上
    記記憶装置に複数のCGのデータを格納しておき、上記
    コマンド入力手段により使用するCGの選択と、該CG
    の描画すべき3次元位置および向きの指定を行ない、上
    記視点情報と上記実写画像に写された物体の3次元情報
    から該CGのどの部分が見え、どの部分が隠れるかを算
    出し、見える部分のみを上記実写画像と合成することに
    より表示画像を作成することを特徴とする画像合成表示
    方法。
  3. 【請求項3】請求項1の画像合成表示方法において、オ
    ペレータが上記コマンド入力手段より入力するか、プロ
    セッサが自動的に発生するか、少なくとも一方の方法
    で、仮想光源の性質および3次元情報を決定し、上記視
    点情報と上記実写画像に写された物体の3次元情報を用
    いて、該仮想光源による影がどのようにできるか算出
    し、上記実写画像のディジタルデータを、影になる部分
    については輝度を減少させるよう変更し、影にならない
    部分についてはそのまま表示することを特徴とする画像
    合成表示方法。
  4. 【請求項4】請求項1の画像合成表示方法において、オ
    ペレータが上記コマンド入力手段より入力するか、プロ
    セッサが自動的に発生するか、少なくとも一方の方法
    で、仮想光源の性質および3次元情報を決定し、上記視
    点情報と上記実写画像に写された物体の3次元情報を用
    いて、該仮想光源によってどの部分がどのように照らさ
    れるか算出し、上記実写画像のディジタルデータを、照
    らされた度合に基づいて変化させて表示することを特徴
    とする画像合成表示方法。
  5. 【請求項5】請求項1の画像合成表示方法において、上
    記記憶装置に複数のCGのデータを格納しておき、オペ
    レータが上記コマンド入力手段より、使用するCGの選
    択を行ない、上記プロセッサが該CGのデータの描画す
    べき3次元位置および向きの新たな情報を上記3次元情
    報との干渉チェックを行ないつつ自動的に生成し、該処
    理を反復することにより動画像を上記画像表示装置に表
    示させることを特徴とする画像合成表示方法。
  6. 【請求項6】請求項1の画像合成表示方法において、実
    写画像のデータは同一対象を異なる方向から撮影した複
    数枚の実写画像のデータであり、視点情報は各実写画像
    に対応した視点情報が格納されており、上記コマンド入
    力手段よりオペレータの視点位置が入力され、入力され
    る視点位置にもっとも近い視点情報と対応する実写画像
    が選ばれることを特徴とする画像合成表示方法。
  7. 【請求項7】請求項3または4に記載の画像合成表示方
    法において、上記光源の性質は、点光源であるか面光源
    であるかを表す情報であることを特徴とする画像合成表
    示方法。
  8. 【請求項8】画像表示装置とコマンド入力手段とプロセ
    ッサと記憶装置とを備えた計算機システムにおける画像
    合成表示方法であって、 上記記憶装置にディジタル形式の少くとも1フレーム分
    の実写画像のデータと、該実写画像の少なくとも視点位
    置を表す視点情報と、該実写画像に写された物体の3次
    元情報と、上記実写画像に合成すべきあらかじめ定めた
    少くとも1つの3次元合成物体のCGデータとを格納し
    ておく第1のステップと、 上記コマンド入力手段より、あるいは上記プロセッサで
    自動的に発生させることにより、上記3次元合成物体の
    上記3次元空間内の位置および向きのパラメータを指定
    する第2のステップと、 該位置および向きのパラメータを考慮して、上記実写画
    像に写された物体の3次元情報と同一の座標系内での上
    記3次元合成物体の座標値を算出する第3のステップ
    と、 上記実写画像の視点情報に基づいて、上記実写画像の物
    体を上記3次元合成物体と組み合わせて、CG描画する
    第4のステップと、 該CG描画結果の上記3次元合成物体以外の部分を、該
    部分に対応する上記実写画像の部分で置き換える第5の
    ステップと、 該置き換えた結果を上記画像表示装置に表示する第6の
    ステップと、 を有することを特徴とする画像合成表示方法。
  9. 【請求項9】請求項8記載の画像合成表示方法におい
    て、上記第3のステップのあと、上記3次元合成物体C
    Gと上記実写画像に写された物体との相互の干渉をチェ
    ックし、干渉が検出された場合、上記3次元合成物体の
    位置および向きのパラメータの少なくとも一方を変更し
    て再度上記第2のステップへ戻ることを特徴とする画像
    合成表示方法。
  10. 【請求項10】請求項8または9記載の画像合成表示方
    法において、上記第6のステップのあと、上記第2のス
    テップに戻ることを特徴とする画像合成表示方法。
  11. 【請求項11】画像表示装置とコマンド入力手段とプロ
    セッサと記憶装置とを備えた計算機システムにおける画
    像合成表示方法であって、 上記記憶装置にディジタル形式の少くとも1フレーム分
    の実写画像のデータと、該実写画像の少なくとも視点位
    置を含む視点情報と、該実写画像に写された3次元物体
    の3次元情報と、上記実写画像に合成すべきあらかじめ
    定めた少くとも1つの合成物体のCGデータとを格納し
    ておく第1のステップと、 オペレータが上記コマンド入力手段より入力するか、プ
    ロセッサが自動的に発生するか、少なくとも一方の方法
    で、上記実写画像の3次元空間内における上記合成物体
    の位置および向きのパラメータを指定する第2のステッ
    プと、 該位置および向きのパラメータを考慮して、上記実写画
    像に写された3次元物体の3次元情報と同一の座標系内
    での上記合成物体を表わす3次元座標値群を算出する第
    3のステップと、 上記実写画像の視点情報に基づいて、上記実写画像の3
    次元物体をCG描画する第4のステップと、 該CG描画結果に対して、ブレンド合成により、対応す
    る上記実写画像を合成することにより、合成画像を作成
    する第5のステップと、 上記第3のステップで算出された3次元座標値群に従っ
    て、上記合成画像に対して上記合成物体を合成描画する
    第6のステップと、 第6のステップで作成された合成画像を上記画像表示装
    置に表示する第7のステップと、 を有することを特徴とする画像合成表示方法。
  12. 【請求項12】請求項11記載の画像合成表示方法にお
    いて、上記第7のステップのあと、上記第2のステップ
    に戻り、第2のステップから第7のステップを反復して
    行うことを特徴とする画像合成表示方法。
  13. 【請求項13】請求項11または12記載の画像合成表
    示方法において、 オペレータが上記コマンド入力手段より入力するか、プ
    ロセッサが自動的に発生するか、少なくとも一方の方法
    で、上記実写画像の3次元空間内に想定された仮想光源
    の性質およびその3次元情報を決定するステップと、 上記視点情報と上記実写画像に写された3次元物体の3
    次元情報を用いて、該仮想光源による影がどのようにで
    きるか算出するステップとをさらに有し、 上記表示するステップにおいて、上記実写画像のディジ
    タルデータを、影になる部分については輝度を減少させ
    るよう変更し、影にならない部分についてはそのまま表
    示することを特徴とする画像合成表示方法。
  14. 【請求項14】請求項11、12または13記載の画像
    合成表示方法において、 オペレータが上記コマンド入力手段より入力するか、プ
    ロセッサが自動的に発生するか、少なくとも一方の方法
    で、上記実写画像の3次元空間内に想定された仮想光源
    の性質およびその3次元情報を決定し、 上記視点情報と上記実写画像に写された物体の3次元情
    報を用いて、該仮想光源によってどの部分がどのように
    照らされるか算出するステップとをさらに有し、 上記表示するステップにおいて、上記実写画像のディジ
    タルデータを、上記仮想光源に照らされた度合に基づい
    て変化させて表示することを特徴とする画像合成表示方
    法。
JP7250995A 1994-09-29 1995-09-28 画像合成表示方法 Pending JPH08153213A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7250995A JPH08153213A (ja) 1994-09-29 1995-09-28 画像合成表示方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP6-234844 1994-09-29
JP23484494 1994-09-29
JP7250995A JPH08153213A (ja) 1994-09-29 1995-09-28 画像合成表示方法

Publications (1)

Publication Number Publication Date
JPH08153213A true JPH08153213A (ja) 1996-06-11

Family

ID=26531793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7250995A Pending JPH08153213A (ja) 1994-09-29 1995-09-28 画像合成表示方法

Country Status (1)

Country Link
JP (1) JPH08153213A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10126687A (ja) * 1996-10-16 1998-05-15 Matsushita Electric Ind Co Ltd すり替え編集システム
JP2002190032A (ja) * 2000-12-20 2002-07-05 Namco Ltd ゲームシステム、プログラム及び情報記憶媒体
EP1026636A3 (en) * 1999-02-05 2003-05-14 Sony Corporation Image processing
JP2010224607A (ja) * 2009-03-19 2010-10-07 Casio Computer Co Ltd 画像合成装置及びプログラム
WO2012157516A1 (ja) * 2011-05-17 2012-11-22 シャープ株式会社 映像提示システム、映像提示方法、プログラム及び記録媒体
JP2018055196A (ja) * 2016-09-26 2018-04-05 キヤノン株式会社 複合現実感提示システム及び情報処理装置及びそれらの制御方法
WO2020184316A1 (ja) * 2019-03-13 2020-09-17 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN112119432A (zh) * 2018-03-13 2020-12-22 交互数字Ce专利控股公司 用于处理3d场景的方法和装置
JP2022036773A (ja) * 2020-08-24 2022-03-08 株式会社Psychic VR Lab 画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム
WO2024095356A1 (ja) * 2022-11-01 2024-05-10 株式会社バーチャルウインドウ グラフィックス生成装置、グラフィックス生成方法及びプログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10126687A (ja) * 1996-10-16 1998-05-15 Matsushita Electric Ind Co Ltd すり替え編集システム
EP1026636A3 (en) * 1999-02-05 2003-05-14 Sony Corporation Image processing
JP2002190032A (ja) * 2000-12-20 2002-07-05 Namco Ltd ゲームシステム、プログラム及び情報記憶媒体
JP4610729B2 (ja) * 2000-12-20 2011-01-12 株式会社バンダイナムコゲームス ゲームシステム、プログラム及び情報記憶媒体
JP2010224607A (ja) * 2009-03-19 2010-10-07 Casio Computer Co Ltd 画像合成装置及びプログラム
WO2012157516A1 (ja) * 2011-05-17 2012-11-22 シャープ株式会社 映像提示システム、映像提示方法、プログラム及び記録媒体
JP2012242930A (ja) * 2011-05-17 2012-12-10 Sharp Corp 映像提示システム、映像提示方法、プログラム及び記録媒体
JP2018055196A (ja) * 2016-09-26 2018-04-05 キヤノン株式会社 複合現実感提示システム及び情報処理装置及びそれらの制御方法
CN112119432A (zh) * 2018-03-13 2020-12-22 交互数字Ce专利控股公司 用于处理3d场景的方法和装置
WO2020184316A1 (ja) * 2019-03-13 2020-09-17 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2022036773A (ja) * 2020-08-24 2022-03-08 株式会社Psychic VR Lab 画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム
WO2024095356A1 (ja) * 2022-11-01 2024-05-10 株式会社バーチャルウインドウ グラフィックス生成装置、グラフィックス生成方法及びプログラム

Similar Documents

Publication Publication Date Title
US7068274B2 (en) System and method for animating real objects with projected images
CN111968215B (zh) 一种体积光渲染方法、装置、电子设备及存储介质
US6677956B2 (en) Method for cross-fading intensities of multiple images of a scene for seamless reconstruction
US6930681B2 (en) System and method for registering multiple images with three-dimensional objects
Raskar et al. Shader lamps: Animating real objects with image-based illumination
CN111968216B (zh) 一种体积云阴影渲染方法、装置、电子设备及存储介质
US5870098A (en) Method for rendering shadows on a graphical display
US7583264B2 (en) Apparatus and program for image generation
US20030043152A1 (en) Simulating motion of static objects in scenes
US20030038822A1 (en) Method for determining image intensities of projected images to change the appearance of three-dimensional objects
US6326972B1 (en) 3D stroke-based character modeling suitable for efficiently rendering large crowds
RU2427918C2 (ru) Метафора двумерного редактирования для трехмерной графики
CN108257204B (zh) 运用于Unity引擎的顶点色绘制烘焙方法及系统
WO1998038591A9 (en) Method for rendering shadows on a graphical display
GB2256567A (en) Modelling system for imaging three-dimensional models
JP2000090289A (ja) 画像処理装置および画像処理方法、並びに媒体
JPH08153213A (ja) 画像合成表示方法
CN118397160A (zh) 一种用于油田站场逆向建站系统的自主化三维渲染引擎
Schwandt et al. Glossy reflections for mixed reality environments on mobile devices
JP2007272847A (ja) 照明シミュレーション方法及び画像合成方法
JP2003168130A (ja) リアルタイムで合成シーンのフォトリアルなレンダリングをプレビューするための方法
JP2973413B2 (ja) コンピュータグラフィックスの照度計算方法及び表示装置
Schwandt High-Quality Illumination of Virtual Objects Based on an Environment Estimation in Mixed Reality Applications
JP3261832B2 (ja) 画像生成装置
JP2000057378A (ja) 画像処理装置および画像処理方法、媒体、並びに輪郭抽出装置および輪郭抽出方法