JPH06231275A - 画像シミュレーション方法 - Google Patents
画像シミュレーション方法Info
- Publication number
- JPH06231275A JPH06231275A JP5034721A JP3472193A JPH06231275A JP H06231275 A JPH06231275 A JP H06231275A JP 5034721 A JP5034721 A JP 5034721A JP 3472193 A JP3472193 A JP 3472193A JP H06231275 A JPH06231275 A JP H06231275A
- Authority
- JP
- Japan
- Prior art keywords
- image
- mask
- color
- light source
- simulation method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
- G06T15/405—Hidden part removal using Z-buffer
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Generation (AREA)
- Image Processing (AREA)
- Digital Computer Display Output (AREA)
- Processing Or Creating Images (AREA)
Abstract
(57)【要約】
【目的】 コンピュータ・グラフィックスによって作ら
れた画像を、即座に画像シミュレーションに用いること
のできる画像シミュレーション方法の提供。 【構成】 コンピュータ・グラフィックスでCG画像を
作成する処理と同時に、(1)画像をセグメンテーショ
ンしてマスク画像を作り、(2)マスク属性テーブルの
設定をデータの変換によって行ない、(3)成分分解画
像(物体色成分、光源色成分、環境色成分)の作成をデ
ータの変換によって行ない、これらを保存する。そし
て、前記マスク画像を用いてコンピュータ・グラフィッ
クス画像の一部を切り抜き、自然画像など異なる画像と
の組合せ合成を行ない、その際前記属性情報に基づいて
透明処理等の画像処理を行なう。また、物体色ベクトル
等を変更することにより物体の色等を変更する。
れた画像を、即座に画像シミュレーションに用いること
のできる画像シミュレーション方法の提供。 【構成】 コンピュータ・グラフィックスでCG画像を
作成する処理と同時に、(1)画像をセグメンテーショ
ンしてマスク画像を作り、(2)マスク属性テーブルの
設定をデータの変換によって行ない、(3)成分分解画
像(物体色成分、光源色成分、環境色成分)の作成をデ
ータの変換によって行ない、これらを保存する。そし
て、前記マスク画像を用いてコンピュータ・グラフィッ
クス画像の一部を切り抜き、自然画像など異なる画像と
の組合せ合成を行ない、その際前記属性情報に基づいて
透明処理等の画像処理を行なう。また、物体色ベクトル
等を変更することにより物体の色等を変更する。
Description
【0001】
【産業上の利用分野】本発明は、ディジタル画像処理に
おける画像シミュレーション方法に係り、例えば、コン
ピュータ・グラフィックス画像、自然画像、文字を自由
に組み合わせて合成画像を作る画像シミュレーション方
法、または、これらの組み合わせからなる合成画像中の
対象領域に色彩変更などを行なう画像シミュレーション
方法に関する。
おける画像シミュレーション方法に係り、例えば、コン
ピュータ・グラフィックス画像、自然画像、文字を自由
に組み合わせて合成画像を作る画像シミュレーション方
法、または、これらの組み合わせからなる合成画像中の
対象領域に色彩変更などを行なう画像シミュレーション
方法に関する。
【0002】
【従来の技術】印刷業や放送局等では、カメラで撮影さ
れた画像をそのまま用いるだけでなく、ある画像に他の
画像を組み込んで新たな画像を作るはめ込み印刷やクロ
マキ−合成が行なわれている。デジタル化した画像を加
工する画像シミュレーションにおいても、画像合成や色
彩変更などが行われているが、これらは以下の手順を踏
むことで実現されている。 (1)画像の準備 重畳したい物体が写っている物体画像と重畳先となる背
景画像を準備する。例えば、好みの自動車を自分の家の
前に置いた画像を得たいときは、自動車の映っているス
ナップ写真を物体画像とし、自宅の映っている風景写真
を背景画像として用意する。 (2)セグメンテーション 重畳画像の中から重畳したい領域を切り出し(この領域
をマスクと称する)部品画像を作成する。例えば、上記
の自動車の画像中の車体の領域である。マスクの生成方
法については、例えば、グラフィックデザイナーのため
のデジタルペインティング入門と題し、PIXEL N
o.84 PP.181−184に述べられている。 (3)属性定義 マスクによって切り分けられた領域に対して、処理の種
類やその処理に必要な情報を付与する。この作業は、セ
グメンテーションした目的と直接的に関係し、人間が必
要な情報を定義していく。すなわち、色彩画像は本来、
色のついた画素が規則正しく並んでいるに過ぎず、人間
が画像を見たとき、物体を認識したり、物体形状を想像
できるのは、物体の形状に関する知識や光源と面の方向
による見え方の知識を持っているからに他ならない。し
たがって、自然画像だけが与えらる場合は、これらの知
識を人間が補わなければならない。
れた画像をそのまま用いるだけでなく、ある画像に他の
画像を組み込んで新たな画像を作るはめ込み印刷やクロ
マキ−合成が行なわれている。デジタル化した画像を加
工する画像シミュレーションにおいても、画像合成や色
彩変更などが行われているが、これらは以下の手順を踏
むことで実現されている。 (1)画像の準備 重畳したい物体が写っている物体画像と重畳先となる背
景画像を準備する。例えば、好みの自動車を自分の家の
前に置いた画像を得たいときは、自動車の映っているス
ナップ写真を物体画像とし、自宅の映っている風景写真
を背景画像として用意する。 (2)セグメンテーション 重畳画像の中から重畳したい領域を切り出し(この領域
をマスクと称する)部品画像を作成する。例えば、上記
の自動車の画像中の車体の領域である。マスクの生成方
法については、例えば、グラフィックデザイナーのため
のデジタルペインティング入門と題し、PIXEL N
o.84 PP.181−184に述べられている。 (3)属性定義 マスクによって切り分けられた領域に対して、処理の種
類やその処理に必要な情報を付与する。この作業は、セ
グメンテーションした目的と直接的に関係し、人間が必
要な情報を定義していく。すなわち、色彩画像は本来、
色のついた画素が規則正しく並んでいるに過ぎず、人間
が画像を見たとき、物体を認識したり、物体形状を想像
できるのは、物体の形状に関する知識や光源と面の方向
による見え方の知識を持っているからに他ならない。し
たがって、自然画像だけが与えらる場合は、これらの知
識を人間が補わなければならない。
【0003】そこで、画像シミュレーションを行なうた
めの前処理として、カメラなどで撮影された自然画像を
デジタル化した画像に対して、人手によって以上に述べ
た処理が行なわれている。画像シミュレーションにおい
て画像合成を行う場合は、マスクに基づいて画像中の領
域を切りだし、その領域に付与された属性に従って、用
意されたもう一つの画像と合成処理、すなわち色彩値の
演算を行う。
めの前処理として、カメラなどで撮影された自然画像を
デジタル化した画像に対して、人手によって以上に述べ
た処理が行なわれている。画像シミュレーションにおい
て画像合成を行う場合は、マスクに基づいて画像中の領
域を切りだし、その領域に付与された属性に従って、用
意されたもう一つの画像と合成処理、すなわち色彩値の
演算を行う。
【0004】一方、コンピュータ・グラフィックスによ
って作られた画像(以下、CG画像)についても、自然
画像と組み合わせて合成画像を作ることがある。さて、
CG画像を画像シミュレーションで用いる場合において
も、自然画像と同様な前処理を行なう必要がある。なぜ
なら、コンピュータ・グラフィックスはCG画像を作る
ことを目的としており、CG画像として画像化された時
点で色彩画像になるのが普通だからである。ところで、
CG画像はセグメンテーションの複雑さという面で2つ
に分類できる。第1は、例えば自動車などの1つの物体
をCG画像で作った場合であり、このような時は物体の
背景に何も書かれていないことが多いので、画像から自
動車の領域を切り出すのも簡単である。第2は、1つの
風景をCG画像で作った場合であり、このような時は幾
つもの物体が画像中に混在しており、1つの物体を切り
出す作業は自然画像の場合と同じくらい困難である。
って作られた画像(以下、CG画像)についても、自然
画像と組み合わせて合成画像を作ることがある。さて、
CG画像を画像シミュレーションで用いる場合において
も、自然画像と同様な前処理を行なう必要がある。なぜ
なら、コンピュータ・グラフィックスはCG画像を作る
ことを目的としており、CG画像として画像化された時
点で色彩画像になるのが普通だからである。ところで、
CG画像はセグメンテーションの複雑さという面で2つ
に分類できる。第1は、例えば自動車などの1つの物体
をCG画像で作った場合であり、このような時は物体の
背景に何も書かれていないことが多いので、画像から自
動車の領域を切り出すのも簡単である。第2は、1つの
風景をCG画像で作った場合であり、このような時は幾
つもの物体が画像中に混在しており、1つの物体を切り
出す作業は自然画像の場合と同じくらい困難である。
【0005】また、特願平3−132595号で述べら
れているような色彩変更シミュレーションを、CG画像
中あるいはCG画像と自然画像の合成画像中の物体に対
して行なうためには、変更を行なう領域をマスクによっ
て切り分けると共に、領域内の成分分解画像を作成しな
ければならない。一般に、色は、赤(R)・緑(G)・
青(B)の濃度階調を用いて直接表現することが多い
が、成分分解画像は、色の成分を塗料の色にあたる物体
色と照明の直接光である光源色、周囲の物体による光の
乱反射である環境色に分けて、各成分の最大値に対する
割合を持たせたものである。成分分解画像は、以下の手
順によって作られるのが一般的である。 (1)成分分解画像を作るためには、各成分の方向ベク
トルを決めてやらなければならない。なぜなら、画像は
各成分が混ざりあったものであるため、画素の色を各成
分に分離することは難しいからである。そこで、各画素
をRGB空間にプロットし、その分布を調べる。 (2)環境色を一定と仮定すると、画素の色は物体色と
光源色のベクトル和で表わされるので、プロットした点
は二つのベクトルを含む平面上に分布していることにな
る。そこで人間は画素の分布を見て、全てのプロットし
た点を囲む最小の平行四辺形を作図する。 (3)平行四辺形の2つの辺が物体色と光源色成分の方
向ベクトルに相当するので、それぞれの画素の色を各方
向ベクトル上に投影し、各成分の最大値との比を計算す
ることで成分分解値を求めることができる。 以上のように、CG画像を画像シミュレーションに利用
する為に、用意した画像に対して人間が、前処理すなわ
ち、マスクによるセグメンテーションを行ない、成分分
解画像の作成をおこなっていた。そして、画像シミュレ
ーションにおいて色彩変更をする場合は、成分分解画像
を作成する際に基準となった物体色ベクトル、あるいは
光源色ベクトルを変更し、物体色成分あるいは、光源色
成分を再構成することによって、物体色の変更あるい
は、光源色の変更を行った。
れているような色彩変更シミュレーションを、CG画像
中あるいはCG画像と自然画像の合成画像中の物体に対
して行なうためには、変更を行なう領域をマスクによっ
て切り分けると共に、領域内の成分分解画像を作成しな
ければならない。一般に、色は、赤(R)・緑(G)・
青(B)の濃度階調を用いて直接表現することが多い
が、成分分解画像は、色の成分を塗料の色にあたる物体
色と照明の直接光である光源色、周囲の物体による光の
乱反射である環境色に分けて、各成分の最大値に対する
割合を持たせたものである。成分分解画像は、以下の手
順によって作られるのが一般的である。 (1)成分分解画像を作るためには、各成分の方向ベク
トルを決めてやらなければならない。なぜなら、画像は
各成分が混ざりあったものであるため、画素の色を各成
分に分離することは難しいからである。そこで、各画素
をRGB空間にプロットし、その分布を調べる。 (2)環境色を一定と仮定すると、画素の色は物体色と
光源色のベクトル和で表わされるので、プロットした点
は二つのベクトルを含む平面上に分布していることにな
る。そこで人間は画素の分布を見て、全てのプロットし
た点を囲む最小の平行四辺形を作図する。 (3)平行四辺形の2つの辺が物体色と光源色成分の方
向ベクトルに相当するので、それぞれの画素の色を各方
向ベクトル上に投影し、各成分の最大値との比を計算す
ることで成分分解値を求めることができる。 以上のように、CG画像を画像シミュレーションに利用
する為に、用意した画像に対して人間が、前処理すなわ
ち、マスクによるセグメンテーションを行ない、成分分
解画像の作成をおこなっていた。そして、画像シミュレ
ーションにおいて色彩変更をする場合は、成分分解画像
を作成する際に基準となった物体色ベクトル、あるいは
光源色ベクトルを変更し、物体色成分あるいは、光源色
成分を再構成することによって、物体色の変更あるい
は、光源色の変更を行った。
【0006】また、特願平3−279263号で述べら
れているような部品変更シミュレーションをCG画像中
で行なうために、変更を行なう領域を変更しない領域と
マスクによって切り分け、貼付る元の画像中に矩形を設
定し、一方、その矩形を変形して4角形領域に貼付ると
して、貼付られる画像中で4つの頂点の対応点を指定し
ていた。いま、貼付る画像の4点の座標(同時座標系)
を(xsi,ysi,1),貼付られる画像中での対応
点の座標を(xdi,ydi,1)とする(i=1〜
4)。このとき、(xsi,ysi,1)を(xdi,
ydi,1)に移す変換行列をAとする。この関係は式
1で表される。
れているような部品変更シミュレーションをCG画像中
で行なうために、変更を行なう領域を変更しない領域と
マスクによって切り分け、貼付る元の画像中に矩形を設
定し、一方、その矩形を変形して4角形領域に貼付ると
して、貼付られる画像中で4つの頂点の対応点を指定し
ていた。いま、貼付る画像の4点の座標(同時座標系)
を(xsi,ysi,1),貼付られる画像中での対応
点の座標を(xdi,ydi,1)とする(i=1〜
4)。このとき、(xsi,ysi,1)を(xdi,
ydi,1)に移す変換行列をAとする。この関係は式
1で表される。
【0007】
【数1】
【0008】すなわち、(xdi,ydi,1)はxs
iとysiを用いて、式2で表される。
iとysiを用いて、式2で表される。
【0009】
【数2】
【0010】式2を通常座標に直すと、xdi,ydi
は式3で表される。
は式3で表される。
【0011】
【数3】
【0012】式3を行列で書き表すと式4になる。
【0013】
【数4】
【0014】ここで、式4のT1の逆行列T2が得られれ
ば、次式5により行列Aの係数が求められる。
ば、次式5により行列Aの係数が求められる。
【0015】
【数5】
【0016】逆行列を求める一般的な方法には、ガウス
の掃き出し法があり、これによって変換行列Aが求まれ
ば、指定領域へのテクスチャマッピングが可能になる。
また、CG画像中の物体の向きを変える場合は、コンピ
ュータ・グラフィックスで物体の形状モデルを移動し、
新たにCG画像を作成していた。また、文字や模様デザ
インを自然画像やCG画像中で使う場合に、文字の色や
線の太さを変更したり、文字の形を変形するために、ア
ウトラインデータやビットマップイメージを持ち、幾何
変換や塗りつぶし色の指定を行なっていた。
の掃き出し法があり、これによって変換行列Aが求まれ
ば、指定領域へのテクスチャマッピングが可能になる。
また、CG画像中の物体の向きを変える場合は、コンピ
ュータ・グラフィックスで物体の形状モデルを移動し、
新たにCG画像を作成していた。また、文字や模様デザ
インを自然画像やCG画像中で使う場合に、文字の色や
線の太さを変更したり、文字の形を変形するために、ア
ウトラインデータやビットマップイメージを持ち、幾何
変換や塗りつぶし色の指定を行なっていた。
【0017】
【発明が解決しようとする課題】かかる従来の方法にお
いては、次のような問題がある。コンピュータ・グラフ
ィックスで画像を作った場合、本来は、形状に関する3
次元モデル、画面への投影方法、陰線・陰面処理、光源
の種類や陰影などの情報が与えられている筈である。し
かし、従来のCG画像は可視化するのが目的であり、画
像シミュレーションに用いる場合は、人間が前処理を行
なってセグメンテーション等をする必要があり、入力手
段から得られたCG画像を即座には利用できなかった。
いては、次のような問題がある。コンピュータ・グラフ
ィックスで画像を作った場合、本来は、形状に関する3
次元モデル、画面への投影方法、陰線・陰面処理、光源
の種類や陰影などの情報が与えられている筈である。し
かし、従来のCG画像は可視化するのが目的であり、画
像シミュレーションに用いる場合は、人間が前処理を行
なってセグメンテーション等をする必要があり、入力手
段から得られたCG画像を即座には利用できなかった。
【0018】本発明の第1の目的は、コンピュータ・グ
ラフィックスで作られたCG画像を自然画像と合成する
画像シミュレーション方法を提供することである。本発
明の第2の目的は、CG画像、あるいは、CG画像と自
然画像を合成して作られた合成画像を即座に画像シミュ
レーションに利用し、画像中の対象領域の色彩を変更す
る画像シミュレーション方法を提供することである。本
発明の第3の目的は、コンピュータ・グラフィックスで
作られたCG画像を即座に画像シミュレーションに利用
し、画像中の領域にテクスチャマッピングを行なう画像
シミュレーション方法を提供することである。本発明の
第4の目的は、CG画像、あるいは、CG画像と自然画
像を合成して作られた合成画像中にあるコンピュータ・
グラフィックスで作られた物体の向きの変更を行なう画
像シミュレーション方法を提供することである。本発明
の第5の目的は、文字や模様デザインについても幾何変
換等をして貼付するだけでなく、マスクの演算などを利
用した画像シミュレーション方法を提供することであ
る。
ラフィックスで作られたCG画像を自然画像と合成する
画像シミュレーション方法を提供することである。本発
明の第2の目的は、CG画像、あるいは、CG画像と自
然画像を合成して作られた合成画像を即座に画像シミュ
レーションに利用し、画像中の対象領域の色彩を変更す
る画像シミュレーション方法を提供することである。本
発明の第3の目的は、コンピュータ・グラフィックスで
作られたCG画像を即座に画像シミュレーションに利用
し、画像中の領域にテクスチャマッピングを行なう画像
シミュレーション方法を提供することである。本発明の
第4の目的は、CG画像、あるいは、CG画像と自然画
像を合成して作られた合成画像中にあるコンピュータ・
グラフィックスで作られた物体の向きの変更を行なう画
像シミュレーション方法を提供することである。本発明
の第5の目的は、文字や模様デザインについても幾何変
換等をして貼付するだけでなく、マスクの演算などを利
用した画像シミュレーション方法を提供することであ
る。
【0019】
【課題を解決するための手段】本発明は、上記第1の目
的を達成するため、コンピュータ・グラフィックスでC
G画像を作成する処理と同時に、(1)画像をセグメン
テーションしてマスク画像を作る。さらに、(2)マス
ク属性テーブルの設定を、データの変換によって行な
う。このため、(1)同じ性質の物体が投影された画像
上の領域に同一のマスク値を書き込む処理を有し、さら
に、(2)マスク値と物体の性質を関連付けるテーブル
を作成する処理を有し、マスク値の画素からなるマスク
画像を画像シミュレーション用データとして蓄積し、さ
らにはマスクの性質を記述したマスク属性テーブルを画
像シミュレーション用データとして蓄積する。そして、
このマスク画像を用いてコンピュータ・グラフィックス
画像から所望の画像だけを切り抜くことにより、該切り
抜いた画像と自然画などの異なる画像との組合せ合成を
行なう。また、前記属性情報に基づいて透明処理の処理
を行なう。本発明は更に、上記第2の目的を達成するた
め、コンピュータ・グラフィックスでCG画像を作成す
る処理と同時に、(1)画像をセグメンテーションして
マスク画像を作り、(2)成分分解画像の作成をデータ
の変換によって行なう。このため、(1)物体上で同じ
ペイントがされている領域を画像上に投影し、その領域
に同一のマスク値を書き込む処理と、(2)光源色、光
の減衰率、物体の拡散反射率、境面反射率から色彩画像
の値を計算する過程で成分分解画像を作成する処理を有
し、色彩変更を行う領域を画像中から切りぬくためのマ
スク画像とその領域の成分分解画像、および、光源色ベ
クトル、物体色ベクトルを画像シミュレーション用デー
タとして蓄積する。そして、物体色ベクトル等を変更す
ることにより物体の色等の変更をする。本発明は更に、
上記第3の目的を達成するため、コンピュータ・グラフ
ィックスで作成した物体の表面について、同一の法線を
持つ領域で領域分割したマスクからなるマスク画像を作
成する処理を有し、物体表面の法線を保存するために、
作成したマスク画像とマスクに対応して法線の方向を記
述したマスク属性テーブルを画像シミュレーション用デ
−タとして蓄積する。そして、物体表面への画像のテク
スチャマッピングを画像の幾何変換によって行なう。本
発明は更に、上記第4の目的を達成するため、コンピュ
ータ・グラフィックスで作成した物体の表面について、
同一の法線を持つ領域で分割したマスクからなるマスク
画像を作成する処理を有し、作成したマスク画像と物体
表面の法線を保存し、さらに、画像シミュレーションの
処理において、画像中の物体の向きを変更したときの各
面の法線を入力、保存し、物体の向きの微少な変更を前
記保存処理された情報を基に各面の幾何変換によって行
なう。本発明は更に、上記第5の目的を達成するため、
文字や模様デザインのアウトラインデータやビットマッ
プデータからマスク画像を作る処理と、マスクを加減算
する処理を有し、さらに、マスク値と文字や模様デザイ
ンの性質を関連付けるテーブルを作成して蓄積する。そ
して、文字や模様の画像から文字等の一部もしくは全部
を抜き出すことにより、自然画やCG画像など異なる画
像との組合せ合成を行なう。
的を達成するため、コンピュータ・グラフィックスでC
G画像を作成する処理と同時に、(1)画像をセグメン
テーションしてマスク画像を作る。さらに、(2)マス
ク属性テーブルの設定を、データの変換によって行な
う。このため、(1)同じ性質の物体が投影された画像
上の領域に同一のマスク値を書き込む処理を有し、さら
に、(2)マスク値と物体の性質を関連付けるテーブル
を作成する処理を有し、マスク値の画素からなるマスク
画像を画像シミュレーション用データとして蓄積し、さ
らにはマスクの性質を記述したマスク属性テーブルを画
像シミュレーション用データとして蓄積する。そして、
このマスク画像を用いてコンピュータ・グラフィックス
画像から所望の画像だけを切り抜くことにより、該切り
抜いた画像と自然画などの異なる画像との組合せ合成を
行なう。また、前記属性情報に基づいて透明処理の処理
を行なう。本発明は更に、上記第2の目的を達成するた
め、コンピュータ・グラフィックスでCG画像を作成す
る処理と同時に、(1)画像をセグメンテーションして
マスク画像を作り、(2)成分分解画像の作成をデータ
の変換によって行なう。このため、(1)物体上で同じ
ペイントがされている領域を画像上に投影し、その領域
に同一のマスク値を書き込む処理と、(2)光源色、光
の減衰率、物体の拡散反射率、境面反射率から色彩画像
の値を計算する過程で成分分解画像を作成する処理を有
し、色彩変更を行う領域を画像中から切りぬくためのマ
スク画像とその領域の成分分解画像、および、光源色ベ
クトル、物体色ベクトルを画像シミュレーション用デー
タとして蓄積する。そして、物体色ベクトル等を変更す
ることにより物体の色等の変更をする。本発明は更に、
上記第3の目的を達成するため、コンピュータ・グラフ
ィックスで作成した物体の表面について、同一の法線を
持つ領域で領域分割したマスクからなるマスク画像を作
成する処理を有し、物体表面の法線を保存するために、
作成したマスク画像とマスクに対応して法線の方向を記
述したマスク属性テーブルを画像シミュレーション用デ
−タとして蓄積する。そして、物体表面への画像のテク
スチャマッピングを画像の幾何変換によって行なう。本
発明は更に、上記第4の目的を達成するため、コンピュ
ータ・グラフィックスで作成した物体の表面について、
同一の法線を持つ領域で分割したマスクからなるマスク
画像を作成する処理を有し、作成したマスク画像と物体
表面の法線を保存し、さらに、画像シミュレーションの
処理において、画像中の物体の向きを変更したときの各
面の法線を入力、保存し、物体の向きの微少な変更を前
記保存処理された情報を基に各面の幾何変換によって行
なう。本発明は更に、上記第5の目的を達成するため、
文字や模様デザインのアウトラインデータやビットマッ
プデータからマスク画像を作る処理と、マスクを加減算
する処理を有し、さらに、マスク値と文字や模様デザイ
ンの性質を関連付けるテーブルを作成して蓄積する。そ
して、文字や模様の画像から文字等の一部もしくは全部
を抜き出すことにより、自然画やCG画像など異なる画
像との組合せ合成を行なう。
【0020】
【作用】コンピュータ・グラフィックスによってCG画
像を作る際に、CG画像を自然画像の中に合成する為に
必要なマスク画像及びマスク属性テーブルが自動的に作
成されるので、事実上人間による前処理が不要となり、
CG画像を用いた画像合成シミュレーションが即刻かつ
簡単にできるようになる。また、コンピュータ・グラフ
ィックスによって作られた色彩画像の値は、光源色、物
体色、環境色に分離して保存されているため、人間が画
素の色分析をする必要はなく、したがって、CG画像の
色彩変更シミュレーションが即刻かつ簡単にできるよう
になる。また、CG画像中の物体表面が、面の向きごと
に領域分割され、それぞれの面の法線方向が保存されて
いるので、改めて面の向きを定義する処理を必要としな
いので、画像のテクスチャマッピングを即刻かつ簡単に
行えるようになる。また、物体の各面の法線と物体の向
きを変えたときの法線の向きが与えられているので、面
同志の接続関係を考慮して面ごとに幾何変換を行なえ
ば、コンピュータ・グラフィックスを用いなくても物体
の向きの変更が多少可能になる。また、文字や模様デザ
インが、マスクを持った画像に自動的に変換されるた
め、文字等の切りだしを改めて行なうことなく他の画像
のマスクとの加減算を行なうことができ、単に文字等を
自然画像と組み合わせるだけでなく、これによってテク
スチャマッピングした文字等の色彩変更シミュレーショ
ンなどを簡単に行なうことができるようになる。
像を作る際に、CG画像を自然画像の中に合成する為に
必要なマスク画像及びマスク属性テーブルが自動的に作
成されるので、事実上人間による前処理が不要となり、
CG画像を用いた画像合成シミュレーションが即刻かつ
簡単にできるようになる。また、コンピュータ・グラフ
ィックスによって作られた色彩画像の値は、光源色、物
体色、環境色に分離して保存されているため、人間が画
素の色分析をする必要はなく、したがって、CG画像の
色彩変更シミュレーションが即刻かつ簡単にできるよう
になる。また、CG画像中の物体表面が、面の向きごと
に領域分割され、それぞれの面の法線方向が保存されて
いるので、改めて面の向きを定義する処理を必要としな
いので、画像のテクスチャマッピングを即刻かつ簡単に
行えるようになる。また、物体の各面の法線と物体の向
きを変えたときの法線の向きが与えられているので、面
同志の接続関係を考慮して面ごとに幾何変換を行なえ
ば、コンピュータ・グラフィックスを用いなくても物体
の向きの変更が多少可能になる。また、文字や模様デザ
インが、マスクを持った画像に自動的に変換されるた
め、文字等の切りだしを改めて行なうことなく他の画像
のマスクとの加減算を行なうことができ、単に文字等を
自然画像と組み合わせるだけでなく、これによってテク
スチャマッピングした文字等の色彩変更シミュレーショ
ンなどを簡単に行なうことができるようになる。
【0021】
【実施例】以下、図1〜図4を用いて、本発明の1実施
例を説明する。図1は、本発明をCG画像と自然画像の
合成を行なう画像シミュレーションシステムに適用した
場合の1実施例を示す処理手順の説明図であり、図2
は、CG画像を作る際に画像シミュレーション用のデー
タ変換を行なうデータ変換部のアルゴリズムを示すフロ
ーチャートであり、図3は、画像シミュレーションにお
いてCG画像と自然画像の合成、及び、CGで作った合
成画像中の物体の色彩変更を行なうために、データ変換
によって作成され、記憶装置に蓄積される基本データ構
成要素であり、図4はコンピュータ・グラフィックスの
形状モデルからマスク画像を作る処理についての説明図
である。
例を説明する。図1は、本発明をCG画像と自然画像の
合成を行なう画像シミュレーションシステムに適用した
場合の1実施例を示す処理手順の説明図であり、図2
は、CG画像を作る際に画像シミュレーション用のデー
タ変換を行なうデータ変換部のアルゴリズムを示すフロ
ーチャートであり、図3は、画像シミュレーションにお
いてCG画像と自然画像の合成、及び、CGで作った合
成画像中の物体の色彩変更を行なうために、データ変換
によって作成され、記憶装置に蓄積される基本データ構
成要素であり、図4はコンピュータ・グラフィックスの
形状モデルからマスク画像を作る処理についての説明図
である。
【0022】図1において、CGモデル10は、物体の
形状や物体表面の属性からなる物体モデル12と、光源
の位置や光の色特性など光源モデル14と、視点の位置
16から構成されている。通常のコンピュータ・グラフ
ィックスは、CGモデル10を2次元平面に投影したC
G画像20を作ることが目的とされるが、本発明では画
像20を作るのと同時にデータ変換部100によって、
画像シミュレーション用データが作成され、変換データ
記憶装置21に蓄積される。変換データは、マスク画像
22、マスク属性テーブル23、陰影画像24、スケー
ル値25、成分分解画像28、等から構成される。
形状や物体表面の属性からなる物体モデル12と、光源
の位置や光の色特性など光源モデル14と、視点の位置
16から構成されている。通常のコンピュータ・グラフ
ィックスは、CGモデル10を2次元平面に投影したC
G画像20を作ることが目的とされるが、本発明では画
像20を作るのと同時にデータ変換部100によって、
画像シミュレーション用データが作成され、変換データ
記憶装置21に蓄積される。変換データは、マスク画像
22、マスク属性テーブル23、陰影画像24、スケー
ル値25、成分分解画像28、等から構成される。
【0023】まず、これらの変換データについて説明す
る。図3は、記憶装置に蓄積された変換データの詳細説
明図であり、自然画像中にCG画像を重畳合成するため
にCG画像に必要な基本データ群である。CG画像の1
例として、色彩画像20が、屋根62と壁63と窓64
からなる家と外部61によって構成されているとき、マ
スク画像22も、屋根部72と壁部73と窓部74と外
部71に領域分割され、マスク領域71に0、マスク領
域72に1、マスク領域73に2、マスク領域74に3
が対応付けられている。また、マスク属性テーブル23
は、マスク領域に付けられた番号42と名称44、さら
に、その属性45として透明か不透明かという情報を結
び付ける表であり、セグメンテーションの種類によって
表の属性は多種多様になる。一方、成分分解画像28
は、画像シミュレーションで色彩変更をしたい部分のみ
に必要な値であり、屋根部82、壁部83、窓部84で
別々に計算される。また、この画像は一般に用いられる
3原色の混合比率によって画素の色を記述した方式と違
い、画素毎に物体自体の色である物体色と光源の反射に
よる光源色と環境の色を保存する各成分分解値の組の集
まりである。これらの値を計算するための手順について
は後述する。
る。図3は、記憶装置に蓄積された変換データの詳細説
明図であり、自然画像中にCG画像を重畳合成するため
にCG画像に必要な基本データ群である。CG画像の1
例として、色彩画像20が、屋根62と壁63と窓64
からなる家と外部61によって構成されているとき、マ
スク画像22も、屋根部72と壁部73と窓部74と外
部71に領域分割され、マスク領域71に0、マスク領
域72に1、マスク領域73に2、マスク領域74に3
が対応付けられている。また、マスク属性テーブル23
は、マスク領域に付けられた番号42と名称44、さら
に、その属性45として透明か不透明かという情報を結
び付ける表であり、セグメンテーションの種類によって
表の属性は多種多様になる。一方、成分分解画像28
は、画像シミュレーションで色彩変更をしたい部分のみ
に必要な値であり、屋根部82、壁部83、窓部84で
別々に計算される。また、この画像は一般に用いられる
3原色の混合比率によって画素の色を記述した方式と違
い、画素毎に物体自体の色である物体色と光源の反射に
よる光源色と環境の色を保存する各成分分解値の組の集
まりである。これらの値を計算するための手順について
は後述する。
【0024】次に、コンピュータ・グラフィックスの形
状モデルからマスク画像を作る処理について、図4を用
いて説明する。コンピュータ・グラフィックスの形状モ
デル230が図4に示す3次元空間内にあるとき、これ
を平行投影によって投影面240に投影する。この結
果、投影面240に形状モデルの影にあたる領域250
が映し出される。このとき、投影面240を画像とし、
領域250に含まれる画素に、領域外260と異なる値
を与えることによって、2つの値からなる画像を作るこ
とができる。もちろん、このようにして作成した画像内
の領域を分割する画像は、CG画像と一致しなければな
らず、投影面や投影方法はCGで用いるものと同じにし
なければならない。CG画像中の物体が、領域を分割す
る画像によって正しく切り分けられるとき、マスク画像
が作成されたということができる。
状モデルからマスク画像を作る処理について、図4を用
いて説明する。コンピュータ・グラフィックスの形状モ
デル230が図4に示す3次元空間内にあるとき、これ
を平行投影によって投影面240に投影する。この結
果、投影面240に形状モデルの影にあたる領域250
が映し出される。このとき、投影面240を画像とし、
領域250に含まれる画素に、領域外260と異なる値
を与えることによって、2つの値からなる画像を作るこ
とができる。もちろん、このようにして作成した画像内
の領域を分割する画像は、CG画像と一致しなければな
らず、投影面や投影方法はCGで用いるものと同じにし
なければならない。CG画像中の物体が、領域を分割す
る画像によって正しく切り分けられるとき、マスク画像
が作成されたということができる。
【0025】次に、CG画像を作る際に上記変換データ
を作る為の処理の1例を、図2のフローチャートに基づ
いて説明する。コンピュータ・グラフィックスでは、光
源の光を追跡してスクリーン上の色を求め、CG画像を
作成するのが一般的であるが、1枚の画像領域だけが分
かれば良い場合は、視点から逆に光線追跡をしたほうが
効率的である。したがって、図2における「はじめ」
(100)は、画像の左上端点画素から始め、その画素
の色が決定するまで光線の辿ってきた軌跡が追跡され、
色が決まると次の画素に移り(102)、画像の全ての
画素を調べたところでデータ変換処理は「おわり」(1
36)となる。光線の軌跡の追跡は、視点を起点とし
て、視点とスクリーン上の画素を結ぶ直線上を物体に突
き当たるまで進み(104)、突き当たった対象が光源
であるかどうかを調べる(106)。対象が光源でない
場合は、対象が何であるかを特定し(108)、その結
果からマスク画像の対応画素にマスク番号42を書き込
み(109)、対象の色や属性を決定して一時記録し
(110)、属性テーブル情報を保存する(111)。
さらに、ステップ104に戻り、光線の軌跡の追跡を続
行する。なお、ステップ110で一時記録された情報
は、後述のステップ115の後に、次の画素に関する情
報で書き替えられる。一方、突き当たった対象が光源
(環境光を含む)であるなら、光源の色が決定する(1
12)。この場合、光源色とステップ111で記録した
拡散反射率の積である物体色ベクトルを計算し(11
4)、さらに光源と物体表面の成す角度等を掛けあわせ
て物体色成分を求める(116)。また、光源色と物体
反射率の積である光源色ベクトルを計算し(118)、
さらに視点や光源と物体表面の成す角度を考慮して光源
色成分を求める(120)。光源追跡が終了した時点
で、光源色あるいは環境色が決まる(122)ので、こ
れらの値より画素の色を計算することができ(12
4)、その結果を色彩画像に書き込むことで(126)
画素の色が決定する。次に、各色彩ベクトルに対する各
色彩成分の割合を求め(128)、これを成分分解値と
して成分分解画像に保存する(130)。CG画像の色
彩画像20とマスク画像22と成分分解画像28が本処
理に従って作られたのち、マスクの種類が纏められてマ
スク属性テーブルが作成される(134)。前記データ
変換処理により、CG画像20、そのマスク画像22、
マスク属性テーブル23、成分分解画像28が作成され
た。一方、図1中の自然画像30は、本来色の情報しか
持たないので、人間が前処理によって自然画像中の物体
を切り分け、自然画像のマスク画像32を作成し、マス
ク属性テーブル33を記述しておく。この実施例によれ
ば、コンピュータ・グラフィックスで作られたCG画像
に対しても、自然画像の場合と同様な画像シミュレーシ
ョン用データを作ることによって、これらを組み合わせ
て即座に合成画像50を作ることができる。さらに、成
分分解画像28を利用して、色彩変更等の画像シミュレ
ーションを行なうことができる。
を作る為の処理の1例を、図2のフローチャートに基づ
いて説明する。コンピュータ・グラフィックスでは、光
源の光を追跡してスクリーン上の色を求め、CG画像を
作成するのが一般的であるが、1枚の画像領域だけが分
かれば良い場合は、視点から逆に光線追跡をしたほうが
効率的である。したがって、図2における「はじめ」
(100)は、画像の左上端点画素から始め、その画素
の色が決定するまで光線の辿ってきた軌跡が追跡され、
色が決まると次の画素に移り(102)、画像の全ての
画素を調べたところでデータ変換処理は「おわり」(1
36)となる。光線の軌跡の追跡は、視点を起点とし
て、視点とスクリーン上の画素を結ぶ直線上を物体に突
き当たるまで進み(104)、突き当たった対象が光源
であるかどうかを調べる(106)。対象が光源でない
場合は、対象が何であるかを特定し(108)、その結
果からマスク画像の対応画素にマスク番号42を書き込
み(109)、対象の色や属性を決定して一時記録し
(110)、属性テーブル情報を保存する(111)。
さらに、ステップ104に戻り、光線の軌跡の追跡を続
行する。なお、ステップ110で一時記録された情報
は、後述のステップ115の後に、次の画素に関する情
報で書き替えられる。一方、突き当たった対象が光源
(環境光を含む)であるなら、光源の色が決定する(1
12)。この場合、光源色とステップ111で記録した
拡散反射率の積である物体色ベクトルを計算し(11
4)、さらに光源と物体表面の成す角度等を掛けあわせ
て物体色成分を求める(116)。また、光源色と物体
反射率の積である光源色ベクトルを計算し(118)、
さらに視点や光源と物体表面の成す角度を考慮して光源
色成分を求める(120)。光源追跡が終了した時点
で、光源色あるいは環境色が決まる(122)ので、こ
れらの値より画素の色を計算することができ(12
4)、その結果を色彩画像に書き込むことで(126)
画素の色が決定する。次に、各色彩ベクトルに対する各
色彩成分の割合を求め(128)、これを成分分解値と
して成分分解画像に保存する(130)。CG画像の色
彩画像20とマスク画像22と成分分解画像28が本処
理に従って作られたのち、マスクの種類が纏められてマ
スク属性テーブルが作成される(134)。前記データ
変換処理により、CG画像20、そのマスク画像22、
マスク属性テーブル23、成分分解画像28が作成され
た。一方、図1中の自然画像30は、本来色の情報しか
持たないので、人間が前処理によって自然画像中の物体
を切り分け、自然画像のマスク画像32を作成し、マス
ク属性テーブル33を記述しておく。この実施例によれ
ば、コンピュータ・グラフィックスで作られたCG画像
に対しても、自然画像の場合と同様な画像シミュレーシ
ョン用データを作ることによって、これらを組み合わせ
て即座に合成画像50を作ることができる。さらに、成
分分解画像28を利用して、色彩変更等の画像シミュレ
ーションを行なうことができる。
【0026】上述の実施例において、ステップ108で
対象が特定され、その1例として対象が半透明な窓ガラ
ス(図5中、自動車の窓ガラス部64)を含んでいると
き、図5に示すように、色彩画像20は、透明な部分6
1と不透明な自動車のボディ部分62と半透明な窓ガラ
ス部64に分離され、マスク画像のマスク領域71に
0、マスク領域72に1、マスク領域74に2、が書き
込まれる。さらに、マスク属性テーブル23において、
マスクの番号42に対応した属性として透過率45がス
テップ117で記述される。この方法によれば、CG画
像20と自然画像30の合成シミュレーションにおい
て、図6に示す演算部300によって、自動車の窓ガラ
ス部64の後ろに物体66をおき、窓ガラス部から後ろ
の物体66が透けて見える処理を行なった領域54を含
む合成画像を出力装置50に表示することができる。本
方法を用いれば、窓ガラスや影などについても自然な表
現が可能になる。
対象が特定され、その1例として対象が半透明な窓ガラ
ス(図5中、自動車の窓ガラス部64)を含んでいると
き、図5に示すように、色彩画像20は、透明な部分6
1と不透明な自動車のボディ部分62と半透明な窓ガラ
ス部64に分離され、マスク画像のマスク領域71に
0、マスク領域72に1、マスク領域74に2、が書き
込まれる。さらに、マスク属性テーブル23において、
マスクの番号42に対応した属性として透過率45がス
テップ117で記述される。この方法によれば、CG画
像20と自然画像30の合成シミュレーションにおい
て、図6に示す演算部300によって、自動車の窓ガラ
ス部64の後ろに物体66をおき、窓ガラス部から後ろ
の物体66が透けて見える処理を行なった領域54を含
む合成画像を出力装置50に表示することができる。本
方法を用いれば、窓ガラスや影などについても自然な表
現が可能になる。
【0027】上述の実施例においては、光線の軌跡を視
点を起点として逆向きに追跡し、最初に到達した物体の
マスク値をマスク画像に書き込む処理であったが、例え
ば図8の色彩画像20中の窓ガラス64には、窓ガラス
の中に室内の様子が映り込んでおり、表面の窓ガラスを
記述するだけでは室内に他の物体66を置くことはでき
ない。そこで、このような画像シミュレーションを実現
する1実施例として、データ変換部100は図7に示す
記憶部352と記憶部354の二つを用意し、記憶部3
52には、ガラス窓が無いものとして作成した色彩画像
20とマスク画像22とマスク属性テーブル23を保存
し、記憶部354には、ガラス窓部だけの色彩画像20
とマスク画像22とマスク属性テーブル23を保存す
る。さらに、演算部300は、記憶部352と記憶部3
80のデータを用いて合成画像を作成し、その合成画像
に対してさらに記憶部354のデータを重畳合成するこ
とによって、図8に示す出力装置50に、窓ガラス64
の後ろである室内に物体66を合成した領域55を含む
合成画像を表示することができる。
点を起点として逆向きに追跡し、最初に到達した物体の
マスク値をマスク画像に書き込む処理であったが、例え
ば図8の色彩画像20中の窓ガラス64には、窓ガラス
の中に室内の様子が映り込んでおり、表面の窓ガラスを
記述するだけでは室内に他の物体66を置くことはでき
ない。そこで、このような画像シミュレーションを実現
する1実施例として、データ変換部100は図7に示す
記憶部352と記憶部354の二つを用意し、記憶部3
52には、ガラス窓が無いものとして作成した色彩画像
20とマスク画像22とマスク属性テーブル23を保存
し、記憶部354には、ガラス窓部だけの色彩画像20
とマスク画像22とマスク属性テーブル23を保存す
る。さらに、演算部300は、記憶部352と記憶部3
80のデータを用いて合成画像を作成し、その合成画像
に対してさらに記憶部354のデータを重畳合成するこ
とによって、図8に示す出力装置50に、窓ガラス64
の後ろである室内に物体66を合成した領域55を含む
合成画像を表示することができる。
【0028】上述の実施例は、セグメンテーションに関
係したデータ変換処理が中心であったが、本発明ではさ
らに、図9に示す記憶部356にCG画像の実長を示す
尺度25を記録するために、2点A,Bの座標と実際の
2点間の距離を記述する記憶部49を持たせ、実長を保
存することができる。このように、画像に実長が与えら
れていれば、画像中の位置から実際の長さを計算できる
データ35を持った画像30が与えられたとき、演算部
300によって適切な重畳サイズを即座に計算し、出力
装置50に対象72をスケール変換して合成した画像を
表示することができるようになる。
係したデータ変換処理が中心であったが、本発明ではさ
らに、図9に示す記憶部356にCG画像の実長を示す
尺度25を記録するために、2点A,Bの座標と実際の
2点間の距離を記述する記憶部49を持たせ、実長を保
存することができる。このように、画像に実長が与えら
れていれば、画像中の位置から実際の長さを計算できる
データ35を持った画像30が与えられたとき、演算部
300によって適切な重畳サイズを即座に計算し、出力
装置50に対象72をスケール変換して合成した画像を
表示することができるようになる。
【0029】以上の実施例では、物体を物理的な性質に
よって分離する処理について述べたが、本発明における
データ変換では、その他の性質によって分離しても構わ
ない。例えば、物体表面の傾きによって分離したマスク
画像を図10に示す。図10のマスク画像22は、4つ
の領域からなり、領域71に0、領域171に1、領域
172に2、領域173に3が書き込まれている。さら
に、マスク属性テーブルを作成するステップ117にお
いて、マスクの番号42に対応して面の向きを記述する
テーブルを用意し、面の法線の向き46を記述する。こ
のようなマスクの作成と面の法線の記述によって、物体
表面へのテクスチャマッピングが可能となる。すなわ
ち、貼付る画像は初期状態では正面を向いているとすれ
ば、法線の向きはN0(x,y,z)=(0,0,1)
であるから、貼付られる面の法線をN1(α,β,γ)
とするとき、N0をN1に移す変換Tによって座標変換
を行なえば、物体表面に貼付る画像を作ることができ
る。変換Tは、X軸回りの回転を行なう変換TxとY軸
回りの回転を行なう変換Tyで実現できるので、一般的
に変換Tは式6の行列式で表現される。
よって分離する処理について述べたが、本発明における
データ変換では、その他の性質によって分離しても構わ
ない。例えば、物体表面の傾きによって分離したマスク
画像を図10に示す。図10のマスク画像22は、4つ
の領域からなり、領域71に0、領域171に1、領域
172に2、領域173に3が書き込まれている。さら
に、マスク属性テーブルを作成するステップ117にお
いて、マスクの番号42に対応して面の向きを記述する
テーブルを用意し、面の法線の向き46を記述する。こ
のようなマスクの作成と面の法線の記述によって、物体
表面へのテクスチャマッピングが可能となる。すなわ
ち、貼付る画像は初期状態では正面を向いているとすれ
ば、法線の向きはN0(x,y,z)=(0,0,1)
であるから、貼付られる面の法線をN1(α,β,γ)
とするとき、N0をN1に移す変換Tによって座標変換
を行なえば、物体表面に貼付る画像を作ることができ
る。変換Tは、X軸回りの回転を行なう変換TxとY軸
回りの回転を行なう変換Tyで実現できるので、一般的
に変換Tは式6の行列式で表現される。
【0030】
【数6】
【0031】式6より、α,β,γを求めると式7が得
られる。
られる。
【0032】
【数7】
【0033】すなわち、式7よりθ,φを求め、Y軸回
りにφだけ回転させた後、X軸回りにθだけ回転させれ
ば良いといえる。
りにφだけ回転させた後、X軸回りにθだけ回転させれ
ば良いといえる。
【0034】さらに、上述の面によって分割したマスク
画像と面の法線に加えて、物体座標系からみた視点の方
向を記述しておくことで、視線方向を変更するシミュレ
ーション、または、物体の向きを変更するシミュレーシ
ョンが可能となる。この場合、初期状態における面の法
線が、(α0,β0,γ0)であるとすれば、上記式7
にそのまま当てはめることができるので、変更後の面の
法線が与えられた際に、各面の接続関係を保存しつつ面
ごとに幾何変換を行えば、物体の向きの多少の変更が可
能になる。物体の向きを変更する処理を図11のフロー
チャートを用いて説明する。
画像と面の法線に加えて、物体座標系からみた視点の方
向を記述しておくことで、視線方向を変更するシミュレ
ーション、または、物体の向きを変更するシミュレーシ
ョンが可能となる。この場合、初期状態における面の法
線が、(α0,β0,γ0)であるとすれば、上記式7
にそのまま当てはめることができるので、変更後の面の
法線が与えられた際に、各面の接続関係を保存しつつ面
ごとに幾何変換を行えば、物体の向きの多少の変更が可
能になる。物体の向きを変更する処理を図11のフロー
チャートを用いて説明する。
【0035】ステップ200において、CG画像の端点
から画素のスキャンが始められ、まずステップ202に
おいて画素が属するマスクが調べられる。画素がいずれ
かのマスクに属するならば、その画素を含む部分の法線
がステップ204で与えられる。しかし、どのマスクに
も属さない場合は、処理がステップ218に移り、隣の
画素にスキャンが移動する。一方、物体の向きを変えた
とき、あるマスクの領域がどこに移動し、その法線がど
ちらの方向を向くかは与えられているので、画素の属す
るマスクが特定された時点で、ステップ206の貼り付
け先の法線は既知となる。いま、204と206によっ
て式6の(α,β,γ)と(x,y,z)は与えられる
ので、ステップ208において変換行列Tが計算され、
ステップ210において画素が行列Tによって座標変換
される。さらに、ステップ212において変換画素が変
更後のマスク内に入るかどうかが調べられ、マスク内に
あるときはステップ214において色彩値の書き込みが
なされる。さて、元のCG画像の全画素について、本処
理が行われた場合のみ、ステップ216の処理は218
に移らず、ステップ220に移り、各面の接続関係に基
づいて、ステップ222において変換された領域が平行
移動され本来の接続関係に戻される。以上の処理によっ
て、物体の向きを変更した画像が得られる。
から画素のスキャンが始められ、まずステップ202に
おいて画素が属するマスクが調べられる。画素がいずれ
かのマスクに属するならば、その画素を含む部分の法線
がステップ204で与えられる。しかし、どのマスクに
も属さない場合は、処理がステップ218に移り、隣の
画素にスキャンが移動する。一方、物体の向きを変えた
とき、あるマスクの領域がどこに移動し、その法線がど
ちらの方向を向くかは与えられているので、画素の属す
るマスクが特定された時点で、ステップ206の貼り付
け先の法線は既知となる。いま、204と206によっ
て式6の(α,β,γ)と(x,y,z)は与えられる
ので、ステップ208において変換行列Tが計算され、
ステップ210において画素が行列Tによって座標変換
される。さらに、ステップ212において変換画素が変
更後のマスク内に入るかどうかが調べられ、マスク内に
あるときはステップ214において色彩値の書き込みが
なされる。さて、元のCG画像の全画素について、本処
理が行われた場合のみ、ステップ216の処理は218
に移らず、ステップ220に移り、各面の接続関係に基
づいて、ステップ222において変換された領域が平行
移動され本来の接続関係に戻される。以上の処理によっ
て、物体の向きを変更した画像が得られる。
【0036】画像シミュレーションにおいて従来例で述
べた色彩変更を行なうためには、CGモデル10からデ
ータ変換によって成分分解画像28を作っておかなけれ
ばならない。成分分解画像は、目に見える色を物体色成
分150と光源色成分160と環境色成分170に分解
して保存したデータであるが、変更する内容によって実
際に保存するデータが異なるので、これを図12を基に
説明する。CGモデル10は、物体モデル12と光源1
4と視点16からなり、光源と物体表面の法線の成す角
度をθとし、視点と物体表面の法線の成す角度をφとす
る。このとき、物体色成分150は、物体色ベクトル1
52とθの関数154と光の減衰率156の積で表さ
れ、光源色成分は、光源色ベクトル162と(θ,φ)
の関数164と光源色の減衰率166の積で表され、環
境色成分170は、周囲の大気等による光の反射成分で
あり定数値で表される。さらに、物体色ベクトルは、物
体表面に塗られた塗料に固有な拡散反射率158と光源
色14の積で表され、光源色ベクトルは、鏡面反射率1
68と光源色14の積で表される。したがって、変換部
100のステップ108において、対象が特定されると
反射率等の表面属性が既知となるが、このとき物体色ベ
クトル152を154や156の値と分離して成分分解
画像28に保持し、画像シミュレーションにおいて物体
色ベクトル152の値を変えることによって物体色を変
更することができる。同様に、光源色ベクトル162を
164や166の値と分離して成分分解画像28に保持
し、光源色ベクトル162の値を変えることによって光
源色を変更でき、また、拡散反射率158を他の値や成
分と分離して保持し、158の値を変えることによって
質感の変更ができ、さらに、鏡面反射率168を他の値
や成分と分離して保持し、168の値を変えることによ
って光沢の変更をすることができる。
べた色彩変更を行なうためには、CGモデル10からデ
ータ変換によって成分分解画像28を作っておかなけれ
ばならない。成分分解画像は、目に見える色を物体色成
分150と光源色成分160と環境色成分170に分解
して保存したデータであるが、変更する内容によって実
際に保存するデータが異なるので、これを図12を基に
説明する。CGモデル10は、物体モデル12と光源1
4と視点16からなり、光源と物体表面の法線の成す角
度をθとし、視点と物体表面の法線の成す角度をφとす
る。このとき、物体色成分150は、物体色ベクトル1
52とθの関数154と光の減衰率156の積で表さ
れ、光源色成分は、光源色ベクトル162と(θ,φ)
の関数164と光源色の減衰率166の積で表され、環
境色成分170は、周囲の大気等による光の反射成分で
あり定数値で表される。さらに、物体色ベクトルは、物
体表面に塗られた塗料に固有な拡散反射率158と光源
色14の積で表され、光源色ベクトルは、鏡面反射率1
68と光源色14の積で表される。したがって、変換部
100のステップ108において、対象が特定されると
反射率等の表面属性が既知となるが、このとき物体色ベ
クトル152を154や156の値と分離して成分分解
画像28に保持し、画像シミュレーションにおいて物体
色ベクトル152の値を変えることによって物体色を変
更することができる。同様に、光源色ベクトル162を
164や166の値と分離して成分分解画像28に保持
し、光源色ベクトル162の値を変えることによって光
源色を変更でき、また、拡散反射率158を他の値や成
分と分離して保持し、158の値を変えることによって
質感の変更ができ、さらに、鏡面反射率168を他の値
や成分と分離して保持し、168の値を変えることによ
って光沢の変更をすることができる。
【0037】以上の説明では、CG画像を画像シミュレ
ーションに利用することを想定し、その為のデータ変換
について述べたが、本発明はこれに限定されるものでは
なく、他のデータについても適用可能である。これらの
データに対する実施例について図13のフローチャート
を基に説明する。CGデータ、文字や模様デザインのア
ウトラインデータ、自然画データ、などがステップ18
0において入力される。入力されたデータは、ステップ
182で画像化されるが、同時に画像シミュレーション
に必要となる性質によって領域分割され、マスク画像が
作成される(184)。さらに、セグメンテーションし
た性質によって、マスクの属性をマスク属性テーブルに
記述する(186)。ステップ188において、色彩画
像とマスク画像に幾何変換がなされ、判断部190にお
いて、他のマスクとの組み合わせが必要でないなら、変
換データはすぐに画像シミュレーション198に送られ
る。他のマスクとの演算が必要な場合は、ステップ19
2で変換されたデータを一時保存し、演算に用いる他の
マスクをステップ194で読みだし、これらをステップ
196で演算し、その結果を画像シミュレーション19
8に送る処理となる。この処理を共通に行なうことによ
り、CG画像や文字や模様を自然画像と組み合わせるこ
とが可能になる。さらに、文字や柄を物体面に貼り付
け、文字部分の色彩変更を行なうことができるようにな
る。
ーションに利用することを想定し、その為のデータ変換
について述べたが、本発明はこれに限定されるものでは
なく、他のデータについても適用可能である。これらの
データに対する実施例について図13のフローチャート
を基に説明する。CGデータ、文字や模様デザインのア
ウトラインデータ、自然画データ、などがステップ18
0において入力される。入力されたデータは、ステップ
182で画像化されるが、同時に画像シミュレーション
に必要となる性質によって領域分割され、マスク画像が
作成される(184)。さらに、セグメンテーションし
た性質によって、マスクの属性をマスク属性テーブルに
記述する(186)。ステップ188において、色彩画
像とマスク画像に幾何変換がなされ、判断部190にお
いて、他のマスクとの組み合わせが必要でないなら、変
換データはすぐに画像シミュレーション198に送られ
る。他のマスクとの演算が必要な場合は、ステップ19
2で変換されたデータを一時保存し、演算に用いる他の
マスクをステップ194で読みだし、これらをステップ
196で演算し、その結果を画像シミュレーション19
8に送る処理となる。この処理を共通に行なうことによ
り、CG画像や文字や模様を自然画像と組み合わせるこ
とが可能になる。さらに、文字や柄を物体面に貼り付
け、文字部分の色彩変更を行なうことができるようにな
る。
【0038】
【発明の効果】以上に述べたように、本発明によれば、
コンピュータ・グラフィックスで作成された画像を画像
シミュレーションで扱えるデータに変換するため、マス
ク画像を作成してマスクの属性と共に保存しておくの
で、画像シミュレーションを動作させているコンピュー
タで即座に利用して自然画像との合成画像を作ることが
できる。また、自然画像からは値の抽出が難しいとされ
ていた物体の形状や光源の性質についても、データ変換
において正確な値を求めて記録することで、従来の画像
シミュレーションでは実現できなかった物体の向きの変
更や物体面に合わせた画像のマッピングが可能となる。
さらに、文字や模様デザインについてもマスク画像を作
り、画像シミュレーションで扱えるデータに変換して保
存することで、自然画像と組み合わせることができ、文
字や柄のバリエーションを画像シミュレーションによっ
て変更する処理が可能になる。
コンピュータ・グラフィックスで作成された画像を画像
シミュレーションで扱えるデータに変換するため、マス
ク画像を作成してマスクの属性と共に保存しておくの
で、画像シミュレーションを動作させているコンピュー
タで即座に利用して自然画像との合成画像を作ることが
できる。また、自然画像からは値の抽出が難しいとされ
ていた物体の形状や光源の性質についても、データ変換
において正確な値を求めて記録することで、従来の画像
シミュレーションでは実現できなかった物体の向きの変
更や物体面に合わせた画像のマッピングが可能となる。
さらに、文字や模様デザインについてもマスク画像を作
り、画像シミュレーションで扱えるデータに変換して保
存することで、自然画像と組み合わせることができ、文
字や柄のバリエーションを画像シミュレーションによっ
て変更する処理が可能になる。
【図1】本発明をCG画像と自然画像の合成を行なう画
像シミュレーションシステムに適用した場合の1実施例
を示す処理手順の説明図である。
像シミュレーションシステムに適用した場合の1実施例
を示す処理手順の説明図である。
【図2】CG画像を作る際に画像シミュレーション用の
データ変換を行なうデータ変換部の処理内容を示すフロ
ーチャートである。
データ変換を行なうデータ変換部の処理内容を示すフロ
ーチャートである。
【図3】データ変換によって作成され、記憶部に保存さ
れる基本データの構成要素を示す説明図である。
れる基本データの構成要素を示す説明図である。
【図4】CGの形状モデルからマスク画像を作成する処
理の説明図である。
理の説明図である。
【図5】画像合成を行なう画像シミュレーションにおい
て、ガラス等の半透明処理を行なうためにデータ変換部
によって作成され、記憶部に保存されるデータを示す図
である。
て、ガラス等の半透明処理を行なうためにデータ変換部
によって作成され、記憶部に保存されるデータを示す図
である。
【図6】図5のデータを用いた画像シミュレーションに
おいて、ガラスの後ろにある物体が透けてみえる効果を
示す説明図である。
おいて、ガラスの後ろにある物体が透けてみえる効果を
示す説明図である。
【図7】画像合成を行なう画像シミュレーションにおい
て、窓ガラスの後に物体を合成する半透明処理を行なう
ためにデータ変換部によって作成され、記憶部に保存さ
れるデータを示す図である。
て、窓ガラスの後に物体を合成する半透明処理を行なう
ためにデータ変換部によって作成され、記憶部に保存さ
れるデータを示す図である。
【図8】図7のデータを用いた画像シミュレーションに
おいて、窓ガラスと室内の間に他の物体を置く効果を示
す説明図である。
おいて、窓ガラスと室内の間に他の物体を置く効果を示
す説明図である。
【図9】画像中に映っている物体の大きさを保存するこ
とで、重畳合成する際のサイズを自動的に決める効果を
示す説明図である。
とで、重畳合成する際のサイズを自動的に決める効果を
示す説明図である。
【図10】画像のセグメンテーションにおいて、物体面
の傾きによって領域分割したマスク画像とマスク属性テ
ーブルを示す図である。
の傾きによって領域分割したマスク画像とマスク属性テ
ーブルを示す図である。
【図11】CG画像中の物体面に画像をテクスチャマッ
ピングする処理、及び、物体の向きを変更する処理を示
すフローチャートである。
ピングする処理、及び、物体の向きを変更する処理を示
すフローチャートである。
【図12】色彩を変更する画像シミュレーションを行な
うためのデータ変換を説明する図である。
うためのデータ変換を説明する図である。
【図13】CG画像以外のデータを画像シミュレーショ
ンに利用する場合のデータ変換のフローチャートを示す
図である。
ンに利用する場合のデータ変換のフローチャートを示す
図である。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 瀧澤 由里 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内
Claims (11)
- 【請求項1】 コンピュータ内に用意された形状モデル
を基にコンピュータ・グラフィックスによりコンピュー
タ・グラフィックス画像を作成する際、該作成と同時に
前記形状モデルを投影面に投影し、投影されたモデルの
領域とモデル外の領域とに異なるマスク番号を書き込ん
だ画像を作成して該画像をマスク画像として保存し、こ
のマスク画像を用いてコンピュータ・グラフィックス画
像から所望の画像だけを切り抜くことにより、該切り抜
いた画像と自然画などの異なる画像との組合せ合成を行
なうことを特徴とする画像シミュレーション方法。 - 【請求項2】 請求項1記載の画像シミュレーション方
法において、前記モデルの領域をさらに表面情報を基に
透過の種類や透過率により分類し、該分類した領域に異
なるマスク番号を書き込みマスク画像を作成して保存
し、同時にマスク画像の属性情報として透過の種類や透
過率を記述したデータテーブルを作成して保存し、自然
画像など異なる画像との組合せ合成時に、前記マスク画
像を用いてコンピュータ・グラフィックス画像の一部を
切り抜き、前記属性情報に基づいて透明処理を行なうこ
とを特徴とする画像シミュレーション方法。 - 【請求項3】 請求項2記載の画像シミュレーション方
法において、コンピュータ・グラフィックス画像の中に
半透明な領域が含まれているとき、透明な部分を取り除
いた画像とその画像に対するマスク画像を作成して保存
すると共に、透明部分の画像とその画像に対するマスク
画像を作成して保存し、それぞれのマスク画像につい
て、透過の種類や透過率を記述するデータテーブルを作
成し、これら2組の画像、マスク画像、およびデータテ
ーブルのうち、透明部分を含まない組と別に用意した画
像の合成を初めに行い、次にその合成画像と透明部分を
含む組を合成することで、透明部のある物体の内部に他
の画像を合成することを特徴とする画像シミュレーショ
ン方法。 - 【請求項4】 請求項1記載の画像シミュレーション方
法において、前記形状モデルが実長を有する場合、作成
されたコンピュータ・グラフィックス画像の実際の大き
さを記述するスケールを保存し、スケールを持った他の
画像との組合せ時に、これらスケールに基づき適切な重
畳サイズを求め重畳合成を行うことを特徴とする画像シ
ミュレーション方法。 - 【請求項5】 請求項1記載の画像シミュレーション方
法において、前記コンピュータ・グラフィックスにより
作成した多面体物体の画像を、前記形状モデルを基に面
ごとに分割し、この分割に従ってマスク画像を作成、保
存すると共に、該マスク画像に対応した法線を保存して
おくことにより、物体表面への画像のテクスチャマッピ
ングを画像の幾何変換によって行なうことを特徴とする
画像シミュレーション方法。 - 【請求項6】 請求項5記載の画像シミュレーション方
法において、マスク画像と法線を保存する処理におい
て、画像中の物体の向きを変更したときの各面の法線を
入力、保存し、物体の向きの微少な変更を前記保存処理
された情報を基に各面の幾何変換によって行なうことを
特徴とする画像シミュレーション方法。 - 【請求項7】 コンピュータ内に持った形状モデルを基
にコンピュータ・グラフィックスによりコンピュータ・
グラフィックス画像を作成する際、光源の色と物体の鏡
面反射率から光源色ベクトルを求め、光源色ベクトル
と、光源と物体表面と視点のなす角度等とから光源色成
分を計算し、光源の色と拡散反射率から物体色ベクトル
を求め、物体色ベクトルと、光源と物体表面のなす角度
等とから物体色成分を計算し、直接光源以外からの光の
入射を環境色成分として求め、さらにこれらを纏めて成
分分解画像を作成して保存しておき、物体色ベクトルを
変更することによって物体色の変更を行なうことを特徴
とする画像シミュレーション方法。 - 【請求項8】 請求項7記載の画像シミュレーション方
法において、物体色ベクトルに代えて、光源色ベクトル
を変更することによって、光源色の変更を行なうことを
特徴とする画像シミュレーション方法。 - 【請求項9】 請求項7記載の画像シミュレーション方
法において、物体色成分を保存する代わりに、拡散反射
率とその他の成分に分離した値を保存し、拡散反射率を
変更することにより物体色成分を再度計算して変更し物
体の質感を変更することを特徴とする画像シミュレーシ
ョン方法。 - 【請求項10】 請求項7記載の画像シミュレーション
方法において、光源色成分を保存する代わりに、鏡面反
射率とその他の成分に分離した値を保存し、鏡面反射率
を変更することにより光源色成分を再度計算して変更し
物体の光沢を変更することを特徴とする画像シミュレー
ション方法。 - 【請求項11】 文字や柄のアウトラインデータや線画
のベクトルデータ等を入力して画像化すると共に画像シ
ミュレーションに必要となる性質により領域分割してマ
スク画像を作成、保存し、該マスク画像の属性を記述す
るデータテーブルを作成、保存し、文字や模様の画像か
ら文字等の一部もしくは全部を抜き出すことにより、自
然画やCG画像など異なる画像との組合せ合成を行なう
ことを特徴とする画像シミュレーション方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5034721A JPH06231275A (ja) | 1993-01-29 | 1993-01-29 | 画像シミュレーション方法 |
US08/186,312 US5594850A (en) | 1993-01-29 | 1994-01-25 | Image simulation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5034721A JPH06231275A (ja) | 1993-01-29 | 1993-01-29 | 画像シミュレーション方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH06231275A true JPH06231275A (ja) | 1994-08-19 |
Family
ID=12422197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5034721A Pending JPH06231275A (ja) | 1993-01-29 | 1993-01-29 | 画像シミュレーション方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US5594850A (ja) |
JP (1) | JPH06231275A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000067265A (ja) * | 1998-08-25 | 2000-03-03 | Canon Inc | 画像処理装置およびその方法 |
US6429874B1 (en) | 1997-01-17 | 2002-08-06 | Namco Ltd. | Image generating apparatus and method |
JP2002222431A (ja) * | 2001-01-29 | 2002-08-09 | Namco Ltd | 画像生成システム、プログラム及び情報記憶媒体 |
JP2003058878A (ja) * | 2001-08-17 | 2003-02-28 | Ricoh Co Ltd | 合成画像形成プログラム |
WO2006126546A1 (ja) * | 2005-05-25 | 2006-11-30 | Vodafone K.K. | オブジェクト出力方法及び情報処理装置 |
JP2016043862A (ja) * | 2014-08-26 | 2016-04-04 | 矢崎総業株式会社 | 車両用表示装置 |
Families Citing this family (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19516090C2 (de) * | 1995-05-03 | 1997-03-06 | Vdo Luftfahrtgeraete Werk Gmbh | Verfahren zur Darstellung von Objekten mit Hilfe einer Bildwiedergabeeinrichtung |
IL112940A (en) * | 1995-03-08 | 1998-01-04 | Simtech Advanced Training & Si | Apparatus and method for simulating a terrain and objects thereabove |
JP3166896B2 (ja) * | 1995-04-21 | 2001-05-14 | インターナショナル・ビジネス・マシーンズ・コーポレ−ション | 画面上に表示された編集対象を選択する方法及び装置 |
JP3960626B2 (ja) * | 1995-08-04 | 2007-08-15 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴイ | 画像情報送信方法、情報担体、画像情報受信装置及び画像情報送信装置 |
US5706416A (en) * | 1995-11-13 | 1998-01-06 | Massachusetts Institute Of Technology | Method and apparatus for relating and combining multiple images of the same scene or object(s) |
US5870100A (en) * | 1995-11-22 | 1999-02-09 | Compaq Computer Corporation | Filling of graphical regions |
US5847710A (en) * | 1995-11-24 | 1998-12-08 | Imax Corp. | Method and apparatus for creating three dimensional drawings |
US5977986A (en) * | 1995-12-06 | 1999-11-02 | Intel Corporation | Image encoding for faster decoding |
US5781198A (en) * | 1995-12-22 | 1998-07-14 | Intel Corporation | Method and apparatus for replacing a background portion of an image |
JPH09269999A (ja) * | 1996-01-31 | 1997-10-14 | Fuji Photo Film Co Ltd | 画像合成装置および方法 |
US5877768A (en) | 1996-06-19 | 1999-03-02 | Object Technology Licensing Corp. | Method and system using a sorting table to order 2D shapes and 2D projections of 3D shapes for rendering a composite drawing |
US6822756B1 (en) * | 1996-07-29 | 2004-11-23 | Eastman Kodak Company | Method of combining two digital images |
US5963214A (en) * | 1996-07-29 | 1999-10-05 | Eastman Kodak Company | Method of combining two digital images |
US6483521B1 (en) * | 1998-02-02 | 2002-11-19 | Matsushita Electric Industrial Co., Ltd. | Image composition method, image composition apparatus, and data recording media |
US6912311B2 (en) * | 1998-06-30 | 2005-06-28 | Flashpoint Technology, Inc. | Creation and use of complex image templates |
JP2000172826A (ja) * | 1998-12-02 | 2000-06-23 | Minolta Co Ltd | 画像合成装置 |
US20040205483A1 (en) * | 1999-03-01 | 2004-10-14 | Yefim Massarsky | Method of simulating the creation of an artist's drawing or painting and device for accomplishing same |
EP1256100A2 (en) * | 1999-05-07 | 2002-11-13 | Bancshares Capital, LP | Component imagery system for image retrieval and composition |
US6533175B1 (en) * | 1999-05-28 | 2003-03-18 | Barcode Graphic Inc. | Automatic compliance-testing system for desktop designed consumer packaging |
US6728648B1 (en) * | 1999-09-24 | 2004-04-27 | Tektronix, Inc. | Test and measurement instrument having telecommunications mask testing capability with an autofit to mask feature |
US7466313B2 (en) * | 1999-12-24 | 2008-12-16 | Hewlett-Packard Development Company, L.P. | Method for interactive construction of virtual 3D models |
JP2001197366A (ja) * | 2000-01-12 | 2001-07-19 | Hitachi Ltd | 画像合成方法及び画像合成プログラムを記録した記録媒体 |
US6678070B1 (en) * | 2000-01-26 | 2004-01-13 | Hewlett-Packard Development Company, L.P. | System for producing photo layouts to match existing mattes using distance information in only one axis |
US6373591B1 (en) * | 2000-01-26 | 2002-04-16 | Hewlett-Packard Company | System for producing photo layouts to match existing mattes |
US7391929B2 (en) | 2000-02-11 | 2008-06-24 | Sony Corporation | Masking tool |
US7027663B2 (en) * | 2000-02-11 | 2006-04-11 | Sony Corporation | Masking tool |
JP4541482B2 (ja) * | 2000-02-29 | 2010-09-08 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
JP2001269481A (ja) * | 2000-03-24 | 2001-10-02 | Konami Computer Entertainment Japan Inc | ゲームシステム、ゲームシステムにおける画像描画方法およびゲーム用プログラムが記憶されたコンピュータ読み取り可能な記録媒体 |
US6735347B1 (en) * | 2000-08-08 | 2004-05-11 | International Business Machines Corporation | Method and apparatus for text extraction from cut image |
US7003061B2 (en) * | 2000-12-21 | 2006-02-21 | Adobe Systems Incorporated | Image extraction from complex scenes in digital video |
EP1223762A1 (fr) * | 2000-12-28 | 2002-07-17 | Koninklijke Philips Electronics N.V. | Composition d'une image |
US20020094134A1 (en) * | 2001-01-12 | 2002-07-18 | Nafis Christopher Allen | Method and system for placing three-dimensional models |
JP4156322B2 (ja) * | 2002-09-27 | 2008-09-24 | 富士フイルム株式会社 | 画像処理方法および装置並びにプログラム |
JP4217100B2 (ja) * | 2003-04-17 | 2009-01-28 | 本田技研工業株式会社 | 画像合成方法、装置、およびプログラム、ならびに立体モデルのレンダリング方法、装置、およびプログラム |
EP1667470A4 (en) * | 2003-09-09 | 2006-10-25 | Seiko Epson Corp | DEVICE AND METHOD FOR PROCESSING IMAGES |
CN100452057C (zh) * | 2003-10-07 | 2009-01-14 | 睿初科技公司 | 用于平板印刷仿真的系统和方法 |
US7003758B2 (en) * | 2003-10-07 | 2006-02-21 | Brion Technologies, Inc. | System and method for lithography simulation |
US7430343B2 (en) * | 2004-05-28 | 2008-09-30 | Dee Sign Company | System and method for displaying images |
KR100643275B1 (ko) * | 2004-06-24 | 2006-11-10 | 삼성전자주식회사 | 배경 템플릿과 결합된 합성 이미지를 직접 프린팅하는방법 및 장치 |
US7456904B2 (en) * | 2005-09-22 | 2008-11-25 | Pelco, Inc. | Method and apparatus for superimposing characters on video |
US7477777B2 (en) * | 2005-10-28 | 2009-01-13 | Aepx Animation, Inc. | Automatic compositing of 3D objects in a still frame or series of frames |
US7692647B2 (en) * | 2006-09-14 | 2010-04-06 | Microsoft Corporation | Real-time rendering of realistic rain |
JP4858129B2 (ja) * | 2006-12-01 | 2012-01-18 | 富士ゼロックス株式会社 | 画像処理装置と画像形成システムおよびプログラム |
US8947452B1 (en) * | 2006-12-07 | 2015-02-03 | Disney Enterprises, Inc. | Mechanism for displaying visual clues to stacking order during a drag and drop operation |
JP2008164882A (ja) * | 2006-12-28 | 2008-07-17 | Nec Electronics Corp | 画像処理装置および画像処理方法 |
US8330730B1 (en) | 2007-09-04 | 2012-12-11 | Imaging Systems Technology, Inc. | Calibrating of interactive touch system for image compositing |
US8330771B2 (en) * | 2008-09-10 | 2012-12-11 | Kabushiki Kaisha Toshiba | Projection display device and control method thereof |
JP2010183317A (ja) * | 2009-02-05 | 2010-08-19 | Olympus Imaging Corp | 撮像装置、画像合成表示装置、画像合成表示方法、およびプログラム |
US9563815B2 (en) * | 2009-09-15 | 2017-02-07 | Tandent Vision Science, Inc. | Method and system for processing an image received from a remote source |
US20110305397A1 (en) * | 2010-03-08 | 2011-12-15 | Robinson Piramuthu | Systems and methods for retargeting an image utilizing a saliency map |
CN103003843B (zh) * | 2010-05-28 | 2016-08-03 | 高通股份有限公司 | 用于跟踪具有动态变化部分的目标的数据集创建 |
JP5652097B2 (ja) * | 2010-10-01 | 2015-01-14 | ソニー株式会社 | 画像処理装置、プログラム及び画像処理方法 |
US9070314B2 (en) | 2012-06-05 | 2015-06-30 | Apple Inc. | Method, system and apparatus for rendering a map according to texture masks |
JP5762600B1 (ja) * | 2014-06-06 | 2015-08-12 | キヤノン株式会社 | 情報処理装置及び情報処理方法 |
JP6705242B2 (ja) * | 2015-08-05 | 2020-06-03 | 株式会社リコー | 画像処理装置、画像処理方法及び画像処理プログラム |
US10255703B2 (en) | 2015-12-18 | 2019-04-09 | Ebay Inc. | Original image generation system |
US11254152B2 (en) * | 2017-09-15 | 2022-02-22 | Kamran Deljou | Printed frame image on artwork |
US11776184B2 (en) * | 2020-10-18 | 2023-10-03 | Adobe, Inc. | Sky replacement |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4685070A (en) * | 1984-08-03 | 1987-08-04 | Texas Instruments Incorporated | System and method for displaying, and interactively excavating and examining a three dimensional volume |
US5299301A (en) * | 1987-07-10 | 1994-03-29 | Hitachi, Ltd. | Image displaying method and apparatus |
US5265214A (en) * | 1987-08-28 | 1993-11-23 | Daikin Industries, Ltd. | Filling processing apparatus and method |
US5379371A (en) * | 1987-10-09 | 1995-01-03 | Hitachi, Ltd. | Displaying method and apparatus for three-dimensional computer graphics |
US5313227A (en) * | 1988-04-15 | 1994-05-17 | International Business Machines Corporation | Graphic display system capable of cutting out partial images |
US5317678A (en) * | 1989-03-15 | 1994-05-31 | Hitachi, Ltd. | Method for changing color of displayed images by use of color components |
US5247610A (en) * | 1989-03-17 | 1993-09-21 | Hitachi, Ltd. | Method and apparatus for generating graphics |
US5289568A (en) * | 1989-09-18 | 1994-02-22 | Hitachi, Ltd. | Apparatus and method for drawing figures |
JP2951980B2 (ja) * | 1989-10-17 | 1999-09-20 | 川崎重工業株式会社 | シールド掘進機を用いるトンネル連結方法 |
JPH03279263A (ja) * | 1990-03-27 | 1991-12-10 | Toyo Alum Kk | 窒化アルミニウム粉末の製造方法 |
US5377314A (en) * | 1992-12-21 | 1994-12-27 | International Business Machines Corporation | Method and system for selective display of overlapping graphic objects in a data processing system |
-
1993
- 1993-01-29 JP JP5034721A patent/JPH06231275A/ja active Pending
-
1994
- 1994-01-25 US US08/186,312 patent/US5594850A/en not_active Expired - Fee Related
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6429874B1 (en) | 1997-01-17 | 2002-08-06 | Namco Ltd. | Image generating apparatus and method |
WO2004093016A1 (ja) * | 1997-01-17 | 2004-10-28 | Katsuhiro Miura | 画像生成装置及び画像生成方法 |
JP2000067265A (ja) * | 1998-08-25 | 2000-03-03 | Canon Inc | 画像処理装置およびその方法 |
JP2002222431A (ja) * | 2001-01-29 | 2002-08-09 | Namco Ltd | 画像生成システム、プログラム及び情報記憶媒体 |
JP4651204B2 (ja) * | 2001-01-29 | 2011-03-16 | 株式会社バンダイナムコゲームス | 画像生成システム、プログラム及び情報記憶媒体 |
JP2003058878A (ja) * | 2001-08-17 | 2003-02-28 | Ricoh Co Ltd | 合成画像形成プログラム |
WO2006126546A1 (ja) * | 2005-05-25 | 2006-11-30 | Vodafone K.K. | オブジェクト出力方法及び情報処理装置 |
US8290299B2 (en) | 2005-05-25 | 2012-10-16 | Vodafone Group Plc | Object outputting method and information processing apparatus |
JP2016043862A (ja) * | 2014-08-26 | 2016-04-04 | 矢崎総業株式会社 | 車両用表示装置 |
Also Published As
Publication number | Publication date |
---|---|
US5594850A (en) | 1997-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH06231275A (ja) | 画像シミュレーション方法 | |
KR970003325B1 (ko) | 화소 영상 렌더링 방법 및 컴퓨터 그래픽 디스플레이 시스템 | |
El-Hakim et al. | A multi-sensor approach to creating accurate virtual environments | |
US5745666A (en) | Resolution-independent method for displaying a three-dimensional model in two-dimensional display space | |
US5995110A (en) | Method and system for the placement of texture on three-dimensional objects | |
JPH0757117A (ja) | テクスチャマップへの索引を生成する方法及びコンピュータ制御表示システム | |
US6731298B1 (en) | System, method and article of manufacture for z-texture mapping | |
JPH05507166A (ja) | イメージ発生装置 | |
JP3626144B2 (ja) | 立体オブジェクトデータからの漫画的表現の2次元画像の生成方法および生成プログラム | |
US20090153555A1 (en) | System and Computer-Implemented Method for Modeling the Three-Dimensional Shape of An Object by Shading of a Two-Dimensional Image of the Object | |
Van Wijk | Ray tracing objects defined by sweeping planar cubic splines | |
Yau et al. | A Texture Mapping Approach to 3‐D Facial Image Synthesis | |
KR910009102B1 (ko) | 화상합성 장치 | |
JP2938739B2 (ja) | 動画像処理装置 | |
CN117437345B (zh) | 基于三维引擎实现渲染纹理镜面反射效果的方法及系统 | |
JP2832463B2 (ja) | 3次元モデルの再構成方法および表示方法 | |
JP2973413B2 (ja) | コンピュータグラフィックスの照度計算方法及び表示装置 | |
JPH05298460A (ja) | 貝殻質感表現装置 | |
JPH09185712A (ja) | 三次元画像データ作成方法 | |
JP3261832B2 (ja) | 画像生成装置 | |
JPH0345427B2 (ja) | ||
JPS63237172A (ja) | カラ−画像の色変更方法及び装置 | |
JPH06259571A (ja) | 画像合成装置 | |
JP2786261B2 (ja) | 色彩画像処理方法 | |
Jansen et al. | Previewing techniques in raster graphics |