JP3235151B2 - Image simulation method - Google Patents

Image simulation method

Info

Publication number
JP3235151B2
JP3235151B2 JP33816791A JP33816791A JP3235151B2 JP 3235151 B2 JP3235151 B2 JP 3235151B2 JP 33816791 A JP33816791 A JP 33816791A JP 33816791 A JP33816791 A JP 33816791A JP 3235151 B2 JP3235151 B2 JP 3235151B2
Authority
JP
Japan
Prior art keywords
image
color
vector
pixel
color vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP33816791A
Other languages
Japanese (ja)
Other versions
JPH05174116A (en
Inventor
豊久 森田
由里 瀧澤
誠 加藤
伸一郎 宮岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP33816791A priority Critical patent/JP3235151B2/en
Priority to US07/964,293 priority patent/US5537638A/en
Publication of JPH05174116A publication Critical patent/JPH05174116A/en
Application granted granted Critical
Publication of JP3235151B2 publication Critical patent/JP3235151B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、カラーまたは白黒の濃
淡画像に対して、高品質な画像のシミュレーションを行
う方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for simulating a high-quality image of a color or monochrome gray image.

【0002】[0002]

【従来の技術】計算機に画像をデータとして読み込み、
画像処理技術を利用して特定領域の色や柄を変更し、あ
たかも別のシーンを表す画像であるかのような効果を得
る画像シミュレーションの技術がデザインやプレゼンテ
ーションの現場で必要とされてきている。
2. Description of the Related Art An image is read into a computer as data.
An image simulation technology that changes the color and pattern of a specific area by using image processing technology and obtains an effect as if it is an image representing another scene is required at the design and presentation site. .

【0003】その際に、特開昭63−293676号公
報(以下、公知例1という)に記載されているように、
入力したカラー画像を輝度成分と色成分に分離して、こ
の内、少なくとも色成分に対して演算処理を施し、これ
を輝度成分と合成して出力することによって、画像内の
物体に本来存在する陰影等を反映したシミュレーション
が可能となる。
At that time, as described in JP-A-63-293676 (hereinafter referred to as known example 1),
The input color image is separated into a luminance component and a color component, arithmetic processing is performed on at least the color component, and the resultant is synthesized with the luminance component and output. Simulations that reflect shadows and the like can be performed.

【0004】また、特開昭63−237172号公報
(以下、公知例2という)や、特開平3−41570号
公報(以下、公知例3という)に記載されているよう
に、入力したカラー画像の特定領域の画素の色ベクトル
から、その領域の物体色ベクトルや光源色ベクトル等を
抽出し、その領域内のすべての画素について、色ベクト
ルを物体色ベクトルや光源色ベクトル等のベクトルの線
形結合で表現し、物体色ベクトルや光源色ベクトル等を
変更して色ベクトルを再構成することによって、陰影や
照り返しの部分も含めた高品質なシミュレーションが可
能となる。
Further, as described in JP-A-63-237172 (hereinafter referred to as Known Example 2) and JP-A-3-41570 (hereinafter referred to as Known Example 3), a color image inputted is disclosed. Extract the object color vector, light source color vector, etc. of the region from the color vector of the pixel of the specific region, and linearly combine the color vectors of the object color vector, the light source color vector, etc., for all the pixels in the region. By reconstructing the color vector by changing the object color vector, the light source color vector, and the like, it is possible to perform a high-quality simulation including a shadow and a reflected portion.

【0005】[0005]

【発明が解決しようとする課題】上記従来の技術におい
ては、次のような課題がある。
The above prior art has the following problems.

【0006】(1)カラー画像を輝度成分と色成分に分
離して、色成分を変更し、再び輝度成分と合成すると、
元の画像が本来持っているテクスチャが輝度成分に受け
継がれ、それが最終的な合成画像にも反映してしまう。
元のテクスチャをも合成画像に反映させたいという意図
があるアプリケーションにはこの手法は有効であるが、
元の画像の細かいテクスチャを別のテクスチャに変更し
て、元の画像からは陰影等の情報のみを結果に反映させ
たいという必要には応えることができない。ここで陰影
等の情報とは、画像が表している物体にあたる光線が遮
られるなどして弱められるシャドウや、その光線と物体
表面とのなす角度によって受ける光の量が変わることに
よるシェードによって物体表面に生じた明るさの分布及
び、光線が物体を透過するときに屈折したり、物体にあ
たって散乱することによって、本来シャープな光線が広
がりを持つことによって光線の強さが不均一に分布する
ことに起因する、明るさの分布を指す。
(1) When a color image is separated into a luminance component and a color component, the color component is changed, and the color image is synthesized with the luminance component again,
The texture originally contained in the original image is inherited by the luminance component, and this is reflected in the final composite image.
This method is effective for applications that intend to reflect the original texture in the composite image,
It is not possible to meet the need to change the fine texture of the original image to another texture and to reflect only information such as shadows on the result from the original image. Here, information such as shadows refers to shadows that are weakened by blocking light rays corresponding to the object represented by the image, and shades caused by changes in the amount of light received depending on the angle between the light rays and the object surface. The distribution of brightness that occurs and the fact that light rays are refracted when passing through an object or scattered on an object, causing the intensity of light rays to be unevenly distributed due to the spread of sharp rays originally The resulting distribution of brightness.

【0007】(2)陰影等の情報の反映を輝度成分の参
照に限定してしまうと、次のような問題が生じる。
(2) If the reflection of information such as shadows is limited to reference to luminance components, the following problem occurs.

【0008】(2−1)陰影等の情報とは独立である物
体色の情報をも陰影等の情報としてシミュレーションの
際に含めてしまうおそれがあり、忠実な陰影等の情報の
再現ができない。
(2-1) There is a possibility that information of an object color, which is independent of information such as shadows, may be included in the simulation as information such as shadows, so that it is impossible to faithfully reproduce information such as shadows.

【0009】(2−2)光源色の情報が得られないた
め、異なる色の光源による陰影等の違いを忠実には再現
できない。
(2-2) Since information on the color of the light source cannot be obtained, it is impossible to faithfully reproduce differences in shadows and the like caused by light sources of different colors.

【0010】(3)画像を輝度成分と色成分に分離し
て、色成分を変更し、再び輝度成分と合成するというシ
ミュレーション手法の、白黒画像への適用は、白黒画像
が輝度成分そのものであるため、輝度成分以外の情報が
抽出できないので、実現が不可能である。
(3) The application of a simulation method of separating an image into a luminance component and a color component, changing the color component, and synthesizing the color component again with the luminance component is applied to a black-and-white image. Therefore, since information other than the luminance component cannot be extracted, it is impossible to realize the information.

【0011】(4)入力したカラー画像の特定領域の画
素の色ベクトルから、その領域の物体色ベクトルや光源
色ベクトル等を抽出し、その領域内のすべての画素につ
いて、色ベクトルを物体色ベクトルや光源色ベクトル等
のベクトルの線形結合で表現し、物体色ベクトルや光源
色ベクトル等を変更して色ベクトルを再構成することに
よって画像のシミュレーションを行う方法では、対象と
している領域に対して唯一の物体色ベクトルを与えるた
めに、単一色ではないテクスチャに変更するようなシミ
ュレーションができない。
(4) An object color vector, a light source color vector, and the like of a specific area of the input color image are extracted from the color vector of the pixel, and the color vector is converted to the object color vector for all the pixels in the area. In the method of simulating an image by expressing by a linear combination of vectors such as light source color vector and light source color vector and changing the object color vector and light source color vector etc. and reconstructing the color vector, only the target area is To give a non-single color texture to give the object color vector of

【0012】(5)対象としている領域が唯一の物体色
を持つという条件が満たされないとベクトルの抽出がで
きないので、単一色ではないテクスチャを含む領域を対
象としてシミュレーションを行うことができない。
(5) If the condition that the target region has only one object color is not satisfied, the vector cannot be extracted, so that the simulation cannot be performed on the region including the texture that is not a single color.

【0013】本発明の第1の目的は、カラーまたは白黒
の濃淡画像内のある領域の色やテクスチャを変更する画
像シミュレーションを行う際に、元の画像内の細かいテ
クスチャの影響は無視して、陰影等の変化を反映できる
画像シミュレーション方法を提供することにある。
A first object of the present invention is to perform an image simulation for changing the color or texture of a certain area in a color or monochrome grayscale image, ignoring the influence of fine textures in the original image. An object of the present invention is to provide an image simulation method capable of reflecting a change such as a shadow.

【0014】本発明の第2の目的は、カラーまたは白黒
の濃淡画像内のある領域の色やテクスチャを、元の画像
内の陰影等を反映させながら変更する画像シミュレーシ
ョンを行う際に、物体色に影響されずに、陰影等を忠実
に再現できる画像シミュレーション方法を提供すること
にある。
A second object of the present invention is to provide an object simulation for changing the color or texture of a certain area in a color or black-and-white gray image while reflecting a shadow or the like in the original image. An object of the present invention is to provide an image simulation method capable of faithfully reproducing a shadow or the like without being affected by the image.

【0015】本発明の第3の目的は、カラーの濃淡画像
内のある領域の色やテクスチャを、元の画像内の陰影等
を反映させながら変更する画像シミュレーションを行う
際に、光源色の違いを忠実に再現できる画像シミュレー
ション方法を提供することにある。
A third object of the present invention is to provide an image simulation for changing the color and texture of a certain area in a color grayscale image while reflecting the shadows and the like in the original image, and to determine the difference between the light source colors. Is to provide an image simulation method that can faithfully reproduce the image.

【0016】本発明の第4の目的は、カラーの濃淡画像
内の特定の領域を、元の画像の陰影等や照り返しを反映
させながら、単一色ではないテクスチャに変更する画像
シミュレーション方法を提供することにある。
A fourth object of the present invention is to provide an image simulation method for changing a specific area in a color grayscale image to a texture that is not a single color while reflecting a shadow or the like or a reflection of the original image. It is in.

【0017】本発明の第5の目的は、カラーの濃淡画像
内の単一色ではないテクスチャを含む領域を、元の画像
の陰影等や照り返しを反映させながら変更する画像シミ
ュレーション方法を提供することにある。
A fifth object of the present invention is to provide an image simulation method for changing a region including a texture which is not a single color in a color gradation image while reflecting a shadow or the like or a reflection of the original image. is there.

【0018】[0018]

【課題を解決するための手段】本発明では、上記第1の
目的を達成するために、元の画像のシミュレーションの
対象となる領域の標準色ベクトルを定めて、さらに、前
記領域内のすべての画素について、その近傍で色ベクト
ルの平均を計算して、これと前記標準色ベクトルとの成
分ごとの比を画素ごとに計算し、この比を画像シミュレ
ーションの際に、陰影等の情報として用いる。また、カ
ラー画像と同様に白黒画像に対しても適用できるよう
に、陰影等の情報を色ベクトルの輝度ではなく、色ベク
トルと標準色ベクトルとの成分の比の形で表したもので
ある。ここで、標準色ベクトルとは、対象となる領域と
同様な色ベクトルの分布を持ち、かつ、十分に光があた
っていて陰影等がないと考えられる部分を代表する色ベ
クトルを指す。
According to the present invention, in order to achieve the first object, a standard color vector of an area to be simulated for an original image is determined, and further, all standard colors in the area are defined. For a pixel, the average of the color vectors is calculated in the vicinity thereof, and the ratio of this component to the standard color vector for each pixel is calculated for each pixel, and this ratio is used as information such as shading in image simulation. In addition, information such as shadows is expressed not in the luminance of a color vector but in the form of a ratio of components of a color vector and a standard color vector so that the information can be applied to a monochrome image as well as a color image. Here, the standard color vector refers to a color vector that has a distribution of color vectors similar to that of the target region, and represents a portion that is sufficiently illuminated and is considered to have no shadow or the like.

【0019】上記第2の目的を達成するために、陰影等
の情報を色ベクトルの輝度ではなく、色ベクトルと標準
色ベクトルとの成分の比の形で表したものである。
In order to achieve the second object, information such as shadows is represented not by the luminance of the color vector but by the ratio of the components of the color vector and the standard color vector.

【0020】上記第3の目的を達成するために、陰影等
の情報をカラーモデルの独立な3成分で表す。
In order to achieve the third object, information such as shadows is represented by three independent components of a color model.

【0021】上記第4の目的を達成するために、カラー
の濃淡画像内の特定の領域を、元の画像の陰影等や照り
返しを反映させながら変更する画像シミュレーションを
行う際、変更後の物体色を領域内で単一色とせず、画素
により異なる色ベクトルをとれるようにした。
In order to achieve the fourth object, when performing an image simulation for changing a specific area in a color gray-scale image while reflecting shading or the like of the original image or reflection, the object color after the change is changed. Is not made a single color in the region, but a different color vector can be obtained for each pixel.

【0022】さらに、上記第5の目的を達成するため
に、カラーの濃淡画像内の単一色ではないテクスチャを
含む領域を、元の画像の陰影等や照り返しを反映させな
がら変更する画像シミュレーションを行う際、元の画像
に対して予め平均化処理を行う。
Further, in order to achieve the fifth object, an image simulation is performed in which a region including a texture which is not a single color in a grayscale image of a color is changed while reflecting a shadow or the like or a reflection of the original image. At this time, an averaging process is performed on the original image in advance.

【0023】[0023]

【作用】本発明によれば、元の画像のシミュレーション
の対象となる領域の標準色ベクトルを定めて、さらに、
前記領域内のすべての画素について、その近傍で色ベク
トルの平均を計算して、これと前記標準色ベクトルとの
成分ごとの比を画素ごとに計算するので、前記領域の表
している物体表面の細かいテクスチャは平均によりキャ
ンセルされて、そのテクスチャとは独立な陰影等の影響
を抽出できるので、これにより、元の画像内の細かいテ
クスチャの影響を無視し、陰影等を反映した画像シミュ
レーションが可能となる。
According to the present invention, a standard color vector of a region to be simulated for an original image is determined, and
For all the pixels in the region, the average of the color vector is calculated in the vicinity thereof, and the ratio of each of the components to the standard color vector is calculated for each pixel. Fine textures are canceled by averaging, and the effects of shadows and the like that are independent of the textures can be extracted.Thus, it is possible to ignore the effects of the fine textures in the original image and perform image simulation that reflects the shadows and the like. Become.

【0024】以下に、その作用につき詳しく述べる。Hereinafter, the operation will be described in detail.

【0025】対象となる画像をカラー画像とし、RGB
のカラーモデルで考える。一般に、画像内の画素P
(x,y)の色ベクトルをC(x,y)とすると、C
(x,y)は数1のように表される。
The target image is a color image, and RGB
Think of the color model. Generally, a pixel P in an image
If the color vector of (x, y) is C (x, y), C
(X, y) is expressed as in Equation 1.

【0026】[0026]

【数1】 (Equation 1)

【0027】ここで、R(x,y)、G(x,y)、及
びB(x,y)はそれぞれ、C(x,y)のR成分、G
成分、及びB成分を表すスカラ量である。
Here, R (x, y), G (x, y) and B (x, y) are the R component of C (x, y) and G (x, y), respectively.
It is a scalar quantity representing the component and the B component.

【0028】次に、対象となる領域の標準色ベクトルを
Coとする(数2)。
Next, let Co be the standard color vector of the target area (Equation 2).

【0029】[0029]

【数2】 (Equation 2)

【0030】ここで、Ro、Go、及びBoはそれぞ
れ、CoのR成分、G成分、及びB成分を表すスカラ量
である。
Here, Ro, Go, and Bo are scalar quantities representing the R, G, and B components of Co, respectively.

【0031】次に、シミュレーションの対象となる領域
内の画素P(x,y)の近傍で色ベクトルの平均をとる
際の、近傍の範囲を画素の集合ε(x,y)で表すこと
にする。また、ε(x,y)に含まれる画素の個数をN
(x,y)で表す。
Next, when averaging the color vectors in the vicinity of the pixel P (x, y) in the region to be simulated, the range of the vicinity is represented by a set of pixels ε (x, y). I do. Also, the number of pixels included in ε (x, y) is N
Expressed by (x, y).

【0032】このとき画素P(x,y)の近傍ε(x,
y)の色ベクトルの平均を、数3のベクトルCa(x,
y)で表す。
At this time, the neighborhood ε (x, x) of the pixel P (x, y)
The average of the color vectors of y) is calculated by the vector Ca (x,
y).

【0033】[0033]

【数3】 (Equation 3)

【0034】ここで、Ra(x,y)、Ga(x,
y)、及びBa(x,y)はそれぞれ、Ca(x,y)
のR成分、G成分、及びB成分を表すスカラ量である。
また、Ra(x,y)、Ga(x,y)、及びBa
(x,y)の各成分はそれぞれ数4、数5、及び数6で
表される。
Here, Ra (x, y), Ga (x,
y) and Ba (x, y) are Ca (x, y), respectively.
Is a scalar quantity representing the R component, the G component, and the B component.
Also, Ra (x, y), Ga (x, y), and Ba (x, y)
Each component of (x, y) is represented by Equations 4, 5, and 6, respectively.

【0035】[0035]

【数4】 (Equation 4)

【0036】[0036]

【数5】 (Equation 5)

【0037】[0037]

【数6】 (Equation 6)

【0038】ここで、iはx座標を表す指標で、jはy
座標を表す指標である。
Here, i is an index indicating the x coordinate, and j is y
This is an index representing coordinates.

【0039】次に、このベクトルCaと標準色ベクトル
Coとで成分ごとに比をとったものをベクトルF(x,
y)と置く(数7)。
Next, a vector F (x,
y) (Equation 7).

【0040】[0040]

【数7】 (Equation 7)

【0041】ここで、Rf(x,y)、Gf(x,
y)、及びBf(x,y)はそれぞれ、F(x,y)の
R成分、G成分、及びB成分を表すスカラ量である。ま
た、Rf(x,y)、Gf(x,y)、及びBf(x,
y)の各成分はそれぞれ数8、数9、及び数10で表さ
れる。
Here, Rf (x, y), Gf (x,
y) and Bf (x, y) are scalar quantities representing the R, G, and B components of F (x, y), respectively. Further, Rf (x, y), Gf (x, y), and Bf (x, y)
Each component of y) is represented by Expression 8, Expression 9, and Expression 10, respectively.

【0042】[0042]

【数8】 (Equation 8)

【0043】[0043]

【数9】 (Equation 9)

【0044】[0044]

【数10】 (Equation 10)

【0045】ここに、F(x,y)の各成分は、画素P
(x,y)の近傍での細かい色成分の変動をキャンセル
した平均的な色成分と、標準色ベクトルの対応する成分
との比の値となっている。したがって、対象となる領域
と同様な色ベクトルの分布を持ち、かつ、十分光が当た
っていて陰影等のない部分の近傍の平均的な色ベクトル
を標準色ベクトルとして設定すれば、F(x,y)の各
成分は、その位置でのその成分に関する陰影等の度合い
を示すことになる。
Here, each component of F (x, y) is represented by a pixel P
The ratio is a value of the ratio of the average color component in which the variation of the fine color component in the vicinity of (x, y) is canceled to the corresponding component of the standard color vector. Therefore, if an average color vector having a distribution of color vectors similar to that of the target region and near an area that is sufficiently illuminated and has no shadow or the like is set as a standard color vector, F (x, Each component of y) indicates the degree of shading or the like for that component at that position.

【0046】次に、この領域のすべてまたは一部の画素
の色ベクトルを変更した画像を生成するか、または外部
から入力することによって獲得する。
Next, an image in which the color vectors of all or some of the pixels in this area are changed is generated or obtained by inputting from outside.

【0047】この新しい画像の上記対象領域内の画素P
(x,y)の色ベクトルをCmとする(数11)。
The pixel P in the target area of the new image
Let the color vector of (x, y) be Cm (Equation 11).

【0048】[0048]

【数11】 [Equation 11]

【0049】ここで、Rm(x,y)、Gm(x,
y)、及びBm(x,y)はそれぞれ、Cm(x,y)
のR成分、G成分、及びB成分を表すスカラ量である。
Here, Rm (x, y) and Gm (x,
y) and Bm (x, y) are respectively Cm (x, y)
Is a scalar quantity representing the R component, the G component, and the B component.

【0050】ここで、この画素P(x,y)に上記陰影
等の情報を重畳させるには、その位置の陰影等の情報を
表す係数を成分ごとにCmにかければよい。シミュレー
ションを行った結果の色ベクトルをCr(x,y)(数
12)とする。
Here, in order to superimpose the information such as the shadow on the pixel P (x, y), a coefficient representing the information such as the shadow at that position may be applied to Cm for each component. The color vector as a result of the simulation is defined as Cr (x, y) (Equation 12).

【0051】[0051]

【数12】 (Equation 12)

【0052】ここで、Rr(x,y)、Gr(x,
y)、及びBr(x,y)はそれぞれ、Cr(x,y)
のR成分、G成分、及びB成分を表すスカラ量である。
Here, Rr (x, y) and Gr (x,
y) and Br (x, y) are Cr (x, y)
Is a scalar quantity representing the R component, the G component, and the B component.

【0053】このとき、Rr(x,y)、Gr(x,
y)、及びBr(x,y)の各成分はそれぞれ、数1
3、数14、及び数15で表される。
At this time, Rr (x, y), Gr (x,
y) and each component of Br (x, y) are given by
3, represented by Equation 14, and Equation 15.

【0054】[0054]

【数13】 (Equation 13)

【0055】[0055]

【数14】 [Equation 14]

【0056】[0056]

【数15】 (Equation 15)

【0057】以上によって、元の画像内の細かいテクス
チャの影響を無視し、陰影等を反映した画像シミュレー
ションが可能となる。
As described above, it is possible to perform an image simulation reflecting shadows and the like, ignoring the influence of fine textures in the original image.

【0058】また、本発明によれば、陰影等の情報を色
ベクトルの輝度ではなく、色ベクトルと標準色ベクトル
との成分の比の形で表すので、白黒の濃淡画像において
も、対象の領域で、その領域が表している物体色の情報
が陰影等の情報と分離できるので、それを変更すること
によりシミュレーションが可能となる。
Further, according to the present invention, information such as shadows is represented not by the luminance of the color vector but by the ratio of the components of the color vector and the standard color vector. Since the information of the object color represented by the area can be separated from the information such as the shadow, the simulation can be performed by changing the information.

【0059】以下に、その作用につき詳しく述べる。Hereinafter, the operation will be described in detail.

【0060】対象となる画像を白黒画像とする。The target image is a black and white image.

【0061】一般に、画像内の画素P(x,y)の濃度
値をg(x,y)とする。ここに、g(x,y)はスカ
ラ量である。
In general, the density value of a pixel P (x, y) in an image is g (x, y). Here, g (x, y) is a scalar quantity.

【0062】次に、対象となる領域の標準濃度値をgo
とする。ここで、goもまた、スカラ量である。
Next, the standard density value of the target area is set to go.
And Here, go is also a scalar quantity.

【0063】次に、シミュレーションの対象となる領域
内の画素P(x,y)の近傍で濃度値の平均をとる際
の、近傍の範囲を画素の集合ε(x,y)で表すことに
する。また、ε(x,y)に含まれる画素の個数をN
(x,y)で表す。
Next, when averaging the density values in the vicinity of the pixel P (x, y) in the region to be simulated, the vicinity range is represented by a set of pixels ε (x, y). I do. Also, the number of pixels included in ε (x, y) is N
Expressed by (x, y).

【0064】このとき画素P(x,y)の近傍ε(x,
y)の濃度値の平均を、ga(x,y)で表す。
At this time, the neighborhood ε (x, x) of the pixel P (x, y)
The average of the density values of y) is represented by ga (x, y).

【0065】ここで、ga(x,y)は、スカラ量であ
り、数16で表される。
Here, ga (x, y) is a scalar quantity and is represented by Expression 16.

【0066】[0066]

【数16】 (Equation 16)

【0067】ここで、iはx座標を表す指標で、jはy
座標を表す指標である。
Here, i is an index representing the x coordinate, and j is y
This is an index representing coordinates.

【0068】次に、このga(x,y)と標準濃度値g
oとの比をとったものをF(x,y)と置く(数1
7)。ここに、Fg(x,y)はスカラ量である。
Next, the ga (x, y) and the standard density g
The value obtained by taking the ratio with o is set as F (x, y) (Equation 1)
7). Here, Fg (x, y) is a scalar quantity.

【0069】[0069]

【数17】 [Equation 17]

【0070】ここに、Fg(x,y)は、画素P(x,
y)の近傍での細かい濃度値の変動をキャンセルした平
均的な濃度値と、標準濃度値との比の値となっている。
したがって、対象となる領域と同様なテクスチャを持
ち、かつ、十分光が当たっていて陰影等のない部分の近
傍の平均的な濃度値を標準濃度値として設定すれば、F
g(x,y)は、その位置での陰影等の度合いを示すこ
とになる。
Here, Fg (x, y) corresponds to pixel P (x, y).
The value is a ratio of an average density value in which fine density value fluctuations near y) are canceled to a standard density value.
Therefore, if the average density value in the vicinity of a portion that has the same texture as the target area and is sufficiently illuminated and has no shading or the like is set as the standard density value,
g (x, y) indicates the degree of shading or the like at that position.

【0071】次に、この領域のすべてまたは一部の画素
の濃度値を変更した画像を生成するか、または外部から
入力することによって獲得する。
Next, an image in which the density values of all or some of the pixels in this area are changed is generated or obtained by inputting from outside.

【0072】この新しい画像の上記対象領域内の画素P
(x,y)の濃度値をgmとする。ここに、gmはスカ
ラ量である。
The pixel P in the target area of this new image
Let the density value of (x, y) be gm. Here, gm is a scalar amount.

【0073】ここで、この画素P(x,y)に上記陰影
等の情報を重畳させるには、その位置の陰影等の情報を
表す係数をgm(x,y)にかければよい。シミュレー
ションを行った結果の濃度値をgr(x,y)とする
と、数18のように書ける。ここに、gr(x,y)は
スカラ量である。
Here, in order to superimpose the information such as the above-mentioned shadow on the pixel P (x, y), a coefficient representing the information such as the shadow at the position may be applied to gm (x, y). Assuming that the density value as a result of the simulation is gr (x, y), it can be written as in Expression 18. Here, gr (x, y) is a scalar quantity.

【0074】[0074]

【数18】 (Equation 18)

【0075】以上によって、白黒画像においても、元の
画像内の細かいテクスチャの影響を無視し、陰影等を反
映した画像シミュレーションが可能となる。
As described above, even in a black-and-white image, it is possible to perform an image simulation in which shadows and the like are reflected while ignoring the influence of fine textures in the original image.

【0076】また、上記白黒画像におけるシミュレーシ
ョンの方法は、上記カラー画像におけるシミュレーショ
ンの方法のカラーの成分の数を3から1に減じることと
等価である。
The simulation method for a monochrome image is equivalent to reducing the number of color components in the simulation method for a color image from three to one.

【0077】また、陰影等の情報を色ベクトルの輝度で
はなく、色ベクトルと標準色ベクトルとの成分の比の形
で表すので、カラーまたは白黒の濃淡画像において、対
象の領域が表している物体の物体色の影響を分離して陰
影等の情報のみが抽出できるので、陰影等を忠実に再現
できる画像シミュレーションが可能となる。
Further, since information such as shading is represented not by the luminance of the color vector but by the ratio of the components of the color vector and the standard color vector, the object represented by the target area in the color or monochrome grayscale image Since only the information such as shadows can be extracted by separating the influence of the object color, it is possible to perform an image simulation that can faithfully reproduce the shadows and the like.

【0078】以下に、その作用につき詳しく述べる。Hereinafter, the operation will be described in detail.

【0079】一般に、物体が拡散反射成分のみによって
見えるとき、中前栄八郎著 コンピュータグラフィック
ス オーム社(1987)の第136頁から第137頁
(公知例4)に記載されているように、反射光の強さ
は、数19のようになる。
In general, when an object is viewed only by a diffuse reflection component, as described in pages 136 to 137 of Computer Graphics Ohmsha (1987) by Eihiro Nakamae (1987), reflected light is used. Is as shown in Expression 19.

【0080】[0080]

【数19】 [Equation 19]

【0081】ここに、Idは反射光の強さ、Ipは平行
光線の強さ、αは入射角、Rdは拡散反射係数を表す。
Where Id is the intensity of the reflected light, Ip is the intensity of the parallel light, α is the incident angle, and Rd is the diffuse reflection coefficient.

【0082】Ipcosαは、Ipの光線の内、この面
に対して垂直に当たった分であり、照明、及び光線と物
体表面との向きに固有な値であり、これが、物体表面固
有のRdと積の形で反射光の強さが表されているという
ことは、陰影等による暗くなる度合いというものは反射
光の中で、かけ算の形で分離して表現できるということ
を示している。また、暗くなる場合に限らず、明るくな
る場合もその度合いを同じ表現で同時に記述できるの
で、光線の強さが分布している場合にはIpを対応する
値に変えれば良いので、同様にかけ算の形で分離して表
すことができる。カラーの濃淡画像のとき、陰影等の情
報は、数8、数9、及び数10で表される。
Ipcos α is a portion of the light beam of Ip which hits perpendicularly to this surface, and is a value unique to the illumination and the direction between the light beam and the object surface. The fact that the intensity of the reflected light is expressed in the form of a product indicates that the degree of darkening due to a shadow or the like can be expressed separately in the reflected light in the form of a multiplication. In addition, not only in the case of darkening but also in the case of brightening, the degree can be described simultaneously with the same expression. Therefore, if the intensity of the light ray is distributed, Ip may be changed to a corresponding value. Can be represented separately. In the case of a color shading image, information such as shading is represented by Expressions 8, 9, and 10.

【0083】これらは、いずれも、本来の物体色が陰影
等によりどの程度暗くなって見えるかを成分ごとに表し
たものである。ここでは、物体色と陰影等の度合いを2
者の積の形で分離しているので、この陰影等の度合いを
別の物体色に成分ごとにかけることによって、陰影等を
忠実に再現したシミュレーションが可能となる。
Each of these represents, for each component, how much the original object color appears dark due to shading or the like. Here, the object color and the degree of shading etc. are set to 2
Since the separation is performed in the form of the product of the persons, by applying the degree of the shading and the like to another object color for each component, a simulation that faithfully reproduces the shading and the like can be performed.

【0084】白黒の濃淡画像のときは、成分がひとつに
なることを除けば後は同様である。また、本発明によれ
ば、カラーの濃淡画像の画像シミュレーションを行う
際、陰影等の情報をカラーモデルの独立な3成分で表す
ので、光源色の違いを忠実に再現できる。
In the case of a black-and-white grayscale image, the same applies except that only one component is used. Further, according to the present invention, when performing an image simulation of a color grayscale image, information such as shading is represented by three independent components of a color model, so that a difference in light source color can be faithfully reproduced.

【0085】以下に、その作用につき詳しく述べる。Hereinafter, the operation will be described in detail.

【0086】陰影等の情報をカラーモデルの独立な3成
分で表すので、上述したように、3成分独立に陰影等の
情報の抽出、陰影等の情報の保持、及びシミュレーショ
ンの実行を行うことにより、元の画像が例えば、赤の光
線が当たって生成されたシーンである場合と、緑の光線
が当たって生成されたシーンである場合とを区別でき
る。したがって、光源色の違いを忠実に再現したシミュ
レーションができる。
Since information such as shadows is represented by three independent components of a color model, as described above, information such as shadows is extracted independently of three components, information such as shadows is held, and simulation is executed. For example, it is possible to distinguish between a case where the original image is generated by hitting a red ray and a case where the original image is generated by hitting a green ray. Therefore, a simulation that faithfully reproduces the difference in light source color can be performed.

【0087】また、本発明によれば、カラーの濃淡画像
内の特定の領域を、陰影等や照り返しを反映させながら
シミュレーションをする際に、変更後の物体色を領域内
で単一色とせず、画素により異なる色ベクトルをとれる
ようにするので、領域が表す物体表面を単一色ではない
テクスチャに変更するシミュレーションができる。
Further, according to the present invention, when simulating a specific area in a color gray-scale image while reflecting a shadow or the like, the object color after change is not made a single color in the area. Since different color vectors can be obtained for each pixel, a simulation can be performed in which the object surface represented by the region is changed to a texture that is not a single color.

【0088】以下に、その作用につき詳しく述べる。Hereinafter, the operation will be described in detail.

【0089】対象となる画像をカラー画像とし、RGB
のカラーモデルで考える。一般に、画像内の画素P
(x,y)の色ベクトルをC(x,y)とすると、C
(x,y)は数20のように表される。
The target image is a color image, and RGB
Think of the color model. Generally, a pixel P in an image
If the color vector of (x, y) is C (x, y), C
(X, y) is expressed as in Expression 20.

【0090】[0090]

【数20】 (Equation 20)

【0091】ここで、R(x,y)、G(x,y)、及
びB(x,y)はそれぞれ、C(x,y)のR成分、G
成分、及びB成分を表すスカラ量である。
Here, R (x, y), G (x, y) and B (x, y) are the R component of C (x, y) and G (x, y), respectively.
It is a scalar quantity representing the component and the B component.

【0092】一般に、物体が鏡面反射成分と拡散反射成
分のみによって見えるとき、公知例2に記載されている
ように、各点の色ベクトルを光源色と物体色の線形結合
で表すモデルがある。また、この2成分に必ずしも分解
されない場合には、公知例3に記載されているように、
上記線形結合にさらにベクトルを加えるモデルも考えら
れる。
In general, when an object is viewed only by a specular reflection component and a diffuse reflection component, there is a model in which a color vector at each point is represented by a linear combination of a light source color and an object color, as described in Known Example 2. In addition, when it is not necessarily decomposed into these two components, as described in Known Example 3,
A model in which a vector is further added to the linear combination may be considered.

【0093】以上のモデルに従って、C(x,y)を数
21のように書く。
According to the above model, C (x, y) is written as shown in Expression 21.

【0094】[0094]

【数21】 (Equation 21)

【0095】ここで、C0、C1、及びC2はそれぞ
れ、物体色、光源色、及び変動の各色ベクトルであり、
k0(x,y)、k1(x,y)、及びk2(x,y)
はそれぞれ、物体色、光源色、及び変動の各色ベクトル
にかかる係数である。ここで、変動ベクトルとは、物体
色ベクトルと光源色ベクトルの外積である。
Here, C0, C1, and C2 are object color, light source color, and variation color vectors, respectively.
k0 (x, y), k1 (x, y), and k2 (x, y)
Are coefficients applied to each color vector of the object color, the light source color, and the variation. Here, the variation vector is a cross product of the object color vector and the light source color vector.

【0096】ここで、C0、C1、及びC2はそれぞ
れ、数22、数23、及び数24のように書かれる。
Here, C0, C1, and C2 are written as Eqs. 22, 23, and 24, respectively.

【0097】[0097]

【数22】 (Equation 22)

【0098】[0098]

【数23】 (Equation 23)

【0099】[0099]

【数24】 (Equation 24)

【0100】ここで、R0、G0、及びB0はそれぞ
れ、物体色ベクトルC0の、R成分、G成分、及びB成
分を表すスカラ量である。また、R1、G1、及びB1
はそれぞれ、光源色ベクトルC1の、R成分、G成分、
及びB成分を表すスカラ量である。また、R2、G2、
及びB2はそれぞれ、変動の色ベクトルC2の、R成
分、G成分、及びB成分を表すスカラ量である。
Here, R0, G0, and B0 are scalar quantities representing the R, G, and B components of the object color vector C0, respectively. Also, R1, G1, and B1
Are the R component, the G component of the light source color vector C1,
And a scalar quantity representing the B component. Also, R2, G2,
And B2 are scalar quantities representing the R component, the G component, and the B component of the color vector C2 of the fluctuation, respectively.

【0101】以上をまとめると、数25のようになる。The above is summarized as shown in Equation 25.

【0102】[0102]

【数25】 (Equation 25)

【0103】数25より、数26が得られる。From Expression 25, Expression 26 is obtained.

【0104】[0104]

【数26】 (Equation 26)

【0105】したがって、ベクトルC0、C1、及びC
2が得られれば、数26より、R(x,y)、G(x,
y)、及びB(x,y)から、k0(x,y)、k1
(x,y)、及びk2(x,y)が計算できる。
Therefore, the vectors C0, C1, and C
2, R (x, y), G (x,
y) and B (x, y), k0 (x, y), k1
(X, y) and k2 (x, y) can be calculated.

【0106】次に、光源色を変更することを考える。こ
のとき、光源色ベクトルがC1からC1mに変わるとす
ると、この影響を受けて、物体色ベクトルも数27のよ
うにC0mに変わる。
Next, changing the light source color will be considered. At this time, assuming that the light source color vector changes from C1 to C1m, the object color vector also changes to C0m as shown in Expression 27 under the influence.

【0107】[0107]

【数27】 [Equation 27]

【0108】ここに、R0m、G0m、及びB0mはそ
れぞれ、光源色変更後の物体色ベクトルC0mの、R成
分、G成分、及びB成分を表すスカラ量である。また、
R1m、G1m、及びB1mはそれぞれ、変更後の光源
色ベクトルC1mの、R成分、G成分、及びB成分を表
すスカラ量である。
Here, R0m, G0m, and B0m are scalar quantities representing the R, G, and B components of the object color vector C0m after the light source color is changed. Also,
R1m, G1m, and B1m are scalar quantities representing the R, G, and B components of the changed light source color vector C1m, respectively.

【0109】数27のように書けるのは、物体色は、入
射光としての光源色の影響を受けるからである。数19
において、Ipが光源色の該当成分の減衰していない光
線の強さで、かつ、cosαを1としたときのIdが、
物体色の該当成分ということになる。
Equation 27 can be written because the object color is affected by the light source color as incident light. Number 19
In Ip, Id is the intensity of the light beam of the corresponding component of the light source color that has not been attenuated, and Id when cosα is 1 is
This is the corresponding component of the object color.

【0110】また、C0mとC1mが得られれば、その
外積を計算することによって、変動の色ベクトルC2m
を求めることができる。
If C0m and C1m are obtained, the cross product thereof is calculated to obtain the variation color vector C2m.
Can be requested.

【0111】以上より、光源色変更後の画素P(x,
y)の色ベクトルCr(x,y)は、数28のように表
される。
As described above, the pixel P (x,
The color vector Cr (x, y) of y) is expressed as in Expression 28.

【0112】[0112]

【数28】 [Equation 28]

【0113】ここに、Rr(x,y)、Gr(x,
y)、及びBr(x,y)はそれぞれ、光源色変更後の
画素P(x,y)の色ベクトルCr(x,y)の、R成
分、G成分、及びB成分を表すスカラ量である。また、
R2m、G2m、及びB2mはそれぞれ、光源色変更後
の変動の色ベクトルC2mの、R成分、G成分、及びB
成分を表すスカラ量である。
Here, Rr (x, y), Gr (x,
y) and Br (x, y) are scalar quantities representing the R component, the G component, and the B component of the color vector Cr (x, y) of the pixel P (x, y) after the light source color change. is there. Also,
R2m, G2m, and B2m are the R component, the G component, and the B component of the variation color vector C2m after the light source color change, respectively.
A scalar quantity representing a component.

【0114】また、ここで、数28のベクトルの再構成
の際に変動ベクトルの加算を省略することも可能であ
り、特に実際上問題がない。
In addition, it is possible to omit the addition of the variation vector when reconstructing the vector of Expression 28, and there is no practical problem.

【0115】次に物体色の変更を考える。光源色は変更
されてもされなくても同様に扱えるので、C1と書き、
最新の光源色を表すことにする。
Next, change of the object color will be considered. Since the light source color can be handled in the same way whether it is changed or not, write C1 and
Let us represent the latest light source color.

【0116】物体色の変更を行う際に、既に最新の光源
色C1が反映された物体色でこれを置換する場合と、光
源色による影響を無視する場合とをここではまず考え
る。
When changing the object color, first consider the case where the latest light source color C1 is replaced with the object color already reflected, and the case where the influence of the light source color is ignored.

【0117】前記の二つの場合に共通するのは、新しい
物体色をこれ以降、見かけ上、光源色と独立して扱える
ことである。したがって、新しい物体色として生成ある
いは外部から入力されたベクトルC0m(x,y)をそ
のままC0と置き換えればよい。ここで、物体色は画素
の位置により異なる色をとることが可能であるように、
これをx及びyの関数とする。
What is common to the above two cases is that the new object color can be treated apparently independently of the light source color thereafter. Therefore, the vector C0m (x, y) generated as a new object color or externally input may be replaced with C0 as it is. Here, the object color can take different colors depending on the position of the pixel,
This is a function of x and y.

【0118】また、C0m(x,y)とC1が得られれ
ば、その外積を計算することによって、変動の色ベクト
ルC2m(x,y)を求めることができる。
If C0m (x, y) and C1 are obtained, the color vector C2m (x, y) of variation can be obtained by calculating the cross product thereof.

【0119】このとき、物体色変更後の画素P(x,
y)の色ベクトルCr(x,y)は、数29のように表
される。
At this time, the pixel P (x,
The color vector Cr (x, y) of y) is expressed as in Expression 29.

【0120】[0120]

【数29】 (Equation 29)

【0121】ここに、R0m(x,y)、G0m(x,
y)、及びB0m(x,y)はそれぞれ、変更後の物体
色ベクトルC0m(x,y)の、R成分、G成分、及び
B成分を表すスカラ量である。また、R2m(x,
y)、G2m(x,y)、及びB2m(x,y)はそれ
ぞれ、物体色変更後の変動の色ベクトルC2m(x,
y)の、R成分、G成分、及びB成分を表すスカラ量で
ある。
Here, R0m (x, y) and G0m (x, y
y) and B0m (x, y) are scalar quantities representing the R, G, and B components of the changed object color vector C0m (x, y), respectively. Also, R2m (x,
y), G2m (x, y), and B2m (x, y) are color vectors C2m (x, y) of the variation after the object color change.
This is a scalar quantity representing the R, G, and B components of y).

【0122】また、ここで、数29のベクトルの再構成
の際に変動ベクトルの加算を省略することも可能であ
り、特に実際上問題がない。
In addition, it is possible to omit the addition of the variation vector when reconstructing the vector of Expression 29, and there is no practical problem.

【0123】また、上述したように、光源色が変更され
ていても同様に扱える。
Further, as described above, even if the light source color is changed, it can be handled similarly.

【0124】次に、物体色の変更を行う際に、光源色C
1が反映されていない、物体表面に固有な拡散反射係数
の形でデータを持っている場合を考える。
Next, when the object color is changed, the light source color C
Consider a case where data is stored in the form of a diffuse reflection coefficient unique to the object surface, where 1 is not reflected.

【0125】このとき、予め、この拡散反射係数の形で
表現されたデータを光源色C1が反映された物体色ベク
トルの表現に直すという手続きが必要となる。このよう
な手続きを踏んだ後、これを物体色ベクトルC0m
(x,y)として扱えば、以降は、前述の、既に最新の
光源色C1が反映された物体色で置換する場合と同じ手
続きとなる。
At this time, a procedure for converting the data expressed in the form of the diffuse reflection coefficient into an object color vector reflecting the light source color C1 is required. After performing such a procedure, the object color vector C0m
If it is handled as (x, y), the subsequent procedure is the same as the above-described procedure of replacing with the object color in which the latest light source color C1 is reflected.

【0126】ここでは、拡散反射係数の形で表現された
データの物体色ベクトルの表現への変更方法について述
べる。
Here, a method of changing the data expressed in the form of the diffuse reflection coefficient to the expression of the object color vector will be described.

【0127】光源色は変更されてもされなくても同様に
扱えるので、C1と書き、最新の光源色を表すことにす
る。
Since the light source color can be handled in the same manner with or without being changed, it is written as C1 to represent the latest light source color.

【0128】一般に、物体色ベクトルC0は、光源色ベ
クトルC1と、物体表面に固有な拡散反射係数ベクトル
CRdとを用いて数30、数31のように書ける。
In general, the object color vector C0 can be written as in Equations 30 and 31 using the light source color vector C1 and the diffuse reflection coefficient vector CRd unique to the object surface.

【0129】[0129]

【数30】 [Equation 30]

【0130】[0130]

【数31】 (Equation 31)

【0131】ここに、RRd、GRd、及びBRdはそ
れぞれ、物体表面に固有な拡散反射係数ベクトルCRd
の、R成分、G成分、及びB成分を表すスカラ量であ
る。
Here, RRd, GRd, and BRd are each a diffuse reflection coefficient vector CRd unique to the object surface.
Is a scalar quantity representing an R component, a G component, and a B component.

【0132】したがって、拡散反射係数ベクトルがCR
d(x,y)と、x及びyの関数で表されるとき、対応
する座標の物体色ベクトルをC0m(x,y)とすれ
ば、これは数32、数33で表される。
Therefore, if the diffuse reflection coefficient vector is CR
When represented by d (x, y) and a function of x and y, if the object color vector of the corresponding coordinates is C0m (x, y), this is represented by Expressions 32 and 33.

【0133】[0133]

【数32】 (Equation 32)

【0134】[0134]

【数33】 [Equation 33]

【0135】ここに、RRd(x,y)、GRd(x,
y)、及びBRd(x,y)はそれぞれ、物体表面に固
有な拡散反射係数ベクトルCRd(x,y)の、R成
分、G成分、及びB成分を表すスカラ量である。
Here, RRd (x, y), GRd (x, y)
y) and BRd (x, y) are scalar quantities representing the R, G, and B components of the diffuse reflection coefficient vector CRd (x, y) unique to the object surface, respectively.

【0136】以上の手続きを踏めば、以降は、既に最新
の光源色C1が反映された物体色で置換する場合と同じ
手続きで、物体色変更後の画素P(x,y)の色ベクト
ルCr(x,y)を求めることができる。
By performing the above procedure, the color vector Cr of the pixel P (x, y) after the object color is changed is the same procedure as the case where the color is replaced with the object color in which the latest light source color C1 is reflected. (X, y) can be obtained.

【0137】以上により、陰影等や照り返しを反映させ
ながら、領域が表す物体表面を単一色ではないテクスチ
ャに変更するシミュレーションができる。
As described above, it is possible to perform a simulation for changing the surface of the object represented by the area to a texture that is not a single color while reflecting a shadow or the like or a reflection.

【0138】さらに、本発明によれば、カラーの濃淡画
像内の特定の領域を、陰影等や照り返しを反映させなが
らシミュレーションをする際に、元の画像に対して予め
平均化処理を行うことによって、単一色ではないテクス
チャを含む領域をもシミュレーションの対象領域とする
ことができる。
Further, according to the present invention, when simulating a specific area in a color grayscale image while reflecting a shadow or the like or reflection, an averaging process is performed on the original image in advance. Alternatively, an area including a texture that is not a single color can also be set as a simulation target area.

【0139】以下に、その作用につき詳しく述べる。Hereinafter, the operation will be described in detail.

【0140】対象となる画像をカラー画像とし、RGB
のカラーモデルで考える。一般に、画像内の画素P
(x,y)の色ベクトルをC(x,y)とすると、C
(x,y)は数20のように表される。
The target image is a color image, and RGB
Think of the color model. Generally, a pixel P in an image
If the color vector of (x, y) is C (x, y), C
(X, y) is expressed as in Expression 20.

【0141】ここで、C(x,y)を数21にならっ
て、数34のように書く。
Here, C (x, y) is written as in equation 34 according to equation 21.

【0142】[0142]

【数34】 (Equation 34)

【0143】ここで、C0(x,y)、C1、及びC2
(x,y)はそれぞれ、物体色、光源色、及び変動の各
色ベクトルであり、k0(x,y)、k1(x,y)、
及びk2(x,y)はそれぞれ、物体色、光源色、及び
変動の各色ベクトルにかかる係数である。ここで、変動
ベクトルとは、物体色ベクトルと光源色ベクトルの外積
である。
Here, C0 (x, y), C1, and C2
(X, y) are color vectors of the object color, the light source color, and the variation, respectively, and k0 (x, y), k1 (x, y),
And k2 (x, y) are coefficients applied to each color vector of the object color, the light source color, and the variation, respectively. Here, the variation vector is a cross product of the object color vector and the light source color vector.

【0144】ここで、C0(x,y)、C1、及びC2
(x,y)はそれぞれ、数35、数23、数36のよう
に書かれる。
Here, C0 (x, y), C1, and C2
(X, y) are written as Equation 35, Equation 23, and Equation 36, respectively.

【0145】[0145]

【数35】 (Equation 35)

【0146】[0146]

【数36】 [Equation 36]

【0147】ここで、R0(x,y)、G0(x,
y)、及びB0(x,y)はそれぞれ、物体色ベクトル
C0(x,y)の、R成分、G成分、及びB成分を表す
スカラ量である。また、R2(x,y)、G2(x,
y)、及びB2(x,y)はそれぞれ、変動の色ベクト
ルC2(x,y)の、R成分、G成分、及びB成分を表
すスカラ量である。
Here, R0 (x, y) and G0 (x,
y) and B0 (x, y) are scalar quantities representing the R, G, and B components of the object color vector C0 (x, y), respectively. Also, R2 (x, y), G2 (x,
y) and B2 (x, y) are scalar quantities representing the R component, the G component, and the B component of the color vector C2 (x, y) of variation, respectively.

【0148】ここで、物体色ベクトルは、定ベクトルで
はなく、x及びyで異なるベクトルをとれるものとす
る。したがって、変動ベクトルもx及びyの関数で表さ
れる。次に、C0(x,y)について、数3、数4、数
5、及び数6に示すような平均処理を施すと、適当なε
(x,y)の設定により、対象領域内で物体色が平均化
され、あたかもテクスチャがない単一色の場合のような
扱いができる。
Here, it is assumed that the object color vector is not a constant vector but can take different vectors in x and y. Therefore, the variation vector is also represented by a function of x and y. Next, when averaging processing as shown in Expressions 3, 4, 5, and 6 is performed on C0 (x, y), an appropriate ε
By setting (x, y), the object colors are averaged in the target area, and it can be treated as if it were a single color without texture.

【0149】このとき、平均化された色ベクトルCa
(x,y)は、数37のように表される。
At this time, the averaged color vector Ca
(X, y) is expressed as in Expression 37.

【0150】[0150]

【数37】 (37)

【0151】ここで、C0aは平均化された物体色ベク
トル、C2aはC0aとC1の外積であり、それぞれ、
数38、数39のように表される。
Here, C0a is an averaged object color vector, C2a is an outer product of C0a and C1, and
Expressions 38 and 39 are shown.

【0152】[0152]

【数38】 (38)

【0153】[0153]

【数39】 [Equation 39]

【0154】以上をまとめると、数40のようになる。The above is summarized as shown in Expression 40.

【0155】[0155]

【数40】 (Equation 40)

【0156】数40より、数41が得られる。From Equation 40, Equation 41 is obtained.

【0157】[0157]

【数41】 [Equation 41]

【0158】したがって、ベクトルC0a、C1、及び
C2aが得られれば、数41より、Ra(x,y)、G
a(x,y)、及びBa(x,y)から、k0(x,
y)、k1(x,y)、及びk2(x,y)が計算でき
る。
Therefore, if the vectors C0a, C1, and C2a are obtained, Ra (x, y), G
From a (x, y) and Ba (x, y), k0 (x,
y), k1 (x, y) and k2 (x, y) can be calculated.

【0159】このようにして、対象領域内の画素のk0
(x,y)、k1(x,y)、及びk2(x,y)が得
られれば、以降、光源色を変更したり、物体色を変更し
たりすることは、前述した手続きと同じである。この際
に、領域が表す物体表面を単一色ではないテクスチャに
変更することも同様に可能である。
As described above, k0 of the pixel in the target area is obtained.
If (x, y), k1 (x, y), and k2 (x, y) are obtained, then changing the light source color or changing the object color is the same as the procedure described above. is there. At this time, it is also possible to change the object surface represented by the region to a texture that is not a single color.

【0160】以上により、単一色ではないテクスチャを
含む領域に対しても、陰影等や照り返しを反映させなが
らシミュレーションをすることができる。
As described above, it is possible to simulate a region including a texture that is not a single color while reflecting a shadow or the like and reflection.

【0161】[0161]

【実施例】本発明の画像シミュレーション方法の1実施
例につき、図1から図5を用いて、詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of an image simulation method according to the present invention will be described in detail with reference to FIGS.

【0162】図5(a)に示すようなカラーの濃淡画像
において、ある対象領域501内の画素の色ベクトルを
変更して図5(b)に示すような画像を生成し、出力す
ることを考える。
In a color grayscale image as shown in FIG. 5A, it is assumed that an image as shown in FIG. 5B is generated and output by changing the color vector of a pixel in a certain target area 501. Think.

【0163】具体的な処理手順を図1のフローチャート
を用いて説明する。
The specific processing procedure will be described with reference to the flowchart of FIG.

【0164】なお、図2は本実施例のハードウェア構成
図を示している。
FIG. 2 shows a hardware configuration diagram of the present embodiment.

【0165】ステップ101では、シミュレーションを
行なう対象のカラーの濃淡画像(図5(a))を入力す
る。このとき、画像データは色情報に加えて、各画素に
対してマスク値と呼ばれる色とは別な情報を画素ごとに
持っているものとする。画像シミュレーションを行う領
域の画素だけにある特別なマスク値を与えることによっ
て、以降、注目している画素がシミュレーションの対象
であるかどうかを判断することができる。
In step 101, a color gradation image (FIG. 5A) to be simulated is input. At this time, it is assumed that the image data has, for each pixel, information other than the color called a mask value for each pixel in addition to the color information. By giving a special mask value only to the pixels in the region where the image simulation is performed, it can be determined whether or not the pixel of interest is a target of the simulation.

【0166】ステップ102では、画像のシミュレーシ
ョンの対象領域501の標準色ベクトル(数2)を定め
て、これを図2のコンピュータ202内の主メモリに保
持する。ここで、標準色ベクトルは、外部からキーボー
ド203を用いて直接、色の成分を数値によって入力す
る。
In step 102, the standard color vector (Equation 2) of the image simulation target area 501 is determined and stored in the main memory in the computer 202 in FIG. Here, as the standard color vector, a color component is directly input by a numerical value from outside using the keyboard 203.

【0167】ステップ103では、まず、対象の画像の
画素を走査し、対象領域内の画素について、その近傍
で、上述の作用の数4、数5、及び数6に示したように
色ベクトルの平均(数3)を計算する。ここで、作用に
述べられた近傍ε(x,y)は、注目画素301を中心
とする一辺n画素の正方形領域とする。平均領域の大き
さ302であるnは、外部からキーボード203を用い
て直接、数値によって入力する。また、作用に述べられ
たN(x,y)には、nの2乗の値が代入される。次
に、上述の作用の数8、数9、及び数10で示したよう
に前記標準色ベクトルとの成分ごとの比(数7)を画素
ごとに計算し、これをコンピュータ202内の主メモリ
に保持する。
In step 103, first, the pixels of the target image are scanned, and for the pixels in the target area, the color vectors of the pixels near the target area are expressed as shown in the above-described equations (4), (5) and (6). Calculate the average (Equation 3). Here, the neighborhood ε (x, y) described in the operation is a square region with n pixels on one side centered on the target pixel 301. The value n, which is the size 302 of the average area, is directly input numerically from outside using the keyboard 203. The value of the square of n is substituted for N (x, y) described in the operation. Next, as shown by the above-described equations 8, 9, and 10, the ratio (equation 7) of each component to the standard color vector is calculated for each pixel, and this is calculated in the main memory in the computer 202. To hold.

【0168】ステップ104では、コンピュータ202
内において、対象領域501の色ベクトルを変更した別
の画像を生成する。これは、外部からキーボード203
を用いて直接、色の成分を数値によって入力し、その色
ベクトルでその領域を埋めつくすことによって生成され
る。ここに、最初の画像を第1の画像、ここで生成した
画像を第2の画像と呼ぶ。
In step 104, the computer 202
, Another image in which the color vector of the target area 501 is changed is generated. This is the keyboard 203
Is generated by directly inputting the color components by numerical values using, and filling the area with the color vector. Here, the first image is referred to as a first image, and the image generated here is referred to as a second image.

【0169】ステップ105では、第1の画像の画素を
走査し、対象領域内の画素について、作用の数13、数
14、及び数15で示したように、その画素と同じ位置
の第2の画像の画素の色ベクトルの各成分を、この位置
に対応する上述の比の値と乗算することにより、新たな
色ベクトル(数12)を生成し、第1の画像の画素の色
ベクトルをこれで置き換えることにより、第3の画像を
生成する。このとき、対象領域外の画素については第1
の画像の画素の色ベクトルをそのまま採用する。次に、
この画像をCRT201に表示し、外部記憶装置205
に画像データとして出力する。
In step 105, the pixels of the first image are scanned, and the pixels in the target area are subjected to the second operation at the same position as the pixels, as shown by the equations (13), (14) and (15). A new color vector (Equation 12) is generated by multiplying each component of the color vector of the pixel of the image by the value of the above ratio corresponding to this position, and the color vector of the pixel of the first image is calculated by To generate a third image. At this time, the pixels outside the target area
The color vector of the pixel of the image is adopted as it is. next,
This image is displayed on the CRT 201 and the external storage device 205
Is output as image data.

【0170】上述の手続きによれば、第1の画像の対象
領域内が単一色ではなくて、細かいテクスチャ等を含ん
でいるような場合でも、それらの影響を無視して、陰影
等の情報のみを抽出し、その領域を別の色に変更した後
にこれを作用させることによって、以前のテクスチャに
影響されず、かつ陰影等を反映した画像シミュレーショ
ンが可能となる。
According to the above-described procedure, even when the target area of the first image is not a single color but contains fine textures and the like, ignoring those effects, only the information such as shadows is ignored. Is extracted, and the area is changed to another color and then applied, thereby enabling an image simulation which is not affected by the previous texture and reflects a shadow or the like.

【0171】以上述べた実施例は、次に示す変更が可能
である。
The embodiment described above can be modified as follows.

【0172】第1に、ステップ102において定められ
た標準色ベクトル及びステップ103において計算され
た比をコンピュータ202内の主メモリに保持するので
はなく、外部記憶装置205に保持し、さらに、ステッ
プ105において用いる比はこれを外部記憶装置205
にある比を呼びだすことによって得るというように変更
して実施することも可能である。この実施例の変更によ
り、外部記憶装置に多種類のデータを保持することがで
き、第1の画像に対して、上記生成された陰影等の情報
とは異なる陰影等の情報との組み合わせをシミュレーシ
ョンすることが可能となる。
First, the standard color vector determined in step 102 and the ratio calculated in step 103 are not stored in the main memory in the computer 202, but are stored in the external storage device 205. The ratio used in the external storage device 205
It is also possible to carry out the modification in such a way that it is obtained by calling out a certain ratio. By changing this embodiment, various types of data can be held in the external storage device, and a combination of the first image with information such as shadows different from the generated information such as shadows is simulated. It is possible to do.

【0173】第2に、ステップ102における標準色ベ
クトルを、外部からキーボード203を用いて直接、色
の成分を数値によって入力するのではなく、次の5つの
手法のいずれかの方法によって定めるように変更が可能
である。一つ目の方法は、CRT201にカラーの濃淡
画像を表示し、マウス204を用いて、画像の対象領域
内の明るくて陰影等のない部分にある画素を指示し、そ
の色ベクトルをもって標準色ベクトルとする方法であ
る。二つ目の方法は、CRT201にカラーの濃淡画像
を表示し、マウス204を用いて、画像の対象領域内の
明るくて陰影等のない部分にある画素を指示し、その近
傍で一辺n画素の正方形領域をとり、その中の画素の色
ベクトルの平均を上述のステップ103と同様の手続き
で求めることにより、それを標準色ベクトルとする方法
である。このとき、nの大きさは外部から与えられる。
三つ目の方法は、CRT201にカラーの濃淡画像を表
示し、マウス204を用いて、画像の対象領域内の明る
くて陰影等のない部分にある画素を指示し、その近傍で
一辺n画素の正方形領域をとり、その正方形領域内の画
素で、かつ、対象領域内に入っている画素に関して色ベ
クトルの平均をとり、それを標準色ベクトルとする方法
である。このとき、nの大きさは外部から与えられる。
また、平均をとる際に必要となるN(x,y)もnの2
乗ではなく、対象の画素をカウントした値となる。四つ
目の方法は、CRT201にカラーの濃淡画像を表示
し、マウス204を用いて、画像の対象領域内の明るく
て陰影等のない部分にある画素を指示し、その近傍で一
辺n画素の正方形領域をとり、その中の画素の色ベクト
ルの平均を計算するわけだが、ここでnを可変とし、n
を1から順に2ずつ増やしていき、その平均値がすべて
の成分で収束したところで、その収束した値を成分とし
て持つ色ベクトルを標準色ベクトルとする方法である。
ここで、収束判定は判定値を適当に定めておき、それ以
下の変動になれば収束したものとみなすことにする。五
つ目の方法は、CRT201にカラーの濃淡画像を表示
し、マウス204を用いて、画像の対象領域内の明るく
て陰影等のない部分にある画素を指示し、その近傍で一
辺n画素の正方形領域をとり、その正方形領域内の画素
で、かつ、対象領域内に入っている画素に関して色ベク
トルの平均を計算するわけだが、ここでnを可変とし、
nを1から順に2ずつ増やしていき、その平均値がすべ
ての成分で収束したところで、その収束した値を成分と
して持つ色ベクトルを標準色ベクトルとする方法であ
る。ここで、収束判定は判定値を適当に定めておき、そ
れ以下の変動になれば収束したものとみなすことにす
る。また、平均をとる際に必要となるN(x,y)はn
の2乗ではなく、対象の画素をカウントした値となる。
Second, the standard color vector in the step 102 is determined not by directly inputting the color components numerically from the outside using the keyboard 203 but by any one of the following five methods. Changes are possible. The first method is to display a color grayscale image on the CRT 201, designate a pixel in a bright and non-shaded area in the target area of the image using the mouse 204, and use the color vector as a standard color vector. It is a method. The second method is to display a color grayscale image on the CRT 201, designate a pixel in a bright and non-shaded area in the target area of the image using the mouse 204, and display n pixels on one side in the vicinity thereof. This is a method in which a square area is taken, and the average of the color vectors of the pixels in the square area is obtained by the same procedure as in the above-described step 103, and is used as a standard color vector. At this time, the magnitude of n is given from outside.
A third method is to display a color grayscale image on the CRT 201, designate a pixel in a bright and non-shaded area in the target area of the image using the mouse 204, and display n pixels on one side in the vicinity thereof. This is a method of taking a square area, averaging the color vectors of the pixels in the square area and the pixels in the target area, and using the average as a standard color vector. At this time, the magnitude of n is given from outside.
Also, N (x, y) required for averaging is 2 of n.
It is not the power but a value obtained by counting the target pixels. The fourth method is to display a color grayscale image on the CRT 201, designate a pixel in a bright, non-shaded area in the target area of the image using the mouse 204, and display n pixels on one side in the vicinity thereof. Take a square area and calculate the average of the color vectors of the pixels in it. Here, n is made variable and n
Is sequentially increased by two from 1 and when the average value converges for all components, a color vector having the converged value as a component is used as a standard color vector.
Here, in the convergence determination, a determination value is appropriately determined, and if the fluctuation is smaller than that, it is assumed that the convergence has occurred. The fifth method is to display a color grayscale image on the CRT 201, specify a pixel in a bright, non-shaded area in the target area of the image using the mouse 204, and display n pixels on one side in the vicinity thereof. Take a square area, calculate the average of the color vectors for the pixels in the square area and the pixels in the target area, where n is variable,
In this method, n is increased by 2 in order from 1 and, when the average value converges for all components, a color vector having the converged value as a component is used as a standard color vector. Here, in the convergence determination, a determination value is appropriately determined, and if the fluctuation is smaller than that, it is assumed that the convergence has occurred. Also, N (x, y) required for taking the average is n
Instead of the square of the target pixel.

【0174】第3に、ステップ103において、色ベク
トルの平均の計算の方法を以下の5つの手法のいずれか
に変更することが可能である。一つ目の方法は、その正
方形領域内の画素で、かつ、対象領域内に入っている画
素に関して色ベクトルの平均をとるという方法である。
このとき、平均をとる際に必要となるN(x,y)はn
の2乗ではなく、対象の画素をカウントした値となる。
二つ目の方法は、ステップ102で標準ベクトルを求め
る際に正方形領域を用いた場合、その正方形領域の一辺
の大きさをそのまま、平均領域の大きさnとして用いる
方法である。もちろん、これはステップ102が正方形
領域を用いた方法に変更されて実施されたときのみ実施
され得る方法である。三つ目の方法は、同様に、ステッ
プ102で標準ベクトルを求める際に正方形領域を用い
た場合、その正方形領域の一辺の大きさをそのまま、平
均領域の大きさnとして用いる方法であるが、ここで
は、それに加えて、その正方形領域内の画素で、かつ、
対象領域内に入っている画素に関して色ベクトルの平均
をとることにする。もちろん、これはステップ102が
正方形領域を用いた方法に変更されて実施されたときの
み実施され得る方法である。また、このとき、平均をと
る際に必要となるN(x,y)はnの2乗ではなく、対
象の画素をカウントした値となる。四つ目の方法は、注
目画素の近傍で一辺n画素の正方形領域をとり、その中
の画素の色ベクトルの平均を計算するわけだが、ここで
nを可変とし、nを1から順に2ずつ増やしていき、そ
の平均値がすべての成分で収束したところで、その収束
した値を成分として持つ色ベクトルを平均の色ベクトル
とする方法である。ここで、収束判定は判定値を適当に
定めておき、それ以下の変動になれば収束したものとみ
なすことにする。五つ目の方法は、注目画素の近傍で一
辺n画素の正方形領域をとり、その正方形領域内の画素
で、かつ、対象領域内に入っている画素に関して色ベク
トルの平均を計算するわけだが、ここでnを可変とし、
nを1から順に2ずつ増やしていき、その平均値がすべ
ての成分で収束したところで、その収束した値を成分と
して持つ色ベクトルを平均の色ベクトルとする方法であ
る。ここで、収束判定は判定値を適当に定めておき、そ
れ以下の変動になれば収束したものとみなすことにす
る。また、平均をとる際に必要となるN(x,y)はn
の2乗ではなく、対象の画素をカウントした値となる。
Third, in step 103, the method of calculating the average of the color vector can be changed to any of the following five methods. The first method is to average the color vectors of the pixels in the square area and the pixels in the target area.
At this time, N (x, y) required for taking the average is n
Instead of the square of the target pixel.
The second method is a method in which, when a square area is used in obtaining the standard vector in step 102, the size of one side of the square area is used as it is as the size n of the average area. Of course, this is a method that can only be implemented when step 102 has been modified and implemented with a method using square regions. Similarly, in the case where a square region is used in obtaining the standard vector in step 102, the size of one side of the square region is used as it is as the average region size n. Here, in addition to this, pixels within the square area, and
The average of the color vectors is determined for the pixels included in the target area. Of course, this is a method that can only be implemented when step 102 has been modified and implemented with a method using square regions. Also, at this time, N (x, y) required for averaging is not the square of n but a value obtained by counting the target pixels. The fourth method is to take a square area of n pixels on the side in the vicinity of the target pixel and calculate the average of the color vectors of the pixels in the square area. In this method, when the average value converges for all components, a color vector having the converged value as a component is used as an average color vector. Here, in the convergence determination, a determination value is appropriately determined, and if the fluctuation is smaller than that, it is assumed that the convergence has occurred. The fifth method is to take a square area with n pixels on the side in the vicinity of the pixel of interest and calculate the average of the color vectors for the pixels in the square area and the pixels in the target area. Here, n is variable,
This is a method in which n is increased by two in order from 1 and when the average value converges on all components, a color vector having the converged value as a component is used as an average color vector. Here, in the convergence determination, a determination value is appropriately determined, and if the fluctuation is smaller than that, it is assumed that the convergence has occurred. Also, N (x, y) required for taking the average is n
Instead of the square of the target pixel.

【0175】第4に、ステップ104において、第2の
画像の生成の方法を次に示す3つの方法のいずれかに変
更が可能である。一つ目の方法は、対象領域を同一色で
埋めつくすのではなく、任意の色ベクトルをとれるよう
にするものである。ここでは、マウス204やキーボー
ド203を用いて対話的に色ベクトルを生成する。二つ
目の方法は、新たな第4の画像(図4(a))を読み込
み、これを第1の画像の対象領域401にテクスチャマ
ッピングすることによって第2の画像を生成する(図4
(b))方法である。これにより、第1の画像の対象領
域に好みの画像が貼付られたときの画像シミュレーショ
ンが可能となる。三つ目の方法は、上記二つ目の方法に
おいて、第4の画像を読み込んだ後、この画像内のグロ
ーバルな濃淡を除去した第5の画像を生成し、これを第
1の画像の対象領域にテクスチャマッピングすることに
よって第2の画像を生成する方法である。これにより、
もともと第4の画像内にあった不要な濃淡が最終結果の
第3の画像に影響を及ぼさないようにできる。なお、こ
の濃淡の除去には以下のような手続きを踏む。まず、ス
テップ102での標準色ベクトルを定める手法、また
は、上述したその変形の手法を第4の画像に対して行
う。次に、第4の画像に対して、ステップ103での比
を求める手法、または、上述したその変形の手法を行
う。次に、第4の画像のすべての画素につき、その色ベ
クトルの各成分の値を対応する比の値で割る。これによ
り、第4の画像に対して陰影等が除去された画像が生成
される。これを第5の画像とすればよい。
Fourth, in step 104, the method of generating the second image can be changed to any of the following three methods. The first method is to allow an arbitrary color vector to be obtained instead of filling the target area with the same color. Here, color vectors are generated interactively using the mouse 204 and the keyboard 203. In the second method, a new fourth image (FIG. 4A) is read, and a second image is generated by texture-mapping the new fourth image to the target area 401 of the first image (FIG. 4).
(B)) method. Thereby, an image simulation when a favorite image is pasted on the target region of the first image can be performed. A third method is that, in the second method, after reading the fourth image, a fifth image in which global shades are removed from the fourth image is generated, and the fifth image is set as an object of the first image. This is a method of generating a second image by performing texture mapping on an area. This allows
Unnecessary shading that was originally in the fourth image can be prevented from affecting the final third image. It should be noted that the following procedure is taken to remove the shading. First, the method of determining the standard color vector in step 102 or the above-described modification method is performed on the fourth image. Next, a method of obtaining the ratio in step 103 or the above-described modification method is performed on the fourth image. Next, for each pixel of the fourth image, the value of each component of the color vector is divided by the corresponding ratio value. As a result, an image in which shading and the like have been removed from the fourth image is generated. This may be used as the fifth image.

【0176】第5に、ステップ104における第2の画
像の生成において、第1の画像から変更される画素は、
第1の画像の対象領域のすべての画素ではなく、その一
部であっても良い。すなわち、第1の画像の対象領域の
部分集合に対して、色ベクトルの変更が行われるよう
に、変更して実施することが可能である。その際に、ス
テップ104に示したように単一色で埋めつくす方法も
可能であるし、上述したその変形例もすべて実施可能で
ある。
Fifth, in generating the second image in step 104, the pixels changed from the first image are
Not all the pixels in the target area of the first image may be part of them. That is, it is possible to change the color vector for a subset of the target area of the first image so as to change the color vector. At that time, a method of filling with a single color as shown in step 104 is also possible, and all the above-mentioned modifications are also feasible.

【0177】第6に、ステップ104において第2の画
像を生成する方法について説明があるが、この段階を手
続きとしてはオフラインにして、結果を外部記憶装置2
05に格納しておき、使うときにこれを外部記憶装置2
05から読み込むことも可能である。その際に、第2の
画像を生成する手法は上述したステップ104の手法は
もちろんのこと、それを上述した任意の変形例で置き換
えて実施することも可能である。この実施例の変更によ
り、外部記憶装置に多種類のデータを保持することがで
き、第1の画像に対して、様々な第2の画像との組み合
わせによる画像シミュレーションを実施することが可能
となる。
Sixth, a method of generating the second image in step 104 will be described. This step is taken offline as a procedure, and the result is stored in the external storage device 2.
05 and store it in the external storage device 2 when using it.
05 can also be read. At this time, the method of generating the second image may be the same as the method of step 104 described above, or may be replaced with any of the above-described modifications. By changing this embodiment, various types of data can be held in the external storage device, and an image simulation can be performed on the first image in combination with various second images. .

【0178】第7に、ステップ105では、第3の画像
を生成して、この画像をCRT201に表示して、外部
記憶装置205に画像データとして出力するが、第3の
画像の生成の後、画像のCRTへの表示のみで終了する
ことも可能であるし、また、CRTへの表示を行わずに
画像データを出力することで終了することも可能であ
る。さらに、画像データの出力は外部記憶装置へではな
く、ハードコピー装置や、または、ネットワークを介し
た他の任意の機器への出力であるように変更することも
可能である。
Seventh, in step 105, a third image is generated, this image is displayed on the CRT 201, and output as image data to the external storage device 205. After the generation of the third image, The processing can be ended only by displaying the image on the CRT, or can be ended by outputting the image data without displaying the image on the CRT. Further, the output of the image data can be changed not to the external storage device but to a hard copy device or another arbitrary device via a network.

【0179】第8に上記実施例はカラーモデルをRGB
カラーモデルとして説明を行ったが、任意のカラーモデ
ルでも同様に実施が可能である。
Eighth, in the above embodiment, the color model is converted to RGB.
Although the description has been given as a color model, the present invention can be similarly implemented with an arbitrary color model.

【0180】第9に上記実施例はカラーの濃淡画像を対
象としているが、作用に記したように、これを白黒の濃
淡画像に適用することも可能である。
Ninth, the above-described embodiment is directed to a color grayscale image, but as described in the operation, it can be applied to a black-and-white grayscale image.

【0181】次に、他の実施例につき、図6及び既に用
いた図2から図5を用いて、詳細に説明する。
Next, another embodiment will be described in detail with reference to FIG. 6 and FIGS. 2 to 5 which have already been used.

【0182】具体的な処理手順につき、図6のフローチ
ャートを用いて説明する。
The specific processing procedure will be described with reference to the flowchart of FIG.

【0183】なお、図2のハードウェア構成図は、本実
施例を説明する上でも用いることができる。
The hardware configuration diagram shown in FIG. 2 can be used for explaining the present embodiment.

【0184】ステップ601では、シミュレーションを
行なう対象のカラーの濃淡画像(図5(a))を入力す
る。このとき、画像データは色情報に加えて、各画素に
対してマスク値と呼ばれる色とは別な情報を画素ごとに
持っているものとする。画像シミュレーションを行う領
域の画素だけにある特別なマスク値を与えることによっ
て、以降、注目している画素がシミュレーションの対象
であるかどうかを判断することができる。
In step 601, a color gradation image (FIG. 5A) to be simulated is input. At this time, it is assumed that the image data has, for each pixel, information other than the color called a mask value for each pixel in addition to the color information. By giving a special mask value only to the pixels in the region where the image simulation is performed, it can be determined whether or not the pixel of interest is a target of the simulation.

【0185】ステップ602では、画像のシミュレーシ
ョンの対象領域501から、公知例2または公知例3と
同様の方法で物体色ベクトル及び光源色ベクトルを抽出
する。また、作用で述べたようにこれらから変動の色ベ
クトルを生成する。次に、これらのベクトルを図2のコ
ンピュータ202内の主メモリに保持する。
In step 602, an object color vector and a light source color vector are extracted from the target region 501 of the image simulation by the same method as in the known example 2 or the known example 3. In addition, as described in the operation, a color vector of variation is generated from these. Next, these vectors are stored in the main memory in the computer 202 of FIG.

【0186】ステップ603では、まず、対象の画像の
画素を走査し、対象領域内の画素について、作用で述べ
た手続きによって、各画素の色ベクトルを上記ベクトル
の線形和で表すときの係数を決定する。次に、これをコ
ンピュータ202内の主メモリに保持する。
In step 603, first, the pixels of the target image are scanned, and for the pixels in the target area, the coefficient for expressing the color vector of each pixel by the linear sum of the above vectors is determined by the procedure described in the operation. I do. Next, this is stored in the main memory in the computer 202.

【0187】ステップ604では、コンピュータ202
内において、対象領域501の色ベクトルを変更した別
の画像を生成する。これは、外部からキーボード20
3、マウス204を用いて対話的に画像内の画素及びそ
の色ベクトルを指定することによって生成される。ここ
に、最初の画像を第1の画像、ここで生成した画像を第
2の画像と呼ぶ。
At step 604, the computer 202
, Another image in which the color vector of the target area 501 is changed is generated. This is an external keyboard 20
3. Generated by interactively specifying a pixel in the image and its color vector using the mouse 204. Here, the first image is referred to as a first image, and the image generated here is referred to as a second image.

【0188】ステップ605では、第1の画像の画素を
走査し、対象領域内の画素について、作用で示したよう
に、その画素と同じ位置の第2の画像の画素の色ベクト
ルを新しい物体色として用いて上記線形和を再構成する
ことによって、この位置に対応する色ベクトルを生成
し、第1の画像の画素の色ベクトルをこれで置き換える
ことにより、第3の画像を生成する。このとき、対象領
域外の画素については第1の画像の画素の色ベクトルを
そのまま採用する。次に、この画像をCRT201に表
示し、外部記憶装置205に画像データとして出力す
る。
In step 605, the pixels of the first image are scanned, and for the pixels in the target area, as indicated by the operation, the color vector of the pixel of the second image at the same position as the pixel is set to the new object color. To generate a color vector corresponding to this position, and replace the color vector of the pixels of the first image with this to generate a third image. At this time, the color vector of the pixel of the first image is directly used for the pixel outside the target area. Next, this image is displayed on the CRT 201 and output to the external storage device 205 as image data.

【0189】上述の手続きによれば、陰影等や照り返し
を反映させながら、領域が表す物体表面を単一色ではな
い任意のテクスチャに変更するシミュレーションができ
る。以上述べた実施例は、次に示す変更が可能である。
According to the above-described procedure, a simulation can be performed in which the surface of the object represented by the area is changed to an arbitrary texture that is not a single color while reflecting shadows and the like and reflection. The embodiment described above can be modified as follows.

【0190】第1に、ステップ602において物体色ベ
クトル及び光源色ベクトルを抽出する前に、対象の画像
に平均化処理を施す処理を追加することが可能である。
これにより、画像の中で、単一色ではなくて、テクスチ
ャを含むような領域においても作用に示したように、画
像シミュレーションが可能となる。ここで、画像の平均
化処理については、次に示すいずれかの方法が可能であ
る。一つ目の方法は、対象領域内の画素について、それ
ぞれ、図3に示すような一辺n画素の正方形領域をと
り、この領域に含まれる画素で色ベクトルを平均する処
理である。このとき、nの大きさは外部から与えられ
る。二つ目の方法は、対象領域内の画素について、同様
に一辺n画素の正方形領域をとり、この領域に含まれる
画素で、かつ、対象領域内の画素について色ベクトルを
平均する処理である。このとき、nの大きさは外部から
与えられる。また、平均をとる際に必要となる平均に関
与した画素の数もnの2乗ではなく、関与した画素をカ
ウントした値となる。
First, before extracting the object color vector and the light source color vector in step 602, it is possible to add a process of averaging the target image.
As a result, an image simulation can be performed even in a region including a texture instead of a single color in the image as shown in the operation. Here, for the image averaging process, any of the following methods is possible. The first method is a process of taking a square area of n pixels on each side as shown in FIG. 3 for each pixel in the target area, and averaging the color vectors of the pixels included in this area. At this time, the magnitude of n is given from outside. The second method is a process of similarly taking a square area of n pixels on one side for the pixels in the target area, and averaging the color vectors of the pixels included in this area and the pixels in the target area. At this time, the magnitude of n is given from outside. In addition, the number of pixels involved in the averaging, which is necessary when taking the average, is not the square of n but a value obtained by counting the number of pixels involved.

【0191】第2に、ステップ604において、第2の
画像の生成の方法を次に示す3つの方法のいずれかに変
更が可能である。一つ目の方法は、対象領域が単一色で
はなく、テクスチャを含む場合に限るが、この領域をキ
ーボード203を用いて外部から指定した色ベクトルで
同一色に埋めつくすものである。二つ目の方法は、新た
な第4の画像(図4(a))を読み込み、これを第1の
画像の対象領域401にテクスチャマッピングすること
によって第2の画像を生成する(図4(b))方法であ
る。これにより、第1の画像の対象領域に好みの画像が
貼付られたときの画像シミュレーションが可能となる。
三つ目の方法は、上記二つ目の方法において、第4の画
像を読み込んだ後、この画像内のグローバルな濃淡を除
去した第5の画像を生成し、これを第1の画像の対象領
域にテクスチャマッピングすることによって第2の画像
を生成する方法である。これにより、もともと第4の画
像内にあった不要な濃淡が最終結果の第3の画像に影響
を及ぼさないようにできる。なお、この濃淡の除去には
以下のような手続きを踏む。まず、ステップ102での
標準色ベクトルを定める手法、または、上述したその変
形の手法を第4の画像に対して行う。次に、第4の画像
に対して、ステップ103での比を求める手法、また
は、上述したその変形の手法を行う。次に、第4の画像
のすべての画素につき、その色ベクトルの各成分の値を
対応する比の値で割る。これにより、第4の画像に対し
て陰影等が除去された画像が生成される。これを第5の
画像とすればよい。
Second, in step 604, the method of generating the second image can be changed to any of the following three methods. The first method is limited to the case where the target area is not a single color but includes a texture, but this area is filled with the same color using a color vector specified externally using the keyboard 203. In the second method, a new fourth image (FIG. 4A) is read, and the second image is generated by texture-mapping the new image to the target area 401 of the first image (FIG. b)) method. Thereby, an image simulation when a favorite image is pasted on the target region of the first image can be performed.
A third method is that, in the second method, after reading the fourth image, a fifth image in which global shades are removed from the fourth image is generated, and the fifth image is set as an object of the first image. This is a method of generating a second image by performing texture mapping on an area. Thus, unnecessary shading that was originally in the fourth image can be prevented from affecting the third image as the final result. It should be noted that the following procedure is taken to remove the shading. First, the method of determining the standard color vector in step 102 or the above-described modification method is performed on the fourth image. Next, a method of obtaining the ratio in step 103 or the above-described modification method is performed on the fourth image. Next, for each pixel of the fourth image, the value of each component of the color vector is divided by the corresponding ratio value. As a result, an image in which shading and the like have been removed from the fourth image is generated. This may be used as the fifth image.

【0192】第3に、ステップ603とステップ604
の間に、光源色の変更の手続きを追加することも可能で
ある。ここでは、外部からキーボード203、マウス2
04を用いて対話的に光源色ベクトルを指定する。これ
により、作用で記述した通り、光源色を変えた画像シミ
ュレーションが可能となる。
Third, steps 603 and 604
During this time, a procedure for changing the light source color can be added. Here, the keyboard 203 and the mouse 2 are externally
04 is used to interactively designate a light source color vector. As a result, as described in the operation, an image simulation in which the light source color is changed can be performed.

【0193】第4に、ステップ604で第2の画像を生
成する段階で、作用に記述したように、最新の光源色を
これに反映させるように変更が可能である。ここで、光
源色は、変更されていなければ、ステップ602で抽出
された光源色であり、上記のようにステップ603とス
テップ604の間に、光源色の変更の手続きが追加され
て、光源色が変更されていれば、その変更後の光源色で
ある。光源色を反映した色ベクトルの各成分は、作用に
記したように、最初に与えられた色ベクトルの各成分に
対して、光源色の各成分をかけるという手続きで得られ
る。以上により、光源色に影響されたように物体色を設
定することができるので、よりリアルな画像シミュレー
ションを行うことが可能になる。
Fourth, at the stage of generating the second image in step 604, as described in the operation, a change can be made to reflect the latest light source color. Here, if the light source color has not been changed, the light source color is the light source color extracted in step 602. As described above, a procedure for changing the light source color is added between step 603 and step 604, and the light source color is changed. Is the light source color after the change. As described in the operation, each component of the color vector reflecting the light source color is obtained by a procedure of multiplying each component of the first given color vector by each component of the light source color. As described above, since the object color can be set as affected by the light source color, more realistic image simulation can be performed.

【0194】第5に、ステップ604における第2の画
像の生成において、第1の画像から変更される画素は、
第1の画像の対象領域のすべての画素ではなく、その一
部であっても良い。すなわち、第1の画像の対象領域の
部分集合に対して、色ベクトルの変更が行われるよう
に、変更して実施することが可能である。その際に、ス
テップ604に示したような方法も可能であるし、上述
したその変形例もすべて実施可能である。
Fifth, in generating the second image in step 604, the pixels changed from the first image are
Not all the pixels in the target area of the first image may be part of them. That is, it is possible to change the color vector for a subset of the target area of the first image so as to change the color vector. At that time, the method shown in Step 604 is also possible, and all of the above-mentioned modifications are also feasible.

【0195】第6に、ステップ602の光源色ベクトル
と物体色ベクトルを抽出して、これらを保持する段階
で、これらをコンピュータの主メモリに保持するのでは
なく、外部記憶装置205に保持し、さらに、以降の処
理でこれらのベクトルが必要になる段階において、これ
を外部記憶装置から呼びだすことによって得るというよ
うに変更して実施することも可能である。この実施例の
変更により、外部記憶装置に多種類のデータを保持する
ことができ、様々なデータの中から任意のベクトルの組
を取り出して画像シミュレーションを行うことが可能に
なる。
Sixthly, at the stage of extracting the light source color vector and the object color vector in step 602 and holding them, instead of holding them in the main memory of the computer, they are held in the external storage device 205. Further, at a stage where these vectors are required in the subsequent processing, it is also possible to carry out such a modification that the vectors are obtained by calling them from an external storage device. By changing this embodiment, various types of data can be held in the external storage device, and an arbitrary vector set can be extracted from various data to perform image simulation.

【0196】第7に、ステップ604において第2の画
像を生成する方法について説明があるが、この段階を手
続きとしてはオフラインにして、結果を外部記憶装置2
05に格納しておき、使うときにそれを外部記憶装置2
05から読み込むことも可能である。その際に、第2の
画像を生成する手法は上述したステップ604の手法は
もちろんのこと、それを上述した任意の変形例で置き換
えて実施することも可能である。この実施例の変更によ
り、外部記憶装置に多種類のデータを保持することがで
きるので、第1の画像に対して、様々な第2の画像との
組み合わせによる画像シミュレーションを実施すること
ができる。
Seventh, a method of generating the second image in step 604 will be described. This step is taken offline as a procedure, and the result is stored in the external storage device 2.
05, and store it in the external storage device 2 when using it.
05 can also be read. At this time, the method of generating the second image may be the same as the method of step 604 described above, but may be replaced with any modified example described above. By changing this embodiment, various types of data can be held in the external storage device, so that an image simulation can be performed on the first image in combination with various second images.

【0197】第8に、ステップ605では、第3の画像
を生成して、この画像をCRT201に表示して、外部
記憶装置205に画像データとして出力するが、第3の
画像の生成の後、画像のCRTへの表示のみで終了する
ことも可能であるし、また、CRTへの表示を行わずに
画像データを出力することで終了することも可能であ
る。さらに、画像データの出力は外部記憶装置へではな
く、ハードコピー装置や、または、ネットワークを介し
た他の任意の機器への出力であるように変更することも
可能である。
Eighth, in step 605, a third image is generated, this image is displayed on the CRT 201, and output to the external storage device 205 as image data. After the generation of the third image, The processing can be ended only by displaying the image on the CRT, or can be ended by outputting the image data without displaying the image on the CRT. Further, the output of the image data can be changed not to the external storage device but to a hard copy device or another arbitrary device via a network.

【0198】第9に上記実施例はカラーモデルをRGB
カラーモデルとして説明を行ったが、任意のカラーモデ
ルでも同様に実施が可能である。
Ninth, the above embodiment uses color models of RGB.
Although the description has been given as a color model, the present invention can be similarly implemented with an arbitrary color model.

【0199】[0199]

【発明の効果】本発明によれば、以下の効果がある。According to the present invention, the following effects can be obtained.

【0200】(1)カラーまたは白黒の濃淡画像内のあ
る領域の色やテクスチャを変更する画像シミュレーショ
ンを行う際に、元の画像内の細かいテクスチャの影響は
無視して、陰影等の変化を反映できる画像シミュレーシ
ョンが可能となる。
(1) When performing an image simulation for changing the color or texture of a certain area in a color or black-and-white gray image, the influence of fine texture in the original image is ignored, and changes in shadows and the like are reflected. A possible image simulation can be performed.

【0201】(2)カラーまたは白黒の濃淡画像内のあ
る領域の色やテクスチャを、元の画像内の陰影等を反映
させながら変更する画像シミュレーションを行う際に、
物体色には影響されずに、陰影等を忠実に再現できる画
像シミュレーションが可能となる。
(2) When performing an image simulation for changing the color or texture of a certain area in a color or black-and-white shaded image while reflecting a shadow or the like in the original image,
It is possible to perform an image simulation that can faithfully reproduce shadows and the like without being affected by the object color.

【0202】(3)カラーの濃淡画像内のある領域の色
やテクスチャを、元の画像内の陰影等を反映させながら
変更する画像シミュレーションを行う際に、光源色の違
いを忠実に再現できる画像シミュレーション方法が可能
となる。
(3) When performing an image simulation in which the color or texture of a certain area in a color shading image is changed while reflecting a shadow or the like in the original image, an image capable of faithfully reproducing a difference in light source color. A simulation method becomes possible.

【0203】(4)カラーの濃淡画像内の特定の領域
を、元の画像の陰影等や照り返しを反映させながら、単
一色ではないテクスチャに変更する画像シミュレーショ
ンが可能となる。
(4) It is possible to perform an image simulation in which a specific area in a color shading image is changed to a texture that is not a single color while reflecting a shadow or the like or a reflection of the original image.

【0204】(5)カラーの濃淡画像内の単一色ではな
いテクスチャを含む特定の領域を、元の画像の陰影等や
照り返しを反映させながら変更する画像シミュレーショ
ンが可能となる。
(5) It is possible to perform an image simulation in which a specific area including a texture that is not a single color in a grayscale image of a color is changed while reflecting a shadow or the like or a reflection of the original image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の画像シミュレーション方法の一実施例
の処理手順を示すフローチャート
FIG. 1 is a flowchart showing a processing procedure of an embodiment of an image simulation method according to the present invention.

【図2】ハードウェア構成図FIG. 2 is a hardware configuration diagram.

【図3】注目画素のまわりで色ベクトルの平均をとる方
法を説明するための図
FIG. 3 is a diagram for explaining a method of averaging color vectors around a target pixel;

【図4】テクスチャマッピングにより画像を生成する方
法を説明するための図
FIG. 4 is a diagram for explaining a method of generating an image by texture mapping.

【図5】本実施例の目的を説明するための図FIG. 5 is a diagram for explaining the purpose of the present embodiment.

【図6】本発明の画像シミュレーション方法の別の実施
例の処理手順を示すフローチャート
FIG. 6 is a flowchart showing a processing procedure of another embodiment of the image simulation method of the present invention.

【符号の説明】[Explanation of symbols]

201…CRT、202…コンピュータ、203…キー
ボード、204…マウス、205…外部記憶装置、30
1…注目画素、302…平均領域の大きさ、401…対
象領域、501…対象領域。
201 CRT, 202 computer, 203 keyboard, 204 mouse, 205 external storage device, 30
1. Target pixel, 302: size of average area, 401: target area, 501: target area.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 加藤 誠 神奈川県川崎市麻生区王禅寺1099番地 株式会社日立製作所システム開発研究所 内 (72)発明者 宮岡 伸一郎 神奈川県川崎市麻生区王禅寺1099番地 株式会社日立製作所システム開発研究所 内 (56)参考文献 特開 平3−41570(JP,A) 特開 昭63−237172(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 11/60 120 G06T 1/00 510 G06T 7/00 100 JICSTファイル(JOIS)──────────────────────────────────────────────────の Continued on the front page (72) Inventor Makoto Kato 1099 Ozenji Temple, Aso-ku, Kawasaki City, Kanagawa Prefecture Inside Hitachi, Ltd.System Development Laboratory Co., Ltd. (72) Shinichiro Miyaoka 1099 Ozenji Temple, Aso-ku, Kawasaki City, Kanagawa Prefecture (56) References JP-A-3-41570 (JP, A) JP-A-63-237172 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G06T 11/60 120 G06T 1/00 510 G06T 7/00 100 JICST file (JOIS)

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】カラーまたは白黒の濃淡画像に対してテク
スチャを含む領域の画像シミュレーションを行う方法で
あって、 第1の画像を入力し 前記 第1の画像のシミュレーションの対象となるテクス
チャを含む領域の標準色ベクトルを定め 前記 テクスチャを含む領域のすべての画像について、そ
の近傍で色ベクトルの平均値を計算し、前記平均値と前
標準色ベクトルとの色成分ごとの比を画素ごとに計算
前記 テクスチャを含む領域の少なくとも一部の画素の色
ベクトルが変更された第2の画像を入力し 前記 テクスチャを含む領域のすべての画素について、そ
の画像に対応する第2の画像の画素の色ベクトルに、そ
の画素に対応する前記比を成分ごとに作用させた色ベク
トルを含む第3の画像を生成し 前記生成した第3の画像を出力する ことを特徴とする画
像シミュレーション方法。
1. A method of performing an image simulation of a region including a texture to the color or black-and-white grayscale image, enter the first image, including texture to be simulated in the first image defining a standard color vector region, for all the images of the area including the texture, calculates the average value of the color vector in the vicinity, the mean value and the previous
Calculates the ratio of each color component to the standard color vector for each pixel
And the color of at least a portion of the pixels in the region including the texture
Enter the second image vector is changed for every pixel of the area including the texture, the color vector of the pixel of the second image corresponding to the image, each component the ratio corresponding to that pixel Color vector
An image simulation method comprising: generating a third image including a torque, and outputting the generated third image .
【請求項2】カラーまたは白黒の濃淡画像に対してテク
スチャを含む領域の画像シミュレーションを行う方法で
あって、 第1の画像を入力し 前記 第1の画像のシミュレーションの対象となる対象領
域の標準色ベクトルを定め 前記 対象領域のすべての画像について、その近傍で色ベ
クトルの平均値を計算し、前記平均値と前記標準色ベク
トルとの色成分ごとの比を画素ごとに計算し 前記対象領域の少なくとも一部の画素の色ベクトルが変
更された第2の画像を入力し 前記 対象領域のすべての画素について、その画像に対応
する第2の画像の画素の色ベクトルに、その画素に対応
する前記比を成分ごとに作用させた色ベクトルを含む第
3の画像を生成し、前記生成した第3の画像を出力する ことを特徴とする画
像シミュレーション方法。
2. A method of performing an image simulation of a region including a texture to the color or black-and-white grayscale image, enter the first image, of the object region to be simulated in the first image defining a standard color vector, for all the images of the target area, calculates the average value of the color vector in the vicinity thereof, the ratio of each color component of the standard color vector and the mean value calculated for each pixel, the The color vector of at least some pixels in the target area is changed.
Enter the further the second image was, for all the pixels of the target area, the color vector of the pixel of the second image corresponding to the image, was allowed to act the ratio corresponding to the pixel for each component An image simulation method comprising: generating a third image including a color vector; and outputting the generated third image .
JP33816791A 1991-10-25 1991-12-20 Image simulation method Expired - Fee Related JP3235151B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP33816791A JP3235151B2 (en) 1991-12-20 1991-12-20 Image simulation method
US07/964,293 US5537638A (en) 1991-10-25 1992-10-20 Method and system for image mapping

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33816791A JP3235151B2 (en) 1991-12-20 1991-12-20 Image simulation method

Publications (2)

Publication Number Publication Date
JPH05174116A JPH05174116A (en) 1993-07-13
JP3235151B2 true JP3235151B2 (en) 2001-12-04

Family

ID=18315546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33816791A Expired - Fee Related JP3235151B2 (en) 1991-10-25 1991-12-20 Image simulation method

Country Status (1)

Country Link
JP (1) JP3235151B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8391601B2 (en) * 2009-04-30 2013-03-05 Tandent Vision Science, Inc. Method for image modification

Also Published As

Publication number Publication date
JPH05174116A (en) 1993-07-13

Similar Documents

Publication Publication Date Title
US5537638A (en) Method and system for image mapping
CN111508052B (en) Rendering method and device of three-dimensional grid body
McReynolds et al. Advanced graphics programming using OpenGL
WO2022116659A1 (en) Volumetric cloud rendering method and apparatus, and program and readable medium
JP5185418B2 (en) Method and apparatus for rendering translucent 3D graphics
US5384901A (en) Method of rendering a color image for an output medium from symbolic image data
US6621925B1 (en) Image processing apparatus and method and information providing medium
JP3478568B2 (en) Image data processing method and apparatus
Schott et al. A directional occlusion shading model for interactive direct volume rendering
JPH0778267A (en) Method for display of shadow and computer-controlled display system
GB2406252A (en) Generation of texture maps for use in 3D computer graphics
JP2973573B2 (en) Image conversion device
GB2371460A (en) Illumination through transparent refractive bodies
US6753875B2 (en) System and method for rendering a texture map utilizing an illumination modulation value
US6864889B2 (en) System for previewing a photorealistic rendering of a synthetic scene in real-time
JP5661381B2 (en) Image processing apparatus and method
JP3235151B2 (en) Image simulation method
US6781583B2 (en) System for generating a synthetic scene
Levene A framework for non-realistic projections
US9514566B2 (en) Image-generated system using beta distribution to provide accurate shadow mapping
Johnson Computer synthesis of spectroradiometric images for color imaging systems analysis
EP2063395B1 (en) Tinting a surface to simulate a visual effect in a computer generated scene
US6750862B1 (en) Method and system for performing enhanced lighting functions for texture map data
Atié et al. Towards a Calibrated 360° Stereoscopic HDR Image Dataset for Architectural Lighting Studies
JPH04213780A (en) Image processing method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees