JP2000011201A - Image simulation device - Google Patents

Image simulation device

Info

Publication number
JP2000011201A
JP2000011201A JP10196796A JP19679698A JP2000011201A JP 2000011201 A JP2000011201 A JP 2000011201A JP 10196796 A JP10196796 A JP 10196796A JP 19679698 A JP19679698 A JP 19679698A JP 2000011201 A JP2000011201 A JP 2000011201A
Authority
JP
Japan
Prior art keywords
image
masking area
data
pasted
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10196796A
Other languages
Japanese (ja)
Inventor
Hiroshi Yura
弘 由良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Printing Co Ltd filed Critical Toppan Printing Co Ltd
Priority to JP10196796A priority Critical patent/JP2000011201A/en
Publication of JP2000011201A publication Critical patent/JP2000011201A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To enable even an unskilled operator to easily operate and to form a composite image of high quality without spoiling its perspective feeling by mapping a pasted image which is converted into data of a view point coordinate system in a masking area. SOLUTION: The operator specifies a masking area by matching an area whose pattern is changed in a three-dimensional image I at a 1st display part 14a with its broken line 21. Namely, the orthogonal three-dimensional coordinates X, Y, and Z of the masking area and the three-dimensional coordinates of view point are specified. A controller stores pasted images with mutually different patterns corresponding to respective parts of a house. Then the controller converts the orthogonal three-dimensional coordinate data of (x), (y), and (z) of the specified pasted images to data of the orthogonal three-dimensional coordinates of X, Y, and Z so that the specified pasted images and specified masking area are superposed on each other. Further, the controller maps the pasted images converted to the data of the view point coordinate system in the masking area.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、合成画像を作成す
るための画像シミュレーション装置に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image simulation apparatus for creating a composite image.

【0002】[0002]

【従来の技術と発明が解決しようとする課題】例えば、
画像表示装置の画面上に図1に示すような家屋の立体的
な写真画像1を表示し、さらに、その画像1の一部の柄
や色を変更した合成画像を作成することで、家屋を実際
に建造した場合のイメージを確認できる画像シミュレー
ション装置が用いられている。
BACKGROUND OF THE INVENTION Problems to be Solved by the Invention
The three-dimensional photo image 1 of the house as shown in FIG. 1 is displayed on the screen of the image display device, and further, a composite image in which a part of the image 1 is changed in pattern and color is created, so that the house can be displayed. An image simulation device capable of confirming an image of an actual building is used.

【0003】従来の画像シミュレーション装置において
は、その画像1の一部の柄変更は、その変更を行う領域
を画面内において指定するマスキングを行ない、そのマ
スキング領域に、別の柄を有する画像を貼り付けるマッ
ピングによりさなされていた。
In the conventional image simulation apparatus, when changing a pattern of a part of the image 1, masking for designating an area to be changed on the screen is performed, and an image having another pattern is pasted on the masking area. It was done by mapping to attach.

【0004】そのような立体的な写真画像1における柄
は、その画像1を撮影した時の視点位置により変化す
る。例えば、屋根の柄が多数の長方形の瓦により構成さ
れる家屋の立体的な写真画像においては、その画像を撮
影した時の視点位置に応じて各瓦の形状は異なる。
[0004] The pattern in such a three-dimensional photographic image 1 changes depending on the viewpoint position when the image 1 is photographed. For example, in a three-dimensional photographic image of a house having a roof pattern made up of a number of rectangular tiles, the shape of each tile differs depending on the viewpoint position when the image was taken.

【0005】しかし、従来の画像シミュレーション装置
においては、その貼り付け画像の柄を正確な立体的なイ
メージになるように変化させることができなかった。例
えば、その立体的な画像1の屋根部分1aを、スレート
葺きから長方形の瓦葺きに変更する場合、その変更後に
おける瓦の形状は常に長方形であった。そのため、家屋
を実際に建造した場合の正確なイメージを確認できなか
った。
However, in the conventional image simulation apparatus, the pattern of the pasted image cannot be changed to an accurate three-dimensional image. For example, when the roof portion 1a of the three-dimensional image 1 is changed from slate roofing to rectangular tile roofing, the shape of the tile after the change is always rectangular. For this reason, it was not possible to confirm an accurate image when the house was actually built.

【0006】そこで、そのマッピングを行う前に貼り付
け画像の柄を変化させ、その変化後の画像をマスキング
領域にマッピングすることが行われている。その貼り付
け画像の柄の変化は、変化前の2次元座標系の画像デー
タを、例えばアフィン変換と呼ばれる座標変換式に基づ
き変換することで行っている。
[0006] Therefore, the pattern of the pasted image is changed before the mapping, and the image after the change is mapped to the masking area. The change of the pattern of the pasted image is performed by transforming the image data of the two-dimensional coordinate system before the change based on, for example, a coordinate transformation formula called affine transformation.

【0007】しかし、その変換は単に外形のみを一致さ
せるものであるため、正確なイメージを得るのは困難で
あり、実際の見え方とは異なるものになってしまう。例
えば、図2の(1)に示すような複数の等しい大きさの
長方形2aの柄を有する貼り付け画像2を、アフィン変
換により図2の(2)に示すような貼り付け画像2′に
変化させる場合、変化前の貼り付け画像2の各長方形2
aの辺Kに対応する変化後の貼り付け画像2′の辺K′
が、視点から遠ざかるにつれて(図において右方に向か
うにつれて)長くなる。これは、実際には視点から遠ざ
かるにつれて短くなるという見え方に反することにな
り、遠近感が害される。
[0007] However, since the conversion simply matches the outer shape, it is difficult to obtain an accurate image, and the actual appearance is different. For example, a pasted image 2 having a pattern of a plurality of equally-sized rectangles 2a as shown in (1) of FIG. 2 is changed to a pasted image 2 'as shown in (2) of FIG. 2 by affine transformation. When making it, each rectangle 2 of the pasted image 2 before the change
Side K ′ of pasted image 2 ′ after change corresponding to side K of a
Becomes longer as the distance from the viewpoint increases (to the right in the figure). This actually contradicts the appearance that the distance becomes shorter as the distance from the viewpoint increases, and the perspective is impaired.

【0008】本発明は、上記問題を解決することのでき
る画像のシミュレーション装置を提供することを目的と
する。
An object of the present invention is to provide an image simulation apparatus capable of solving the above-mentioned problem.

【0009】[0009]

【課題を解決するための手段】本発明の画像シミュレー
ション装置は、画像の表示手段と、その表示画像におけ
るマスキング領域を直交3次元座標により特定する手段
と、その特定されたマスキング領域における視点座標を
特定する手段と、そのマスキング領域における貼り付け
画像のデータを直交座標系のデータとして記憶する手段
と、その貼り付け画像のデータを、その特定された視点
座標系のデータに変換する手段と、視点座標系のデータ
に変換された貼り付け画像を、そのマスキング領域にマ
ッピングする手段とを備えることを特徴とする。本発明
によれば、貼り付け画像を視点座標系のデータに変換し
てマスキング領域にマッピングできるので、柄変更を行
う場合に遠近感が害されるのを防止できる。
According to the present invention, there is provided an image simulation apparatus comprising: an image display unit; a unit for specifying a masking region in a display image by orthogonal three-dimensional coordinates; and a viewpoint coordinate in the specified masking region. Means for specifying, means for storing the data of the pasted image in the masking area as data of the rectangular coordinate system, means for converting the data of the pasted image to the data of the specified viewpoint coordinate system, Means for mapping the pasted image converted to the coordinate system data to the masking area. According to the present invention, since the pasted image can be converted into data in the viewpoint coordinate system and mapped to the masking area, it is possible to prevent the perspective from being hindered when the pattern is changed.

【0010】[0010]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0011】図3に示す画像シミュレーション装置11
は、コンピュータにより構成される制御装置12と、こ
の制御装置12に接続されるマウス等の第1入力装置1
3a、キーボード等の第2入力装置13b、表示装置1
4、およびイメージスキャナ等の画像入力装置15を備
える。
An image simulation apparatus 11 shown in FIG.
Is a control device 12 constituted by a computer, and a first input device 1 such as a mouse connected to the control device 12.
3a, second input device 13b such as keyboard, display device 1
And an image input device 15 such as an image scanner.

【0012】図4は、その表示装置14の画面を示すも
ので、第1〜第3表示部14a、14b、14cを有す
る。
FIG. 4 shows a screen of the display device 14, which has first to third display portions 14a, 14b and 14c.

【0013】その第1表示部14aに、その画像入力装
置15から入力される立体的な画像、あるいは、制御装
置12に予め記憶された立体的な画像が表示される。本
実施形態では、上記図1に示すような立体的な家屋の画
像1が表示される。
On the first display section 14a, a three-dimensional image input from the image input device 15 or a three-dimensional image stored in the control device 12 in advance is displayed. In the present embodiment, a three-dimensional image 1 of a house as shown in FIG. 1 is displayed.

【0014】その第2表示部14bは、XYZの直交3
次元座標系におけるXZ面に対応する。この第2表示部
14bに、第1入力装置13aからの入力に応じて移動
するカーソル画像18aが表示される。その制御装置1
2は、第2入力装置13bからの入力により、マスキン
グ領域特定モードと視点特定モードに切り換えられる。
そのマスキング領域特定モードにおいては、そのカーソ
ルの位置に対応して、マスキング領域を特定するための
XZ座標を制御装置12に入力することができる。その
視点特定モードにおいては、そのカーソルの位置に対応
して、視点を特定するためのXZ座標を制御装置12に
入力することができる。
The second display section 14b displays an XYZ orthogonal 3
It corresponds to the XZ plane in the dimensional coordinate system. A cursor image 18a that moves in response to an input from the first input device 13a is displayed on the second display unit 14b. The control device 1
2 is switched between a masking region specifying mode and a viewpoint specifying mode by an input from the second input device 13b.
In the masking region specifying mode, XZ coordinates for specifying the masking region can be input to the control device 12 corresponding to the position of the cursor. In the viewpoint specifying mode, XZ coordinates for specifying the viewpoint can be input to the control device 12 corresponding to the position of the cursor.

【0015】その第3表示部14cは、XYZの直交3
次元座標系におけるXY面に対応する。この第3表示部
14cにおいても、第1入力装置13aからの入力に応
じて移動するカーソル画像18aが表示される。そのカ
ーソル画像18aは、第2表示部14bと第3表示部1
4cとに選択的に表示可能とされている。上記マスキン
グ領域特定モードにおいては、そのカーソルの位置に対
応して、マスキング領域を特定するためのXY座標を制
御装置12に入力することができる。上記視点特定モー
ドにおいては、そのカーソルの位置に対応して、視点を
特定するためのXY座標を制御装置12に入力すること
ができる。
The third display section 14c displays the XYZ orthogonal 3
It corresponds to the XY plane in the dimensional coordinate system. The cursor image 18a that moves in response to an input from the first input device 13a is also displayed on the third display unit 14c. The cursor image 18a is displayed on the second display unit 14b and the third display unit 1
4c can be selectively displayed. In the masking region specifying mode, XY coordinates for specifying the masking region can be input to the control device 12 corresponding to the position of the cursor. In the viewpoint specifying mode, XY coordinates for specifying the viewpoint can be input to the control device 12 corresponding to the position of the cursor.

【0016】なお、第2表示部14bにおけるカーソル
の位置に対応して特定されたマスキング領域あるいは視
点のX座標と、第3表示部14cにおけるカーソルの位
置に対応して特定されたマスキング領域あるいは視点の
X座標とが相違する場合は、後から入力されたX座標に
よりマスキング領域あるいは視点が特定される。
Note that the X coordinate of the masking area or viewpoint specified in accordance with the position of the cursor in the second display unit 14b and the masking area or viewpoint specified in accordance with the position of the cursor in the third display unit 14c. Is different from the X coordinate, the masking area or the viewpoint is specified by the X coordinate input later.

【0017】その第1表示部14aに表示される画像の
画素は、XYZの直交3次元座標に対応するものとさ
れ、かつ、その対応関係は視点位置に応じて変化するも
のとされている。その視点位置に応じて変化する画素と
直交3次元座標との対応関係は制御装置12に記憶され
る。その対応関係に基づいて制御装置12は、その第2
表示部14bと第3表示部14cとにおいて特定された
マスキング領域と視点とに対応するマスキング領域の輪
郭を、第1表示部14aに例えば図示のように破線21
により表示する。
The pixels of the image displayed on the first display section 14a correspond to XYZ orthogonal three-dimensional coordinates, and the correspondence changes according to the viewpoint position. The correspondence between the pixels that change according to the viewpoint position and the three-dimensional orthogonal coordinates is stored in the control device 12. Based on the correspondence, the control device 12
The outline of the masking region corresponding to the masking region and the viewpoint specified on the display unit 14b and the third display unit 14c is displayed on the first display unit 14a by, for example, a dashed line 21 as illustrated.
Display by

【0018】オペレータは、その第1表示部14aにお
ける立体的な画像1において柄変更を行う領域を、その
破線21に一致させることで、マスキング領域を特定す
る。図示の例では、画像1の屋根部分1aが特定されて
いる。すなわち、そのマスキング領域のXYZの直交3
次元座標と視点の3次元座標系とが特定される。
The operator specifies the masking area by matching the area where the pattern is to be changed in the three-dimensional image 1 on the first display section 14a with the broken line 21. In the illustrated example, the roof portion 1a of the image 1 is specified. That is, the XYZ orthogonal 3 of the masking area
The three-dimensional coordinate system and the three-dimensional coordinate system of the viewpoint are specified.

【0019】その制御装置12は、家屋の各部に対応す
る複数の互いに異なる柄を有する貼り付け画像を記憶す
る。各貼り付け画像は、例えばxy平面において予め設
定した大きさを有する長方形であって、z軸方向の大き
さが零のxyzの直交3次元直交座標のデータとして記
憶される。その貼り付け画像の大きさは、単一あるいは
複数でマスキング領域の大きさに合致するように設定さ
れる。オペレータは、上記第2入力装置13bからの入
力により、そのマスキング領域と大きさが一致する、あ
るいは、そのマスキング領域よりも小さい貼り付け画像
の一つを特定することができる。
The control device 12 stores a plurality of pasted images having different patterns corresponding to each part of the house. Each pasted image is, for example, a rectangle having a predetermined size on the xy plane, and is stored as xyz orthogonal three-dimensional orthogonal coordinate data having a zero size in the z-axis direction. The size of the pasted image is set singly or plurally so as to match the size of the masking area. The operator can specify one of the pasted images having the same size as the masking area or smaller than the masking area by the input from the second input device 13b.

【0020】制御装置12は、その特定された貼り付け
画像のxyzの直交3次元座標のデータを、その特定さ
れた貼り付け画像と特定されたマスキング領域とが重な
るように、XYZの直交3次元座標のデータに変換す
る。貼り付け画像の大きさがマスキング領域よりも小さ
い場合は、まず、例えば最も原点に近いマスキング領域
と貼り付け画像とが重なるように、その画像データを変
換する。次に、その貼り付け画像のXYZの直交3次元
座標のデータを、その貼り付け画像を上記特定された視
点から見た場合の画像に対応する視点座標系のデータに
変換する。その変換は公知の方法により行うことができ
る。例えば、視線方向の座標をW、そのWからXY平面
上に下ろした垂線の足の座標をU、そのWからXZ平面
上に下ろした垂線の足の座標をV、そのWからXY平面
上に下ろした垂線の足と原点とを結ぶ線分がXY平面内
でX軸となす水平偏角をθ、そのWからXZ平面上に下
ろした垂線の足と原点とを結ぶ線分がXZ平面内でX軸
となす垂直偏角をψ、視点座標を(Xs、Ys、Zs)
として、以下の変換式により変換できる。 U=−(X−Xs)sinθ+(Y−Ys)cosθ V=−{−(X−Xs)cosθ+(Y−Ys)sin
θ}sinψ+(Z−Zs)cosψ W={−(X−Xs)cosθ+(Y−Ys)sin
θ}cosψ+(Z−Zs)sinθ あるいは、視線ベクトルE=(Ex、Ey、Ez)、視
点座標(Vx、Vy、Vz)、ピクセル値(Px、P
y、Pz)として、以下の変換式により変換できる。 Ex=(Px−Vx)/L、Ey=(Py−Vy)/
L、Ez=(Pz−Vz)/L L={(Px−Vx)2 +(Py−Vy)2 +(Pz−
Vz)2 1/2
The control device 12 converts the data of the xyz orthogonal three-dimensional coordinates of the specified pasted image into the XYZ orthogonal three-dimensional coordinates so that the specified pasted image and the specified masking area overlap. Convert to coordinate data. If the size of the pasted image is smaller than the masking area, first, the image data is converted so that, for example, the masking area closest to the origin and the pasted image overlap. Next, the data of the XYZ orthogonal three-dimensional coordinates of the pasted image is converted into data of a viewpoint coordinate system corresponding to the image when the pasted image is viewed from the specified viewpoint. The conversion can be performed by a known method. For example, the coordinates in the line-of-sight direction are W, the coordinates of the perpendicular foot lowered from the W on the XY plane are U, the coordinates of the perpendicular foot lowered from the W on the XZ plane are V, and the coordinate of the perpendicular foot is W on the XY plane. The horizontal declination that the line connecting the foot of the lowered perpendicular and the origin makes the X axis in the XY plane is θ, and the line connecting the foot of the perpendicular dropped from the W to the XZ plane and the origin is in the XZ plane. Is the vertical declination with the X axis, and the viewpoint coordinates are (Xs, Ys, Zs)
Can be converted by the following conversion formula. U = − (X−Xs) sin θ + (Y−Ys) cos θ V = − {− (X−Xs) cos θ + (Y−Ys) sin
θ} sinψ + (Z−Zs) cosψ W = {− (X−Xs) cos θ + (Y−Ys) sin
θ} cosψ + (Z−Zs) sinθ Alternatively, the line-of-sight vector E = (Ex, Ey, Ez), viewpoint coordinates (Vx, Vy, Vz), pixel value (Px, P
y, Pz) can be converted by the following conversion formula. Ex = (Px−Vx) / L, Ey = (Py−Vy) /
L, Ez = (Pz−Vz) / L L = {(Px−Vx) 2 + (Py−Vy) 2 + (Pz−
Vz) 21/2

【0021】制御装置12は、その視点座標系のデータ
に変換された貼り付け画像を、上記マスキング領域にマ
ッピングする。貼り付け画像の大きさがマスキング領域
よりも小さい場合は、例えば最も原点に近いマスキング
領域から順に、このマッピングを繰り返す。
The control device 12 maps the pasted image converted into the data of the viewpoint coordinate system onto the masking area. If the size of the pasted image is smaller than the masking area, this mapping is repeated, for example, in order from the masking area closest to the origin.

【0022】上記実施形態では、マスキング領域におけ
る柄だけでなく、色換えも可能とされている。例えば、
そのマスキング領域における色データを、赤(R)緑
(G)青(B)の三原色の濃度値(RGB値)として制
御装置12は記憶し、そのRGB値を色相(H)、彩度
(S)、明度(V)の値に変換し、その色相の値のみを
変更した後に、RGB値へ逆変換するという公知の方法
で行う。
In the above embodiment, not only the pattern in the masking area but also the color change is made possible. For example,
The control device 12 stores the color data in the masking area as density values (RGB values) of the three primary colors of red (R) green (G) and blue (B), and stores the RGB values in hue (H) and saturation (S). ), The value is converted into a value of lightness (V), only the value of the hue is changed, and then the value is inversely converted into an RGB value.

【0023】また、マスキング領域における陰影は、そ
のRGB値を色相H、彩度(S)、明度(V)の値に変
換し、その彩度と明度の値のみを変更した後に、RGB
値へ逆変換するという公知の方法で行う。
For the shadow in the masking area, the RGB values are converted into hue H, saturation (S), and lightness (V) values, and only the saturation and lightness values are changed.
This is performed by a well-known method of converting back to a value.

【0024】なお、本発明は上記実施形態に限定されな
い。例えば、本発明を適用できる画像は家屋の画像に限
定されない。
The present invention is not limited to the above embodiment. For example, the image to which the present invention can be applied is not limited to a house image.

【0025】[0025]

【発明の効果】本発明の画像シミュレーション装置によ
れば、習熟したオペレータでなくても簡単に操作でき、
遠近感を害することのない高品質な合成画像を得ること
ができる。
According to the image simulation apparatus of the present invention, it is possible to easily operate even an unskilled operator,
It is possible to obtain a high-quality composite image that does not impair the perspective.

【図面の簡単な説明】[Brief description of the drawings]

【図1】立体的な画像の一例を示す図FIG. 1 is a diagram showing an example of a three-dimensional image.

【図2】(1)、(2)は従来の問題の説明図FIGS. 2A and 2B are explanatory diagrams of a conventional problem.

【図3】本発明の実施形態の画像シミュレーション装置
の構成説明図
FIG. 3 is a configuration explanatory view of an image simulation apparatus according to the embodiment of the present invention;

【図4】本発明の実施形態の画像シミュレーション装置
の表示装置の画面の説明図
FIG. 4 is an explanatory diagram of a screen of a display device of the image simulation device according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

11 画像シミュレーション装置 12 制御装置 11 image simulation device 12 control device

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 画像の表示手段と、 その表示画像におけるマスキング領域を直交3次元座標
により特定する手段と、 その特定されたマスキング領域における視点座標を特定
する手段と、 そのマスキング領域における貼り付け画像のデータを直
交座標系のデータとして記憶する手段と、 その貼り付け画像のデータを、その特定された視点座標
系のデータに変換する手段と、 視点座標系のデータに変換された貼り付け画像を、その
マスキング領域にマッピングする手段とを備える画像シ
ミュレーション装置。
1. A means for displaying an image, a means for specifying a masking area in the display image by orthogonal three-dimensional coordinates, a means for specifying viewpoint coordinates in the specified masking area, and a pasting image in the masking area Means for storing the data of the coordinate system as data in the rectangular coordinate system, means for converting the data of the pasted image to the data of the specified viewpoint coordinate system, and means for pasting the image converted to the data of the viewpoint coordinate system. , A means for mapping to the masking area.
JP10196796A 1998-06-25 1998-06-25 Image simulation device Pending JP2000011201A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10196796A JP2000011201A (en) 1998-06-25 1998-06-25 Image simulation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10196796A JP2000011201A (en) 1998-06-25 1998-06-25 Image simulation device

Publications (1)

Publication Number Publication Date
JP2000011201A true JP2000011201A (en) 2000-01-14

Family

ID=16363803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10196796A Pending JP2000011201A (en) 1998-06-25 1998-06-25 Image simulation device

Country Status (1)

Country Link
JP (1) JP2000011201A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015153072A (en) * 2014-02-13 2015-08-24 スズカファイン株式会社 Article color scheme design simulator, computer program for the same, computer-readable recording medium recording program and simulation method for article color scheme design

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015153072A (en) * 2014-02-13 2015-08-24 スズカファイン株式会社 Article color scheme design simulator, computer program for the same, computer-readable recording medium recording program and simulation method for article color scheme design

Similar Documents

Publication Publication Date Title
US6961064B2 (en) System and method for combining graphics formats in a digital video pipeline
KR100403859B1 (en) Projection display and display method therefor, and image display
US6172681B1 (en) Color adjustment and conversion method
JP2007251914A (en) Image signal processing apparatus, and virtual reality creating system
US6320578B1 (en) Image shadow elimination method, image processing apparatus, and recording medium
KR101310216B1 (en) Apparatus and method for converting color of images cinematograph
JPH0561954A (en) Image processor
JPH11328443A (en) System and method for generating three-dimensional panorama image and recording media therefor
JP2000011201A (en) Image simulation device
JP3352458B2 (en) Graphic Coloring Method for Graphic Display System
JPH03127284A (en) Color picture processing device
JP3769823B2 (en) Image processing device
JP3356865B2 (en) Map making method and apparatus
KR100545116B1 (en) Color Correction Device and Color Correction Method, Image Processing Device and Image Processing Method
JP2713677B2 (en) Color image color change processing method and color image synthesis processing method
JP2756047B2 (en) Color image color adjustment method and apparatus, and image synthesis method
JP2701056B2 (en) Secondary representation method for three-dimensional objects
JP3468887B2 (en) Image creation method and image creation device
JP3453410B2 (en) Image processing apparatus and method
JPH05225299A (en) Color conversion system
JPH02173744A (en) Screen tint film forming device
JP3075110B2 (en) Image trimming device
JPH06180573A (en) Image forming method
CA1324321C (en) System and method for color image enhancement
JP2847740B2 (en) Coloring method for achromatic objects

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20031128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040220