JPH07152925A - Image generating device - Google Patents

Image generating device

Info

Publication number
JPH07152925A
JPH07152925A JP29697893A JP29697893A JPH07152925A JP H07152925 A JPH07152925 A JP H07152925A JP 29697893 A JP29697893 A JP 29697893A JP 29697893 A JP29697893 A JP 29697893A JP H07152925 A JPH07152925 A JP H07152925A
Authority
JP
Japan
Prior art keywords
image
dimensional
light source
edge portion
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP29697893A
Other languages
Japanese (ja)
Other versions
JP3261832B2 (en
Inventor
Jirou Shigenami
次郎 栄浪
Yoshikazu Kaneko
嘉和 金子
Yutaka Tomita
豊 冨田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Printing Co Ltd filed Critical Toppan Printing Co Ltd
Priority to JP29697893A priority Critical patent/JP3261832B2/en
Publication of JPH07152925A publication Critical patent/JPH07152925A/en
Application granted granted Critical
Publication of JP3261832B2 publication Critical patent/JP3261832B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

PURPOSE:To generate a 3D CG image of a body made of glass, metal, etc., which has its edge part emphasized and is rich in expressing power by the image generating device of simple constitution. CONSTITUTION:The device is equipped with a 3D CG image generating means 1 which projects three-dimensional shape data on the body on a two-dimensional plane and performs a rendering process to generate the 3D CG image, an edge part specifying means 11 which specifies the edge part of the body in the 3D CG image, a plane setting means 13 which sets a new definition plane 12 nearby the edge part as to the three-dimensional shape data corresponding to the edge part, a texture pasting means which pastes a two-dimensional texture image of gradation tone to the definition plane, a light source setting means 14 which sets a light source L2 irradiating the definition plane 12, and an edge part image generating means 16 which projects the three-dimensional shape data on the two-dimensional plane 6 as to the definition plane 12 and performs the rendering process on the basis of the light source L2, etc.; and the 3D CG image is generated in consideration of the brightness of only the edge part.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、3次元コンピュータグ
ラフィック(以下、3DCGという。)技術を利用して
作成された3DCG画像に描画されている物体のエッジ
部を強調するための画像生成装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image generating apparatus for emphasizing an edge portion of an object drawn on a 3DCG image created by using a three-dimensional computer graphic (hereinafter referred to as 3DCG) technique. It is a thing.

【0002】[0002]

【従来の技術】従来、3次元形状データの集合として与
えられる物体の形状を視覚化する方法として、3DCG
技術を利用する方法が知られている。この方法は、物体
の3次元形状データを2次元平面上に投影し、これによ
って形成される2次元の画像を2次元表示装置(CRT
等)に表示することにより、3次元形状の可視化を行う
ものである。
2. Description of the Related Art Conventionally, 3DCG has been used as a method for visualizing the shape of an object given as a set of three-dimensional shape data.
Methods of utilizing the technology are known. This method projects three-dimensional shape data of an object on a two-dimensional plane, and a two-dimensional image formed by this is projected on a two-dimensional display device (CRT).
Etc.) to visualize the three-dimensional shape.

【0003】この場合において、2次元の画像によって
3次元物体の形状を表すには、その現実感、すなわち、
立体感を付与する必要がある。2次元の画像への立体感
の付与は、2次元の画像の物体表面に模様付けおよび陰
影付けを実施することにより行われる。模様付けの方法
には、テクスチャマッピング法と呼ばれる方法があり、
この方法によれば、物体を構成する各面にテクスチャ画
像データを貼り込むことによって模様付けが行われる。
また、陰影付けは、3次元物体に対し、該3次元物体を
照射するための光源を設定し、3次元物体の各面につい
て、面の法線方向、光源の方向、光源からの光の強度、
平面の反射特性、視線方向等の条件から面の明るさを計
算することにより求められた陰影情報を上記模様付けと
同時に物体の各面に貼り込むことにより行われる。
In this case, in order to represent the shape of a three-dimensional object by a two-dimensional image, its realism, that is,
It is necessary to give a three-dimensional effect. The stereoscopic effect is given to the two-dimensional image by performing patterning and shading on the object surface of the two-dimensional image. There is a method called texture mapping method for patterning,
According to this method, patterning is performed by pasting texture image data on each surface forming the object.
In addition, shading sets a light source for irradiating the three-dimensional object to the three-dimensional object, and for each surface of the three-dimensional object, the normal direction of the surface, the direction of the light source, and the intensity of light from the light source ,
The shading information obtained by calculating the brightness of the surface from the conditions such as the reflection characteristic of the plane and the line-of-sight direction is attached to each surface of the object simultaneously with the patterning.

【0004】[0004]

【発明が解決しようとする課題】ところで、物体が金属
やガラス等の光沢を有する材質よりなるものである場合
には、そのエッジ部、すなわち、隣接する2つの面の境
界線部分が、他の部分と比較して輝いて見えることが経
験上知られている。したがって、当該物体を3DCG画
像によって表現する場合に、その表現をより写実的なも
のとするためには、エッジ部を特に強調した3DCG画
像を生成する必要がある。
By the way, when an object is made of a material having a luster such as metal or glass, its edge portion, that is, the boundary line portion between two adjacent surfaces is different from the other. It is known from experience that it looks brighter than a part. Therefore, when the object is expressed by a 3DCG image, in order to make the expression more realistic, it is necessary to generate a 3DCG image in which the edge portion is particularly emphasized.

【0005】しかしながら、物体の3次元形状データ
は、通常、エッジ部のみを表現する面を有しないので、
エッジ部はあくまでも隣接する面が不連続に接触する境
界線として表現されるに過ぎず、光源をどのように設定
しても、エッジ部のみを輝かせることはできなかった。
また、最終的に生成される3DCG画像の完成イメージ
を想定して、予めエッジ部のみに新たな定義面を設定し
ておくことも考えられるが、3DCG画像として物体の
どのエッジ部がどのような形で表現されるかについて、
3DCG画像を生成する前に想定するには、オペレータ
に相当の経験を要するという困難性があった。
However, since the three-dimensional shape data of an object usually does not have a surface expressing only an edge portion,
The edge part is merely represented as a boundary line where adjacent surfaces are in discontinuous contact, and no matter how the light source is set, it is not possible to make only the edge part shine.
Further, it is conceivable to set a new definition surface only in the edge portion in advance, assuming a completed image of the 3DCG image to be finally generated. About how it is expressed in form,
There was the difficulty that the operator required considerable experience to make assumptions before generating the 3DCG image.

【0006】さらに、全てのエッジ部に予め定義面を設
定しておくことも考えられるが、相当の手間を要すると
ともに、最終的な3DCG画像において表現されないエ
ッジ部についても、定義面ごとに画像生成のための複雑
な演算を行わねばならず、演算処理に要する時間が増大
してしまうという不都合がある。
Further, although it is conceivable to set the definition planes in advance for all the edge portions, it takes a lot of time and effort, and even for the edge portions not represented in the final 3DCG image, an image is generated for each definition surface. Therefore, there is an inconvenience that the time required for the arithmetic processing is increased.

【0007】本発明は、上述した事情に鑑みてなされた
ものであって、ガラス、金属製等の物体のエッジ部を強
調して、表現力の豊かな3DCG画像を簡易な構成によ
り生成することができる画像生成装置を提供することを
目的としている。
The present invention has been made in view of the above-mentioned circumstances, and it is possible to generate an expressive 3DCG image with a simple structure by emphasizing an edge portion of an object such as glass or metal. It is an object of the present invention to provide an image generation device capable of performing the above.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、エッジ部を有する物体の3次元形状デー
タを2次元平面に投影するとともに、前記物体の各面を
照射する光源および視点を指定してレンダリングを施す
ことにより、前記3次元形状データに対応付けられた3
次元コンピュータグラフィック画像を2次元平面上に生
成する3DCG画像生成手段と、生成された3次元コン
ピュータグラフィック画像に表された物体のエッジ部を
指定するエッジ部指定手段と、指定されたエッジ部に対
応する3次元形状データにおいてエッジ部近傍に新たな
定義面を設定する面設定手段と、設定された定義面に、
エッジ部からの距離に応じて漸次明度を変化させるグラ
デーション調の2次元テクスチャ画像を貼込むテクスチ
ャ貼込み手段設定と、設定された定義面を照射する前記
光源とは別個の光源を設定する光源設定手段と、設定さ
れた定義面の3次元形状データを2次元平面に投影する
とともに、前記視点および設定された光源に基づいてレ
ンダリングを施すエッジ部画像生成手段とを具備する画
像生成装置を提案している。
In order to achieve the above object, the present invention provides a light source for projecting three-dimensional shape data of an object having an edge portion onto a two-dimensional plane and irradiating each surface of the object. By performing rendering by designating a viewpoint, the 3D shape data associated with the 3D shape data can be obtained.
3D CG image generating means for generating a two-dimensional computer graphic image on a two-dimensional plane, edge portion designating means for designating an edge portion of an object represented in the generated three-dimensional computer graphic image, and corresponding to the designated edge portion Surface setting means for setting a new definition surface near the edge in the three-dimensional shape data, and the set definition surface,
Texture pasting means setting for pasting a gradation-like two-dimensional texture image in which the brightness is gradually changed according to the distance from the edge portion, and light source setting for setting a light source different from the light source for illuminating the defined surface that has been set An image generating apparatus is provided, which comprises: means and an edge portion image generating means for projecting three-dimensional shape data of a set definition surface onto a two-dimensional plane and rendering based on the viewpoint and the set light source. ing.

【0009】[0009]

【作用】本発明に係る画像生成装置によれば、3DCG
画像生成手段の作動によって、物体の3次元形状データ
が2次元平面上に投影され、物体の各面を照射する光源
および視点が指定されてレンダリングが施されることに
より、3次元コンピュータグラフィック画像が2次元平
面上に生成される。この状態で、オペレータがエッジ部
指定手段を作動させて、3次元コンピュータグラフィッ
ク画像に表された物体のエッジ部を指定することによ
り、強調されるべきエッジ部が設定されるとともに、当
該エッジ部の3次元コンピュータグラフィック画像に対
応する物体の3次元形状データが指定される。
According to the image generating apparatus of the present invention, the 3DCG
By the operation of the image generating means, the three-dimensional shape data of the object is projected on the two-dimensional plane, and the light source and the viewpoint for illuminating each surface of the object are designated and rendering is performed, whereby a three-dimensional computer graphic image is obtained. It is generated on a two-dimensional plane. In this state, the operator operates the edge portion designating means to designate the edge portion of the object shown in the three-dimensional computer graphic image, thereby setting the edge portion to be emphasized and Three-dimensional shape data of the object corresponding to the three-dimensional computer graphic image is designated.

【0010】このようにして指定された3次元形状デー
タにおけるエッジ部近傍に、面設定手段の作動によって
新たな定義面を設定した後に、テクスチャ貼込み手段を
作動させることにより、当該定義面に、エッジ部から漸
次明度を変化させるグラデーション調の2次元テクスチ
ャ画像を貼込む。そして、該定義面に照射すべき光源を
光源設定手段の作動によって設定し、エッジ部画像生成
手段を作動させることにより、設定された光源および前
記視点に基づいて新たな定義面に対するレンダリングが
施され、エッジ部を強調した新たな3次元コンピュータ
グラフィック画像が生成されることになる。
By setting a new definition surface by the operation of the surface setting means in the vicinity of the edge portion in the thus designated three-dimensional shape data, and then operating the texture pasting means, A gradation-like two-dimensional texture image in which the lightness is gradually changed is pasted from the edge part. Then, the light source to be irradiated on the defined surface is set by operating the light source setting means, and the edge part image generating means is operated to render the new defined surface based on the set light source and the viewpoint. , A new three-dimensional computer graphic image with the edge portion emphasized is generated.

【0011】[0011]

【実施例】以下、本発明に係る画像生成装置の一実施例
について図1ないし図8を参照して説明する。図1は、
本実施例に係る画像生成装置1の構成を表すブロック図
を示している。本実施例の画像生成装置1は、3DCG
画像を生成する画像生成部(3DCG画像生成手段)2
と、該画像生成部2により生成された3DCG画像につ
いて、物体のエッジ部の3DCG画像を調整するエッジ
部画像調整部3とを具備し、これら前記画像生成部2お
よび該エッジ部画像調整部3には、各部における3DC
G画像の生成過程、オペレータへの指示、案内、メニュ
ー画面等を表示するディスプレイ4が接続されている。
該ディスプレイ4は、画像メモリ(図示略)を有してお
り、生成過程の3DCG画像等を表示・格納することが
できるようになっている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the image generating apparatus according to the present invention will be described below with reference to FIGS. Figure 1
The block diagram showing the structure of the image generation apparatus 1 which concerns on a present Example is shown. The image generation apparatus 1 of the present embodiment is a 3DCG.
Image generation unit (3DCG image generation means) for generating an image 2
And an edge part image adjusting part 3 for adjusting the 3DCG image of the edge part of the object with respect to the 3DCG image generated by the image generating part 2. The image generating part 2 and the edge part image adjusting part 3 3DC in each part
A display 4 is connected to display the G image generation process, operator instructions, guidance, menu screens, and the like.
The display 4 has an image memory (not shown) and can display and store 3DCG images and the like in the process of generation.

【0012】前記画像生成部2は、物体の形状を複数の
平面を貼り合わせたもの(以下、3Dモデルという。)
として構成し、その3次元データを作成する3Dモデル
作成部5と、構成された3Dモデルを任意の2次元の平
面6(以下、投影平面6という。)上に投影するととも
に、投影された3Dモデルの各平面に対する光源L1
を指定して陰影情報を計算することにより最終的な3D
CG画像を作成するレンダリング部7と、作成された3
DCG画像を格納するレンダリング画像蓄積部8と、前
記3Dモデルの各平面と前記投影平面6に投影された各
平面とを対応付けて記憶する面ラベルバッファ9とを具
備している。
The image generation unit 2 is formed by laminating a plurality of planes on the shape of an object (hereinafter referred to as 3D model).
And a 3D model creating unit 5 that creates the 3D data, and the configured 3D model is projected onto an arbitrary two-dimensional plane 6 (hereinafter referred to as a projection plane 6) and the projected 3D By designating the light source L 1 etc. for each plane of the model and calculating the shadow information, the final 3D
The rendering unit 7 that creates a CG image and the created 3
The rendering image storage unit 8 stores the DCG image, and the plane label buffer 9 that stores the planes of the 3D model and the planes projected on the projection plane 6 in association with each other.

【0013】また、前記エッジ部画像調整部3は、前記
画像生成部2において生成された3DCG画像を前記デ
ィスプレイ4上に表示した状態で、マウス10によって
3DCG画像中のエッジ部を指定するエッジ指定部(エ
ッジ部指定手段)11と、指定された3DCG画像のエ
ッジ部に基づいて該エッジ部近傍に新たな定義面12を
設定する面設定部(面設定手段)13と、設定された新
たな定義面12にテクスチャ画像を貼込むテクスチャ貼
込み部14と、設定された新たな定義面12のみに照射
する別個の光源L2を設定する光源設定部(光源設定手
段)15と、設定された光源L2および視点16に基づ
いて新たな定義面12にレンダリング処理を施す再レン
ダリング部(エッジ部画像生成手段)17とを具備して
いる。
The edge portion image adjusting portion 3 designates an edge portion in the 3DCG image with the mouse 10 in a state where the 3DCG image generated by the image generating portion 2 is displayed on the display 4. A portion (edge portion designating means) 11, a face setting portion (face setting means) 13 that sets a new defining surface 12 near the edge portion based on the designated edge portion of the 3DCG image, and a new set portion. A texture pasting unit 14 for pasting a texture image on the defining surface 12 and a light source setting unit (light source setting means) 15 for setting a separate light source L 2 for irradiating only the new set defining surface 12 are set. A re-rendering unit (edge portion image generation means) 17 that performs a rendering process on the new definition surface 12 based on the light source L 2 and the viewpoint 16.

【0014】前記3Dモデル作成部5は、3Dモデルを
作成する一般的なモデリング・システムであって、従来
より、種々の方法のものが提案されている。本実施例で
は、これらのモデリング・システムのうち任意のものを
用いることができ、1つのモデリング・システムに限定
されるものではない。
The 3D model creating section 5 is a general modeling system for creating a 3D model, and conventionally various methods have been proposed. In the present embodiment, any of these modeling systems can be used, and the present invention is not limited to one modeling system.

【0015】前記レンダリング部7は、物体の表面色お
よび3Dモデルの各面に貼り込むべきテクスチャ画像を
指定するとともに、3Dモデルに対する光源L1等を設
定し、これらを投影平面6に透視投影することにより、
3Dモデルを視覚化するものである。
The rendering unit 7 specifies the surface color of the object and the texture image to be attached to each surface of the 3D model, sets the light source L 1 and the like for the 3D model, and perspectively projects them on the projection plane 6. By
It is a visualization of a 3D model.

【0016】レンダリング処理としては、まず、図2に
示すように、3Dモデルの各面に対して貼り込むべきテ
クスチャ画像上の各画素を透視投影によって投影平面6
上の各画素に対応付ける。これにより、テクスチャ画像
の各画素値も投影平面の各画素に対応付けられる。次
に、透視投影された図形の各画素の表示色を、前記各画
素値に基づいて求める。表示色は視点16への反射光の
強さで表され、光源L1からの入力光の強さ、環境光の
強さ、環境光の反射率、拡散反射率、鏡面反射率、鏡面
反射の分散を近似する指数、面の法線方向の単位ベクト
ル、視点16方向の単位ベクトル、鏡面反射方向の単位
ベクトル等によって算出される。
As the rendering process, first, as shown in FIG. 2, each pixel on the texture image to be pasted on each surface of the 3D model is projected by a projection plane 6 by perspective projection.
Corresponds to each pixel above. Thereby, each pixel value of the texture image is also associated with each pixel of the projection plane. Next, the display color of each pixel of the perspective-projected figure is obtained based on each pixel value. The display color is represented by the intensity of the reflected light to the viewpoint 16, and includes the intensity of the input light from the light source L 1 , the intensity of the ambient light, the reflectance of the ambient light, the diffuse reflectance, the specular reflectance, and the specular reflectance. It is calculated by an index approximating the dispersion, a unit vector in the normal direction of the surface, a unit vector in the direction of the viewpoint 16 and a unit vector in the specular reflection direction.

【0017】この場合において、拡散反射率、環境光の
反射率等が、投影平面6の各画素に対応するテクスチャ
画像の画素値によって決定される。そして、求められた
各平面の表示色は、投影平面6を構成する各画素の色と
して、画像メモリに登録されることになる。また、透視
投影にあたっては、視点16から見て手前に位置する面
が後に位置する面を消去する、いわゆる隠面処理を行
う。隠面処理の方法としては、一般的なZバッファ・ア
ルゴリズム等を使用する。
In this case, the diffuse reflectance, the reflectance of ambient light, etc. are determined by the pixel value of the texture image corresponding to each pixel of the projection plane 6. Then, the obtained display color of each plane is registered in the image memory as the color of each pixel forming the projection plane 6. Further, in perspective projection, so-called hidden surface processing is performed in which a surface located in front of the viewpoint 16 is erased. A general Z-buffer algorithm or the like is used as the hidden surface processing method.

【0018】前記レンダリング画像蓄積部8は、上記3
DCG情報を記憶するためのメモリである。なお、これ
をハードディスクもしくは光磁気ディスク等の記憶媒体
としてもよい。
The rendering image storage section 8 has the above-mentioned 3
It is a memory for storing DCG information. It should be noted that this may be a storage medium such as a hard disk or a magneto-optical disk.

【0019】前記面ラベルバッファ9は、投影平面6と
同じ解像度を有するバッファメモリであって、投影平面
6の各画素にどの面が投影されているかを識別するため
の面ラベルを格納するようになっている。ここで、面ラ
ベルは、3Dモデルの表面を構成する各面に予めユニー
クに割り振られている整数である。面ラベルバッファ9
の内容は、隠面処理により投影平面6を書き直すときに
同時に書き直すことで、投影平面6の内容に一致させら
れるようになっている。
The surface label buffer 9 is a buffer memory having the same resolution as the projection plane 6 and stores a surface label for identifying which surface is projected on each pixel of the projection plane 6. Has become. Here, the surface label is an integer uniquely assigned in advance to each surface forming the surface of the 3D model. Face label buffer 9
When the projection plane 6 is rewritten by the hidden surface processing, the contents of are rewritten at the same time so as to match the contents of the projection plane 6.

【0020】前記面設定部13は、エッジ指定部11に
よってディスプレイ4上で指定された物体の3DCG画
像のエッジ部に基づいて、前記面ラベルバッファ9を参
照することにより、該エッジ部の画素に対応する面ラベ
ルを検索し、以下の手順にしたがって、3Dモデル上の
エッジ部近傍に新たな定義面12を設定するようになっ
ている。すなわち、例えば、図3および図4に示すよう
に、エッジ部を構成している2つの面S1・S2のうち、
それぞれの面S1・S2について、任意の基準点Oを設定
して該基準点Oからエッジ部までの距離をXとする。そ
して、基準点Oから新たに設定する定義面12までの距
離aと新たな定義面12の幅bとを距離Xに対する割合
で設定することによって、新たな定義面12を設定する
ようになっている。また、面設定部13においては、元
の面S1・S2の画像情報、例えば、反射率、表面属性、
法線ベクトル等を新たな定義面12に引き渡すようにな
っている。
The surface setting unit 13 refers to the surface label buffer 9 based on the edge portion of the 3DCG image of the object designated on the display 4 by the edge designating unit 11 to determine the pixel of the edge portion. The corresponding surface label is searched, and a new definition surface 12 is set in the vicinity of the edge portion on the 3D model according to the following procedure. That is, for example, as shown in FIGS. 3 and 4, of the two surfaces S 1 and S 2 forming the edge portion,
An arbitrary reference point O is set for each of the surfaces S 1 and S 2 , and the distance from the reference point O to the edge portion is X. Then, by setting the distance a from the reference point O to the newly defined definition surface 12 and the width b of the new definition surface 12 at a ratio to the distance X, the new definition surface 12 is set. There is. In the surface setting unit 13, image information of the original surfaces S 1 and S 2 , such as reflectance, surface attributes,
The normal vector and the like are transferred to the new defining surface 12.

【0021】前記テクスチャ貼込み部14は、新たな定
義面12に貼込むべき2次元テクスチャ画像を複数格納
しておくテクスチャ格納部14aを具備し、オペレータ
が、意図する輝き方に合致したものを適宜選択すること
ができるようになっている。そして、選択された2次元
テクスチャ画像が、テクスチャマッピング法によって、
3Dモデル上に設定された定義面上に貼込まれるように
なっている。2次元テクスチャ画像としては、例えば、
図5に示すように、貼込むべき定義面の幅方向に沿っ
て、明度が滑らかに変化するグラデーション調のものを
想定している。図中、符号a、b、cは縦方向に明度の
変化する2次元テクスチャ画像を示し、符号d、e、f
は横方向に明度の変化する2次元テクスチャ画像を示し
ている。
The texture pasting unit 14 is provided with a texture storage unit 14a for storing a plurality of two-dimensional texture images to be pasted on the new definition surface 12, and a texture storage unit 14a that matches the intended shine of the operator is selected. It can be selected appropriately. Then, the selected two-dimensional texture image is processed by the texture mapping method.
It is designed to be pasted on the defined surface set on the 3D model. As the two-dimensional texture image, for example,
As shown in FIG. 5, it is assumed that the gradation is such that the brightness changes smoothly along the width direction of the definition surface to be pasted. In the figure, symbols a, b, and c indicate two-dimensional texture images whose brightness changes in the vertical direction, and symbols d, e, and f.
Indicates a two-dimensional texture image whose brightness changes in the horizontal direction.

【0022】前記光源設定部15は、上記面設定部13
によって定義された定義面12を照射するための光源L
2を前記光源L1とは別に、下記手順によって設定するよ
うになっている。すなわち、図6に示すように、視点位
置E、新たな面Mおよび面M上の任意の定点Pを用い、
新たな光源L2の位置Lを仮定して、面Mの法線ベクト
ルPHと視点ベクトルEPと光源ベクトルLPとを定義
することとし、視点ベクトルEPと法線ベクトルPHと
がなす角度と、光源ベクトルLPと法線ベクトルPHと
がなす角度とが等しくなるように、光源L2の位置Lを
設定することとしている。また、光源L2の色・種類・
面Mまでの距離は、意図する完成イメージによって任意
に設定することできるようになっている。
The light source setting unit 15 includes the surface setting unit 13
Light source L for illuminating the defined surface 12 defined by
2 is set separately from the light source L 1 by the following procedure. That is, as shown in FIG. 6, using a viewpoint position E, a new surface M, and an arbitrary fixed point P on the surface M,
The position L of the new light source L 2 is assumed, and the normal vector PH of the surface M, the viewpoint vector EP, and the light source vector LP are defined, and the angle formed by the viewpoint vector EP and the normal vector PH and the light source The position L of the light source L 2 is set so that the angle formed by the vector LP and the normal vector PH is equal. Also, the color / type of the light source L 2
The distance to the surface M can be arbitrarily set according to the intended completed image.

【0023】前記再レンダリング部17は、新たに設定
された定義面12と光源L2とに基づいてレンダリング
処理を行い、新たな定義面12の3DCG画像を生成す
るようになっている。この場合に、レンダリング処理に
先立って、フォンのモデルにより鏡面反射成分を計算す
るようになっている。すなわち、フォンのモデルは粗い
表面の鏡面反射モデルとして広く使用されているもので
あって、図7に示すように、反射光の輝度が、正反射方
向で最大となり、正反射方向と角度αをなす方向で次式
(1)によって求められるようになっている。 Is=Iiγs(θ)cosnα (1) ここで、 Is:反射光の輝度 Ii:入射光の輝度 θ :入射角 γs(θ):反射係数 n :光沢の輝き係数 である。
The re-rendering unit 17 performs a rendering process based on the newly set definition surface 12 and the light source L 2, and generates a 3DCG image of the new definition surface 12. In this case, prior to the rendering process, the specular reflection component is calculated by the Phong model. That is, the von model is widely used as a specular reflection model of a rough surface, and as shown in FIG. 7, the brightness of reflected light becomes maximum in the specular reflection direction, and the angle α with the specular reflection direction is set. It is obtained by the following expression (1) in the direction of forming. I s = I i γ s (θ) cos n α (1) where, I s : reflected light brightness I i : incident light brightness θ: incident angle γ s (θ): reflection coefficient n: gloss brightness Is a coefficient.

【0024】このように構成された画像生成装置1によ
り、金属等の材質よりなる物体の3DCG画像を生成す
る手順について、図8に示すフローチャートに基づい
て、以下に説明する。まず、画像生成部2の3Dモデル
作成部5を作動させ(ステップ1)、複数の平面からな
る3Dモデルを構築する。そして、レンダリング部7を
作動させることによって物体の各部についてのレンダリ
ング処理を施しつつ(ステップ2)、生成された3DC
G画像をレンダリング画像蓄積部8に格納し(ステップ
3)、かつ、3DCG画像の各画素に対応する3Dモデ
ルの面ラベルを面ラベルバッファ9に格納する(ステッ
プ4)。
A procedure for generating a 3DCG image of an object made of a material such as metal by the image generating apparatus 1 thus configured will be described below with reference to the flowchart shown in FIG. First, the 3D model creation unit 5 of the image generation unit 2 is activated (step 1) to build a 3D model composed of a plurality of planes. Then, the rendering unit 7 is operated to perform the rendering process for each part of the object (step 2), and the generated 3DC is generated.
The G image is stored in the rendered image storage unit 8 (step 3), and the surface label of the 3D model corresponding to each pixel of the 3DCG image is stored in the surface label buffer 9 (step 4).

【0025】この後に、エッジ部画像調整部3のエッジ
指定部11のマウス10によってディスプレイ4上の3
DCG画像において物体のエッジ部を指定し(ステップ
5)、指定されたエッジ部近傍についての3Dモデル上
の定義面12の生成および該定義面12における反射率
の設定および各画像情報の設定を行う(ステップ6)。
次いで、テクスチャ貼込み部14を作動させることによ
り、テクスチャ格納部14aに格納されている2次元テ
クスチャ画像を適宜選択し、上記にて生成された定義面
12に貼込む(ステップ7)。また、このようにして設
定された定義面12に照射する光源L2を光源設定部1
5の作動によって設定し(ステップ8)、設定された定
義面12、光源L2および画像情報に基づいて再レンダ
リング部17を作動させる(ステップ8)。これによ
り、エッジ部近傍の新たな3DCG画像が生成され、元
の3DCG画像と入れ替えて(ステップ9)、ディスプ
レイ4に表示することにより、エッジ部分に輝きを表現
した3DCG画像が生成されることになる。
After this, the mouse 10 of the edge designating section 11 of the edge image adjusting section 3 is used to display 3 on the display 4.
The edge portion of the object is designated in the DCG image (step 5), the defined surface 12 on the 3D model in the vicinity of the designated edge portion is generated, the reflectance on the defined surface 12 is set, and each image information is set. (Step 6).
Next, by operating the texture pasting unit 14, the two-dimensional texture image stored in the texture storage unit 14a is appropriately selected and pasted on the defined surface 12 generated above (step 7). Further, the light source L 2 for irradiating the definition surface 12 set in this way is set to the light source setting unit 1
5 is set (step 8), and the re-rendering unit 17 is operated based on the set definition surface 12, light source L 2 and image information (step 8). As a result, a new 3DCG image near the edge portion is generated, and the original 3DCG image is replaced (step 9) and displayed on the display 4 to generate a 3DCG image expressing brilliance at the edge portion. Become.

【0026】したがって、本実施例の画像生成装置1に
よれば、物体のエッジ部を表現するための新たな定義面
12を特別に設け、該定義面12を照射する光源L2
設定することにより、金属、ガラス等の材質よりなる物
体のエッジ部を強調して、より写実的な3DCG画像を
生成することができる。この場合にあって、エッジ部を
強調するために、明度が漸次変化するグラデーション調
の2次元テクスチャ画像によってエッジ部の明度を模様
として貼込むので、複雑な演算処理が不要となり、処理
時間を大幅に短縮することができる。
Therefore, according to the image generating apparatus 1 of this embodiment, a new defining surface 12 for expressing the edge portion of the object is specially provided, and the light source L 2 for illuminating the defining surface 12 is set. Thus, the edge portion of the object made of a material such as metal or glass can be emphasized to generate a more realistic 3DCG image. In this case, in order to emphasize the edge portion, the lightness of the edge portion is pasted as a pattern by a gradation-like two-dimensional texture image in which the lightness gradually changes, so that complicated calculation processing becomes unnecessary and processing time is greatly increased. Can be shortened to

【0027】また、このような3DCG画像を、物体の
3DCG画像からエッジ部の3DCG画像をディスプレ
イ4上で選択し、当該エッジ部の3DCG画像のみを生
成して合成する方法で作成するので、3Dモデルの作成
にあたって、完成イメージを想定したモデリングを実施
する必要がなく、オペレータの経験を要しないという利
点がある。しかも、必要な部分の3DCG画像のみを生
成して入れ替えるので、3DCG画像の生成に要する演
算処理の無駄を回避することができる。
Further, such a 3DCG image is created by a method of selecting an edge 3DCG image from the object 3DCG image on the display 4 and generating and synthesizing only the edge 3DCG image. When creating a model, there is an advantage that it is not necessary to carry out modeling assuming a completed image, and operator experience is not required. Moreover, since only the required 3DCG image is generated and replaced, it is possible to avoid waste of the arithmetic processing required for generating the 3DCG image.

【0028】なお、本実施例においては、テクスチャ貼
込み部14において、テクスチャ格納部14aに格納さ
れている2次元テクスチャ画像を適宜選択することとし
ているが、これに代えて、所望のグラデーション調の2
次元テクスチャ画像をディスプレイ4上において対話形
式によりその都度作成することとしてもよい。さらに、
金属あるいはガラス製の材質よりなる物体に限らず、光
沢のある他の材質よりなる物体の3DCG画像を生成す
る場合に適用することも可能であり、その物体の形状も
特定されるものではない。
In the present embodiment, the texture pasting unit 14 appropriately selects the two-dimensional texture image stored in the texture storage unit 14a. Two
A three-dimensional texture image may be created on the display 4 interactively each time. further,
The present invention is not limited to an object made of a metal or glass material, but can be applied to the case of generating a 3DCG image of an object made of another glossy material, and the shape of the object is not specified.

【0029】[0029]

【発明の効果】以上詳述したように、本発明の第1の手
段に係る画像生成装置は、エッジ部を有する物体の3次
元形状データを2次元平面に投影し、光源および視点を
指定してレンダリングを施すことにより、3次元コンピ
ュータグラフィック画像を生成する3DCG画像生成手
段と、3次元コンピュータグラフィック画像上の物体の
エッジ部を指定するエッジ部指定手段と、そのエッジ部
に対応する3次元形状データにおいてエッジ部近傍に新
たな定義面を設定する面設定手段と、その定義面にグラ
デーション調の2次元テクスチャ画像を貼込むテクスチ
ャ貼込み手段と、定義面を照射する光源を設定する光源
設定手段と、定義面について3次元形状データの2次元
平面への投影および視点および光源に基づいてレンダリ
ングを施すエッジ部画像生成手段とを具備しているの
で、以下の効果を奏する。 物体のエッジ部のみについて新たな定義面を設ける
ので、特に金属やガラス等の材質よりなる物体のエッジ
部を強調して、より現実感のある3次元コンピュータグ
ラフィック画像を生成することができる。 強調すべきエッジ部の指定を一旦生成された物体の
3次元コンピュータグラフィック画像上において行うの
で、物体のモデリングに際して完成イメージを考慮する
必要がなく、現実感のある画像を容易に生成することが
できる。 指定したエッジ部のみについて再度のレンダリング
を施すので演算処理の無駄を防止することができる。 明度が漸次変化するグラデーション調の2次元テク
スチャ画像によってエッジ部の明度を模様として貼込む
ので、複雑な演算処理が不要となり、処理時間を大幅に
短縮することができる。
As described in detail above, the image generating apparatus according to the first means of the present invention projects the three-dimensional shape data of an object having an edge portion onto a two-dimensional plane and specifies a light source and a viewpoint. 3DCG image generation means for generating a three-dimensional computer graphic image by performing rendering by means of edge rendering, edge portion designation means for designating an edge portion of an object on the three-dimensional computer graphic image, and three-dimensional shape corresponding to the edge portion. Surface setting means for setting a new defined surface near the edge portion in the data, texture pasting means for pasting a gradation-like two-dimensional texture image on the defined surface, and light source setting means for setting a light source for illuminating the defined surface. And the projection of the 3D shape data to the 2D plane and the rendering edge based on the viewpoint and the light source for the definition surface Since it comprises an image generation unit, the following effects. Since a new definition surface is provided only for the edge portion of the object, it is possible to generate a more realistic three-dimensional computer graphic image by particularly emphasizing the edge portion of the object made of a material such as metal or glass. Since the edge portion to be emphasized is specified on the once generated three-dimensional computer graphic image of the object, it is not necessary to consider the completed image when modeling the object, and a realistic image can be easily generated. . Since the rendering is performed again only for the specified edge portion, it is possible to prevent the waste of the arithmetic processing. Since the lightness of the edge portion is pasted as a pattern by the gradation-like two-dimensional texture image in which the lightness gradually changes, complicated calculation processing becomes unnecessary, and the processing time can be greatly shortened.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る画像生成装置の一実施例を示すブ
ロック図である。
FIG. 1 is a block diagram showing an embodiment of an image generating apparatus according to the present invention.

【図2】図1の画像生成装置のレンダリング処理におけ
る透視投影を説明する図である。
FIG. 2 is a diagram illustrating perspective projection in a rendering process of the image generating apparatus in FIG.

【図3】図1の画像生成装置によってDCG画像を生成
する物体の例を示す図である。
FIG. 3 is a diagram showing an example of an object for generating a DCG image by the image generating apparatus of FIG.

【図4】図1の画像生成装置の面指定手段による定義面
の設定方法を説明するための図である。
FIG. 4 is a diagram for explaining a method of setting a defined surface by a surface designating unit of the image generating apparatus of FIG.

【図5】図1の画像生成装置のテクスチャ貼込み手段に
おいて使用されるグラデーション調の2次元テクスチャ
画像例を示す図である。
5 is a diagram showing an example of a gradation-like two-dimensional texture image used in the texture pasting means of the image generating apparatus of FIG.

【図6】図1の画像生成装置の光源設定手段による光源
の設定方法を説明するための図である。
FIG. 6 is a diagram for explaining a light source setting method by a light source setting unit of the image generating apparatus of FIG.

【図7】図1の画像生成装置のエッジ部画像生成手段に
よって輝度を計算するために使用するフォンのモデルを
説明するための図である。
FIG. 7 is a diagram for explaining a model of a phon used for calculating brightness by the edge part image generation means of the image generation apparatus of FIG.

【図8】図1の画像生成装置による3DCG画像の生成
手順を示すフローチャートである。
8 is a flowchart showing a procedure for generating a 3DCG image by the image generating apparatus in FIG.

【符号の説明】[Explanation of symbols]

1・L2 光源 1 画像生成装置 2 画像生成部(3DCG画像生成手段) 6 投影平面(2次元平面) 11 エッジ指定部(エッジ部指定手段) 12 定義面 13 面指定部(面設定手段) 14 テクスチャ貼込み部(テクスチャ貼込み手段) 15 光源設定部(光源設定手段) 17 再レンダリング部(エッジ部画像生成手段)L 1 / L 2 light source 1 image generation device 2 image generation unit (3DCG image generation unit) 6 projection plane (two-dimensional plane) 11 edge designation unit (edge portion designation unit) 12 defined surface 13 face designation unit (face setting unit) 14 texture pasting unit (texture pasting unit) 15 light source setting unit (light source setting unit) 17 re-rendering unit (edge portion image generating unit)

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 エッジ部を有する物体の3次元形状デー
タを2次元平面に投影するとともに、前記物体の各面を
照射する光源および視点を指定してレンダリングを施す
ことにより、前記3次元形状データに対応付けられた3
次元コンピュータグラフィック画像を2次元平面上に生
成する3DCG画像生成手段と、 生成された3次元コンピュータグラフィック画像に表さ
れた物体のエッジ部を指定するエッジ部指定手段と、 指定されたエッジ部に対応する3次元形状データにおい
てエッジ部近傍に新たな定義面を設定する面設定手段
と、 設定された定義面に、エッジ部からの距離に応じて漸次
明度を変化させるグラデーション調の2次元テクスチャ
画像を貼込むテクスチャ貼込み手段と、 設定された定義面を照射する前記光源とは別個の光源を
設定する光源設定手段と、 設定された定義面の3次元形状データを2次元平面に投
影するとともに、前記視点および設定された光源に基づ
いてレンダリングを施すエッジ部画像生成手段とを具備
することを特徴とする画像生成装置。
1. The three-dimensional shape data is obtained by projecting three-dimensional shape data of an object having an edge portion onto a two-dimensional plane and performing rendering by designating a light source and a viewpoint for illuminating each surface of the object. 3 associated with
3D CG image generating means for generating a three-dimensional computer graphic image on a two-dimensional plane, edge portion designating means for designating an edge portion of an object represented in the generated three-dimensional computer graphic image, and corresponding to the designated edge portion Surface setting means for setting a new definition surface near the edge portion in the three-dimensional shape data, and a gradation-like two-dimensional texture image for gradually changing the lightness according to the distance from the edge portion on the set definition surface. Texture pasting means for pasting, light source setting means for setting a light source different from the light source for illuminating the set definition surface, and projecting the three-dimensional shape data of the set definition surface onto a two-dimensional plane, An image including an edge portion image generation unit that performs rendering based on the viewpoint and the set light source. Generating device.
JP29697893A 1993-11-26 1993-11-26 Image generation device Expired - Fee Related JP3261832B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29697893A JP3261832B2 (en) 1993-11-26 1993-11-26 Image generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29697893A JP3261832B2 (en) 1993-11-26 1993-11-26 Image generation device

Publications (2)

Publication Number Publication Date
JPH07152925A true JPH07152925A (en) 1995-06-16
JP3261832B2 JP3261832B2 (en) 2002-03-04

Family

ID=17840671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29697893A Expired - Fee Related JP3261832B2 (en) 1993-11-26 1993-11-26 Image generation device

Country Status (1)

Country Link
JP (1) JP3261832B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003012743A1 (en) * 2001-07-27 2003-02-13 Sony Computer Entertainment Inc. Painting method
US6774896B2 (en) 1997-05-26 2004-08-10 Sony Computer Entertainment, Inc. Method and apparatus for generating image data by modulating texture data with color data and brightness data
CN101887594A (en) * 2009-05-13 2010-11-17 精工爱普生株式会社 Image processing method and image processing apparatus
WO2021187157A1 (en) * 2020-03-16 2021-09-23 富士フイルム株式会社 Image processing device, image processing method, and image processing program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6774896B2 (en) 1997-05-26 2004-08-10 Sony Computer Entertainment, Inc. Method and apparatus for generating image data by modulating texture data with color data and brightness data
WO2003012743A1 (en) * 2001-07-27 2003-02-13 Sony Computer Entertainment Inc. Painting method
US6833836B2 (en) 2001-07-27 2004-12-21 Sony Computer Entertainment, Inc. Image rendering process for displaying three-dimensional image information on a two-dimensional screen
CN101887594A (en) * 2009-05-13 2010-11-17 精工爱普生株式会社 Image processing method and image processing apparatus
US8542932B2 (en) 2009-05-13 2013-09-24 Seiko Epson Corporation Image processing method and image processing apparatus using different compression methods
WO2021187157A1 (en) * 2020-03-16 2021-09-23 富士フイルム株式会社 Image processing device, image processing method, and image processing program

Also Published As

Publication number Publication date
JP3261832B2 (en) 2002-03-04

Similar Documents

Publication Publication Date Title
Winkenbach et al. Rendering parametric surfaces in pen and ink
US5870098A (en) Method for rendering shadows on a graphical display
US6677956B2 (en) Method for cross-fading intensities of multiple images of a scene for seamless reconstruction
US6417850B1 (en) Depth painting for 3-D rendering applications
US7068274B2 (en) System and method for animating real objects with projected images
US7583264B2 (en) Apparatus and program for image generation
US6930681B2 (en) System and method for registering multiple images with three-dimensional objects
Lu et al. Illustrative interactive stipple rendering
US20030043152A1 (en) Simulating motion of static objects in scenes
US20030038822A1 (en) Method for determining image intensities of projected images to change the appearance of three-dimensional objects
JPH0683979A (en) Method and system for displaying computer graphic accompaned by formation of shadow
US6922193B2 (en) Method for efficiently calculating texture coordinate gradient vectors
WO1998038591A9 (en) Method for rendering shadows on a graphical display
US7542033B2 (en) Method and program for generating a two-dimensional cartoonish picturization of a three-dimensional object
US7307631B2 (en) Computer graphics
US20030107572A1 (en) Method and apparatus for reducing the polygon count of a textured, three dimensional model of an object
JP3720890B2 (en) Image generation device
JP3352982B2 (en) Rendering method and device, game device, and computer-readable recording medium for storing program for rendering three-dimensional model
JP2003099801A (en) Image display method of three-dimensional model, image display device, image display program and recording medium thereof
Gooch Interactive non-photorealistic technical illustration
US6906729B1 (en) System and method for antialiasing objects
Nienhaus et al. Sketchy drawings
JP3261832B2 (en) Image generation device
JP2003168130A (en) System for previewing photorealistic rendering of synthetic scene in real-time
Yu Efficient visibility processing for projective texture mapping

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20011120

LAPS Cancellation because of no payment of annual fees