JP2003115055A - Image generator - Google Patents

Image generator

Info

Publication number
JP2003115055A
JP2003115055A JP2001310006A JP2001310006A JP2003115055A JP 2003115055 A JP2003115055 A JP 2003115055A JP 2001310006 A JP2001310006 A JP 2001310006A JP 2001310006 A JP2001310006 A JP 2001310006A JP 2003115055 A JP2003115055 A JP 2003115055A
Authority
JP
Japan
Prior art keywords
viewpoint
shading
image
model data
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001310006A
Other languages
Japanese (ja)
Inventor
Hirokazu Akisada
浩和 秋定
Hironori Goto
裕典 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001310006A priority Critical patent/JP2003115055A/en
Publication of JP2003115055A publication Critical patent/JP2003115055A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image generator capable of appropriately and efficiently switching and setting a rendering method of each object and effectively reducing calculation loads of a computer further by dynamically switching processing contents of clipping and shading to each object corresponding to an angle range for which a direction of the object under consideration viewing from a view point in a three-dimensional virtual space is a reference or a space area based on a position of the object under consideration. SOLUTION: The image generator which generates a two-dimensional image indicating a scene of the three-dimensional virtual space on the basis of the object set in the space, a light source and the view point is provided with a modeling means for preparing model data of the object, a coordinate transformation means for transforming the model data to the coordinate system of the view point, a projection conversion means for projecting the model data by the view point coordinate system to a projection surface, and a rendering means for switching the rendering method of each object corresponding to the angle range in the direction of the object under consideration from the view point as the reference or the space area based on the position of the object under consideration.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、3次元空間におけ
る着目物体を基準とする角度範囲や空間領域に基づい
て、各物体のレンダリング方法を切り替える画像生成装
置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image generating apparatus for switching a rendering method for each object based on an angular range and a spatial region with respect to a target object in a three-dimensional space.

【0002】[0002]

【従来の技術】従来の画像生成システム、特に、3次元
仮想空間の情景(シーン)を示す2次元画像を生成する
3次元コンピュータグラフィックスシステム(3次元C
Gシステム)では、通常図2に示すような処理ステップ
を踏んで1枚の2次元画像の生成を行っている。
2. Description of the Related Art A conventional image generation system, particularly a three-dimensional computer graphics system (three-dimensional C) for generating a two-dimensional image showing a scene in a three-dimensional virtual space.
In the G system), normally, one two-dimensional image is generated by taking the processing steps shown in FIG.

【0003】以下、これらを概説する。なお一般的に図
中202〜205の処理ステップは、一括してレンダリ
ング処理と呼ばれる。
These are outlined below. In general, the processing steps 202 to 205 in the figure are collectively called a rendering process.

【0004】・モデリングモデリングは、画像の中で表
現したい対象物の形、色、表面の性質などのデータをコ
ンピュータの中に作成する作業である。たとえば、人間
の顔の画像を作るのであれば、その表面の形がどうなっ
ているのか、顔のどの部分がどのような色をしているの
か、光の反射率はどうか、といったデータを作成し、あ
とのレンダリングで使えるような形式でコンピュータ内
に格納する。このようなデータの集まりを物体のモデル
という。たとえば、図1のような立方体の形状モデリン
グを行う場合、まず図3のように立方体のある1つの頂
点を原点としたモデリング座標系を考える。そして、こ
の座標系における立方体の8個の頂点の座標データ、お
よび面ループデータをたとえば図4のように決定する。
このようにして得られた一組の座標データと面ループデ
ータが対象物のモデルデータとなる。
Modeling Modeling is the work of creating in a computer the data such as the shape, color and surface properties of an object to be represented in an image. For example, if you are making an image of a human face, create data such as what the surface shape is, what part of the face has what color, and what the light reflectance is. Then, store it in the computer in a format that can be used for later rendering. Such a collection of data is called an object model. For example, when performing shape modeling of a cube as shown in FIG. 1, first consider a modeling coordinate system with one vertex having a cube as the origin as shown in FIG. Then, the coordinate data of the eight vertices of the cube in this coordinate system and the surface loop data are determined as shown in FIG. 4, for example.
The set of coordinate data and the surface loop data thus obtained becomes the model data of the object.

【0005】・レンダリングレンダリングは、モデルが
できあがった後で、その物体をある位置から見たときに
どのように見えるかを考え、その見え方にしたがった画
像を作成することをいう。したがって、レンダリングを
行うには、モデルの他に、見る位置(視点やカメラと呼
ぶ)や照明に関する条件を考える必要がある。レンダリ
ング作業を細分化すると、一般的には、投影変換、隠面
消去、シェーディング、テスクチャーマッピングに分か
れる。
Rendering Rendering refers to creating an image according to the appearance of an object when it is viewed from a certain position after the model is created. Therefore, in order to perform rendering, it is necessary to consider not only the model but also the viewing position (called a viewpoint or a camera) and lighting conditions. When the rendering work is subdivided, it is generally divided into projection conversion, hidden surface removal, shading, and texture mapping.

【0006】[投影変換]投影変換はモデルを表してい
る種々の座標値に対して、視点の位置から見たときに、
画面上のどの位置に見えるのかを計算して、画面上の座
標に変換することである。図5は、投影変換のための4
つの座標系を示した図である。
[Projection Transform] Projection transform is, when viewed from the viewpoint position, for various coordinate values representing a model.
It is to calculate the position on the screen where it looks and convert it to the coordinates on the screen. FIG. 5 shows 4 for projection conversion.
It is a figure showing two coordinate systems.

【0007】投影変換を行う前段階として、モデル座標
を視点座標系によるデータに変換する必要がある。それ
にはまず、簡単にたとえば、モデリング座標系によるモ
デルの各頂点座標の各成分にワールド座標系における物
体位置の各成分を加算してワールド座標系における物体
の各頂点座標を得る。次にこのワールド座標系で表され
た物体の各頂点座標を視点座標系のデータに変換する。
通常、この座標変換の表現には同次座標系が使われる。
同次座標系とは回転拡大縮小に加え平行移動も同じ計算
式で扱えるようにしたものである。XYZ三成分以外に
W(通常は1)の成分を追加したベクトルを用い、ベク
トル間の変換に4×4のマトリクスを用いる。変換前の
ベクトルを(xyz)、変換後のベクトルを(x’y’
z’)とすると同次座標系を用いた座標変換は、座標変
換行列を用いて、以下のように表現される。
Before the projection conversion, it is necessary to convert the model coordinates into data in the viewpoint coordinate system. For that purpose, first, for example, each component of the object position in the world coordinate system is added to each component of each vertex coordinate of the model in the modeling coordinate system to obtain each vertex coordinate of the object in the world coordinate system. Next, each vertex coordinate of the object represented in this world coordinate system is converted into data in the viewpoint coordinate system.
Usually, a homogeneous coordinate system is used to represent this coordinate transformation.
The homogeneous coordinate system is a system in which parallel movement as well as rotation scaling can be handled by the same calculation formula. A vector in which a W (usually 1) component is added in addition to the XYZ three components is used, and a 4 × 4 matrix is used for conversion between the vectors. The vector before conversion is (xyz) and the vector after conversion is (x'y '
z ′), the coordinate transformation using the homogeneous coordinate system is expressed as follows using the coordinate transformation matrix.

【0008】 [0008]

【0009】ここでaijは回転、および拡大縮小を表
す成分、tx,ty,tzは平行移動を表す成分である。
Here, aij is a component representing rotation and enlargement / reduction, and t x , t y and t z are components representing parallel movement.

【0010】視点座標系におけるモデルデータが求まっ
たら、次に、投影変換を行う。投影変換を行うために、
空間に1つの投影面を設定する。簡単のため、図5で
は、ニアクリッピング面(後述)に投影面を設定してあ
る。投影変換には、大別して平行投影と透視投影の二種
類がある。ここで、視点座標系による点を(x,y,
z)、透視投影変換後の座標を(x’y’)(投影面座
標系)とする。
After the model data in the viewpoint coordinate system is obtained, projection conversion is next performed. To do the projection transformation,
Set one projection plane in space. For simplicity, in FIG. 5, the projection plane is set to the near clipping plane (described later). There are roughly two types of projection conversion, parallel projection and perspective projection. Here, the point in the viewpoint coordinate system is (x, y,
z), and the coordinates after perspective projection conversion are (x'y ') (projection plane coordinate system).

【0011】まず、平行投影は視点が無限遠にある場合
を指し、以下の変換式で表現される。
First, parallel projection refers to the case where the viewpoint is at infinity, and is expressed by the following conversion formula.

【0012】 [0012]

【0013】また透視投影は、空間における点を、有限
の距離にある視点から見て投影面上に投影する操作をい
い、以下の変換式で示される。
Perspective projection is an operation of projecting a point in space onto a projection surface when viewed from a viewpoint at a finite distance, and is expressed by the following conversion formula.

【0014】 [0014]

【0015】ここで、dは、視点(カメラ)と、投影面
(ニアクリッピング面)までの距離である。
Here, d is the distance from the viewpoint (camera) to the projection plane (near clipping plane).

【0016】このような投影変換式を用い、空間に存在
する物体の3次元形状の各点に対し、視点と投影面の交
点を求める操作を行うことで図6のように投影面上に投
影図を得る。なお、投影変換の過程で、以下のクリッピ
ング処理が実行される。
By using such a projection conversion formula, an operation for obtaining the intersection of the viewpoint and the projection surface is performed for each point of the three-dimensional shape of the object existing in the space, so that the projection is performed on the projection surface as shown in FIG. Get the figure. The following clipping process is executed in the process of projection conversion.

【0017】[クリッピング]投影変換の際、視点前方
のすべてのものを描くと、不必要な計算時間をとる場合
があるので作画領域を決めることも必要である。この作
画領域はビューボリューム(視野空間)と呼ばれ、ビュ
ーボリュームの境界の中で視点(カメラ)から最も近い
面をニアクリッピング面、遠い面をファークリッピング
面という。クリッピングとは、このビューボリュームの
内部の図形データを選択して外部の図形データを削除
し、さらにはビューボリューム枠と交差している図形が
あれば交点座標を求めてビューボリューム内部の図形情
報だけを取り出す手法のことをいう。
[Clipping] When drawing everything in front of the viewpoint during projection conversion, it may take unnecessary calculation time. Therefore, it is also necessary to determine the drawing area. This drawing area is called a view volume (view space), and the surface closest to the viewpoint (camera) within the boundary of the view volume is called the near clipping surface and the far surface is called the far clipping surface. Clipping means selecting the figure data inside this view volume, deleting the figure data outside, and if there is a figure that intersects the view volume frame, find the coordinates of the intersection and only figure information inside the view volume. Refers to the method of taking out.

【0018】たとえば、図7(a)(b)のように、3
次元空間上に2つの面(面1と面2)を考えた場合、面
1を構成する3頂点はいずれもビューボリュームの外側
にあるため、この面は描画の対象から速やかに排除(ク
リッピング)される。また面2は、ビューボリュームと
交差しているため、交点座標(C1、C2)を求めてか
ら、投影面に投影を行う(ただし、投影後の各頂点には
ライティングの値やZバッファ法(後述)で用いるZ値
を保持する必要があるためC1、C2の座標は3次元空
間上で求める必要がある)。
For example, as shown in FIGS.
When two planes (plane 1 and plane 2) are considered in the dimensional space, all three vertices that compose plane 1 are outside the view volume, so this plane is quickly excluded from the drawing target (clipping). To be done. Further, since the surface 2 intersects the view volume, the intersection coordinates (C1, C2) are obtained, and then the projection is performed on the projection surface (however, at each vertex after projection, the lighting value or the Z buffer method ( Since it is necessary to hold the Z value used in (described later), the coordinates of C1 and C2 need to be obtained in a three-dimensional space).

【0019】こうして、領域内に表示すべき図形だけを
選択することにより、データ量を減らし、余分な対象物
を表現することなしに意図した図形を短時間で表示でき
る。
In this way, by selecting only the figures to be displayed in the area, the amount of data can be reduced and the intended figure can be displayed in a short time without expressing an extra object.

【0020】スクリーン座標系に変換されたポリゴン
を、さらに2次元画像のピクセルの列に変換していく。
この処理をスキャン変換(Scan Conversi
on)、またはラスタライズ(Rasterize)と
いう。スキャン変換の基本的な考え方は、最終的な出力
画像のピクセル(普通はその中心)に対応するスクリー
ン(投影面)上の点(サンプル・ポイント)を考え、ポ
リゴン内部に含まれるサンプル・ポイントを探し出し、
それに対応するピクセルをその点における輝度値(下記
のシェーディング処理で求められる)で塗りつぶしてい
くことである。
The polygon converted into the screen coordinate system is further converted into a column of pixels of a two-dimensional image.
This process is converted by scan conversion (Scan Converter
on), or rasterize (Rasterize). The basic idea of scan conversion is to consider the points (sample points) on the screen (projection plane) that correspond to the pixels (usually the center) of the final output image, and then consider the sample points contained inside the polygon. Seek out,
The pixel corresponding to it is filled with the luminance value at that point (obtained by the shading process described below).

【0021】なお、このスキャン変換(ラスタライズ)
の過程で、隠面消去、クリッピング、シェーディング、
テスクチャーマッピングなどが行われる。これらの各処
理について、以下で説明する。
This scan conversion (rasterization)
In the process of hidden surface removal, clipping, shading,
For example, texture mapping is performed. Each of these processes will be described below.

【0022】[隠面消去]隠面消去によって、モデルの
中で、現在の視点の位置から考えて、どの部分が見え、
どの部分が見えないかを判断する。隠面消去は、サーフ
ェスモデルやソリツドモデルで表現された3次元形状を
色づけして表現する場合、形状モデルの透視変換を行っ
て、視線方向に近い立体形状の面に隠れて見えない面や
形状の裏側になる面を削除して、実際に見える面や面の
一部だけを表示する機能のことをいう。隠面消去に関し
ていくつかの手法が開発されている。
[Hidden Surface Elimination] By the hidden surface elimination, which part of the model can be seen from the current viewpoint position,
Determine which part is invisible. Hidden surface removal involves perspective transformation of the shape model when the 3D shape represented by the surface model or solid model is colored, and the hidden surface is hidden behind a 3D shape close to the line-of-sight direction. It refers to the function that deletes the back side surface and displays only the actual surface or part of the surface. Several techniques have been developed for hidden surface removal.

【0023】まず、奥行きの比較を面単位に行うのがZ
ソート法(デプス・ソート法)である。Zソート法は、
最も単純で高速な方法で、早くからハードウェア化もさ
れているが、ポリゴンどうしが相貫していたり、ポリゴ
ンの順番が一意に定まらないなど、簡単にソーティング
ができない場合も多<、間違って表示がされてしまうと
いう欠点もある。
First, it is Z to perform depth comparison in plane units.
It is a sorting method (depth sorting method). The Z sort method is
It is the simplest and fastest method, and it has been hardwareized from early on, but in many cases it is not possible to sort easily because polygons are contiguous or the order of polygons is not uniquely determined <, incorrect display It also has the drawback of being damaged.

【0024】次にZバッファ法は、ポリゴンを表現する
ピクセル単位に前後関係を処理するもので、正確な隠面
消去ができる。欠点としては、全画素にわたるZバッフ
ァ用の比較的大きなメモリを必要とすることと、透過処
理やアンチエイリアシングができないことである。
Next, the Z-buffer method processes the front-rear relationship for each pixel expressing a polygon, and can accurately perform hidden surface removal. Disadvantages are the relatively large memory requirement for the Z-buffer over all pixels and the inability to perform transparency and anti-aliasing.

【0025】その他の隠面消去アルゴリズムとしては、
画面の走査単位に前後関係を処理するスキャンライン法
などが挙げられるが、ここでの説明は省略する。
Other hidden surface elimination algorithms include:
Although a scan line method or the like that processes the front-back relation for each scan unit of the screen can be mentioned, the description thereof is omitted here.

【0026】[シェーディング]シェーディング(Sh
ading)は、コンピュータ内の形状モデルを写実的
に表示する技術の一つで、視線、光源位置、面の傾きな
どの考慮に入れて陰影を計算して物体の表面の色や明る
さを決定する手法であり、一般的には陰影付けと呼ばれ
る。
[Shading] Shading (Sh
is a technique for realistically displaying a shape model in a computer. It determines the surface color and brightness of an object by calculating the shadow taking into consideration the line of sight, light source position, surface inclination, etc. This is a technique that is generally called shading.

【0027】シェーディング処理を行う際の基本となる
のがシェーディングモデルである。シェーディングモデ
ルとは、ある物質に光源から光が投射されると物質の表
面では光り、一部は反射され、残りが屈折、透過すると
いう物理現象をモデル化したものをいう。以下に述べる
シェーディングを行うときには、この現象を単純化して
モデル化を行い、物体表面上の輝度を決定する。一般的
には、無限遠にある光源(平行光線)のときは、物体上
のある1点Pの明るさLは、拡散反射光(Diffus
e refrection:Ld)、鏡面反射光(Sp
ecularreflection:Ls)、透過光
(Transparent Light:Lb)、環境
光(Ambient Light:Le)の4つの要素
の和として決定することが多い(図8参照)。
The shading model is the basis for performing the shading process. The shading model is a model of a physical phenomenon in which when light is projected from a light source onto a certain substance, the surface of the substance shines, part of the substance is reflected, and the rest is refracted and transmitted. When performing the shading described below, this phenomenon is simplified and modeled to determine the brightness on the object surface. Generally, when a light source at infinity (parallel rays), the brightness L of a certain point P on the object is diffused reflected light (Diffus).
e reflection: Ld), specular reflection light (Sp
It is often determined as the sum of four elements, namely, the optical reflection (Ls), the transmitted light (Transparent Light: Lb), and the ambient light (Ambient Light: Le) (see FIG. 8).

【0028】 L=Ld+Ls+Lb+Le (式−6) ポリゴン(物体を構成する面)にシェーディングする場
合、最も簡単かつ高速なのが各ポリゴンに対し1回だけ
シェーディングの計算をし、ポリゴン全体をその色にし
てしまう方法である。この方法は、コンスタントシェー
ディング(またはフラットシェーディング)と呼ばれ、
各ポリゴンの法線ベクトルと(式−6)を用いて計算し
た輝度値を、そのポリゴンの内部のすべての画素に設定
する。
L = Ld + Ls + Lb + Le (Equation-6) When shading a polygon (a surface forming an object), the simplest and fastest method is to calculate the shading only once for each polygon, and set the entire polygon to that color. It is a method of closing. This method is called constant shading (or flat shading)
The brightness value calculated using the normal vector of each polygon and (Equation-6) is set to all the pixels inside the polygon.

【0029】しかし、これでは曲面を滑らかに表現でき
ないので、スムーズシェーディングと呼ばれる方法が開
発された。これには2通りの方法がある。1つば、各頂
点の輝度の線形内挿により、各スキャンライン上のピク
セルの輝度を求めるグローシェーディング(Goura
ud Shading)という方法である(図10
(a))。グローシェーディングでは、三角形の各頂点
の輝度11、12、13から、線形内挿式を用いて、三角
形内部のすべての画素点の輝度を決定する。まず、図の
1本のスキャンラインと三角形の交点la、lbは次式で
与えられる。
However, since a curved surface cannot be expressed smoothly with this, a method called smooth shading was developed. There are two ways to do this. One is glow shading (Goura shading) that obtains the luminance of pixels on each scan line by linearly interpolating the luminance of each vertex.
ud Shading) (Fig. 10
(A)). In glow shading, the brightness of all pixel points inside the triangle is determined from the brightness 1 1 , 1 2 , 1 3 at each vertex of the triangle using a linear interpolation formula. First, the intersection l a of one scan line and a triangle in Fig, l b is given by the following equation.

【0030】 [0030]

【0031】これより、スキャンライン上の点Pの輝度
pは次式で求められる。
From this, the brightness l p of the point P on the scan line is obtained by the following equation.

【0032】 [0032]

【0033】ただし、各頂点の輝度たとえばl1は、次
のように求める。まず図9に示すように、その頂点を構
成する各面の向きを求め、次式のように、その平均値N
vを求めて、その点での向きを求める。
However, the brightness of each vertex, for example, l 1, is obtained as follows. First, as shown in FIG. 9, the orientations of the surfaces forming the vertices are obtained, and the average value N is calculated by the following equation.
Find v and find the orientation at that point.

【0034】 Nv=(N1+N2+N3+N4)/4 (式−10) ただし、Niは、各三角形の法線方向とする。次に(式
−6)を用いて輝度l1を求める。これにより、各画素
点の滑らかに変化する輝度が求まり、スムーズシェーデ
ィング処理が施されることになる。この方法は高速に計
算ができ、リアルタイムレンダリングする場合などでよ
く使われるが、ハイライトがきれいにつかないなどの問
題がある。
[0034] N v = (N 1 + N 2 + N 3 + N 4) / 4 ( wherein -10) However, N i is the normal direction of each triangle. Next, the brightness l 1 is obtained by using (Equation-6). As a result, the smoothly changing luminance of each pixel point is obtained, and the smooth shading processing is performed. This method can perform high-speed calculation and is often used for real-time rendering, but it has a problem that highlights do not appear clearly.

【0035】そこで次に考えられたのがフォン・シェー
ディング(Phong Shading)と呼ばれる方
法で、各頂点の法線方向の向きの内挿からスキャンライ
ン上の各国素の法線方向を求め、(式−6)にしたがっ
て、その点の輝度を求めるものである。すなわち、スキ
ャンラインと三角形の2つの交点における法線の方向V
a、Vbを3つの頂点の方項V1、V2、V3から線形内挿
で求め、さらにスキャンライン上の点の法線方向Vp
aとVbの線形内挿で求める(図10(b))。フォン
・シェーディングでは特に金属面などのハイライトがよ
りリアルに表現されるが、ポリゴン内部に生成されたす
べての法線ベクトルについて輝度計算を行うのでグロー
シェーディングに比べて演算量が多くなるという欠点が
ある。
Then, the method considered next is a method called Phong Shading, in which the normal direction of each element on the scan line is obtained from the interpolation of the direction of the normal direction of each vertex, and (Equation According to -6), the brightness at that point is obtained. That is, the direction V of the normal line at the intersection of the scan line and the triangle
a, calculated by linear interpolation from claim V 1, V 2, V 3 towards the three vertices V b, further obtains the normal direction V p of a point on the scan line in a linear interpolation of the V a and V b (FIG.10 (b)). Especially in von shading, highlights such as metal surfaces are expressed more realistically, but since the brightness calculation is performed for all normal vectors generated inside the polygon, there is the disadvantage that the amount of calculation is larger than in glow shading. is there.

【0036】[テスクチャーマッピング]シェーディン
グの4つのパラメータ(鏡面反射光、環境光、拡散反射
光、透過光)を操作して表現できる質感は、金属やプラ
スチック、石膏などに限定される。もっと身近にあるい
ろいろな素材、例えば木や布地、大理石などのように、
「柄」がないとどうしても表現できないものにテスクチ
ャーマッピング(Texture Mapping)が
使用される。図11に、パースペクティブコーディネー
ト(投射コーディネート)を利用した方法を示す。これ
は、ある点からマップデータをオブジェクトに投射する
ように写像する方法である。
[Texture Mapping] The texture that can be expressed by manipulating the four parameters of shading (specular reflection light, ambient light, diffuse reflection light, transmitted light) is limited to metal, plastic, gypsum and the like. A variety of materials that are more familiar to you, such as wood, cloth, and marble,
Texture mapping is used for things that cannot be expressed without a “pattern”. FIG. 11 shows a method using perspective coordination (projection coordination). This is a method of mapping the map data from a certain point so that it is projected onto the object.

【0037】具体的にはテスクチャーマッピングは、上
記のシェーディング処理の中にテスクチャー画像への画
素参照処理を入れることによって実現される。参照する
画素の指定はポリゴンの各頂点に、元のテスクチャー画
像の2次元座標(UV座標)を割り当て、ラスタライズ
処理時にこのUV座標を補間し、元のテスクチャー画像
の参照すべき画素を決める。この時必要であれば参照画
素に前記のシェーディング処理を施しポリゴン内部の一
画素の値を決める。画素の参照方法には単純に元のテス
クチャー画像の一画素を取り出す場合(ポイントサンプ
リング)と複数の画素を参照しそれらを平均化して一画
素を決める方法(フィルタリング)がある。ポイントサ
ンプリングでは、元のテスクチャー画像の面積がレンダ
リングするポリゴンの面積より小さい場合、テスクチャ
ー画像の一画素が拡大され画素の不連続な境界が現われ
画像を粗くする。フィルタリングを行うことによって画
素の不連続化を除去し滑らかな画像を得ることができ
る。以上、UV座標の補完方法に正確な補間を行い、画
素参照にフィルタリングを行った場合、ラスタライズ時
の計算量が増大する。
Specifically, the texture mapping is realized by inserting a pixel reference process for the texture image in the above shading process. The pixel to be referenced is assigned to each vertex of the polygon by the two-dimensional coordinates (UV coordinates) of the original texture image, and the UV coordinates are interpolated during the rasterization process to determine the pixel to be referenced in the original texture image. At this time, if necessary, the reference pixel is subjected to the above-described shading processing to determine the value of one pixel inside the polygon. Pixel reference methods include a method of simply extracting one pixel of the original texture image (point sampling) and a method of referring to a plurality of pixels and averaging them to determine one pixel (filtering). In point sampling, when the area of the original texture image is smaller than the area of the polygon to be rendered, one pixel of the texture image is enlarged and discontinuous boundaries of pixels appear to roughen the image. By performing filtering, discontinuity of pixels can be removed and a smooth image can be obtained. As described above, when accurate interpolation is performed in the UV coordinate complementing method and filtering is performed on the pixel reference, the amount of calculation at the time of rasterization increases.

【0038】以上、従来の3次元CGシステムでの一般
的な画像生成手法について概説したが、このような処理
は比較的計算量が大きく、実現するコンピュータもそれ
なりの計算速度を持ったものが必要とされてきた。
The general image generation method in the conventional three-dimensional CG system has been outlined above, but such a process requires a relatively large amount of calculation, and the computer to be realized needs to have a certain calculation speed. Has been said.

【0039】約7〜8年前までは、上記のような3次元
CGを導入したシステムは業務用のものがほとんどで、
グラフィックスワークステーション(GWS)と呼ばれ
るハイエンドなコンピュータの上でしか利用できなかっ
た。そのため利用できるユーザも限られていた。しか
し、ここ数年は状況が大きく変化した。飛躍的なコンピ
ュータ技術の進歩により安価で高速なCPU(中央演算
装置)等のデバイスが大量生産されるようになったた
め、パーソナルコンピュータ用の3次元CGソフトウェ
アの数は急激に増加し、他方で3次元CGを用いた高性
能の家庭用ゲーム装置も登場した。そして、そのいずれ
もが比較的安価な値段で手に入るようになったため、3
次元CGを利用したハードウェア|ソフトウェアは広く
一般のユーザにも浸透するようになってきている。
Until about 7 to 8 years ago, most of the systems introduced with the above-mentioned three-dimensional CG are for business use.
It was only available on high-end computers called graphics workstations (GWS). Therefore, the users who can use it were also limited. However, the situation has changed dramatically over the last few years. With the rapid progress in computer technology, inexpensive and high-speed devices such as CPUs (Central Processing Units) have been mass-produced, so that the number of 3D CG software for personal computers has increased rapidly, while 3 A high-performance home-use game machine using dimensional CG has also appeared. And since all of them are available at relatively low prices, 3
The hardware / software using the three-dimensional CG has become widespread among general users.

【0040】[0040]

【発明が解決しようとする課題】しかしながら、従来の
このような3次元CGシステムには、以下のような問題
があった。
However, such a conventional three-dimensional CG system has the following problems.

【0041】従来の一般的な3次元CGシステムでは、
3次元仮想空間に複数の物体を設定した場合、通常、各
物体に対して、一様に、高品位なクリッピング処理やシ
ェーディング処理でレンダリングを施し2次元画像を生
成していた。この場合は言うまでもなくコンピュータの
計算負荷は大きくなり、リアルタイムで複雑な形状のモ
デルを複数レンダリングして表示する時などに、映像が
スムーズに移行しない場合があった。
In the conventional general three-dimensional CG system,
When a plurality of objects are set in a three-dimensional virtual space, usually, each object is uniformly rendered by high-quality clipping processing or shading processing to generate a two-dimensional image. In this case, needless to say, the computational load of the computer becomes large, and when rendering and displaying a plurality of models having a complicated shape in real time, the image may not move smoothly.

【0042】これを避けるために、システムによって
は、複数の物体の中のある着目物体のみを高品位にクリ
ッピングやシェーディングしてレンダリングし、それ以
外の物体に関しては、ワイヤーフレームや占有領域を示
す直方体等により簡略化してレンダリングするものがあ
った。しかしこの際、たとえ視点や物体が移動した場合
でも、着目物体以外の物体は、その位置や方向に関わら
ず常に簡略化表示となるため、シーン変化の中で着目物
体とその周囲に存在する物体の様子が明確に把握できな
いという問題があった。
To avoid this, depending on the system, only a certain object of interest among a plurality of objects is rendered by high-quality clipping or shading, and for other objects, a rectangular parallelepiped indicating a wire frame or an occupied area is rendered. There was a thing to simplify and render by such as. However, at this time, even if the viewpoint or the object moves, the objects other than the target object are always displayed in a simplified form regardless of the position or direction, so that the target object and the objects existing around it are changed in the scene change. There was a problem that it was not possible to clearly understand the situation.

【0043】本発明の請求項1に係る発明では、3次元
仮想空間における視点からの着目物体方向に基づいた角
度範囲に各物体が含まれるか否かに応じて各物体に対す
るクリッピングやシェーディングの処理内容をダイナミ
ックに切り替えることで、各物体のレンダリング手法を
適切かつ効率よく切り替えて設定できるようになり、さ
らにコンピュータの計算負荷を効果的に軽減することを
可能にする。
According to the first aspect of the present invention, clipping or shading processing for each object is performed depending on whether or not each object is included in the angle range based on the direction of the object of interest from the viewpoint in the three-dimensional virtual space. By dynamically switching the content, the rendering method of each object can be appropriately and efficiently switched and set, and the computational load on the computer can be effectively reduced.

【0044】本発明の請求項2に係る発明では、3次元
仮想空間における着目物体に基づいた空間領域に各物体
が含まれるか否かに応じて各物体に対するクリッピング
やシェーディングの処理内容をダイナミックに切り替え
ることで、各物体のレンダリング手法を適切かつ効率よ
く切り替えて設定できるようになり、さらにコンピュー
タの計算負荷を効果的に軽減することを可能とする。
According to the second aspect of the present invention, the processing contents of clipping and shading for each object are dynamically changed depending on whether or not each object is included in the space area based on the object of interest in the three-dimensional virtual space. By switching, the rendering method of each object can be appropriately and efficiently switched and set, and the calculation load of the computer can be effectively reduced.

【0045】[0045]

【課題を解決するための手段】上記目的を達成するた
め、本発明の請求項1に係る発明は、3次元仮想空間に
おける視点からの着目物体方向に基づいた角度範囲に各
物体が含まれるか否かに応じて各物体に対するクリッピ
ングやシェーディングの処理内容をダイナミックに切り
替える手段を有することで、各物体のレンダリング手法
を適切かつ効率よく切り替えて設定できるようになり、
さらにコンピュータの計算負荷を軽減するように動作す
る。
In order to achieve the above object, the invention according to claim 1 of the present invention includes whether each object is included in an angle range based on a target object direction from a viewpoint in a three-dimensional virtual space. By having a means to dynamically switch the processing contents of clipping and shading for each object depending on whether or not it becomes possible to switch the rendering method of each object appropriately and efficiently,
Furthermore, it operates to reduce the computational load on the computer.

【0046】上記目的を達成するため、本発明の請求項
2に係る発明は、3次元仮想空間における着目物体に基
づいた空間領域に各物体が含まれるか否かに応じて各物
体に対するクリッピングやシェーディングの処理内容を
ダイナミックに切り替える手段を有することで、各物体
のレンダリング手法を適切かつ効率よく切り替えて設定
できるようになり、さらにコンピュータの計算負荷を軽
減するように動作する。
In order to achieve the above object, the invention according to claim 2 of the present invention is characterized by clipping or clipping each object depending on whether or not each object is included in the spatial region based on the object of interest in the three-dimensional virtual space. By providing a means for dynamically switching the processing content of shading, it becomes possible to appropriately and efficiently switch and set the rendering method of each object, and further operate to reduce the computational load on the computer.

【0047】なお、さらに詳細に説明すれば、本発明は
下記の構成によって前記課題を解決できた。
Further, in more detail, the present invention can solve the above problems by the following constitution.

【0048】(1)3次元仮想空間に設定した物体、お
よび光源、視点に基づいて前記空間の情景(シーン)を
表す2次元画像を生成する画像生成装置であって、物体
のモデルデータを作成するモデリング手段、前記モデル
データを視点の座標系に変換する座標変換手段、前記視
点座標系によるモデルデータを投影面に投影する投影変
換手段、前記視点からの着目物体方向を基準する角度範
囲に基づいて各物体のレンダリング方法を切り替えるレ
ンダリング手段、とを具備することを特徴とする画像生
成装置。
(1) An image generating apparatus for generating a two-dimensional image representing a scene (scene) of the space based on the object set in the three-dimensional virtual space, the light source, and the viewpoint, and creating model data of the object. Modeling means for converting the model data into a coordinate system of a viewpoint, a projection converting means for projecting model data based on the viewpoint coordinate system onto a projection surface, and an angle range based on a target object direction from the viewpoint. And a rendering means for switching the rendering method of each object.

【0049】(2)3次元仮想空間に設定した物体、光
源、および視点に基づいて前記空間の情景(シーン)を
表す2次元画像を生成する画像生成装置であって、物体
のモデルデータを作成するモデリング手段、前記モデル
データを視点の座標系に変換する座標変換手段、前記視
点座標系によるモデルデータを投影面に投影する投影変
換手段、着目物体位置に基づく空間領域に基づいて各物
体のレンダリング方法を切り替えるレンダリング手段、
とを具備することを特徴とする画像生成装置。
(2) An image generating apparatus for generating a two-dimensional image representing a scene (scene) of the space based on the object, the light source, and the viewpoint set in the three-dimensional virtual space, and creating model data of the object. Modeling means, coordinate conversion means for converting the model data into a viewpoint coordinate system, projection conversion means for projecting model data according to the viewpoint coordinate system onto a projection surface, and rendering of each object based on a spatial region based on the position of the object of interest. Rendering means to switch methods,
An image generating apparatus comprising:

【0050】(3)物体のモデルデータを投影面に写像
する投影変換手段、前記視点に基づいたビューボリュー
ム(作画領域)に基づいて描画に不必要な物体の面を排
除するクリッピング手段、物体を構成する面の奥行き比
較をして最も手前にある面を表示する隠面消去手段、物
体表面の陰影付けを行うシェーディング手段、物体表面
に2次元画像を写像するテスクチャーマッピング手段か
ら構成されることを特徴とする前記(1)記載の画像生
成装置。
(3) Projection conversion means for mapping the model data of the object on the projection surface, clipping means for eliminating the surface of the object unnecessary for drawing based on the view volume (image forming area) based on the viewpoint, and the object. Comprising hidden surface elimination means for comparing the depths of the constituent surfaces to display the most front surface, shading means for shading the object surface, and texture mapping means for mapping a two-dimensional image on the object surface. The image generation apparatus described in (1) above.

【0051】(4)前記視点からの着目物体方向を基準
とする角度範囲に基づいて各物体のクリッピング手段の
内容を変化させることを特徴とする前記(1)記載の画
像生成装置。
(4) The image generating apparatus according to (1), wherein the content of the clipping means for each object is changed based on an angle range based on the direction of the object of interest from the viewpoint.

【0052】(5)前記視点からの着目物体方向を基準
とする角度範囲に基づいて各物体のシェーディング手段
の内容を変化させることを特徴とする前記(1)記載の
画像生成装置。
(5) The image generating apparatus according to (1), wherein the content of the shading means of each object is changed based on the angle range with respect to the direction of the object of interest from the viewpoint.

【0053】(6)前記視点からの着目物体方向を基準
とする角度範囲に基づいて各物体のテスクチャーマッピ
ング手段の内容を変化させることを特徴とする前記
(1)記載の画像生成装置。
(6) The image generating apparatus according to (1), characterized in that the contents of the texture mapping means of each object are changed based on an angle range based on the direction of the object of interest from the viewpoint.

【0054】(7)物体のモデルデータを前記投影面に
写像する投影変換手段、前記視点に基づいたビューボリ
ューム(作画領域)に基づいて描画に不必要な物体の面
を排除するクリッピング手段、物体を構成する面の奥行
き比較をして最も手前にある面を表示する隠面消去手
段、物体表面の陰影付けを行うシェーディング手段、物
体表面に2次元画像を写像するテスクチャーマッピング
手段から構成されることを特徴とする前記(2)記載の
画像生成装置。
(7) Projection conversion means for mapping the model data of the object on the projection plane, clipping means for eliminating the surface of the object unnecessary for drawing based on the view volume (image forming area) based on the viewpoint, and the object Comprising a hidden surface removing means for comparing the depths of the surfaces forming the surface and displaying the surface in the foreground, a shading means for shading the object surface, and a texture mapping means for mapping a two-dimensional image on the object surface. The image generation apparatus according to (2) above.

【0055】(8)着目物体位置に基づく空間領域に基
づいて各物体のクリッピング手段の内容を変化させるこ
とを特徴とする前記(2)記載の画像生成装置。
(8) The image generating apparatus according to (2), wherein the contents of the clipping means for each object are changed based on the spatial area based on the position of the object of interest.

【0056】(9)着目物体位置に基づく空間領域に基
づいて各物体のシェーディング手段の内容を変化させる
ことを特徴とする前記(2)記載の画像生成装置。
(9) The image generating apparatus according to (2), wherein the contents of the shading means of each object are changed based on the spatial area based on the position of the object of interest.

【0057】(10)着目物体位置に基づく空間領域に
基づいて各物体のテスクチャーマッピング手段の内容を
変化させることを特徴とする前記(2)記載の画像生成
装置。
(10) The image generating apparatus according to (2), wherein the content of the texture mapping means of each object is changed based on the spatial area based on the position of the object of interest.

【0058】[0058]

【発明の実施の形態】(実施例1)本実施例は、請求項
1記載の画像生成装置に関するものである。
BEST MODE FOR CARRYING OUT THE INVENTION (Embodiment 1) This embodiment relates to an image generating apparatus according to claim 1.

【0059】図1は、本実施例におけるシステム構成を
示した図である。
FIG. 1 is a diagram showing a system configuration in this embodiment.

【0060】図において、102は物体のモデルデー
タ、視点条件等の初期値の入力を行うためのデータ入力
装置であり、たとえばキーボードが用いられる。
In the figure, reference numeral 102 is a data input device for inputting initial values such as model data of an object and viewpoint conditions. For example, a keyboard is used.

【0061】103は画像生成処理の開始・終了等を指
示するコマンド入力装置であり、たとえばマウスが用い
られる。
Reference numeral 103 is a command input device for instructing the start / end of image generation processing, and for example, a mouse is used.

【0062】104は、モデル、視点、照明のデータ等
を格納するファイル装置であり不揮発性のメモリが用い
られる。
Reference numeral 104 is a file device for storing data such as a model, viewpoint, and illumination, and a nonvolatile memory is used.

【0063】105は、モデル・視点・照明の各値を用
いた投影変換、クリッピング、隠面消去、シェーディン
グの各レンダリング処理、および各種変数の更新等を行
う演算装置である。
Reference numeral 105 is an arithmetic unit for performing projection conversion using each value of the model, viewpoint, and illumination, each rendering process of clipping, hidden surface removal, shading, and updating of various variables.

【0064】106は、装置の起動中に物体のモデルデ
ータ、視点条件、照明条件等の各種データを格納するメ
モリ装置である。
Reference numeral 106 is a memory device for storing various data such as model data of the object, viewpoint conditions, illumination conditions, etc. during the activation of the device.

【0065】107は制御装置101からのユーザヘの
指示や、入力したデータ等を表示するためのデータ表示
装置107であり、たとえばTFT液晶モニタが用いら
れる。
Reference numeral 107 denotes a data display device 107 for displaying an instruction to the user from the control device 101, input data and the like, and for example, a TFT liquid crystal monitor is used.

【0066】108は、レンダリング後の画像のピクセ
ル値を格納するビデオメモリ装置である。
Reference numeral 108 is a video memory device for storing the pixel values of the image after rendering.

【0067】109は、ビデオメモリ装置108上の画
像の表示を行う画像表示装置109であり、たとえばC
RT(Cathode Ray Tube:陰極線管)
モニタが用いられる。
An image display device 109 for displaying an image on the video memory device 108 is, for example, C.
RT (Cathode Ray Tube)
A monitor is used.

【0068】101は制御装置101であり、データ入
力装置102、コマンド入力装置103、ファイル装置
104、演算装置105、メモリ装置106、データ表
示装置107、および画像表示装置108を制御するも
のである。
A control device 101 controls the data input device 102, the command input device 103, the file device 104, the arithmetic device 105, the memory device 106, the data display device 107, and the image display device 108.

【0069】画像生成システム起動後、まず、ファイル
装置104に格納された複数のモデル(頂点データおよ
び面ループデータ)、視点、光源の各初期データをメモ
リ装置106ヘロードする。次に、システムのユーザは
着目物体の識別番号をデータ入力装置102であるキー
ボードから入力する。入力が終わると、システムは画像
生成処理のループを開始する。
After the image generation system is activated, first, initial data of a plurality of models (vertex data and surface loop data), viewpoints, and light sources stored in the file device 104 are loaded into the memory device 106. Next, the user of the system inputs the identification number of the target object from the keyboard which is the data input device 102. When the input is finished, the system starts a loop of image generation processing.

【0070】画像生成処理ループの最初でシステムは、
その時点の各物体の基準位置と着目物体用画角(視点位
置からの着目物体方向に基づく角度範囲を意味する)に
基づいて、各物体に対し、通常表示物体、簡易表示物体
のいずれかに分類する。次にシステムはこの分類結果を
利用して、各物体のレンダリングを行う。すなわち、通
常表示物体に分類された物体に対しては通常のクリッピ
ングとシェーディングにてレンダリングを、また簡易表
示物体に分類された物体に対してはクリッピングとシェ
ーディングを簡略化してレンダリングを実施し、その過
程でビデオメモリ装置108へ表示画像を構成する各画
素のラスタライズ(画素値の代入)を行う。ビデオメモ
リ装置108へ格納された表示画像は、画像表示装置1
09から出力され、表示が行われる。なお、非表示物体
に分類された物体のレンダリングは行われない。
At the beginning of the image generation processing loop, the system
Based on the reference position of each object at that time and the angle of view for the object of interest (meaning the angle range based on the direction of the object of interest from the viewpoint position), each object is selected as a normal display object or a simple display object. Classify. The system then uses this classification result to render each object. That is, for objects classified as normal display objects, rendering is performed with normal clipping and shading, and for objects classified as simple display objects, clipping and shading are simplified and rendering is performed. In the process, rasterization (substitution of pixel values) of each pixel forming a display image is performed in the video memory device 108. The display image stored in the video memory device 108 is the image display device 1.
It is output from 09 and is displayed. Note that the objects classified as non-display objects are not rendered.

【0071】次にシステムは、各物体と視点の位置を更
新する。すなわち、各物体または視点の方向ベクトルが
示す方向に微小距離△dだけ移動する。ただし、物体ま
たは視点の位置が移動可能領域外となった場合、この移
動可能空間を越えないように、適切に物体または視点の
位置と方向を新しく決める(本実施例では、この移動可
能領域として、原点を中心とする半径Rの球領域を考え
る)。
Next, the system updates the position of each object and viewpoint. That is, it moves by a minute distance Δd in the direction indicated by the direction vector of each object or viewpoint. However, when the position of the object or the viewpoint is outside the movable area, the position and direction of the object or the viewpoint are appropriately newly determined so as not to exceed the movable space (in the present embodiment, the movable area is set as the movable area). , Consider a spherical region of radius R centered at the origin).

【0072】画像生成処理ループの最後で、システム
は、ユーザからの画像生成処理終了のコマンドの有無を
判断し、もしあれば画像生成処理を終了し、なければル
ープの最初に戻る。
At the end of the image generation processing loop, the system determines whether or not there is a command from the user to end the image generation processing, and if so, terminates the image generation processing, otherwise returns to the beginning of the loop.

【0073】以上のように構成された画像生成システム
が実行する画像生成処理について、データの流れにした
がって処理内容を説明する。
Regarding the image generation processing executed by the image generation system configured as described above, the processing contents will be described according to the flow of data.

【0074】図15は、本実施例における画像生成装置
の処理を説明したフローチャートである。図のように構
成された画像生成装置が実行する制御の概要を以下、デ
ータの流れにしたがって説明する。
FIG. 15 is a flow chart for explaining the processing of the image generating apparatus in this embodiment. The outline of the control executed by the image generating apparatus configured as shown in the figure will be described below according to the flow of data.

【0075】ステップS1 画像生成システム起動後、まず、物体データの初期化を
行う。
Step S1 After starting the image generation system, first, the object data is initialized.

【0076】まず、制御装置101は、ファイル装置1
04に格納された頂点データと面ループデータで構成さ
れるモデルデータ(たとえば図4のもの)をメモリ装置
106における物体用データリスト(図12に示す物体
0〜物体9の10個の物体用データで構成される)の各
モデルデータ領域ヘロードする。また、テスクチャーマ
ッピング時に参照するテスクチャー画像(たとえば図1
1のもの)をファイル装置104からロードし、物体デ
ータリストにおける各テスクチャー画像データ領域へ格
納する。なお、テスクチャー画像はあらかじめ各物体用
のものがペイントシステム等で作成され、ファイル装置
104に格納されているものとする。
First, the control device 101 is the file device 1
The model data (for example, the one in FIG. 4) configured by the vertex data and the surface loop data stored in 04 is stored in the memory device 106 as a data list for objects (data for 10 objects 0 to 9 shown in FIG. 12). It is loaded to each model data area of (). Also, a texture image (for example, FIG.
No. 1) is loaded from the file device 104 and stored in each texture image data area in the object data list. It is assumed that the texture image for each object is created in advance by a paint system or the like and is stored in the file device 104.

【0077】また、各物体の初期位置として3次元仮想
空間における移動可能領域内の位置がランダムに計算さ
れ、物体データリスト中の各位置データ領域へ設定され
る。ただし本実施例では、この移動可能領域として3次
元空間の原点を中心とする半径25.0(上記R)の球
領域を考えるが、本発明はこれに限ったものではない。
As the initial position of each object, the position in the movable area in the three-dimensional virtual space is randomly calculated and set in each position data area in the object data list. However, in the present embodiment, a spherical region having a radius of 25.0 (above R) centered on the origin of the three-dimensional space is considered as the movable region, but the present invention is not limited to this.

【0078】また、各物体の初期方向として3次元正規
化ベクトル(正規化ベクトルとは、長さが1のベクトル
を意味する)がランダムに計算され、物体用データリス
トの各方向データ領域へ設定される。
A three-dimensional normalized vector (normalized vector means a vector having a length of 1) is randomly calculated as the initial direction of each object and set in each direction data area of the object data list. To be done.

【0079】ステップS2ここでは、視点条件の初期化
を行う。
Step S2 Here, the viewpoint condition is initialized.

【0080】すなわち制御装置101は、ファイル装置
104内の視点用データファイルから、図13に示すデ
ータ組、例えば、 視点位置(cx,cy,cz) :(10.0,5.0,8.0) 視点方向(cdx,cdy,cdz):(1.0,1.0,0.0) 角(α,β) :(4π/16,3π/16) ニアとファーの各クリッピング面までの距離(distN,distF):(1.0,100.0) 着目物体用視角(α’,β’):(4π/32,3π/32) をロードし、メモリ装置106に設定を行う。
That is, the control device 101 uses the viewpoint data file in the file device 104 to generate a data set shown in FIG. 13, for example, viewpoint position (cx, cy, cz): (10.0, 5.0, 8.0) viewpoint direction (cdx , Cdy, cdz): (1.0, 1.0, 0.0) Angle (α, β): (4π / 16, 3π / 16) Distance to each clipping plane of near and fur (distN, distF): (1.0, 100.0) The viewing angle for the object of interest (α ′, β ′): (4π / 32, 3π / 32) is loaded and set in the memory device 106.

【0081】ここで、α、β、α’、β’は、図16に
おける以下の角度を指すものとする。
Here, α, β, α'and β'refer to the following angles in FIG.

【0082】α = ∠KPM β = ∠LPN α’= ∠FPH β’= ∠EPG ステップS3 ここでは、光源条件の初期化を行う。Α = ∠KPM β = ∠LPN α '= ∠FPH β '= ∠EPG Step S3 Here, the light source conditions are initialized.

【0083】すなわち制御装置101は、ファイル装置
104内の光源用データファイルから、図14に示すデ
ータ組、例えば以下のような値をロードし、メモリ装置
106に設定を行う。
That is, the control device 101 loads the data set shown in FIG. 14, for example, the following values from the light source data file in the file device 104, and sets the data in the memory device 106.

【0084】 光源向き(lx,ly,lz):(−1.0,−1.0,−1.0) 光源強度I : 10.0 ただし本実施例では、平行光源(無限遠に設定した光
源)を考えているため、光源位置は存在しない。
Light source direction (lx, ly, lz): (-1.0, -1.0, -1.0) Light source intensity I: 10.0 However, in this embodiment, a parallel light source (light source set to infinity) is considered. There is no light source position.

【0085】ステップS4 次に、制御装置101はデータ表示装置107である液
晶ディスプレイに注目物体の識別番号を入力を促すメッ
セージ 注目物体の識別番号を入力してください>>> を表示する。この状態でユーザは、着目物体の識別番号
をデータ入力装置102であるキーボードから入力す
る。入力された識別番号は、メモリ装置106内の変数
targetIDへ代入される。
Step S4 Next, the control device 101 displays a message prompting the input of the identification number of the object of interest on the liquid crystal display which is the data display device 107. Please input the identification number of the object of interest >>>>. In this state, the user inputs the identification number of the target object from the keyboard which is the data input device 102. The input identification number is substituted into the variable targetID in the memory device 106.

【0086】ユーザによる着目物体の識別番号の入力が
終わると、制御装置101は次ステップからの画像生成
処理のループを開始する。
When the user finishes inputting the identification number of the object of interest, the control device 101 starts the loop of the image generation process from the next step.

【0087】ステップS5 画像生成処理ループの最初では、各物体のレンダリング
方式の設定を行う。
Step S5 At the beginning of the image generation processing loop, the rendering method of each object is set.

【0088】図16は、各物体のレンダリング方式の設
定方法を示したものである。
FIG. 16 shows a method of setting the rendering method for each object.

【0089】制御装置101の命令で演算装置105
は、図のように視点から着目物体位置(識別番号tar
getIDを持つ物体の位置)への方向を中心とした左
右α’かつ上下β’の角度範囲に含まれる物体に対して
はこの物体のレンダリングモード変数rmodeiへ0
(通常レンダリングの意)を代入し、含まれない物体に
対しては同変数へ1(簡易レンダリングの意)を代入す
る。
The arithmetic unit 105 is instructed by the control unit 101.
Is the position of the object of interest (identification number tar
0 for the rendering mode variable rmodei of an object included in the angular range of left and right α ′ and upper and lower β ′ around the direction toward the position of the object having getID).
(Meaning of normal rendering) is substituted, and 1 (meaning of simple rendering) is substituted for the same variable for an object not included.

【0090】ステップS6 ここでは、物体のレンダリングモード変数rmodei
を利用して、各物体のレンダリングを行う。
Step S6 Here, the rendering mode variable rmodei of the object
Is used to render each object.

【0091】すなわち、制御装置101の命令により演
算装置105は、メモリ装置105における各物体のレ
ンダリングモード変数rmodeiの値に応じて、以下
のようにレンダリング手法を切り替えて、ビデオメモリ
装置108上に各物体を構成するポリゴンの展開(ラス
タライズ)を行う。
That is, in accordance with the instruction of the control device 101, the arithmetic unit 105 switches the rendering method as follows according to the value of the rendering mode variable rmodei of each object in the memory device 105, and the arithmetic unit 105 displays each on the video memory device 108. Expands (rasterizes) the polygons that make up an object.

【0092】物体のrmodeiが0の場合 物体のレンダリング(クリッピング、シェーディング、
テスクチャーマッピング)を次の通常手法で行う。
If the object's rmodei is 0, the object is rendered (clipping, shading,
Texture mapping is performed by the following normal method.

【0093】・クリッピング:物体を構成する各ポリゴ
ンのクリッピングを通常手法で行う。
Clipping: The polygons forming the object are clipped by the usual method.

【0094】・シェーディング:スムーズシェーディン
グを行う。
Shading: Smooth shading is performed.

【0095】・テスクチャーマッピング:実行する。Texture mapping: execute.

【0096】物体のrmodeiが1の場合 物体のレンダリング(クリッピング、シェーディング、
テスクチャーマッピング)を次の簡易手法で行う。
If the object's rmodei is 1, the object is rendered (clipping, shading,
Texture mapping) is performed by the following simple method.

【0097】・クリッピング:ビューボリュームに各物
体位置(物体の基準位置)が含まれる場合は、物体を構
成する各ポリゴンのクリッピングを通常手法で行う。ま
た含まれない場合は、物体を構成するすべてのポリゴン
をレンダリング対象から排除する。この結果、簡易レン
ダリング指定の物体に関しては、物体位置(物体の基準
位置)がビューボリュームの外にある場合は、たとえそ
の物体の一部がビューボリュームと交差していても描画
しないように動作する。
Clipping: When each object position (object reference position) is included in the view volume, each polygon forming the object is clipped by a normal method. If not included, all polygons that form the object are excluded from the rendering target. As a result, for an object for which simple rendering is specified, when the object position (reference position of the object) is outside the view volume, the object does not draw even if a part of the object intersects the view volume. .

【0098】・シェーディング:フラツトシェーディン
グを行う。
Shading: Flat shading is performed.

【0099】・テスクチャーマッピング:実行しない。Texture mapping: Do not execute.

【0100】ただし、このレンダリング処理において、
当然のことながらビューボリュームと全く交差しない物
体(図16における306非レンダリング物体)に関し
ては描画は実行されない。
However, in this rendering process,
As a matter of course, drawing is not executed for an object (306 non-rendering object in FIG. 16) that does not intersect the view volume at all.

【0101】このステップにてビデオメモリ装置108
上に作成された2次元画像は画像表示装置109へ渡さ
れ、表示が行われる。
At this step, the video memory device 108
The two-dimensional image created above is passed to the image display device 109 and displayed.

【0102】生成画像の例として、図16に示した3次
元空間の情景をレンダリングした2次元画像を図17に
示す。
As an example of the generated image, a two-dimensional image obtained by rendering the scene in the three-dimensional space shown in FIG. 16 is shown in FIG.

【0103】この図において、着目物体の周囲に配置さ
れた4つの物体はスムーズシェーディングとテスクチャ
ーマッピングが施され、その他の物体はフラットシェー
ディングのみ施されている。
In this figure, four objects arranged around the object of interest are subjected to smooth shading and texture mapping, and other objects are subjected only to flat shading.

【0104】ステップS7 ここでは、各物体と視点の位置を更新する。Step S7 Here, the position of each object and the viewpoint is updated.

【0105】すなわち、制御装置101の命令により演
算装置105は、現時点の各物体の位置を物体の方向ベ
クトルが示す方向へ微小距離△dだけ移動する。同様に
現時点の視点位置を、視点の方向ベクトルが示す方向に
微小距離△fだけ移動する。ただし、物体(または視
点)の位置が、上記球状の移動可能領域の外となってい
る場合、新しい位置を領域境界上の最寄りの座標に設定
する。またこの際、物体(または視点)の新しい方向
を、適切に、すなわち球状領域の内側を向くようにラン
ダムに設定する。
That is, according to the instruction from the control device 101, the arithmetic device 105 moves the current position of each object in the direction indicated by the direction vector of the object by a minute distance Δd. Similarly, the current viewpoint position is moved by a minute distance Δf in the direction indicated by the viewpoint direction vector. However, if the position of the object (or viewpoint) is outside the spherical movable area, the new position is set to the nearest coordinate on the area boundary. At this time, the new direction of the object (or viewpoint) is set appropriately, that is, at random so as to face the inside of the spherical region.

【0106】ステップS8 画像生成処理ループの最後で、制御装置101はユーザ
によるコマンド入力装置103への画像生成処理終了の
指示の有無を判断し、もしあれば画像生成処理を終了
し、なければステップS5に戻る。
Step S8 At the end of the image generation processing loop, the control device 101 determines whether or not the user has instructed the command input device 103 to end the image generation processing, and if there is, terminates the image generation processing. Return to S5.

【0107】(実施例2)本実施例は、請求項2記載の
画像生成装置に関するものである。
(Embodiment 2) This embodiment relates to the image generating apparatus according to the second aspect.

【0108】本実施例におけるシステム構成は、実施例
1の場合と同様に、図1で示される。
The system configuration of this embodiment is shown in FIG. 1 as in the case of the first embodiment.

【0109】本実施例における画像生成処理のフローは
実施例1と同様に図15で示されるが、3次元仮想空間
内の着目物体位置を中心とする球領域に基づいて、物体
の分類を行っている点が異なる。これにともない、処理
フローにおけるステップS2とステップS5の処理内容
が、それぞれ以下のステップS2’とステップS5’の
ように変更される。
The flow of the image generation processing in this embodiment is shown in FIG. 15 as in the first embodiment, but objects are classified based on the sphere area centered on the position of the object of interest in the three-dimensional virtual space. Is different. Along with this, the processing contents of steps S2 and S5 in the processing flow are changed to the following steps S2 ′ and S5 ′, respectively.

【0110】ステップS2’ ここでは、視点条件の初期化を行う。Step S2 ' Here, the viewpoint condition is initialized.

【0111】すなわち制御装置101は、ファイル装置
104内の視点用データファイルから、図18に示すデ
ータ組、例えば、 視点位置(cx,cy,cz) :(10.0,5.0,8.0) 視点方向(cdx,cdy,cdz):(1.0,1.0,0.0) 視角(α,β) :(4π/16,3π/16) ニアとファーの各クリッピング面までの距離(distN,distF):(1.0,100.0) 着目物体用球領域半径targetR:5.0 をロードし、メモリ装置106における視点用データ組
の各データ領域に対し設定を行う。
That is, the control device 101 uses the viewpoint data file in the file device 104 to generate a data set shown in FIG. 18, for example, viewpoint position (cx, cy, cz): (10.0, 5.0, 8.0) viewpoint direction (cdx , Cdy, cdz): (1.0, 1.0, 0.0) Viewing angle (α, β): (4π / 16, 3π / 16) Distance to each clipping plane of near and fur (distN, distF): (1.0, 100.0) The target object spherical region radius targetR: 5.0 is loaded, and setting is performed for each data region of the viewpoint data set in the memory device 106.

【0112】ここで、α、βは、図19における以下の
角度を指すものとする。
Here, α and β are the following angles in FIG.

【0113】α = ∠KPM β = ∠LPN ステップS5’ 画像生成処理ループの最初では、各物体のレンダリング
方式の設定を行う。
Α = ∠KPM β = ∠LPN Step S5 ′ At the beginning of the image generation processing loop, the rendering method of each object is set.

【0114】図19は、各物体のレンダリング方式の設
定方法を示したものである。
FIG. 19 shows a method of setting the rendering method for each object.

【0115】すなわち制御装置101の命令で演算装置
105は、図のように着目物体(識別番号target
IDを持つ物体)の位置を中心とする半径target
Rの球境域内に含まれる物体に対してはこの物体のレン
ダリングモード変数rmodeiへ0(通常表示の意)
を代入し、含まれない物体に対しては同変数へ1(簡易
表示の意)を代入する。
That is, the arithmetic unit 105 is instructed by the control unit 101 as shown in FIG.
Radius target centered on the position of (object with ID)
For an object included in the R boundary area, 0 for the rendering mode variable rmodei of this object (normal display)
Substituting, and for objects not included, 1 (meaning simple display) is assigned to the same variable.

【0116】本実施例における画像生成処理の過程で生
成される2次元画像の一例を図20に示す。なおこの図
の画像は、図19に示した3次元空間の情景をレンダリ
ングしたものである。図20において、着目物体の周囲
に配置された4つの物体はスムーズシェーディングとテ
スクチャーマッピングが施され、その他の物体はフラツ
トシェーディングのみ施されている。なお、図19の3
次元空間における物体と視点の配置は図16の場合と全
く同じにしてあるが、生成される2次元画像のレンダリ
ング内容が異なっている。
FIG. 20 shows an example of a two-dimensional image generated in the process of image generation processing in this embodiment. The image in this figure is a rendering of the scene in the three-dimensional space shown in FIG. In FIG. 20, four objects arranged around the object of interest are subjected to smooth shading and texture mapping, and other objects are subjected only to flat shading. In addition, 3 in FIG.
The arrangement of objects and viewpoints in the dimensional space is exactly the same as in the case of FIG. 16, but the rendering content of the generated two-dimensional image is different.

【0117】すなわち、図17の2次元画像と比較し
て、図20では画像中の各物体の占有領域は同一である
が、通常レンダリングと簡易レンダリングの各対象物体
が異なっている。
That is, compared to the two-dimensional image of FIG. 17, the occupied areas of each object in the image are the same in FIG. 20, but the target objects of normal rendering and simple rendering are different.

【0118】[0118]

【発明の効果】以上に説明したように、本出願請求項1
に係る発明によれば、3次元仮想空間における視点から
の着目物体方向に基づいた角度範囲に基づいて各物体に
対するクリッピングやシェーディングのレンダリング処
理内容をダイナミックに切り替える手段を有すること
で、生成される2次元画像上で、着目物体およびその周
囲に配置される物体は高品位に、またその他の物体は簡
易的に表示できるようになり、コンピュータの計算負荷
を効率的に軽減するように動作するようになった。
As described above, claim 1 of the present application
According to the invention related to the above, it is generated by including means for dynamically switching the rendering processing contents of clipping and shading for each object based on the angle range based on the direction of the object of interest from the viewpoint in the three-dimensional virtual space. On the three-dimensional image, the object of interest and the objects placed around it can be displayed in high quality, and other objects can be displayed easily, and the operation load can be reduced efficiently by the computer. became.

【0119】さらには、着目物体とその周囲の物体を強
調して表示できるという、付加的な効果もある。
Furthermore, there is an additional effect that the object of interest and the objects around it can be highlighted.

【0120】また本出願請求項2に係る発明によれば、
3次元仮想空間における着目物体に基づいた空間領域に
基づいて各物体に対するクリッピングやシェーディング
のレンダリング処理内容をダイナミックに切り替える手
段を有することで、生成される2次元画像上で、着目物
体およびその周囲に配置される物体は高品位に、またそ
の他の物体は簡易的に表示できるようになり、コンピュ
ータの計算負荷を効率的に軽減するように動作するよう
になった。
According to the invention of claim 2 of the present application,
By having means for dynamically switching the rendering processing contents of clipping and shading for each object based on the spatial region based on the object of interest in the three-dimensional virtual space, the object of interest and its surroundings can be displayed on the generated two-dimensional image. The objects to be placed can be displayed in high quality, and other objects can be displayed easily, and the operation to reduce the calculation load of the computer efficiently has come to be performed.

【0121】さらには、着目物体とその周囲の物体を強
調して表示できるという、付加的な効果もある。
Furthermore, there is an additional effect that the object of interest and objects around it can be emphasized and displayed.

【図面の簡単な説明】[Brief description of drawings]

【図1】 実施例1および2のシステム構成を示した図FIG. 1 is a diagram showing a system configuration of Examples 1 and 2.

【図2】 3次元CGにおける一般的な2次元画像生成
の流れを示した図
FIG. 2 is a diagram showing the flow of general two-dimensional image generation in three-dimensional CG.

【図3】 モデリング座標系における3次元物体を示し
た図
FIG. 3 is a diagram showing a three-dimensional object in a modeling coordinate system.

【図4】 モデルデータの例を示した図FIG. 4 is a diagram showing an example of model data.

【図5】 投影変換のための4つの座標系を示した図FIG. 5 is a diagram showing four coordinate systems for projection conversion.

【図6】 投影変換を示した図FIG. 6 is a diagram showing projection conversion.

【図7】 レンダリングにおけるクリッピング処理を示
した図で、(a)はクリッピング処理状態の斜面図、
(b)は(a)のクリッピング処理の投影面の正面図
FIG. 7 is a diagram showing clipping processing in rendering, in which (a) is a perspective view of the clipping processing state;
(B) is a front view of the projection surface of the clipping process of (a)

【図8】 シェーディングモデルについて示した図FIG. 8 is a diagram showing a shading model.

【図9】 頂点の向きの求め方を示した図FIG. 9 is a diagram showing how to obtain the directions of vertices.

【図10】 スムーズシェーディングの方法について示
した図
FIG. 10 is a diagram showing a method of smooth shading.

【図11】 パースペクティブコーディネートによるテ
スクチャーマッピング処理について示した図
FIG. 11 is a diagram showing a texture mapping process by perspective coordination.

【図12】 物体データリストについて示した図FIG. 12 is a diagram showing an object data list.

【図13】 本発明実施例1における視点データ組につ
いて示した図
FIG. 13 is a diagram showing a viewpoint data set according to the first embodiment of the present invention.

【図14】 光源データ組について示した図FIG. 14 is a diagram showing a light source data set.

【図15】 実施例1および2のフローチャートを示し
た図
FIG. 15 is a diagram showing a flowchart of Examples 1 and 2.

【図16】 本発明実施例1における物体に対するレン
ダリング方法の決定方法について示した図
FIG. 16 is a diagram showing a method of determining a rendering method for an object according to the first embodiment of the present invention.

【図17】 本発明実施例1における生成画像の一例を
示した図
FIG. 17 is a diagram showing an example of a generated image according to the first embodiment of the present invention.

【図18】 本発明実施例2における視点データ組につ
いて示した図
FIG. 18 is a diagram showing a viewpoint data set according to the second embodiment of the present invention.

【図19】 本発明実施例2における物体に対するレン
ダリング方法の決定方法について示した図
FIG. 19 is a diagram showing a method of determining a rendering method for an object according to the second embodiment of the present invention.

【図20】 本発明実施例2における生成画像の一例を
示した図
FIG. 20 is a diagram showing an example of a generated image according to the second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

101 制御装置 102 データ入力装置 103 コマンド入力装置 104 ファイル装置 105 演算装置 106 メモリ装置 107 データ表示装置 108 ビデオメモリ装置 109 画像表示装置 301 視点 302 着目物体 303 視点から見た着目物体の方向を基準とする角度
範囲 304 通常レンダリング対象物体 305 簡易レンダリング対象物体 306 非レンダリング物体 307 投影面(ニアクリッピング面) 308 視軸 309 視点から見た着目物体の方向 401 着目物体 402 通常レンダリング物体 403 簡易レンダリング物体 501 視点 502 着目物体 503 着目物体を中心とする球状領域 504 通常レンダリング対象物体 505 簡易レンダリング対象物体 506 非レンダリング物体 507 投影面(ニアクリッピング面) 507 視軸 601 着目物体 602 通常レンダリング物体 603 簡易レンダリング物体
101 control device 102 data input device 103 command input device 104 file device 105 arithmetic device 106 memory device 107 data display device 108 video memory device 109 image display device 301 viewpoint 302 target object 303 based on the direction of the target object viewed from the viewpoint Angle range 304 Normal rendering target object 305 Simple rendering target object 306 Non-rendering object 307 Projection plane (near clipping plane) 308 Axis of view 309 Direction of target object from viewpoint 401 Target object 402 Normal rendering object 403 Simple rendering object 501 View point 502 Object of interest 503 Spherical region 504 centered on the object of interest 504 Normal rendering target object 505 Simple rendering target object 506 Non-rendering object 507 Projection plane (near clipping plane) 50 Visual axis 601 focuses the object 602 typically render object 603 simple rendering object

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 AA03 BA09 BA11 BA18 EA07 EA28 EA29 EA30 FA02 5B080 BA01 BA03 BA05 BA07 GA11 GA22    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 5B050 AA03 BA09 BA11 BA18 EA07                       EA28 EA29 EA30 FA02                 5B080 BA01 BA03 BA05 BA07 GA11                       GA22

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 3次元仮想空間に設定した物体、および
光源、視点に基づいて前記空間の情景(シーン)を表す
2次元画像を生成する画像生成装置であって、物体のモ
デルデータを作成するモデリング手段、前記モデルデー
タを視点の座標系に変換する座標変換手段、前記視点座
標系によるモデルデータを投影面に投影する投影変換手
段、前記視点からの着目物体方向を基準する角度範囲に
基づいて各物体のレンダリング方法を切り替えるレンダ
リング手段、とを具備することを特徴とする画像生成装
置。
1. An image generation apparatus for generating a two-dimensional image representing a scene (scene) in the space based on the object set in a three-dimensional virtual space, a light source, and a viewpoint, and creating model data of the object. Modeling means, coordinate transformation means for transforming the model data into a coordinate system of a viewpoint, projection transformation means for projecting model data according to the viewpoint coordinate system onto a projection surface, based on an angle range based on a target object direction from the viewpoint And a rendering unit that switches a rendering method of each object.
【請求項2】 3次元仮想空間に設定した物体、光源、
および視点に基づいて前記空間の情景(シーン)を表す
2次元画像を生成する画像生成装置であって、物体のモ
デルデータを作成するモデリング手段、前記モデルデー
タを視点の座標系に変換する座標変換手段、前記視点座
標系によるモデルデータを投影面に投影する投影変換手
段、着目物体位置に基づく空間領域に基づいて各物体の
レンダリング方法を切り替えるレンダリング手段、とを
具備することを特徴とする画像生成装置。
2. An object, a light source, set in a three-dimensional virtual space,
And an image generation device for generating a two-dimensional image representing a scene (scene) in the space based on a viewpoint, modeling means for generating model data of an object, and coordinate conversion for converting the model data into a coordinate system of the viewpoint. Image generation, which comprises: means, projection conversion means for projecting model data based on the viewpoint coordinate system onto a projection surface, and rendering means for switching a rendering method of each object based on a spatial area based on the position of the object of interest. apparatus.
【請求項3】 物体のモデルデータを投影面に写像する
投影変換手段、前記視点に基づいたビューボリューム
(作画領域)に基づいて描画に不必要な物体の面を排除
するクリッピング手段、物体を構成する面の奥行き比較
をして最も手前にある面を表示する隠面消去手段、物体
表面の陰影付けを行うシェーディング手段、物体表面に
2次元画像を写像するテスクチャーマッピング手段から
構成されることを特徴とする請求項1記載の画像生成装
置。
3. Projection conversion means for mapping model data of an object onto a projection surface, clipping means for eliminating a surface of the object unnecessary for drawing based on a view volume (drawing area) based on the viewpoint, and the object are configured. It is characterized by comprising hidden surface elimination means for comparing the depths of the surfaces to be displayed and displaying the frontmost surface, shading means for shading the object surface, and texture mapping means for mapping a two-dimensional image on the object surface. The image generation apparatus according to claim 1.
【請求項4】 前記視点からの着目物体方向を基準とす
る角度範囲に基づいて各物体のクリッピング手段の内容
を変化させることを特徴とする請求項1記載の画像生成
装置。
4. The image generating apparatus according to claim 1, wherein the content of the clipping means for each object is changed based on an angle range based on the direction of the object of interest from the viewpoint.
【請求項5】 前記視点からの着目物体方向を基準とす
る角度範囲に基づいて各物体のシェーディング手段の内
容を変化させることを特徴とする請求項1記載の画像生
成装置。
5. The image generating apparatus according to claim 1, wherein the content of the shading means of each object is changed based on an angle range based on the direction of the object of interest from the viewpoint.
【請求項6】 前記視点からの着目物体方向を基準とす
る角度範囲に基づいて各物体のテスクチャーマッピング
手段の内容を変化させることを特徴とする請求項1記載
の画像生成装置。
6. The image generating apparatus according to claim 1, wherein the content of the texture mapping means of each object is changed based on an angle range based on the direction of the object of interest from the viewpoint.
【請求項7】 物体のモデルデータを前記投影面に写像
する投影変換手段、前記視点に基づいたビューボリュー
ム(作画領域)に基づいて描画に不必要な物体の面を排
除するクリッピング手段、物体を構成する面の奥行き比
較をして最も手前にある面を表示する隠面消去手段、物
体表面の陰影付けを行うシェーディング手段、物体表面
に2次元画像を写像するテスクチャーマッピング手段か
ら構成されることを特徴とする請求項2記載の画像生成
装置。
7. A projection conversion means for mapping model data of an object onto the projection surface, a clipping means for eliminating a surface of the object unnecessary for drawing based on a view volume (drawing area) based on the viewpoint, and an object. Comprising hidden surface elimination means for comparing the depths of the constituent surfaces to display the most front surface, shading means for shading the object surface, and texture mapping means for mapping a two-dimensional image on the object surface. The image generation apparatus according to claim 2, characterized in that
【請求項8】 着目物体位置に基づく空間領域に基づい
て各物体のクリッピング手段の内容を変化させることを
特徴とする請求項2記載の画像生成装置。
8. The image generating apparatus according to claim 2, wherein the content of the clipping means of each object is changed based on the spatial area based on the position of the object of interest.
【請求項9】 着目物体位置に基づく空間領域に基づい
て各物体のシェーディング手段の内容を変化させること
を特徴とする請求項2記載の画像生成装置。
9. The image generating apparatus according to claim 2, wherein the content of the shading means of each object is changed based on the spatial area based on the position of the object of interest.
【請求項10】 着目物体位置に基づく空間領域に基づ
いて各物体のテスクチャーマッピング手段の内容を変化
させることを特徴とする請求項2記載の画像生成装置。
10. The image generating apparatus according to claim 2, wherein the content of the texture mapping means of each object is changed based on the spatial area based on the position of the object of interest.
JP2001310006A 2001-10-05 2001-10-05 Image generator Withdrawn JP2003115055A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001310006A JP2003115055A (en) 2001-10-05 2001-10-05 Image generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001310006A JP2003115055A (en) 2001-10-05 2001-10-05 Image generator

Publications (1)

Publication Number Publication Date
JP2003115055A true JP2003115055A (en) 2003-04-18

Family

ID=19129062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001310006A Withdrawn JP2003115055A (en) 2001-10-05 2001-10-05 Image generator

Country Status (1)

Country Link
JP (1) JP2003115055A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1544799A2 (en) 2003-12-16 2005-06-22 Kabushiki Kaisha Square Enix (also trading as Square Enix Co., Ltd.) Method for drawing object having rough model and detailed model
WO2005098761A1 (en) * 2004-03-30 2005-10-20 Lexer Research Inc. Object display device and object display program
JP2006301925A (en) * 2005-04-20 2006-11-02 Canon Inc Image processing method and image processing apparatus
WO2007108041A1 (en) * 2006-03-15 2007-09-27 Matsushita Electric Industrial Co., Ltd. Video image converting method, video image converting device, server client system, mobile apparatus, and program
US7340098B2 (en) 2006-03-15 2008-03-04 Matsushita Electric Industrial Co., Ltd. Method and apparatus for image conversion
JP2008084210A (en) * 2006-09-28 2008-04-10 Fujitsu Ltd Height-limit computing device, height-limit computing method, height-limit computing program, and manufacturing method of three-dimensional structure
KR100874528B1 (en) 2006-03-30 2008-12-16 가부시끼가이샤 도시바 A computer readable recording medium recording the drawing device, method and program, and a computer readable recording medium recording the shape data generating device, method and program
JP2010231620A (en) * 2009-03-27 2010-10-14 Dainippon Printing Co Ltd Three-dimensional cg image editing method, device, program and recording medium
WO2013038548A1 (en) 2011-09-15 2013-03-21 富士通株式会社 Rendering device, rendering method and rendering program
US10834371B2 (en) * 2017-06-13 2020-11-10 Canon Kabushiki Kaisha Generation apparatus of virtual viewpoint image, control method of apparatus, and storage medium
CN115842905A (en) * 2021-09-21 2023-03-24 精工爱普生株式会社 Projection method and projection system
CN116608816A (en) * 2023-07-18 2023-08-18 东营市工业产品检验与计量检定中心 Calibration method and device for calibrating device of small-angle measuring instrument
CN115842905B (en) * 2021-09-21 2024-05-28 精工爱普生株式会社 Projection method and projection system

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7202874B2 (en) 2003-12-16 2007-04-10 Kabushiki Kaisha Square Enix Method for drawing object having rough model and detailed model
EP1544799A2 (en) 2003-12-16 2005-06-22 Kabushiki Kaisha Square Enix (also trading as Square Enix Co., Ltd.) Method for drawing object having rough model and detailed model
WO2005098761A1 (en) * 2004-03-30 2005-10-20 Lexer Research Inc. Object display device and object display program
JP4681929B2 (en) * 2005-04-20 2011-05-11 キヤノン株式会社 Image processing method and image processing apparatus
JP2006301925A (en) * 2005-04-20 2006-11-02 Canon Inc Image processing method and image processing apparatus
WO2007108041A1 (en) * 2006-03-15 2007-09-27 Matsushita Electric Industrial Co., Ltd. Video image converting method, video image converting device, server client system, mobile apparatus, and program
US7340098B2 (en) 2006-03-15 2008-03-04 Matsushita Electric Industrial Co., Ltd. Method and apparatus for image conversion
KR100874528B1 (en) 2006-03-30 2008-12-16 가부시끼가이샤 도시바 A computer readable recording medium recording the drawing device, method and program, and a computer readable recording medium recording the shape data generating device, method and program
JP2008084210A (en) * 2006-09-28 2008-04-10 Fujitsu Ltd Height-limit computing device, height-limit computing method, height-limit computing program, and manufacturing method of three-dimensional structure
JP2010231620A (en) * 2009-03-27 2010-10-14 Dainippon Printing Co Ltd Three-dimensional cg image editing method, device, program and recording medium
WO2013038548A1 (en) 2011-09-15 2013-03-21 富士通株式会社 Rendering device, rendering method and rendering program
US9595122B2 (en) 2011-09-15 2017-03-14 Fujitsu Limited Drawing apparatus and drawing method
US10834371B2 (en) * 2017-06-13 2020-11-10 Canon Kabushiki Kaisha Generation apparatus of virtual viewpoint image, control method of apparatus, and storage medium
CN115842905A (en) * 2021-09-21 2023-03-24 精工爱普生株式会社 Projection method and projection system
CN115842905B (en) * 2021-09-21 2024-05-28 精工爱普生株式会社 Projection method and projection system
CN116608816A (en) * 2023-07-18 2023-08-18 东营市工业产品检验与计量检定中心 Calibration method and device for calibrating device of small-angle measuring instrument
CN116608816B (en) * 2023-07-18 2023-09-26 东营市工业产品检验与计量检定中心 Calibration method and device for calibrating device of small-angle measuring instrument

Similar Documents

Publication Publication Date Title
US11270506B2 (en) Foveated geometry tessellation
JP3184327B2 (en) Three-dimensional graphics processing method and apparatus
EP2147412B1 (en) 3d object scanning using video camera and tv monitor
Schütz et al. Real-time continuous level of detail rendering of point clouds
US8884947B2 (en) Image processing apparatus and image processing method
KR20160130257A (en) Varying effective resolution by screen location in graphics processing by approximating projection of vertices onto curved viewport
US10198788B2 (en) Method and system of temporally asynchronous shading decoupled from rasterization
JP2012190428A (en) Stereoscopic image visual effect processing method
JP2003115055A (en) Image generator
JP2004005452A (en) Image processor, image processing method, semiconductor device, computer program and record medium
KR101919077B1 (en) Method and apparatus for displaying augmented reality
US10297036B2 (en) Recording medium, information processing apparatus, and depth definition method
KR101428577B1 (en) Method of providing a 3d earth globes based on natural user interface using motion-recognition infrared camera
KR100848687B1 (en) 3-dimension graphic processing apparatus and operating method thereof
JP2007272388A (en) Program, information storage medium and image generation system
JPH10162161A (en) Efficient rendering that uses user-defined room and window
JP4754385B2 (en) Program, information recording medium, and image generation system
US20190295214A1 (en) Method and system of temporally asynchronous shading decoupled from rasterization
JPH05342368A (en) Method and device for generating three-dimensional picture
JPH07110873A (en) Picture processor
JP3132220B2 (en) 3D model shape creation method
JP2009140370A (en) Program, information storage medium, and image generation system
JP3453410B2 (en) Image processing apparatus and method
JPH11296694A (en) Image generation method
JP2002024847A (en) Device and method for forming image and recording medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20041207