JP2004158032A - Drawing processing program to be executed by computer, recording medium with the program recorded thereon, program execution device, drawing device and method - Google Patents

Drawing processing program to be executed by computer, recording medium with the program recorded thereon, program execution device, drawing device and method Download PDF

Info

Publication number
JP2004158032A
JP2004158032A JP2004001874A JP2004001874A JP2004158032A JP 2004158032 A JP2004158032 A JP 2004158032A JP 2004001874 A JP2004001874 A JP 2004001874A JP 2004001874 A JP2004001874 A JP 2004001874A JP 2004158032 A JP2004158032 A JP 2004158032A
Authority
JP
Japan
Prior art keywords
target object
setting
visible
overwrite
visible target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004001874A
Other languages
Japanese (ja)
Inventor
Shinya Kisaki
信也 着崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2004001874A priority Critical patent/JP2004158032A/en
Publication of JP2004158032A publication Critical patent/JP2004158032A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To display an object which may be hidden behind another object or the like in a visible state without using processing for determining positional relation or translucent processing. <P>SOLUTION: The inside of a frame F in which a two-dimensional image is formed is divided into meshes M, a prescribed range E in which a desired object is to be drawn is determined in the frame F and the Z value of a Z buffer is cleared in each mesh Mc at every other dot (every other mesh) out of the meshes M in the prescribed range E. Thereby, when the desired object is drawn in the prescribed range E later, an image of the desired object is overwritten on the mesh Mc from which the Z value is cleared even when the desired object is interrupted by an object B when looked from a viewpoint. <P>COPYRIGHT: (C)2004,JPO

Description

本発明は、例えばテレビジョンモニタ装置などの2次元画面上へ画像を描画する、コンピュータに実行させるための描画処理プログラム、コンピュータに実行させるための描画処理プログラムを記録したコンピュータ読み取り可能な記録媒体、描画処理プログラムを実行するプログラム実行装置、描画装置及び方法に関する。   The present invention relates to a drawing processing program for causing a computer to draw an image on a two-dimensional screen such as a television monitor device, a computer-readable recording medium storing a drawing processing program for causing a computer to execute, The present invention relates to a program execution device, a drawing device, and a method for executing a drawing processing program.

近年のテレビゲーム機やパーソナルコンピュータは、プロセッサやメモリ等の高集積化、高速化等が進んでおり、その結果、例えば臨場感が有り且つ奥行き感のある3次元画像をリアルタイムに生成し、2次元モニタ画面上に描画するようなことが可能となっている。   2. Description of the Related Art Recent video game machines and personal computers have been highly integrated with processors and memories, have been increased in speed, and the like. As a result, for example, a three-dimensional image having a sense of presence and a sense of depth is generated in real time. It is possible to draw on a three-dimensional monitor screen.

上記2次元モニタ画面上に表示する3次元画像を描画する場合は、例えば、3次元ポリゴンのデータに対して座標変換処理,クリッピング(Clipping)処理,ライティング(Lighting)処理等のジオメトリ(Geometry)処理を施し、その処理の結果得られるデータを透視投影変換処理するようなことが行われる。   When rendering a three-dimensional image to be displayed on the two-dimensional monitor screen, for example, geometry (geometry) processing such as coordinate conversion processing, clipping processing, and lighting processing for three-dimensional polygon data is performed. Is performed, and data obtained as a result of the processing is subjected to perspective projection conversion processing.

ところで、2次元モニタ画面上に3次元画像を描画する場合において、例えば図8に示すように、仮想視点からの視野(フレームF)内に、あるオブジェクトAが有り、さらにそのオブジェクトAと上記仮想視点との間に別のオブジェクトBが存在するような場合、上記仮想視点から見た状態の画像は、オブジェクトBによりオブジェクトAの一部が遮られたような画像となる。   When a three-dimensional image is drawn on a two-dimensional monitor screen, for example, as shown in FIG. 8, there is an object A in a visual field (frame F) from a virtual viewpoint, and the object A and the virtual object When another object B exists between the virtual viewpoint and the viewpoint, the image in the state viewed from the virtual viewpoint is an image in which the object B partially blocks the object A.

この例のように、上記仮想視点とオブジェクトAの間にオブジェクトBが存在するような位置関係となっている場合において、上記仮想視点からオブジェクトAが見えるようにするためには、例えば図9に示すように、オブジェクトBを半透明として描画すれば良いことになる。すなわち、上記オブジェクトBを半透明として描画すれば、オブジェクトBとオブジェクトAの重なり部分abにおいて、上記オブジェクトAが上記半透明のオブジェクトBを透して見えるようになる。   In a case where the positional relationship is such that the object B exists between the virtual viewpoint and the object A as in this example, in order to make the object A visible from the virtual viewpoint, for example, FIG. As shown, the object B may be rendered translucent. That is, if the object B is rendered translucent, the object A can be seen through the translucent object B in the overlapping portion ab of the object B and the object A.

従来の描画装置において、この図9の例のような画像を描画する場合は、先ず、第1の処理として、上記仮想視点とオブジェクトAの間に他の物体(オブジェクト等)が存在するか否かを予め判定する。この第1の処理において、図9の例では、オブジェクトBが存在することが認識される。次いで、第2の処理として、オブジェクトBを半透明として描画する。   In the case of drawing an image as in the example of FIG. 9 in the conventional drawing apparatus, first, as a first process, whether or not another object (object or the like) exists between the virtual viewpoint and the object A Is determined in advance. In the first processing, it is recognized that the object B exists in the example of FIG. Next, as a second process, the object B is rendered translucent.

従来の描画装置は、これら第1,第2の処理を行うことにより、上記仮想視点とオブジェクトAの間にオブジェクトBが存在するような位置関係となっている場合でも、当該仮想視点からオブジェクトAが見えるような画像を描画している。   By performing the first and second processes, the conventional drawing apparatus performs the object A from the virtual viewpoint even if the positional relationship is such that the object B exists between the virtual viewpoint and the object A. The image is drawn so that can be seen.

しかしながら、上記第1の処理のような判定処理を実行するためには、仮想視点と各オブジェクトA,Bの距離計算など非常に多くの演算処理が必要であり、その結果、長い処理時間が必要となっている。したがって例えば、膨大な数のオブジェクトからなる3次元動画像をリアルタイムに描画するような用途では、処理が間に合わなくなり、画像が破綻してしまうことも起こり得る。   However, in order to execute the determination processing such as the first processing described above, an extremely large amount of arithmetic processing such as calculation of the distance between the virtual viewpoint and each of the objects A and B is required, and as a result, a long processing time is required. It has become. Therefore, for example, in an application in which a three-dimensional moving image composed of an enormous number of objects is drawn in real time, the processing cannot be completed in time, and the image may break down.

なお、例えば超高速演算処理が可能なCPU(中央処理ユニット)を描画装置に搭載すれば、上記判定処理の時間を短縮することは可能であるが、当該超高速演算処理が可能なCPUは高価であり、描画装置のコスト上昇を招いてしまう欠点がある。   Note that if a CPU (central processing unit) capable of ultra-high-speed arithmetic processing is mounted on the drawing apparatus, the time for the above-described determination processing can be reduced. However, a CPU capable of the ultra-high-speed arithmetic processing is expensive. However, there is a disadvantage that the cost of the drawing apparatus is increased.

また、上記第2の処理の半透明化処理は、一般にポリゴン単位で行われている。このため、例えば、上記オブジェクトBに対してオブジェクトAが非常に小さいような場合、オブジェクトBにおいて半透明にすべきでない部分まで半透明になってしまうという問題が発生する。このように半透明にすべきでない部分まで半透明になると、例えば他のオブジェクト等が透けて見えてしまい、不自然で非常に見難い画像になってしまう。   The semi-transparency processing of the second processing is generally performed in units of polygons. For this reason, for example, when the object A is very small with respect to the object B, there is a problem that a portion of the object B that should not be made translucent becomes translucent. If the part that should not be made translucent becomes translucent in this way, for example, another object or the like will be seen through, and an unnatural and very hard to see image will result.

そこで、本発明は、このような課題に鑑みてなされたものであり、例えば仮想視点とオブジェクトの位置関係に関する判定処理や、オブジェクトを半透明化する半透明化処理などを用いず、他のオブジェクト等の陰に隠れてしまうオブジェクトを可視状態で表示可能にし、また、その表示処理を高速且つ安価に実現可能とする、コンピュータに実行させるための描画処理プログラム、コンピュータに実行させるための描画処理プログラムを記録したコンピュータ読み取り可能な記録媒体、描画処理プログラムを実行するプログラム実行装置、描画装置及び方法を提供することを目的とする。   Therefore, the present invention has been made in view of such a problem, and for example, does not use a determination process regarding a positional relationship between a virtual viewpoint and an object, a translucent process of translucent an object, and the like. A drawing processing program for causing a computer to execute, and a drawing processing program for causing a computer to execute the display processing so that an object hidden behind a shadow or the like can be displayed in a visible state, and the display processing can be realized at high speed and at low cost. It is an object of the present invention to provide a computer-readable recording medium storing a program, a program execution device for executing a drawing processing program, a drawing device, and a method.

本発明は、2次元画像が形成されるフレーム内を所定の単位領域毎に細分化し、さらに、フレーム内で所望の範囲を決定し、上記所望の範囲内の単位領域毎に上書き描画の可否を設定するようにしており、特に、所望のオブジェクトをフレーム内に描画すべき描画範囲、或いは、所望のオブジェクトがフレーム内に描画された描画範囲を、上記所望の範囲とし、その所望の範囲内の各単位領域のうち、所定の規則パターンに応じた単位領域に対して、上記上書き描画の可否設定を行うことにより、従来の技術のように仮想視点とオブジェクトの位置関係に関する判定処理やオブジェクトの半透明化処理などを用いることなく、他のオブジェクト等の陰に隠れてしまうオブジェクトを可視状態で表示可能とし、また、その表示処理を高速且つ安価に実現可能となっている。   The present invention subdivides a frame in which a two-dimensional image is formed into predetermined unit regions, further determines a desired range in the frame, and determines whether or not overwriting can be performed for each unit region in the desired range. In particular, the drawing range in which the desired object is drawn in the frame or the drawing range in which the desired object is drawn in the frame is set as the desired range, and By performing the above-described setting of whether or not overwriting can be performed on a unit area corresponding to a predetermined rule pattern in each unit area, determination processing regarding the positional relationship between the virtual viewpoint and the object and half-processing of the object as in the related art are performed. Objects that are hidden behind other objects etc. can be displayed in a visible state without using transparency processing, etc., and the display processing is fast and cheap. It has become feasible.

本発明は、2次元画像が形成されるフレーム内を所定の単位領域毎に細分化し、さらに、フレーム内で所望の範囲を決定し、上記所望の範囲内の単位領域毎に上書き描画の可否を設定する。   The present invention subdivides a frame in which a two-dimensional image is formed into predetermined unit regions, further determines a desired range in the frame, and determines whether or not overwriting can be performed for each unit region in the desired range. Set.

特に、本発明では、所望のオブジェクトをフレーム内に描画すべき描画範囲、或いは、所望のオブジェクトがフレーム内に描画された描画範囲を、所望の範囲とし、その所望の範囲内の各単位領域のうち、所定の規則パターンに応じた単位領域に対して、上記上書き描画の可否設定を行うことにより、例えば他のものにより仮想視点から遮られている所望のオブジェクトを、見かけ上で半透明に見えるように描画している。   In particular, in the present invention, a drawing range in which a desired object is drawn in a frame, or a drawing range in which a desired object is drawn in a frame is set as a desired range, and each unit area in the desired range is set as a desired range. Of these, by performing the above-described setting of whether or not overwriting is performed on a unit area according to a predetermined rule pattern, for example, a desired object that is blocked from a virtual viewpoint by another object appears to be translucent in appearance. Is drawn like so.

[本実施の形態の描画装置の構成]
図1には、本発明実施の形態の描画装置1の概略構成を示す。なお、本実施の形態の描画装置1は、3次元ポリゴンへのテクスチャマッピングにより2次元画像を描画する装置であり、例えば、テレビゲーム機やパーソナルコンピュータ、3次元グラフィック装置などに適用可能なものである。
[Configuration of Drawing Apparatus According to Embodiment]
FIG. 1 shows a schematic configuration of a drawing apparatus 1 according to an embodiment of the present invention. Note that the drawing device 1 of the present embodiment is a device that draws a two-dimensional image by texture mapping to a three-dimensional polygon, and is applicable to, for example, a video game machine, a personal computer, and a three-dimensional graphic device. is there.

図1において、本実施の形態の描画装置1は、主要な構成要素として、輝度計算及び座標変換ユニット2と、LOD(Level Of Detail)計算ユニット3と、テクスチャ座標計算ユニット4と、DDA(Digital Differential Analyzer)ユニット5と、ピクセルエンジン(Pixel Engine)6と、画像メモリ7とを備えている。   In FIG. 1, a drawing apparatus 1 according to the present embodiment includes, as main components, a luminance calculation and coordinate conversion unit 2, a LOD (Level Of Detail) calculation unit 3, a texture coordinate calculation unit 4, and a DDA (Digital). A differential analyzer unit 5, a pixel engine 6, and an image memory 7 are provided.

また、上記画像メモリ7は、仮想視点からのZ方向の値(Z座標値)が記憶されるZバッファ8と、マッピングによりポリゴン上の全体的な模様を生成するための基本テクスチャや当該基本テクスチャのマッピングにより生成した模様を振幅変調するモジュレーション用のテクスチャなどが記憶されるテクスチャバッファ9と、2次元モニタ画面上に表示されるフレームデータ(2次元画像データ)を記憶及び合成するためのフレームバッファ10の各記憶領域を備えている。   The image memory 7 includes a Z buffer 8 in which a value in the Z direction (Z coordinate value) from a virtual viewpoint is stored, a basic texture for generating an overall pattern on a polygon by mapping, and a basic texture. Texture buffer 9 for storing a texture for modulation for amplitude-modulating a pattern generated by the mapping of the above, and a frame buffer for storing and synthesizing frame data (two-dimensional image data) displayed on a two-dimensional monitor screen It has ten storage areas.

これらの各構成要素を備えた描画装置1の入力端子13には、3次元画像を描画するための各種情報として、例えば、3次元ポリゴン情報、テクスチャ情報、光源情報及び視点情報等が入力される。なお、これら各種情報は、例えば通信回線或いは記憶装置等を介して供給される。   For example, three-dimensional polygon information, texture information, light source information, viewpoint information, and the like are input to the input terminal 13 of the drawing apparatus 1 including these components as various information for drawing a three-dimensional image. . These various types of information are supplied through, for example, a communication line or a storage device.

上記3次元ポリゴン情報は、例えば三角形のポリゴンの各頂点の(x,y,z)座標とこれら各頂点の法線の情報などからなり、上記テクスチャ情報は、各テクセル情報と三角形ポリゴンの各頂点に対応するテクスチャ座標とからなる情報である。また、上記視点情報及び光源情報は、ポリゴンに対する輝度計算及び座標変換を行うための情報である。上記光源情報は、1つの光源に限らず複数の光源を表す情報であっても良い。その他、ポリゴンの各頂点情報には、上記以外にも、色情報や、遠くにあるものに霧がかかったような効果を与えるためのフォグ値等の様々な情報が付加される。これらの各種情報は、先ず、描画装置1の輝度計算及び座標変換ユニット2に入力される。   The three-dimensional polygon information includes, for example, (x, y, z) coordinates of each vertex of a triangular polygon and information of a normal line of each vertex. The texture information includes each texel information and each vertex of the triangular polygon. Is information consisting of texture coordinates corresponding to. Further, the viewpoint information and the light source information are information for performing the brightness calculation and the coordinate conversion for the polygon. The light source information is not limited to one light source, and may be information representing a plurality of light sources. In addition to the above, various information such as color information and fog values for giving an effect of fogging a distant object is added to each vertex information of the polygon. These various types of information are first input to the luminance calculation and coordinate conversion unit 2 of the drawing apparatus 1.

輝度計算及び座標変換ユニット2は、入力されたポリゴンの各座標情報を、視点情報に基づいて2次元描画用の座標系の座標値に変換すると共に、各ポリゴンの各頂点の輝度を視点情報及び光源情報に基づいて計算する。また、輝度計算及び座標変換ユニット2は、上述した計算を行うと共に、透視変換等の処理をも行う。上記輝度計算及び座標変換ユニット2において算出された各値は、LOD計算ユニット3に入力される。   The brightness calculation and coordinate conversion unit 2 converts the input coordinate information of each polygon into coordinate values of a coordinate system for two-dimensional rendering based on the viewpoint information, and also converts the brightness of each vertex of each polygon into viewpoint information and Calculate based on light source information. The luminance calculation and coordinate conversion unit 2 performs the above-described calculation and also performs processing such as perspective transformation. Each value calculated in the brightness calculation and coordinate conversion unit 2 is input to the LOD calculation unit 3.

LOD計算ユニット3は、ピクセルエンジン6がテクスチャバッファ9から基本テクスチャを読み出す際に使用されるLOD(Level Of Detail)値を、上記変換されたポリゴンのZ座標から計算する。なお、LOD値は、ポリゴンを縮小する際の縮小率から計算される値であり、当該縮小率は例えば視点からポリゴンまでの距離の対数として求められるものである。上記LOD値は、テクスチャ座標計算ユニット4,DDAユニット5を経てピクセルエンジン6に送られる。   The LOD calculation unit 3 calculates an LOD (Level Of Detail) value used when the pixel engine 6 reads the basic texture from the texture buffer 9 from the Z coordinate of the converted polygon. Note that the LOD value is a value calculated from a reduction ratio when the polygon is reduced, and the reduction ratio is obtained, for example, as a logarithm of a distance from the viewpoint to the polygon. The LOD value is sent to the pixel engine 6 via the texture coordinate calculation unit 4 and the DDA unit 5.

テクスチャ座標計算ユニット4は、ピクセルエンジン6がテクスチャバッファ9からモジュレーション用テクスチャを読み出す際に使用されるテクスチャ座標値を、上記基本テクスチャ用のテクスチャ座標値より計算する。これらテクスチャ座標値は、DDAユニット5を経てピクセルエンジン6に送られる。   The texture coordinate calculation unit 4 calculates the texture coordinate values used when the pixel engine 6 reads the modulation texture from the texture buffer 9 from the texture coordinate values for the basic texture. These texture coordinate values are sent to the pixel engine 6 via the DDA unit 5.

DDAユニット5は、上記2次元のポリゴン頂点情報、Z座標の値及び輝度情報等をピクセル情報に変換する。具体的には、各画素について、その座標値、Z値、輝度及びテクスチャ座標値を線形補間により順次求める。このDDAユニット5からの出力は、ピクセルエンジン6に送られる。   The DDA unit 5 converts the two-dimensional polygon vertex information, the Z coordinate value, the luminance information, and the like into pixel information. Specifically, for each pixel, its coordinate value, Z value, luminance, and texture coordinate value are sequentially obtained by linear interpolation. The output from the DDA unit 5 is sent to the pixel engine 6.

ピクセルエンジン6は、Zバッファ8、テクスチャバッファ9、フレームバッファ10の読み出し及び書き込みの制御を行うと共に、上記テクスチャバッファ9から読み出されたテクセル情報と、上記DDAユニット5により求められたピクセル情報とを用いたテクスチャマッピングや、Z座標の比較、画素値計算を行う。   The pixel engine 6 controls the reading and writing of the Z buffer 8, the texture buffer 9, and the frame buffer 10, and controls the texel information read from the texture buffer 9 and the pixel information obtained by the DDA unit 5. To perform texture mapping, Z coordinate comparison, and pixel value calculation.

また、上記ピクセルエンジン6において、上記テクスチャマッピングを行う際には、上記テクスチャバッファ9に記憶された基本テクスチャを用いた、いわゆるミップマップ(MIPMAP)方式により、3次元のポリゴンへのマッピングが行われる。   When performing the texture mapping in the pixel engine 6, mapping to three-dimensional polygons is performed by a so-called mipmap (MIPMAP) method using a basic texture stored in the texture buffer 9. .

なお、上記ミップマップ方式とは、3次元のポリゴンに張り付けるテクスチャとして1/2,1/4,1/8,…(各辺の長さの比率)といった大きさの異なるテクスチャを予め用意しておき、縮小率に応じて上記予め用意しておいたテクスチャを選択し、3次元のポリゴンにマッピングを行う方式である。上記ミップマップ方式によれば、上述のように元のテクスチャを縮小したテクスチャをポリゴンにマッピングすることにより、ポリゴンを縮小した場合のエリアシングの発生を防止可能となる。   In the mipmap method, textures having different sizes such as 1/2, 1/4, 1/8,... (The ratio of the length of each side) are prepared in advance as textures to be attached to a three-dimensional polygon. In this method, the previously prepared texture is selected according to the reduction ratio, and is mapped to a three-dimensional polygon. According to the mipmap method, by mapping a texture obtained by reducing the original texture to a polygon as described above, it is possible to prevent the occurrence of aliasing when the polygon is reduced.

また、テクスチャマッピングの際に、上記基本テクスチャに対してさらに高い周波数成分を加える場合、上記ピクセルエンジン6は、テクスチャバッファ9に記憶されているモジュレーション用テクスチャを用いたテクスチャマッピングを行う。   When adding a higher frequency component to the basic texture at the time of texture mapping, the pixel engine 6 performs texture mapping using the modulation texture stored in the texture buffer 9.

さらに、ピクセルエンジン6は、シザリング、ディザリング、カラークランプ等の処理や、さらに必要に応じてαテストなどの処理も行う。なお、上記シザリングとは画面からはみ出したデータを取り除く処理であり、ディザリングとは少ない色数で多くの色を表現するための色の配置を入り組ませる処理、カラークランプとは色の計算の時に値が255を越えたり0より小さくなったりしないように制限する処理である。また、αテストとは各ピクセル毎のα値、すなわちテクスチャをマッピングする際の画像のブレンドの割合を示す係数値によって、描画するかしないかの制御を行う処理である。   Further, the pixel engine 6 performs processing such as scissoring, dithering, and color clamping, and further, if necessary, processing such as an α test. Note that the scissoring is a process of removing data that has run off the screen, the dithering is a process of mixing the arrangement of colors for expressing many colors with a small number of colors, and the color clamp is a process of calculating colors. This is a process of limiting the value so that it does not sometimes exceed 255 or become smaller than 0. The α test is a process of controlling whether or not to draw, based on an α value for each pixel, that is, a coefficient value indicating a blend ratio of an image when mapping a texture.

上記ピクセルエンジン6において、上述した各処理により得られた画像データは、フレームバッファ10に記憶されて2次元モニタ画面に描画するフレームデータ(2次元画像データ)が形成され、その後、当該形成された2次元画像データがフレームバッファ10から読み出され、出力端子14から出力されて2次元モニタ装置へ送られることになる。   In the pixel engine 6, the image data obtained by the above-described processes is stored in the frame buffer 10 to form frame data (two-dimensional image data) to be drawn on the two-dimensional monitor screen, and thereafter, the formed frame data is formed. The two-dimensional image data is read from the frame buffer 10, output from the output terminal 14, and sent to the two-dimensional monitor device.

[描画処理の第1の実施の形態]
ここで、例えば前述した図8で説明したように、仮想視点からの視野(フレームF)内にオブジェクトAが有り、さらにそのオブジェクトAと上記仮想視点との間に別のオブジェクトBが存在するような位置関係となっている場合において、本実施の形態の描画装置は、前記図9で説明したような仮想視点とオブジェクトの位置関係に関する判定処理やオブジェクトの半透明化処理などを用いることなく、上記オブジェクトBの陰に隠れてしまうオブジェクトAを可視状態に表示する画像を生成可能となっている。
[First Embodiment of Drawing Processing]
Here, as described with reference to FIG. 8, for example, there is an object A in the field of view (frame F) from the virtual viewpoint, and another object B exists between the object A and the virtual viewpoint. In such a case, the drawing apparatus according to the present embodiment does not use the determination process regarding the positional relationship between the virtual viewpoint and the object and the translucent process of the object as described with reference to FIG. It is possible to generate an image that displays the object A hidden behind the object B in a visible state.

以下、図1の構成を備えた描画装置において、上記オブジェクトBの陰に隠れてしまうオブジェクトAを可視状態に表示可能な画像を生成する際の、第1の実施の形態の描画処理の流れを、図2及び図3〜図5を用いて説明する。   Hereinafter, in the drawing apparatus having the configuration of FIG. 1, the flow of the drawing processing of the first embodiment when generating an image capable of displaying the object A hidden behind the object B in a visible state will be described. 2 and FIGS. 3 to 5.

図2において、先ず、ピクセルエンジン6は、ステップS1の処理として、可視状態に表示したいオブジェクト(オブジェクトA)を決定する。   In FIG. 2, first, the pixel engine 6 determines an object (object A) to be displayed in a visible state as the process of step S1.

次に、ピクセルエンジン6は、ステップS2の処理として、仮想視点からの視野(フレームF)内に描画されるべき物体等のうち、上記オブジェクトAを除く全てのものの画像をフレームバッファ10上に形成(描画)する。本実施の形態の例では、当該ステップS2の処理により、図3に示すようにオブジェクトBがフレームF内に描画されることになる。   Next, as processing of step S2, the pixel engine 6 forms, on the frame buffer 10, images of all objects other than the object A among objects to be drawn in the visual field (frame F) from the virtual viewpoint. (draw. In the example of the present embodiment, the object B is drawn in the frame F as shown in FIG.

さらに、上記ピクセルエンジン6は、ステップS3の処理として、上記フレームF内に描画した全てのものについて、各ピクセルのZ値(仮想視点からの距離(Z座標値))をZバッファ8に書き込む。なお、本実施の形態では、仮想視点のZ座標値が最大値となり、無限遠のZ座標値が最小値となるように設定されている。   Further, the pixel engine 6 writes the Z value (distance from the virtual viewpoint (Z coordinate value)) of each pixel into the Z buffer 8 for all the objects drawn in the frame F as the process of step S3. In the present embodiment, the Z coordinate value of the virtual viewpoint is set to the maximum value, and the Z coordinate value at infinity is set to the minimum value.

次に、ピクセルエンジン6は、ステップS4の処理として、図4に示すように、フレームF内を所定の大きさの単位領域(以下、メッシュMとする)で区切り、さらに、上記オブジェクトAを描画すべき所定範囲(必要に応じてその周辺も含む)Eを決定する。なお、図4の例では、上記各メッシュMを例えばn×m(n,m=1,2,3,…)ピクセルのような四角形としているが、これに限定されず、例えば三角形、ハニカム形のような多角形、その他、円形などであっても良い。また、1メッシュが1ピクセルであっても良い。   Next, as shown in FIG. 4, the pixel engine 6 divides the frame F into unit areas of a predetermined size (hereinafter, referred to as meshes M), and draws the object A, as shown in FIG. A predetermined range (including its periphery, if necessary) E to be determined is determined. In the example of FIG. 4, each of the meshes M is a quadrangle such as n × m (n, m = 1, 2, 3,...) Pixels, but is not limited thereto. And other shapes such as a polygon and a circle. One mesh may be one pixel.

次に、ピクセルエンジン6は、ステップS5の処理として、上記ステップS4にて決定した所定範囲E内の各メッシュMのうち、1ドットおき(1メッシュおき)の各メッシュMc内に含まれる各ピクセルに対応するZ値を、上記Zバッファ8から削除若しくは無限遠に設定(以下、クリア処理とする)する。   Next, the pixel engine 6 performs, as the process of step S5, each pixel included in each mesh Mc at every other dot (every other mesh) among the meshes M within the predetermined range E determined at step S4. Is deleted from the Z buffer 8 or set to infinity (hereinafter referred to as clear processing).

すなわち、上記メッシュMcに対して上記Z値をクリアするということは、当該クリア処理されたメッシュMcについて上書き描画を可能にすることを意味している。より具体的に説明すると、例えば上記所定範囲E内で且つ上記オブジェクトB内に含まれるメッシュMのうち、上記Z値がクリア処理されたメッシュMcについては、例えオブジェクトAが上記オブジェクトBよりも仮想視点から遠かったとしても、上記オブジェクトBの画像上に当該オブジェクトAの画像を上書き描画できることを意味している。   That is, clearing the Z value for the mesh Mc means that overwriting can be performed on the mesh Mc that has been subjected to the clear processing. More specifically, for example, among the meshes M within the predetermined range E and included in the object B, for the mesh Mc whose Z value has been cleared, for example, the object A is more virtual than the object B. This means that the image of the object A can be overwritten on the image of the object B even if it is far from the viewpoint.

上記ステップS5の処理の後、ピクセルエンジン6は、ステップS6の処理として、上記フレームF内にオブジェクトAを描画する。   After the process in step S5, the pixel engine 6 draws the object A in the frame F as the process in step S6.

以上により、例えばオブジェクトAと仮想視点との間にオブジェクトBが存在したとしても、上記Z値がクリア処理された各メッシュMc上には上記最後に描画したオブジェクトAの画像が描画されることになる。   As described above, for example, even if the object B exists between the object A and the virtual viewpoint, the image of the last drawn object A is drawn on each mesh Mc whose Z value has been cleared. Become.

すなわち、図5に示すように、オブジェクトAのうち、上記仮想視点から見てオブジェクトBと重なっている部分abについては、上記Z値がクリア処理された各メッシュMc部分で上記オブジェクトAの画像が上書き描画され、その結果、見かけ上、オブジェクトBが半透明に透けてオブジェクトAが見えるようになる。また、オブジェクトAのうち、上記仮想視点から見てオブジェクトBと重なっていない部分aaについては、当該オブジェクトAの画像がそのまま描画されることになる。もちろん、当然のことではあるが、上記仮想視点とオブジェクトAの間に他のオブジェクトが存在しない場合は、当該オブジェクトAの全体がそのまま描画されることになる。   That is, as shown in FIG. 5, for the portion ab of the object A that overlaps with the object B when viewed from the virtual viewpoint, the image of the object A is displayed at each mesh Mc portion whose Z value has been cleared. The object B is overwritten, and as a result, the object A can be seen through the semitransparent appearance of the object B. In addition, for the portion aa of the object A that does not overlap with the object B when viewed from the virtual viewpoint, the image of the object A is drawn as it is. Of course, as a matter of course, if no other object exists between the virtual viewpoint and the object A, the entire object A is drawn as it is.

なお、図4や図5の例では、図面上で分かり易くするために、各メッシュの大きさを大きく描いており、その結果、図5のオブジェクトAとオブジェクトBの重なり部分abが大きなチェック柄(市松模様)として描かれているが、実際の各メッシュの大きさは非常に小さく、したがって上記チェック柄のように見えることはなく、見かけ上はオブジェクトAが半透明に透けて見えるような画像となる。   In the examples of FIGS. 4 and 5, the size of each mesh is drawn large for easy understanding on the drawing. As a result, the overlapping portion ab of the object A and the object B in FIG. Although it is drawn as (checkered pattern), the actual size of each mesh is very small, so it does not look like the above-mentioned check pattern, and the object A appears to be translucent and transparent. It becomes.

[描画処理の第2の実施の形態]
上述した第1の実施の形態の描画処理は、フレームF内をメッシュMに区切り、オブジェクトAを描画すべき所定範囲E内のメッシュのうち、1ドットおき(1メッシュおき)の各メッシュMc内に含まれる各ピクセルに対応するZ値をクリア処理することによって半透明状の描画を実現したが、以下の第2の実施の形態の描画処理でも、上記第1の実施の形態と同様な半透明状の描画を実現することが可能である。
[Second Embodiment of Drawing Processing]
In the drawing process of the first embodiment described above, the frame F is divided into meshes M, and the mesh Mc in every other dot (every other mesh) of the meshes in the predetermined range E in which the object A is to be drawn. The semi-transparent drawing is realized by clearing the Z value corresponding to each pixel included in the first embodiment. However, in the following drawing process of the second embodiment, the same half-processing as that of the first embodiment is performed. It is possible to realize transparent drawing.

以下、図6を用いて、本発明にかかる第2の実施の形態の描画処理の流れを説明する。   Hereinafter, the flow of the drawing process according to the second embodiment of the present invention will be described with reference to FIG.

図6において、先ず、ピクセルエンジン6は、ステップS11の処理として、図2のステップS1と同様にオブジェクトAを決定する。   6, first, the pixel engine 6 determines the object A as the process of step S11, as in step S1 of FIG.

次に、ピクセルエンジン6は、ステップS12の処理として、仮想視点からの視野(フレームF)内に上記オブジェクトAを先に描画する。   Next, the pixel engine 6 draws the object A first in the field of view (frame F) from the virtual viewpoint as the processing of step S12.

次に、ピクセルエンジン6は、ステップS13の処理として、前記図4の例と同様に、フレームF内を所定の大きさのメッシュMで区切り、さらに、上記オブジェクトAを描画した所定範囲Eを決定する。なお、この第2の実施の形態の場合の所定範囲Eは、オブジェクトAの描画範囲内のみとすることが望ましい。また、当該第2の実施の形態の場合のメッシュMも、前述の第1の実施の形態の場合と同様に、正四角形に限らない。   Next, the pixel engine 6 divides the frame F by a mesh M of a predetermined size and determines a predetermined range E in which the object A is drawn, as in the example of FIG. I do. Note that the predetermined range E in the case of the second embodiment is desirably set only within the drawing range of the object A. Further, the mesh M in the case of the second embodiment is not limited to a regular square as in the case of the above-described first embodiment.

次に、ピクセルエンジン6は、ステップS14の処理として、上記所定範囲E内の各メッシュMのうち、1ドットおき(1メッシュおき)の各メッシュMc内に含まれる各ピクセルに対応するフレームバッファ値に対して、例えば前記αテストなどを使用することにより、他のオブジェクトのピクセルの描画を禁止する。具体的には、例えば各ピクセルのα値を0%(最小値)に設定することにより、ブレンドされないように制御する。若しくは、各メッシュMc内に含まれる各ピクセルに対応するZ値を最大(仮想視点のZ座標値)にして、事実上、他のオブジェクトのピクセルの描画を禁止する。   Next, the pixel engine 6 performs, as the process of step S14, the frame buffer value corresponding to each pixel included in each mesh Mc at every other dot (every other mesh) among the meshes M within the predetermined range E. For example, by using the α test or the like, the drawing of pixels of another object is prohibited. Specifically, for example, by setting the α value of each pixel to 0% (minimum value), control is performed so that blending is not performed. Alternatively, the Z value corresponding to each pixel included in each mesh Mc is maximized (the Z coordinate value of the virtual viewpoint), and the drawing of pixels of other objects is virtually prohibited.

なお、仮想視点のZ座標値が最小値となり、無限遠のZ座標値が最大値となるように設計されている場合には、上記各メッシュMc内に含まれる各ピクセルに対応するZ座標値を最小(仮想視点のZ座標値)にすることで、他のオブジェクトのピクセルの描画を禁止する。   When the Z coordinate value of the virtual viewpoint is designed to be the minimum value and the Z coordinate value at infinity is designed to be the maximum value, the Z coordinate value corresponding to each pixel included in each mesh Mc is set. Is set to the minimum (Z coordinate value of the virtual viewpoint), rendering of pixels of other objects is prohibited.

すなわち、上記メッシュMcを上記描画禁止に設定するということは、当該描画禁止となされたメッシュMcについて新たな上書き描画ができなくなったことを意味している。より具体的に説明すると、例えば上記所定範囲E内に含まれるメッシュMのうち、上記描画禁止となされたメッシュMcについては、例えオブジェクトBが上記オブジェクトAよりも仮想視点に近かったとしても、先に描画されているオブジェクトAの画像上には当該オブジェクトBの画像を上書き描画できないことを意味している。   That is, setting the mesh Mc to the drawing prohibition means that a new overwrite drawing cannot be performed on the mesh Mc for which the drawing is prohibited. More specifically, for example, among the meshes M included in the predetermined range E, for the mesh Mc for which the rendering is prohibited, even if the object B is closer to the virtual viewpoint than the object A, Means that the image of the object B cannot be overwritten and drawn on the image of the object A drawn at the same time.

上記ステップS14の処理の後、ピクセルエンジン6は、ステップS15の処理として、上記フレームF内に上記オブジェクトA以外のものを描画する。これにより、例えオブジェクトAと仮想視点との間にオブジェクトBが位置したとしても、上記各メッシュMc上では、他のオブジェクトのピクセルの描画が禁止されているので、当該オブジェクトAの画像が上記オブジェクトBの画像により上書きされるようなことがなく、上記オブジェクトAの画像が残ることになる。   After the processing in step S14, the pixel engine 6 draws something other than the object A in the frame F as the processing in step S15. Thereby, even if the object B is positioned between the object A and the virtual viewpoint, drawing of the pixel of another object is prohibited on each of the meshes Mc. The image of the object A remains without being overwritten by the image of B.

つまり、前記図5の場合と同様、オブジェクトAのうちで上記仮想視点から見てオブジェクトBと重なっている部分abについては、上記各メッシュMc部分で上記オブジェクトAの画像が残り、その結果、見かけ上、オブジェクトBが半透明に透けてオブジェクトAが見えるようになる。また、オブジェクトAのうち、上記仮想視点から見てオブジェクトBと重なっていない部分aaについては、当該オブジェクトAの画像がそのまま残ることになる。もちろん、上記仮想視点とオブジェクトAの間に他のオブジェクトが存在しない場合は、当該オブジェクトAの全体がそのまま残ることになる。   That is, as in the case of FIG. 5, for the portion ab of the object A that overlaps with the object B when viewed from the virtual viewpoint, an image of the object A remains in each of the mesh Mc portions. Above, the object A can be seen through the object B translucently. In addition, for the portion aa of the object A that does not overlap with the object B when viewed from the virtual viewpoint, the image of the object A remains as it is. Of course, if no other object exists between the virtual viewpoint and the object A, the entire object A remains as it is.

なお、上記ピクセルエンジン6では、上記図2や図6のフローチャートの処理を例えばDSPのようなハードウェア的な構成により実現することも、或いは、CPUのように例えば通信回線を介して伝送された描画処理プログラムや記憶媒体から記憶装置により読み出した描画処理プログラムによりソフトウェア的に実現することもできる。特に、上記ピクセルエンジン6での描画処理をソフトウェア的に実現する場合の描画処理プログラムは、上記図2や図6のフローチャートで説明した各ステップの処理を順次行うようなプログラムとなる。当該描画処理プログラムは、予めピクセルエンジン6用の処理プログラムとして用意しておく場合のみならず、例えば前記図1の入力端子13から前記ポリゴン情報等と共に、或いはそれに先だって入力することも可能である。   In the pixel engine 6, the processing of the flowcharts of FIGS. 2 and 6 may be realized by a hardware configuration such as a DSP, or may be transmitted via a communication line such as a CPU. It can also be realized in software by a drawing processing program or a drawing processing program read from a storage medium by a storage device. In particular, the drawing processing program when the drawing processing in the pixel engine 6 is realized by software is a program that sequentially performs the processing of each step described in the flowcharts of FIG. 2 and FIG. The drawing processing program can be input not only in advance as a processing program for the pixel engine 6 but also, for example, from the input terminal 13 in FIG. 1 together with the polygon information or the like or prior to it.

ソフトウェア的に本実施の形態の描画処理を実現するための具体的構成例として、図7には、図2や図6に示した流れの描画処理プログラムを実行するパーソナルコンピュータの概略構成を示す。なお、本実施の形態の画像処理プログラムは、主に図7のCPU123が実行する。   FIG. 7 shows a schematic configuration of a personal computer that executes a drawing processing program of the flow shown in FIGS. 2 and 6 as a specific configuration example for realizing the drawing processing of the present embodiment in software. The image processing program according to the present embodiment is mainly executed by the CPU 123 shown in FIG.

この図7において、記憶部128は、例えばハードディスク及びそのドライブからなる。当該ハードディスク内には、オペレーティングシステムプログラムや、例えばCD−ROMやDVD−ROM等の各種の記録媒体から取り込まれたり、通信回線を介して取り込まれた、本実施の形態の描画処理プログラム129や、ポリゴン描画のための図形情報、テクスチャ、Z値、通常テクスチャ、カラー値、α値等の各種のデータ130等が記憶されている。   In FIG. 7, the storage unit 128 includes, for example, a hard disk and its drive. The hard disk includes an operating system program, a drawing processing program 129 according to the present embodiment, which is fetched from various recording media such as a CD-ROM and a DVD-ROM, or fetched via a communication line, Various kinds of data 130 such as graphic information for polygon drawing, texture, Z value, normal texture, color value, and α value are stored.

通信部121は、例えば、アナログ公衆電話回線に接続するためのモデム、ケーブルテレビジョン網に接続するためのケーブルモデム、ISDN(総合ディジタル通信網)に接続するためのターミナルアダプタ、ADSL(Asymmetric Digital Subscriber Line)に接続するためのモデムなどのように、外部とデータ通信を行うための通信デバイスである。通信I/F部122は、上記通信部121と内部バス(BUS)との間でデータのやりとりを可能とするためのプロトコル変換等を行うインターフェイスデバイスである。   The communication unit 121 includes, for example, a modem for connecting to an analog public telephone line, a cable modem for connecting to a cable television network, a terminal adapter for connecting to ISDN (Integrated Services Digital Network), and an ADSL (Asymmetric Digital Subscriber). A communication device for performing data communication with the outside, such as a modem for connecting to a line. The communication I / F unit 122 is an interface device that performs protocol conversion and the like for enabling data exchange between the communication unit 121 and an internal bus (BUS).

入力部133は、例えばキーボードやマウス、タッチパッドなどの入力装置であり、ユーザI/F部132は、上記入力部133からの信号を内部に供給するためのインターフェイスデバイスである。   The input unit 133 is an input device such as a keyboard, a mouse, and a touch pad, and the user I / F unit 132 is an interface device for supplying a signal from the input unit 133 to the inside.

ドライブ部135は、例えばCD−ROMやDVD−ROM等のディスク媒体151や、カード状等の半導体メモリなどの記録媒体から、本実施の形態にかかる画像処理プログラムを含む各種のプログラムやデータを読み出し可能なドライブ装置である。ドライブI/F部134は、上記ドライブ部135からの信号を内部に供給するためのインターフェイスデバイスである。   The drive unit 135 reads various programs and data including the image processing program according to the present embodiment from a disk medium 151 such as a CD-ROM or a DVD-ROM or a recording medium such as a semiconductor memory such as a card. It is a possible drive device. The drive I / F unit 134 is an interface device for supplying a signal from the drive unit 135 to the inside.

表示部137は、例えばCRT(陰極線管)や液晶等の表示デバイスであり、表示ドライブ部136は上記表示部137を表示駆動させるドライブデバイスである。   The display unit 137 is a display device such as a CRT (cathode ray tube) or a liquid crystal, and the display drive unit 136 is a drive device that drives the display unit 137 to display.

ROM124は、例えばフラッシュメモリ等の書き換え可能な不揮発性メモリからなり、当該パーソナルコンピュータのBIOS(Basic Input/Output System)や各種の初期設定値を記憶している。RAM125は、記憶部128のハードディスクから読み出されたアプリケーションプログラムや各種データなどがロードされ、また、CPU123のワークRAMとして用いられる。   The ROM 124 is composed of, for example, a rewritable nonvolatile memory such as a flash memory, and stores a BIOS (Basic Input / Output System) of the personal computer and various initial setting values. The RAM 125 is loaded with application programs and various data read from the hard disk of the storage unit 128, and is used as a work RAM of the CPU 123.

CPU123は、上記記憶部128に記憶されているオペレーティングシステムプログラムや本実施の形態の描画処理プログラム129に基づいて、当該パーソナルコンピュータの全動作を制御すると共に前述した描画処理を実行する。すなわち、この図7に示す構成において、CPU123は、上記記憶部128のハードディスクから読み出されてRAM125にロードされたアプリケーションプログラムの一つである、本実施の形態の描画処理プログラムを実行することにより、前述の本実施の形態で説明した描画処理を実現する。   The CPU 123 controls all operations of the personal computer and executes the above-described drawing processing based on the operating system program stored in the storage unit 128 and the drawing processing program 129 of the present embodiment. That is, in the configuration shown in FIG. 7, the CPU 123 executes the drawing processing program of the present embodiment, which is one of the application programs read from the hard disk of the storage unit 128 and loaded into the RAM 125. Thus, the drawing processing described in the above-described embodiment is realized.

[本発明実施の形態のまとめ]
以上説明したように、本発明の第1,第2の実施の形態によれば、フレームF内をメッシュMに区切り、ある所定のオブジェクトAを描画すべき所定範囲E内のメッシュM毎に、上書き描画の可否を設定すること、すなわち例えば、1ドットおき(1メッシュおき)の各メッシュMcについてZ値をクリア処理、或いは、他のオブジェクトの描画を禁止することにより、例えば仮想視点とオブジェクトの位置関係に関する判定処理や、オブジェクトを半透明化する半透明化処理などを用いず、且つ、高速で安価に、他のオブジェクト等の陰に隠れてしまう所定のオブジェクトを可視状態で表示可能にしている。
[Summary of Embodiment of the Present Invention]
As described above, according to the first and second embodiments of the present invention, the inside of the frame F is divided into the meshes M, and for each mesh M in the predetermined range E in which a certain predetermined object A is to be drawn, By setting whether or not overwriting is possible, for example, by clearing the Z value for each mesh Mc every other dot (every other mesh) or prohibiting the drawing of other objects, for example, the virtual viewpoint and the A predetermined object which is hidden behind another object or the like can be displayed in a visible state at a high speed and at a low cost without using a determination process relating to a positional relationship or a translucent process of translucent an object. I have.

また、本実施の形態では、上記Z値のクリア処理、或いは、他のオブジェクトの描画禁止がピクセル単位で設定されるため、例えば上記オブジェクトBに対してオブジェクトAが非常に小さいような場合であっても、従来の半透明化処理のように、上記オブジェクトBにおいて半透明にすべきでない部分まで半透明になってしまうという問題は発生しない。   Further, in the present embodiment, since the Z value clearing process or the drawing prohibition of another object is set in pixel units, for example, the object A is very small with respect to the object B. However, unlike the conventional translucent process, there is no problem that the portion of the object B that should not be translucent becomes translucent.

なお、上述した各実施の形態の説明は、本発明の一例である。このため、本発明は上述の各実施の形態に限定されることなく、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることはもちろんである。   The description of each embodiment described above is an example of the present invention. Therefore, the present invention is not limited to the above-described embodiments, and various changes can be made according to the design and the like as long as the technical idea according to the present invention is not deviated. is there.

例えば、上記第1,第2の実施の形態では、Z値をクリア処理、或いは他のオブジェクトの描画を禁止するのを、1ドットおき(1メッシュおき)の規則パターンとしているが、本発明はそれに限定されず、例えば2ドットおき(2メッシュおき)、3ドットおき(3メッシュおき)などのようにNドット(N=1,2,3,…)おきにすることや、NドットおきとN+L(L=1,2,3,…)ドットおきを交互に繰り返すなどの規則パターンであってもよい。   For example, in the first and second embodiments, the process of clearing the Z value or prohibiting the drawing of another object is a regular pattern every other dot (every other mesh). The present invention is not limited to this. For example, every N dots (N = 1, 2, 3,...) Such as every two dots (every two meshes), every third dot (every three meshes), or every other N dots A regular pattern such as alternately repeating every N + L (L = 1, 2, 3,...) Dots may be used.

なお、例えば1ドットおき(1メッシュおき)の規則パターンを採用した場合、半透明の度合いは50%となり、例えば2ドットおき(2メッシュおき)の規則パターンを採用したならば半透明の度合いが25%となり、したがって本発明によれば、半透明の度合いを規則パターンに応じて任意に設定可能となっている。   For example, when a rule pattern of every other dot (every other mesh) is adopted, the degree of translucency is 50%. For example, when a rule pattern of every two dots (every two meshes) is adopted, the degree of translucency is reduced. Therefore, according to the present invention, the degree of translucency can be arbitrarily set according to the rule pattern.

その他、上記規則パターンを上述したような市松模様のパターンではなく、他の任意の模様パターンにすることで、前述のような見かけ上の半透明化だけでなく、特殊な見せ方など様々な画像効果を実現することも可能となる。上記任意の模様パターンとしては、例えば何らかの絵や記号を表すための模様のパターンや、特殊な画像効果を実現するためのパターンなどが考えられる。例えば絵の模様パターンを用いたような場合には、例えばいわゆる透かし絵のような描画を容易に実現可能となる。   In addition, the above rule pattern is not a checkerboard pattern as described above, but can be any other pattern pattern. In addition to the apparent translucency as described above, various images such as a special presentation method can be used. The effect can be realized. As the arbitrary pattern pattern, for example, a pattern pattern for expressing a certain picture or symbol, a pattern for realizing a special image effect, and the like can be considered. For example, in the case where a picture pattern is used, for example, drawing such as a so-called watermark picture can be easily realized.

本発明実施の形態の描画装置の主要部の概略構成例を示す図である。FIG. 1 is a diagram illustrating a schematic configuration example of a main part of a drawing apparatus according to an embodiment of the present invention. 本発明にかかる第1の実施の形態の描画処理の流れを示すフローチャートである。5 is a flowchart illustrating a flow of a drawing process according to the first embodiment of the present invention. 図2のフローチャートのステップS2の処理により、オブジェクトBがフレームF内に描画された状態を示す図である。FIG. 3 is a diagram showing a state in which an object B is drawn in a frame F by the processing in step S2 of the flowchart in FIG. 2. フレームFのメッシュ化と所定範囲E及び、Z値をクリア処理するメッシュMcの説明に用いる図である。It is a figure used for description of meshing of frame F and mesh Mc which carries out clear processing of predetermined range E and Z value. 本発明実施の形態の描画処理により、見かけ上、半透明化された画像の概略的な状態の説明に用いる図である。FIG. 5 is a diagram used to explain a schematic state of an image that is apparently made translucent by drawing processing according to the embodiment of the present invention. 本発明にかかる第2の実施の形態の描画処理の流れを示すフローチャートである。9 is a flowchart illustrating a flow of a drawing process according to the second embodiment of the present invention. 図2、図6のフローチャートで示した流れの描画処理プログラムを実行するパーソナルコンピュータの概略構成を示すブロック図である。FIG. 7 is a block diagram illustrating a schematic configuration of a personal computer that executes a drawing processing program of the flow illustrated in the flowcharts of FIGS. 2 and 6. 仮想視点から見てオブジェクトBによりオブジェクトAの一部が遮られた状態の画像の説明に用いる図である。FIG. 5 is a diagram used to explain an image in a state where a part of an object A is blocked by an object B when viewed from a virtual viewpoint. 従来の仮想視点とオブジェクトの位置関係に関する判定処理、及び、オブジェクトの半透明化処理により得られる画像の説明に用いる図である。It is a figure used for the judgment processing about the conventional positional relation of the virtual viewpoint and the object, and the explanation of the image obtained by the translucency processing of the object.

符号の説明Explanation of reference numerals

1…描画装置、2…輝度計算および座標変換ユニット、3…LOD計算ユニット、4…テクスチャ座標計算ユニット、5…DDAユニット、6…ピクセルエンジン、7…画像メモリ、8…Zバッファ、9…テクスチャバッファ、10…フレームバッファ
DESCRIPTION OF SYMBOLS 1 ... Drawing apparatus, 2 ... Luminance calculation and coordinate conversion unit, 3 ... LOD calculation unit, 4 ... Texture coordinate calculation unit, 5 ... DDA unit, 6 ... Pixel engine, 7 ... Image memory, 8 ... Z buffer, 9 ... Texture Buffer, 10 ... frame buffer

Claims (24)

可視状態とすべき可視対象オブジェクトを決定する可視対象決定ステップと、
2次元画像が形成されるフレーム内に、上記可視対象オブジェクトを除く全てのオブジェクトが描画されたフレーム画像を生成する画像生成ステップと、
少なくとも上記可視対象オブジェクトを描画するための描画範囲を含む上記フレーム画像の所定の範囲内において、細分化された所定の単位領域毎に上書き描画の可設定を行う設定ステップと、
上記上書き描画の可設定を行った単位領域に対して、上記可視対象オブジェクトを上書き描画し、且つ、上記上書き描写の可設定を行わなかった単位領域に対して、上記可視対象オブジェクトと仮想視点との間に上記可視対象オブジェクト以外の他のオブジェクトが存在するときは上記可視対象オブジェクトを上書き描画せず、上記可視対象オブジェクトと仮想視点との間に上記他のオブジェクトが存在しないときは上記可視対象オブジェクトを上書き描写するステップと、を含む
ことを特徴とするコンピュータに実行させるための描画処理プログラム。
A visible target determining step of determining a visible target object to be made visible,
An image generating step of generating a frame image in which all objects except the visible target object are drawn in a frame where a two-dimensional image is formed;
A setting step of setting overwriting in a predetermined range of the frame image including at least a drawing range for drawing the visible target object, for each subdivided predetermined unit area;
The visible target object is overwritten on the unit area for which the overwrite rendering is set, and the visible target object and the virtual viewpoint are set for the unit area for which the overwrite rendering is not set. Does not overwrite the visible target object when there is another object other than the visible target object between them, and renders the visible target object when there is no other object between the visible target object and the virtual viewpoint. A drawing processing program to be executed by a computer, comprising the step of overwriting and drawing an object.
請求項1記載の描画処理プログラムであって、
上記フレーム画像内に上記描画範囲を決定し、当該描画範囲に応じて上記所定の範囲を決定する範囲決定ステップを含む
ことを特徴とするコンピュータに実行させるための描画処理プログラム。
The drawing processing program according to claim 1, wherein
A drawing processing program for causing a computer to execute a range determination step of determining the drawing range in the frame image and determining the predetermined range according to the drawing range.
請求項1又は請求項2記載の描画処理プログラムであって、
上記設定ステップでは、上記単位領域に対して、仮想視点からの距離を表すZ座標値を削除若しくは無限遠に設定することにより、上記上書き描画の可設定を行う
ことを特徴とするコンピュータに実行させるための描画処理プログラム。
A drawing processing program according to claim 1 or 2, wherein:
In the setting step, the computer is characterized in that the overwriting is permitted by setting the Z coordinate value representing the distance from the virtual viewpoint to the unit area to be deleted or set to infinity. Drawing processing program for
請求項1〜請求項3のうち、いずれか一項記載の描画処理プログラムであって、
上記設定ステップでは、上記所定の範囲内の各単位領域のうち、所定の規則パターンに応じた単位領域に対して、上記上書き描画の可設定を行う
ことを特徴とするコンピュータに実行させるための描画処理プログラム。
The drawing processing program according to any one of claims 1 to 3,
In the setting step, the overwriting is permitted to be set in a unit area according to a predetermined rule pattern among the unit areas in the predetermined range. Processing program.
可視状態とすべき可視対象オブジェクトを決定する可視対象決定ステップと、
2次元画像が形成されるフレーム内に、上記可視対象オブジェクトを描画するオブジェクト描画ステップと、
少なくとも上記可視対象オブジェクトが描画された描画範囲を含む上記フレーム内の所定の範囲内において、細分化された所定の単位領域毎に上書き描画の否設定を行う設定ステップと、
上記上書き描画の否設定を行った単位領域に対して、上記可視対象オブジェクト以外の他のオブジェクトを上書き描画せず、且つ、上記上書き描画の否設定を行わなかった単位領域に対して、上記可視対象オブジェクトと仮想視点との間に上記他のオブジェクトが存在しないときは上記他のオブジェクトを上書き描画せず、上記可視対象オブジェクトと仮想視点との間に上記他のオブジェクトが存在するときは上記他のオブジェクトを上書き描画するステップと、を含む
ことを特徴とするコンピュータに実行させるための描画処理プログラム。
A visible target determining step of determining a visible target object to be made visible,
An object drawing step of drawing the visible target object in a frame where a two-dimensional image is formed;
A setting step of performing at least a setting of rejection of overwrite drawing for each of predetermined subdivided unit areas within a predetermined range in the frame including at least the drawing range in which the visible target object is drawn,
An object other than the visible target object is not overwritten in the unit area in which the setting of the overwrite drawing is set, and the visible area is set in the unit area in which the setting of the overwrite drawing is not set. When the other object does not exist between the target object and the virtual viewpoint, the other object is not overwritten, and when the other object exists between the visible target object and the virtual viewpoint, the other object is not drawn. A drawing processing program to be executed by a computer.
請求項5記載の描画処理プログラムであって、
上記設定ステップでは、上記単位領域に対して、画像のマッピングを行う際に使用されるブレンドの割合を示す係数値を最小値に設定することにより、上記上書き描画の否設定を行う
ことを特徴とするコンピュータに実行させるための描画処理プログラム。
The drawing processing program according to claim 5, wherein
In the setting step, the overwrite rendering rejection setting is performed by setting a coefficient value indicating a blend ratio used when mapping an image to the unit area to a minimum value. A drawing processing program to be executed by a computer that performs the processing.
請求項5記載の描画処理プログラムであって、
上記設定ステップでは、上記単位領域に対して、仮想視点からの距離を表すZ座標値を上記仮想視点のZ座標値に設定することにより、上記上書き描画の否設定を行う
ことを特徴とするコンピュータに実行させるための描画処理プログラム。
The drawing processing program according to claim 5, wherein
The computer according to claim 1, wherein in the setting step, the Z coordinate value indicating the distance from the virtual viewpoint is set to the Z coordinate value of the virtual viewpoint with respect to the unit area, so that the overwriting is prohibited. A drawing processing program to be executed.
請求項5〜請求項7のうち、いずれか一項記載の描画処理プログラムであって、
上記設定ステップでは、上記所定の範囲内の各単位領域のうち、所定の規則パターンに応じた単位領域に対して、上記上書き描画の否設定を行う
ことを特徴とするコンピュータに実行させるための描画処理プログラム。
The drawing processing program according to any one of claims 5 to 7, wherein
In the setting step, a setting for prohibiting the overwriting is performed on a unit area according to a predetermined rule pattern among the unit areas within the predetermined range, wherein the drawing for execution by a computer is performed. Processing program.
請求項4又は請求項8記載の描画処理プログラムであって、
上記設定ステップでは、上記所定の規則パターンに応じて上記可視対象オブジェクトの描画割合が決定される
ことを特徴とするコンピュータに実行させるための描画処理プログラム。
A drawing processing program according to claim 4 or claim 8, wherein
In the setting step, a drawing ratio of the visible target object is determined according to the predetermined rule pattern. A drawing processing program to be executed by a computer.
請求項4、請求項8、及び請求項9のうち、いずれか一項記載の描画処理プログラムであって、
上記所定の規則パターンを所定の模様に設定するステップを含む
ことを特徴とするコンピュータに実行させるための描画処理プログラム。
A drawing processing program according to any one of claims 4, 8, and 9, wherein:
A drawing processing program to be executed by a computer, comprising a step of setting the predetermined rule pattern to a predetermined pattern.
請求項1〜請求項10のうち、いずれか一項記載の描画処理プログラムであって、
前記フレーム内を前記単位領域に細分化するステップを含む
ことを特徴とするコンピュータに実行させるための描画処理プログラム。
The drawing processing program according to any one of claims 1 to 10, wherein
A drawing processing program to be executed by a computer, comprising a step of subdividing the inside of the frame into the unit areas.
請求項1〜請求項11のうち、いずれか一項記載の描画処理プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium storing the drawing processing program according to claim 1. 請求項1〜請求項11のうち、いずれか一項記載の描画処理プログラムを実行するプログラム実行装置。   A program execution device that executes the drawing processing program according to any one of claims 1 to 11. 可視状態とすべき可視対象オブジェクトを決定する可視対象決定部と、
2次元画像が形成されるフレーム内に、上記可視対象オブジェクトを除く全てのオブジェクトが描画されたフレーム画像を生成する画像生成部と、
少なくとも上記可視対象オブジェクトを描画するための描画範囲を含む上記フレーム画像の所定の範囲内において、細分化された所定の単位領域毎に上書き描画の可設定を行う設定部と、
上記上書き描画の可設定を行った単位領域に対して、上記可視対象オブジェクトを上書き描画し、且つ、上記上書き描写の可設定を行わなかった単位領域に対して、上記可視対象オブジェクトと仮想視点との間に上記可視対象オブジェクト以外の他のオブジェクトが存在するときは上記可視対象オブジェクトを上書き描画せず、上記可視対象オブジェクトと仮想視点との間に上記他のオブジェクトが存在しないときは上記可視対象オブジェクトを上書き描写する上書き描画処理部と、を有する
ことを特徴とする描画装置。
A visible object determining unit that determines a visible object to be made visible,
An image generation unit that generates a frame image in which all objects except the visible target object are drawn in a frame where a two-dimensional image is formed;
A setting unit for performing at least a settable of overwrite drawing for each of predetermined subdivided unit areas within a predetermined range of the frame image including at least a drawing range for drawing the visible target object,
The visible target object is overwritten on the unit area for which the overwrite rendering is set, and the visible target object and the virtual viewpoint are set for the unit area for which the overwrite rendering is not set. Does not overwrite the visible target object when there is another object other than the visible target object between them, and renders the visible target object when there is no other object between the visible target object and the virtual viewpoint. A drawing apparatus, comprising: an overwrite drawing processing unit that draws an object by overwriting.
請求項14記載の描画装置であって、
上記フレーム画像内に上記描画範囲を決定し、当該描画範囲に応じて上記所定の範囲を決定する範囲決定部を有する
ことを特徴とする描画装置。
The drawing apparatus according to claim 14, wherein
A drawing apparatus, comprising: a range determination unit that determines the drawing range in the frame image and determines the predetermined range according to the drawing range.
請求項14又は請求項15記載の描画装置であって、
上記設定部は、上記単位領域に対して、仮想視点からの距離を表すZ座標値を削除若しくは無限遠に設定することにより、上記上書き描画の可設定を行う
ことを特徴とする描画装置。
The drawing apparatus according to claim 14 or claim 15, wherein:
The drawing device, wherein the setting unit performs the setting of the overwrite drawing by deleting a Z coordinate value indicating a distance from the virtual viewpoint or setting the Z coordinate value to infinity with respect to the unit area.
可視状態とすべき可視対象オブジェクトを決定する可視対象決定部と、
2次元画像が形成されるフレーム内に、上記可視対象オブジェクトを描画するオブジェクト描画部と、
少なくとも上記可視対象オブジェクトが描画された描画範囲を含む上記フレーム内の所定の範囲内において、細分化された所定の単位領域毎に上書き描画の否設定を行う設定部と、
上記上書き描画の否設定を行った単位領域に対して、上記可視対象オブジェクト以外の他のオブジェクトを上書き描画せず、且つ、上記上書き描画の否設定を行わなかった単位領域に対して、上記可視対象オブジェクトと仮想視点との間に上記他のオブジェクトが存在しないときは上記他のオブジェクトを上書き描画せず、上記可視対象オブジェクトと仮想視点との間に上記他のオブジェクトが存在するときは上記他のオブジェクトを上書き描画する上書き描画処理部と、を有する
ことを特徴とする描画装置。
A visible object determining unit that determines a visible object to be made visible,
An object drawing unit that draws the visible target object in a frame where a two-dimensional image is formed;
A setting unit that performs a setting of whether or not to perform overwrite drawing for each of the subdivided predetermined unit areas within a predetermined range in the frame including at least the drawing range in which the visible target object is drawn,
An object other than the visible target object is not overwritten in the unit area in which the setting of the overwrite drawing is set, and the visible area is set in the unit area in which the setting of the overwrite drawing is not set. When the other object does not exist between the target object and the virtual viewpoint, the other object is not overwritten, and when the other object exists between the visible target object and the virtual viewpoint, the other object is not drawn. And an overwrite drawing processing unit for overwriting the object.
請求項17記載の描画装置であって、
上記設定部は、上記単位領域に対して、画像のマッピングを行う際に使用されるブレンドの割合を示す係数値を最小値に設定することにより、上記上書き描画の否設定を行う
ことを特徴とする描画装置。
The drawing apparatus according to claim 17, wherein
The setting unit sets the coefficient value indicating a blending ratio used when mapping an image to the unit area to a minimum value, thereby performing the setting of the overwrite rendering. Drawing device.
請求項17記載の描画装置であって、
上記設定部は、上記単位領域に対して、仮想視点からの距離を表すZ座標値を上記仮想視点のZ座標値に設定することにより、上記上書き描画の否設定を行う
ことを特徴とする描画装置。
The drawing apparatus according to claim 17, wherein
The setting unit sets the Z coordinate value indicating the distance from the virtual viewpoint to the Z coordinate value of the virtual viewpoint with respect to the unit area, thereby performing the setting of the overwrite drawing. apparatus.
請求項14〜請求項19のうち、いずれか一項記載の描画装置であって、
上記設定部は、上記所定の範囲内の各単位領域のうち、所定の規則パターンに応じた単位領域に対して、上記上書き描画の可設定又は否設定を行う
ことを特徴とする描画装置。
The drawing apparatus according to any one of claims 14 to 19, wherein:
The drawing device, wherein the setting unit performs the setting of whether or not the overwrite drawing is permitted or not for a unit area according to a predetermined rule pattern among the unit areas within the predetermined range.
請求項20記載の描画装置であって、
上記設定部は、上記所定の規則パターンの設定により、上記所望のオブジェクトの描画割合を変更する
ことを特徴とする描画装置。
The drawing apparatus according to claim 20, wherein
The drawing device, wherein the setting unit changes a drawing ratio of the desired object by setting the predetermined rule pattern.
請求項20又は請求項21記載の描画装置であって、
上記設定部は、上記所定の規則パターンを所定の模様に設定する
ことを特徴とする描画装置。
The drawing apparatus according to claim 20 or claim 21,
The drawing device, wherein the setting unit sets the predetermined rule pattern to a predetermined pattern.
可視状態とすべき可視対象オブジェクトを決定し、
2次元画像が形成されるフレーム内に、上記可視対象オブジェクトを除く全てのオブジェクトが描画されたフレーム画像を生成し、
少なくとも上記可視対象オブジェクトを描画するための描画範囲を含む上記フレーム画像の所定の範囲内において、細分化された所定の単位領域毎に上書き描画の可設定を行い、
上記上書き描画の可設定を行った単位領域に対して、上記可視対象オブジェクトを上書き描画し、且つ、上記上書き描画の可設定を行わなかった単位領域に対して、上記可視対象オブジェクトと仮想視点との間に上記可視対象オブジェクト以外の他のオブジェクトが存在するときは上記可視対象オブジェクトを上書き描画せず、上記可視対象オブジェクトと仮想視点との間に上記他のオブジェクトが存在しないときは上記可視対象オブジェクトを上書き描画する
ことを特徴とする描画方法。
Determine the visible target object to be made visible,
In a frame where a two-dimensional image is formed, generate a frame image in which all objects except the visible target object are drawn,
At least within the predetermined range of the frame image including the drawing range for drawing the visible target object, perform overwriting enabled for each of the subdivided predetermined unit areas,
The visible target object is overwritten on the unit area for which the overwrite rendering is set, and the visible target object and the virtual viewpoint are set for the unit area for which the overwrite rendering is not set. Does not overwrite the visible target object when there is another object other than the visible target object between them, and renders the visible target object when there is no other object between the visible target object and the virtual viewpoint. A drawing method characterized by drawing over an object.
可視状態とすべき可視対象オブジェクトを決定し、
2次元画像が形成されるフレーム内に、上記可視対象オブジェクトを描画し、 少なくとも上記可視対象オブジェクトが描画された描画範囲を含む上記フレーム内の所定の範囲内において、細分化された所定の単位領域毎に上書き描画の否設定を行い、
上記上書き描画の否設定を行った単位領域に対して、上記可視対象オブジェクト以外の他のオブジェクトを上書き描画せず、且つ、上記上書き描画の否設定を行わなかった単位領域に対して、上記可視対象オブジェクトと仮想視点との間に上記他のオブジェクトが存在しないときは上記他のオブジェクトを上書き描画せず、上記可視対象オブジェクトと仮想視点との間に上記他のオブジェクトが存在するときは上記他のオブジェクトを上書き描画する
ことを特徴とする描画方法。

Determine the visible target object to be made visible,
The visible target object is drawn in a frame in which a two-dimensional image is formed, and at least a predetermined unit area subdivided within a predetermined range in the frame including a drawing range in which the visible target object is drawn Set whether to overwrite each time,
An object other than the visible target object is not overwritten in the unit area in which the setting of the overwrite drawing is set, and the visible area is set in the unit area in which the setting of the overwrite drawing is not set. When the other object does not exist between the target object and the virtual viewpoint, the other object is not overwritten, and when the other object exists between the visible target object and the virtual viewpoint, the other object is not drawn. A drawing method, characterized by drawing over an object of another type.

JP2004001874A 2000-12-19 2004-01-07 Drawing processing program to be executed by computer, recording medium with the program recorded thereon, program execution device, drawing device and method Pending JP2004158032A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004001874A JP2004158032A (en) 2000-12-19 2004-01-07 Drawing processing program to be executed by computer, recording medium with the program recorded thereon, program execution device, drawing device and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000385158 2000-12-19
JP2004001874A JP2004158032A (en) 2000-12-19 2004-01-07 Drawing processing program to be executed by computer, recording medium with the program recorded thereon, program execution device, drawing device and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001326319A Division JP3524529B2 (en) 2000-12-19 2001-10-24 Drawing processing program to be executed by computer, recording medium storing drawing processing program to be executed by computer, program execution device, drawing device and method

Publications (1)

Publication Number Publication Date
JP2004158032A true JP2004158032A (en) 2004-06-03

Family

ID=32827328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004001874A Pending JP2004158032A (en) 2000-12-19 2004-01-07 Drawing processing program to be executed by computer, recording medium with the program recorded thereon, program execution device, drawing device and method

Country Status (1)

Country Link
JP (1) JP2004158032A (en)

Similar Documents

Publication Publication Date Title
JP3635051B2 (en) Image generation method and apparatus, recording medium storing image processing program, and image processing program
JP4291892B2 (en) Image processing apparatus and method
JP3761085B2 (en) Image processing apparatus, components thereof, and rendering processing method
US5877773A (en) Multi-pass clipping in a geometry accelerator
JP3715222B2 (en) Drawing method, drawing device, drawing processing program, recording medium recording drawing processing program, and drawing processing program execution device
JP3529759B2 (en) Image processing program, computer-readable recording medium storing image processing program, program execution device, image processing device, and image processing method
JP2010510608A (en) Efficient scissoring for graphics applications
US8004522B1 (en) Using coverage information in computer graphics
US7898549B1 (en) Faster clears for three-dimensional modeling applications
US7576746B1 (en) Methods and systems for rendering computer graphics
KR20040011525A (en) Drawing method
KR20080100854A (en) Rendering processing method, rendering processing device, and computer-readable recording medium having recorded therein a rendering processing program
US8648874B2 (en) Method and system for providing edge antialiasing
JP3524529B2 (en) Drawing processing program to be executed by computer, recording medium storing drawing processing program to be executed by computer, program execution device, drawing device and method
JP2003504697A (en) Anti-aliasing of subsampled texture edges
JP3696584B2 (en) Drawing processing method and apparatus, semiconductor device, drawing processing program, and recording medium
JP3258286B2 (en) Drawing method and drawing apparatus for displaying image data of a plurality of objects in which translucent and opaque objects are mixed on a computer display screen
JP2004158032A (en) Drawing processing program to be executed by computer, recording medium with the program recorded thereon, program execution device, drawing device and method
JP3745659B2 (en) Image generating apparatus and image generating program
JP3701627B2 (en) Drawing processing program, recording medium storing drawing processing program, drawing processing apparatus and method
JPH09319892A (en) Image processor and its processing method
JP2003022453A (en) Method and device for plotting processing, recording medium having plotting processing program, recorded thereon, and plotting processing program
US6377279B1 (en) Image generation apparatus and image generation method
JP2003323633A (en) Image processor and image processing program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060912

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061220