JP2000215325A - Method and device for processing image and recording medium recording program - Google Patents

Method and device for processing image and recording medium recording program

Info

Publication number
JP2000215325A
JP2000215325A JP1271399A JP1271399A JP2000215325A JP 2000215325 A JP2000215325 A JP 2000215325A JP 1271399 A JP1271399 A JP 1271399A JP 1271399 A JP1271399 A JP 1271399A JP 2000215325 A JP2000215325 A JP 2000215325A
Authority
JP
Japan
Prior art keywords
virtual
dimensional
dimensional object
polygon
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP1271399A
Other languages
Japanese (ja)
Inventor
Makoto Ando
麻琴 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Enterprises Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Enterprises Ltd filed Critical Sega Enterprises Ltd
Priority to JP1271399A priority Critical patent/JP2000215325A/en
Publication of JP2000215325A publication Critical patent/JP2000215325A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily display a three-dimensional(3D) and real object from any visual point position by applying rendering processing to the inside surface of polygons composing the 3D object when transmitting a projection from one side concerning the polygons composing the 3D object. SOLUTION: In the image processing part of a game system, a geometry processing part 202 reads out polygon data stored in a data storage part 201, arranges polygons inside a virtual 3D space on the basis of the polygon data, performs view port processing for determining the area in the virtual 3D space to be displayed at a maximum and performs processing for mapping (transforming) the polygons arranged in the virtual 3D space to 2D plane. A rendering processing part 203 performs processing such as a painting-out, shading, importation of texture and color operation to the polygon provided by the geometry processing part 202.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ゲーム装置および
ゲーム装置の画像処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a game device and an image processing method for the game device.

【0002】[0002]

【従来技術】いわゆるインタラクティブゲーム等を実現
するゲーム装置では、プレイヤーによって操作される入
力装置(コントローラパッド等)からの操作信号に応じ
て、表示装置の画面に表示されたキャラクタ(オブジェ
クト)が制御される。
2. Description of the Related Art In a game device for realizing a so-called interactive game or the like, a character (object) displayed on a screen of a display device is controlled according to an operation signal from an input device (controller pad or the like) operated by a player. You.

【0003】近年では、ハードウェア性能の向上に伴
い、仮想3次元空間をキャラクタが移動するようなゲー
ム映像を3次元グラフィックスにより提供することで、
ゲームの演出効果を高めている。
In recent years, with the improvement of hardware performance, a game image in which a character moves in a virtual three-dimensional space is provided by three-dimensional graphics.
The effect of the game is enhanced.

【0004】この3次元グラフィックスは、オブジェク
トを多角形(ポリゴン)の組み合わせで表現するための
3次元データに基づいて、仮想3次元空間における視点
位置(「投影中心位置」と呼ばれることもある。)から
視線方向にあるオブジェクトの空間的な位置関係を算出
し、さらにレンダリング処理等の画像処理を行って、オ
ブジェクトを立体的に表現する(「実践コンピュータグ
ラフィックス」、日刊工業新聞社発行)。
[0004] The three-dimensional graphics are sometimes referred to as a viewpoint position ("projection center position") in a virtual three-dimensional space based on three-dimensional data for expressing an object by a combination of polygons (polygons). ) To calculate the spatial positional relationship of the object in the line of sight, and further perform image processing such as rendering processing to render the object three-dimensionally (“Practical Computer Graphics”, published by Nikkan Kogyo Shimbun).

【0005】一般に、ゲームの興味性は、そのゲームの
内容に加え、ディスプレイに表現されるゲーム映像に左
右される場合が多い。このため、ゲーム(ゲームプログ
ラム)を製作する上で、どのようなゲーム映像をプレイ
ヤに提供するかは、非常に重要な要素となっている。
[0005] In general, the interest of a game often depends on the game image displayed on a display in addition to the content of the game. Therefore, in producing a game (game program), what kind of game video is provided to the player is a very important factor.

【0006】[0006]

【発明が解決しようとする課題】ゲームの興味性を増大
させるために、ゲーム映像にさまざまな演出を加えるこ
とが行われている。
Various effects have been added to game images in order to increase the interest in the game.

【0007】たとえば、レーシングカーを操作して、そ
のスピードやテクニックを競うレーシングゲームでは、
レーシングカーのスリップなどに合わせてタイヤからス
モークが生じているような映像が提供されている。
[0007] For example, in a racing game in which a racing car is operated to compete for its speed and technique,
There is provided an image in which smoke is generated from tires according to a slip of a racing car or the like.

【0008】このようなゲームの映像は、8枚のポリゴ
ンを使用した多角錐状のオブジェクトの外面と内面の両
方にテクスチャを張り付けることにより実現される。
[0008] Such a video image of a game is realized by attaching a texture to both the outer surface and the inner surface of a polygonal pyramid object using eight polygons.

【0009】しかしながら、従来のようにオブジェクト
の外側にもテクスチャを張り付けていたため、プレイヤ
がオブジェクトの形を認識してしまい、ゲームの映像に
興ざめしてしまうという問題があった。
However, since the texture is pasted on the outside of the object as in the prior art, there has been a problem that the player recognizes the shape of the object, thereby causing the image of the game to wake up.

【0010】[0010]

【課題を解決するための手段】上記課題を解決するため
に、本発明は以下のように特定される。
Means for Solving the Problems In order to solve the above problems, the present invention is specified as follows.

【0011】すなわち、本発明は、3次元データに基づ
いて仮想3次元空間内に仮想面を配置することにより立
体オブジェクトを構成し、前記立体オブジェクトの内側
に位置する仮想面にテクスチャを付与する画像処理方法
であって、前記仮想3次元空間内の所定の視点位置から
前記立体オブジェクトを投影した場合に前記立体オブジ
ェクトの外側に位置する仮想面が投影される仮想面につ
いて透過処理を行うことを特徴とする画像処理方法であ
る。
That is, the present invention provides an image in which a three-dimensional object is formed by arranging a virtual plane in a virtual three-dimensional space based on three-dimensional data, and a texture is applied to a virtual plane located inside the three-dimensional object. In the processing method, when the three-dimensional object is projected from a predetermined viewpoint position in the virtual three-dimensional space, a transmission process is performed on a virtual surface on which a virtual surface located outside the three-dimensional object is projected. Image processing method.

【0012】また、本発明は、3次元データに基づいて
仮想3次元空間に複数のポリゴンを配置することにより
立体オブジェクトを構成するステップと、前記立体オブ
ジェクトを構成するポリゴンの内側面が前記仮想3次元
空間内の所定の視点位置に面するポリゴンを抽出するス
テップと、前記ステップにより抽出されたポリゴンの前
記立体オブジェクトの内側面となる面にテクスチャを付
与するステップとを備えたことを特徴とする画像処理方
法である。
Further, the present invention provides a step of forming a three-dimensional object by arranging a plurality of polygons in a virtual three-dimensional space based on three-dimensional data; Extracting a polygon facing a predetermined viewpoint position in a three-dimensional space, and applying a texture to a surface of the polygon extracted in the step, which is an inner surface of the three-dimensional object. This is an image processing method.

【0013】また、上記方法の発明は物の発明としても
把握することができる。具体的には、本発明は、3次元
データに基づいて仮想3次元空間内に仮想面を配置する
ことにより立体オブジェクトを構成するジオメトリ手段
と、前記立体オブジェクトの内側に位置する仮想面にテ
クスチャを付与するレンダリング手段とを備えた画像処
理装置であって、前記仮想3次元空間内の所定の視点位
置から前記立体オブジェクトを投影した場合に前記立体
オブジェクトの外側に位置する仮想面が投影される仮想
面について透過処理を行うことを特徴とする画像処理装
置である。
Further, the invention of the above method can be understood as an invention of a product. More specifically, the present invention provides a geometry unit configured to form a three-dimensional object by arranging a virtual surface in a virtual three-dimensional space based on three-dimensional data, and applying a texture to a virtual surface located inside the three-dimensional object. An image processing apparatus comprising: a rendering unit configured to provide a virtual plane positioned outside the three-dimensional object when the three-dimensional object is projected from a predetermined viewpoint position in the virtual three-dimensional space. An image processing apparatus that performs a transmission process on a surface.

【0014】また、本発明は、3次元データに基づいて
仮想3次元空間に複数のポリゴンを配置することにより
立体オブジェクトを構成するジオメトリ手段と、前記立
体オブジェクトの内側面が前記仮想3次元空間内の所定
の視点位置に面するポリゴンを抽出する抽出手段と、前
記抽出手段により抽出されたポリゴンの前記立体オブジ
ェクトの内側面になる面にテクスチャを付与するレンダ
リング手段とを、備えることを特徴とする画像処理装置
である。
Further, the present invention provides a geometric means for forming a three-dimensional object by arranging a plurality of polygons in a virtual three-dimensional space based on three-dimensional data; Extracting means for extracting a polygon facing the predetermined viewpoint position, and rendering means for applying a texture to a surface of the polygon extracted by the extracting means, which becomes an inner surface of the three-dimensional object. An image processing device.

【0015】なお、前記テクスチャは、煙、水滴または
粉塵を表現するものであることが好ましい。
It is preferable that the texture expresses smoke, water droplets or dust.

【0016】さらに、本発明は、コンピュータに所定の
機能を実現させるプログラムとして特定することもでき
る。
Further, the present invention can be specified as a program for causing a computer to realize a predetermined function.

【0017】なお、前記記録媒体とは、例えば、ハード
ディスク(HD)、DVD−RAM、フレキシブルディ
スク(FD)やCD−ROM等のほかに、RAMやRO
M等のメモリを含む。また、前記コンピュータとは、例
えば、CPUやMPUといったいわゆる中央処理装置が
プログラムを解釈することで所定の処理を行う、いわゆ
るマイクロコンピュータ等をも含む。
The recording medium includes, for example, a hard disk (HD), a DVD-RAM, a flexible disk (FD), a CD-ROM, and the like, as well as a RAM and an RO.
M and other memories. The computer also includes, for example, a so-called microcomputer that performs a predetermined process by interpreting a program by a so-called central processing unit such as a CPU or an MPU.

【0018】[0018]

【発明の実施の形態】次に、本発明の実施の形態につい
て、図面を参照しつつ説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0019】[第1の実施形態]図1は、本発明に係る
ゲーム装置の構成を示す図である。図1において、本発
明に係るゲーム装置は、CPU101等を中心に構成さ
れる制御部1、ユーザが該制御部に操作信号を入力する
ための入力装置2、オペレーティングシステム(以下
「OS」という。)やアプリケーションプログラム(ゲ
ームプログラム)を記憶し、必要に応じて該制御部にこ
れらのプログラムを入力するための外部記憶装置3、ユ
ーザに画像や音を提供するための表示装置4aおよびス
ピーカ4b等からなる出力装置4を備える。また、電話
回線等を介して他のコンピュータやゲーム装置とデータ
の送受信をするための通信装置5を備えている。なお、
外部記憶装置3は、図示したCD−ROM等に限らず、
制御部1からのデータを書き込み保持可能な記録媒体等
であってもかまわない。
[First Embodiment] FIG. 1 is a diagram showing a configuration of a game device according to the present invention. In FIG. 1, a game device according to the present invention includes a control unit 1 mainly including a CPU 101, an input device 2 for a user to input an operation signal to the control unit, and an operating system (hereinafter referred to as “OS”). ) And an application program (game program), and an external storage device 3 for inputting these programs to the control unit as necessary, a display device 4a and a speaker 4b for providing images and sounds to the user, and the like. And an output device 4 comprising: Further, a communication device 5 for transmitting and receiving data to and from another computer or game device via a telephone line or the like is provided. In addition,
The external storage device 3 is not limited to the illustrated CD-ROM or the like,
A recording medium or the like that can write and hold the data from the control unit 1 may be used.

【0020】ゲームを開始すべく電源が投入されると、
図示しないブートプログラムローダは、ROM102に
記憶されているブートプログラム(イニシャルプログラ
ムと呼ばれることもある。)をCPU101にロード
し、CPU101はブートプログラムを実行する。CP
U101は、このブートプログラムに従って、CD−R
OM等に記憶されているOSの全部または必要な部分を
メインメモリ103にロードし、OSを実行する。
When the power is turned on to start the game,
A boot program loader (not shown) loads a boot program (sometimes called an initial program) stored in the ROM 102 into the CPU 101, and the CPU 101 executes the boot program. CP
U101 operates according to the boot program.
The entire or necessary part of the OS stored in the OM or the like is loaded into the main memory 103 and the OS is executed.

【0021】CPU101は、このOSの制御の下、C
D−ROM等に記憶されているアプリケーションプログ
ラム(以下、単に「プログラム」ということもある。)
の全部または必要な部分をメインメモリ103にロード
するとともに、必要に応じてCD−ROM等に記憶され
ている描画データや画像データをグラフィックメモリ1
04にロードし、また、サウンドデータをサウンドメモ
リ105にロードする。
Under the control of the OS, the CPU 101
Application programs stored in a D-ROM or the like (hereinafter, sometimes simply referred to as “programs”)
Is loaded into the main memory 103, and drawing data and image data stored in a CD-ROM or the like are stored in the graphic memory 1 as necessary.
04 and sound data into the sound memory 105.

【0022】CPU101は、OSの制御の下、メイン
メモリ103に記憶されたアプリケーションプログラム
を実行する。アプリケーションプログラムの実行に伴う
データは、メインメモリ103やバックアップメモリ1
06に必要の都度書き込まれ参照される。バックアップ
メモリ106は、ゲームの中断等で電源が遮断されても
それまでの状態を保持するために、データを記憶する。
The CPU 101 executes an application program stored in the main memory 103 under the control of the OS. Data accompanying the execution of the application program is stored in the main memory 103 or the backup memory 1.
06 is written and referenced whenever necessary. The backup memory 106 stores data in order to maintain the previous state even if the power is cut off due to interruption of the game or the like.

【0023】なお、本実施形態において、OSやアプリ
ケーションプログラム等はCD−ROMから提供される
ように構成しているが、例えば、ROMからまたはネッ
トワークを介して他のコンピュータから供給されるよう
に構成してもよい。
In this embodiment, the OS and the application programs are configured to be provided from a CD-ROM. For example, the OS and the application programs are configured to be supplied from another computer via a ROM or a network. May be.

【0024】ビデオディスプレイプロセッサ(VDP;
Video Display Processor)107は、グラフィックメ
モリ104に記憶される画像表示に必要な描画データを
読み出して、アプリケーションプログラムの実行による
CPU101からの命令やデータに基づき各種情報処理
(画像処理)を行って、画像データを生成する。各種画
像処理は、例えば、テクスチャマッピング、光源処理、
表示優先処理等がある。生成された画像データを表示装
置4aに表示するために、VDP107は、エンコーダ
108に出力する。なお、生成された画像データは、例
えば、フレームバッファメモリ等に書き込み、このフレ
ームバッファメモリから所定のタイミングで読み出すよ
うにしてもよい。
A video display processor (VDP;
A Video Display Processor (107) reads out drawing data necessary for image display stored in the graphic memory 104, performs various information processing (image processing) based on commands and data from the CPU 101 by executing application programs, and performs image processing. Generate data. Various image processing includes, for example, texture mapping, light source processing,
There is a display priority process and the like. In order to display the generated image data on the display device 4a, the VDP 107 outputs the data to the encoder 108. Note that the generated image data may be written into, for example, a frame buffer memory or the like, and may be read from the frame buffer memory at a predetermined timing.

【0025】サウンドプロセッサ(Sound Processor)
109は、サウンドメモリ105に記憶されるサウンド
データを読み出して、アプリケーションプログラムの実
行によるCPU101からの命令やデータに基づき各種
情報処理(音声処理)を行う。各種音声処理は、例え
ば、エフェクト処理、ミキシング処理等がある。各種音
声処理が施されたサウンドデータは、D/Aコンバータ
110によってアナログデータに変換され、スピーカに
出力される。
Sound Processor
109 reads out sound data stored in the sound memory 105 and performs various information processing (sound processing) based on commands and data from the CPU 101 by executing the application program. The various audio processes include, for example, an effect process, a mixing process, and the like. The sound data that has been subjected to various sound processing is converted into analog data by the D / A converter 110 and output to a speaker.

【0026】バスアービタ(Bus Arbiter)111は、
データ伝送路(バス等)を介して接続される各ユニット
間同士の制御を行う。例えば、バスアービタ111は、
バスを占有するユニットを決定するために、各ユニット
間の優先順位を決定したり、占有するユニットのバス占
有時間の割当てを行う。
The bus arbiter 111 is
Control between units connected via a data transmission path (bus or the like) is performed. For example, the bus arbiter 111
In order to determine the unit that occupies the bus, the priority order among the units is determined, and the bus occupation time of the occupying unit is assigned.

【0027】以上のように構成された本発明に係るゲー
ム装置は、CPUがCD−ROM等の外部記録媒体から
読み込んだプログラムを実行することにより、本発明に
係る所定の機能を実現する。以下では、本実施形態に係
るゲーム装置を機能的に表現し、機能実現手段により構
成される機能ブロック図を用いて説明する。
In the game device according to the present invention configured as described above, the CPU executes a program read from an external recording medium such as a CD-ROM, thereby realizing predetermined functions according to the present invention. Hereinafter, the game device according to the present embodiment will be described functionally and will be described with reference to a functional block diagram configured by function realizing means.

【0028】図2は、本実施形態に係るゲーム装置にお
ける画像処理部の機能ブロック図である。同図に示すよ
うに、本実施形態に係るゲーム装置の画像処理部は、デ
ータ記憶部201、ジオメトリ処理部202およびレン
ダリング処理部203を備える。
FIG. 2 is a functional block diagram of the image processing unit in the game device according to the present embodiment. As shown in the drawing, the image processing unit of the game device according to the present embodiment includes a data storage unit 201, a geometry processing unit 202, and a rendering processing unit 203.

【0029】データ記憶部201は、多角形(ポリゴ
ン;仮想面)を用いてオブジェクトを立体的に表現する
ためのポリゴンデータを記憶する。このポリゴンデータ
は、多角形の頂点座標データ(X,Y,Z)、カラーデ
ータ、テクスチャ座標データおよび法線ベクトルデー
タ、透過モードに関するデータ等からなる。
The data storage unit 201 stores polygon data for expressing an object three-dimensionally using a polygon (polygon; virtual surface). The polygon data includes vertex coordinate data (X, Y, Z) of the polygon, color data, texture coordinate data, normal vector data, data relating to a transmission mode, and the like.

【0030】透過モードに関するデータとは、そのポリ
ゴンが片面モードであるか否かを指定するためのデータ
である。片面モードとは、一方の面からポリゴンが投影
された場合にはそのポリゴンを表示させ、反対の面から
ポリゴンが投影された場合にはそのポリゴンを透過させ
るためのモードである。たとえば、立体オブジェクトを
構成する各ポリゴンに対して片面モードを指定した場合
には、後述の各種画像処理を経て立体オブジェクトの内
側の面が表示されるようになる。片面モードが指定され
ていない場合、そのポリゴンは投影方向に関係なく、デ
ィスプレイに表示される。
The data relating to the transmission mode is data for designating whether or not the polygon is in the one-sided mode. The single-sided mode is a mode for displaying a polygon when a polygon is projected from one surface, and transmitting the polygon when a polygon is projected from the opposite surface. For example, when the single-sided mode is designated for each polygon constituting the three-dimensional object, the inner surface of the three-dimensional object is displayed through various image processing described later. If the one-sided mode is not specified, the polygon is displayed on the display regardless of the projection direction.

【0031】ジオメトリ処理部202は、データ記憶部
201に記憶されたポリゴンデータを読み出して、この
ポリゴンデータに基づいて仮想3次元空間内にポリゴン
を配置し、仮想3次元空間内のどの領域までを表示する
かを決定するビューポート処理を行うとともに、仮想3
次元空間内に配置されたポリゴンを2次元平面にマッピ
ング(変換)するための処理を行う。なお、ジオメトリ
処理部203は、片面モードが指定されたポリゴンにつ
いては、その方向を判定し、透過させると判断した場合
には処理を省略する。
The geometry processing unit 202 reads the polygon data stored in the data storage unit 201, arranges the polygons in the virtual three-dimensional space based on the polygon data, and determines which region in the virtual three-dimensional space Perform viewport processing to determine whether to display
Processing for mapping (converting) a polygon arranged in the dimensional space to a two-dimensional plane is performed. It should be noted that the geometry processing unit 203 determines the direction of the polygon for which the one-sided mode has been designated, and omits the processing if it determines that the polygon is to be transmitted.

【0032】レンダリング処理部203は、ジオメトリ
処理部202によって得られたポリゴンに対して塗りつ
ぶし、シェーディング、テクスチャの付与およびカラー
演算等の処理を行う。
The rendering processing unit 203 performs processing such as painting, shading, texture addition, and color calculation on the polygon obtained by the geometry processing unit 202.

【0033】本実施形態に係るゲーム装置の画像処理部
は、3次元データに基づいて仮想3次元空間内に配置さ
れるべきポリゴン(仮想面)に対して片面モードを指定
し、このポリゴンによって構成される立体オブジェクト
の内側に位置するポリゴンの一方の面(内側面)にテク
スチャを付与することを特徴とする。これにより、前記
立体オブジェクトの外部から立体オブジェクトを投影し
た場合には、前記立体オブジェクトの外側に位置するポ
リゴンの他方の面(外側面)が投影されるポリゴンは透
過され、ポリゴンの一方の面のテクスチャが表示される
ことになる。
The image processing unit of the game device according to the present embodiment designates a single-sided mode for a polygon (virtual plane) to be arranged in a virtual three-dimensional space based on three-dimensional data, and is configured by the polygon. A texture is given to one surface (inner surface) of a polygon positioned inside the three-dimensional object to be processed. Accordingly, when the three-dimensional object is projected from outside the three-dimensional object, the polygon on which the other surface (outer surface) of the polygon located outside the three-dimensional object is projected is transmitted, and the one surface of the polygon is projected. The texture will be displayed.

【0034】図3は、仮想面の表示または透過を説明す
るための概念図である。同図は、3次元データに基づい
て仮想3次元空間内に仮想面が配置され、その一方の面
にテクスチャが付与されている状態を示している。な
お、同図では、便宜上、仮想面に厚みを持たせている。
矢印(a)および(b)は、仮想3次元空間内の視点位
置からの視線ベクトルを示している。ここで、テクスチ
ャが付与されている仮想面の一方の面(立体オブジェク
トの内面)から他方の面に向かう視線ベクトル(a)の
場合には、ディスプレイ上にテクスチャが表示されるよ
うに画像処理され、反対に視線ベクトル(b)の場合に
は、その仮想面のテクスチャは表示されない、つまりそ
の仮想面に対しては透過(無視)される。これにより、
視線位置から仮想面に対する投影方向によって、その仮
想面のテクスチャが表示され、または透過されるように
なる。なお、仮想面が透過される場合に、その背後に他
の仮想面がある場合には、その仮想面について同様に表
示・透過の処理が行われる。
FIG. 3 is a conceptual diagram for explaining display or transmission of a virtual plane. FIG. 1 shows a state in which a virtual surface is arranged in a virtual three-dimensional space based on three-dimensional data, and one of the surfaces is given a texture. Note that, in the figure, the virtual surface is given a thickness for convenience.
Arrows (a) and (b) indicate a line-of-sight vector from a viewpoint position in the virtual three-dimensional space. Here, in the case of a line-of-sight vector (a) from one surface (the inner surface of the three-dimensional object) of the textured virtual surface to the other surface, image processing is performed so that the texture is displayed on the display. On the other hand, in the case of the line-of-sight vector (b), the texture of the virtual plane is not displayed, that is, the virtual plane is transmitted (ignored). This allows
Depending on the projection direction from the line of sight to the virtual surface, the texture of the virtual surface is displayed or transmitted. When a virtual plane is transmitted, if there is another virtual plane behind the virtual plane, display / transmission processing is similarly performed on the virtual plane.

【0035】図4は、本実施形態に係るゲーム装置にお
ける画像処理部の動作を説明するための図である。ま
ず、ジオメトリ処理部202は、データ記憶部201か
らポリゴンデータを選択すると(STEP401)、片
面モードが指定されているか否かを判断する(STEP
402)。片面モードが指定されている場合には、その
ポリゴンの法線ベクトルと視線方向ベクトルとを比較し
て、そのポリゴンが透過されるべきか否かを判断する
(STEP403)。STEP403において、透過さ
れるべきと判断した場合には、そのポリゴンに対する処
理を無視すべく、次のポリゴンを選択を選択する。一
方、表示されるべきと判断されるポリゴンは、その頂点
座標データに基づいて仮想3次元空間内に配置し、2次
元平面にマッピングする等のジオメトリ処理が行われる
(STEP404)。そして、レンダリング処理部20
3は、ジオメトリ処理されたポリゴンに対して塗りつぶ
し、シェーディング、テクスチャの付与およびカラー演
算等の処理を行う(STEP405)。なお、上記ジオ
メトリ処理およびレンダリング処理が行われた画像デー
タは、ビデオエンコーダ108に送出され、所定の信号
処理が行われて、表示装置4aに表示されることにな
る。
FIG. 4 is a diagram for explaining the operation of the image processing section in the game device according to the present embodiment. First, when selecting the polygon data from the data storage unit 201 (STEP 401), the geometry processing unit 202 determines whether the single-sided mode is designated (STEP 401).
402). If the one-sided mode is designated, the normal vector of the polygon and the line-of-sight vector are compared to determine whether or not the polygon should be transmitted (STEP 403). If it is determined in STEP 403 that the polygon should be transmitted, the next polygon is selected to ignore the processing for that polygon. On the other hand, a polygon determined to be displayed is subjected to geometry processing such as arranging it in a virtual three-dimensional space based on its vertex coordinate data and mapping it to a two-dimensional plane (STEP 404). Then, the rendering processing unit 20
3 performs processing such as painting, shading, applying texture, and performing color calculation on the polygon subjected to the geometry processing (STEP 405). The image data on which the geometry processing and the rendering processing have been performed are transmitted to the video encoder 108, subjected to predetermined signal processing, and displayed on the display device 4a.

【0036】なお、本実施形態においては、視線ベクト
ルとの関係によって表示すべきと判断したポリゴンにつ
いて、ジオメトリ処理およびレンダリング処理を行うよ
うに構成したが、これにこだわるものではない。たとえ
ば、すべてのポリゴンについてジオメトリ処理を行った
後、レンダリング処理において片面モードが指定された
ポリゴンについて透過処理を行うようにしてもよい。
In the present embodiment, the geometry processing and the rendering processing are performed on the polygon determined to be displayed based on the relationship with the line-of-sight vector, but the present invention is not limited to this. For example, after performing the geometry processing on all the polygons, the transparency processing may be performed on the polygons for which the one-sided mode is specified in the rendering processing.

【0037】以上のように本実施形態によれば、前記立
体オブジェクトの外部の視点位置から立体オブジェクト
を投影した場合には、前記立体オブジェクトの外側に位
置するポリゴンの他方の面(外側面)が投影されるポリ
ゴンは透過され、その背後に配置される他のポリゴンの
一方の面(内側面)のテクスチャが表示されることにな
る。
As described above, according to the present embodiment, when a three-dimensional object is projected from a viewpoint position outside the three-dimensional object, the other surface (outer surface) of the polygon located outside the three-dimensional object is The projected polygon is transmitted, and the texture of one surface (inner surface) of another polygon disposed behind the polygon is displayed.

【0038】たとえば、三角形のポリゴンを用いて多角
錐の立体オブジェクトを構成し、その内側にテクスチャ
を付与する場合について説明する。図5は、多角錐であ
る立体オブジェクトのテクスチャの見え方を説明するた
めの図である。同図(a)および(b)は、それぞれ角
度を変えて多角錐の底面方向から投影したものであり、
同図(c)は、多角錐を底面方向に平行な方向から投影
したものである。また、同図(a)〜(c)において、
矢印左側はテクスチャが付与される部分が斜線で表記さ
れ、矢印右側は実際に表示される部分を斜線で表記して
いる。
For example, a case will be described in which a three-dimensional polygonal pyramid object is formed using triangular polygons and a texture is provided inside the three-dimensional object. FIG. 5 is a diagram for explaining the appearance of the texture of a three-dimensional object that is a polygonal pyramid. FIGS. 6A and 6B are projections from the bottom direction of the polygonal pyramid at different angles, respectively.
FIG. 3C shows the polygonal pyramid projected from a direction parallel to the bottom direction. Also, in FIGS.
On the left side of the arrow, a portion to which a texture is applied is indicated by oblique lines, and on the right side of the arrow, an actually displayed portion is indicated by oblique lines.

【0039】このように、片面モードが指定された立体
オブジェクトにおいては、外側面が投影されるポリゴン
については透過され、内側面が投影されるポリゴンにつ
いてはそのテクスチャが表示されることとなる。
As described above, in the three-dimensional object for which the one-sided mode is designated, the polygons whose outer surfaces are projected are transmitted, and the textures of the polygons whose inner surfaces are projected are displayed.

【0040】このような、立体的なオブジェクトは、た
とえば、レーシングゲームにおけるレーシングカーの煙
や水しぶきに利用することができる。図6および図7
は、レーシングカーのタイヤから巻きあがる煙を、多角
錐のオブジェクトで表現した状態を示している。このよ
うな煙オブジェクトは、たとえば、プレイヤが急発進の
操作をした場合等に表示されるようにプログラムされ、
そのときの視点位置からの投影方向によって、仮想3次
元空間内の位置が計算され、表示されることになる。
Such a three-dimensional object can be used, for example, for smoke and splashes of a racing car in a racing game. 6 and 7
Shows a state in which smoke rising from a tire of a racing car is represented by a polygonal pyramid object. Such a smoke object is programmed to be displayed, for example, when the player performs a sudden start operation,
The position in the virtual three-dimensional space is calculated and displayed according to the projection direction from the viewpoint position at that time.

【0041】以上のように、本実施形態によれば、立体
オブジェクトの内側面にのみテクスチャを張り付けるよ
うにしているので、プレイヤが立体オブジェクトの形を
認識してしまうという事態を回避することができる。
As described above, according to the present embodiment, since the texture is applied only to the inner surface of the three-dimensional object, it is possible to avoid a situation in which the player recognizes the shape of the three-dimensional object. it can.

【0042】なお、上記実施形態においては、ポリゴン
の透過処理を行うように構成したが、特にこれにこだわ
るものではない。例えば、レンダリング処理の際に、ポ
リゴンによって構成される立体オブジェクトの内側面が
視点位置からの投影に面していないポリゴンを存在しな
いものとして処理することにより、オブジェクトの内側
面だけを表示するようにしても良い。
In the above-described embodiment, the configuration is such that the polygon is transmitted. However, the present invention is not limited to this. For example, in the rendering process, the inside surface of a three-dimensional object composed of polygons is processed as if there is no polygon that does not face the projection from the viewpoint position, so that only the inside surface of the object is displayed. May be.

【0043】内側面が視点位置に面していないポリゴン
の選択は、視線方向(視点位置からの投影方向)のベク
トルと、オブジェクトを構成するポリゴンの面ベクトル
とに基づいて算出することができる。
The selection of a polygon whose inner surface does not face the viewpoint position can be calculated based on a vector in the line-of-sight direction (projection direction from the viewpoint position) and a surface vector of a polygon constituting the object.

【0044】なお、ポリゴンの面ベクトルは、各頂点の
データ(頂点データ)の供給順序に従って求められる。
The surface vector of the polygon is obtained according to the supply order of the data of each vertex (vertex data).

【0045】[0045]

【発明の効果】本発明によれば、立体的なオブジェクト
を構成するポリゴンについて一方からの投影を透過させ
る場合に、立体的なオブジェクトを構成するポリゴンの
内側面にレンダリング処理を施しているので、いずれの
視点位置からでも立体的かつリアルなオブジェクトを容
易に表示できるようになる。
According to the present invention, the rendering process is performed on the inner surface of the polygon forming the three-dimensional object when the projection from one side of the polygon forming the three-dimensional object is transmitted. A three-dimensional and realistic object can be easily displayed from any viewpoint position.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係るゲーム装置の構成を示す図。FIG. 1 is a diagram showing a configuration of a game device according to the present invention.

【図2】実施形態に係るゲーム装置における画像処理部
の機能ブロック図。
FIG. 2 is a functional block diagram of an image processing unit in the game device according to the embodiment.

【図3】仮想面の表示または透過を説明するための概念
図。
FIG. 3 is a conceptual diagram for explaining display or transmission of a virtual surface.

【図4】実施形態に係るゲーム装置における画像処理部
の動作を説明するための図。
FIG. 4 is an exemplary view for explaining the operation of the image processing unit in the game device according to the embodiment.

【図5】実施形態に係る立体オブジェクトの表示例を説
明するための図。
FIG. 5 is an exemplary view for explaining a display example of a three-dimensional object according to the embodiment;

【図6】実施形態に係る立体オブジェクトをレーシング
カーに適用した場合の図。
FIG. 6 is a diagram illustrating a case where the three-dimensional object according to the embodiment is applied to a racing car.

【図7】実施形態に係る立体オブジェクトをレーシング
カーに適用した場合の図。
FIG. 7 is an exemplary view when a three-dimensional object according to the embodiment is applied to a racing car;

【符号の説明】[Explanation of symbols]

1…ゲーム装置本体 2…入力装置 3…CD−ROMドライブ 4…出力装置 101…CPU 102…ROM 103…メインメモリ 104…グラフィックメモリ 105…サウンドメモリ 106…バックアップメモリ 107…VDP 108…ビデオエンコーダ 109…サウンドプロセッサ 110…D/Aコンバータ 111…バスアービタ DESCRIPTION OF SYMBOLS 1 ... Game apparatus main body 2 ... Input device 3 ... CD-ROM drive 4 ... Output device 101 ... CPU 102 ... ROM 103 ... Main memory 104 ... Graphic memory 105 ... Sound memory 106 ... Backup memory 107 ... VDP 108 ... Video encoder 109 ... Sound processor 110 ... D / A converter 111 ... Bus arbiter

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】3次元データに基づいて仮想3次元空間内
に仮想面を配置することにより立体オブジェクトを構成
し、前記立体オブジェクトの内側に位置する仮想面にテ
クスチャを付与する画像処理方法であって、 前記仮想3次元空間内の所定の視点位置から前記立体オ
ブジェクトを投影した場合に前記立体オブジェクトの外
側に位置する仮想面が投影される仮想面について透過処
理を行うことを特徴とする画像処理方法。
An image processing method for forming a three-dimensional object by arranging a virtual surface in a virtual three-dimensional space based on three-dimensional data, and adding a texture to a virtual surface located inside the three-dimensional object. Image processing, wherein, when the three-dimensional object is projected from a predetermined viewpoint position in the virtual three-dimensional space, a transmission process is performed on a virtual surface on which a virtual surface located outside the three-dimensional object is projected. Method.
【請求項2】3次元データに基づいて仮想3次元区間に
複数のポリゴンを配置することにより立体オブジェクト
を構成するステップと、 前記立体オブジェクトを構成するポリゴンの内側面が前
記仮想3次元空間内の所定の視点位置に面するポリゴン
を抽出するステップと、 前記ステップにより抽出されたポリゴンの前記立体オブ
ジェクトの内側面となる面にテクスチャを付与するステ
ップとを備えたことを特徴とする画像処理方法
2. A step of forming a three-dimensional object by arranging a plurality of polygons in a virtual three-dimensional section based on three-dimensional data, wherein an inner surface of the polygon forming the three-dimensional object is located in the virtual three-dimensional space. An image processing method comprising: extracting a polygon facing a predetermined viewpoint position; and applying a texture to a surface of the polygon extracted in the step, which is an inner surface of the three-dimensional object.
【請求項3】前記テクスチャは、煙、水滴または粉塵を
表現するものであることを特徴とする請求項1乃至2の
いずれかに記載の画像処理方法。
3. The image processing method according to claim 1, wherein the texture represents smoke, water droplets, or dust.
【請求項4】請求項2または3に記載の画像処理方法を
コンピュータに実現させるプログラムを記録した記録媒
体。
4. A recording medium on which a program for causing a computer to implement the image processing method according to claim 2 or 3 is recorded.
【請求項5】3次元データに基づいて仮想3次元空間内
に仮想面を配置することにより立体オブジェクトを構成
するジオメトリ手段と、 前記立体オブジェクトの内側に位置する仮想面にテクス
チャを付与するレンダリング手段とを備えた画像処理装
置であって、 前記仮想3次元空間内の所定の視点位置から前記立体オ
ブジェクトを投影した場合に前記立体オブジェクトの外
側に位置する仮想面が投影される仮想面について透過処
理を行うことを特徴とする画像処理装置。
5. Geometry means for forming a three-dimensional object by arranging a virtual surface in a virtual three-dimensional space based on three-dimensional data, and rendering means for giving a texture to a virtual surface located inside the three-dimensional object. An image processing apparatus comprising: a transparent process for projecting a virtual surface located outside the three-dimensional object when projecting the three-dimensional object from a predetermined viewpoint position in the virtual three-dimensional space; An image processing apparatus, comprising:
【請求項6】3次元データに基づいて仮想3次元空間に
複数のポリゴンを配置することにより立体オブジェクト
を構成するジオメトリ手段と、 前記立体オブジェクトの内側面が前記仮想3次元空間内
の所定の視点位置に面するポリゴンを抽出する抽出手段
と、 前記抽出手段により抽出されたポリゴンの前記立体オブ
ジェクトの内側面になる面にテクスチャを付与するレン
ダリング手段とを、備えることを特徴とする画像処理装
置。
6. A geometric means for forming a three-dimensional object by arranging a plurality of polygons in a virtual three-dimensional space based on three-dimensional data, and an inner surface of the three-dimensional object having a predetermined viewpoint in the virtual three-dimensional space. An image processing apparatus comprising: an extraction unit that extracts a polygon facing a position; and a rendering unit that assigns a texture to a surface of the polygon extracted by the extraction unit that becomes an inner surface of the three-dimensional object.
【請求項7】前記テクスチャは、煙、水滴または粉塵を
表現するものであることを特徴とする請求項4または5
記載の画像処理装置。
7. The texture according to claim 4, wherein the texture represents smoke, water droplets or dust.
The image processing apparatus according to any one of the preceding claims.
【請求項8】コンピュータに所定の機能を実現させるプ
ログラムを記録した記録媒体であって、前記プログラム
は、 3次元データに基づいて仮想3次元空間内に配置される
べき仮想面の方向と前記仮想3次元空間内の所定の視点
位置から前記仮想面に対する視線ベクトルとに基づい
て、前記仮想面を透過させるか否かを判断する手段と、 前記判断する手段により透過させないと判断した前記仮
想面について、その3次元データに基づいて仮想3次元
空間内に仮想面を配置する手段と、 前記立体オブジェクトの内側に位置すべき仮想面にテク
スチャを付与する手段とを備えたことを特徴とするプロ
グラムを記録した記録媒体。
8. A recording medium recording a program for realizing a predetermined function in a computer, the program comprising: a direction of a virtual surface to be arranged in a virtual three-dimensional space based on three-dimensional data; Means for determining whether or not to transmit the virtual surface based on a line-of-sight vector for the virtual surface from a predetermined viewpoint position in a three-dimensional space; and for the virtual surface determined not to be transmitted by the determining means. A program for arranging a virtual surface in a virtual three-dimensional space based on the three-dimensional data; and a device for applying a texture to a virtual surface to be positioned inside the three-dimensional object. The recording medium on which it was recorded.
JP1271399A 1999-01-21 1999-01-21 Method and device for processing image and recording medium recording program Withdrawn JP2000215325A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1271399A JP2000215325A (en) 1999-01-21 1999-01-21 Method and device for processing image and recording medium recording program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1271399A JP2000215325A (en) 1999-01-21 1999-01-21 Method and device for processing image and recording medium recording program

Publications (1)

Publication Number Publication Date
JP2000215325A true JP2000215325A (en) 2000-08-04

Family

ID=11813078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1271399A Withdrawn JP2000215325A (en) 1999-01-21 1999-01-21 Method and device for processing image and recording medium recording program

Country Status (1)

Country Link
JP (1) JP2000215325A (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6411301B1 (en) 1999-10-28 2002-06-25 Nintendo Co., Ltd. Graphics system interface
US6421058B2 (en) 1999-10-28 2002-07-16 Nintendo Co., Ltd. Graphics command stream for calling a display object in a graphics system
US6571328B2 (en) 2000-04-07 2003-05-27 Nintendo Co., Ltd. Method and apparatus for obtaining a scalar value directly from a vector register
US6580430B1 (en) 2000-08-23 2003-06-17 Nintendo Co., Ltd. Method and apparatus for providing improved fog effects in a graphics system
US6606689B1 (en) 2000-08-23 2003-08-12 Nintendo Co., Ltd. Method and apparatus for pre-caching data in audio memory
US6609977B1 (en) 2000-08-23 2003-08-26 Nintendo Co., Ltd. External interfaces for a 3D graphics system
US6618048B1 (en) 1999-10-28 2003-09-09 Nintendo Co., Ltd. 3D graphics rendering system for performing Z value clamping in near-Z range to maximize scene resolution of visually important Z components
US6636214B1 (en) 2000-08-23 2003-10-21 Nintendo Co., Ltd. Method and apparatus for dynamically reconfiguring the order of hidden surface processing based on rendering mode
US6639595B1 (en) 2000-08-23 2003-10-28 Nintendo Co., Ltd. Achromatic lighting in a graphics system and method
US6664958B1 (en) 2000-08-23 2003-12-16 Nintendo Co., Ltd. Z-texturing
US6664962B1 (en) 2000-08-23 2003-12-16 Nintendo Co., Ltd. Shadow mapping in a low cost graphics system
US6681296B2 (en) 2000-04-07 2004-01-20 Nintendo Co., Ltd. Method and apparatus for software management of on-chip cache
US6697074B2 (en) 2000-11-28 2004-02-24 Nintendo Co., Ltd. Graphics system interface
US6700586B1 (en) 2000-08-23 2004-03-02 Nintendo Co., Ltd. Low cost graphics with stitching processing hardware support for skeletal animation
US6707458B1 (en) 2000-08-23 2004-03-16 Nintendo Co., Ltd. Method and apparatus for texture tiling in a graphics system
US6811489B1 (en) 2000-08-23 2004-11-02 Nintendo Co., Ltd. Controller interface for a graphics system
US6825851B1 (en) 2000-08-23 2004-11-30 Nintendo Co., Ltd. Method and apparatus for environment-mapped bump-mapping in a graphics system
US6937245B1 (en) 2000-08-23 2005-08-30 Nintendo Co., Ltd. Graphics system with embedded frame buffer having reconfigurable pixel formats
US6980218B1 (en) 2000-08-23 2005-12-27 Nintendo Co., Ltd. Method and apparatus for efficient generation of texture coordinate displacements for implementing emboss-style bump mapping in a graphics rendering system
US7129956B2 (en) 2000-06-02 2006-10-31 Nintendo Co., Ltd. Variable bit field color encoding
WO2008105650A1 (en) * 2007-03-01 2008-09-04 Magiqads Sdn Bhd Method of creation of a virtual three dimensional image to enable its reproduction on planar substrates
US7701461B2 (en) 2000-08-23 2010-04-20 Nintendo Co., Ltd. Method and apparatus for buffering graphics data in a graphics system
US7976392B2 (en) 2000-08-23 2011-07-12 Nintendo Co., Ltd. External interfaces for a 3D graphics system
US8098255B2 (en) 2000-08-23 2012-01-17 Nintendo Co., Ltd. Graphics processing system with enhanced memory controller

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6618048B1 (en) 1999-10-28 2003-09-09 Nintendo Co., Ltd. 3D graphics rendering system for performing Z value clamping in near-Z range to maximize scene resolution of visually important Z components
US6421058B2 (en) 1999-10-28 2002-07-16 Nintendo Co., Ltd. Graphics command stream for calling a display object in a graphics system
US6424348B2 (en) 1999-10-28 2002-07-23 Nintendo Co., Ltd. Application program interface for a graphics system
US6452600B1 (en) 1999-10-28 2002-09-17 Nintendo Co., Ltd. Graphics system interface
US6456290B2 (en) 1999-10-28 2002-09-24 Nintendo Co., Ltd. Application program interface for a graphics system
US6466218B2 (en) 1999-10-28 2002-10-15 Nintendo Co., Ltd. Graphics system interface
US6489963B2 (en) 1999-10-28 2002-12-03 Nintendo Co., Ltd. Application program interface for a graphics system
US6411301B1 (en) 1999-10-28 2002-06-25 Nintendo Co., Ltd. Graphics system interface
US6571328B2 (en) 2000-04-07 2003-05-27 Nintendo Co., Ltd. Method and apparatus for obtaining a scalar value directly from a vector register
US6681296B2 (en) 2000-04-07 2004-01-20 Nintendo Co., Ltd. Method and apparatus for software management of on-chip cache
US7129956B2 (en) 2000-06-02 2006-10-31 Nintendo Co., Ltd. Variable bit field color encoding
US6580430B1 (en) 2000-08-23 2003-06-17 Nintendo Co., Ltd. Method and apparatus for providing improved fog effects in a graphics system
US6700586B1 (en) 2000-08-23 2004-03-02 Nintendo Co., Ltd. Low cost graphics with stitching processing hardware support for skeletal animation
US6639595B1 (en) 2000-08-23 2003-10-28 Nintendo Co., Ltd. Achromatic lighting in a graphics system and method
US6664958B1 (en) 2000-08-23 2003-12-16 Nintendo Co., Ltd. Z-texturing
US6664962B1 (en) 2000-08-23 2003-12-16 Nintendo Co., Ltd. Shadow mapping in a low cost graphics system
US6609977B1 (en) 2000-08-23 2003-08-26 Nintendo Co., Ltd. External interfaces for a 3D graphics system
US6636214B1 (en) 2000-08-23 2003-10-21 Nintendo Co., Ltd. Method and apparatus for dynamically reconfiguring the order of hidden surface processing based on rendering mode
US7701461B2 (en) 2000-08-23 2010-04-20 Nintendo Co., Ltd. Method and apparatus for buffering graphics data in a graphics system
US6707458B1 (en) 2000-08-23 2004-03-16 Nintendo Co., Ltd. Method and apparatus for texture tiling in a graphics system
US6811489B1 (en) 2000-08-23 2004-11-02 Nintendo Co., Ltd. Controller interface for a graphics system
US6825851B1 (en) 2000-08-23 2004-11-30 Nintendo Co., Ltd. Method and apparatus for environment-mapped bump-mapping in a graphics system
US6937245B1 (en) 2000-08-23 2005-08-30 Nintendo Co., Ltd. Graphics system with embedded frame buffer having reconfigurable pixel formats
US6980218B1 (en) 2000-08-23 2005-12-27 Nintendo Co., Ltd. Method and apparatus for efficient generation of texture coordinate displacements for implementing emboss-style bump mapping in a graphics rendering system
US8098255B2 (en) 2000-08-23 2012-01-17 Nintendo Co., Ltd. Graphics processing system with enhanced memory controller
US6606689B1 (en) 2000-08-23 2003-08-12 Nintendo Co., Ltd. Method and apparatus for pre-caching data in audio memory
US7976392B2 (en) 2000-08-23 2011-07-12 Nintendo Co., Ltd. External interfaces for a 3D graphics system
US6697074B2 (en) 2000-11-28 2004-02-24 Nintendo Co., Ltd. Graphics system interface
US7522170B2 (en) 2000-11-28 2009-04-21 Nintendo Co., Ltd. Graphics system interface
US7071945B2 (en) 2000-11-28 2006-07-04 Nintendo Co., Ltd. Graphics system interface
WO2008105650A1 (en) * 2007-03-01 2008-09-04 Magiqads Sdn Bhd Method of creation of a virtual three dimensional image to enable its reproduction on planar substrates
US9172945B2 (en) 2007-03-01 2015-10-27 Azmi Bin Mohammed Amin Method of creation of a virtual three dimensional image to enable its reproduction on planar substrates

Similar Documents

Publication Publication Date Title
JP2000215325A (en) Method and device for processing image and recording medium recording program
JP3877077B2 (en) Game device and image processing program
US20040110561A1 (en) Game apparatus storing game sound control program and game sound control thereof
US6738061B2 (en) Method, apparatus, storage medium, program, and program product for generating image data of virtual three-dimensional space
JPH10211358A (en) Game apparatus
JP2008225985A (en) Image recognition system
JP3639280B2 (en) Game message display method and game program
JP4343207B2 (en) Game device and image processing program
JP2002099927A (en) Method and device for processing three-dimensional image, readable storage medium storing three- dimensional image processing program, and video game device
JP2001307126A (en) Method and device for plotting image, recording medium and program
JP2007180935A (en) Sound processor, and sound processing method and program
JP4082937B2 (en) GAME SYSTEM AND GAME PROGRAM
JP3955425B2 (en) 3D sound reproduction system
JPH10295934A (en) Video game device and changing method of texture of model
JP2001307128A (en) Method and device for plotting image, recording medium and program
JP4334961B2 (en) Image generation information, information storage medium, and image generation apparatus
AU2004201817B2 (en) Game software and game machine
JP2001252463A (en) Game device, judging method for specified position, storage medium, and program
JP2009301309A (en) Image processing program, image processor, and image control method
JP2000218036A (en) Game device, game control method and recording medium therefor
JP3643036B2 (en) Apparatus and method for perspective transformation
JP4231684B2 (en) GAME DEVICE AND GAME PROGRAM
JP5146054B2 (en) Generation control program of sound generated from sound source in virtual space
JP4035648B2 (en) Game device
JP3183636B2 (en) Three-dimensional game device and information storage medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060404