JP4365303B2 - Recording medium storing image processing program - Google Patents

Recording medium storing image processing program Download PDF

Info

Publication number
JP4365303B2
JP4365303B2 JP2004294172A JP2004294172A JP4365303B2 JP 4365303 B2 JP4365303 B2 JP 4365303B2 JP 2004294172 A JP2004294172 A JP 2004294172A JP 2004294172 A JP2004294172 A JP 2004294172A JP 4365303 B2 JP4365303 B2 JP 4365303B2
Authority
JP
Japan
Prior art keywords
data
rendering
depth
image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004294172A
Other languages
Japanese (ja)
Other versions
JP2006107210A (en
Inventor
岳徳 森
正規 永田
是人 広瀬
寛昭 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2004294172A priority Critical patent/JP4365303B2/en
Publication of JP2006107210A publication Critical patent/JP2006107210A/en
Application granted granted Critical
Publication of JP4365303B2 publication Critical patent/JP4365303B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理システム、及び、画像処理プログラムが記憶されたデータ転送媒体、特に、ゲームやシミュレーションの画像処理システム、及び、画像処理プログラムが記憶されたデータ転送媒体に関する。   The present invention relates to an image processing system and a data transfer medium storing an image processing program, and more particularly, to an image processing system for games and simulations, and a data transfer medium storing an image processing program.

従来の3次元表示処理では、表現しようとする立体をモデリングし、モデリングデータをレンダリングして2次元の画像を生成してフレームバッファに記憶し、フレームバッファから読み出したデータを表示している。3次元のモデリングデータは、3次元物体の形状を表す形状データと、テクスチャデータとを含む。形状データは、例えば立体を多数のポリゴンの集合体で表現するポリゴンデータである。テクスチャデータは、立体の各面の模様や材質を表すデータであり、例えばカラーデータである。レンダリングとは、モデルリングデータに基づいて最終的な画像を得るための処理であり、例えばシェーディング法である。   In the conventional three-dimensional display processing, a solid to be expressed is modeled, the modeling data is rendered, a two-dimensional image is generated and stored in the frame buffer, and the data read from the frame buffer is displayed. The three-dimensional modeling data includes shape data representing the shape of the three-dimensional object and texture data. The shape data is, for example, polygon data that represents a solid as an aggregate of many polygons. The texture data is data representing the pattern and material of each surface of the solid, for example, color data. Rendering is a process for obtaining a final image based on modeling data, and is, for example, a shading method.

従来の3次元表示処理が特許文献1及び2に記載されている。   Conventional three-dimensional display processing is described in Patent Documents 1 and 2.

特許文献1には、背景物体を奥行き感を持たせて表示する画像処理方法が記載されている。この方法では、複数のポリゴンの集合体で表現された背景物体を、上下左右前後の6方向において仮想カメラによって撮影し、撮影した時に写し出される3次元空間中の背景物体の3次元座標データ及びテクスチャマッピングによるテクスチャデータに基づいて、スクリーンにおけるドット毎のカラーデータ及び奥行データを演算する。また、移動物体のカラーデータ及び奥行データを演算し、移動物体と背景物体の奥行値をドットごとに比較し、移動物体が手前に在る場合には移動物体のイメージデータ値をフレームバッファに書き込み、背景物体が手前に在る場合には背景物体のイメージデータ値をフレームバッファに書き込んでいる。   Patent Document 1 describes an image processing method for displaying a background object with a sense of depth. In this method, a background object represented by an aggregate of a plurality of polygons is photographed by a virtual camera in six directions, up, down, left, and right, and three-dimensional coordinate data and texture of the background object in the three-dimensional space that are displayed when the image is photographed. Based on the texture data obtained by mapping, color data and depth data for each dot on the screen are calculated. Also, it calculates the color data and depth data of the moving object, compares the depth values of the moving object and the background object for each dot, and writes the image data value of the moving object to the frame buffer when the moving object is in front. When the background object is in front, the image data value of the background object is written in the frame buffer.

特許文献2には、背景画像を奥行き感を持たせて表示する画像処理方法が記載されている。この方法では、背景画像及び移動物体を表示する第2の画像処理装置での処理に先立ち、第1の画像処理装置において、背景画像のポリゴンデータをレンダリングし、背景画像のスクリーン上でのイメージデータとスクリーンの各ドットに対応する奥行値とを演算し、イメージデータ及び奥行値を記録媒体に記憶しておく。第2の画像処理装置では、記録媒体から背景画像のイメージデータ及び奥行値を読み出し、移動物体のポリゴンデータをレンダリングして移動物体のイメージデータ及び奥行値を演算し、背景画像と移動物体の奥行値を比較し、手前にある画像又は物体のイメージデータ値をフレームバッファに書き込む。
特開平10−154240号公報(第10−18図) 特開2000−11204号公報(第2−12図)
Patent Document 2 describes an image processing method for displaying a background image with a sense of depth. In this method, prior to the processing in the second image processing apparatus that displays the background image and the moving object, the polygon data of the background image is rendered in the first image processing apparatus, and the image data on the screen of the background image is displayed. And the depth value corresponding to each dot on the screen, and the image data and the depth value are stored in the recording medium. In the second image processing apparatus, the image data and depth value of the background image are read from the recording medium, the polygon data of the moving object is rendered to calculate the image data and depth value of the moving object, and the background image and the depth of the moving object are calculated. The values are compared, and the image data value of the image or object in the foreground is written into the frame buffer.
Japanese Patent Laid-Open No. 10-154240 (FIG. 10-18) Japanese Unexamined Patent Publication No. 2000-11204 (FIG. 2-12)

特許文献1に記載の方法では、同一の画像処理装置で背景画像をレンダリングした後に移動物体のレンダリングを行う必要があり、プロセッサに高い処理能力が要求されるとともに、背景画像及び移動物体のモデリングデータ及びレンダリングデータを記憶するメモリに大きな容量が必要である。また、背景物体のスクリーン上でのイメージデータの全てのドットの奥行値を計算する必要があり、プロセッサに高い処理能力が要求されるとともに、奥行データを記憶するバッファメモリにも大きな容量が必要である。   In the method described in Patent Document 1, it is necessary to render a moving object after rendering a background image with the same image processing apparatus, and high processing capability is required for the processor, and the modeling data of the background image and the moving object is required. In addition, a large capacity is required for a memory for storing rendering data. In addition, it is necessary to calculate the depth value of all dots of the image data on the screen of the background object, which requires a high processing capacity for the processor and a large capacity for the buffer memory for storing the depth data. is there.

また、仮想カメラの1視点から所定の画角を持って撮影した背景画像の部分をずらせて表示させることにより、背景画像のスクロールを行っているため、背景画像が回転するようにスクロールし、背景画像が平行に進むようにスクロールさせることができない。   In addition, since the background image is scrolled by shifting and displaying the portion of the background image taken with a predetermined angle of view from one viewpoint of the virtual camera, the background image is scrolled so as to rotate, The image cannot be scrolled to advance in parallel.

また、この方法では、ポリゴンデータをレンダリングしたイメージデータをそのまま背景画像として用いているため、背景画像を精緻に表現しようとすると膨大な数のポリゴンを用いる必要がある。また、水彩画、筆タッチ等の微妙な濃淡を背景画像で表現することは、ポリゴンをレンダリングする方法では難しい。   In this method, since image data obtained by rendering polygon data is used as a background image as it is, it is necessary to use an enormous number of polygons in order to accurately represent the background image. Also, it is difficult to render a subtle shade such as a watercolor painting or brush touch with a background image by a method of rendering a polygon.

特許文献2に記載の方法でも、背景物体のスクリーン上でのイメージデータの全てのドットの奥行値を計算する必要があり、プロセッサに高い処理能力が要求されるとともに、奥行データを記憶するバッファメモリにも大きな容量が必要である。   Even in the method described in Patent Document 2, it is necessary to calculate the depth value of all the dots of the image data on the screen of the background object, and the processor is required to have high processing capability, and the buffer memory for storing the depth data In addition, a large capacity is required.

また、この方法でも、特許文献1の方法と同様に、背景画像を精緻に表現しようとすると膨大な数のポリゴンを用いる必要があり、水墨画等の微妙な濃淡を背景画像で表現することが難しい。   Also in this method, as in the method of Patent Document 1, it is necessary to use an enormous number of polygons in order to express a background image precisely, and it is difficult to express subtle shades such as ink paintings in the background image. .

本発明は、画像処理において、プロセッサに要求される処理能力を軽減して背景画像等を含む静止画像に奥行き感を持たせることにある。   An object of the present invention is to reduce the processing capability required of a processor in image processing and to give a still image including a background image a sense of depth.

また、本発明は、画像処理において、背景画像が平行に進むように背景画像をスクロールさせることにある。   Further, the present invention is to scroll the background image so that the background image advances in parallel in the image processing.

また、本発明は、画像処理において、精緻な背景画像の生成を可能にすることにある。   Another object of the present invention is to make it possible to generate a precise background image in image processing.

第1発明に係る画像処理システムは、第1レンダリング手段と、出力手段と、受信手段と、第2レンダリング手段と、画像生成手段とを備えている。第1レンダリング手段は、静止オブジェクトの3次元モデリングデータを所定の平面上を移動するオーソカメラの視点でレンダリングして、前記静止オブジェクトのレンダリングデータを生成する。出力手段は、前記静止オブジェクトのレンダリングデータと、移動オブジェクトの3次元モデリングデータとを、伝送媒体出力する受信手段は、前記伝送媒体から、前記静止オブジェクトのレンダリングデータと前記移動オブジェクトの3次元モデリングデータとを受信する。第2レンダリング手段は、前記移動オブジェクトの3次元モデリングデータを、前記移動オブジェクトの移動に従い前記所定の平面上を移動するオーソカメラの視点でレンダリングして、前記移動オブジェクトのレンダリングデータを生成する。画像生成手段は、前記受信手段で受信された前記静止オブジェクトのレンダリングデータと前記第2レンダリング手段で生成された前記移動オブジェクトのレンダリングデータを合成して2次元の画像を生成する。 An image processing system according to a first aspect of the present invention includes a first rendering unit, an output unit, a receiving unit, a second rendering unit, and an image generating unit. The first rendering means renders the three-dimensional modeling data of the stationary object from the viewpoint of an ortho camera moving on a predetermined plane, and generates rendering data of the stationary object. Output means, and the rendering data of the still object, and a three-dimensional modeling data of the moving object, and outputs to the transmission medium. Receiving means, wherein the transmission medium, receives the three-dimensional modeling data of the moving object and rendering data of the stationary object. Second rendering means, three-dimensional modeling data of the moving object, and renders the perspective of Ortho camera moving on the predetermined plane in accordance with movement of the moving object, and generates rendering data of the moving object. The image generation unit generates a two-dimensional image by combining the rendering data of the stationary object received by the reception unit and the rendering data of the moving object generated by the second rendering unit.

上記発明によると、静止オブジェクトの3次元モデルを予めレンダリング処理をしておいて、移動オブジェクトの3次元モデルと共に伝送媒体出力する。これにより、伝送媒体から読み出す側で静止オブジェクトをレンダリング処理する必要がなくなり、読み出す側での処理量を減少させる。尚、静止オブジェクトのレンダリングと移動オブジェクトのレンダリング両方を所定の平面上を移動するオーソカメラの視点で行うため、読み出す側において移動オブジェクトだけをリアルタイムでレンダリングしても、静止オブジェクトをリアルタイムでレンダリングする場合と同様な自然なレンダリング画像が得られる。さらには、移動オブジェクトが静止オブジェクトに対して移動する画像を表す際に、静止オブジェクトのレンダリングと移動オブジェクトのレンダリング両方を移動オブジェクトの移動に従い所定の平面上を移動するオーソカメラの視点で行うため、読み出す側において移動オブジェクトだけをリアルタイムでレンダリングしても、読み出す側で静止オブジェクトと移動オブジェクトの両方をレンダリングする場合と同様自然なレンダリング画像が得られる。さらに、所定の平面上を移動するオーソカメラにより静止オブジェクトをレンダリングするため、静止オブジェクトのレンダリングデータを画面上でスクロールさせる場合に、静止オブジェクトが画面上で平行に進むようにスクロールすることができる。 According to the above invention, a three-dimensional model of a stationary object is rendered in advance and is output to a transmission medium together with the three-dimensional model of a moving object. This eliminates the need to render a stationary object on the reading side from the transmission medium , and reduces the amount of processing on the reading side. In addition, since both rendering of stationary objects and rendering of moving objects are performed from the viewpoint of an ortho camera moving on a predetermined plane, even if only the moving object is rendered in real time on the reading side, the stationary object is rendered in real time A natural rendering image similar to the above is obtained. Furthermore, in order to perform in representing the image moving object moves relative to the stationary object, rendering both rendering the moving object stationary object from the perspective of Ortho camera moving on a predetermined plane in accordance with movement of the moving object, Even if only the moving object is rendered in real time on the reading side, a natural rendering image can be obtained as in the case where both the stationary object and the moving object are rendered on the reading side. Furthermore, since a stationary object is rendered by an ortho camera that moves on a predetermined plane, when rendering data of a stationary object is scrolled on the screen, the stationary object can be scrolled so as to advance in parallel on the screen.

第2発明に係る記録媒体は、データ領域及びプログラム領域を含む。 The recording medium according to the second invention includes a data area and a program area.

データ領域には、静止オブジェクトの3次元モデリングデータを所定の平面上を移動するオーソカメラの視点でレンダリングしたレンダリングデータと、移動オブジェクトの3次元モデリングデータとが記憶されている。 The data area stores rendering data obtained by rendering 3D modeling data of a stationary object from the viewpoint of an ortho camera that moves on a predetermined plane, and 3D modeling data of a moving object.

プログラム領域には、読出手段と、第2レンダリング手段と、画像生成手段としてコンピュータを機能させる画像処理プログラムが記憶されている。読出手段は、前記データ領域から、前記静止オブジェクトのレンダリングデータと前記移動オブジェクトの3次元モデリングデータとを読出す。第2レンダリング手段は、前記移動オブジェクトの3次元モデリングデータを、前記移動オブジェクトの移動に従い前記所定の平面上を移動するオーソカメラの視点でレンダリングして、前記移動オブジェクトのレンダリングデータを生成する。画像生成手段は、前記読出手段で読出された前記静止オブジェクトのレンダリングデータと、前記第2レンダリング手段で生成された前記移動オブジェクトのレンダリングデータとを合成して2次元の画像を生成する。 The program area stores an image processing program that causes the computer to function as a reading unit, a second rendering unit, and an image generating unit. Reading means reads rendering data of the stationary object and three-dimensional modeling data of the moving object from the data area. Second rendering means, three-dimensional modeling data of the moving object, and renders the perspective of Ortho camera moving on the predetermined plane in accordance with movement of the moving object, and generates rendering data of the moving object. The image generation unit generates a two-dimensional image by combining the rendering data of the stationary object read by the reading unit and the rendering data of the moving object generated by the second rendering unit.

上記発明によると、静止オブジェクトの3次元モデルを予めレンダリング処理をしておいて、移動オブジェクトの3次元モデルと共に記録媒体に記憶することによって、記録媒体を読み出す側で静止オブジェクトをレンダリング処理する必要がなくなり、読み出す側での処理量を減少させる。尚、静止オブジェクトのレンダリングと移動オブジェクトのレンダリング両方を所定の平面上を移動するオーソカメラの視点で行うため、読み出す側において移動オブジェクトだけをリアルタイムでレンダリングしても、静止オブジェクトをリアルタイムでレンダリングする場合と同様自然なレンダリング画像が得られる。さらには、移動オブジェクトが静止オブジェクトに対して移動する画像を表す際に、静止オブジェクトのレンダリングと移動オブジェクトのレンダリング両方を移動オブジェクトの移動に従い所定の平面上を移動するオーソカメラの視点で行うため、読み出す側において移動オブジェクトだけをリアルタイムでレンダリングしても、読み出す側で静止オブジェクトと移動オブジェクトの両方をレンダリングする場合と同様自然なレンダリング画像が得られる。さらに、所定の平面上を移動するオーソカメラにより静止オブジェクトをレンダリングするため、静止レンダリングデータを画面上でスクロールさせる場合に、静止オブジェクトが平行に進むようにスクロールすることができる。 According to the invention, had been previously rendering the three-dimensional model of the stationary object, by storing in a recording medium together with the three-dimensional model of the moving object, is necessary to rendering a still object on the side of reading the recording medium The amount of processing on the reading side is reduced. In addition, since both rendering of stationary objects and rendering of moving objects are performed from the viewpoint of an ortho camera moving on a predetermined plane, even if only the moving object is rendered in real time on the reading side, the stationary object is rendered in real time A natural rendering image can be obtained in the same manner as. Furthermore, in order to perform in representing the image moving object moves relative to the stationary object, rendering both rendering the moving object stationary object from the perspective of Ortho camera moving on a predetermined plane in accordance with movement of the moving object, Even if only the moving object is rendered in real time on the reading side, a natural rendering image can be obtained as in the case where both the stationary object and the moving object are rendered on the reading side. Furthermore, since the still object is rendered by the ortho camera moving on a predetermined plane , when the still rendering data is scrolled on the screen, the still object can be scrolled so as to advance in parallel.

第3発明に係る画像処理システムは、第1レンダリング手段と、出力手段と、受信手段と、第2レンダリング手段と、画像生成手段とを備えている。第1レンダリング手段は、静止オブジェクトの3次元モデリングデータを所定の平面上を移動するオーソカメラの視点でレンダリングして、第1イメージデータと奥行データとを含むレンダリングデータを生成する。出力手段は、前記第1イメージデータに基づいて生成された第2イメージデータと、前記奥行データと含む前記静止オブジェクトのレンダリングデータを、移動オブジェクトの3次元モデリングデータとともに伝送媒体出力する受信手段は、前記伝送媒体から、前記静止オブジェクトのレンダリングデータと前記移動オブジェクトの3次元モデリングデータとを受信する。第2レンダリング手段は、前記移動オブジェクトの3次元モデリングデータを、前記移動オブジェクトの移動に従い前記所定の平面上を移動するオーソカメラの視点でレンダリングして、前記移動オブジェクトのレンダリングデータを生成する。画像生成手段は、前記受信手段で受信された前記静止オブジェクトのレンダリングデータと、前記第2レンダリング手段で生成された前記移動オブジェクトのレンダリングデータを合成して2次元の画像を生成する。 An image processing system according to a third aspect of the invention includes first rendering means, output means, receiving means, second rendering means, and image generation means. The first rendering means renders the three-dimensional modeling data of the stationary object from the viewpoint of the ortho camera moving on a predetermined plane, and generates rendering data including the first image data and depth data. Output means, a second image data generated based on the first image data, and outputs the rendering data of the still objects including said depth data, to the transmission medium together with the three-dimensional modeling data of the moving object. Receiving means, wherein the transmission medium, receives the three-dimensional modeling data of the moving object and rendering data of the stationary object. Second rendering means, three-dimensional modeling data of the moving object, and renders the perspective of Ortho camera moving on the predetermined plane in accordance with movement of the moving object, and generates rendering data of the moving object. The image generation unit generates a two-dimensional image by combining the rendering data of the stationary object received by the reception unit and the rendering data of the moving object generated by the second rendering unit.

上記発明によると、静止オブジェクトをレンダリングする際に、3次元モデリングデータをレンダリングして得られた第1イメージデータ(臨時イメージデータ)に基づいて、より詳細なイメージデータの生成が可能になり、3次元モデリングデータからレンダリングして通常得られるイメージデータより詳細な2次元画像を生成できる。尚、静止オブジェクトのイメージデータを別途生成するため、静止オブジェクトのモデリングの際、テクスチャデータの生成が不要になり、モデリング作業が簡単である。さらに、3次元モデリングデータからレンダリングして通常得られるイメージデータより詳細な2次元画像の生成が可能になるにもかかわらず、伝送媒体かに出力するデータの量及び伝送媒体から受信する側での処理量は殆ど変わらない。 According to the above invention, when rendering a static object, more detailed image data can be generated based on the first image data (temporary image data) obtained by rendering the three-dimensional modeling data. A more detailed two-dimensional image can be generated than the image data normally obtained by rendering from the dimensional modeling data. In addition, since the image data of the still object is separately generated, it is not necessary to generate the texture data when modeling the still object, and the modeling work is simple. Furthermore, by rendering the three-dimensional modeling data despite allowing generation of the image data from the detailed two-dimensional images obtained usually on the side of receiving from the amount and the transmission medium of the data transmitting medium crab Output The throughput is almost unchanged.

第4発明に係る記録媒体は、データ領域とプログラム領域を含む。 A recording medium according to the fourth invention includes a data area and a program area.

データ領域には、静止オブジェクトの3次元モデリングデータを所定の平面上を移動するオーソカメラの視点でレンダリングして、第1イメージデータと奥行データとを含むレンダリングデータを生成し、前記第1イメージデータに基づいて生成された第2イメージデータと前記奥行データとを含む前記静止オブジェクトのレンダリングデータを、移動オブジェクトの3次元モデリングデータとともに書き込んだデータが記憶されている。
プログラム領域には、読出手段と、第2レンダリング手段と、画像生成手段としてコンピュータを機能させる画像処理プログラムが記憶されている。読出手段は、前記データ領域から、前記静止オブジェクトのレンダリングデータと、前記第移動オブジェクトの3次元モデリングデータを読出す。第2レンダリング手段は、前記移動オブジェクトの3次元モデリングデータを、前記移動オブジェクトの移動に従い前記所定の平面上を移動するオーソカメラの視点でレンダリングして、前記移動オブジェクトのレンダリングデータを生成する。画像生成手段は、前記読出手段で読出された前記静止オブジェクトのレンダリングデータと、前記第2レンダリング手段で生成された前記移動オブジェクトのレンダリングデータとを合成して2次元の画像を生成する。
In the data area, the rendering data including the first image data and the depth data is generated by rendering the three-dimensional modeling data of the stationary object from the viewpoint of the ortho camera moving on a predetermined plane, and the first image data The data in which the rendering data of the stationary object including the second image data generated based on the above and the depth data is written together with the three-dimensional modeling data of the moving object is stored.
The program area stores an image processing program that causes the computer to function as a reading unit, a second rendering unit, and an image generating unit. Reading means reads rendering data of the stationary object and three-dimensional modeling data of the moving object from the data area. Second rendering means, three-dimensional modeling data of the moving object, and renders the perspective of Ortho camera moving on the predetermined plane in accordance with movement of the moving object, and generates rendering data of the moving object. The image generation unit generates a two-dimensional image by combining the rendering data of the stationary object read by the reading unit and the rendering data of the moving object generated by the second rendering unit.

上記発明によると、静止オブジェクトをレンダリングする際に、3次元モデリングデータをレンダリングして得られた第1イメージデータ(臨時イメージデータ)に基づいて、より詳細なイメージデータの生成が可能になり、3次元モデリングデータからレンダリングして通常得られるイメージデータより詳細な2次元画像を生成できる。尚、静止オブジェクトのイメージデータを別途生成するため、静止オブジェクトのモデリングの際、テクスチャデータの生成が不要になり、モデリング作業が簡単である。さらに、3次元モデリングデータからレンダリングして通常得られるイメージデータより詳細な2次元画像の生成が可能になるにもかかわらず、記録媒体に書き込むデータの量及び記録媒体から読み出す側での処理量は殆ど変わらない。 According to the above invention, when rendering a static object, more detailed image data can be generated based on the first image data (temporary image data) obtained by rendering the three-dimensional modeling data. A more detailed two-dimensional image can be generated than the image data normally obtained by rendering from the dimensional modeling data. In addition, since the image data of the still object is separately generated, it is not necessary to generate the texture data when modeling the still object, and the modeling work is simple. Furthermore, although it is possible to generate a more detailed two-dimensional image than the image data normally obtained by rendering from three-dimensional modeling data, the amount of data written to the recording medium and the processing amount on the side of reading from the recording medium are Almost unchanged.

第5発明に係る画像処理システムは、第1レンダリング手段と、イメージデータ生成手段と、奥行データ生成手段と、出力手段と、受信手段と、第2レンダリング手段と、画像生成手段とを備えている。第1レンダリング手段は、第1静止オブジェクト及び第2静止オブジェクト各々の3次元モデリングデータを所定の平面上を移動するオーソカメラの視点でレンダリングして、前記第1静止オブジェクトに対してはイメージデータを含むレンダリングデータを、前記第2静止オブジェクトに対してはイメージデータと奥行データとを含むレンダリングデータを生成する。イメージデータ生成手段は、前記第1静止オブジェクトの前記イメージデータと前記第2静止オブジェクトの前記イメージデータを合成し、静止オブジェクトのイメージデータを生成する。奥行データ生成手段は、前記第2静止オブジェクトの前記奥行データを用いて、静止オブジェクトの奥行データを生成する。出力手段は、前記静止オブジェクトのイメージデータと前記奥行データとを含む前記静止オブジェクトのレンダリングデータを、移動オブジェクトの3次元モデリングデータとともに伝送媒体出力する受信手段は、前記伝送媒体から、前記静止オブジェクトのレンダリングデータと前記移動オブジェクトの3次元モデリングデータとを受信する。第2レンダリング手段は、前記移動オブジェクトの3次元モデリングデータを、前記移動オブジェクトの移動に従い前記所定の平面上を移動するオーソカメラの視点でレンダリングして、前記移動オブジェクトのレンダリングデータを生成する。画像生成手段は、前記奥行データ生成手段で生成された前記静止オブジェクトの奥行データと前記第2レンダリング手段で生成された前記移動オブジェクトの奥行データとを比較し、その比較結果を用いて、前記受信手段で受信された前記静止オブジェクトのレンダリングデータと、前記第2レンダリング手段で生成された前記移動オブジェクトのレンダリングデータとを合成して2次元の画像を生成する。 An image processing system according to a fifth aspect of the invention comprises first rendering means, image data generating means, depth data generating means, output means, receiving means, second rendering means, and image generating means. . The first rendering means renders the three-dimensional modeling data of each of the first stationary object and the second stationary object from the viewpoint of an ortho camera moving on a predetermined plane, and image data is rendered to the first stationary object. For the second still object, rendering data including image data and depth data is generated. Image data generating means synthesizes the image data with the image data of the first stationary object the second stationary object, generates image data of a still object. The depth data generation means generates depth data of the stationary object using the depth data of the second stationary object. The output means outputs the rendering data of the still object including the image data and the depth data of the stationary object, the transmission medium together with the three-dimensional modeling data of the moving object. Receiving means, wherein the transmission medium, receives the three-dimensional modeling data of the moving object and rendering data of the stationary object. Second rendering means, three-dimensional modeling data of the moving object, and renders the perspective of Ortho camera moving on the predetermined plane in accordance with movement of the moving object, and generates rendering data of the moving object. The image generation unit compares the depth data of the stationary object generated by the depth data generation unit with the depth data of the moving object generated by the second rendering unit, and uses the comparison result to compare the reception data. The still object rendering data received by the means and the moving object rendering data generated by the second rendering means are combined to generate a two-dimensional image.

上記発明によると、静止オブジェクトを第1及び第2静止オブジェクトに分けて、第1静止オブジェクトの奥行データは省略でき、伝送媒体出力するデータの量を減らすことができる。尚、静止オブジェクトの大部分を占める第1静止オブジェクトは粗いポリゴン(第1の数のポリゴン)を用い、比較的小さな領域を占める第2静止オブジェクトのみ細かいポリゴン(第1の数よりも大きい第2の数のポリゴン)を用いてモデリングするために、モデリングの負担を抑制できる。又、第2静止オブジェクトはより細かいモデリングが可能になり、静止オブジェクトを3次元モデリングして通常得られる画像より詳細な画像がえられる。 According to the invention, by dividing the stationary object in the first and second stationary object, the depth data of the first still object can be omitted, it is possible to reduce the amount of data to be output to the transmission medium. The first stationary object occupying most of the stationary objects using the coarse polygon elements (first number of polygons), the second occupies a relatively small area still objects only the fine polygon elements (second greater than the first number Modeling), the modeling burden can be suppressed. In addition, the second stationary object can be modeled more finely, and a more detailed image can be obtained than an image normally obtained by three-dimensional modeling of the stationary object.

第6発明に係る記録媒体は、データ領域とプログラム領域を含む。 A recording medium according to a sixth aspect includes a data area and a program area.

データ領域には、第1静止オブジェクト及び第2静止オブジェクト各々の3次元モデリングデータを所定の平面上を移動するオーソカメラの視点でレンダリングして、前記第1静止オブジェクトに対してはイメージデータを含むレンダリングデータを、前記第2静止オブジェクトに対してはイメージデータと奥行データとを含むレンダリングデータを第1レンダリング手段により生成し、前記第1静止オブジェクトの前記イメージデータと前記第2静止オブジェクトの前記イメージデータとをイメージデータ生成手段により合成し静止オブジェクトのイメージデータを生成し、前記第2静止オブジェクトの前記奥行データを用いて、静止オブジェクトの奥行データを奥行データ生成手段により生成し、前記静止オブジェクトのイメージデータと前記奥行データとを含む前記静止オブジェクトのレンダリングデータを、移動オブジェクトの3次元モデリングデータとともに書き込んだデータが記憶されている。 In the data area, the three-dimensional modeling data of each of the first still object and the second still object is rendered from the viewpoint of an ortho camera moving on a predetermined plane, and the first still object includes image data. For the second still object, rendering data including rendering data including image data and depth data is generated by the first rendering means, and the image data of the first still object and the image of the second still object are rendered. the data to generate image data of the synthesized stationary object by the image data generating unit, by using the depth data of the second stationary object, the depth data of a still object generated by the depth data generating means of the stationary object Image data Rendering data of the still objects including said depth data, written together with three-dimensional modeling data of the moving object data is stored.

プログラム領域には、読出手段と、第2レンダリング手段と、画像処理手段としてコンピュータを機能させる画像処理プログラムが記憶されている。読出手段は、前記データ領域から、前記静止オブジェクトのレンダリングデータと前記移動オブジェクトの3次元モデリングデータを読出す。第2レンダリング手段は、前記移動オブジェクトの3次元モデリングデータを、前記移動オブジェクトの移動に従い前記所定の平面上を移動するオーソカメラの視点でレンダリングして、前記移動オブジェクトのレンダリングデータを生成する。画像処理手段は、前記静止オブジェクトの奥行データと前記第2レンダリング手段で生成された前記移動オブジェクトの奥行データとを比較し、その比較結果を用いて、前記読出手段で読出された前記静止オブジェクトのレンダリングデータと、前記第2レンダリング手段で生成された前記移動オブジェクトのレンダリングデータとを合成して2次元の画像を生成する。 The program area stores an image processing program that causes the computer to function as reading means, second rendering means, and image processing means. Reading means reads rendering data of the stationary object and three-dimensional modeling data of the moving object from the data area. Second rendering means, three-dimensional modeling data of the moving object, and renders the perspective of Ortho camera moving on the predetermined plane in accordance with movement of the moving object, and generates rendering data of the moving object. The image processing means compares the depth data of the stationary object with the depth data of the moving object generated by the second rendering means, and uses the comparison result to compare the stationary object read by the reading means. The rendering data and the rendering data of the moving object generated by the second rendering unit are combined to generate a two-dimensional image.

上記発明によると、静止オブジェクトを第1及び第2静止オブジェクトに分けて、第1静止オブジェクトの奥行データは省略でき、記録媒体に書き込むデータの量を減らすことができる。尚、静止オブジェクトの大部分を占める第1静止オブジェクトは粗いポリゴン(第1の数のポリゴン)を用い、比較的小さな領域を占める第2静止オブジェクトのみ細かいポリゴン(第1の数よりも大きい第2の数のポリゴン)を用いてモデリングするために、モデリングの負担を抑制できる。又、第2静止オブジェクトはより細かいモデリングが可能になり、静止オブジェクトを3次元モデリングして通常得られる画像より詳細な画像がえられる。 According to the invention, by dividing the stationary object in the first and second stationary object, the depth data of the first still objects can reduce the amount of data to be written to the omission can, recording medium. The first stationary object occupying most of the stationary objects using the coarse polygon elements (first number of polygons), the second occupies a relatively small area still objects only the fine polygon elements (second greater than the first number Modeling), the modeling burden can be suppressed. In addition, the second stationary object can be modeled more finely, and a more detailed image can be obtained than an image normally obtained by three-dimensional modeling of the stationary object.

第7発明に係る記録媒体は、第6発明に係る記録媒体において、前記データ領域に記憶された前記静止オブジェクトのイメージデータは、前記第1レンダリング手段により生成された前記第1静止オブジェクト及び/又は前記第2静止オブジェクトのレンダリングデータが、前記第1静止オブジェクト及び/又は前記第2静止オブジェクトの各イメージデータに基づいて生成されたイメージデータに入れ替えられた各イメージデータである。 Recording medium according to the seventh invention, in the recording medium according to the sixth invention, the image data of the still objects stored in said data area, the first produced by the first rendering means stationary object and / or rendering data of the second stationary object is the image data that has been replaced with the image data generated based on the image data of the first stationary object and / or the second stationary object.

上記発明によると、第6発明の効果に加えて、第4発明の効果を得ることができる。   According to the said invention, in addition to the effect of 6th invention, the effect of 4th invention can be acquired.

第8発明に係るデータ転送媒体は、第6発明に係るデータ転送媒体において、前記第1レンダリング手段は、(a)前記第1静止オブジェクト及び第2静止オブジェクト各々の3次元モデリングデータから、仮想の2次元画面を構成する複数のドットのドット毎に、オーソカメラの視点で見たカラー値及び奥行値を演算する手段と、(b)前記第1静止オブジェクトに対しては前記演算された複数のカラー値を含むイメージデータを有するレンダリングデータを、前記第2静止オブジェクトに対しては前記演算された複数のカラー値を含むイメージデータ及び複数の奥行値を含む奥行データを有するレンダリングデータを生成する手段とを含む。また、前記イメージデータ生成手段は、(a)前記複数のドットのドット毎に、前記第1静止オブジェクト及び前記第2静止オブジェクトのイメージデータの両方共にカラー値を持つドットに対しては前記第2静止オブジェクトのイメージデータのカラー値をメモリに書き込み、前記第1又は第2静止オブジェクト何れか一方のイメージデータにのみカラー値を持つドットに対しては当該カラー値を前記メモリに書き込む第1記録手段と、(b)前記第1記録手段による処理の終了後、前記メモリに記録されているデータを前記イメージデータとして出力する手段とを含む。また、前記奥行データ生成手段は、(a)前記複数のドットのドット毎に、前記第2静止オブジェクトの奥行データの奥行値を前記メモリに書き込み、前記第2静止オブジェクトのイメージデータのカラー値を持つドット以外のドットに対しては所定値を前記メモリに書き込む第2記録手段と、(b)前記第2記録手段による処理の終了後、前記メモリに記憶されているデータを前記奥行データとして出力する手段とを含む。 The data transfer medium according to an eighth aspect of the present invention is the data transfer medium according to the sixth aspect of the present invention, wherein the first rendering means is configured to: (a) from the three-dimensional modeling data of each of the first stationary object and the second stationary object, Means for calculating a color value and a depth value viewed from the viewpoint of the ortho camera for each of a plurality of dots constituting the two-dimensional screen; and (b) a plurality of calculated values for the first still object. Means for generating rendering data having image data including color values and rendering data having image data including a plurality of calculated color values and depth data including a plurality of depth values for the second still object Including. The image data generating means may: (a) for each dot of the plurality of dots, for the dot having both color values for the first still object and the image data of the second still object; write the color values of the image data of a still object in memory, the first or the first recording means for writing the color value in the memory for the dots having color values only in the second stationary object one of the image data And (b) means for outputting the data recorded in the memory as the image data after completion of the processing by the first recording means. Further, the depth data generation means writes (a) the depth value of the depth data of the second still object to the memory for each of the plurality of dots, and sets the color value of the image data of the second still object. A second recording unit that writes a predetermined value to the memory for dots other than the dot that has, and (b) after completion of processing by the second recording unit, the data stored in the memory is output as the depth data Means.

上記発明によれば、第2静止オブジェクトのイメージデータのカラー値を持つドットのみ奥行値を記録媒体に書き込み、それ以外のドットに対しては所定値を書き込むため、奥行データを効率よく圧縮することが可能である。 According to the above invention, the depth value is written to the recording medium only for the dot having the color value of the image data of the second still object, and the predetermined value is written to the other dots, so that the depth data is efficiently compressed. Is possible.

第9発明に係る記録媒体は、第6発明に係る記録媒体において、前記画像処理プログラムは、前記仮想の2次元画面上における前記移動オブジェクトの位置及び方向を決定する決定手段をさらに含む。また、前記第1レンダリング手段は、(a)前記第1移動オブジェクト及び第2移動オブジェクト各々の3次元モデリングデータから、仮想の2次元画面を構成する複数のドットのドット毎に、オーソカメラの視点で見たカラー値及び奥行値を演算する手段と、(b)前記第1移動オブジェクトに対しては前記演算された複数のカラー値を含むイメージデータを有するレンダリングデータを、前記第2移動オブジェクトに対しては前記演算された複数のカラー値を含むイメージデータ及び複数の奥行値を含む奥行データを有するレンダリングデータを生成する手段とを含む。また、前記第2レンダリング手段は、(a)移動オブジェクトの3次元モデリングデータから、仮想の2次元画面を構成する複数のドットのドット毎に、前記移動オブジェクトを前記決定手段で決められた位置及び方向に変位してオーソカメラの視点で見たカラー値及び奥行値を演算する手段と、(b)前記演算された複数のカラー値を含むイメージデータと複数の奥行値を含む奥行データとを有するレンダリングデータを生成する手段とを含む。また、前記画像生成手段は、前記複数のドットのドット毎に、(a)前記静止オブジェクト及び前記移動オブジェクトの奥行値を比較し、どちらが手前かを決める奥行比較手段、(b)前記静止オブジェクト及び前記移動オブジェクトのイメージデータの両方共にカラー値を持つドットに対しては、前記奥行比較手段で決められた手前のオブジェクトのイメージデータのカラー値をメモリに書き込み、前記静止オブジェクト又は移動オブジェクトの何れか一方のオブジェクトのイメージデータにのみカラー値を持つドットに対しては当該カラー値を前記メモリに書き込む第3記録手段と、(c)前記奥行比較手段及び前記第3記録手段による処理が前記複数のドットの全てに対して終了後、前記メモリに記録されているデータを画像として出力する手段とを含む。 Recording medium according to a ninth aspect of the invention, there is provided a recording medium according to the sixth invention, the image processing program further comprises determining means for determining the position and direction of the moving object in the virtual two-dimensional screen. In addition, the first rendering means may: (a) from the three-dimensional modeling data of each of the first moving object and the second moving object, for each of a plurality of dots constituting a virtual two-dimensional screen, the viewpoint of the ortho camera means for calculating the color value and depth value seen in the rendering data having an image data including a plurality of color values the arithmetic for (b) the first moving object, the second moving object And generating means for generating rendering data having image data including a plurality of calculated color values and depth data including a plurality of depth values. The second rendering means, (a) from the three-dimensional modeling data of the moving object, each dot of the plurality of dots constituting a two-dimensional screen virtual position and the moving object is determined by said determining means Means for calculating a color value and a depth value as viewed from the viewpoint of the ortho camera with displacement in a direction; and (b) image data including the calculated plurality of color values and depth data including a plurality of depth values. Means for generating rendering data. In addition, the image generation means (a) compares the depth values of the stationary object and the moving object for each of the plurality of dots, and determines which is the front, (b) the stationary object and For a dot having both color values in the image data of the moving object, the color value of the image data of the near object determined by the depth comparison means is written in the memory , and either the stationary object or the moving object For a dot having a color value only in the image data of one object, a third recording unit that writes the color value to the memory ; and (c) a process by the depth comparison unit and the third recording unit includes the plurality of processes. out after the completion for all dots, the data recorded in the memory as image To and means.

上記発明によると、コントローラからの操作入力に対応して移動オブジェクトの位置及び方向によってリアルタイムでレンダリングする一方、静止オブジェクトのレンダリングをしなくても良いので、演算量を減らすことができる。 According to the above invention, rendering is performed in real time according to the position and direction of the moving object corresponding to the operation input from the controller, while the stationary object does not need to be rendered, so that the amount of calculation can be reduced.

第10発明に係る記録媒体は、第6発明に係る記録媒体において、前記画像処理プログラムは、前記仮想の2次元画面上における前記移動オブジェクトの位置及び方向を決定する決定手段をさらに含む。また、前記第1レンダリング手段は、(a)前記第1静止オブジェクト及び第2静止オブジェクト各々の3次元モデリングデータから、仮想の2次元画面を構成するドット毎に、オーソカメラの視点で見たカラー値及び奥行値を演算する手段と、(b)前記第1静止オブジェクトに対しては前記演算された複数のカラー値を含むイメージデータを有するレンダリングデータを、前記第2静止オブジェクトに対しては前記演算された複数のカラー値を含むイメージデータ及び複数の奥行値を含む奥行データを有するレンダリングデータを生成する手段とを含む。また、前記第2レンダリング手段は、(a)前記移動オブジェクトの3次元モデリングデータから、仮想の2次元画面を構成する複数のドットのドット毎に、前記移動オブジェクトを前記決定手段で決められた位置及び方向に変位してオーソカメラの視点で見たカラー値及び奥行値を演算する手段と、(b)前記演算された複数のカラー値を含むイメージデータと複数の奥行値を含む奥行データとを有するレンダリングデータを生成する手段とを含む。また、前記画像生成手段は、(a)前記静止オブジェクトのイメージデータをフレームバッファに記録する手段と、(b)前記移動オブジェクトのイメージデータ中カラー値を持つドットに対して、前記静止オブジェクト及び前記移動オブジェクトの奥行値を比較し、どちらが手前かを決める比較手段と、(c)前記比較手段で前記移動オブジェクトが前記静止オブジェクトより手前であると判断された場合、前記ドットに該当する移動オブジェクトのイメージデータのカラー値を前記フレームバッファに記憶する手段と、を含む。 Recording medium according to a tenth invention, in the recording medium according to the sixth invention, the image processing program further comprises determining means for determining the position and direction of the moving object in the virtual two-dimensional screen. The first rendering means may: (a) color viewed from the viewpoint of the ortho camera for each dot constituting the virtual two-dimensional screen from the three-dimensional modeling data of the first stationary object and the second stationary object. means for calculating a value and depth value, rendering data having an image data including a plurality of color values the arithmetic for (b) the first stationary object, wherein the relative said second stationary object Generating rendering data having image data including a plurality of calculated color values and depth data including a plurality of depth values. The second rendering means, (a) the three-dimensional modeling data of the moving object, each dot of the plurality of dots constituting a two-dimensional screen virtual, position the moving object is determined by said determining means And a means for calculating a color value and a depth value viewed in the viewpoint of the ortho camera by being displaced in a direction, and (b) image data including the calculated plurality of color values and depth data including a plurality of depth values. Generating rendering data. Further, the image generating unit, (a) said means for recording the frame buffer image data of a still object, with respect to a dot with Image data color values (b) the moving object, the stationary object and the Comparing means for comparing depth values of moving objects and deciding which one is in front; (c) If the comparing means determines that the moving object is in front of the stationary object, the moving object corresponding to the dot Means for storing color values of image data in the frame buffer.

上記発明によると、静止オブジェクトをフレームバッファに書き込んでおいて、移動オブジェクトを上書きするため、画像生成際の計算量、書込回数を減らすことができる。 According to the above invention, since the still object is written in the frame buffer and the moving object is overwritten, the amount of calculation and the number of times of writing can be reduced.

本発明によれば、画像処理において、プロセッサに要求される処理能力を低減して静止オブジェクトに奥行き感を持たせることができる。   According to the present invention, in image processing, it is possible to reduce the processing capability required of a processor and give a still object a sense of depth.

また、本発明によれば、画像処理において、静止オブジェクトが平行に進むように背景画像をスクロールさせることができる。   Further, according to the present invention, in the image processing, the background image can be scrolled so that the stationary object advances in parallel.

また、本発明によれば、画像処理において、精緻な静止オブジェクトの生成が可能になる。   In addition, according to the present invention, it is possible to generate a precise still object in image processing.

(1)全体構成
図1は、本発明の一実施形態に係る画像処理システムに適用されるゲーム機1の外観図である。
(1) Overall Configuration FIG. 1 is an external view of a game machine 1 applied to an image processing system according to an embodiment of the present invention.

ここでは、ゲーム機1は、例えば、図1(a)及び(b)に示すようなゲーム機を例に挙げて説明する。図1(a)のゲーム機1は、筐体の前面に配置されたLCD2と、コントローラ3とを備えている。LCD2は、後述するゲームプログラムの処理によるゲーム画面を表示する。コントローラ3は、十字キー3aと、入力キー3bとを備えている。十字キー3aは、主にゲーム画面中の画像を移動させるために用いられる。入力キー3bは、例えば、ゲーム画面中での画像の選択を決定する場合や、キャラクタの動作を命令するために用いられる。図1(b)のゲーム機1は、筐体が折り畳み式になっており、開いた状態では同図に示すように、折り畳み部によって区画された筐体の2つの部分にそれぞれLCD2a,2bを備えている。   Here, the game machine 1 will be described by taking a game machine as shown in FIGS. 1A and 1B as an example. The game machine 1 in FIG. 1A includes an LCD 2 and a controller 3 arranged on the front surface of the housing. The LCD 2 displays a game screen by a game program process to be described later. The controller 3 includes a cross key 3a and an input key 3b. The cross key 3a is mainly used to move an image on the game screen. The input key 3b is used, for example, when determining the selection of an image on the game screen or for instructing the action of the character. The game machine 1 of FIG. 1B has a foldable case. When the game machine 1 is opened, the LCDs 2a and 2b are respectively attached to two portions of the case defined by the foldable portion as shown in the figure. I have.

図2は、図1(a),(b)に示すゲーム機1のハードウェアの構成例を示すブロック図である。   FIG. 2 is a block diagram showing a hardware configuration example of the game machine 1 shown in FIGS.

ゲーム機1は、CPU21と、画像処理ユニット22と、メモリ23と、通信ユニット24と、コントローラ・インターフェイス(I/F)部25と、外部メモリ・インターフェイス(I/F)部26と、LCDドライバ27とを備えている。   The game machine 1 includes a CPU 21, an image processing unit 22, a memory 23, a communication unit 24, a controller interface (I / F) unit 25, an external memory interface (I / F) unit 26, and an LCD driver. 27.

ゲーム機本体1は、さらにバス28を備え、バス28は、CPU21と、画像処理ユニット22と、メモリ23と、通信ユニット24と、コントローラI/F部25と、外部メモリI/F部26と、LCDドライバ27との間のデータ転送を行う。   The game machine body 1 further includes a bus 28. The bus 28 includes a CPU 21, an image processing unit 22, a memory 23, a communication unit 24, a controller I / F unit 25, an external memory I / F unit 26, and the like. Then, data transfer with the LCD driver 27 is performed.

CPU21は、バス28を介して画像処理ユニット22、メモリ23、通信ユニット24、コントローラI/F部25、外部メモリI/F部26、LCDドライバ27に制御信号を送信及びこれらの構成からデータを受信することにより、これらを制御する。   The CPU 21 transmits control signals to the image processing unit 22, the memory 23, the communication unit 24, the controller I / F unit 25, the external memory I / F unit 26, and the LCD driver 27 via the bus 28, and receives data from these configurations. These are controlled by receiving.

画像処理ユニット22は、CPU21からの制御信号に従い、画像データの生成処理を行う。画像処理ユニット22は、3次元のモデルリングデータに基づいて、3次元仮想空間におけるオブジェクトの位置決定及びオブジェクトのレンダリング処理を行うことによって、3次元のモデルリングデータからLCD2に表示すべき2次元画像を生成する。   The image processing unit 22 performs image data generation processing in accordance with a control signal from the CPU 21. The image processing unit 22 determines the position of the object in the three-dimensional virtual space and renders the object based on the three-dimensional modeling data, so that the two-dimensional image to be displayed on the LCD 2 from the three-dimensional modeling data. Is generated.

メモリ23は、揮発性のメモリ及び/又は不揮発性のメモリであり、LCD2に表示すべき画像及びその画像を生成する途中の画像を一時的に記憶する。メモリ23は、例えば、後述する静止オブジェクトのイメージデータをフレーム単位で記憶する第1フレームバッファ領域、後述する静止オブジェクトのデプスオブジェクトの奥行データを記憶する第1デプスバッファ領域、後述する移動オブジェクトのイメージデータをフレーム単位で記憶する第2フレームバッファ領域、後述する移動オブジェクトの奥行データを記憶する第2デプスバッファ領域、外部メモリI/F26を介して外部メモリ5から読み出され又は通信ユニット24を介して伝送媒体から読み出されたゲームプログラムを記憶するプログラム領域を含む。   The memory 23 is a volatile memory and / or a nonvolatile memory, and temporarily stores an image to be displayed on the LCD 2 and an image in the middle of generating the image. The memory 23 includes, for example, a first frame buffer area that stores image data of a still object, which will be described later, in units of frames, a first depth buffer area that stores depth data of a depth object, which will be described later, and an image of a moving object, which will be described later. A second frame buffer area for storing data in units of frames, a second depth buffer area for storing depth data of a moving object described later, read from the external memory 5 via the external memory I / F 26 or via the communication unit 24 A program area for storing the game program read from the transmission medium.

通信ユニット24は、有線及び/又は無線の伝送媒体によって外部の通信機器と通信するための構成である。外部の通信機器としては、後述するゲームプログラムが記憶されたサーバに搭載された通信部等である。伝送媒体は、有線の場合には、LAN回線、公衆電話回線、インターネット等であり、無線の場合には、無線LAN回線、携帯電話回線、PHS回線等である。コントローラI/F25は、コントローラ3と接続されており、コントローラ3からの入力をCPU21に転送する。外部メモリI/F26は、カートリッジ等の形態で構成される外部メモリがゲーム機1に装着された場合に、CPU21からの制御信号に基づいて外部メモリ5に記憶された内容を読み出し、外部メモリ5から読み出されたデータをCPU21に転送する。LCDドライバ27は、メモリ23のフレームバッファに書き込まれている画像データに基づいてLCD2を駆動し、フレームバッファの画像データをLCD2に出力する。   The communication unit 24 is configured to communicate with an external communication device using a wired and / or wireless transmission medium. The external communication device is a communication unit or the like mounted on a server in which a game program to be described later is stored. The transmission medium is a LAN line, a public telephone line, the Internet or the like in the case of a wired connection, and is a wireless LAN line, a cellular phone line, a PHS line or the like in the case of a wireless connection. The controller I / F 25 is connected to the controller 3 and transfers an input from the controller 3 to the CPU 21. The external memory I / F 26 reads the content stored in the external memory 5 based on a control signal from the CPU 21 when an external memory configured in the form of a cartridge or the like is attached to the game machine 1, and the external memory 5 The data read from is transferred to the CPU 21. The LCD driver 27 drives the LCD 2 based on the image data written in the frame buffer of the memory 23 and outputs the image data in the frame buffer to the LCD 2.

本発明は、CPU21と画像処理ユニット22の処理能力が従来の小型携帯ゲーム機より相対的に高いゲーム機1に適用された場合により効果がある。すなわち、CPU21及び画像処理ユニット22の処理能力が従来の小型携帯ゲーム機より高い小型携帯ゲーム機において、奥行き感の有る画像を表示させるような場合により有効である。   The present invention is more effective when applied to the game machine 1 in which the processing capabilities of the CPU 21 and the image processing unit 22 are relatively higher than those of a conventional small portable game machine. In other words, it is more effective in displaying an image with a sense of depth in a small portable game machine in which the processing capacity of the CPU 21 and the image processing unit 22 is higher than that of a conventional small portable game machine.

図3は、外部メモリ5のメモリ空間を図解的に示したメモリマップである。   FIG. 3 is a memory map schematically showing the memory space of the external memory 5.

外部メモリ5は、プログラム領域31と、データ領域32とを有する。   The external memory 5 has a program area 31 and a data area 32.

プログラム領域31には、LCD2に表示するための画像処理を行ってゲームを実行するためのゲームプログラムが記憶されている。   The program area 31 stores a game program for executing a game by performing image processing for display on the LCD 2.

データ領域32には、ゲームプログラムの画像処理に使用される画像データ、ゲームプログラムの音声処理に使用される音声データ、その他ゲームプログラムの実行に使用される各種パラメータが記憶されている。画像データは、静止オブジェクトデータ33と、移動オブジェクトデータ34とを含む。静止オブジェクトデータ33は、イメージデータ331と、奥行データ332とを含む。イメージデータ331は、LCD2に表示する画面のドット毎に割り当てられるテクスチャデータである。奥行データ332は、静止オブジェクトのうち後述するデプスオブジェクトのテクスチャデータが割り当てられるドット毎に割り当てられた奥行を表すデータである。移動オブジェクトデータ34は、3次元のポリゴンデータ341と、各ポリゴンに割り当てられたテクスチャデータ342とを含む。   The data area 32 stores image data used for image processing of the game program, sound data used for sound processing of the game program, and various parameters used for executing the game program. The image data includes still object data 33 and moving object data 34. The stationary object data 33 includes image data 331 and depth data 332. The image data 331 is texture data assigned for each dot of the screen displayed on the LCD 2. The depth data 332 is data representing a depth assigned to each dot to which texture data of a depth object described later among static objects is assigned. The moving object data 34 includes three-dimensional polygon data 341 and texture data 342 assigned to each polygon.

ゲームプログラム及び画像データは、予め外部メモリ5に記憶しておき、ゲーム機1の外部メモリI/F26を介して読み込まれる。また、ゲームプログラム及び画像データを外部のサーバ等の記録媒体に記憶しておき、サーバから有線又は無線の伝送媒体を介してゲーム機1の通信ユニット24で受信し、ゲーム機1のメモリ23に記憶するようにしても良い。以下の説明では、ゲームプログラム及び画像データが記憶される外部メモリ5等のゲーム機1に装着される記録媒体、ゲームプログラム及び画像データが出力される伝送媒体を含めて転送媒体という。
(2)全体処理
(2−1)第1の実施形態
本発明は、3次元のオブジェクトのデータを生成し記録媒体に記憶(記録)する第1画像処理と、記録媒体からデータを読み込んで画像を生成する第2画像処理とで構成される。
The game program and image data are stored in advance in the external memory 5 and read via the external memory I / F 26 of the game machine 1. Further, the game program and the image data are stored in a recording medium such as an external server, received from the server by the communication unit 24 of the game machine 1 via a wired or wireless transmission medium, and stored in the memory 23 of the game machine 1. You may make it memorize. In the following description, a transfer medium including a recording medium attached to the game machine 1 such as an external memory 5 in which a game program and image data are stored, and a transmission medium in which the game program and image data are output will be referred to.
(2) Overall processing (2-1) First embodiment The present invention generates a three-dimensional object data and stores (records) it in a recording medium, and reads the data from the recording medium and reads the image. And second image processing for generating

図4及び図5は、本発明の第1の実施形態に係る処理のフローチャ―トである。図4は、3次元のオブジェクトからデータを生成し転送媒体に書き込む第1画像処理のフローチャートである。図5は、記録媒体からデータを読み出し、画像を生成する第2画像処理のフローチャートである。   4 and 5 are flowcharts of processing according to the first embodiment of the present invention. FIG. 4 is a flowchart of first image processing for generating data from a three-dimensional object and writing the data on a transfer medium. FIG. 5 is a flowchart of second image processing for reading data from a recording medium and generating an image.

〔第1画像処理〕
図4では、まず、表示しようとする3次元オブジェクトをモデリングする(S11,S13)。3次元オブジェクトは、移動オブジェクトと、静止オブジェクトとを含む。移動オブジェクトは、コントローラ3の操作又はゲームプログラムの命令に従って、LCD2の画面上又は静止オブジェクトに対して移動するオブジェクトであり、例えばゲーム上のキャラクタ等である。静止オブジェクトは、移動オブジェクトに対して相対的に静止するオブジェクトであり、ゲーム上の地面、壁、壁の手前の物体などである。本実施形態では、移動オブジェクトと、静止オブジェクトとを別々にモデリングする。
[First image processing]
In FIG. 4, first, a three-dimensional object to be displayed is modeled (S11, S13). The three-dimensional object includes a moving object and a stationary object. The moving object is an object that moves on the screen of the LCD 2 or a stationary object in accordance with an operation of the controller 3 or a command of the game program, for example, a character on the game. A stationary object is an object that is relatively stationary with respect to a moving object, such as a ground, a wall, or an object in front of the wall on the game. In this embodiment, a moving object and a stationary object are modeled separately.

S11では、静止オブジェクトをモデリングする。静止オブジェクトをモデリングすることによって、3次元のポリゴンデータ及びテクスチャデータを含む静止オブジェクトのモデリングデータを生成する。図10(a)は、静止オブジェクトのモデリングデータ中ポリゴンデータを示す。図12(a)は、他の静止オブジェクトのモデリングデータ中ポリゴンデータを示す。   In S11, a stationary object is modeled. By modeling a static object, modeling data of the static object including three-dimensional polygon data and texture data is generated. FIG. 10A shows polygon data in modeling data of a stationary object. FIG. 12A shows polygon data in modeling data of another stationary object.

ここで生成されるモデリングデータは、例えば「当たりモデル」のモデリングデータである。当たりモデルとは、プレーヤや敵のキャラクタが立つ為の地面や壁などの3次元のモデルであり、キャラクタの行動範囲を制限する為のモデルである。従って、ゲーム画面には何も無い空間として表示されている場所にキャラクタの行動範囲を制限するために壁を作ることもある。当たりモデルは、モデリング処理軽減の為、非常にざっくりとしたポリゴン(粗いポリゴン)で構成されるのが一般的である。例えば、壺などの物体は、その物体を覆うような立方体でモデリングされる。但し、後述するようなデプスオブジェクトのように精密な奥行データが必要な場合には、上記の粗いポリゴンよりも細かいポリゴンを用いる。   The modeling data generated here is, for example, modeling data of “win model”. The hit model is a three-dimensional model such as a ground or a wall on which a player or enemy character stands, and is a model for limiting the action range of the character. Therefore, a wall may be created to limit the action range of the character to a place displayed as a space having nothing on the game screen. The hit model is generally composed of very rough polygons (coarse polygons) in order to reduce the modeling process. For example, an object such as a bag is modeled as a cube that covers the object. However, when precise depth data is required as in a depth object as described later, a polygon that is finer than the coarse polygon is used.

S12では、オーソカメラを用いて静止オブジェクトの3次元のモデリングデータをレンダリングし、図10(b)に示すような2次元の画像データを含む静止オブジェクトのイメージデータと奥行データとをレンダリングデータとして生成する。   In S12, the three-dimensional modeling data of the static object is rendered using the ortho camera, and the static object image data and the depth data including the two-dimensional image data as shown in FIG. 10B are generated as rendering data. To do.

モデリングデータは、仮想の3次元空間座標系における複数のポリゴンの座標データと、当該複数のポリゴンの色や材質などを表すテクスチャデータとして構成される。レンダリング処理によって、仮想の3次元空間座標系上の所定の方向及び位置で特定される仮想のカメラで撮影した、当該仮想カメラから見た画像を2次元座標系で表すイメージデータと当該2次元座標系画像のドット毎の仮想カメラから距離を表す奥行データが得られる。   The modeling data is configured as coordinate data of a plurality of polygons in a virtual three-dimensional space coordinate system, and texture data representing the colors and materials of the plurality of polygons. Image data represented by a two-dimensional coordinate system and the two-dimensional coordinates taken by the virtual camera specified by a predetermined direction and position on the virtual three-dimensional spatial coordinate system and rendered by the rendering process. Depth data representing the distance is obtained from the virtual camera for each dot of the system image.

本発明では、3次元オブジェクトのレンダリングを行う際に、仮想カメラの視点を設定する。本実施形態では、仮想カメラの視点をオーソカメラとして設定する。オーソカメラは、3次元オブジェクトを2次元データに平行投影するカメラであり、画角を持たない。さらに、本実施形態では、オーソカメラがカメラベクトル(カメラから撮像ドットに向かうベクトル)を法線に持つ平面上のみを移動するように設定する。また、オーソカメラの回転角度を固定する。すなわち、静止オブジェクト撮影時のオーソカメラの回転角と、移動オブジェクトのレンダリング時のオーソカメラの回転角とを同一に設定する。   In the present invention, the viewpoint of the virtual camera is set when rendering a three-dimensional object. In this embodiment, the viewpoint of a virtual camera is set as an ortho camera. The ortho camera is a camera that projects a three-dimensional object in parallel to two-dimensional data and has no angle of view. Further, in the present embodiment, the ortho camera is set to move only on a plane having a camera vector (a vector from the camera toward the imaging dot) as a normal line. Also, the rotation angle of the ortho camera is fixed. That is, the rotation angle of the ortho camera when shooting a stationary object and the rotation angle of the ortho camera when rendering a moving object are set to be the same.

図13(a)は、オーソカメラ40によるレンダリングを説明する説明図である。オーソカメラ40は、前述したように、3次元オブジェクトを2次元データに平行投影するカメラであり、画角を持たない。さらに、本実施形態では、オーソカメラ40は、図13(a)に示すように、仮想の3次元空間座標系で特定される所定の平面S1上のみを移動可能とする。オーソカメラが移動可能な平面S1をオーソ平面S1と称する。オーソカメラ40によるレンダリングにより、静止オブジェクトSOの奥行データは、オーソ平面S1からの距離として計算される。このようにオーソカメラ40を用いてレンダリング処理することにより、例えば、カメラの視点で移動オブジェクトとともに静止オブジェクトを表示する場合に、予めすべての静止オブジェクトをレンダリングしておけば、移動オブジェクトが移動したとしても、静止オブジェクトを再びレンダリングする必要がない。   FIG. 13A is an explanatory diagram for explaining rendering by the ortho camera 40. As described above, the ortho camera 40 is a camera that projects a three-dimensional object into two-dimensional data in parallel, and has no angle of view. Further, in the present embodiment, the ortho camera 40 is movable only on a predetermined plane S1 specified by a virtual three-dimensional space coordinate system, as shown in FIG. The plane S1 to which the ortho camera can move is called an ortho plane S1. By rendering by the ortho camera 40, the depth data of the stationary object SO is calculated as a distance from the ortho plane S1. By performing rendering processing using the ortho camera 40 in this way, for example, when displaying a stationary object together with a moving object from the viewpoint of the camera, if all the stationary objects are rendered in advance, it is assumed that the moving object has moved. However, there is no need to render the stationary object again.

S13では、移動オブジェクトをモデリングする。移動オブジェクトのモデリングデータは、仮想の3次元空間座標系におけるポリゴンデータ及びテクスチャデータ(図示せず)を含む。図11は、移動オブジェクトのモデリングデータ中ポリゴンデータを示す。   In S13, the moving object is modeled. The moving object modeling data includes polygon data and texture data (not shown) in a virtual three-dimensional spatial coordinate system. FIG. 11 shows polygon data in modeling data of a moving object.

S17では、静止オブジェクトのレンダリングデータと、移動オブジェクトのモデリングデータとを、転送媒体(記録媒体又は伝送媒体)に書き込む。   In S17, the rendering data of the stationary object and the modeling data of the moving object are written in the transfer medium (recording medium or transmission medium).

第1画像処理は、コンピュータなどの情報処理装置で行われるのが望ましい。各々のステップはプログラムによって実行される。また、各々のステップは外部のプログラムモジュールの組み合わせで実行されることも可能である。S11のモデリングは、モデリング用の3次元デザインソフト等のプログラムを用いて行うことができる。S12のレンダリング処理は、レンダリング用のソフト、例えばAlias Wavefront社のMaya等のプログラムを用いて行うことができる。また、第1画像処理の主なステップは、Maya等のレンダリングプログラムのプラグインプログラムとして具現することもできる。   The first image processing is desirably performed by an information processing apparatus such as a computer. Each step is executed by a program. Each step can be executed by a combination of external program modules. The modeling in S11 can be performed using a program such as modeling three-dimensional design software. The rendering processing in S12 can be performed using a rendering software, for example, a program such as Maya from Alias Wavefront. The main steps of the first image processing can also be embodied as a plug-in program of a rendering program such as Maya.

〔第2画像処理〕
図5では、ゲーム機1が転送媒体から、静止オブジェクトのレンダリングデータ(イメージデータ及び奥行データ)と、移動オブジェクトのモデリングデータを受信し、移動オブジェクトのモデリングデータをオーソカメラでレンダリングし、移動オブジェクトのレンダリングデータを生成する。そして、静止オブジェクトのレンダリングデータ及び移動オブジェクトのレンダリングデータを合成し、LCD2に出力する画像を生成する。
[Second image processing]
In FIG. 5, the game machine 1 receives rendering data (image data and depth data) of a stationary object and modeling data of a moving object from a transfer medium, renders the modeling data of the moving object with an ortho camera, Generate rendering data. Then, the rendering data of the stationary object and the rendering data of the moving object are combined to generate an image to be output to the LCD 2.

S18では、ゲーム機1が転送媒体から、静止オブジェクトのレンダリングデータ及び移動オブジェクトのモデリングデータを読み出す。転送媒体が外部メモリ5である場合には、ゲーム機1は、外部メモリI/F26を介して外部メモリ5から、静止オブジェクトのレンダリングデータと、移動オブジェクトのモデリングデータとを読み出す。転送媒体が有線又は無線の伝送媒体である場合には、ゲーム機1は、通信ユニット24を介して伝送媒体から、静止オブジェクトのレンダリングデータ及び移動オブジェクトのモデリングデータを受信し、静止オブジェクトのレンダリングデータ及び移動オブジェクトのモデリングデータをメモリ23に書き込む。   In S18, the game machine 1 reads the rendering data of the stationary object and the modeling data of the moving object from the transfer medium. When the transfer medium is the external memory 5, the game machine 1 reads out the rendering data of the stationary object and the modeling data of the moving object from the external memory 5 via the external memory I / F 26. When the transfer medium is a wired or wireless transmission medium, the game machine 1 receives the rendering data of the stationary object and the modeling data of the moving object from the transmission medium via the communication unit 24, and renders the rendering data of the stationary object. And the modeling data of the moving object is written in the memory 23.

S19では、移動オブジェクトのモデリングデータをオーソカメラでレンダリングし、移動オブジェクトのレンダリングデータを生成する。具体的には、ゲーム機1の画像処理ユニット22が、移動オブジェクトの3次元ポリゴンデータを読み込み、3次元ポリゴンデータをオーソカメラでレンダリングする。   In S19, the modeling data of the moving object is rendered by the ortho camera, and the rendering data of the moving object is generated. Specifically, the image processing unit 22 of the game machine 1 reads the 3D polygon data of the moving object and renders the 3D polygon data with the ortho camera.

移動オブジェクトの3次元ポリゴンデータのオーソカメラによるレンダリングを図13(a)及び(b)を用いて説明する。図13(a)及び(b)には、仮想の3次元空間座標系における移動オブジェクトDOと静止オブジェクトSOとの位置関係を表す。図13(a)に示されたように、仮想の3次元空間座標系で特定の位置に(3次元ポリゴンデータによって特定される)移動オブジェクトDOが在る場合には、オーソ平面S1において移動オブジェクトDOが在る位置に対応する位置(移動オブジェクトDOの撮像対象の画素までの距離が最短距離である位置)でのオーソカメラ40により、移動オブジェクトDOがレンダリングされる。具体的には、仮想の3次元空間座標系で特定の位置にある移動オブジェクトDOを、オーソ平面S1上のオーソカメラ40によって撮影した画像を表すイメージデータを演算によって獲得するとともに、当該イメージデータのドット毎のオーソカメラ40(オーソ平面S1)からの距離を表す奥行値Zを計算することにより、当該イメージデータのドット毎の奥行値Zを含む奥行データがえられる。イメージデータは、オーソカメラ40から見た画面上の2次元座標系の画像である。   Rendering of 3D polygon data of a moving object by an ortho camera will be described with reference to FIGS. 13 (a) and 13 (b). FIGS. 13A and 13B show the positional relationship between the moving object DO and the stationary object SO in the virtual three-dimensional space coordinate system. As shown in FIG. 13A, when there is a moving object DO (specified by the three-dimensional polygon data) at a specific position in the virtual three-dimensional space coordinate system, the moving object on the ortho plane S1. The moving object DO is rendered by the ortho camera 40 at a position corresponding to the position where the DO exists (the position where the distance to the imaging target pixel of the moving object DO is the shortest distance). Specifically, the moving object DO at a specific position in the virtual three-dimensional space coordinate system is acquired by calculating image data representing an image taken by the ortho camera 40 on the ortho plane S1, and the image data By calculating a depth value Z representing the distance from the ortho camera 40 (orthoplane S1) for each dot, depth data including the depth value Z for each dot of the image data is obtained. The image data is an image of a two-dimensional coordinate system on the screen viewed from the ortho camera 40.

移動オブジェクトDOが図13(a)の位置から図13(b)の位置に移動した場合には、オーソカメラ40がオーソ平面S1上で移動オブジェクトDOの移動に従い移動しながらレンダリングが行われる。例えば、移動オブジェクトDOが図13(a)の位置の場合は、オーソカメラIから演算された移動オブジェクトDOのドットが、移動オブジェクトDOが図13(b)の位置の場合は、オーソカメラIIから演算される。具体的には、図13(a)の位置の場合は、オーソカメラIからの距離が計算された移動オブジェクトDOのドットは、図13(b)の位置の場合には、オーソカメラIIからの距離が計算される。   When the moving object DO moves from the position of FIG. 13A to the position of FIG. 13B, rendering is performed while the ortho camera 40 moves on the ortho plane S1 according to the movement of the moving object DO. For example, when the moving object DO is at the position of FIG. 13A, the dot of the moving object DO calculated from the ortho camera I is from the ortho camera II when the moving object DO is at the position of FIG. 13B. Calculated. Specifically, in the case of the position of FIG. 13A, the dot of the moving object DO whose distance from the ortho camera I is calculated is from the ortho camera II in the case of the position of FIG. The distance is calculated.

S20では、静止オブジェクトのレンダリングデータと、移動オブジェクトのレンダリングデータとを合成し、LCD2に出力するための画像を生成する。レンダリングデータ画像の生成については、図9において後述する。   In S20, the rendering data of the stationary object and the rendering data of the moving object are combined to generate an image to be output to the LCD 2. The generation of the rendering data image will be described later with reference to FIG.

第2画像処理は、ゲーム機などの情報処理装置で行われるのが望ましい。各々のステップはプログラムによって実行される。S19のレンダリング処理は、レンダラー等のグラフィック処理機能を持つ画像処理ユニット22で行うことができる。また、第2画像処理の主なステップは、CPU21の指示に従って画像処理ユニット22で実行できる。   The second image processing is preferably performed by an information processing apparatus such as a game machine. Each step is executed by a program. The rendering process of S19 can be performed by the image processing unit 22 having a graphic processing function such as a renderer. The main steps of the second image processing can be executed by the image processing unit 22 in accordance with instructions from the CPU 21.

〔作用効果〕
本実施形態によれば、静止オブジェクトの3次元モデルを予めレンダリング処理をしておいて、移動オブジェクトの3次元モデルと共に転送媒体に記憶(記録)することによって、転送媒体を読み出すゲーム機1において、静止オブジェクトをレンダリング処理する必要がなくなり、ゲーム機1での処理量を減少させる。従って、携帯型ゲーム機等の小型ゲーム機に適している。また、静止オブジェクトの処理に要するプロセッサの処理能力を節約できるため、移動オブジェクトの画像処理を向上させることができる。
[Function and effect]
According to the present embodiment, in the game machine 1 that reads a transfer medium by rendering a three-dimensional model of a stationary object in advance and storing (recording) it in the transfer medium together with the three-dimensional model of a moving object. There is no need to render a stationary object, and the processing amount in the game machine 1 is reduced. Therefore, it is suitable for a small game machine such as a portable game machine. In addition, since the processing capacity of the processor required for processing a stationary object can be saved, the image processing of a moving object can be improved.

尚、静止オブジェクトのレンダリングと移動オブジェクトのレンダリング両方をオーソカメラの視点で行うため、ゲーム機1において移動オブジェクトだけをリアルタイムでレンダリングしても、静止オブジェクトをリアルタイムでレンダリングする場合と同様自然なレンダリング画像が得られる。また、これにより、移動オブジェクトが静止オブジェクトに対して移動する画像を表す際に、ゲーム機1で静止オブジェクトと移動オブジェクトの両方をレンダリングする場合と同様自然なレンダリング画像がえられる。   In addition, since both the rendering of the stationary object and the rendering of the moving object are performed from the viewpoint of the ortho camera, even if only the moving object is rendered in real time in the game machine 1, a natural rendering image is obtained as in the case of rendering the stationary object in real time. Is obtained. In addition, as a result, when a moving object represents an image that moves relative to a stationary object, a natural rendered image can be obtained as in the case where both the stationary object and the moving object are rendered on the game machine 1.

さらに、オーソカメラにより静止オブジェクトをレンダリングするため、静止オブジェクトのレンダリングデータを画面上でスクロールさせる場合に、静止が平行に進むようにスクロールすることができる。   Furthermore, since the still object is rendered by the ortho camera, when the rendering data of the still object is scrolled on the screen, the still object can be scrolled so as to advance in parallel.

(2−2)第2の実施形態
図6は、3次元のオブジェクトのデータを生成し転送媒体に転送する第1画像処理のフローチャートである。第2画像処理については第1の実施形態の図5と同様の処理を行う。
(2-2) Second Embodiment FIG. 6 is a flowchart of first image processing for generating three-dimensional object data and transferring it to a transfer medium. For the second image processing, the same processing as in FIG. 5 of the first embodiment is performed.

第2の実施形態は、静止オブジェクトのモデリングデータをレンダリングしたレンダリングデータのイメージデータを臨時イメージデータとし、臨時イメージデータに基づいて生成されたイメージデータを静止オブジェクトのイメージデータとして入れ替える点が第1の実施形態と異なる。   In the second embodiment, the image data of rendering data obtained by rendering modeling data of a stationary object is used as temporary image data, and image data generated based on the temporary image data is replaced as image data of a stationary object. Different from the embodiment.

〔第1画像処理〕
S11では、静止オブジェクトをモデリングする。静止オブジェクトをモデリングすることによって、3次元のポリゴンデータ及びテクスチャデータを含む静止オブジェクトのモデリングデータを生成する。図10(a)は、静止オブジェクトのモデリングデータ中ポリゴンデータを示す。図12(a)は、他の静止オブジェクトのモデリングデータ中ポリゴンデータを示す。
[First image processing]
In S11, a stationary object is modeled. By modeling a static object, modeling data of the static object including three-dimensional polygon data and texture data is generated. FIG. 10A shows polygon data in modeling data of a stationary object. FIG. 12A shows polygon data in modeling data of another stationary object.

第2実施形態では、静止オブジェクトのモデリングデータを後述するレンダリングデータのイメージデータに基づいて、新たなイメージデータを生成し、元々のイメージデータと入れ替えるため、静止オブジェクトのモデリングデータはテクスチャデータを持たなくても良い。静止オブジェクトのモデリングデータは、前述した当たりモデルとしての機能をすれば足り、後述するイメージデータ生成処理S121の基本となるポリゴンデータだけを持ち、テクスチャデータは持たなくても良いのは、第2実施形態の持つ効果である。   In the second embodiment, new image data is generated based on rendering object image data, which will be described later, and is replaced with the original image data. Therefore, the stationary object modeling data does not have texture data. May be. In the second embodiment, the modeling data of the stationary object only needs to function as the hit model described above, has only polygon data as a basis of the image data generation processing S121 described later, and does not need to have texture data. This is the effect of the form.

S12では、オーソカメラ40を用いて静止オブジェクトのモデリングデータをレンダリングし、図10(b)に示すような2次元の画像データを含む静止オブジェクトのイメージデータと奥行データとをレンダリングデータとして生成する。本実施形態では、S121で、S12で得られたレンダリングデータのイメージデータに基づいて、さらに詳細なイメージデータを生成し、元々のイメージデータと入れ替えるため、S12で得られるイメージデータを臨時イメージデータという。   In S12, modeling data of a still object is rendered using the ortho camera 40, and image data and depth data of the still object including two-dimensional image data as shown in FIG. 10B is generated as rendering data. In the present embodiment, in S121, more detailed image data is generated based on the image data of the rendering data obtained in S12 and replaced with the original image data. Therefore, the image data obtained in S12 is referred to as temporary image data. .

本発明では、3次元オブジェクトのレンダリングを行う際に、仮想カメラの視点をオーソカメラとして設定する。オーソカメラによるレンダリング処理の詳細は、第1実施形態を参照する。   In the present invention, when rendering a three-dimensional object, the viewpoint of the virtual camera is set as an ortho camera. For details of the rendering process by the ortho camera, refer to the first embodiment.

S121では、臨時イメージデータに基づいて、さらに詳細なイメージを描画し、イメージデータを生成する。具体的には、3次元モデリングデータ(図10(a))をレンダリングした臨時イメージデータ(図10(b))に基づいて、細かい物体や道具などが加わえた新たなイメージデータを生成する。図10(c)の例では、レンダリング処理で得られた臨時イメージデータ(b)に基づいて、壁に窓が付いているようなイメージが生成される。イメージデータの生成ステップS121は、2次元描画ソフトなどを使った手作業で行うことができる。   In S121, a more detailed image is drawn based on the temporary image data to generate image data. Specifically, based on the temporary image data (FIG. 10 (b)) obtained by rendering the three-dimensional modeling data (FIG. 10 (a)), new image data to which fine objects and tools are added is generated. In the example of FIG. 10C, an image having a window on the wall is generated based on the temporary image data (b) obtained by the rendering process. The image data generation step S121 can be performed manually using two-dimensional drawing software or the like.

S13では、移動オブジェクトをモデリングする。移動オブジェクトのモデリングデータは、仮想の3次元空間座標系におけるポリゴンデータ及びテクスチャデータ(図示せず)からなる。図11は、移動オブジェクトのモデリングデータ中ポリゴンデータを示す。   In S13, the moving object is modeled. The modeling data of the moving object is composed of polygon data and texture data (not shown) in a virtual three-dimensional space coordinate system. FIG. 11 shows polygon data in modeling data of a moving object.

S17では、S121で生成された静止オブジェクトのレンダリングデータと、S13で生成された移動オブジェクトのモデリングデータとを、転送媒体(記録媒体又は伝送媒体)に書き込む。   In S17, the rendering data of the stationary object generated in S121 and the modeling data of the moving object generated in S13 are written in a transfer medium (recording medium or transmission medium).

第2画像処理については第1の実施形態の図5と同様の処理を行う。但し、静止オブジェクトのレンダリングデータ中のイメージデータは、S12で得られたレンダリングデータのイメージデータに基づいてS121で生成されたイメージデータがレンダリングデータ使用される。   For the second image processing, the same processing as in FIG. 5 of the first embodiment is performed. However, the image data generated in S121 based on the image data of the rendering data obtained in S12 is used as the image data in the rendering data of the still object.

〔作用効果〕
本実施形態によると、静止オブジェクトをレンダリングする際に、3次元モデリングデータをレンダリングして得られた臨時イメージデータに基づいて、より詳細なイメージデータの生成が可能になり、3次元モデリングデータからレンダリングして通常得られるイメージデータより詳細な2次元画像を生成できる。尚、静止オブジェクトのイメージデータを別途生成するため、静止オブジェクトのモデリングの際、テクスチャデータの生成が不要になり、モデリング作業が簡単である。さらに、通常のレンダリングより詳細な2次元画像の生成が可能になるにもかかわらず、転送媒体に書き込むデータの量と転送媒体を読み出すゲーム機1での処理量は殆ど変わらない。
[Function and effect]
According to this embodiment, when rendering a static object, more detailed image data can be generated based on temporary image data obtained by rendering 3D modeling data, and rendering is performed from 3D modeling data. Thus, it is possible to generate a more detailed two-dimensional image than the image data normally obtained. In addition, since the image data of the still object is separately generated, it is not necessary to generate the texture data when modeling the still object, and the modeling work is simple. Furthermore, although a more detailed two-dimensional image can be generated than normal rendering, the amount of data written to the transfer medium and the processing amount of the game machine 1 that reads the transfer medium are almost the same.

(2−3)第3の実施形態
図7及び図8は、第3の実施形態に係る処理のフローチャ―トである。図7は、3次元のオブジェクトからデータを生成し転送媒体に転送する第1画像処理のフローチャートである。図8は、転送媒体からデータを読み出し、画像を生成する第2画像処理のフローチャートである。
(2-3) Third Embodiment FIGS. 7 and 8 are flowcharts of processing according to the third embodiment. FIG. 7 is a flowchart of first image processing for generating data from a three-dimensional object and transferring the data to a transfer medium. FIG. 8 is a flowchart of second image processing for reading data from a transfer medium and generating an image.

〔第1画像処理〕
第3の実施形態は、静止オブジェクトが背景オブジェクトとデプスオブジェクトからなる。背景オブジェクトは、レンダリング処理後、レンダリングデータが奥行データを持たずイメージデータのみからなり、デプスオブジェクトは、レンダリング処理後、レンダリングデータがイメージデータと奥行データとを持つ点において、第1の実施形態と異なる。
[First image processing]
In the third embodiment, the stationary object includes a background object and a depth object. The background object is composed of only image data without rendering data after rendering processing, and the depth object is the same as that of the first embodiment in that rendering data has image data and depth data after rendering processing. Different.

又、第3実施形態においても、第2実施形態のようにレンダリング処理後のイメージデータを臨時イメージデータとし、それに基づいて新たなイメージデータを生成し、元々のイメージデータと入れ替えるのも可能である。以下では、第2実施形態のイメージ生成処理が含まれた実施形態に基づいて説明する。   Also in the third embodiment, it is also possible to use the image data after rendering processing as temporary image data, generate new image data based on the image data, and replace the original image data as in the second embodiment. . The following description is based on an embodiment including the image generation process of the second embodiment.

S11では、静止オブジェクトをモデリングする。静止オブジェクトをモデリングすることによって、3次元のポリゴンデータ及びテクスチャデータを含む静止オブジェクトのモデリングデータを生成する。ここでは、第2実施形態のようにイメージ生成処理を行うため、静止オブジェクトのモデリングデータは、テクスチャデータを持たなくても良い。   In S11, a stationary object is modeled. By modeling a static object, modeling data of the static object including three-dimensional polygon data and texture data is generated. Here, since the image generation process is performed as in the second embodiment, the modeling data of the stationary object may not have the texture data.

静止オブジェクトは、背景オブジェクトとデプスオブジェクトとを含む。図10(a)及び図12(a)は、それぞれ背景オブジェクト及びデプスオブジェクトのモデリングデータ中ポリゴンデータを示す。   The stationary object includes a background object and a depth object. FIGS. 10A and 12A show polygon data in the modeling data of the background object and the depth object, respectively.

背景オブジェクトのモデリングデータは、第1実施形態の説明で述べた「当たりモデル」のモデリングデータである。背景オブジェクトのモデリングデータは、当たりモデルとしての機能をすれば足り、ポリゴンデータだけを持ち、テクスチャデータは持たなくても良いのは、第2実施形態と同様である。   The modeling data of the background object is the “winning model” modeling data described in the description of the first embodiment. Similar to the second embodiment, the modeling data of the background object only needs to function as a hit model, has only polygon data, and does not have to have texture data.

一方、デプスオブジェクトのモデリングデータは、図12(a)に示すように背景オブジェクトを構成するポリゴン(図10(a))よりも細かいポリゴンから構成され、レンダリング後の臨時イメージデータの形状が精細なものとなる。また、臨時イメージデータの奥行データも、細かいポリゴンを基に生成されるので、精度の高いデータである。静止オブジェクト全体を細かいポリゴンを用いてモデリングすると、イメージデータの生成及びゲーム機1でのイメージデータの表示処理に必要なプロセッサの負担が大きい。一方、本実施形態のように、静止オブジェクトのうち大部分を占める背景オブジェクトについては粗いポリゴンを用い、比較的小さな領域を占めるデプスオブジェクトのみ細かいポリゴンを用いてモデリングするために、静止オブジェクト全体を細かいポリゴンを用いてモデリングする場合に比較して、静止オブジェクトのモデリング処理に要するプロセッサの負担を軽減できる。背景オブジェクトが粗いポリゴンで良いのは、上述したように、背景オブジェクトは移動オブジェクトの移動範囲を規制するオブジェクトであり、当たりモデルで構成できるからである。一方、デプスオブジェクトは、後述するように移動オブジェクトが回り込むことができるオブジェクトであり、細かいポリゴンにより、詳細な形状とする必要があるからである。本実施形態では、デプスオブジェクトへの移動オブジェクトの回り込みを実現することにより、静止オブジェクトに奥行き感を持たせることができる。   On the other hand, the modeling data of the depth object is composed of polygons finer than the polygons constituting the background object (FIG. 10A) as shown in FIG. 12A, and the shape of the temporary image data after rendering is fine. It will be a thing. The depth data of the temporary image data is also generated based on fine polygons, and is therefore highly accurate data. If the entire stationary object is modeled using fine polygons, the burden on the processor necessary for image data generation and image data display processing on the game machine 1 is large. On the other hand, as in this embodiment, the background object occupying most of the stationary objects uses coarse polygons, and only the depth objects occupying a relatively small area are modeled using fine polygons. Compared to modeling using polygons, it is possible to reduce the burden on the processor required for modeling a stationary object. The reason why the background object may be a rough polygon is that, as described above, the background object is an object that regulates the moving range of the moving object, and can be constituted by a hit model. On the other hand, the depth object is an object that the moving object can wrap around as described later, and it is necessary to make a detailed shape with fine polygons. In the present embodiment, it is possible to give a still object a sense of depth by realizing the moving object wraps around the depth object.

図16は、デプスオブジェクトの構成例である。デプスオブジェクト201は、床に置かれた釜、釜の後ろの薪、並びに釜の上方の鍋及び鍋掛を含むオブジェクトである。デプスオブジェクト202は、床に開いた穴を表現するためのオブジェクトである。デプスオブジェクト202では、穴の開口部の下方に位置する画像に奥行データを持たせることにより、奥行データを持った画像の後ろに移動物体が隠れ、移動物体が穴に入り込んだように表現することができる。このようなデプスオブジェクト201、202を生成することにより、図15(b)に示すように移動オブジェクトDOの足下がデプスオブジェクト201の薪に隠れたり、図15(d)に示すように移動オブジェクトDOの体が床の穴に入り込んだりする画像を表示することができる。   FIG. 16 is a configuration example of a depth object. The depth object 201 is an object including a kettle placed on the floor, a basket behind the kettle, and a pot and a pot hook above the kettle. The depth object 202 is an object for expressing a hole opened in the floor. In the depth object 202, an image located below the opening of the hole is given depth data, so that the moving object is hidden behind the image having the depth data and the moving object enters the hole. Can do. By generating such depth objects 201 and 202, the feet of the moving object DO are hidden behind the heel of the depth object 201 as shown in FIG. 15B, or the moving object DO as shown in FIG. It is possible to display an image of the body entering the hole in the floor.

S12aでは、オーソカメラを用いて背景オブジェクトの3次元のモデリングデータをレンダリングする。図10(b)は、背景オブジェクトをレンダリングして得られるレンダリングデータ中2次元の画像データを含むイメージデータ奥行データを示す。本実施形態では、レンダリングデータのイメージデータに基づいてS121aで生成するさらに詳細なイメージデータに入れ替えるため、レンダリングデータのイメージデータを臨時イメージデータという。背景オブジェクトの臨時イメージデータは、3次元モデリングデータから生成される2次元のイメージデータである。   In S12a, the three-dimensional modeling data of the background object is rendered using the ortho camera. FIG. 10B shows image data depth data including two-dimensional image data in rendering data obtained by rendering a background object. In the present embodiment, the image data of the rendering data is referred to as temporary image data in order to replace the image data with the more detailed image data generated in S121a based on the image data of the rendering data. The temporary image data of the background object is two-dimensional image data generated from the three-dimensional modeling data.

S12bでは、オーソカメラを用いてデプスオブジェクトの3次元のモデリングデータをレンダリングする。図12(b)、(c)は、それぞれデプスオブジェクトをレンダリングして得られるレンダリングデータのイメージデータ及び奥行データを示す。ここでも、S121bで生成するさらに詳細なイメージデータに入れ替えるため、レンダリングデータのイメージデータを臨時イメージデータという。デプスオブジェクトの臨時イメージデータは、3次元モデリングデータから生成される2次元のイメージデータである。   In S12b, the three-dimensional modeling data of the depth object is rendered using an ortho camera. FIGS. 12B and 12C respectively show image data and depth data of rendering data obtained by rendering the depth object. Again, the image data of the rendering data is referred to as temporary image data in order to replace the image data with the more detailed image data generated in S121b. The temporary image data of the depth object is two-dimensional image data generated from the three-dimensional modeling data.

本発明では、3次元オブジェクトのレンダリングを行う際に、仮想カメラの視点をオーソカメラとして設定する。オーソカメラによるレンダリング処理の詳細は、第1実施形態を参照する。   In the present invention, when rendering a three-dimensional object, the viewpoint of the virtual camera is set as an ortho camera. For details of the rendering process by the ortho camera, refer to the first embodiment.

S121aでは、背景オブジェクトの臨時イメージデータに基づいて、さらに詳細なイメージを描画し、イメージデータを生成する。具体的には、当たりモデル等から生成された3次元モデリングデータ(図10(a))をレンダリングした臨時イメージデータ(図10(b))に基づいて、壁に窓が付いているようなイメージを生成する(図10(c))。   In S121a, based on the temporary image data of the background object, a more detailed image is drawn to generate image data. Specifically, based on temporary image data (FIG. 10 (b)) obtained by rendering three-dimensional modeling data (FIG. 10 (a)) generated from a hit model or the like, an image with a window on the wall. Is generated (FIG. 10C).

S121bでは、デプスオブジェクトの臨時イメージデータに基づいて、さらに詳細なイメージを描画し、イメージデータを生成する。具体的には、3次元ポリゴンのデプスモデルから生成された3次元モデリングデータ(図12(a))をレンダリングした臨時イメージデータ(図12(b))に、さらに詳細な書き込みを行い、図12(d)に示すようなイメージデータを生成する。   In S121b, based on the temporary image data of the depth object, a more detailed image is drawn to generate image data. Specifically, more detailed writing is performed on the temporary image data (FIG. 12B) obtained by rendering the three-dimensional modeling data (FIG. 12A) generated from the depth model of the three-dimensional polygon. Image data as shown in (d) is generated.

S122aでは、背景オブジェクトのイメージデータ(図10(c))及びデプスオブジェクトのイメージデータ(図12(d))を合成し、静止オブジェクトのイメージデータを生成する。図15(a)〜(d)は、静止オブジェクトのイメージデータと共に移動オブジェクトが表示された画面を示す。背景オブジェクト及びデプスオブジェクトのイメージデータの合成は、背景オブジェクトのイメージデータにデプスオブジェクトのイメージデータを上書きすることによって行うことができる。即ち、2次元座標上の画面を構成する複数のドットの各ドット毎に、背景オブジェクト及びデプスオブジェクトのイメージデータのカラー値をメモリに書き込む。ただし背景オブジェクト及びデプスオブジェクトのイメージデータの両方共にカラー値を持つドットに対しては、デプスオブジェクトのイメージデータのカラー値を、メモリに書き込む。そして、メモリに書き込まれたイメージデータを静止オブジェクトのイメージデータとする。   In S122a, the image data of the background object (FIG. 10C) and the image data of the depth object (FIG. 12D) are combined to generate still object image data. FIGS. 15A to 15D show screens on which moving objects are displayed together with still object image data. The composition of the image data of the background object and the depth object can be performed by overwriting the image data of the depth object on the image data of the background object. That is, the color values of the image data of the background object and the depth object are written in the memory for each of a plurality of dots constituting the screen on the two-dimensional coordinates. However, the color value of the image data of the depth object is written in the memory for the dot having both color values of the background object and the image data of the depth object. Then, the image data written in the memory is used as the image data of the still object.

S122bでは、デプスオブジェクトの奥行きデータを用いて、静止オブジェクトの奥行きデータを生成する。デプスオブジェクトのイメージデータのうちカラー値が割り当てられているドットに奥行値Zを割り当て、カラー値が割り当てられていないドットには所定値を割り当てることにより、静止オブジェクト(背景オブジェクト及びデプスオブジェクト)の奥行データを生成する。ここでは、所定値として、臨界値(far:オーソカメラ40から無限大の距離値)を割り当てる。即ち、2次元座標で表されたデプスオブジェクトのイメージデータうちカラー値が割り当てられているドット(実際に表示されるドット)にはデプスオブジェクトの奥行値Zを割り当て、その以外のドットにはfarを割り当てる。即ち、2次元座標上の画面を構成する複数のドットの各ドット毎に、前記デプスオブジェクトの奥行きデータの奥行値をメモリに書き込む。但し、前記デプスオブジェクトのイメージデータ中カラー値を持つドット以外のドットに対しては臨界値farを、メモリに書き込む。そして、メモリに記憶されているデータを静止オブジェクトの奥行きデータとする。このようなfarが割り当てられたドットは、オーソカメラ40からの距離が無限大であるので、有限の奥行値を持つ3次元ポリゴンデータを含む移動オブジェクトとともに画面に表示される場合には、必ず移動オブジェクトが手前に表示される。   In S122b, depth data of the still object is generated using the depth data of the depth object. Depth value Z is assigned to a dot to which a color value is assigned in image data of a depth object, and a predetermined value is assigned to a dot to which a color value is not assigned, whereby the depth of a stationary object (background object and depth object) is assigned. Generate data. Here, a critical value (far: an infinite distance value from the ortho camera 40) is assigned as the predetermined value. In other words, the depth value Z of the depth object is assigned to the dot (the actually displayed dot) to which the color value is assigned among the image data of the depth object expressed in two-dimensional coordinates, and far is assigned to the other dots. assign. That is, the depth value of the depth data of the depth object is written into the memory for each of a plurality of dots constituting the screen on the two-dimensional coordinate. However, the critical value far is written in the memory for the dots other than the dot having the color value in the image data of the depth object. Then, the data stored in the memory is used as the depth data of the still object. Such a dot to which a far is assigned has an infinite distance from the ortho camera 40, and therefore must be moved when displayed on the screen together with a moving object including 3D polygon data having a finite depth value. The object is displayed in the foreground.

図14は、静止オブジェクトの奥行データの割り当てを説明する説明図である。図14に示すように、静止オブジェクトのうちデプスオブジェクトSO2はカラーデータが割り当てられるドットに対応し、これらのドットには奥行値Zが割り当てられる。デプスオブジェクトのうちカラーデータが割り当てられないドット、即ち背景オブジェクトのみのドットには、所定値としてのの臨界値farが割り当てられる。   FIG. 14 is an explanatory diagram for explaining the assignment of depth data of a stationary object. As shown in FIG. 14, the depth object SO2 among the static objects corresponds to dots to which color data is assigned, and a depth value Z is assigned to these dots. A critical value far as a predetermined value is assigned to a dot to which color data is not assigned among depth objects, that is, a dot of only a background object.

S13では、移動オブジェクトをモデリングする。移動オブジェクトのモデリングデータは、仮想の3次元空間座標系におけるポリゴンデータ及びテクスチャデータ(図示せず)を含む。図11は、移動オブジェクトのモデリングデータ中ポリゴンデータを示す。   In S13, the moving object is modeled. The moving object modeling data includes polygon data and texture data (not shown) in a virtual three-dimensional spatial coordinate system. FIG. 11 shows polygon data in modeling data of a moving object.

S17では、静止オブジェクトのレンダリングデータ及び移動オブジェクトのモデリングデータを転送媒体(記録媒体又は伝送媒体)に書き込む。   In S17, the rendering data of the stationary object and the modeling data of the moving object are written in the transfer medium (recording medium or transmission medium).

〔第2画像処理〕
図8では、ゲーム機1が転送媒体から、静止オブジェクトのレンダリングデータ(イメージデータ及び奥行データ)と、移動オブジェクトのモデリングデータを読み出し、移動オブジェクトのモデリングデータをオーソカメラでレンダリングし、移動オブジェクトのレンダリングデータを生成する。そして、静止オブジェクトのレンダリングデータと、移動オブジェクトのレンダリングデータを合成し、LCD2に出力する画像を生成する。
[Second image processing]
In FIG. 8, the game machine 1 reads out rendering data (image data and depth data) of a stationary object and modeling data of a moving object from a transfer medium, renders the modeling data of the moving object with an ortho camera, and renders the moving object. Generate data. Then, the rendering data of the stationary object and the rendering data of the moving object are combined to generate an image to be output to the LCD 2.

S18では、ゲーム機1が転送媒体から、静止オブジェクトのレンダリングデータ及び移動オブジェクトのモデリングデータを読み出す。転送媒体が外部メモリ5である場合には、ゲーム機1は、外部メモリI/F26を介して外部メモリ5から、静止オブジェクトのレンダリングデータ及び移動オブジェクトのモデリングデータと、移動オブジェクトのモデリングデータとを読み出す。転送媒体が有線又は無線の伝送媒体である場合には、ゲーム機1は、通信ユニット24を介して伝送媒体から、静止オブジェクトのレンダリングデータ及び移動オブジェクトのモデリングデータを受信し、静止オブジェクトのレンダリングデータ及び移動オブジェクトのモデリングデータをメモリ23に書き込む。   In S18, the game machine 1 reads the rendering data of the stationary object and the modeling data of the moving object from the transfer medium. When the transfer medium is the external memory 5, the game machine 1 receives the rendering data of the static object, the modeling data of the moving object, and the modeling data of the moving object from the external memory 5 via the external memory I / F 26. read out. When the transfer medium is a wired or wireless transmission medium, the game machine 1 receives the rendering data of the stationary object and the modeling data of the moving object from the transmission medium via the communication unit 24, and renders the rendering data of the stationary object. And the modeling data of the moving object is written in the memory 23.

S19では、移動オブジェクトのモデリングデータをオーソカメラでレンダリングし、移動オブジェクトのレンダリングデータを生成する。具体的には、ゲーム機1の画像処理ユニット22が、移動オブジェクトの3次元ポリゴンデータを読み込み、3次元ポリゴンデータをオーソカメラでレンダリングする。   In S19, the modeling data of the moving object is rendered by the ortho camera, and the rendering data of the moving object is generated. Specifically, the image processing unit 22 of the game machine 1 reads the 3D polygon data of the moving object and renders the 3D polygon data with the ortho camera.

移動オブジェクトの3次元ポリゴンデータのオーソカメラによるレンダリングの詳細は、第1実施形態の説明を参照する。又、後述するようにコントローラ3の操作入力によって移動オブジェクトの位置及び方向(移動先の位置及び移動先での方向)に変化がある場合は、移動オブジェクトの位置及び方向を決定し、移動オブジェクトを2次元座標上において決定された位置及び方向に変位して、オーソカメラの視点で見たカラー値及び奥行値を演算する。   For details of rendering the three-dimensional polygon data of the moving object by the ortho camera, refer to the description of the first embodiment. Further, as will be described later, when there is a change in the position and direction of the moving object (the position of the moving destination and the direction at the moving destination) due to the operation input of the controller 3, the position and direction of the moving object are determined, The color value and the depth value viewed from the viewpoint of the ortho camera are calculated by displacing in the position and direction determined on the two-dimensional coordinates.

S20では、静止オブジェクトのレンダリングデータと、移動オブジェクトのレンダリングデータとを合成し、LCD2に出力するための画像を生成する。画像の生成については図9において後述する。   In S20, the rendering data of the stationary object and the rendering data of the moving object are combined to generate an image to be output to the LCD 2. The generation of the image will be described later with reference to FIG.

〔画像生成処理〕
図9は、S20の画像生成処理を詳細に説明したフローチャートである。
[Image generation processing]
FIG. 9 is a flowchart illustrating in detail the image generation process of S20.

ゲーム進行中に、ゲーム機1のCPU21がコントローラI/F25を介してコントローラ3の操作入力を受け付ける(S101)。CPU21は、その移動オブジェクトの移動先の位置及び移動先での移動オブジェクトの方向を決定する(S102)。   While the game is in progress, the CPU 21 of the game machine 1 accepts an operation input from the controller 3 via the controller I / F 25 (S101). The CPU 21 determines the position of the moving object and the direction of the moving object at the moving destination (S102).

CPU21は、移動オブジェクトの移動先の位置及び移動先での方向を決定すると、画像処理ユニット22に移動オブジェクトの3次元モデリングデータ、即ちポリゴンデータ及びテクスチャデータを用いて、当該位置及び方向での移動オブジェクトをレンダリングするように制御信号を出力する。画像処理ユニット22は、移動オブジェクトのポリゴンデータ及びテクスチャデータを用いて移動オブジェクトをレンダリングする(S19)。このレンダリングによって、S102で決定された移動オブジェクトの位置や方向での移動オブジェクトのレンダリングデータ(イメージデータ、奥行データ)を生成する。   When the CPU 21 determines the position and direction of the moving object, the CPU 21 uses the three-dimensional modeling data of the moving object, that is, polygon data and texture data, to the image processing unit 22 to move the moving object at the position and direction. Output control signals to render the object. The image processing unit 22 renders the moving object using the polygon data and texture data of the moving object (S19). By this rendering, rendering data (image data, depth data) of the moving object at the position and direction of the moving object determined in S102 is generated.

また、画像処理ユニット22は、移動オブジェクトのイメージデータ及び奥行データをメモリ23の第2フレームバッファ領域及び第2デプスバッファ領域に書き込む(S103)。   The image processing unit 22 writes the image data and depth data of the moving object in the second frame buffer area and the second depth buffer area of the memory 23 (S103).

一方、CPU21は、所定の周期で外部メモリI/Fを介して外部メモリ5から静止オブジェクトのイメージデータを第1フレームバッファ領域に書き込むとともに、静止オブジェクトの奥行データをメモリ23の第1デプスバッファ領域に書き込む(S18)。   On the other hand, the CPU 21 writes the image data of the still object from the external memory 5 to the first frame buffer area via the external memory I / F at a predetermined cycle, and also stores the depth data of the still object in the first depth buffer area of the memory 23. (S18).

S104では、移動オブジェクト及び静止オブジェクトの奥行きデータを比較し、移動オブジェクト及び静止オブジェクトのイメージデータを合成して、LCD2の画面に表示させる画像を生成する。CPU21は、画面の全ドット全てに対してドットごとに、第1デプスバッファ領域に書き込まれている静止オブジェクトの奥行値Zと、第2デプスバッファ領域に書き込まれている移動オブジェクトの奥行値Zとを比較し、奥行値Zが小さい方のオブジェクトのイメージデータを表示するように第1フレームバッファ領域のデータを書き換える。即ち、移動オブジェクトの奥行値Zが小さい(移動オブジェクトが手前にある)場合には、第1フレームバッファ領域の当該ドットの値を、静止オブジェクトのイメージデータ(カラーデータ値)から移動オブジェクトのイメージデータ(カラーデータ値)に上書きして書き換える。一方、移動オブジェクトの奥行値Zが大きい(移動オブジェクトが奥側にある)場合には、第1フレームバッファ領域の当該ドットのカラーデータ値を静止オブジェクトのカラーデータ値のままとする。   In S104, the depth data of the moving object and the stationary object are compared, and the image data of the moving object and the stationary object are combined to generate an image to be displayed on the screen of the LCD 2. The CPU 21 sets the depth value Z of the stationary object written in the first depth buffer area and the depth value Z of the moving object written in the second depth buffer area for every dot for all the dots on the screen. And the data in the first frame buffer area is rewritten so that the image data of the object having the smaller depth value Z is displayed. That is, when the depth value Z of the moving object is small (the moving object is in front), the value of the dot in the first frame buffer area is changed from the image data (color data value) of the stationary object to the image data of the moving object. Overwrite and rewrite (color data value). On the other hand, when the depth value Z of the moving object is large (the moving object is on the back side), the color data value of the dot in the first frame buffer area remains the color data value of the stationary object.

以下、図17を参照しながらS104を詳細に説明する。図17は、S102で決定された移動オブジェクトの位置及び方向によってレンダリングされた移動オブジェクトのイメージが静止オブジェクトのイメージと合成された一例を示す。図17(a)は、合成イメージの一部、(b1)はデプスオブジェクトが移動オブジェクトの手前にある部分の拡大図、(b2)は移動オブジェクトが背景オブジェクトの手前にある部分の拡大図、(c1)(c2)はそれぞれ(b1)及び(b2)部分の静止ブジェクトの奥行きデータを、(d1)(d2)はそれぞれ(b1)及び(b2)部分の移動ブジェクトの奥行きデータを表す。   Hereinafter, S104 will be described in detail with reference to FIG. FIG. 17 shows an example in which the image of the moving object rendered based on the position and direction of the moving object determined in S102 is combined with the image of the stationary object. FIG. 17A is a part of the composite image, (b1) is an enlarged view of a part where the depth object is in front of the moving object, (b2) is an enlarged view of a part where the moving object is in front of the background object, c1) and (c2) represent the depth data of the stationary objects of the (b1) and (b2) portions, respectively, and (d1) and (d2) represent the depth data of the moving objects of the (b1) and (b2) portions, respectively.

S105では、現在のドットnに対して、静止オブジェクトの奥行きデータ中ドットnに対応する奥行値Zと移動オブジェクトの奥行きデータ中ドットnに対応する奥行値Zとを比較する。図17(b1)に属するドットは、静止オブジェクトの奥行値Z(c1)が移動オブジェクトの奥行値Z(d1)より小さい。図17(b2)に属するドットは、静止オブジェクトの奥行値Z(c2)がすべて臨界値(F)になっているため、移動オブジェクトの奥行値Z(d2)が小さい。   In S105, the depth value Z corresponding to the dot n in the depth data of the stationary object is compared with the depth value Z corresponding to the dot n in the depth data of the moving object for the current dot n. For the dots belonging to FIG. 17 (b1), the depth value Z (c1) of the stationary object is smaller than the depth value Z (d1) of the moving object. In the dots belonging to FIG. 17 (b2), the depth value Z (d2) of the moving object is small because the depth value Z (c2) of the stationary object is all the critical value (F).

S106では、現在のドットnに対して、移動オブジェクトの奥行値Zが静止オブジェクトの奥行値Zよりも小さいか否かを判別することにより、移動オブジェクトが静止オブジェクトよりも手前か否かを判別する。移動オブジェクトの奥行値Zが静止オブジェクトの奥行値Zよりも小さい(移動オブジェクトが静止オブジェクトよりも手前に在る)場合には、S107に移行する。図17(b2)の場合、S107に移動する。   In S106, it is determined whether or not the moving object is nearer than the stationary object by determining whether or not the depth value Z of the moving object is smaller than the depth value Z of the stationary object with respect to the current dot n. . When the depth value Z of the moving object is smaller than the depth value Z of the stationary object (the moving object is in front of the stationary object), the process proceeds to S107. In the case of FIG. 17B2, the process moves to S107.

S107では、第2フレームバッファ領域の当該ドットに対応する位置に記憶されている当該ドットの移動オブジェクトのイメージデータ値を、静止オブジェクトのイメージデータ値が書き込まれている第1フレームバッファ領域の当該ドットに対応する位置に上書きする。   In S107, the image data value of the moving object of the dot stored at the position corresponding to the dot of the second frame buffer area is used as the dot of the first frame buffer area in which the image data value of the still object is written. Overwrite the position corresponding to.

一方、S106において移動オブジェクトが静止オブジェクトよりも手前では無い場合には、当該ドットについて第1フレームバッファ領域の上書きは行わずに、次のドットに対してS105からの処理を繰り返す。図17(b1)の場合、次のドットに対してS105からの処理を繰り返す。   On the other hand, if the moving object is not in front of the stationary object in S106, the process from S105 is repeated for the next dot without overwriting the first frame buffer area for the dot. In the case of FIG. 17B1, the processing from S105 is repeated for the next dot.

S105からS107の処理は、表示しようとする画面の全ドットについてドット毎に繰り返し実行する。全ドットについてS105からS107の処理が終了した後に、静止オブジェクトのスクロール量を決定する。   The processing from S105 to S107 is repeatedly executed for each dot for all dots on the screen to be displayed. After the processing from S105 to S107 is completed for all dots, the scroll amount of the still object is determined.

〔作用効果〕
本実施形態によれば、静止オブジェクトを背景及びデプスオブジェクトに分けて、背景オブジェクトの奥行データは省略でき、転送媒体に書き込むデータの量を減らすことができる。尚、静止オブジェクトの大部分を占める背景オブジェクトは粗いポリゴンを用い、比較的小さな領域を占めるデプスオブジェクトのみ細かいポリゴンを用いてモデリングするために、モデリングの負担を抑制できる。又、デプスオブジェクトはより細かいモデリングが可能になり、静止オブジェクトを3次元モデリングして通常得られる画像より詳細な画像がえられる。
[Function and effect]
According to this embodiment, the still object is divided into the background and the depth object, the depth data of the background object can be omitted, and the amount of data written to the transfer medium can be reduced. The background object occupying most of the stationary object uses a rough polygon, and only the depth object occupying a relatively small area is modeled using a fine polygon, so that the modeling burden can be suppressed. In addition, the depth object can be modeled more finely, and a more detailed image can be obtained than an image normally obtained by three-dimensional modeling of a stationary object.

また、第2実施形態と同様に、静止オブジェクトをレンダリングする際に、3次元モデリングデータをレンダリングして得られた臨時イメージデータに基づいて、より詳細なイメージデータの生成が可能になり、3次元モデリングデータからレンダリングして通常得られるレンダリング処理より詳細な2次元画像を生成できる。また、静止オブジェクトのイメージデータを別途生成するため、静止オブジェクトのモデリングの際、テクスチャデータの生成が不要になり、モデリング作業が簡単である。さらに、通常のレンダリングより詳細な2次元画像の生成が可能になるにもかかわらず、転送媒体に書き込むデータの量、及び転送媒体を読み出すゲーム機1での処理量は殆ど変わらない。   Further, as in the second embodiment, when rendering a stationary object, more detailed image data can be generated based on temporary image data obtained by rendering 3D modeling data. A more detailed two-dimensional image can be generated than a rendering process normally obtained by rendering from modeling data. In addition, since the image data of the still object is separately generated, it is not necessary to generate the texture data when modeling the still object, and the modeling work is simple. Furthermore, although a more detailed two-dimensional image can be generated than normal rendering, the amount of data written to the transfer medium and the processing amount of the game machine 1 that reads the transfer medium are almost the same.

本実施形態よれば、第2オブジェクトのイメージデータのカラー値を持つドットのみ奥行値を記録媒体に書き込み、それ以外のドットに対しては所定値(臨界値far)を書き込むため、例えば、farの値を少ないビット数で表現すれば奥行データのデータ量を低減することができる。また、第2オブジェクトのイメージデータのカラー値を持つドットのみ奥行値を持てば良く、その他のドットにはfarを割り当てれば良いので、奥行データを効率よく圧縮することが可能である。   According to the present embodiment, only the dots having the color value of the image data of the second object are written into the recording medium, and the predetermined value (critical value far) is written into the other dots. If the value is expressed by a small number of bits, the amount of depth data can be reduced. Further, only the dot having the color value of the image data of the second object needs to have the depth value, and it is only necessary to assign far to the other dots, so that the depth data can be efficiently compressed.

第1乃至第3実施形態によれば、コントローラ3からの操作入力に対応して移動オブジェクトの位置及び方向によってリアルタイムでレンダリングする一方、静止オブジェクトのレンダリングをしなくても良いので、演算量を減らすことができる。   According to the first to third embodiments, rendering is performed in real time according to the position and direction of the moving object in response to the operation input from the controller 3, while the stationary object need not be rendered, thereby reducing the amount of calculation. be able to.

第1乃至第3本実施形態によれば、静止オブジェクトをフレームバッファに書き込んでおいて、移動オブジェクトを上書きするため、画像生成際の計算量を減らすことができる。   According to the first to third embodiments, since a still object is written in the frame buffer and the moving object is overwritten, the amount of calculation at the time of image generation can be reduced.

本発明の一実施形態に係る画像処理装置を適用するゲーム機1の外観図である。1 is an external view of a game machine 1 to which an image processing apparatus according to an embodiment of the present invention is applied. ゲーム機1のハードウェアの構成例を示すブロック図である。2 is a block diagram illustrating a configuration example of hardware of the game machine 1. FIG. 外部メモリ5のメモリ空間を図解的に示したメモリマップである。3 is a memory map schematically showing a memory space of an external memory 5. 第1の実施形態に係る第1画像処理のフローチャ―トである。3 is a flowchart of first image processing according to the first embodiment. 第1の実施形態に係る第2画像処理のフローチャ―トである。3 is a flowchart of second image processing according to the first embodiment. 第2の実施形態に係る第1画像処理のフローチャートである。It is a flowchart of the 1st image processing concerning a 2nd embodiment. 第3の実施形態に係る第1画像処理のフローチャ―トである。10 is a flowchart of first image processing according to the third embodiment. 第3の実施形態に係る第2画像処理のフローチャートである。It is a flowchart of the 2nd image processing concerning a 3rd embodiment. 画像生成に係る処理のフローチャートである。It is a flowchart of the process which concerns on image generation. 静止オブジェクトのうち背景オブジェクトの第1画像処理を説明する説明図であり、モデリングデータ(a)、レンダリングデータの臨時イメージデータ(b)、臨時イメージデータに基づいて生成されるイメージデータ(c)を示す図である。It is explanatory drawing explaining the 1st image processing of a background object among stationary objects, Image data (c) produced | generated based on modeling data (a), temporary image data (b) of rendering data, and temporary image data FIG. 移動オブジェクトのモデリングデータの例である。It is an example of modeling data of a moving object. 静止オブジェクトのうちデプスオブジェクトの第1処理を説明する説明図であり、モデリングデータ(a)、レンダリングデータの臨時イメージデータ(b)、レンダリングデータの奥行データ(c)、臨時イメージデータに基づいて生成されるイメージデータイメージデータ(d)を示す図である。It is explanatory drawing explaining the 1st process of a depth object among stationary objects, It produces | generates based on modeling data (a), temporary image data (b) of rendering data, depth data (c) of rendering data, and temporary image data It is a figure which shows the image data image data (d) performed. オーソカメラによるレンダリングを説明する図である。It is a figure explaining rendering by an ortho camera. 静止オブジェクトの奥行データの生成を示す図である。It is a figure which shows the production | generation of the depth data of a still object. 静止オブジェクトと移動オブジェクトとを合成して生成した画像を表す図である。It is a figure showing the image produced | generated by combining a stationary object and a moving object. デプスオブジェクトの構成例を示す図である。It is a figure which shows the structural example of a depth object. 静止オブジェクトと移動オブジェクトとの合成を説明する説明図である。It is explanatory drawing explaining the synthesis | combination of a stationary object and a moving object.

符号の説明Explanation of symbols

1 ゲーム機
2 LCD(液晶ディスプレイ)
3 コントローラ
5 外部メモリ
21 CPU
22 画像処理ユニット
23 メモリ
24 通信ユニット
25 コントローラI/F
26 外部メモリI/F
27 LCDドライバ
1 Game console 2 LCD (liquid crystal display)
3 Controller 5 External memory 21 CPU
22 Image processing unit 23 Memory 24 Communication unit 25 Controller I / F
26 External memory I / F
27 LCD driver

Claims (3)

第1静止オブジェクト及び第2静止オブジェクト各々の3次元モデリングデータを所定の平面上を移動するオーソカメラの視点でレンダリングして、前記第1静止オブジェクトに対してはイメージデータを含むレンダリングデータを、前記第2静止オブジェクトに対してはイメージデータと奥行データとを含むレンダリングデータを第1レンダリング手段により生成し、前記第1静止オブジェクトの前記イメージデータと前記第2静止オブジェクトの前記イメージデータとをイメージデータ生成手段により合成し静止オブジェクトのイメージデータを生成し、前記第2静止オブジェクトの前記奥行データを用いて、静止オブジェクトの奥行データを奥行データ生成手段により生成し、前記静止オブジェクトのイメージデータと前記奥行データとを含む前記静止オブジェクトのレンダリングデータを、移動オブジェクトの3次元モデリングデータとともに書き込んだデータが記憶されたデータ領域、及び、
前記データ領域から、前記静止オブジェクトのレンダリングデータと前記移動オブジェクトの3次元モデリングデータを読出す読出手段と、前記移動オブジェクトの3次元モデリングデータを、前記移動オブジェクトの移動に従い前記所定の平面上を移動するオーソカメラの視点でレンダリングして、前記移動オブジェクトのレンダリングデータを生成する第2レンダリング手段と、前記静止オブジェクトの奥行データと前記第2レンダリング手段で生成された前記移動オブジェクトの奥行データとを比較し、その比較結果を用いて、前記読出手段で読出された前記静止オブジェクトのレンダリングデータと前記第2レンダリング手段で生成された前記移動オブジェクトのレンダリングデータとを合成して2次元の画像を生成する画像生成手段としてコンピュータを機能させる画像処理プログラムが記憶されたプログラム領域、
を含む記録媒体であって、
前記第1レンダリング手段は、
(a)前記第1静止オブジェクト及び第2静止オブジェクト各々の3次元モデリングデータから、仮想の2次元画面を構成する複数のドットのドット毎に、オーソカメラの視点で見たカラー値及び奥行値を演算する手段と、
(b)前記第1静止オブジェクトに対しては前記演算された複数のカラー値を含むイメージデータを有するレンダリングデータを、前記第2静止オブジェクトに対しては前記演算された複数のカラー値を含むイメージデータ及び複数の奥行値を含む奥行データを有するレンダリングデータを生成する手段とを含み、
前記イメージデータ生成手段は、
(a)前記複数のドットのドット毎に、前記第1静止オブジェクト及び前記第2静止オブジェクトのイメージデータの両方共にカラー値を持つドットに対しては前記第2静止オブジェクトのイメージデータのカラー値をメモリに書き込み、前記第1又は第2静止オブジェクト何れか一方のイメージデータにのみカラー値を持つドットに対しては当該カラー値を前記メモリに書き込む第1記録手段と、
(b)前記第1記録手段による処理の終了後、前記メモリに記録されているデータを前記イメージデータとして出力する手段とを含み、
前記奥行データ生成手段は、
(a)前記複数のドットのドット毎に、前記第2静止オブジェクトの奥行データの奥行値を前記メモリに書き込み、前記第2静止オブジェクトのイメージデータのカラー値を持つドット以外のドットに対しては所定値を前記メモリに書き込む第2記録手段と、
(b)前記第2記録手段による処理の終了後、前記メモリに記憶されているデータを前記奥行データとして出力する手段とを含む記録媒体。
Rendering data including three-dimensional modeling data of each of the first still object and the second still object from the viewpoint of an ortho camera moving on a predetermined plane, and including rendering data including image data for the first still object, For the second still object, rendering data including image data and depth data is generated by the first rendering means, and the image data of the first still object and the image data of the second still object are image data. The image data of the stationary object is generated by the generating means, the depth data of the stationary object is generated by the depth data generating means using the depth data of the second stationary object, and the image data of the stationary object and the depth are generated. data Wherein the rendering data of the still object, data area data are stored is written with 3-dimensional modeling data of the moving object including and,,
Reading means for reading out the rendering data of the stationary object and the three-dimensional modeling data of the moving object from the data area, and moving the three-dimensional modeling data of the moving object on the predetermined plane according to the movement of the moving object The second rendering means for rendering from the viewpoint of the ortho camera to generate rendering data of the moving object, and the depth data of the stationary object and the depth data of the moving object generated by the second rendering means are compared. Then, using the comparison result, the rendering data of the stationary object read by the reading unit and the rendering data of the moving object generated by the second rendering unit are combined to generate a two-dimensional image. Image generator Program area in which the image processing program causing a computer to function are stored as,
Including a recording medium ,
The first rendering means includes
(A) From the three-dimensional modeling data of each of the first still object and the second still object, for each of a plurality of dots constituting a virtual two-dimensional screen, a color value and a depth value viewed from the viewpoint of the ortho camera are obtained. Means for calculating;
(B) rendering data having image data including the plurality of calculated color values for the first still object, and image including the plurality of calculated color values for the second still object. Generating rendering data having depth data including data and a plurality of depth values;
The image data generation means includes
(A) For each dot of the plurality of dots, the color value of the image data of the second still object is set to a dot having both color values of the image data of the first still object and the second still object. First recording means for writing to a memory and writing the color value to the memory for a dot having a color value only in the image data of either the first or second still object;
(B) means for outputting the data recorded in the memory as the image data after completion of the processing by the first recording means;
The depth data generating means
(A) For each dot of the plurality of dots, the depth value of the depth data of the second still object is written into the memory, and for dots other than the dot having the color value of the image data of the second still object Second recording means for writing a predetermined value to the memory;
(B) A recording medium including means for outputting the data stored in the memory as the depth data after the processing by the second recording means is completed.
第1静止オブジェクト及び第2静止オブジェクト各々の3次元モデリングデータを所定の平面上を移動するオーソカメラの視点でレンダリングして、前記第1静止オブジェクトに対してはイメージデータを含むレンダリングデータを、前記第2静止オブジェクトに対してはイメージデータと奥行データとを含むレンダリングデータを第1レンダリング手段により生成し、前記第1静止オブジェクトの前記イメージデータと前記第2静止オブジェクトの前記イメージデータとをイメージデータ生成手段により合成し静止オブジェクトのイメージデータを生成し、前記第2静止オブジェクトの前記奥行データを用いて、静止オブジェクトの奥行データを奥行データ生成手段により生成し、前記静止オブジェクトのイメージデータと前記奥行データとを含む前記静止オブジェクトのレンダリングデータを、移動オブジェクトの3次元モデリングデータとともに書き込んだデータが記憶されたデータ領域、及び、
前記データ領域から、前記静止オブジェクトのレンダリングデータと前記移動オブジェクトの3次元モデリングデータを読出す読出手段と、前記移動オブジェクトの3次元モデリングデータを、前記移動オブジェクトの移動に従い前記所定の平面上を移動するオーソカメラの視点でレンダリングして、前記移動オブジェクトのレンダリングデータを生成する第2レンダリング手段と、前記静止オブジェクトの奥行データと前記第2レンダリング手段で生成された前記移動オブジェクトの奥行データとを比較し、その比較結果を用いて、前記読出手段で読出された前記静止オブジェクトのレンダリングデータと前記第2レンダリング手段で生成された前記移動オブジェクトのレンダリングデータとを合成して2次元の画像を生成する画像生成手段としてコンピュータを機能させる画像処理プログラムが記憶されたプログラム領域、
を含む記録媒体であって、
前記画像処理プログラムは、前記仮想の2次元画面上における前記移動オブジェクトの位置及び方向を決定する決定手段をさらに含み、
前記第1レンダリング手段は、
(a)前記第1静止オブジェクト及び第2静止オブジェクト各々の3次元モデリングデータから、仮想の2次元画面を構成する複数のドットのドット毎に、オーソカメラの視点で見たカラー値及び奥行値を演算する手段と、
(b)前記第1静止オブジェクトに対しては前記演算された複数のカラー値を含むイメージデータを有するレンダリングデータを、前記第2静止オブジェクトに対しては前記演算された複数のカラー値を含むイメージデータ及び複数の奥行値を含む奥行データを有するレンダリングデータを生成する手段とを含み、
前記第2レンダリング手段は、
(a)前記移動オブジェクトの3次元モデリングデータから、仮想の2次元画面を構成する複数のドットのドット毎に、前記移動オブジェクトを前記決定手段で決められた位置及び方向に変位してオーソカメラの視点で見たカラー値及び奥行値を演算する手段と、
(b)前記演算された複数のカラー値を含むイメージデータと複数の奥行値を含む奥行データとを有するレンダリングデータを生成する手段とを含み、
前記画像生成手段は、
前記複数のドットのドット毎に、
(a)前記静止オブジェクト及び前記移動オブジェクトの奥行値を比較し、どちらが手前かを決める奥行比較手段、
(b)前記静止オブジェクト及び前記移動オブジェクトのイメージデータの両方共にカラー値を持つドットに対しては、前記奥行比較手段で決められた手前のオブジェクトのイメージデータのカラー値をメモリに書き込み、前記静止オブジェクト又は移動オブジェクトの何れか一方のオブジェクトのイメージデータにのみカラー値を持つドットに対しては当該カラー値を前記メモリに書き込む第3記録手段と、
(c)前記奥行比較手段及び前記第3記録手段による処理が前記複数のドットの全てに対して終了後、前記メモリに記録されているデータを画像として出力する手段とを含む記録媒体。
Rendering data including three-dimensional modeling data of each of the first still object and the second still object from the viewpoint of an ortho camera moving on a predetermined plane, and including rendering data including image data for the first still object, For the second still object, rendering data including image data and depth data is generated by the first rendering means, and the image data of the first still object and the image data of the second still object are image data. The image data of the stationary object is generated by the generating means, the depth data of the stationary object is generated by the depth data generating means using the depth data of the second stationary object, and the image data of the stationary object and the depth are generated. data Wherein the rendering data of the still object, data area data are stored is written with 3-dimensional modeling data of the moving object including and,,
Reading means for reading out the rendering data of the stationary object and the three-dimensional modeling data of the moving object from the data area, and moving the three-dimensional modeling data of the moving object on the predetermined plane according to the movement of the moving object The second rendering means for rendering from the viewpoint of the ortho camera to generate rendering data of the moving object, and the depth data of the stationary object and the depth data of the moving object generated by the second rendering means are compared. Then, using the comparison result, the rendering data of the stationary object read by the reading unit and the rendering data of the moving object generated by the second rendering unit are combined to generate a two-dimensional image. Image generator Program area in which the image processing program causing a computer to function are stored as,
Including a recording medium ,
The image processing program further includes a determination unit that determines a position and a direction of the moving object on the virtual two-dimensional screen,
The first rendering means includes
(A) From the three-dimensional modeling data of each of the first still object and the second still object, for each of a plurality of dots constituting a virtual two-dimensional screen, a color value and a depth value viewed from the viewpoint of the ortho camera are obtained. Means for calculating;
(B) rendering data having image data including the plurality of calculated color values for the first still object, and image including the plurality of calculated color values for the second still object. Generating rendering data having depth data including data and a plurality of depth values;
The second rendering means includes
(A) From the three-dimensional modeling data of the moving object, for each of a plurality of dots constituting a virtual two-dimensional screen, the moving object is displaced in the position and direction determined by the determining means to Means for calculating a color value and a depth value viewed from a viewpoint;
(B) generating rendering data having image data including a plurality of calculated color values and depth data including a plurality of depth values;
The image generation means includes
For each dot of the plurality of dots,
(A) a depth comparison means for comparing depth values of the stationary object and the moving object and determining which is nearer;
(B) For a dot having both color values in the image data of the stationary object and the moving object, the color value of the image data of the near object determined by the depth comparison means is written in the memory, and the stationary data A third recording means for writing the color value into the memory for a dot having a color value only in the image data of either the object or the moving object;
(C) a recording medium including means for outputting the data recorded in the memory as an image after the processing by the depth comparison unit and the third recording unit is completed for all of the plurality of dots.
前記データ領域に記憶された前記静止オブジェクトのイメージデータは、前記第1レンダリング手段により生成された前記第1静止オブジェクト及び/又は前記第2静止オブジェクトのレンダリングデータが、前記第1静止オブジェクト及び/又は前記第2静止オブジェクトの各イメージデータに基づいて生成されたイメージデータに入れ替えられた各イメージデータである
請求項1又は2に記載の記録媒体。
The image data of the stationary object stored in the data area is the rendering data of the first stationary object and / or the second stationary object generated by the first rendering means, and the first stationary object and / or recording medium according to claim 1 or 2 which is the image data that has been replaced with the image data generated based on the image data of the second stationary object.
JP2004294172A 2004-10-06 2004-10-06 Recording medium storing image processing program Active JP4365303B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004294172A JP4365303B2 (en) 2004-10-06 2004-10-06 Recording medium storing image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004294172A JP4365303B2 (en) 2004-10-06 2004-10-06 Recording medium storing image processing program

Publications (2)

Publication Number Publication Date
JP2006107210A JP2006107210A (en) 2006-04-20
JP4365303B2 true JP4365303B2 (en) 2009-11-18

Family

ID=36376867

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004294172A Active JP4365303B2 (en) 2004-10-06 2004-10-06 Recording medium storing image processing program

Country Status (1)

Country Link
JP (1) JP4365303B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6066066B2 (en) * 2013-02-20 2017-01-25 株式会社ジオ技術研究所 Stereoscopic image output system
KR101781028B1 (en) * 2016-08-02 2017-10-23 주식회사 씨투몬스터 Apparatus and method for making conti

Also Published As

Publication number Publication date
JP2006107210A (en) 2006-04-20

Similar Documents

Publication Publication Date Title
JP3294149B2 (en) Three-dimensional texture mapping processing device and three-dimensional image generation device using the same
JP3725524B2 (en) Method for generating computer display image and computer processing system and graphics processor for generating image data
WO1999052077A1 (en) Image drawing device, image drawing method, and providing medium
JP4122573B2 (en) Image processing method and recording medium recording image processing program
JP3949674B2 (en) Display device, display method, and program
JP4383241B2 (en) An image processing system that increases the number of drawn polygons
JP3723301B2 (en) Image creation device, image display device, and game device
JP3372234B2 (en) Reflected image display method, game apparatus, and recording medium
JP3352982B2 (en) Rendering method and device, game device, and computer-readable recording medium for storing program for rendering three-dimensional model
US6339430B1 (en) Video game machine and method for changing texture of models
JP3527672B2 (en) Computer-readable recording medium recording a three-dimensional computer image processing program, shadow drawing processing method, and video game apparatus
JP2005032140A (en) Image generation system, program, and information storage medium
JP4334961B2 (en) Image generation information, information storage medium, and image generation apparatus
JP4749198B2 (en) Program, information storage medium, and image generation system
KR100489572B1 (en) Image processing method
AU2004201817B2 (en) Game software and game machine
JP4365303B2 (en) Recording medium storing image processing program
JP2001126086A (en) Method and device for displaying three-dimensional model in video game, game machine, and computer- readable recording medium storing three-dimensional model displaying program for video game
JPH11331700A (en) Image processing unit and image processing method
KR100848687B1 (en) 3-dimension graphic processing apparatus and operating method thereof
JP2006293470A (en) Drawing system, method therefor, and drawing program
JP3745659B2 (en) Image generating apparatus and image generating program
US7173618B2 (en) Image creation program and method of creating image
JP3910259B2 (en) Image processing apparatus and method, and rendering apparatus and method
JP3872056B2 (en) Drawing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060418

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20060427

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090818

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090820

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4365303

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130828

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130828

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140828

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250