JP2007260271A - Program, information storage medium, and game device - Google Patents

Program, information storage medium, and game device Download PDF

Info

Publication number
JP2007260271A
JP2007260271A JP2006091999A JP2006091999A JP2007260271A JP 2007260271 A JP2007260271 A JP 2007260271A JP 2006091999 A JP2006091999 A JP 2006091999A JP 2006091999 A JP2006091999 A JP 2006091999A JP 2007260271 A JP2007260271 A JP 2007260271A
Authority
JP
Japan
Prior art keywords
image
game
frame
objects
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006091999A
Other languages
Japanese (ja)
Other versions
JP4902847B2 (en
Inventor
Yosuke Kuroda
陽介 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2006091999A priority Critical patent/JP4902847B2/en
Publication of JP2007260271A publication Critical patent/JP2007260271A/en
Application granted granted Critical
Publication of JP4902847B2 publication Critical patent/JP4902847B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To normally carry out picture formation without affecting game proceeding control even if the number of polygons to be desirous to draw by one frame picture exceeds the upper limit of the number of the polygons which can be drawn in one frame time when a game picture is formed with real time. <P>SOLUTION: When the game picture of a game space, in which objects 10A-10C are arranged, is formed, an object picture 20A is formed by carrying out the rendering of the object 10A in the first frame and an object picture 20B is formed by carrying out the rendering of the object 10B in the second frame. In the third frame, the game picture is formed by carrying out the rendering of the game space in which a replacing object 30A, used for carrying out the mapping of the object picture 20A, is changed to the object 10A to arrange and a replacing object 30B, used for carrying out the mapping of the object picture 20B, is changed to the object 10B to arrange. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

プリミティブ面によって形成される複数のオブジェクトが配置されたゲーム空間を所与の視点に基づきレンダリング処理することでフレーム画像を生成する処理を行ってゲームを進行制御するゲーム装置等に関する。   The present invention relates to a game device or the like that performs a process of generating a frame image by rendering a game space in which a plurality of objects formed by primitive surfaces are arranged based on a given viewpoint to control the progress of the game.

従来、ゲーム装置では、画像の生成時間間隔であるフレーム時間毎に、キャラクタ等のオブジェクトを配置したゲーム空間を所与の視点(仮想カメラ等)を基にレンダリングする等して、3DCGのゲーム画像を生成している。近年、このようなゲーム装置では、よりリアルなゲーム画像の生成が求められている。   2. Description of the Related Art Conventionally, in a game device, a 3DCG game image is rendered by rendering a game space in which an object such as a character is arranged based on a given viewpoint (virtual camera or the like) at every frame time that is an image generation time interval. Is generated. In recent years, such game devices have been required to generate more realistic game images.

そこで、よりリアルなゲーム画像を生成する技術として、レンダリング処理されて描画領域に描画された元画像の少なくとも一部をテクスチャとして使用し、このテクスチャをオブジェクトにマッピングした画像を元画像に合成してフレーム画像を生成する技術が知られている。この技術によれば、リアルタイムに変化する環境や状況を反映したリアルな画像を簡易に生成することができる。例えば、背景画像が水面やガラス、炎等を透過して見える場合等の表現がリアル且つ簡易に実現可能となる(例えば、特許文献1参照)。
特開2001−224847号公報
Therefore, as a technique for generating a more realistic game image, at least part of the original image that has been rendered and drawn in the drawing area is used as a texture, and an image obtained by mapping this texture to an object is synthesized with the original image. A technique for generating a frame image is known. According to this technology, it is possible to easily generate a realistic image reflecting an environment or situation that changes in real time. For example, an expression such as when the background image is seen through a water surface, glass, flame, or the like can be realized realistically and easily (see, for example, Patent Document 1).
JP 2001-224847 A

ところで、リアルタイムに画像生成を行う場合、ハードウェアの性能上、1フレーム時間において描画されるポリゴン数に上限がある。このため、この上限を超えるポリゴン数を描画しようとすると、画像の表示更新速度やゲームの進行制御が遅れるいわゆる処理落ちが発生したり、或いは、上限を超えたポリゴンの描画が切り捨てられて一部が欠落した画像が生成されるといった事態が発生する。   By the way, when image generation is performed in real time, there is an upper limit to the number of polygons drawn in one frame time because of hardware performance. For this reason, if you try to draw more polygons than this upper limit, a so-called processing drop occurs that delays the image display update speed and game progress control, or the drawing of polygons exceeding the upper limit is cut off and partially A situation occurs in which an image lacking is generated.

本発明は上記事情に鑑みて為されたものであり、リアルタイムにゲーム画像を生成する際に、1枚のフレーム画像で描画したいポリゴン数が1フレーム時間で描画可能なポリゴン数の上限を超える場合であっても、ゲーム進行制御に影響を与えることなく正常に画像生成できるようにすることを目的としている。   The present invention has been made in view of the above circumstances, and when a game image is generated in real time, the number of polygons to be drawn in one frame image exceeds the upper limit of the number of polygons that can be drawn in one frame time. Even so, an object is to enable normal image generation without affecting the game progress control.

上記課題を解決するための第1の発明は、
コンピュータに、プリミティブ面によって形成される複数のオブジェクト(例えば、図2のオブジェクト10A〜10C)が配置されたゲーム空間を所与の視点に基づきレンダリング処理することでフレーム画像を生成する処理を所与のフレーム時間毎に行わせてゲームを進行制御させるためのプログラム(例えば、図8のゲームプログラム410)であって、
複数フレーム時間で1枚のフレーム画像を生成する処理を実行する複数フレーム時間充当画像生成手段(例えば、図8の処理部200)として前記コンピュータを機能させ、
前記複数フレーム時間充当画像生成手段が、
前記複数のオブジェクトのうち、当該オブジェクトのみを処理対象として前記レンダリング処理を行うオブジェクトを選択する選択手段(例えば、図8の画像生成制御部211;図13のステップS7)と、
前記選択されたオブジェクトを前記視点に基づき前記レンダリング処理することで、当該オブジェクトの画像を生成するオブジェクト画像生成手段(例えば、図8の画像生成部230;図13のステップS15)と、
前記複数のオブジェクトのうち前記選択されたオブジェクト以外については前記視点に基づく前記レンダリング処理を行い、前記選択されたオブジェクトについては前記オブジェクト画像生成手段により生成された画像を用いて前記フレーム画像を合成生成するフレーム画像合成生成手段(例えば、図8の画像生成部230;図13のステップS25)と、
を有するように前記コンピュータを機能させるためのプログラムである。
The first invention for solving the above-described problems is
The computer is given a process of generating a frame image by rendering a game space in which a plurality of objects (for example, the objects 10A to 10C in FIG. 2) formed by primitive surfaces are arranged based on a given viewpoint. A program (for example, the game program 410 in FIG. 8) for controlling the progress of the game at every frame time,
Causing the computer to function as multiple frame time appropriate image generation means (for example, the processing unit 200 in FIG. 8) that executes processing for generating a single frame image in multiple frame times;
The multiple frame time allocation image generating means
A selection unit (for example, the image generation control unit 211 in FIG. 8; step S7 in FIG. 13) that selects an object to be subjected to the rendering process among the plurality of objects only as a processing target;
An object image generation means (for example, the image generation unit 230 in FIG. 8; step S15 in FIG. 13) that generates the image of the object by rendering the selected object based on the viewpoint;
For the objects other than the selected object among the plurality of objects, the rendering processing based on the viewpoint is performed, and the frame image is synthesized and generated for the selected object using the image generated by the object image generation unit. Frame image composition generation means (for example, image generation unit 230 in FIG. 8; step S25 in FIG. 13);
A program for causing the computer to function so as to have

また、第9の発明は、
プリミティブ面によって形成される複数のオブジェクトが配置されたゲーム空間を所与の視点に基づきレンダリング処理することでフレーム画像を生成する処理を所与のフレーム時間毎に行ってゲームを進行制御するゲーム装置(例えば、図1,8の家庭用ゲーム装置1200)であって、
複数フレーム時間で1枚のフレーム画像を生成する処理を実行する複数フレーム時間充当画像生成手段(例えば、図8の処理部200)を備え、
更に前記複数フレーム時間充当画像生成手段が、
前記複数のオブジェクトのうち、当該オブジェクトのみを処理対象として前記レンダリング処理を行うオブジェクトを選択する選択手段(例えば、図8の画像生成制御部211)と、
前記選択されたオブジェクトを前記視点に基づき前記レンダリング処理することで、当該オブジェクトの画像を生成するオブジェクト画像生成手段(例えば、図8の画像生成部230)と、
前記複数のオブジェクトのうち前記選択されたオブジェクト以外については前記視点に基づく前記レンダリング処理を行い、前記選択されたオブジェクトについては前記オブジェクト画像生成手段により生成された画像を用いて前記フレーム画像を合成生成するフレーム画像合成生成手段(例えば、図8の画像生成部230)と、
を有するゲーム装置である。
In addition, the ninth invention,
A game device that controls the progress of a game by performing a process of generating a frame image for each given frame time by rendering a game space in which a plurality of objects formed by primitive surfaces are arranged based on a given viewpoint. (For example, the home game device 1200 of FIGS. 1 and 8),
A plurality of frame time appropriate image generation means (for example, the processing unit 200 in FIG. 8) that executes a process of generating one frame image in a plurality of frame times;
Further, the multiple frame time allocation image generating means,
A selection unit (for example, the image generation control unit 211 in FIG. 8) that selects an object to be subjected to the rendering process with only the object as a processing target among the plurality of objects;
An object image generation unit (for example, the image generation unit 230 in FIG. 8) that generates the image of the object by rendering the selected object based on the viewpoint;
For the objects other than the selected object among the plurality of objects, the rendering processing based on the viewpoint is performed, and the frame image is synthesized and generated for the selected object using the image generated by the object image generation unit. Frame image composition generation means (for example, the image generation unit 230 in FIG. 8),
Is a game device.

この第1又は第9の発明によれば、ゲーム空間に配置された複数のオブジェクトのうちから選択されたオブジェクトを視点に基づきレンダリング処理することで当該オブジェクトの画像が生成されるとともに、選択されたオブジェクト以外については視点に基づくレンダリング処理が行われ、選択されたオブジェクトについては生成された画像を用いてフレーム画像が合成生成されることで、複数のフレーム時間で1枚のフレーム画像が生成される。   According to the first or ninth invention, an image of the object is generated by rendering the object selected from the plurality of objects arranged in the game space based on the viewpoint, and the selected object is selected. Rendering based on the viewpoint is performed for objects other than the object, and a frame image is synthesized and generated for the selected object using the generated image, so that one frame image is generated in a plurality of frame times. .

つまり、複数のオブジェクトのうち幾つかのオブジェクトそれぞれをフレーム毎にレンダリング処理し、生成された画像を合成することで、複数のフレーム時間で1枚のフレーム画像が生成される。これにより、1枚のフレーム画像で描画したいポリゴン数が、ハードウェアの性能により制限される1フレーム時間で描画可能なポリゴン数の上限を超えた場合であっても、フレーム画像の更新速度は遅くなるが、生成されるフレーム画像の欠落といったことが防止され、正常なフレーム画像の生成が実現される。   That is, by rendering each of several objects among a plurality of objects and synthesizing the generated images, one frame image is generated in a plurality of frame times. As a result, even when the number of polygons to be drawn in one frame image exceeds the upper limit of the number of polygons that can be drawn in one frame time, which is limited by hardware performance, the frame image update speed is slow. However, it is possible to prevent the generation of a frame image to be generated and to realize normal frame image generation.

第2の発明は、第1の発明のプログラムであって、
前記各オブジェクトを形成するプリミティブ面に基づいて、前記フレーム画像の生成処理が、少なくともプリミティブ面に関する1フレーム時間内に描画可能な条件として予め定められた描画可能条件を満たさないことを検出する検出手段(例えば、図8の画像生成制御部211;図13のステップS7)として前記コンピュータを機能させ、
前記複数フレーム時間充当画像生成手段が、前記検出手段により検出された際に、複数フレーム時間で1枚のフレーム画像を生成する処理を実行するように前記コンピュータを機能させるためのプログラムである。
The second invention is the program of the first invention,
Detection means for detecting, based on a primitive surface forming each object, that the frame image generation processing does not satisfy a drawing condition that is predetermined as a condition for drawing within at least one frame time related to the primitive surface. (For example, the image generation control unit 211 in FIG. 8; step S7 in FIG. 13) causes the computer to function,
A program for causing the computer to function so as to execute a process of generating one frame image in a plurality of frame times when the plurality of frame time appropriate image generating means is detected by the detecting means.

この第2の発明によれば、各オブジェクトを形成するプリミティブ面に基づいて、フレーム画像の生成処理が、少なくともプリミティブ面に関する1フレーム時間内に描画可能な条件として定められた描画条件を満たさないことが検出された際に、複数フレーム時間で1枚のフレーム画像が生成される。これにより、描画可能条件を満たさない場合には複数フレーム時間で1枚のフレーム画像が生成され、描画可能条件を満たす場合には、従来のように1フレーム時間で1枚のフレーム画像が生成されるといったように、1枚のフレーム画像を複数フレーム時間或いは1フレーム時間の何れで生成するかを、適切に応じて切り替えることができる。   According to the second aspect of the invention, based on the primitive surface forming each object, the generation process of the frame image does not satisfy the drawing condition defined as a condition for drawing within at least one frame time related to the primitive surface. Is detected, a single frame image is generated in a plurality of frame times. As a result, when the drawable condition is not satisfied, one frame image is generated in a plurality of frame times. When the drawable condition is satisfied, one frame image is generated in one frame time as in the prior art. As described above, it is possible to appropriately switch whether one frame image is generated in a plurality of frame times or one frame time.

第3の発明は、第2の発明のプログラムであって、
前記検出手段が、所定数以上登場した場合に前記描画可能条件を満たさない旨予め設定された特定オブジェクトが前記ゲームに前記所定数以上登場したことを検出する特定オブジェクト検出手段(例えば、図8の画像生成制御部211;図13のステップS7)を有するように前記コンピュータを機能させるためのプログラムである。
The third invention is the program of the second invention,
When the detection means appears a predetermined number or more, the specific object detection means (for example, FIG. 8) detects that a predetermined specific object that does not satisfy the drawable condition has appeared in the game. This is a program for causing the computer to function so as to have the image generation control unit 211; Step S7) of FIG.

この第3の発明によれば、所定数以上登場した場合に描画条件を満たさない旨予め設定された特定オブジェクトがゲームに所定数以上登場したことが、描画可能条件を満たさないこととして検出される。つまり、所定の特定オブジェクトが所定数以上登場したときに、複数フレーム時間で1枚のフレーム画像が生成される。従って、何れのオブジェクトがゲームに登場したかにより、1枚のフレーム画像を複数フレーム時間或いは1フレーム時間の何れで生成するかの切り替えを容易に判断できる。   According to the third aspect of the invention, when a predetermined number of specific objects that do not satisfy the drawing condition when they appear more than a predetermined number appear in the game as a predetermined number or more are detected as not satisfying the drawable condition . That is, when a predetermined number of specific objects appear, one frame image is generated in a plurality of frame times. Therefore, it is possible to easily determine whether one frame image is generated in a plurality of frame times or one frame time depending on which object has appeared in the game.

第4の発明は、第1〜第3の何れかの発明のプログラムであって、
前記複数フレーム時間充当画像生成手段によるフレーム画像の生成にかかるフレーム時間を算出する算出手段(例えば、図8の画像生成制御部211;図13のステップS13)、
前記複数フレーム時間充当画像生成手段によるフレーム画像の生成の間に、前記算出されたフレーム時間分前記ゲームを進行制御させる複数フレーム時間進行制御手段(例えば、図8のゲーム演算部210;図13のステップS29)、
として前記コンピュータを機能させるためのプログラムである。
The fourth invention is the program of any one of the first to third inventions,
A calculation means for calculating a frame time required to generate a frame image by the multiple frame time appropriate image generation means (for example, the image generation control unit 211 in FIG. 8; step S13 in FIG. 13);
A plurality of frame time progress control means (for example, the game calculation unit 210 of FIG. 8; FIG. 13) that controls the progress of the game by the calculated frame time during the generation of the frame image by the plurality of frame time appropriate image generation means. Step S29),
As a program for causing the computer to function.

この第4の発明によれば、複数フレームでの1枚のフレーム画像の生成の間に、該フレーム画像の生成にかかるフレーム時間分ゲームが進行制御される。これにより、複数フレーム時間をかけて生成されることでフレーム画像の表示更新速度は遅くなるが、ゲームの進行制御が遅れることはなく、いわゆる処理落ちが防止される。   According to the fourth aspect of the invention, during the generation of a single frame image in a plurality of frames, the game is controlled in progress for the frame time required to generate the frame image. Thus, although the display update speed of the frame image is slowed by being generated over a plurality of frame times, the progress control of the game is not delayed, and so-called processing failure is prevented.

第5の発明は、第1〜第4の何れかの発明のプログラムであって、
前記フレーム画像合成生成手段が、前記オブジェクト画像生成手段により生成された画像をマッピングした代替オブジェクト(例えば、図5の代替オブジェクト30)を、前記選択手段により選択されたオブジェクトに代えて前記ゲーム空間に配置する代替配置手段(例えば、図8の画像生成制御部211;図13のステップS23)を有し、前記代替配置手段により前記代替オブジェクトが代替配置された前記ゲーム空間を前記視点に基づき前記レンダリング処理することで前記合成生成を行うように前記コンピュータを機能させるためのプログラムである。
A fifth invention is a program according to any one of the first to fourth inventions,
The frame image composition generating means replaces the substitute object (for example, the substitute object 30 in FIG. 5) obtained by mapping the image generated by the object image generating means with the object selected by the selecting means in the game space. Rendering means for placing (for example, the image generation control unit 211 in FIG. 8; step S23 in FIG. 13), and rendering the game space in which the substitute object is placed by the substitute placement means based on the viewpoint. It is a program for causing the computer to function so as to perform the synthesis and generation by processing.

この第5の発明によれば、複数のオブジェクトのうちから選択されたオブジェクトをレンダリング処理して生成された画像をマッピングした代替オブジェクトが該選択されたオブジェクトに代えてゲーム空間に配置され、代替オブジェクトが代替配置されたゲーム空間を視点に基づきレンダリング処理することで、合成生成が行われてフレーム画像が生成される。   According to the fifth aspect of the present invention, an alternative object obtained by mapping an image generated by rendering an object selected from a plurality of objects is arranged in the game space instead of the selected object, and the alternative object Rendering is performed based on the viewpoint in the game space in which is alternatively arranged, so that a composite image is generated and a frame image is generated.

第6の発明は、第1〜第5の何れかの発明のプログラムであって、
前記オブジェクトのプリミティブ面の形成構造は部位によって異なり、
前記選択手段が、前記視点の視線方向に対する前記各オブジェクトそれぞれの相対向きに基づいてオブジェクトを選択するように前記コンピュータを機能させるためのプログラムである。
A sixth invention is a program according to any one of the first to fifth inventions,
The formation structure of the primitive surface of the object differs depending on the part,
The selection unit is a program for causing the computer to function so as to select an object based on a relative orientation of each object with respect to a viewing direction of the viewpoint.

この第6の発明によれば、オブジェクトのプリミティブ面の形成構造は部位によって異なり、視点の視線方向に対する各オブジェクトそれぞれの相対向きに基づいて、当該オブジェクトのみを処理対象としてレンダリング処理を行うオブジェクトが選択される。つまり、視点の視線方向に対するオブジェクトの相対向きが異なる、即ちオブジェクトに対する視線方向の相対向きが異なると、視点を基に該オブジェクトをレンダリング処理する際に描画されるプリミティブ面の数が異なる。これにより、例えば1回のレンダリング処理で描画可能なプリミティブ面の数を超えないよう、複数のオブジェクトのうちからオブジェクトを選択することで、複数フレーム時間での1枚のフレーム画像の生成を、効率良く行うことが可能となる。   According to the sixth aspect of the invention, the formation structure of the primitive surface of the object differs depending on the part, and the object to be rendered is selected based on the relative orientation of each object with respect to the visual line direction of the viewpoint. Is done. That is, if the relative direction of the object with respect to the viewing direction of the viewpoint is different, that is, the relative direction of the viewing direction with respect to the object is different, the number of primitive surfaces drawn when rendering the object based on the viewpoint is different. Thus, for example, by selecting an object from a plurality of objects so as not to exceed the number of primitive surfaces that can be drawn in one rendering process, it is possible to efficiently generate one frame image in a plurality of frame times. It is possible to perform well.

第7の発明は、第1〜第5の何れかの発明のプログラムであって、
前記選択手段が、前記ゲーム空間に配置されたオブジェクトのうちの一部のオブジェクトを、一括して前記レンダリング処理する処理対象として選択し、
前記オブジェクト画像生成手段が、前記選択手段により選択されたオブジェクトを一括して前記レンダリング処理する、
ように前記コンピュータを機能させるためのプログラムである。
The seventh invention is a program according to any one of the first to fifth inventions,
The selection means selects a part of the objects arranged in the game space as a processing target for the rendering process in a batch,
The object image generation means collectively performs the rendering process on the objects selected by the selection means;
Is a program for causing the computer to function.

この第7の発明によれば、ゲーム空間に配置されたオブジェクトのうちの一部のオブジェクトが一括してレンダリング処理する処理対象として選択され、選択されたオブジェクトが一括してレンダリング処理される。従って、複数のオブジェクトのうちの一部のオブジェクトが一括してレンダリング処理されるため、正常な画像生成を可能としつつ、1枚のフレーム画像の生成に要する複数フレーム時間の削減が可能となる、   According to the seventh aspect, some of the objects arranged in the game space are selected as processing targets to be collectively rendered, and the selected objects are collectively rendered. Accordingly, since some of the plurality of objects are collectively rendered, it is possible to reduce the multiple frame time required to generate one frame image while enabling normal image generation.

第8の発明は、第1〜第7の何れかの発明のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体(例えば、図8の記憶部400)である。   The eighth invention is a computer-readable information storage medium (for example, the storage unit 400 in FIG. 8) storing the program of any one of the first to seventh inventions.

ここで、情報記憶媒体とは、記憶されている情報をコンピュータが読み取り可能な、例えばハードディスクやMO、CD−ROM、DVD、メモリカード、ICメモリ等の記憶媒体である。従って、この第8の発明によれば、情報記憶媒体に記憶されている情報をコンピュータに読み取らせて演算処理を実行させることで、第1〜第7の発明と同様の効果を奏することができる。   Here, the information storage medium is a storage medium such as a hard disk, an MO, a CD-ROM, a DVD, a memory card, or an IC memory that can be read by a computer. Therefore, according to the eighth aspect, the same effects as those of the first to seventh aspects can be obtained by causing the computer to read the information stored in the information storage medium and executing the arithmetic processing. .

本発明によれば、複数のオブジェクトのうち幾つかのオブジェクトそれぞれをフレーム毎にレンダリング処理し、生成された画像を合成することで、複数のフレーム時間で1枚のフレーム画像が生成される。これにより、1枚のフレーム画像で描画したいポリゴン数が、ハードウェアの性能により制限される1フレーム時間で描画可能なポリゴン数の上限を超えた場合であっても、フレーム画像の更新速度は遅くなるが、生成されるフレーム画像の欠落といったことが防止され、正常なフレーム画像の生成が実現される。   According to the present invention, one frame image is generated in a plurality of frame times by rendering each of several objects among a plurality of objects for each frame and synthesizing the generated images. As a result, even when the number of polygons to be drawn in one frame image exceeds the upper limit of the number of polygons that can be drawn in one frame time, which is limited by hardware performance, the frame image update speed is slow. However, it is possible to prevent the generation of a frame image to be generated and to realize normal frame image generation.

以下、本発明に好適な実施形態を説明する。尚、以下では、本発明を家庭用ゲーム装置に適用した場合を説明するが、本発明の適用可能な実施形態がこれに限定されるものではない。また、以下の説明における「フレーム」とは、業界用語として用いられている用法、即ち、例えば1/60秒等の単位フレーム時間としての意味で用い、1枚の画像として用いる場合は「フレーム画像」という。   Hereinafter, preferred embodiments of the present invention will be described. In the following, a case where the present invention is applied to a consumer game device will be described. However, embodiments to which the present invention can be applied are not limited thereto. The term “frame” in the following description is used as an industry term, that is, meaning as a unit frame time such as 1/60 seconds, for example. "

[ゲーム装置の外観]
図1は、本実施形態における家庭用ゲーム装置1200の概略外観図である。同図に示すように、家庭用ゲーム装置1200は、本体装置1210と、プレーヤがゲーム操作を入力するための方向キー1221やボタンスイッチ1222を有するゲームコントローラ1220と、スピーカ1231を有するディスプレイ1230とを備える。ゲームコントローラ1220は本体装置1210に接続され、ディスプレイ1230は、画像信号及び音信号を伝送可能なケーブル1201によって本体装置1210に接続されている。
[Appearance of game device]
FIG. 1 is a schematic external view of a consumer game device 1200 according to this embodiment. As shown in the figure, a consumer game device 1200 includes a main body device 1210, a game controller 1220 having direction keys 1221 and button switches 1222 for a player to input a game operation, and a display 1230 having a speaker 1231. Prepare. The game controller 1220 is connected to the main apparatus 1210, and the display 1230 is connected to the main apparatus 1210 by a cable 1201 capable of transmitting image signals and sound signals.

本体装置1210がゲーム処理を行うために必要なプログラムやデータ等を含むゲーム情報等は、例えば本体装置1210に着脱自在な情報記憶媒体であるCD−ROM1212やメモリカード1213、ICカード1214等に格納されている。尚、このゲーム情報等は、本体装置1210が具備する通信装置1215を介して通信回線Nに接続し、外部装置から取得することとしても良い。ここで、通信回線Nとは、データ授受が可能な通信路を意味する。即ち、通信回線Nとは、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網、インターネット等の通信網を含む意味であり、また、通信方式については有線/無線を問わない。   Game information including programs and data necessary for the main body device 1210 to perform game processing is stored in, for example, a CD-ROM 1212, a memory card 1213, an IC card 1214, or the like, which is an information storage medium detachable from the main body device 1210. Has been. The game information and the like may be acquired from an external device by connecting to the communication line N via the communication device 1215 provided in the main body device 1210. Here, the communication line N means a communication path through which data can be exchanged. That is, the communication line N is meant to include a communication network such as a telephone communication network, a cable network, and the Internet in addition to a dedicated line (dedicated cable) for direct connection and a LAN using Ethernet (registered trademark). The communication method is not limited to wired / wireless.

また、本体装置1210は、例えばCPU、ROMやRAM等のメモリを搭載した制御ユニット1211と、CD−ROM1212等の情報記憶媒体の読取装置とを具備する。本体装置1210は、CD−ROM1212等から読み出したゲーム情報と、ゲームコントローラ1220からの操作信号とに基づいて種々のゲーム処理を実行し、ゲーム画面の画像信号及びゲーム音の音信号を生成する。そして、生成した画像信号及び音信号をディスプレイ1230に出力して、ディスプレイ1230にゲーム画面を表示させるとともに、スピーカ1231からゲーム音を出力させる。プレーヤは、ディスプレイ1230に表示されたゲーム画面を見、スピーカ1231から出力されるゲーム音を聞きながら、ゲームコントローラ1220を操作してゲームを楽しむ。   The main unit 1210 includes a control unit 1211 equipped with a memory such as a CPU, ROM, and RAM, and an information storage medium reader such as a CD-ROM 1212. The main device 1210 executes various game processes based on the game information read from the CD-ROM 1212 and the like and the operation signal from the game controller 1220, and generates a game screen image signal and a game sound signal. Then, the generated image signal and sound signal are output to the display 1230, a game screen is displayed on the display 1230, and a game sound is output from the speaker 1231. The player enjoys the game by operating the game controller 1220 while watching the game screen displayed on the display 1230 and listening to the game sound output from the speaker 1231.

[原理]
本実施形態の画像生成の原理を説明する。
従来のゲーム装置では、1フレーム毎に、ゲーム空間をレンダリングして画像を生成し、生成した画像を更新表示するといった一連の処理を繰り返すことで、リアルタイムな画像生成・表示を行っている。しかし、ハードウェアの性能に起因して1フレーム時間に描画できるポリゴン数に上限があり、1枚のフレーム画像で描画するポリゴンの総数がこの上限を超えた場合、いわゆる処理落ち、或いはゲーム画像の欠落が発生する。そこで、本実施形態は、このような事態を回避するため、ゲーム空間に配置されているオブジェクトが所定の条件を満たす場合、複数フレーム時間で1枚のゲーム画像(フレーム画像)を生成する。
[principle]
The principle of image generation according to this embodiment will be described.
In a conventional game apparatus, real-time image generation / display is performed by repeating a series of processes such as rendering a game space for each frame, generating an image, and updating and displaying the generated image. However, due to hardware performance, there is an upper limit on the number of polygons that can be drawn in one frame time, and if the total number of polygons drawn in one frame image exceeds this upper limit, so-called processing failure or game image Missing occurs. Therefore, in order to avoid such a situation, the present embodiment generates one game image (frame image) in a plurality of frame times when an object arranged in the game space satisfies a predetermined condition.

具体的に説明する。
図2は、オブジェクトが配置されたゲーム空間の一例を示す図である。同図では、3つのオブジェクト10A〜10C(以下、包括的に「オブジェクト10」という)と、このオブジェクト10A〜10Cを視野内に収める視点(仮想カメラ)CMとが配置されている。このゲーム空間の画像は、次のように生成される。
This will be specifically described.
FIG. 2 is a diagram illustrating an example of a game space in which objects are arranged. In the figure, three objects 10A to 10C (hereinafter, collectively referred to as “object 10”) and a viewpoint (virtual camera) CM that places the objects 10A to 10C in the field of view are arranged. The game space image is generated as follows.

先ず、視点CMの視野内のオブジェクト10のうちから、該オブジェクト10を構成するポリゴン数と視点CMの視線方向とを基に特定オブジェクトが判定される。ここでは、オブジェクト10A,10Bが特定オブジェクトであるとする。特定オブジェクトの判定については、詳細を後述する。   First, a specific object is determined from the objects 10 in the visual field of the viewpoint CM based on the number of polygons constituting the object 10 and the line-of-sight direction of the viewpoint CM. Here, it is assumed that the objects 10A and 10B are specific objects. Details of the determination of the specific object will be described later.

次いで、各特定オブジェクトを1フレーム毎に順にレンダリングして該特定オブジェクトの画像(以下、「オブジェクト画像」という)が生成される。即ち、1フレーム目では、図3に示すように、オブジェクト10Aをレンダリングして、該オブジェクト10Aのオブジェクト画像20Aが生成される。続く2フレーム目では、図4に示すように、オブジェクト10Bをレンダリングして、該オブジェクト10Bのオブジェクト画像20Bが生成される。   Next, each specific object is sequentially rendered for each frame to generate an image of the specific object (hereinafter referred to as “object image”). That is, in the first frame, as shown in FIG. 3, the object 10A is rendered, and an object image 20A of the object 10A is generated. In the subsequent second frame, as shown in FIG. 4, the object 10B is rendered, and an object image 20B of the object 10B is generated.

そして、全ての特定オブジェクトのオブジェクト画像20が生成されると、その次のフレームにおいて、各特定オブジェクトに替えて代替オブジェクト30を配置し、ゲーム空間をレンダリングして該ゲーム空間の画像(ゲーム画像)が生成される。ここで、代替オブジェクト30は、1枚の板状のポリゴン(板ポリゴン)にオブジェクト画像20をマッピングしたオブジェクトである。また、代替オブジェクト30は、対応する特定オブジェクトに基づく位置(例えば、該特定オブジェクトの代表点の位置)に、いわゆるビルボード処理されて視点CMの視線方向に対して垂直に対向させて配置される。   When the object images 20 of all the specific objects are generated, the substitute object 30 is arranged in place of each specific object in the next frame, the game space is rendered, and an image of the game space (game image) Is generated. Here, the substitute object 30 is an object obtained by mapping the object image 20 on one plate-like polygon (plate polygon). The substitute object 30 is so-called billboard-processed at a position based on the corresponding specific object (for example, the position of the representative point of the specific object) and is arranged so as to face the line of sight of the viewpoint CM. .

即ち、3フレーム目では、図5に示すように、ゲーム空間には、オブジェクト10Aの位置に該オブジェクト10Aに替えて代替オブジェクト30Aが配置され、オブジェクト10Bの位置に該オブジェクト10Bに替えて代替オブジェクト30Bが配置される。つまり、ゲーム空間には、代替オブジェクト30A,30Bと、オブジェクト10Cとが配置されている。代替オブジェクト30Aは、オブジェクト10Aをレンダリングしたオブジェクト画像20Aが板ポリゴンにマッピングされたオブジェクトであり、代替オブジェクト30Bは、オブジェクト10Bをレンダリングしたオブジェクト画像20Bが板ポリゴンにマッピングされたオブジェクトである。そして、このゲーム空間が視点CMを基にレンダリングされて、3つのオブジェクト10A〜10Cが表示されたゲーム画像が生成される。   That is, in the third frame, as shown in FIG. 5, in the game space, the substitute object 30A is placed in place of the object 10A at the position of the object 10A, and the substitute object is placed in place of the object 10B. 30B is arranged. That is, the substitute objects 30A and 30B and the object 10C are arranged in the game space. The substitute object 30A is an object in which the object image 20A in which the object 10A is rendered is mapped to a plate polygon, and the substitute object 30B is an object in which the object image 20B in which the object 10B is rendered is mapped to a plate polygon. Then, the game space is rendered based on the viewpoint CM, and a game image in which the three objects 10A to 10C are displayed is generated.

つまり、1枚のゲーム画像の生成に要する時間は、特定オブジェクトの数を「N」とした場合、「N+1」フレームとなる。その内訳は、N個の特定オブジェクトそれぞれのレンダリングに要する「N」フレームと、代替オブジェクト30を配置したゲーム空間のレンダリングに要する「1」フレームとの合計である。但し、1枚のゲーム画像を生成する「N+1」フレームの間、オブジェクト10及び視点CMは、その位置や姿勢等が変化しない。   That is, the time required to generate one game image is “N + 1” frames when the number of specific objects is “N”. The breakdown is the total of the “N” frame required for rendering each of the N specific objects and the “1” frame required for rendering the game space in which the substitute object 30 is arranged. However, the position and orientation of the object 10 and the viewpoint CM do not change during the “N + 1” frame for generating one game image.

ゲーム空間に配置されているオブジェクト10が特定オブジェクトであるか否かは、視点CMに基づくレンダリングを行ったと仮定した場合に描画される該オブジェクト10のポリゴン数(以下、「描画ポリゴン数」という)が所定数以上であるか否かにより判定される。オブジェクト10は多数のポリゴンで構成されるが、部位によってその形成構造は均一ではない。つまり、図6に示すように、同一のオブジェクト10であっても、視線方向が異なると描画ポリゴン数が異なる。同図は新幹線オブジェクトを示しており、この新幹線オブジェクトは、正面側(オブジェクトの向きの側)は凹凸を成す滑らかな曲面形状に形成され、背面側はほぼ平面状に形成されている。このため、例えばオブジェクトの向きに垂直な平面40で前方/後方に分けた場合、前方側の視線方向V1,V2から見たときの描画ポリゴン数は、後方側の視線方向V3,V4から見たときの描画ポリゴン数より多い。   Whether or not the object 10 arranged in the game space is a specific object is determined based on the number of polygons of the object 10 rendered when rendering based on the viewpoint CM is performed (hereinafter referred to as “number of drawn polygons”). Is determined by whether or not is greater than or equal to a predetermined number. The object 10 is composed of a large number of polygons, but the formation structure is not uniform depending on the part. That is, as shown in FIG. 6, even if the object 10 is the same, the number of drawn polygons is different when the line-of-sight direction is different. This figure shows a Shinkansen object. The Shinkansen object is formed in a smooth curved surface shape having irregularities on the front side (object direction side), and is substantially flat on the back side. For this reason, for example, when the plane 40 perpendicular to the direction of the object is divided forward / rearward, the number of drawn polygons when viewed from the front gaze directions V1, V2 is viewed from the rear gaze directions V3, V4. More than the number of drawn polygons.

このため、図7に示すように、対象のオブジェクト10に対する視線方向の相対向きが判断される。ここでは、視線方向の相対向きは、オブジェクト10の向きに垂直且つ該オブジェクト10の代表点を通る平面40を境界として、オブジェクト10を正面側から見る「前方」と、オブジェクト10の後方側から見る「後方」との2種類とする。そして、オブジェクト10に対する視線方向の相対向きは、該オブジェクト10の向きと視線方向との成す角度θから判断され、具体的には、角度θの絶対値|θ|が90度以上ならば「前方」と判断され、90度より小さいならば「後方」と判断される。同図では、オブジェクト10に対する視点CM1の視線方向V1の相対向きは「後方」と判断され、視点CM2の視線方向の相対向きは「前方」と判断される。   For this reason, as shown in FIG. 7, the relative orientation of the line-of-sight direction with respect to the target object 10 is determined. Here, the relative direction of the line-of-sight direction is “front” when the object 10 is viewed from the front side and the rear side of the object 10 with the plane 40 perpendicular to the direction of the object 10 and passing through the representative point of the object 10 as a boundary. There are two types, “rear”. The relative direction of the line-of-sight direction with respect to the object 10 is determined from the angle θ formed by the direction of the object 10 and the line-of-sight direction. Specifically, if the absolute value | θ | If the angle is less than 90 degrees, it is determined as “backward”. In the drawing, the relative direction of the visual line direction V1 of the viewpoint CM1 with respect to the object 10 is determined as “rear”, and the relative direction of the visual line direction of the viewpoint CM2 is determined as “front”.

そして、判断された相対向きでの描画ポリゴン数が所定の閾値以上であるか否かにより、該オブジェクト10が特定オブジェクトであるか否かを判定する。ここで、判定の基準となる閾値は、ハードウェアの性能から得られる1フレーム時間のレンダリングで描画可能なポリゴン数の上限を基に設定される。例えば、同一方向を向いたある2つのオブジェクトを1フレーム時間でレンダリングすると1フレーム時間での描画可能なポリゴン数の上限を超える場合の該オブジェクトが特定オブジェクトと判定される程度の値に設定される。   Then, it is determined whether or not the object 10 is a specific object based on whether or not the determined number of drawn polygons in the relative orientation is equal to or greater than a predetermined threshold. Here, the threshold value serving as a criterion for determination is set based on the upper limit of the number of polygons that can be drawn by rendering for one frame time obtained from the performance of hardware. For example, if two objects facing the same direction are rendered in one frame time, the value is set so that the object is determined as a specific object when the upper limit of the number of polygons that can be drawn in one frame time is exceeded. .

[機能構成]
図8は、家庭用ゲーム装置1200の機能構成を示すブロック図である。同図によれば、家庭用ゲーム装置1200は、機能的には、操作入力部100と、処理部200と、画像表示部330と、音出力部340と、記憶部400とを備えて構成される。
[Function configuration]
FIG. 8 is a block diagram showing a functional configuration of the consumer game device 1200. According to the figure, the home game device 1200 is functionally configured to include an operation input unit 100, a processing unit 200, an image display unit 330, a sound output unit 340, and a storage unit 400. The

操作入力部100は、プレーヤによる操作指示入力を受け付け、操作に応じた操作信号を処理部200に出力する。この機能は、例えばボタンスイッチやレバー、ダイヤル、マウス、キーボード、各種センサ等によって実現される。図1では、ゲームコントローラ1220がこれに該当する。   The operation input unit 100 receives an operation instruction input from the player and outputs an operation signal corresponding to the operation to the processing unit 200. This function is realized by, for example, a button switch, lever, dial, mouse, keyboard, various sensors, and the like. In FIG. 1, the game controller 1220 corresponds to this.

処理部200は、家庭用ゲーム装置1200の全体制御やゲームの進行、画像生成等の各種演算処理を行う。この機能は、例えばCPU(CISC型、RISC型)、ASIC(ゲートアレイ等)等の演算装置やその制御プログラムにより実現される。図1では、制御ユニット1211に実装されているCPU等がこれに該当する。   The processing unit 200 performs various operations such as overall control of the home game device 1200, game progress, and image generation. This function is realized by, for example, an arithmetic device such as a CPU (CISC type, RISC type), ASIC (gate array, etc.) or a control program thereof. In FIG. 1, a CPU or the like mounted on the control unit 1211 corresponds to this.

また、処理部200は、主にゲームの実行に係る演算処理を行うゲーム演算部210と、ゲーム演算部210の処理によって求められた各種のデータに基づき、仮想カメラ等の所与の視点から見た仮想三次元空間(ゲーム空間)の画像を生成する画像生成部230と、効果音やBGM等のゲーム音を生成する音生成部240とを含んでいる。   The processing unit 200 is mainly based on a game calculation unit 210 that performs calculation processing related to the execution of the game, and various data obtained by the processing of the game calculation unit 210 from a given viewpoint such as a virtual camera. The image generation unit 230 generates an image in the virtual three-dimensional space (game space), and the sound generation unit 240 generates a game sound such as a sound effect or BGM.

ゲーム演算部210は、操作入力部100から入力された操作信号や、記憶部400から読み出したプログラムやデータ等に基づいて種々のゲーム処理を実行する。ゲーム処理としては、例えば、仮想三次元空間に各種のオブジェクトを配置してゲーム空間を設定する処理、操作入力部100からの操作信号に基づくプレーヤキャラクタの制御、視点(仮想カメラ)の制御等がある。   The game calculation unit 210 executes various game processes based on operation signals input from the operation input unit 100, programs and data read from the storage unit 400, and the like. The game processing includes, for example, processing for arranging various objects in a virtual three-dimensional space to set a game space, control of a player character based on an operation signal from the operation input unit 100, control of a viewpoint (virtual camera), and the like. is there.

また、ゲーム演算部210は、画像生成部230によるゲーム画像の生成を制御する画像生成制御部211を含む。画像生成制御部211は、1枚のゲーム画像の生成制御を、次のように行う。即ち、先ず、ゲーム空間に配置されているオブジェクト10のうちから特定オブジェクトを判定する。具体的には、視野内の各オブジェクト10について、該オブジェクト10の向きと視線方向との成す角度θを基に、該オブジェクト10に対する視線方向の相対的な向きを判断する。次に、描画ポリゴン数テーブル425を参照して、判断した視線方向の相対向きに対応する該オブジェクト10の描画ポリゴン数が所定の閾値より大きいならば、該オブジェクト10を特定オブジェクトと判定する。   The game calculation unit 210 includes an image generation control unit 211 that controls generation of a game image by the image generation unit 230. The image generation control unit 211 performs generation control of one game image as follows. That is, first, a specific object is determined from among the objects 10 arranged in the game space. Specifically, for each object 10 in the field of view, the relative direction of the line-of-sight direction with respect to the object 10 is determined based on the angle θ formed by the direction of the object 10 and the line-of-sight direction. Next, with reference to the drawing polygon number table 425, if the number of drawing polygons of the object 10 corresponding to the determined relative direction of the line of sight is larger than a predetermined threshold, the object 10 is determined as a specific object.

描画ポリゴン数テーブル425は、ゲーム空間に配置され得る各オブジェクトについて、視線方向を所定方向としたときに描画されるポリゴン数を設定したデータテーブルである。図9に、描画ポリゴン数テーブル425のデータ構成の一例を示す。同図によれば、描画ポリゴン数テーブル425は、ゲーム空間に配置されるオブジェクト425aと、描画ポリゴン数425bとを対応付けて格納している。オブジェクト425aは、ゲームに登場するキャラクタと背景とが含まれる。描画ポリゴン数425bは、対応するオブジェクト425aについて、視線方向の相対向き(「前方」及び「後方」)毎の描画ポリゴン数が格納される。尚、この描画ポリゴン数テーブル425の設定値は、概略値であって正確な値ではない。即ち、正確には、少しでも視線方向が異なれば描画ポリゴン数は異なるが、レンダリングの前段階で大凡の描画ポリゴン数を把握し、簡易に特定オブジェクトを判定するための値が描画ポリゴン数テーブル425に設定されているのである。   The drawing polygon number table 425 is a data table in which the number of polygons to be drawn is set for each object that can be arranged in the game space when the viewing direction is a predetermined direction. FIG. 9 shows an example of the data structure of the drawing polygon number table 425. According to the figure, the drawing polygon number table 425 stores an object 425a arranged in the game space and a drawing polygon number 425b in association with each other. The object 425a includes a character appearing in the game and a background. The number of drawn polygons 425b stores the number of drawn polygons for each relative direction ("front" and "back") in the line-of-sight direction for the corresponding object 425a. Note that the setting value of the drawing polygon number table 425 is an approximate value and not an accurate value. That is, although the number of drawn polygons is different if the line-of-sight direction is slightly different, the drawing polygon number table 425 is a value for grasping the approximate number of drawn polygons before the rendering and easily determining a specific object. It is set to.

また、特定オブジェクトであるか否かの判定条件である描画ポリゴン数の閾値は、判定条件データ426に格納されている。図10に、判定条件データ426のデータ構成の一例を示す。同図によれば、判定条件データ426は、特定オブジェクトであるか否かの判定条件として、描画ポリゴン数の条件が格納されている。画像生成制御部211は、各オブジェクト10について、視線方向の相対的な向きに対応する描画ポリゴン数が、判定条件データ426に格納されているポリゴン数の条件を満たす場合、該オブジェクト10を特定オブジェクトであると判定する。   Further, a threshold value for the number of drawn polygons, which is a determination condition for determining whether or not the object is a specific object, is stored in the determination condition data 426. FIG. 10 shows an example of the data configuration of the determination condition data 426. According to the figure, the determination condition data 426 stores a drawing polygon number condition as a determination condition as to whether or not the object is a specific object. When the number of drawn polygons corresponding to the relative direction of the line-of-sight direction satisfies the condition of the number of polygons stored in the determination condition data 426 for each object 10, the image generation control unit 211 sets the object 10 to the specific object. It is determined that

画像生成制御部211により判定された特定オブジェクトは、特定オブジェクトデータ427に格納される。図11に、特定オブジェクトデータ427のデータ構成の一例を示す。同図によれば、特定オブジェクトデータ427は、特定オブジェクトとして判定されたN個のオブジェクト10の識別データが格納される。   The specific object determined by the image generation control unit 211 is stored in the specific object data 427. FIG. 11 shows an example of the data configuration of the specific object data 427. According to the figure, the specific object data 427 stores identification data of N objects 10 determined as specific objects.

また、画像生成制御部211は、判定した特定オブジェクトの数Nに「1」加算し、1枚のゲーム画像の生成に要するフレーム時間、即ちフレーム数を算出する。算出されたフレーム数は、ゲームの進行制御間隔として進行制御間隔データ429に格納される。図12に、進行制御間隔データ429のデータ構成の一例を示す。同図によれば、進行制御間隔データ429は、ゲームの進行制御の間隔であるフレーム数が格納される。ゲーム演算部210は、この進行制御間隔データ429で指定される間隔で、ゲームの進行を制御する。   Further, the image generation control unit 211 adds “1” to the determined number N of specific objects to calculate the frame time required for generating one game image, that is, the number of frames. The calculated number of frames is stored in the progress control interval data 429 as a game progress control interval. FIG. 12 shows an example of the data configuration of the progress control interval data 429. According to the figure, the progress control interval data 429 stores the number of frames which is an interval of game progress control. The game calculation unit 210 controls the progress of the game at intervals specified by the progress control interval data 429.

次いで、画像生成制御部211は、1フレーム毎に、順に1つの特定オブジェクトの画像(オブジェクト画像)を画像生成部230に生成させる。生成されたオブジェクト画像は、オブジェクト画像データ428として蓄積記憶される。   Next, the image generation control unit 211 causes the image generation unit 230 to generate one specific object image (object image) in order for each frame. The generated object image is accumulated and stored as object image data 428.

判定した特定オブジェクトの全てについてオブジェクト画像が生成されると、画像生成制御部211は、その次のフレームにおいて、生成されたオブジェクト画像それぞれをマッピングした代替オブジェクト30をゲーム空間に配置する。即ち、判定したN個の特定オブジェクトそれぞれについて、対応するオブジェクト画像を板ポリゴンにマッピングした代替オブジェクト30を生成し、この代替オブジェクト30を該特定オブジェクトの例えば代表位置に、該特定オブジェクトに替えて配置する。そして、画像生成部230に、代替オブジェクト30を配置したゲーム空間の画像(ゲーム画像)を生成させ、生成したゲーム画像を画像表示部330に表示させる。   When object images are generated for all of the determined specific objects, the image generation control unit 211 places substitute objects 30 in which the generated object images are mapped in the game space in the next frame. That is, for each of the determined N specific objects, a substitute object 30 in which the corresponding object image is mapped to a plate polygon is generated, and the substitute object 30 is arranged in place of the specific object, for example, at the representative position. To do. Then, the image generation unit 230 is caused to generate an image (game image) of the game space in which the alternative object 30 is arranged, and the generated game image is displayed on the image display unit 330.

尚、特定オブジェクトがない場合には、画像生成制御部211は、1フレーム時間で1枚のゲーム画像を生成させる従来のゲーム画像の生成制御と同様の処理を行う。   When there is no specific object, the image generation control unit 211 performs the same processing as the conventional game image generation control that generates one game image in one frame time.

画像生成部230は、ゲーム演算部210による演算結果に基づき、ゲーム画面を表示するためのゲーム画像(3DCG画像)を生成し、生成した画像の画像信号を画像表示部330に出力する。具体的には、ゲーム演算部210の制御に従い、1フレーム毎に1つの特定オブジェクトをレンダリングして画像(オブジェクト画像)を生成する、或いはゲーム空間をレンダリングしてゲーム画像を生成する。   The image generation unit 230 generates a game image (3DCG image) for displaying a game screen based on the calculation result by the game calculation unit 210, and outputs an image signal of the generated image to the image display unit 330. Specifically, under the control of the game calculation unit 210, one specific object is rendered for each frame to generate an image (object image), or the game space is rendered to generate a game image.

画像表示部330は、画像生成部230からの画像信号に基づき、画像生成部230の指示に従った時間間隔で1フレームのゲーム画像を再描画しながらゲーム画面を表示する。この機能は、例えばCRT、LCD、ELD、PDP、HMD等のハードウェアによって実現される。図1では、ディスプレイ1230がこれに該当する。   Based on the image signal from the image generation unit 230, the image display unit 330 displays the game screen while redrawing one frame of the game image at a time interval in accordance with an instruction from the image generation unit 230. This function is realized by hardware such as CRT, LCD, ELD, PDP, and HMD. In FIG. 1, the display 1230 corresponds to this.

音生成部240は、ゲーム中に使用される効果音やBGM等のゲーム音を生成し、生成したゲーム音の音信号を音出力部340に出力する。音出力部340は、音生成部240からの音信号に基づいてBGMや効果音等のゲーム音声を出力する。この機能は、例えばスピーカ等によって実現される。図1では、スピーカ1231がこれに相当する。   The sound generation unit 240 generates game sounds such as sound effects and BGM used during the game, and outputs a sound signal of the generated game sound to the sound output unit 340. The sound output unit 340 outputs game sounds such as BGM and sound effects based on the sound signal from the sound generation unit 240. This function is realized by, for example, a speaker. In FIG. 1, the speaker 1231 corresponds to this.

記憶部400は、処理部200に家庭用ゲーム装置1200を統合的に制御させるための諸機能を実現するためのシステムプログラムや、ゲームを実行させるために必要なプログラムやデータ等を記憶するとともに、処理部200の作業領域として用いられ、処理部200が各種プログラムに従って実行した演算結果や操作入力部100から入力される入力データ等を一時的に記憶する。この機能は、例えば各種ICメモリやハードディスク、CD−ROM、DVD、MO、RAM、VRAM等によって実現される。図1では、制御ユニット1211に実装されているROMやRAM、CD−ROM1212等がこれに該当する。   The storage unit 400 stores a system program for realizing various functions for causing the processing unit 200 to control the home game device 1200 in an integrated manner, a program and data necessary for executing the game, and the like. Used as a work area of the processing unit 200, temporarily stores calculation results executed by the processing unit 200 according to various programs, input data input from the operation input unit 100, and the like. This function is realized by, for example, various IC memories, hard disks, CD-ROMs, DVDs, MOs, RAMs, VRAMs, and the like. In FIG. 1, ROM, RAM, CD-ROM 1212 and the like mounted on the control unit 1211 correspond to this.

また、記憶部400は、処理部200をゲーム演算部210として機能させるためのゲームプログラム410及びゲームデータを記憶する。ゲームプログラム410には、画像生成制御部211として機能させるための画像生成制御プログラム411が含まれている。また、ゲームデータには、キャラクタデータ421と、背景データ422と、視点データ423と、操作データ424と、描画ポリゴン数テーブル425と、判定条件データ426と、特定オブジェクトデータ427と、オブジェクト画像データ428と、進行制御間隔データ429とが含まれている。   Further, the storage unit 400 stores a game program 410 and game data for causing the processing unit 200 to function as the game calculation unit 210. The game program 410 includes an image generation control program 411 for functioning as the image generation control unit 211. The game data includes character data 421, background data 422, viewpoint data 423, operation data 424, drawn polygon number table 425, determination condition data 426, specific object data 427, and object image data 428. And progress control interval data 429 are included.

キャラクタデータ421は、ゲームに登場するキャラクタに関するデータであり、該キャラクタのモデルデータや、位置・姿勢のデータ等を含んでいる。背景データ422は、ゲーム空間に設定される背景に関するデータであり、背景である道路や建物等のオブジェクトのモデルデータや、位置・姿勢等のデータ等を含んでいる。視点データ423は、視点CMに関するデータであり、視点CMの位置や姿勢等のデータを含んでいる。   The character data 421 is data relating to characters appearing in the game, and includes model data of the character, position / posture data, and the like. The background data 422 is data related to the background set in the game space, and includes model data of objects such as roads and buildings that are the background, data such as position and orientation, and the like. The viewpoint data 423 is data relating to the viewpoint CM, and includes data such as the position and orientation of the viewpoint CM.

操作データ424は、操作入力部100から入力されたプレーヤの操作データであり、複数フレーム分の操作データが蓄積されている。ゲーム演算部210は、この操作データ424を基にゲームの進行制御、具体的にはキャラクタや視点CMの制御を行う。   The operation data 424 is player operation data input from the operation input unit 100, and operation data for a plurality of frames is accumulated. The game calculation unit 210 controls the progress of the game based on the operation data 424, specifically, the character and the viewpoint CM.

[処理の流れ]
図13は、本実施形態のゲーム処理の流れを説明するためのフローチャートである。この処理は、ゲーム演算部210がゲームプログラム410を実行することで実現される。
[Process flow]
FIG. 13 is a flowchart for explaining the flow of the game processing of the present embodiment. This process is realized by the game calculation unit 210 executing the game program 410.

同図によれば、先ず、画像生成制御部211が、初期設定として進行フレーム数nを「1」に設定する(ステップS1)。進行フレーム数nとは、1枚のゲーム画像(フレーム画像)の生成に要する複数フレームのうち、どのフレームまで処理が進行したかを示す値である。通常は、1フレーム時間で1枚のフレーム画像を生成し、1フレーム分ゲームを進行させる。このため、行フレーム数nに初期値として進「1」を設定する。その後、ゲーム演算部210はゲームを開始する。   According to the figure, first, the image generation control unit 211 sets the number of progress frames n to “1” as an initial setting (step S1). The number of progress frames n is a value indicating to which frame the processing has progressed among a plurality of frames required for generating one game image (frame image). Normally, one frame image is generated in one frame time, and the game is advanced for one frame. For this reason, the advance “1” is set as the initial value for the row frame number n. Thereafter, the game calculation unit 210 starts the game.

ゲームを開始すると、ゲーム終了までの間、フレーム毎にループAの処理が実行される。即ち、ループAでは、ゲーム演算部210は、操作入力部100から入力される操作データを取り込み、操作データ424として蓄積記憶する(ステップS3)。次いで、画像生成制御部211が、進行フレーム数nを判断し、n=1、ならば(ステップS5:YES)、視点CMの視野内のオブジェクトのうちから特定オブジェクトを判定する(ステップS7)。   When the game is started, the process of Loop A is executed for each frame until the game ends. That is, in the loop A, the game calculation unit 210 takes in the operation data input from the operation input unit 100 and accumulates and stores it as the operation data 424 (step S3). Next, the image generation control unit 211 determines the number of progress frames n. If n = 1 (step S5: YES), the image generation control unit 211 determines a specific object from the objects in the visual field of the viewpoint CM (step S7).

特定オブジェクトがあると判定したならば(ステップS9:YES)、画像生成制御部211は、判定した特定オブジェクト数を「N」とし(ステップS11)、ゲームの進行制御間隔を、特定オブジェクト数Nに「1」加算したフレーム数に設定する(ステップS13)。続いて、画像生成部230が、判定した特定オブジェクトのうち、n番目の特定オブジェクトをレンダリングして該特定オブジェクトのオブジェクト画像を生成する(ステップS15)。その後、画像生成制御部211が、進行フレーム数nを「1」加算した値に更新する(ステップS17)。   If it is determined that there is a specific object (step S9: YES), the image generation control unit 211 sets the determined specific object number to “N” (step S11), and sets the game progress control interval to the specific object number N. The number of frames added by “1” is set (step S13). Subsequently, the image generation unit 230 renders the nth specific object among the determined specific objects to generate an object image of the specific object (step S15). Thereafter, the image generation control unit 211 updates the number of progress frames n to a value obtained by adding “1” (step S17).

また、ステップS9において、特定オブジェクトがないと判定したならば(ステップS9:NO)、画像生成制御部211は、ゲームの進行制御間隔を1フレームに設定し(ステップS19)、ステップS25に移行する。すると、画像生成部230が、ゲーム空間をレンダリングしてゲーム画像を生成し(ステップS25)、生成したゲーム画像を画像表示部330に表示させる(ステップS27)。また、ゲーム演算部210が、操作データ424に基づき、進行制御間隔である1フレーム分のゲーム進行制御を行い(ステップS29)、次いで操作データ424をクリアする(ステップS31)。その後、画像生成制御部211が、進行フレーム数nを「1」に設定する(ステップS33)。   If it is determined in step S9 that there is no specific object (step S9: NO), the image generation control unit 211 sets the game progress control interval to one frame (step S19), and proceeds to step S25. . Then, the image generation unit 230 generates a game image by rendering the game space (step S25), and displays the generated game image on the image display unit 330 (step S27). In addition, the game calculation unit 210 performs game progress control for one frame that is the progress control interval based on the operation data 424 (step S29), and then clears the operation data 424 (step S31). Thereafter, the image generation control unit 211 sets the number of progress frames n to “1” (step S33).

また、ステップS5において、進行フレーム数nが「1」でないならば(ステップS5:NO)、画像生成制御部211は、続いて進行フレーム数nが「N+1」であるか否かを判断する。n=N+1、でないならば(ステップS21:NO)、ステップS15に移行する。すると、画像生成部230がn番目の特定オブジェクトをレンダリングしてオブジェクト画像を生成し(ステップS15)、その後、画像生成制御部211が、進行フレーム数nを「1」加算した値に更新する(ステップS17)。   In step S5, if the number of progress frames n is not “1” (step S5: NO), the image generation control unit 211 determines whether the number of progress frames n is “N + 1”. If not n = N + 1 (step S21: NO), the process proceeds to step S15. Then, the image generation unit 230 generates an object image by rendering the nth specific object (step S15), and then the image generation control unit 211 updates the number of progress frames n to a value obtained by adding "1" ( Step S17).

また、ステップS21において、進行フレーム数nが「N+1」ならば(ステップS21:YES)、画像生成制御部211が、生成したN枚のオブジェクト画像それぞれをマッピングしたN個の代替オブジェクト30を生成し、各代替オブジェクト30を対応する特定オブジェクトに代えてゲーム空間に配置する(ステップS23)。次いで、画像生成部230が、ゲーム空間をレンダリングしてゲーム画像(フレーム画像)を生成し(ステップS25)、生成したゲーム画像を画像表示部330に表示させる(ステップS27)。そして、ゲーム演算部210が、操作データ424に基づき、進行制御間隔である「N+1」フレーム分のゲーム進行制御を行い(ステップS29)、次いで操作データ424をクリアする(ステップS31)。その後、画像生成制御部211が進行フレーム数nを「1」に設定する(ステップS33)。   In step S21, if the number of progress frames n is “N + 1” (step S21: YES), the image generation control unit 211 generates N alternative objects 30 each mapping the generated N object images. Each substitute object 30 is placed in the game space in place of the corresponding specific object (step S23). Next, the image generation unit 230 generates a game image (frame image) by rendering the game space (step S25), and causes the image display unit 330 to display the generated game image (step S27). Based on the operation data 424, the game calculation unit 210 performs game progress control for “N + 1” frames, which is the progress control interval (step S29), and then clears the operation data 424 (step S31). Thereafter, the image generation control unit 211 sets the number of progress frames n to “1” (step S33).

ループAはこのように実行される。
そして、ゲームが終了してループAが終了すると、ゲーム演算部210は、例えば勝敗やスコア等のゲーム結果を表示する。以上の処理を行うと、ゲーム処理は終了となる。
Loop A is executed in this way.
When the game ends and loop A ends, the game calculation unit 210 displays a game result such as a win or loss or a score. When the above processing is performed, the game processing ends.

[ハードウェア構成]
図14は、家庭用ゲーム装置1200のハードウェア構成の一例を示す図である。同図によれば、家庭用ゲーム装置1200は、CPU1000と、ROM1002と、RAM1004と、情報記憶媒体1006と、画像生成IC1008と、音生成IC1010と、I/Oポート1012,1014とを有し、システムバス1016により相互にデータの入出力が可能に接続されている。また、画像生成IC1008には表示装置1018が接続され、音生成IC1010にはスピーカ1020が接続され、I/Oポート1012にはコントロール装置1022が接続され、I/Oポート1014には通信装置1215が接続されている。
[Hardware configuration]
FIG. 14 is a diagram illustrating an example of a hardware configuration of the consumer game device 1200. According to the figure, the consumer game device 1200 includes a CPU 1000, a ROM 1002, a RAM 1004, an information storage medium 1006, an image generation IC 1008, a sound generation IC 1010, and I / O ports 1012 and 1014. System buses 1016 are connected to each other so as to be able to input and output data. Further, a display device 1018 is connected to the image generation IC 1008, a speaker 1020 is connected to the sound generation IC 1010, a control device 1022 is connected to the I / O port 1012, and a communication device 1215 is connected to the I / O port 1014. It is connected.

CPU1000は、情報記憶媒体1006に格納されているプログラムやデータ、ROM1002に格納されているシステムプログラム(装置本体の初期化情報等)やデータ、コントロール装置1022によって入力される入力信号等に従って、装置全体の制御や各種データ処理を行う。このCPU1000は、図1の制御ユニット1211に搭載されているCPU、図8の処理部200に該当する。   The CPU 1000 executes the entire apparatus in accordance with programs and data stored in the information storage medium 1006, system programs (such as initialization information of the apparatus main body) and data stored in the ROM 1002, input signals input by the control device 1022, and the like. Control and various data processing. The CPU 1000 corresponds to the CPU mounted on the control unit 1211 in FIG. 1 and the processing unit 200 in FIG.

ROM1002、RAM1004及び情報記憶媒体1006は、図8の記憶部400に該当する。ROM1002は、家庭用ゲーム装置1200のシステムプログラムや、図8の記憶部400に記憶されている情報の内、特に、予め設定されているプログラムやデータ等を記憶する。RAM1004は、CPU1000の作業領域として用いられ、例えば、ROM1002や情報記憶媒体1006の所与の内容、1フレーム分の画像データ、CPU1000による演算結果等が格納される。また、情報記憶媒体1006は、ICメモリカードや本体装置に着脱自在なハードディスクユニット、MO等によって実現される。   The ROM 1002, the RAM 1004, and the information storage medium 1006 correspond to the storage unit 400 in FIG. The ROM 1002 stores, in particular, a preset program and data among the system program of the home game device 1200 and the information stored in the storage unit 400 of FIG. The RAM 1004 is used as a work area of the CPU 1000 and stores, for example, given contents of the ROM 1002 and the information storage medium 1006, image data for one frame, calculation results by the CPU 1000, and the like. The information storage medium 1006 is realized by an IC memory card, a hard disk unit that can be attached to and detached from the main unit, an MO, and the like.

画像生成IC1008は、CPU1000からの画像情報に基づいて表示装置1018に表示するゲーム画面の画素情報を生成する集積回路である。表示装置1018は、画像生成IC1008で生成された画素情報に基づくゲーム画面を表示する。この画像生成IC1008は、図8の画像生成部230に該当し、表示装置1018は、図8の画像表示部330、図1のディスプレイ1230に該当する。   The image generation IC 1008 is an integrated circuit that generates pixel information of a game screen to be displayed on the display device 1018 based on image information from the CPU 1000. The display device 1018 displays a game screen based on the pixel information generated by the image generation IC 1008. The image generation IC 1008 corresponds to the image generation unit 230 in FIG. 8, and the display device 1018 corresponds to the image display unit 330 in FIG. 8 and the display 1230 in FIG.

音生成IC1010は、情報記憶媒体1006やROM1002に記憶される情報に基づいて効果音やBGM等のゲーム音を生成する集積回路であり、生成されたゲーム音はスピーカ1020によって出力される。この音生成IC1010は、図8の音生成部240に該当し、スピーカ1020は、図8の音出力部340、図1のスピーカ1231に該当する。   The sound generation IC 1010 is an integrated circuit that generates game sounds such as sound effects and BGM based on information stored in the information storage medium 1006 and the ROM 1002, and the generated game sounds are output by the speaker 1020. The sound generation IC 1010 corresponds to the sound generation unit 240 in FIG. 8, and the speaker 1020 corresponds to the sound output unit 340 in FIG. 8 and the speaker 1231 in FIG.

尚、画像生成IC1008、音生成IC1010等で行われる処理は、CPU1000或いは汎用のDSP等によってソフトウェア的に実行されることとしても良い。   Note that the processing performed by the image generation IC 1008, the sound generation IC 1010, and the like may be executed in software by the CPU 1000 or a general-purpose DSP.

コントロール装置1022は、プレーヤがゲームの進行に応じて種々のゲーム操作を入力するための装置である。このコントロール装置1022は、図8の操作入力部100、図1のゲームコントローラ1220に該当する。   The control device 1022 is a device for the player to input various game operations as the game progresses. The control device 1022 corresponds to the operation input unit 100 in FIG. 8 and the game controller 1220 in FIG.

通信装置1215は、家庭用ゲーム装置1200内部で使用される各種情報を外部とやり取りするための装置であり、他のゲーム装置と接続されてゲームプログラムに応じた所与の情報を送受信したり、通信回線を介してゲームプログラム等の情報を送受信する等に利用される。この通信装置1215は、図1の本体装置1210に具備される通信装置に該当する。   The communication device 1215 is a device for exchanging various types of information used inside the home game device 1200 with the outside. The communication device 1215 is connected to other game devices to transmit / receive given information according to the game program, It is used for transmitting and receiving information such as game programs via a communication line. The communication device 1215 corresponds to a communication device provided in the main body device 1210 of FIG.

[作用・効果]
本実施形態によれば、1枚のゲーム画像(フレーム画像)が生成される際、先ず、ゲーム空間に配置されているオブジェクト10のうちから、該オブジェクト10を構成するポリゴン数と視点CMの視線方向とを基に特定オブジェクトが判定され、各特定オブジェクトが1フレーム毎に順にレンダリングされてオブジェクト画像20が生成される。そして、全ての特定オブジェクトのオブジェクト画像20が生成されると、その次のフレームにおいて、生成された各オブジェクト画像20がマッピングされた代替オブジェクト30が各特定オブジェクトに替えて配置され、ゲーム空間をレンダリングして該ゲーム空間の画像(ゲーム画像)が生成される。ここで、特定オブジェクトであるか否かは、視点CMに基づくレンダリングを行ったと仮定した場合に描画されるポリゴン数(描画ポリゴン数)が所定数以上であるか否かにより判定される。これにより、1枚のゲーム画像で描画したいポリゴン数が、ハードウェアの性能により制限される1フレーム時間で描画可能なポリゴン数の上限を超えた場合であっても、ゲーム画像の更新速度は遅くなるが、いわゆる処理落ちや生成されるゲーム画像の欠落といったことが防止され、正常なゲーム画像の生成が実現される。
[Action / Effect]
According to the present embodiment, when one game image (frame image) is generated, first, among the objects 10 arranged in the game space, the number of polygons constituting the object 10 and the line of sight of the viewpoint CM A specific object is determined based on the direction, and each specific object is rendered in order for each frame to generate an object image 20. When the object images 20 of all the specific objects are generated, substitute objects 30 to which the generated object images 20 are mapped are arranged in place of the specific objects and the game space is rendered in the next frame. Thus, an image (game image) of the game space is generated. Here, whether or not the object is a specific object is determined based on whether or not the number of polygons to be drawn (the number of drawn polygons) is equal to or greater than a predetermined number when rendering based on the viewpoint CM is performed. Thereby, even when the number of polygons to be drawn in one game image exceeds the upper limit of the number of polygons that can be drawn in one frame time limited by the performance of hardware, the update speed of the game image is slow. However, it is possible to prevent so-called processing loss or missing generated game images, thereby realizing normal game image generation.

[変形例]
尚、本発明の適用可能な実施形態は、上述の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能なのは勿論である。
[Modification]
It should be noted that embodiments to which the present invention can be applied are not limited to the above-described embodiments, and can be appropriately changed without departing from the spirit of the present invention.

(A)代替オブジェクト30の配置
例えば、上述した実施形態では、ゲーム空間に配置されているオブジェクト10のうち、特定オブジェクトの全てについてのオブジェクト画像20を生成した後、これら特定オブジェクトを代替オブジェクト30に置き替えたゲーム空間をレンダリングしてゲーム画像を生成することにしたが、これを、1フレーム毎に、特定オブジェクトをレンダリングして生成したオブジェクト画像20をマッピングした代替オブジェクト30を、該特定オブジェクトに替えてゲーム空間に配置することにしても良い。
(A) Arrangement of Substitute Object 30 For example, in the above-described embodiment, after generating object images 20 for all of the specific objects among the objects 10 arranged in the game space, these specific objects are used as the substitute objects 30. The replacement game space is generated by rendering the replaced game space, and the substitute object 30 in which the object image 20 generated by rendering the specific object is mapped to the specific object for each frame. Alternatively, it may be arranged in the game space.

具体的には、図2に示したゲーム空間のゲーム画像を生成する場合、次のように行う。即ち、1フレーム目では、図15に示すように、視点CMを基にオブジェクト10Aをレンダリングしてオブジェクト画像20Aを生成する。次いで、生成したオブジェクト画像20Aをマッピングした代替オブジェクト30Aを、オブジェクト10Aに替えてゲーム空間に配置する。2フレーム目では、図16に示すように、視点CMを基に、この代替オブジェクト30Aとオブジェクト10Bとをレンダリングして、オブジェクト画像20BAを生成する。次いで、生成したオブジェクト画像20BAをマッピングした代替オブジェクト30BAを、オブジェクト10Bに替えてゲーム空間に配置する。そして、3フレーム目では、図17に示すように、視点CMを基に、この代替オブジェクト30BAとオブジェクト10Cとが配置されたゲーム空間をレンダリングして、ゲーム画像を生成する。   Specifically, when the game image of the game space shown in FIG. 2 is generated, it is performed as follows. That is, in the first frame, as shown in FIG. 15, the object 10A is rendered based on the viewpoint CM to generate the object image 20A. Next, the substitute object 30A to which the generated object image 20A is mapped is placed in the game space instead of the object 10A. In the second frame, as shown in FIG. 16, the substitute object 30A and the object 10B are rendered based on the viewpoint CM to generate an object image 20BA. Next, the substitute object 30BA to which the generated object image 20BA is mapped is placed in the game space instead of the object 10B. In the third frame, as shown in FIG. 17, the game space in which the alternative object 30BA and the object 10C are arranged is rendered based on the viewpoint CM to generate a game image.

尚、ここでは、手前側の特定オブジェクトから順にレンダリングして代替オブジェクト30を配置することにしたが、これを、奥側の特定オブジェクトからとしても良い。即ち、1フレーム目では、オブジェクト10Bをレンダリングしてオブジェクト画像20Bを生成する。2フレーム目では、オブジェクト画像20Bをマッピングした代替オブジェクト30Bをゲーム空間に配置し、オブジェクト10Aと代替オブジェクト30Bとをレンダリングしてオブジェクト画像20を生成する。そして、3フレーム目では、このオブジェクト画像20をマッピングした代替オブジェクト30を配置したゲーム空間をレンダリングしてゲーム画像を生成する。   Here, the alternative object 30 is arranged by rendering in order from the specific object on the near side, but this may be made from the specific object on the back side. That is, in the first frame, the object 10B is rendered to generate the object image 20B. In the second frame, the substitute object 30B to which the object image 20B is mapped is placed in the game space, and the object image 20 is generated by rendering the object 10A and the substitute object 30B. In the third frame, a game image is generated by rendering the game space in which the substitute object 30 to which the object image 20 is mapped is arranged.

(B)グループ化
また、上述した実施形態では、1フレーム毎に1つの特定オブジェクトをレンダリングしてオブジェクト画像20を生成することにしたが、これを、複数のオブジェクトを纏めてグループ化し、グループ毎に複数のオブジェクトを一括してレンダリングしてオブジェクト画像を生成しても良い。
(B) Grouping In the above-described embodiment, the object image 20 is generated by rendering one specific object for each frame, but this is grouped into a plurality of objects and grouped. Alternatively, an object image may be generated by collectively rendering a plurality of objects.

具体的には、図18に示すように、5つのオブジェクト10A〜10Eが配置されたゲーム空間のゲーム画像を生成する場合、これらのオブジェクト10A〜10Eを、各オブジェクト10の描画ポリゴン数を基に、視点CMからの奥行き順に複数のグループに分類する。このとき、各グループに属するオブジェクト10の描画ポリゴン数の総和が、ハードウェアの性能により制限される1フレーム時間で描画可能なポリゴン数の上限を超えないように分類する。同図では、オブジェクト10A,10D,10EからなるグループAと、オブジェクト10B,10CからなるグループBにグループ分けされる。   Specifically, as shown in FIG. 18, when generating a game image of a game space in which five objects 10 </ b> A to 10 </ b> E are arranged, these objects 10 </ b> A to 10 </ b> E are converted based on the number of drawn polygons of each object 10. Then, the images are classified into a plurality of groups in the order of depth from the viewpoint CM. At this time, the classification is performed so that the total number of drawn polygons of the objects 10 belonging to each group does not exceed the upper limit of the number of polygons that can be drawn in one frame time limited by the performance of the hardware. In the figure, the group A is divided into a group A composed of objects 10A, 10D, and 10E and a group B composed of objects 10B and 10C.

そして、1フレーム目では、図19に示すように、グループAのオブジェクト10A,10D,10Eをレンダリングしてオブジェクト画像20AEを生成する。次に、2フレーム目では、図20に示すように、グループBのオブジェクト10B,10Cをレンダリングしてオブジェクト画像20BCを生成する。そして、3フレーム目では、図21に示すように、生成したオブジェクト画像20AEをマッピングした代替オブジェクト30AE、及びオブジェクト画像20BCをマッピングした代替オブジェクト30BCを、オブジェクト10A〜10Eに替えてゲーム空間に配置し、このゲーム空間をレンダリングしてゲーム画像を生成する。   In the first frame, as shown in FIG. 19, the objects 10A, 10D, and 10E of group A are rendered to generate an object image 20AE. Next, in the second frame, as shown in FIG. 20, the objects 10B and 10C of the group B are rendered to generate an object image 20BC. In the third frame, as shown in FIG. 21, the substitute object 30AE to which the generated object image 20AE is mapped and the substitute object 30BC to which the object image 20BC is mapped are arranged in the game space instead of the objects 10A to 10E. The game space is rendered to generate a game image.

尚このとき、レンダリング毎に、生成したオブジェクト画像20をマッピングした代替オブジェクト30を配置することにしても良い。即ち、1フレーム目では、グループBのオブジェクト10B,10Cをレンダリングしてオブジェクト画像20BCを生成する。2フレーム目では、オブジェクト画像20BCをマッピングした代替オブジェクト30BCをゲーム空間に配置し、グループAのオブジェクト10A,10D,10E、代替オブジェクト30BCを配置したゲーム空間をレンダリングしてゲーム画像を生成する。また更に、レンダリング順は、奥側のグループBからではなく、手前側のグループAからとしても良い。   At this time, the substitute object 30 to which the generated object image 20 is mapped may be arranged for each rendering. That is, in the first frame, the objects 10B and 10C of the group B are rendered to generate the object image 20BC. In the second frame, the substitute object 30BC to which the object image 20BC is mapped is placed in the game space, and the game space in which the objects 10A, 10D, 10E of the group A and the substitute object 30BC are placed is rendered to generate a game image. Furthermore, the rendering order may be from group A on the front side instead of group B on the back side.

(C)適用するゲーム装置
また、上述した実施形態では、本発明を家庭用ゲーム装置に適用した場合について説明したが、図1に示した家庭用ゲーム装置1200のみではなく、業務用ゲーム装置や携帯型ゲーム装置、多数のプレーヤが参加する大型アトラクション装置等の種々の装置にも同様に適用できる。更に、ゲーム装置に限らず、三次元仮想空間に配置されたオブジェクトを制御しながら、該三次元仮想空間の画像をリアルタイムに生成・表示する装置であれば同様に適用可能なのは勿論である。
(C) Applicable Game Device In the above-described embodiments, the case where the present invention is applied to a home game device has been described. However, not only the home game device 1200 shown in FIG. The present invention can be similarly applied to various devices such as a portable game device and a large attraction device in which a large number of players participate. Furthermore, the present invention is not limited to a game device, and can be similarly applied to any device that generates and displays an image of a three-dimensional virtual space in real time while controlling an object arranged in the three-dimensional virtual space.

例えば図22は、本発明を業務用ゲーム装置に適用した一例を示す外観図である。同図によれば、業務用ゲーム装置1300は、ゲーム画面を表示するディスプレイ1302と、ゲームの効果音やBGMを出力するスピーカ1304と、前後左右方向を入力するジョイスティック1306と、プッシュボタン1308と、演算処理によって業務用ゲーム装置1300を統合的に制御して所与のゲームを実行する制御ユニット1310とを備える。   For example, FIG. 22 is an external view showing an example in which the present invention is applied to an arcade game machine. According to the figure, the arcade game apparatus 1300 includes a display 1302 for displaying a game screen, a speaker 1304 for outputting game sound effects and BGM, a joystick 1306 for inputting front and rear, left and right directions, a push button 1308, And a control unit 1310 that executes a given game by controlling the arcade game device 1300 in an integrated manner through arithmetic processing.

制御ユニット1310は、CPU等の演算処理装置と、業務用ゲーム装置1300の制御及びゲームの実行に必要なプログラムやデータが格納されたROMを搭載する。制御ユニット1310に搭載されるCPUは、ROMに記憶されたプログラムやデータを適宜読み出して演算処理することによって、ゲーム処理等の種々の処理を実行する。プレーヤは、ディスプレイ1302に表示されたゲーム画面を見て、スピーカ1304から出力されるゲーム音声を聞きながら、ジョイスティック1306やプッシュボタン1308を操作してゲームを楽しむ。   The control unit 1310 includes an arithmetic processing unit such as a CPU, and a ROM that stores programs and data necessary for controlling the arcade game device 1300 and executing the game. The CPU mounted on the control unit 1310 executes various processes such as a game process by appropriately reading and calculating a program and data stored in the ROM. The player looks at the game screen displayed on the display 1302 and listens to the game sound output from the speaker 1304 while operating the joystick 1306 and the push button 1308 to enjoy the game.

家庭用ゲーム装置の外観例。An appearance example of a home game device. ゲーム空間の一例。An example of a game space. 画像生成手順の説明図。Explanatory drawing of an image generation procedure. 画像生成手順の説明図。Explanatory drawing of an image generation procedure. 画像生成手順の説明図。Explanatory drawing of an image generation procedure. 視線方向によってオブジェクトの描画ポリゴン数が異なることの説明図。Explanatory drawing that the number of drawing polygons of an object changes with gaze directions. オブジェクトに対する視線方向の相対向きの判断の説明図。Explanatory drawing of judgment of the relative direction of the gaze direction with respect to an object. 家庭用ゲーム装置の機能構成例。2 is a functional configuration example of a home game device. 描画ポリゴン数テーブルのデータ構成例。The data structural example of the drawing polygon number table. 判定条件データのデータ構成例。The data structural example of judgment condition data. 特定オブジェクトデータのデータ構成例。Data configuration example of specific object data. 進行制御間隔データのデータ構成例。The data structural example of progress control interval data. ゲーム処理の流れ図。Flow chart of game processing. 家庭用ゲーム装置のハードウェア構成例。The hardware structural example of a household game device. 代替オブジェクトを順次代替配置する場合の画像生成手順の説明図。Explanatory drawing of the image production | generation procedure in the case of alternative arrangement | positioning of alternative objects sequentially. 代替オブジェクトを順次代替配置する場合の画像生成手順の説明図。Explanatory drawing of the image production | generation procedure in the case of alternative arrangement | positioning of alternative objects sequentially. 代替オブジェクトを順次代替配置する場合の画像生成手順の説明図。Explanatory drawing of the image production | generation procedure in the case of alternative arrangement | positioning of alternative objects sequentially. オブジェクトをグループ化する場合の画像生成手順の説明図。Explanatory drawing of the image generation procedure in the case of grouping an object. オブジェクトをグループ化する場合の画像生成手順の説明図。Explanatory drawing of the image generation procedure in the case of grouping an object. オブジェクトをグループ化する場合の画像生成手順の説明図。Explanatory drawing of the image generation procedure in the case of grouping an object. オブジェクトをグループ化する場合の画像生成手順の説明図。Explanatory drawing of the image generation procedure in the case of grouping an object. 業務用ゲーム装置の外観例。An example of the appearance of an arcade game device.

符号の説明Explanation of symbols

1200 家庭用ゲーム装置
100 操作入力部
200 処理部
210 ゲーム演算部
211 画像生成制御部
230 画像生成部
240 音生成部
330 画像表示部
340 音出力部
400 記憶部
410 ゲームプログラム
411 画像生成制御プログラム
421 キャラクタデータ
422 背景データ
423 視点データ
424 操作データ
425 描画ポリゴン数テーブル
426 判定条件データ
427 特定オブジェクトデータ
428 オブジェクト画像データ
429 進行制御データ
10(10A〜10E) オブジェクト
20(20A,20B,20BA,20AE,20BC) オブジェクト画像
30(30A,30B,30BA,30AE,30BC) 代替オブジェクト
CM 視点
1200 Home Game Device 100 Operation Input Unit 200 Processing Unit 210 Game Calculation Unit 211 Image Generation Control Unit 230 Image Generation Unit 240 Sound Generation Unit 330 Image Display Unit 340 Sound Output Unit 400 Storage Unit 410 Game Program 411 Image Generation Control Program 421 Character Data 422 Background data 423 Viewpoint data 424 Operation data 425 Drawing polygon number table 426 Judgment condition data 427 Specific object data 428 Object image data 429 Progress control data 10 (10A to 10E) Object 20 (20A, 20B, 20BA, 20AE, 20BC) Object image 30 (30A, 30B, 30BA, 30AE, 30BC) Alternative object CM Viewpoint

Claims (9)

コンピュータに、プリミティブ面によって形成される複数のオブジェクトが配置されたゲーム空間を所与の視点に基づきレンダリング処理することでフレーム画像を生成する処理を所与のフレーム時間毎に行わせてゲームを進行制御させるためのプログラムであって、
複数フレーム時間で1枚のフレーム画像を生成する処理を実行する複数フレーム時間充当画像生成手段として前記コンピュータを機能させ、
前記複数フレーム時間充当画像生成手段が、
前記複数のオブジェクトのうち、当該オブジェクトのみを処理対象として前記レンダリング処理を行うオブジェクトを選択する選択手段と、
前記選択されたオブジェクトを前記視点に基づき前記レンダリング処理することで、当該オブジェクトの画像を生成するオブジェクト画像生成手段と、
前記複数のオブジェクトのうち前記選択されたオブジェクト以外については前記視点に基づく前記レンダリング処理を行い、前記選択されたオブジェクトについては前記オブジェクト画像生成手段により生成された画像を用いて前記フレーム画像を合成生成するフレーム画像合成生成手段と、
を有するように前記コンピュータを機能させるためのプログラム。
The game progresses by causing the computer to render a frame image for each given frame time by rendering the game space in which a plurality of objects formed by primitive surfaces are arranged based on a given viewpoint. A program for controlling,
Causing the computer to function as a multiple frame time appropriate image generating means for executing a process of generating one frame image in a plurality of frame times;
The multiple frame time allocation image generating means
A selection means for selecting an object for performing the rendering process with only the object as a processing target among the plurality of objects;
Object image generation means for generating an image of the object by rendering the selected object based on the viewpoint;
For the objects other than the selected object among the plurality of objects, the rendering processing based on the viewpoint is performed, and the frame image is synthesized and generated for the selected object using the image generated by the object image generation unit. Frame image composition generating means for performing,
A program for causing the computer to function so as to have
前記各オブジェクトを形成するプリミティブ面に基づいて、前記フレーム画像の生成処理が、少なくともプリミティブ面に関する1フレーム時間内に描画可能な条件として予め定められた描画可能条件を満たさないことを検出する検出手段として前記コンピュータを機能させ、
前記複数フレーム時間充当画像生成手段が、前記検出手段により検出された際に、複数フレーム時間で1枚のフレーム画像を生成する処理を実行するように前記コンピュータを機能させるための請求項1に記載のプログラム。
Detection means for detecting, based on a primitive surface forming each object, that the frame image generation processing does not satisfy a drawing condition that is predetermined as a condition for drawing within at least one frame time related to the primitive surface. Function the computer as
The said multiple frame time allocation image generation means is for making the said computer function so that it may perform the process which produces | generates one frame image in multiple frame time, when detected by the said detection means. Program.
前記検出手段が、所定数以上登場した場合に前記描画可能条件を満たさない旨予め設定された特定オブジェクトが前記ゲームに前記所定数以上登場したことを検出する特定オブジェクト検出手段を有するように前記コンピュータを機能させるための請求項2に記載のプログラム。   The computer includes: a specific object detecting unit configured to detect that a predetermined specific object that does not satisfy the drawable condition when the predetermined number appears in the game when the predetermined number appears. The program of Claim 2 for functioning. 前記複数フレーム時間充当画像生成手段によるフレーム画像の生成にかかるフレーム時間を算出する算出手段、
前記複数フレーム時間充当画像生成手段によるフレーム画像の生成の間に、前記算出されたフレーム時間分前記ゲームを進行制御させる複数フレーム時間進行制御手段、
として前記コンピュータを機能させるための請求項1〜3の何れか一項に記載のプログラム。
Calculating means for calculating a frame time required to generate a frame image by the multiple frame time appropriate image generating means;
A plurality of frame time progress control means for controlling the progress of the game by the calculated frame time during the generation of the frame image by the plurality of frame time allocation image generating means;
The program as described in any one of Claims 1-3 for functioning the said computer as.
前記フレーム画像合成生成手段が、前記オブジェクト画像生成手段により生成された画像をマッピングした代替オブジェクトを、前記選択手段により選択されたオブジェクトに代えて前記ゲーム空間に配置する代替配置手段を有し、前記代替配置手段により前記代替オブジェクトが代替配置された前記ゲーム空間を前記視点に基づき前記レンダリング処理することで前記合成生成を行うように前記コンピュータを機能させるための請求項1〜4の何れか一項に記載のプログラム。   The frame image composition generation means has alternative arrangement means for arranging an alternative object in which the image generated by the object image generation means is mapped in the game space instead of the object selected by the selection means, 5. The computer according to claim 1, wherein the computer is caused to function so as to perform the composite generation by performing the rendering process on the basis of the viewpoint of the game space in which the substitute object is substituted by a substitute placement unit. The program described in. 前記オブジェクトのプリミティブ面の形成構造は部位によって異なり、
前記選択手段が、前記視点の視線方向に対する前記各オブジェクトそれぞれの相対向きに基づいてオブジェクトを選択するように前記コンピュータを機能させるための請求項1〜5の何れか一項に記載のプログラム。
The formation structure of the primitive surface of the object differs depending on the part,
The program according to any one of claims 1 to 5, wherein the selection unit causes the computer to function so as to select an object based on a relative orientation of each object with respect to a viewing direction of the viewpoint.
前記選択手段が、前記ゲーム空間に配置されたオブジェクトのうちの一部のオブジェクトを、一括して前記レンダリング処理する処理対象として選択し、
前記オブジェクト画像生成手段が、前記選択手段により選択されたオブジェクトを一括して前記レンダリング処理する、
ように前記コンピュータを機能させるための請求項1〜5の何れか一項に記載のプログラム。
The selection means selects a part of the objects arranged in the game space as a processing target for the rendering process in a batch,
The object image generation means collectively performs the rendering process on the objects selected by the selection means;
The program according to any one of claims 1 to 5 for causing the computer to function as described above.
請求項1〜7の何れか一項に記載のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。   The computer-readable information storage medium which memorize | stored the program as described in any one of Claims 1-7. プリミティブ面によって形成される複数のオブジェクトが配置されたゲーム空間を所与の視点に基づきレンダリング処理することでフレーム画像を生成する処理を所与のフレーム時間毎に行ってゲームを進行制御するゲーム装置であって、
複数フレーム時間で1枚のフレーム画像を生成する処理を実行する複数フレーム時間充当画像生成手段を備え、
更に前記複数フレーム時間充当画像生成手段が、
前記複数のオブジェクトのうち、当該オブジェクトのみを処理対象として前記レンダリング処理を行うオブジェクトを選択する選択手段と、
前記選択されたオブジェクトを前記視点に基づき前記レンダリング処理することで、当該オブジェクトの画像を生成するオブジェクト画像生成手段と、
前記複数のオブジェクトのうち前記選択されたオブジェクト以外については前記視点に基づく前記レンダリング処理を行い、前記選択されたオブジェクトについては前記オブジェクト画像生成手段により生成された画像を用いて前記フレーム画像を合成生成するフレーム画像合成生成手段と、
を有するゲーム装置。
A game device that controls the progress of a game by performing a process of generating a frame image for each given frame time by rendering a game space in which a plurality of objects formed by primitive surfaces are arranged based on a given viewpoint. Because
A plurality of frame time appropriate image generation means for executing a process of generating one frame image in a plurality of frame times;
Further, the multiple frame time allocation image generating means,
A selection means for selecting an object for performing the rendering process with only the object as a processing target among the plurality of objects;
Object image generation means for generating an image of the object by rendering the selected object based on the viewpoint;
For the objects other than the selected object among the plurality of objects, the rendering processing based on the viewpoint is performed, and the frame image is synthesized and generated for the selected object using the image generated by the object image generation unit. Frame image composition generating means for performing,
A game device having
JP2006091999A 2006-03-29 2006-03-29 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE Expired - Fee Related JP4902847B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006091999A JP4902847B2 (en) 2006-03-29 2006-03-29 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006091999A JP4902847B2 (en) 2006-03-29 2006-03-29 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE

Publications (2)

Publication Number Publication Date
JP2007260271A true JP2007260271A (en) 2007-10-11
JP4902847B2 JP4902847B2 (en) 2012-03-21

Family

ID=38633834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006091999A Expired - Fee Related JP4902847B2 (en) 2006-03-29 2006-03-29 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE

Country Status (1)

Country Link
JP (1) JP4902847B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009233098A (en) * 2008-03-27 2009-10-15 Namco Bandai Games Inc Program, information storage medium, and game machine
JP2012125419A (en) * 2010-12-15 2012-07-05 Sanyo Product Co Ltd Game machine
JP2015157189A (en) * 2015-06-10 2015-09-03 株式会社三洋物産 Game machine
JP2016172137A (en) * 2016-07-06 2016-09-29 株式会社三洋物産 Game machine

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5466786B1 (en) * 2013-08-28 2014-04-09 株式会社 ディー・エヌ・エー Image processing apparatus and image processing program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160151A (en) * 1999-12-03 2001-06-12 Namco Ltd Image generation system and information storage medium
JP2001224847A (en) * 2000-02-17 2001-08-21 Namco Ltd Game system and information storage medium
JP2003079942A (en) * 2001-09-17 2003-03-18 Namco Ltd Game information, information storage medium, and game device
JP2005346165A (en) * 2004-05-31 2005-12-15 Sony Computer Entertainment Inc Image processor, and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160151A (en) * 1999-12-03 2001-06-12 Namco Ltd Image generation system and information storage medium
JP2001224847A (en) * 2000-02-17 2001-08-21 Namco Ltd Game system and information storage medium
JP2003079942A (en) * 2001-09-17 2003-03-18 Namco Ltd Game information, information storage medium, and game device
JP2005346165A (en) * 2004-05-31 2005-12-15 Sony Computer Entertainment Inc Image processor, and image processing method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009233098A (en) * 2008-03-27 2009-10-15 Namco Bandai Games Inc Program, information storage medium, and game machine
JP2012125419A (en) * 2010-12-15 2012-07-05 Sanyo Product Co Ltd Game machine
JP2015157189A (en) * 2015-06-10 2015-09-03 株式会社三洋物産 Game machine
JP2016172137A (en) * 2016-07-06 2016-09-29 株式会社三洋物産 Game machine

Also Published As

Publication number Publication date
JP4902847B2 (en) 2012-03-21

Similar Documents

Publication Publication Date Title
US9044669B2 (en) Program, information storage medium, and image generation system
US8915784B2 (en) Program, information storage medium, and image generation system
US10080960B2 (en) Game system that projects game image and created image onto projection target object
JP2006092156A (en) Program, information storage medium and image generation device
JP2009237680A (en) Program, information storage medium, and image generation system
EP2253358B1 (en) Game device, game device control method, program, information storage medium
JP6663634B2 (en) Video game device, video game control method, video game control program, and recording medium
JP2011101752A (en) Program, information storage medium, and image generating device
JP2006230578A (en) Program, information storage medium and game apparatus
JP4902847B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP2011186566A (en) Game device, control method for game device, and program
JP2013208373A (en) Program, information storage medium, and server
JP2001087543A (en) Motion reproduction control method, recording medium and game device
JP2009061161A (en) Program, information storage medium and game system
US7666097B2 (en) Method for generating image animation effect
JP2006255175A (en) Program, information storage medium and game apparatus
JP3880603B2 (en) Image processing apparatus, image processing method, and program
JP4334961B2 (en) Image generation information, information storage medium, and image generation apparatus
JP2010029375A (en) Game system, program, and information storage medium
WO2005031651A1 (en) Game software and game device
JP3663407B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP3491832B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP3533393B1 (en) GAME PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP4851809B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP2013150834A (en) Game device, control method of game device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111227

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111229

R150 Certificate of patent or registration of utility model

Ref document number: 4902847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees