JP2010231364A - Image generation system, program and information recording medium - Google Patents

Image generation system, program and information recording medium Download PDF

Info

Publication number
JP2010231364A
JP2010231364A JP2009076578A JP2009076578A JP2010231364A JP 2010231364 A JP2010231364 A JP 2010231364A JP 2009076578 A JP2009076578 A JP 2009076578A JP 2009076578 A JP2009076578 A JP 2009076578A JP 2010231364 A JP2010231364 A JP 2010231364A
Authority
JP
Japan
Prior art keywords
unit
combined
virtual space
contact
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009076578A
Other languages
Japanese (ja)
Inventor
Kazuhito Udetsu
和仁 宇出津
Kenji Nakano
健二 中野
Kenichi Mochizuki
健一 望月
Nobuyuki Nakano
信行 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2009076578A priority Critical patent/JP2010231364A/en
Publication of JP2010231364A publication Critical patent/JP2010231364A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide image generation system, program and information recording medium, enabling discrimination of a second object having not been bound before. <P>SOLUTION: The image generation system includes: a binding history memory unit for storing binding history information to discriminate whether or not the second object has been bound to a first object on the basis of each type of the second object; an update unit, when the first object and the second object are bound, for updating the binding history information based on the type of the bound second object; and a drawing unit for drawing the second object by drawing processing based on the binding history information according to whether or not the type has been bound before. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像生成システム、プログラム及び情報記憶媒体に関する。   The present invention relates to an image generation system, a program, and an information storage medium.

従来より、三次元仮想空間内を移動する第1のオブジェクトと当該仮想空間内に配置された第2のオブジェクトを結合させて、第1のオブジェクトを雪だるま式に大きくしていくゲームが知られている(特許文献1参照)。   Conventionally, a game is known in which a first object that moves in a three-dimensional virtual space and a second object arranged in the virtual space are combined to enlarge the first object in a snowball style. (See Patent Document 1).

特開2003−251076号公報JP 2003-251076 A

上記従来技術では、多くの種類の第2のオブジェクトを結合することがゲームの目的の一つとなっている。しかし、上記従来技術では、プレーヤは、仮想空間に配置された第2のオブジェクトが、結合されたことがある種類のものか否かを判別することができなかった。   In the above prior art, one of the purposes of the game is to combine many kinds of second objects. However, in the above prior art, the player cannot determine whether the second object arranged in the virtual space is of a type that has been combined.

また、上記従来技術では、第1のオブジェクトと第2のオブジェクトが接触した場合に所定の結合可能条件を満たすと両者が結合される。しかし、上記従来技術では、プレーヤは、仮想空間に配置された第2のオブジェクトが第1のオブジェクトと接触した場合に所定の結合可能条件を満たすことになるのか否かを判別することができなかった。   Moreover, in the said prior art, when a 1st object and a 2nd object contact, both will be couple | bonded if predetermined | prescribed coupling | bonding conditions are satisfy | filled. However, in the above prior art, the player cannot determine whether or not the predetermined connectable condition is satisfied when the second object arranged in the virtual space comes into contact with the first object. It was.

本発明は、上記事情に鑑みてなされたものであり、その目的は、プレーヤがまだ結合されたことのない第2のオブジェクトを判別することができるようにした画像生成システム、プログラム及び情報記憶媒体を提供することである。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image generation system, a program, and an information storage medium that enable a player to determine a second object that has not yet been combined. Is to provide.

また、本発明の他の目的は、プレーヤが結合可能な第2のオブジェクトを判別することができるようにした画像生成システム、プログラム及び情報記憶媒体を提供することである。   Another object of the present invention is to provide an image generation system, a program, and an information storage medium that allow a player to determine a second object that can be combined.

(1)上記課題を解決するため、本発明は、仮想空間内を移動する第1のオブジェクトに前記仮想空間内に配置された複数種類の第2のオブジェクトを結合させるゲームを実行させ、前記仮想空間内に配置された仮想カメラから前記仮想空間を見た画像を描画する画像生成システムであって、前記第1のオブジェクト及び複数種類の前記第2のオブジェクトが配置された仮想空間を設定する仮想空間設定部、前記仮想空間内で前記第1のオブジェクトを移動させる移動処理部、前記第1のオブジェクトと前記第2のオブジェクトが接触したか否かを判定する接触判定部、前記接触判定部により接触したと判定された場合に、接触した前記第1のオブジェクトと前記第2のオブジェクトが所定の結合可能条件を満たすか否かを判定する結合判定部、前記結合判定部により結合可能条件を満たすと判定された場合に、接触した前記第1のオブジェクトと前記第2のオブジェクトとを結合させる結合部、前記第2のオブジェクトの種類毎に前記第1のオブジェクトに結合されたことがあるか否かを識別する結合履歴情報を記憶する結合履歴記憶部、前記第1のオブジェクトと前記第2のオブジェクトが結合された場合に、結合された前記第2のオブジェクトの種類に基づいて、前記結合履歴情報を更新する更新部、前記結合履歴情報に基づいて、前記第2のオブジェクトを、結合されたことがある種類か否かに応じた描画処理で描画する描画部を有することを特徴とする画像生成システムに関係する。また、本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また、本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。   (1) In order to solve the above-described problem, the present invention executes a game in which a plurality of types of second objects arranged in the virtual space are combined with a first object that moves in the virtual space, and the virtual object An image generation system that draws an image of the virtual space viewed from a virtual camera arranged in the space, wherein a virtual space in which the first object and a plurality of types of the second objects are arranged is set A space setting unit, a movement processing unit that moves the first object in the virtual space, a contact determination unit that determines whether or not the first object and the second object are in contact with each other, and the contact determination unit A combination determination for determining whether or not the contacted first object and the second object satisfy a predetermined connectable condition when it is determined that the contact is made A combination unit that combines the contacted first object and the second object when the combination determination unit determines that the combination possible condition is satisfied, and the first object for each type of the second object. A combined history storage unit for storing combined history information for identifying whether or not the object has been combined, and the second object combined when the first object and the second object are combined An update unit that updates the combination history information based on the type of the object, and the second object is drawn based on the combination history information by a drawing process according to whether or not the type has been combined The present invention relates to an image generation system characterized by having a drawing unit. The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to an information storage medium that can be read by a computer and stores (records) a program that causes the computer to function as each of the above-described units.

本発明によれば、プレーヤは結合されたことのある種類の第2のオブジェクトと結合されたことのない種類の第2のオブジェクトを区別することが可能となる。これにより、結合されたことのない種類の第2のオブジェクトを選択して結合させて、より多くの種類の第2のオブジェクトを結合されたことのある状態にするというプレイができる。   According to the present invention, the player can distinguish between a second object of a type that has been combined with a second object of a type that has not been combined. Accordingly, it is possible to play by selecting a second object of a type that has not been combined and combining the second objects so that more types of second objects have been combined.

(2)また、本発明にかかる画像生成システム、プログラム、および情報記憶媒体において、前記描画部は、結合されたことのある種類の前記第2のオブジェクトを第1の描画処理で描画し、結合されたことのない種類の前記第2のオブジェクトを第2の描画処理で描画するようにしてもよい。   (2) Further, in the image generation system, the program, and the information storage medium according to the present invention, the drawing unit draws the second object of a type that has been combined with the first drawing processing, and combines them. The second object of a type that has never been performed may be rendered in the second rendering process.

このようにすれば、第1の描画処理及び第2の描画処理によって、結合されたことのある種類の第2のオブジェクトと結合されたことのない種類の第2のオブジェクトが区別して描画される。   In this way, the first drawing process and the second drawing process draw the second object of the type that has not been combined with the second object of the type that has been combined with each other. .

(3)また、本発明にかかる画像生成システム、プログラム、および情報記憶媒体において、前記描画部は、結合されたことのある種類であり、かつ前記第1のオブジェクトまたは前記仮想カメラからの距離が所定以内の位置に配置された前記第2のオブジェクトを第1の描画処理で描画し、他の前記第2のオブジェクトを第2の描画処理で描画するようにしてもよい。   (3) In the image generation system, the program, and the information storage medium according to the present invention, the drawing unit is a type that has been combined, and the distance from the first object or the virtual camera is The second object arranged at a position within a predetermined range may be drawn by the first drawing process, and the other second object may be drawn by the second drawing process.

このようにすれば、プレーヤは結合されたことのある種類の第2のオブジェクトのうち、所定範囲に位置するものを特に区別することが可能になる。   In this way, the player can particularly distinguish among the second objects of a type that have been combined, those that are located within a predetermined range.

(4)また、本発明にかかる画像生成システム、プログラム、および情報記憶媒体は、前記ゲームの進行を制御し、前記ゲームの進行状況が所定の条件を満たしたか否かを判定するゲーム処理部を有し、前記仮想空間設定部は、前記ゲームの進行状況が所定の条件を満たしたと判定された場合、新たに前記第2のオブジェクトを配置し、前記更新部は、前記進行状況が所定の条件を満たす前に更新された前記結合履歴情報を維持しつつ、前記進行状況が所定の条件を満たした後に結合された前記第2のオブジェクトの種類に基づいて、前記結合履歴情報を更新し、前記描画部は、前記結合履歴情報に基づいて、前記進行状況が所定の条件を満たした後に新たに配置された前記第2のオブジェクトを描画するよういしてもよい。   (4) The image generation system, the program, and the information storage medium according to the present invention include a game processing unit that controls the progress of the game and determines whether or not the progress of the game satisfies a predetermined condition. And the virtual space setting unit newly arranges the second object when it is determined that the progress status of the game satisfies a predetermined condition, and the update unit sets the progress status as a predetermined condition. Maintaining the combined history information updated before satisfying, updating the combined history information based on the type of the second object combined after the progress satisfies a predetermined condition, The drawing unit may draw the second object newly arranged after the progress condition satisfies a predetermined condition based on the combination history information.

このようにすれば、プレーヤは、進行状況が所定の条件を満たした後のゲームにおいて、仮想空間に配置された第2のオブジェクトが、進行状況が所定の条件を満たす前後を通じて結合されたことのある種類か否かを区別することができる。   In this way, in the game after the progress condition satisfies the predetermined condition, the player can confirm that the second object arranged in the virtual space is combined before and after the progress condition satisfies the predetermined condition. It can be distinguished whether it is a certain type or not.

(5)また、本発明は、仮想空間内を移動する第1のオブジェクトに前記仮想空間内に配置された複数の第2のオブジェクトを結合させるゲームを実行し、前記仮想空間内に配置された仮想カメラから前記仮想空間を見た画像を描画する画像生成システムであって、前記第1のオブジェクト及び設定された基準値が互いに異なる複数の第2のオブジェクトを前記仮想空間内に配置する仮想空間設定部、前記仮想空間内で前記第1のオブジェクトを移動させる移動処理部、前記第1のオブジェクトと前記第2のオブジェクトとが接触したか否かを判定する接触判定部、前記接触判定手段により接触したと判定された場合に、接触した前記第1のオブジェクトと前記第2のオブジェクトが所定の結合可能条件を満たすか否かを前記基準値に基づいて判定する結合判定部、前記結合判定手段により結合可能条件を満たすと判定された場合、接触した前記第1のオブジェクトと前記第2のオブジェクトとを結合させる結合部、前記第2のオブジェクトを、前記接触判定手段により接触したと判定された場合に前記結合可能条件を満たすことになる前記基準値が設定されているか否かに応じた描画処理で描画する描画部、を有することを特徴とする画像生成システムに関係する。また、本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また、本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。   (5) Further, the present invention executes a game in which a plurality of second objects arranged in the virtual space are combined with the first object moving in the virtual space, and the game is arranged in the virtual space. An image generation system for drawing an image of the virtual space viewed from a virtual camera, wherein the first object and a plurality of second objects having different set reference values are arranged in the virtual space A setting unit, a movement processing unit that moves the first object in the virtual space, a contact determination unit that determines whether or not the first object and the second object are in contact with each other, and the contact determination unit Based on the reference value, it is determined whether or not the contacted first object and the second object satisfy a predetermined connectable condition when it is determined that the contact is made. A combination determination unit for determining, a combination unit for combining the first object and the second object in contact with each other when the combination determination unit determines that the combination possible condition is satisfied, and the second object, An image having a drawing unit that draws by drawing processing according to whether or not the reference value that satisfies the connectable condition is set when it is determined that the contact is determined by the contact determination unit Related to the generation system. The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to an information storage medium that can be read by a computer and stores (records) a program that causes the computer to function as each of the above-described units.

本発明によれば、プレーヤは複数の第2のオブジェクトのうちのどれが結合可能かどうかを判断することができる。   According to the present invention, the player can determine which of the plurality of second objects can be combined.

(6)また、本発明にかかる画像生成システム、プログラム、および情報記憶媒体は、 前記仮想空間設定部は、複数種類の前記第2のオブジェクトを前記仮想空間内に配置し、前記第2のオブジェクトの種類毎に、前記接触判定手段により接触したと判定された場合に前記結合可能条件を満たすことになる前記基準値が設定されているか否かを識別する結合可能情報を記憶する結合可能情報記憶部、所与のタイミングで、前記結合可能情報を更新する更新部を有し、前記描画部は、前記第2のオブジェクトを、前記結合可能情報に応じた描画処理で描画するようにしてもよい。   (6) In the image generation system, the program, and the information storage medium according to the present invention, the virtual space setting unit arranges a plurality of types of the second objects in the virtual space, and the second object Combinable information storage for storing concatenable information for identifying whether or not the reference value that satisfies the combining condition is determined when it is determined that the contact determination unit determines that the contact has been made, for each type. And an update unit that updates the connectable information at a given timing, and the drawing unit may draw the second object by a drawing process corresponding to the connectable information. .

このようにすれば、所与のタイミングで更新される結合可能情報に応じた描画処理で、第2のオブジェクトを描画することができる。   In this way, the second object can be drawn by the drawing process corresponding to the connectable information updated at a given timing.

(7)また、本発明にかかる画像生成システム、プログラム、および情報記憶媒体は、前記ゲームの進行を制御し、前記ゲームの進行状況が所定の条件を満たしたか否かを判定するゲーム処理部、前記ゲームの進行状況が所定の条件を満たしたと判定された場合に更新される進行履歴情報を記憶する進行履歴記憶部を有し、前記仮想空間設定部は、前記仮想空間内に前記第1のオブジェクトに結合不可能な背景オブジェクトを配置し、前記描画部は、前記進行履歴情報に基づいて、前記背景オブジェクトを描画するようにしてもよい。   (7) Further, an image generation system, a program, and an information storage medium according to the present invention control a progress of the game and determine whether or not the progress of the game satisfies a predetermined condition. A progress history storage unit that stores progress history information that is updated when it is determined that the progress of the game satisfies a predetermined condition; and the virtual space setting unit includes the first virtual space in the virtual space. A background object that cannot be combined with the object is arranged, and the drawing unit may draw the background object based on the progress history information.

このようにすれば、プレーヤは背景オブジェクトの描画処理によって、ゲームの進行状況が所定の条件を満たしているか否かを判断することができる。   In this way, the player can determine whether or not the progress of the game satisfies a predetermined condition by the background object drawing process.

(8)また、本発明にかかる画像生成システム、プログラム、および情報記憶媒体において、前記結合判定部は、接触した前記第1のオブジェクトと前記第2のオブジェクトの大きさの関係が所定の条件を満たす場合に、前記結合可能条件を満たすと判定することを特徴とする。   (8) Further, in the image generation system, the program, and the information storage medium according to the present invention, the combination determination unit determines that a relationship between the sizes of the first object and the second object that are in contact with each other satisfies a predetermined condition. When the condition is satisfied, it is determined that the connectable condition is satisfied.

このようにすれば、第2のオブジェクトが結合可能な大きさなのかどうかを、プレーヤが判断する助けとなる。   This helps the player determine whether the second object is of a size that can be combined.

本実施形態の機能ブロック図。The functional block diagram of this embodiment. 本実施形態のゲーム画面の一例を示す図。The figure which shows an example of the game screen of this embodiment. 本実施形態のキャラクタについて説明する図。The figure explaining the character of this embodiment. 本実施形態のゲーム画面の一例を示す図。The figure which shows an example of the game screen of this embodiment. 本実施形態の結合履歴情報を示す図。The figure which shows the joint history information of this embodiment. 本実施形態のゲーム画面の一例を示す図。The figure which shows an example of the game screen of this embodiment. 本実施形態のゲーム画面の一例を示す図。The figure which shows an example of the game screen of this embodiment. 本実施形態のゲーム画面の一例を示す図。The figure which shows an example of the game screen of this embodiment. 本実施形態の進行履歴情報を示す図。The figure which shows the progress log information of this embodiment. 本実施形態のゲーム画面の一例を示す図。The figure which shows an example of the game screen of this embodiment. 本実施形態の処理の流れを示すフローチャート。The flowchart which shows the flow of the process of this embodiment. 本実施形態の処理の流れを示すフローチャート。The flowchart which shows the flow of the process of this embodiment. 本実施形態の処理の流れを示すフローチャート。The flowchart which shows the flow of the process of this embodiment.

以下、本発明の実施形態について説明する。なお、以下に説明する本発明の実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本発明の実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, embodiments of the present invention will be described. The embodiment of the present invention described below does not unduly limit the content of the present invention described in the claims. In addition, all the configurations described in the embodiments of the present invention are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲームシステム)の機能ブロック図の例を示す。なお本実施形態の画像生成システムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation system (game system) of the present embodiment. Note that the image generation system of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部10は、プレーヤがキャラクタ(プレーヤが操作するプレーヤキャラクタなど)の操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。   The operation unit 10 is for a player to input operation data of a character (player character operated by the player, etc.), and the function is realized by a lever, a button, a steering, a microphone, a touch panel type display, or a casing. it can.

記憶部20は、処理部100や通信部70などのワーク領域となるもので、その機能はRAM、VRAMなどにより実現できる。記憶部20は、オブジェクトデータ記憶部21、フレームバッファ22、デプスバッファ23、テクスチャ記憶部24、結合履歴記憶部25、進行履歴記憶部26を含む。   The storage unit 20 serves as a work area for the processing unit 100, the communication unit 70, and the like, and its function can be realized by a RAM, a VRAM, or the like. The storage unit 20 includes an object data storage unit 21, a frame buffer 22, a depth buffer 23, a texture storage unit 24, a combined history storage unit 25, and a progress history storage unit 26.

オブジェクトデータ記憶部21には、プレーヤキャラクタ(第1のオブジェクトの一例)、車、建物、樹木、柱、壁等のキャラクタに結合可能なオブジェクト(第2のオブジェクトの一例)、マップ(背景オブジェクトの一例)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)や、光が進行する方向や強さや色を示す光源等のオブジェクトデータが記憶される。本実施形態では、第1のオブジェクト、第2のオブジェクトには大きさ(基準値の一例)が設定されている。また、第2のオブジェクトには種類が設定されている。   The object data storage unit 21 includes a player character (an example of a first object), an object (an example of a second object) that can be combined with a character such as a car, a building, a tree, a pillar, and a wall, and a map (a background object). Object data such as light sources that indicate the direction, intensity, and color of light travel, and various objects (objects composed of primitives such as polygons, free-form surfaces, or subdivision surfaces) representing display objects such as an example) are stored. . In the present embodiment, sizes (an example of reference values) are set for the first object and the second object. A type is set for the second object.

フレームバッファ22には、仮想空間を仮想カメラから見た画像が描画される。フレームバッファに描画された画像は表示部50に表示される。   In the frame buffer 22, an image obtained by viewing the virtual space from the virtual camera is drawn. The image drawn in the frame buffer is displayed on the display unit 50.

デプスバッファ23には、フレームバッファの各ピクセルに対応させて、仮想カメラからオブジェクトまでの距離を表すデプス値(Z値)がピクセル毎に記憶される。   In the depth buffer 23, a depth value (Z value) representing the distance from the virtual camera to the object is stored for each pixel corresponding to each pixel of the frame buffer.

テクスチャ記憶部24には、テクスチャデータが記憶される。テクスチャデータは、色(RGB)、α値などのオブジェクトの表面に与えられるプロパティデータである。   Texture data is stored in the texture storage unit 24. The texture data is property data given to the surface of the object such as color (RGB) and α value.

結合履歴記憶部25には、第2のオブジェクトの種類毎に第1のオブジェクトに結合されたことがあるか否かを識別する結合履歴情報が記憶される。   The connection history storage unit 25 stores connection history information for identifying whether or not the second object has been combined with the first object.

進行履歴記憶部26には、ゲームの進行状況が所定の条件を満たしたと判定された場合に更新される進行履歴情報が記憶される。   The progress history storage unit 26 stores progress history information that is updated when it is determined that the progress of the game satisfies a predetermined condition.

情報記憶媒体30(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体30に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体30には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   An information storage medium 30 (a computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), a magneto-optical disk (MO), a magnetic disk, a hard disk, and a magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 30. That is, the information storage medium 30 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

携帯型情報記憶装置40は、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、メモリカードや携帯型ゲーム装置などにより実現できる。   The portable information storage device 40 stores player personal data, game save data, and the like, and can be realized by a memory card, a portable game device, or the like.

表示部50は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。   The display unit 50 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like.

音出力部60は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The sound output unit 60 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

通信部70は外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 70 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or communication ASICs, programs, and the like. It can be realized by.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部70を介して情報記憶媒体30(あるいは記憶部20)に配信してもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。   A program (data) for causing a computer to function as each unit of the present embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 30 (or storage unit 20) via the network and communication unit 70. May be. Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.

処理部100(プロセッサ、ゲーム処理部)は、操作部10からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理(描画処理)、或いは音生成処理などの処理を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、イベント発生条件が満たされた場合にイベントを発生させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、ゲームの進行状況が所定の条件(例えばステージ等の所定のゲーム単位がクリアされたこと)を満たしたか否かを判定する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は、記憶部20をワーク領域として各種処理を行う。処理部100の機能は、各種プロセッサ(CPU(メインプロセッサ)、GPU(描画プロセッサ)、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor or game processing unit) performs processing such as game processing, image generation processing (drawing processing), or sound generation processing based on operation data from the operation unit 10 or a program. Here, the game process includes a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for generating an event when the event generation condition is satisfied, and an object such as a character or a map. A process for arranging, a process for displaying an object, a process for calculating a game result, a process for determining whether or not the progress of the game satisfies a predetermined condition (for example, a predetermined game unit such as a stage has been cleared), Alternatively, there is a process for ending the game when the game end condition is satisfied. The processing unit 100 performs various processes using the storage unit 20 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU (main processor), GPU (drawing processor), DSP, etc.), ASIC (gate array, etc.), and programs.

そして処理部100は、仮想空間設定部110、移動処理部112、接触判定部114、結合判定部116、結合部118、更新部120、仮想カメラ制御部124、描画部126、音生成部128を含む。なおこれらの一部を省略する構成としてもよい。   The processing unit 100 includes a virtual space setting unit 110, a movement processing unit 112, a contact determination unit 114, a combination determination unit 116, a combination unit 118, an update unit 120, a virtual camera control unit 124, a drawing unit 126, and a sound generation unit 128. Including. Note that some of these may be omitted.

仮想空間設定部110は、オブジェクトデータ記憶部21に記憶されているオブジェクトデータに基づいて、オブジェクトを仮想空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、決定された位置(X、Y、Z)に決定された回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトや光源を配置する。   The virtual space setting unit 110 performs processing for setting an object in the virtual space based on the object data stored in the object data storage unit 21. That is, the position and rotation angle (synonymous with direction and direction) of the object in the world coordinate system are determined, and the determined rotation angle (about the X, Y, and Z axes) is determined at the determined position (X, Y, Z). Rotate the object and light source.

移動処理部112は、オブジェクト(キャラクタ、車、又は飛行機等)の移動・動作演算(移動・動作シミュレーション)を行う。すなわち操作部10によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、オブジェクトをオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させる処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The movement processing unit 112 performs a movement / motion calculation (movement / motion simulation) of an object (such as a character, a car, or an airplane). That is, the object is moved in the object space or the object is moved (motion, animation) based on the operation data input by the player through the operation unit 10, the program (movement / motion algorithm), various data (motion data), or the like. ) Is performed. Specifically, object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part that constitutes the object) are sequentially transmitted every frame (1/60 seconds). Perform the required simulation process. A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.

接触判定部114は、仮想空間に配置された各種オブジェクトの位置、回転角度、形状、大きさに基づいて、オブジェクト同士が接触したか否かの判定(ヒットチェック、コリジョン判定)を行う。オブジェクトの接触判定は、オブジェクトの表示モデルを近似したバウンディングボリュームを用いて行われる。尚、接触判定部114が、オブジェクト同士が見た目上は接触していなくても接触したと判定するようにしてもよい。例えば、接触判定用のバウンディングボリュームとして、オブジェクトよりも一回り大きいものを用いることによって、見た目上は接触していないオブジェクトを接触したと判定するようにしてもよい。   The contact determination unit 114 determines whether or not the objects are in contact with each other based on the position, rotation angle, shape, and size of various objects arranged in the virtual space (hit check, collision determination). Object contact determination is performed using a bounding volume that approximates the display model of the object. Note that the contact determination unit 114 may determine that the objects are in contact with each other even if they are not in contact with each other. For example, it may be determined that an object that is not visually touched is touched by using a bounding volume for touch determination that is slightly larger than the object.

結合判定部116は、第1のオブジェクトと第2のオブジェクトが接触したと判定された場合に、第1のオブジェクトと第2のオブジェクトの大きさに基づいて、両者が結合可能条件を満たすか否かを判定する。例えば、第1のオブジェクトに設定された大きさが第2のオブジェクトに設定された大きさよりも大きい場合に結合可能条件を満たすと判定する。また、結合判定部116は、第1のオブジェクトが第2のオブジェクトに対して所定以上の大きさの場合に結合可能条件を満たすと判定してもよい。例えば、第1のオブジェクトに設定された大きさが第2のオブジェクトに設定された大きさの3倍以上である場合に、結合可能条件を満たすと判定してもよい。   When it is determined that the first object and the second object are in contact with each other, the combining determination unit 116 determines whether or not both satisfy a combining condition based on the sizes of the first object and the second object. Determine whether. For example, when the size set for the first object is larger than the size set for the second object, it is determined that the joinable condition is satisfied. Further, the combination determination unit 116 may determine that the combination possible condition is satisfied when the first object is larger than a predetermined size with respect to the second object. For example, when the size set for the first object is three times or more the size set for the second object, it may be determined that the joinable condition is satisfied.

結合部118は、結合判定部116により結合可能条件を満たすと判定された場合に、接触した第1のオブジェクトと第2のオブジェクトを結合させる。具体的には、結合部118は、記憶部20に記憶された結合リストに、結合した第2のオブジェクトを追加する。この結合リストは、結合した順番に第2のオブジェクトが登録されるスタック型のデータである。結合部118は、接触点、または接触点の近傍の点で第1のオブジェクトと第2のオブジェクトを結合し、結合された第1のオブジェクトと第2のオブジェクトを一体化して新たな第1のオブジェクトとする。新たな第1のオブジェクトの大きさは、元の第1のオブジェクトと結合された第2のオブジェクトの大きさを合わせたものとなる。また、結合部118は、結合された第2のオブジェクトの大きさに基づいて、第1のオブジェクトに設定された接触判定用のバウンディングボリュームを更新する。   The combining unit 118 combines the first object and the second object that are in contact with each other when the combining determining unit 116 determines that the combining possible condition is satisfied. Specifically, the combining unit 118 adds the combined second object to the combined list stored in the storage unit 20. This combined list is stack type data in which the second objects are registered in the combined order. The combining unit 118 combines the first object and the second object at a contact point or a point in the vicinity of the contact point, and integrates the combined first object and second object into a new first object. An object. The size of the new first object is the sum of the sizes of the second objects combined with the original first object. Further, the combining unit 118 updates the bounding volume for contact determination set for the first object based on the size of the combined second object.

更新部120は、第1のオブジェクトと第2のオブジェクトが結合された場合に、結合された第2のオブジェクトの種類に基づいて、結合履歴記憶部25に記憶された結合履歴情報を更新する。また、更新部120は、処理部100がゲームの進行状況が所定の条件を満たしたと判定した場合に、進行履歴記憶部26に記憶された進行履歴情報を更新する。   When the first object and the second object are combined, the update unit 120 updates the combined history information stored in the combined history storage unit 25 based on the type of the combined second object. Further, the update unit 120 updates the progress history information stored in the progress history storage unit 26 when the processing unit 100 determines that the progress of the game satisfies a predetermined condition.

仮想カメラ制御部124は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。   The virtual camera control unit 124 performs a virtual camera (viewpoint) control process for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do.

例えば仮想カメラによりオブジェクト(例えばキャラクタ、車)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させたりする制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。   For example, when an object (for example, a character or a car) is photographed from behind with a virtual camera, the position or rotation angle (the direction of the virtual camera) of the virtual camera is set so that the virtual camera follows changes in the position or rotation of the object. Control. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement processing unit 112. Alternatively, control may be performed such that the virtual camera is rotated at a predetermined rotation angle or moved along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera. When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.

描画部126は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部50に出力する。いわゆる3次元ゲーム画像を生成する場合には、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)がオブジェクトデータ記憶部21から入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、あるいは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセル(画素)とが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの描画色を決定し、透視変換されたオブジェクトの描画色をレンダリングターゲット(ピクセル単位で画像情報を記憶できるバッファ。フレームバッファ22等)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色(色値、輝度値)、法線、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。   The drawing unit 126 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 50. When generating a so-called three-dimensional game image, first, object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object (model) ) Is input from the object data storage unit 21, and vertex processing (shading by a vertex shader) is performed based on the vertex data included in the input object data. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary. In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate conversion (world coordinate conversion, camera coordinate conversion), clipping processing, perspective processing, and other geometric processing are performed. On the basis of the processing result, the vertex data given to the vertex group constituting the object is changed (updated or adjusted). Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel (pixel). Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed. In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to a rendering target (a buffer that can store image information in units of pixels, such as the frame buffer 22). That is, in pixel processing, per-pixel processing for setting or changing image information (color (color value, luminance value), normal, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Note that when there are a plurality of virtual cameras (viewpoints), an image can be generated so that an image seen from each virtual camera can be displayed as a divided image on one screen.

なお頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現される。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   The vertex processing and pixel processing are realized by hardware that enables polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of drawing processing is high, and expressive power is greatly improved compared to conventional hardware-based fixed drawing processing. Can do.

そして描画部126は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 126 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理が行われる。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、オブジェクトデータ記憶部21に保存される。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, the object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the object data storage unit 21. Is done.

光源計算としては、光源に設定される各種パラメータ(光源の強さ、色、位置、光源ベクトルなど)、オブジェクト(プリミティブ)や頂点に設定される各種パラメータ(反射属性、法線などのベクトルなど)、仮想カメラに設定される各種パラメータ(視線ベクトル、視点の位置など)に基づいて光の反射をシミュレートし、頂点毎に基本色(ディフューズ)と鏡面反射成分(スペキュラ)とを求める。   For light source calculation, various parameters set for the light source (light source intensity, color, position, light source vector, etc.), various parameters set for objects (primitives) and vertices (vectors such as reflection attributes, normals, etc.) Then, light reflection is simulated based on various parameters (gaze vector, viewpoint position, etc.) set in the virtual camera, and a basic color (diffuse) and a specular reflection component (specular) are obtained for each vertex.

テクスチャマッピングは、テクスチャ記憶部24に記憶されるテクスチャ(テクセル値、UV座標値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いてテクスチャ記憶部24からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間、トライリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value, UV coordinate value) stored in the texture storage unit 24 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit 24 using texture coordinates or the like set (given) to the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation, trilinear interpolation, etc. are performed as texel interpolation.

隠面消去処理としては、描画ピクセルの奥行き値(Z値)が格納されるデプスバッファ23(奥行きバッファ)を用いた奥行き比較法(デプステスト、Zテスト)による隠面消去処理を行う。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、デプスバッファ23に格納される奥行き値をピクセルごとに参照する。そして参照されたデプスバッファ23の奥行き値と、プリミティブの描画ピクセルでの奥行き値とを比較し、描画ピクセルでの奥行き値が、仮想カメラから見て手前側となる奥行き値(例えば小さな奥行き値)である場合には、その描画ピクセルの描画処理を行うとともにデプスバッファ23の奥行き値を新たな奥行き値に更新する。   As the hidden surface removal processing, hidden surface removal processing is performed by a depth comparison method (depth test, Z test) using a depth buffer 23 (depth buffer) in which the depth value (Z value) of the drawing pixel is stored. That is, when drawing a pixel corresponding to the primitive of the object, the depth value stored in the depth buffer 23 is referred to for each pixel. Then, the depth value of the referenced depth buffer 23 is compared with the depth value at the primitive drawing pixel, and the depth value at the drawing pixel is the front side when viewed from the virtual camera (for example, a small depth value). If it is, the drawing process of the drawing pixel is performed and the depth value of the depth buffer 23 is updated to a new depth value.

αブレンディングとしては、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)を行う。例えば通常αブレンディングの場合には下式(1)〜(3)の処理を行う。   As the α blending, a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on the α value (A value) is performed. For example, in the case of normal α blending, the following processes (1) to (3) are performed.

=(1−α)×R+α×R (1)
=(1−α)×G+α×G (2)
=(1−α)×B+α×B (3)
R Q = (1−α) × R 1 + α × R 2 (1)
G Q = (1−α) × G 1 + α × G 2 (2)
B Q = (1−α) × B 1 + α × B 2 (3)

また、加算αブレンディングの場合には下式(4)〜(6)の処理を行う。なお単純加算の場合はα=1として下式(4)〜(6)の処理を行う。   In addition, in the case of addition α blending, the following expressions (4) to (6) are performed. In the case of simple addition, α = 1 and the following formulas (4) to (6) are performed.

=R+α×R (4)
=G+α×G (5)
=B+α×B (6)
R Q = R 1 + α × R 2 (4)
G Q = G 1 + α × G 2 (5)
B Q = B 1 + α × B 2 (6)

また、減算αブレンディングの場合には下式(7)〜(9)の処理を行う。なお単純減算の場合はα=1として下式(7)〜(9)の処理を行う。   In the case of subtractive α blending, the processing of the following equations (7) to (9) is performed. In the case of simple subtraction, α = 1 and the following formulas (7) to (9) are processed.

=R−α×R (7)
=G−α×G (8)
=B−α×B (9)
R Q = R 1 −α × R 2 (7)
G Q = G 1 −α × G 2 (8)
B Q = B 1 −α × B 2 (9)

ここで、R、G、Bは、フレームバッファ22に既に描画されている画像(原画像)のRGB成分(色値)であり、R、G、Bは、フレームバッファ22に描画すべき画像のRGB成分である。また、R、G、Bは、αブレンディングにより得られる画像のRGB成分である。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。 Here, R 1 , G 1 , B 1 are RGB components (color values) of an image (original image) already drawn in the frame buffer 22, and R 2 , G 2 , B 2 are the frame buffer 22. Are RGB components of the image to be drawn. R Q , G Q , and B Q are RGB components of an image obtained by α blending. The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

尚、本実施形態では、描画部126は、第2のオブジェクトを描画する際に、結合履歴記憶部25に記憶された結合履歴情報に基づいて、描画する第2のオブジェクトが第1のオブジェクトに結合されたことのある種類か否かに応じた描画処理で描画を行う。例えば、描画する第2のオブジェクトが第1のオブジェクトに結合されたことのある種類か否かに応じて、頂点処理プログラムやピクセル処理プログラムを切り替えて描画を行う。   In the present embodiment, when the drawing unit 126 draws the second object, the second object to be drawn becomes the first object based on the combination history information stored in the combination history storage unit 25. Drawing is performed by drawing processing according to whether or not the type has been combined. For example, the vertex processing program and the pixel processing program are switched depending on whether the second object to be drawn is a type that has been combined with the first object.

また、描画部126は、描画する第2のオブジェクトが、第1のオブジェクトと接触した場合に結合可能条件を満たすことになる基準値が設定されているか否かに応じた描画処理で、第2のオブジェクトを描画する。   The drawing unit 126 is a drawing process according to whether or not a reference value that satisfies a connectable condition is set when the second object to be drawn comes into contact with the first object. Draw an object.

また、描画部126は、背景オブジェクトを描画する際に、進行履歴記憶部26に記憶された進行履歴情報を参照し、進行履歴情報に基づいた描画処理で描画を行う。例えば、既に一度クリアされたステージとまだ一度もクリアされたことのないステージの背景を異なる描画処理で描画する。   Further, when drawing the background object, the drawing unit 126 refers to the progress history information stored in the progress history storage unit 26 and performs drawing by a drawing process based on the progress history information. For example, the background of the stage that has already been cleared and the background of the stage that has never been cleared are drawn by different drawing processes.

音生成部128は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部60に出力する。   The sound generation unit 128 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 60.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

2.ゲーム概要
図2、図3を用いて本実施形態のゲームの概要を説明する。
2. Game Outline An outline of the game according to this embodiment will be described with reference to FIGS.

図2は、本実施形態のゲーム画面の一例を示す図である。プレーヤは操作入力により球体のキャラクタ130(第1のオブジェクト)を仮想空間内で移動させることができる。仮想空間には、コイン132、飴玉134、缶136、パイプ138、人140、ビル142等の大きさの異なる複数種類のオブジェクト(第2のオブジェクト)が各種類について複数個配置されている。また、仮想空間には、背景オブジェクトとして雲144、山146、太陽148、空150、地面152が配置されている。   FIG. 2 is a diagram illustrating an example of the game screen according to the present embodiment. The player can move the spherical character 130 (first object) in the virtual space by an operation input. In the virtual space, a plurality of types of objects (second objects) having different sizes, such as coins 132, jade balls 134, cans 136, pipes 138, people 140, buildings 142, etc., are arranged for each type. In the virtual space, a cloud 144, a mountain 146, the sun 148, the sky 150, and the ground 152 are arranged as background objects.

プレーヤがキャラクタ130を移動させ、キャラクタ130と第2のオブジェクトが接触した際に、キャラクタ130の大きさ(直径)が接触した第2のオブジェクトの大きさより大きい場合、キャラクタ130と接触した第2のオブジェクトが結合される。そして、結合したキャラクタ130と第2のオブジェクトが新たなキャラクタ130となる。新たなキャラクタ130の大きさは、元のキャラクタ130と比べて、結合した第2のオブジェクトの分大きくなる。また、新たなキャラクタ130の接触判定用のバウンディングボリュームも、結合した第2のオブジェクトの分大きくなる。本実施形態のゲームの目的は、第2のオブジェクトをキャラクタ130に結合させて、キャラクタ130を雪だるま式に大きくしていくことである。   When the player moves the character 130 and the character 130 and the second object come into contact with each other, and the size (diameter) of the character 130 is larger than the size of the second object with which the character 130 comes into contact, Objects are merged. Then, the combined character 130 and the second object become a new character 130. The size of the new character 130 is larger than the original character 130 by the combined second object. Further, the bounding volume for the contact determination of the new character 130 is also increased by the combined second object. The purpose of the game of the present embodiment is to combine the second object with the character 130 to make the character 130 larger in a snowball style.

図3は、キャラクタ130が雪だるま式に大きくなる様子を説明する図である。ゲーム開始直後は、キャラクタ130は、図3(A)に示す大きさである。この大きさのキャラクタ130には、キャラクタ130よりも小さいコイン132、飴玉134、缶136は結合させることができるが、キャラクタ130よりも大きいパイプ138、人140、ビル142は結合することができない。プレーヤは、結合可能な第2のオブジェクトを結合させて、キャラクタ130を大きくしていく。図3(B)は、図3(A)に示す状態から結合によって拡大したキャラクタ130を示している。尚、キャラクタ130に結合した第2のオブジェクトの大きさの合計が一定以上になると、キャラクタ130の中心の球体(表示モデル)が拡大するため、球体の内側に結合されている第2のオブジェクトは見えなくなる。この時点で、結合リストから球体の内側の第2のオブジェクトは削除される。図3(B)に示す大きさのキャラクタ130には、さらにパイプ138を結合させることができるようになる。さらに、キャラクタ130に第2のオブジェクトを結合させると、キャラクタ130は図3(C)に示す大きさに拡大する。この大きさのキャラクタ130には、さらに人140を結合することができる。このように、本実施形態のゲームでは、多くの第2のオブジェクトを結合させてキャラクタ130の大きさを拡大させるほど、多くの種類の第2のオブジェクトを結合させることができるようになる。   FIG. 3 is a diagram for explaining how the character 130 grows in a snowman style. Immediately after the game starts, the character 130 has the size shown in FIG. A coin 132, jade ball 134, and can 136 smaller than the character 130 can be combined with the character 130 of this size, but a pipe 138, a person 140, and a building 142 larger than the character 130 cannot be combined. . The player increases the character 130 by combining the second objects that can be combined. FIG. 3B shows a character 130 enlarged by combining from the state shown in FIG. Note that when the total size of the second objects coupled to the character 130 exceeds a certain value, the sphere (display model) at the center of the character 130 expands, so that the second object coupled to the inside of the sphere is Become invisible. At this point, the second object inside the sphere is deleted from the combined list. A pipe 138 can be further coupled to the character 130 having the size shown in FIG. Further, when the second object is combined with the character 130, the character 130 is enlarged to the size shown in FIG. A person 140 can be further coupled to the character 130 of this size. As described above, in the game according to the present embodiment, as the size of the character 130 is increased by combining more second objects, more types of second objects can be combined.

図2に戻り、本実施形態のゲームのステージ移行について説明する。図2のゲーム画面の左上には、大きさ情報153が表示されている。大きさ情報153には、ステージクリアのための目標となるキャラクタ130の大きさと、現在のキャラクタ130の大きさが表示されている。第2のオブジェクトを結合させて、キャラクタ130の大きさが5mに達すると、図2に示すステージはクリアとなり、次のステージをプレイすることができるようになる。   Returning to FIG. 2, the transition of the game stage of this embodiment will be described. Size information 153 is displayed on the upper left of the game screen of FIG. In the size information 153, the size of the character 130 that is the target for clearing the stage and the current size of the character 130 are displayed. When the size of the character 130 reaches 5 m by combining the second objects, the stage shown in FIG. 2 is cleared and the next stage can be played.

図4は、本実施形態のゲーム画面の一例を示す図である。具体的には、図4は、図2に示すステージをクリアした後にプレイ可能となる次のステージの画面の一例である。図4に示すステージには、図2に示すステージには無かったリンゴ154、枝156、木158等の新たな種類の第2のオブジェクトが配置されている。また、図2に示すステージと共通のオブジェクトである缶136も配置されている。このように、本実施形態では、特定のステージのみに配置されるステージ固有の第2のオブジェクトと、複数のステージに配置される汎用の第2のオブジェクトが存在する。図4に示すステージは、背景オブジェクトも図2に示すステージとは異なっている。図4に示すステージには、背景オブジェクトとして、月160、空162、地面164が配置されている。また、図4に示すステージは、クリア条件も図2に示すステージとは異なっている。図4の大きさ表示166に示すように、図4に示すステージではキャラクタ130の大きさを10mにすることがクリア条件となっている。また、図4に示すステージは、ステージ開始時のキャラクタ130の大きさも図2に示すステージとは異なっている。図4に示すステージでは、ステージの開始時のキャラクタ130の大きさは5mとなっている。   FIG. 4 is a diagram illustrating an example of the game screen of the present embodiment. Specifically, FIG. 4 is an example of a screen of the next stage that can be played after the stage shown in FIG. 2 is cleared. In the stage shown in FIG. 4, new types of second objects such as apples 154, branches 156, and trees 158 that were not in the stage shown in FIG. 2 are arranged. Further, a can 136 which is an object common to the stage shown in FIG. 2 is also arranged. Thus, in the present embodiment, there are stage-specific second objects that are arranged only on specific stages, and general-purpose second objects that are arranged on a plurality of stages. The stage shown in FIG. 4 is different in background object from the stage shown in FIG. On the stage shown in FIG. 4, a moon 160, the sky 162, and the ground 164 are arranged as background objects. Also, the stage shown in FIG. 4 is different from the stage shown in FIG. As shown in the size display 166 in FIG. 4, the clear condition is that the size of the character 130 is 10 m in the stage shown in FIG. 4. Further, the stage shown in FIG. 4 is different from the stage shown in FIG. 2 in the size of the character 130 at the start of the stage. In the stage shown in FIG. 4, the size of the character 130 at the start of the stage is 5 m.

このように、本実施形態のゲームでは、複数のステージが用意され、一つのステージに設定されたクリア条件を満たすことによって、他のステージをプレイすることが可能となる。複数のステージは、上述のように、配置される第2のオブジェクト、背景オブジェクト、クリア条件、ステージ開始時のキャラクタ130の大きさがそれぞれ異なっている。ステージのクリア条件は、キャラクタ130の大きさ以外にも、特定の第2のオブジェクトを結合させることや、ステージのプレイ時間が所定に達することなどとすることができる。   Thus, in the game of the present embodiment, a plurality of stages are prepared, and it is possible to play other stages by satisfying the clear condition set for one stage. As described above, the plurality of stages have different second objects, background objects, clear conditions, and the size of the character 130 at the start of the stage. In addition to the size of the character 130, the stage clearing condition may be that a specific second object is combined, the stage play time reaches a predetermined value, or the like.

3.本実施形態に特有の手法
3−1.結合履歴情報
図5は、本実施形態の結合履歴情報を示す図である。図5に示すように、結合履歴情報は、第2のオブジェクトの種類毎に、キャラクタ130に結合されたことがあるか否かを識別する情報である。ここで、結合済みフラグに1が設定されている種類の第2のオブジェクトは、キャラクタ130に結合されたことがあるものであり、結合済みフラグに0が設定されている種類の第2オブジェクトは、キャラクタ130に結合されたことがないものである。図5(A)は、第2のオブジェクトのうち、飴玉134及び缶136が結合されたことがある場合の結合履歴情報を示している。
3. 3. Method peculiar to this embodiment 3-1. Combined History Information FIG. 5 is a diagram showing combined history information according to the present embodiment. As shown in FIG. 5, the combination history information is information for identifying whether or not the character has been combined with the character 130 for each type of the second object. Here, the second object of the type whose combined flag is set to 1 has been combined with the character 130, and the second object of the type whose combined flag is set to 0 is , The character 130 has never been combined. FIG. 5A shows the connection history information when the jade ball 134 and the can 136 have been combined among the second objects.

ゲーム中に、結合済みフラグに0が設定されている種類の第2のオブジェクトが結合されると、結合済みフラグが0から1に更新される。図5(B)は、図5(A)の状態でさらにリンゴ154が結合された場合に、更新された結合履歴情報を示している。   When a second object of a type whose combined flag is set to 0 is combined during the game, the combined flag is updated from 0 to 1. FIG. 5B shows the combined history information updated when the apple 154 is further combined in the state of FIG.

図2に示すように、本実施形態の仮想空間には同じ種類の第2のオブジェクトが複数配置されているが、同じ種類の第2のオブジェクトのうち1つでも結合すれば、その種類の結合済みフラグが1に更新される。   As shown in FIG. 2, a plurality of second objects of the same type are arranged in the virtual space of this embodiment, but if one of the second objects of the same type is combined, that type of connection The completed flag is updated to 1.

この結合履歴情報は、プレーヤがより多くの種類の第2のオブジェクトを結合済みの状態にする意欲を高めるために用いられる。即ち、この結合履歴情報をプレーヤに表示すれば、プレーヤは結合済みフラグを見て、自分がまだ結合したことがない第2のオブジェクトの種類を知ることができ、多くの種類の第2のオブジェクトを結合済みの状態にする意欲が高まる。または、結合履歴情報そのものを表示するのではなく、第2のオブジェクトの一覧を表示し、結合済みフラグに基づいて一覧中の第2のオブジェクトの表示態様を変化させてもよい。あるいは、結合済みである第2のオブジェクトのみを一覧表示するようにしてもよい。   This combination history information is used to increase the player's willingness to place more types of second objects in a combined state. That is, if this combination history information is displayed on the player, the player can see the combined flag and know the type of the second object that has not been combined yet. Willingness to be in a combined state. Alternatively, instead of displaying the combined history information itself, a list of second objects may be displayed, and the display mode of the second object in the list may be changed based on the combined flag. Alternatively, only the second objects that have been combined may be displayed in a list.

さらに、本実施形態では、この結合履歴情報に基づいて、第2のオブジェクトを、結合されたことがある種類か否かに応じた描画処理で描画することによって、プレーヤがゲーム中に結合したことのある種類の第2のオブジェクトと結合したことのない種類の第2のオブジェクトを判別することができるようにしている。   Further, in the present embodiment, the player is combined during the game by drawing the second object based on the combination history information by drawing processing according to whether or not the second object has been combined. It is possible to discriminate a second object of a type that has not been combined with a second type of second object.

3−2.描画処理
図6は、本実施形態のゲーム画面の一例を示す図である。図6に示す画像では、第2のオブジェクトのうち、飴玉134及び缶136は全体がカラーで描画されているが、その他の第2のオブジェクトは輪郭線のみが所定の色で描画され輪郭の内部は白色一色で描画されている。また、背景オブジェクトも輪郭線のみが所定の色で描画され輪郭の内部は白色一色で描画されている。
3-2. Drawing Process FIG. 6 is a diagram showing an example of the game screen of the present embodiment. In the image shown in FIG. 6, among the second objects, the jade ball 134 and the can 136 are entirely drawn in color, but the other second objects are drawn in a predetermined color only in the outline. The interior is drawn in white. The background object is also drawn with a predetermined color only in the outline, and the outline is drawn in white.

図6は、図5(A)に示す結合履歴情報に基づいて、描画された画像である。図6に示すように、キャラクタ130には飴玉134及び缶136のみが結合されている。従って、図5(A)に示す結合履歴情報では、飴玉134及び缶136の結合済みフラグは1であり、他の種類の結合済みフラグは0になっている。この結合履歴情報に基づいて、第2のオブジェクトを、結合されたことがある種類か否かに応じた描画処理で描画することによって、図6に示すような画像が生成される。   FIG. 6 is an image drawn based on the connection history information shown in FIG. As shown in FIG. 6, only the jasper 134 and the can 136 are coupled to the character 130. Therefore, in the combined history information shown in FIG. 5A, the combined flag of the jasper 134 and the can 136 is 1, and the combined flags of other types are 0. An image as shown in FIG. 6 is generated by drawing the second object by a drawing process corresponding to whether or not the type has been combined based on the combination history information.

即ち、描画しようとする第2のオブジェクトが結合したことのある種類の飴玉134又は缶136である場合は、オブジェクトの頂点又はテクスチャデータに設定されたカラー値(RGB値)に基づいて通常のレンダリング処理(第1の描画処理の一例)で描画が行われる。一方、描画しようとする第2のオブジェクトが結合したことのない種類のものである場合は、オブジェクトの輪郭を抽出し、抽出された輪郭を所定の色で、その他の部分についてはオブジェクトの頂点又はテクスチャデータに設定されたカラー値に関わらず白色で描画する処理(第2の描画処理)が行われる。尚、輪郭の抽出は、描画しようとするオブジェクトより一回り大きい単色モデルを用いる方法、フレームバッファ上で隣接するピクセルとの色の差分に基づいて輪郭となるピクセルを特定する方法、オブジェクトに設定された法線の角度に基づいて輪郭を抽出する方法等がある。   That is, when the second object to be drawn is a kind of jade ball 134 or can 136 that has been combined, the normal value based on the color value (RGB value) set in the vertex or texture data of the object Drawing is performed in rendering processing (an example of first drawing processing). On the other hand, if the second object to be drawn is of a type that has never been combined, the outline of the object is extracted, the extracted outline is in a predetermined color, and the other part is the vertex of the object or A process of drawing in white (second drawing process) is performed regardless of the color value set in the texture data. Note that contour extraction is set for a method that uses a single color model that is slightly larger than the object to be drawn, a method that identifies a pixel that is a contour based on the color difference between adjacent pixels on the frame buffer, and an object. There is a method of extracting the contour based on the angle of the normal line.

3−3.ステージ移行と結合履歴情報
図5〜図7を用いて、ステージ移行と結合履歴情報の更新について説明する。尚、ここでは、図6に示すステージをクリアすると図7に示すステージがプレイできるようになるものとして説明する。
3-3. Stage Transition and Join History Information The stage transition and update of the join history information will be described with reference to FIGS. In the following description, it is assumed that the stage shown in FIG. 7 can be played when the stage shown in FIG. 6 is cleared.

本実施形態では、図6に示すステージ及び図7に示すステージにおいて結合された前記第2のオブジェクトの種類に基づいて、図5に示す結合履歴情報が更新される。そして、更新された結合履歴情報に基づいて、図6に示すステージ及び図7に示すステージが描画される。   In the present embodiment, the combined history information illustrated in FIG. 5 is updated based on the type of the second object combined in the stage illustrated in FIG. 6 and the stage illustrated in FIG. Based on the updated combination history information, the stage shown in FIG. 6 and the stage shown in FIG. 7 are drawn.

即ち、上述の通り、図6に示すステージにおいて結合があると、図5に示す結合履歴情報が更新される。そして、更新された結合履歴情報に基づいて、図6に示すステージに配置された第2のオブジェクトが、結合されたことがある種類か否かに応じた描画処理で描画される。   That is, as described above, when there is a combination in the stage shown in FIG. 6, the combination history information shown in FIG. 5 is updated. Then, based on the updated combination history information, the second object arranged on the stage shown in FIG. 6 is drawn by a drawing process according to whether or not the type has been combined.

そして、キャラクタ130の大きさが5mに達すると、図6に示すステージクリアとなり、図7に示すステージが開始される。ここで、図7に示すステージにおいて結合があった場合も、図6に示すステージの場合と同様に、図5に示す結合履歴情報が更新される。図5(B)は、図7に示すステージにおいて、リンゴ154のみがキャラクタ130に結合された場合の結合履歴情報を示している。図5(B)に示すように、図7に示すステージにおいて結合された種類であるリンゴ154の結合済みフラグが1に更新されている。また、図6に示すステージで結合された種類である飴玉134及び缶136の結合済みフラグは1のまま維持されている。   When the size of the character 130 reaches 5 m, the stage shown in FIG. 6 is cleared and the stage shown in FIG. 7 is started. Here, even when there is a combination in the stage shown in FIG. 7, the combination history information shown in FIG. 5 is updated as in the case of the stage shown in FIG. FIG. 5B shows the combined history information when only the apple 154 is combined with the character 130 in the stage shown in FIG. As shown in FIG. 5B, the combined flag of the apple 154 that is the type combined in the stage shown in FIG. In addition, the combined flag of the jade ball 134 and the can 136, which are the types combined in the stage shown in FIG.

図7に示すステージに配置された第2のオブジェクトは、図5(B)に示す結合履歴情報に基づいて、図6に示すステージ又は図7に示すステージにおいて結合されたことがある種類か否かに応じた描画処理で描画される。これにより、図7に示すゲーム画面では、図6に示すステージで結合された缶136、及び、図7に示すステージで結合されたリンゴ154がカラーで描画され、その他の第2のオブジェクトは輪郭線のみが所定の色で描画され輪郭の内部は白色一色で描画されている。   The second object placed on the stage shown in FIG. 7 is a type that has been combined in the stage shown in FIG. 6 or the stage shown in FIG. 7 based on the combination history information shown in FIG. It is drawn by a drawing process according to the above. Thus, on the game screen shown in FIG. 7, the can 136 combined at the stage shown in FIG. 6 and the apple 154 combined at the stage shown in FIG. 7 are drawn in color, and the other second objects are contoured. Only the line is drawn with a predetermined color, and the inside of the outline is drawn with a single white color.

このように、本実施形態では、クリア条件を満たしてステージが移行する前後で、結合履歴情報を持ち越すことによって、第2のオブジェクトを、複数のステージのいずれかで結合されたことがあるか否かに応じた描画処理で描画することができる。   As described above, in the present embodiment, whether or not the second object has been combined at any of the plurality of stages by carrying over the combination history information before and after the stage transitions after the clear condition is satisfied. Drawing can be performed by a drawing process corresponding to the above.

3−4.第2のオブジェクトの位置に応じた描画処理
図8は、本実施形態のゲーム画面の一例を示す図である。図8に示すゲーム画面では、キャラクタ130の地面152との接触点を中心とする円形の領域168の内側に配置された飴玉134bと、缶136bがカラーで描画され、その他の第2のオブジェクトは輪郭線のみが所定の色で描画され輪郭の内部は白色一色で描画されている。
3-4. Drawing Process According to Position of Second Object FIG. 8 is a diagram illustrating an example of a game screen according to the present embodiment. In the game screen shown in FIG. 8, the jade ball 134b and the can 136b arranged inside the circular area 168 centering on the contact point of the character 130 with the ground 152 are drawn in color, and other second objects Only the outline is drawn in a predetermined color, and the inside of the outline is drawn in white.

図8に示すゲーム画面の描画には、図6に示すゲーム画面の描画と同様に、図5(A)に示す結合履歴情報が用いられている。さらに、図8に示すゲーム画面の描画では、第2のオブジェクトがキャラクタ130からの距離が所定以内の位置に配置されているか否かに応じた描画処理で、第2のオブジェクトが描画されている。   The drawing of the game screen shown in FIG. 8 uses the combined history information shown in FIG. 5A, similarly to the drawing of the game screen shown in FIG. Further, in the drawing on the game screen shown in FIG. 8, the second object is drawn by a drawing process according to whether or not the second object is arranged at a position within a predetermined distance from the character 130. .

即ち、ここでは、描画しようとする第2のオブジェクトが結合したことのある種類のものであり、かつ領域168内に位置するものである場合は、第2のオブジェクトの頂点又はテクスチャデータに設定されたカラー値(RGB値)に基づいて通常のレンダリング処理で描画が行われる。一方、描画しようとする第2のオブジェクトが結合したことのない種類のものである場合、又は結合したことがある種類のものであり、かつ領域168外に位置するものである場合は、第2のオブジェクトの輪郭を抽出し、抽出された輪郭を所定の色で、その他の部分については第2のオブジェクトの頂点又はテクスチャデータに設定されたカラー値に関わらず白色で描画する処理が行われる。   That is, here, if the second object to be drawn is of a kind that has been combined and is located within the area 168, it is set to the vertex or texture data of the second object. Drawing is performed by normal rendering processing based on the color values (RGB values). On the other hand, if the second object to be drawn is of a type that has never been combined, or is of a type that has been combined and is located outside the region 168, the second object The contour of the object is extracted, and the extracted contour is rendered in a predetermined color, and the other portions are rendered in white regardless of the color value set in the vertex or texture data of the second object.

これにより、結合したことのある種類の第2のオブジェクトにキャラクタ130が近づくと、それまで白色だった第2のオブジェクトがカラーになるという演出効果が得られる。   As a result, when the character 130 approaches the second object of a kind that has been combined, the effect that the second object that has been white until now becomes a color is obtained.

3−5.背景オブジェクト
図9、図10を用いて、ステージクリア状況に基づく背景情報オブジェクトの描画処理について説明する。
3-5. Background Object A background information object drawing process based on the stage clear status will be described with reference to FIGS. 9 and 10.

図9は、複数のステージのクリア済み状況を示す情報(進行履歴情報の一例)である。上述の通り、本実施形態のゲームでは複数のステージが用意され、あるステージのクリア条件を満たすと新たなステージがプレイできるようになっている。そして、本実施形態では、図9に示すように、各ステージに対応付けて、ステージがクリア済みか否かを示すクリア済みフラグが設定される。図9において、クリア済みフラグに1が設定されているステージ1〜3は、そのステージについて既にクリア条件が満たされたことを表している。一方、クリア済みフラグに0が設定されているステージ4〜5は、そのステージについて未だクリア条件が満たされていないことを表している。クリア済みフラグに0が設定されているステージのクリア条件が満たされると、クリア済みフラグが1に更新される。   FIG. 9 is information (an example of progress history information) indicating the cleared status of a plurality of stages. As described above, in the game of the present embodiment, a plurality of stages are prepared, and a new stage can be played when a certain stage clear condition is satisfied. In the present embodiment, as shown in FIG. 9, a cleared flag indicating whether or not the stage has been cleared is set in association with each stage. In FIG. 9, stages 1 to 3 in which 1 is set in the cleared flag indicate that the clear condition has already been satisfied for the stage. On the other hand, stages 4 to 5 in which 0 is set in the cleared flag indicate that the clear condition is not yet satisfied for the stage. When the clear condition of the stage in which 0 is set in the cleared flag is satisfied, the cleared flag is updated to 1.

図10は、本実施形態のゲーム画面の一例を示す図である。具体的には、図10はクリア済みフラグに1が設定されたステージのゲーム画面を示している。図10に示すゲーム画面では、背景オブジェクト(雲144、山146、太陽148、空150、地面152)がカラーで描画されている。一方、上述した図2、図4〜図8に示すゲーム画面は、クリア済みフラグに0が設定されたステージの画面であり、これらのゲーム画面では背景オブジェクトは輪郭線のみが所定の色で描画され輪郭の内部は白色一色で描画されている。このように、本実実施形態では、クリア済みステージの背景とクリア済みでないステージを異なる描画処理で描画することによって、プレーヤが現在プレイしているステージがクリア済みか否かを判別できるようにしている。   FIG. 10 is a diagram illustrating an example of a game screen according to the present embodiment. Specifically, FIG. 10 shows a game screen of a stage in which 1 is set in the cleared flag. On the game screen shown in FIG. 10, background objects (clouds 144, mountains 146, sun 148, sky 150, ground 152) are drawn in color. On the other hand, the game screens shown in FIGS. 2 and 4 to 8 described above are screens of the stage in which the cleared flag is set to 0. In these game screens, only the outline is drawn in a predetermined color on the background object. The inside of the outline is drawn with a white color. As described above, in this embodiment, the background of the cleared stage and the stage that has not been cleared are drawn by different drawing processes, so that it is possible to determine whether or not the stage that the player is currently playing has been cleared. Yes.

また、図10に示すゲーム画面では、図5に示す結合履歴情報に基づいて、結合されたことのある種類の第2のオブジェクトはカラーで、結合されたことのない種類の第2のオブジェクトは輪郭線のみが所定の色で描画され輪郭の内部は白色一色で描画されている。このように、結合されたことのある種類の第2のオブジェクトと背景オブジェクトを同じ描画処理で描画することによって、仮想空間に配置されたオブジェクトのうち、結合されたことのない種類の第2のオブジェクトのみが、その他のオブジェクトと異なる描画処理で描画される。これにより、プレーヤはクリア済みのステージのプレイ時に、まだ結合したことのない第2のオブジェクトをより判別しやすくなる。   In the game screen shown in FIG. 10, based on the combination history information shown in FIG. 5, the type of second object that has been combined is color, and the type of second object that has not been combined is Only the outline is drawn in a predetermined color, and the inside of the outline is drawn in white. In this way, by drawing the second object of the type that has been combined with the background object by the same drawing process, the second type of the object that has not been combined among the objects arranged in the virtual space. Only the object is drawn in a different drawing process from the other objects. This makes it easier for the player to discriminate the second object that has not yet been combined when playing the cleared stage.

4.フローチャート
図11〜図13は、本実施形態の処理の流れを示すフローチャートである。
4). Flowcharts FIGS. 11 to 13 are flowcharts showing the flow of processing of this embodiment.

図11は、本実施形態の結合処理の流れを示すフローチャートである。画像生成システムはまず、操作入力に基づいて仮想空間内でキャラクタ130を移動させる(ステップS10)。そして、画像生成システムは、キャラクタ130と第2のオブジェクトが接触したか否かを判定する(ステップS12)。キャラクタ130と第2のオブジェクトが接触したと判定された場合(ステップ12:Y)、画像生成システムは次に、キャラクタ130の大きさが接触した第2のオブジェクトより大きいか否かを判定する(ステップS14)。キャラクタ130の大きさが接触した第2のオブジェクトより大きいと判定された場合(ステップS14:Y)、画像生成システムは、接触した第2のオブジェクトを結合リストに追加する(ステップS16)。そして、画像生成システムは、結合リストに追加された第2のオブジェクトの大きさに基づいて、キャラクタ130の大きさを更新する(ステップS18)。さらに、画像生成システムは、結合リストに追加された第2のオブジェクトの大きさに基づいて、キャラクタ130に設定された接触判定用のバウンディングボリュームを更新する。(ステップS20)。そして、画像生成システムは、結合履歴情報のうち、結合した第2のオブジェクトの種類の結合済みフラグを1に更新する(ステップS22)。   FIG. 11 is a flowchart showing the flow of the combining process of this embodiment. First, the image generation system moves the character 130 in the virtual space based on the operation input (step S10). Then, the image generation system determines whether or not the character 130 is in contact with the second object (step S12). If it is determined that the character 130 and the second object are in contact (step 12: Y), the image generation system next determines whether or not the size of the character 130 is larger than the contacted second object ( Step S14). When it is determined that the size of the character 130 is larger than the contacted second object (step S14: Y), the image generation system adds the contacted second object to the combined list (step S16). Then, the image generation system updates the size of the character 130 based on the size of the second object added to the combined list (step S18). Furthermore, the image generation system updates the bounding volume for contact determination set for the character 130 based on the size of the second object added to the combined list. (Step S20). Then, the image generation system updates the combined flag of the combined second object type to 1 in the combined history information (step S22).

図12は、本実施形態の第2のオブジェクトの描画処理の流れを示すフローチャートである。第2のオブジェクトの描画処理において、画像生成システムはまず、結合履歴情報を参照し(ステップS30、描画しようとする第2のオブジェクトの種類の結合済みフラグが1か否かを判定する(ステップS32)。描画しようとする第2のオブジェクトの結合済みフラグが0だった場合(ステップS32:N)、画像生成システムは第2のオブジェクトを第2の描画処理で描画する(ステップS38)。一方、描画しようとする第2のオブジェクトの結合済みフラグが1だった場合(ステップS32:Y)、画像生成システムは次に、描画しようとする第2のオブジェクトの配置位置がキャラクタ130から所定範囲内か否かを判定する(ステップS34)。描画しようとする第2のオブジェクトの配置位置がキャラクタ130から所定範囲外だった場合(ステップS34:N)、画像生成システムは第2のオブジェクトを第2の描画処理で描画する(ステップS38)。一方、描画しようとする第2のオブジェクトの配置位置がキャラクタ130から所定範囲内だった場合(ステップS34:Y)、画像生成システムは第2のオブジェクトを第1の描画処理で描画する(ステップS36)。   FIG. 12 is a flowchart showing a flow of drawing processing of the second object of the present embodiment. In the drawing process of the second object, the image generation system first refers to the combination history information (step S30, and determines whether or not the combined flag of the type of the second object to be drawn is 1 (step S32). When the combined flag of the second object to be drawn is 0 (step S32: N), the image generation system draws the second object by the second drawing process (step S38). When the combined flag of the second object to be drawn is 1 (step S32: Y), the image generation system next checks whether the arrangement position of the second object to be drawn is within a predetermined range from the character 130. (Step S34) The arrangement position of the second object to be drawn is predetermined from the character 130. If it is outside the range (step S34: N), the image generation system draws the second object by the second drawing process (step S38), while the arrangement position of the second object to be drawn is the character 130. Is within the predetermined range (step S34: Y), the image generation system draws the second object by the first drawing process (step S36).

図13は、本実施形態の背景オブジェクトの描画処理の流れを示すフローチャートである。背景オブジェクトの描画処理において、画像生成システムはまず、進行履歴情報を参照し(ステップS40)、描画しようとする背景オブジェクトが配置されたステージのクリア済みフラグが1か否かを判定する(ステップS42)。クリア済みフラグが1だった場合(ステップS40:Y)、画像生成システムは、背景オブジェクトを第1の描画処理で描画する(ステップS44)。一方、クリア済みフラグが0だった場合(ステップS42:N)、画像生成システムは、背景オブジェクトを第2の描画処理で描画する(ステップS46)。   FIG. 13 is a flowchart showing the flow of background object rendering processing according to this embodiment. In the background object drawing process, the image generation system first refers to the progress history information (step S40), and determines whether or not the cleared flag of the stage where the background object to be drawn is arranged is 1 (step S42). ). When the cleared flag is 1 (step S40: Y), the image generation system draws the background object by the first drawing process (step S44). On the other hand, when the cleared flag is 0 (step S42: N), the image generation system draws the background object by the second drawing process (step S46).

5.変形例
尚、本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
5). Modifications The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.

5−1.結合可能条件に応じた描画処理
上記実施形態では、第2のオブジェクトを、結合されたことのある種類か否かに応じた描画処理で描画する例を説明したが、これに替えて、第1のオブジェクトと接触した場合に結合可能条件を満たすことになる基準値が設定されているか否かに応じた描画処理で描画するようにしてもよい。
5-1. Drawing Process According to Combineable Conditions In the above embodiment, an example has been described in which the second object is drawn by a drawing process according to whether or not the second object is a type that has been combined. You may make it draw by the drawing process according to whether the reference value which will satisfy | fill conditions which can be combined when it contacts with the object of this is set.

この場合、第2のオブジェクトが描画される際に、当該第2のオブジェクトの大きさとキャラクタ130の大きさが比較され、接触した場合に結合可能条件を満たすことになる場合にはカラーで、結合可能条件を満すことにならない場合は輪郭線のみが所定の色で描画され輪郭線の内部は白色一色で、第2のオブジェクトが描画されるようにしてもよい。   In this case, when the second object is drawn, the size of the second object is compared with the size of the character 130. If the possible condition is not satisfied, only the contour line may be drawn with a predetermined color, and the second object may be drawn with a white color inside the contour line.

あるいは、図5に示す結合履歴情報に加えて、もしくは図5に示す結合履歴情報に替えて、第2のオブジェクトの種類毎に各第2のオブジェクトがキャラクタ130と結合可能か否かを示す結合可否フラグ(結合可能情報の一例)を設定し、この結合可否フラグに基づいて第2のオブジェクトが描画されるようにしてもよい。この場合、所定のタイミング(第2のオブジェクトが結合されたとき、所定時間(例えば1フレーム)毎等)に、第2のオブジェクトの種類毎に設定された大きさとキャラクタ130の大きさの現在値が比較され、比較結果に基づいて結合可能フラグが更新される。   Alternatively, in addition to the combination history information shown in FIG. 5 or in place of the combination history information shown in FIG. 5, a combination indicating whether each second object can be combined with the character 130 for each type of second object. A possibility flag (an example of information that can be combined) may be set, and the second object may be drawn based on the combination permission flag. In this case, the current value of the size set for each type of the second object and the size of the character 130 at a predetermined timing (when the second object is combined, every predetermined time (for example, one frame)). Are compared, and the combination possible flag is updated based on the comparison result.

このようにすれば、プレーヤは複数の第2のオブジェクトのうちのどれが結合可能かどうかを判断することができる。   In this way, the player can determine which of the plurality of second objects can be combined.

5−2.描画処理
上記実施形態では、第1の描画処理としてオブジェクトをカラーで描画する処理が行われ、第2の描画処理としてオブジェクトの輪郭線のみを所定の色で描画し輪郭の内部は白色一色で描画する処理が行われる例を説明したが、描画処理はこれに限られない。
5-2. Drawing Processing In the above embodiment, processing for drawing an object in color is performed as the first drawing processing, and only the outline of the object is drawn in a predetermined color as the second drawing processing, and the inside of the contour is drawn in white color Although an example in which the process is performed has been described, the drawing process is not limited to this.

例えば、第1の描画処理としてオブジェクトをカラーで描画する処理が行われ、第2の描画処理としてオブジェクトをグレースケールで描画する処理が行われるようにしてもよい。この場合、第1の描画処理が行われる際は、オブジェクトの頂点やテクスチャデータに設定されたカラー値に基づいて通常のレンダリング方法でオブジェクトが描画され、第2の描画処理が行われる際は、第1の描画処理で求められたオブジェクトのピクセルのカラー値に対して所定のフィルタ処理を行って、カラー画像をグレースケール画像に変換するようにしてもよい。   For example, a process of drawing an object in color as the first drawing process may be performed, and a process of drawing the object in gray scale may be performed as the second drawing process. In this case, when the first drawing process is performed, the object is drawn by a normal rendering method based on the color value set in the vertex or texture data of the object, and when the second drawing process is performed, A predetermined filter process may be performed on the color value of the pixel of the object obtained in the first drawing process to convert the color image into a grayscale image.

また、第1の描画処理としてオブジェクトを不透明で描画する処理が行われ、第2の描画処理としてオブジェクトを半透明で描画する処理が行われるようにしてもよい。   Further, a process for drawing an object in an opaque manner may be performed as the first drawing process, and a process for drawing an object in a semi-transparent state may be performed as the second drawing process.

また、第1の描画処理としてオブジェクトを通常のレンダリング方法で描画する処理が行われ第2の描画処理としてオブジェクトを歪ませて描画する処理が行われるようにしてもよい。この場合、第2の描画処理が行われる際に、オブジェクトの頂点の位置が頂点処理プログラム(頂点シェーダプログラム)によって変化させられるようにしてもよい。   Further, a process of drawing an object by a normal rendering method may be performed as the first drawing process, and a process of drawing the object by distorting the object may be performed as the second drawing process. In this case, when the second drawing process is performed, the position of the vertex of the object may be changed by a vertex processing program (vertex shader program).

また、上記実施形態では、オブジェクトが第1の描画処理又は第2の描画処理で描画される例を説明したが、描画処理は2種類に限られず、3種類以上の描画処理のいずれかでオブジェクトが描画されるようにしてもよい。例えば、結合されたことのある種類の第2のオブジェクトが、さらに別の条件によって、複数の描画処理のいずれかで描画されるようにしてもよい。具体的には、結合履歴記憶情報として、結合済みフラグに加えて、第2のオブジェクトの種類毎にこれまでに結合された数が設定され、結合された数が所定数以上の種類の第2のオブジェクトは第3の描画処理で描画されるようにしてもよい。第3の描画処理としては、例えばオブジェクトの表面が輝くようなフィルタ処理や、所定数以上結合されたことを示すマークが入ったテクスチャをマッピングする処理が行われてもよい。   In the above-described embodiment, an example in which an object is drawn by the first drawing process or the second drawing process has been described. However, the drawing process is not limited to two types, and the object is one of three or more types of drawing processes. May be drawn. For example, a second object of a type that has been combined may be drawn in any of a plurality of drawing processes according to yet another condition. Specifically, as the combined history storage information, in addition to the combined flag, the number of combined objects so far is set for each type of the second object, and the combined number is a second number of types that is a predetermined number or more. The object may be drawn in the third drawing process. As the third drawing process, for example, a filter process for shining the surface of the object, or a process for mapping a texture including a mark indicating that a predetermined number or more are combined may be performed.

また、描画処理に加えて音を変化させるようにしてもよい。例えば、キャラクタ130と第2のオブジェクトが衝突した際、又はキャラクタ130と第2のオブジェクトが結合した際に、第2のオブジェクトが結合されたことのある種類か否かや、結合可能条件を満たすことになるか否かに応じた音を発生させるようにしてもよい。   In addition to the drawing process, the sound may be changed. For example, when the character 130 and the second object collide, or when the character 130 and the second object are combined, whether the second object has been combined or not, and the combining condition is satisfied. You may make it generate the sound according to whether it will be.

また、描画処理に加えて操作部10の振動処理を行うようにしてもよい。例えば、キャラクタ130と第2のオブジェクトが衝突した際、又はキャラクタ130と第2のオブジェクトが結合した際に、第2のオブジェクトが結合されたことのある種類か否かや、結合可能条件を満たすことになるか否かに応じて操作部10を振動させるようにしてもよい。   In addition to the drawing process, a vibration process of the operation unit 10 may be performed. For example, when the character 130 and the second object collide, or when the character 130 and the second object are combined, whether the second object has been combined or not, and the combining condition is satisfied. You may make it vibrate the operation part 10 according to whether it will be.

5−3.第2のオブジェクトの位置に応じた描画処理
上記実施形態では、図8に示すように、キャラクタ130が地面と接する点から所定範囲内に配置されているか否かに応じた描画処理で、第2のオブジェクトが描画される例について説明したが、第2のオブジェクトの位置に応じた描画処理の態様はこれに限られない。
5-3. Drawing Process According to the Position of the Second Object In the above embodiment, as shown in FIG. 8, the second drawing process is performed according to whether or not the character 130 is placed within a predetermined range from the point in contact with the ground. Although the example in which the object is drawn has been described, the aspect of the drawing process according to the position of the second object is not limited to this.

例えば、仮想カメラが配置された位置から所定範囲内に配置されているか否かに応じた描画処理で、第2のオブジェクトが描画されるようにしてもよい。また、仮想カメラの視界範囲内に配置されているか否かに応じた描画処理で、第2のオブジェクトが描画されるようにしてもよい。   For example, the second object may be drawn by a drawing process according to whether or not the virtual camera is arranged within a predetermined range from the position where the virtual camera is arranged. In addition, the second object may be drawn by a drawing process depending on whether or not it is arranged within the field of view of the virtual camera.

10 操作部、20 記憶部、21 オブジェクトデータ記憶部、22 フレームバッファ、23 デプスバッファ、24 テクスチャ記憶部、25 結合履歴記憶部、26 進行履歴記憶部、30 情報記憶媒体、40 携帯型情報記憶装置、50 表示部、60 音出力部、70通信部、100 処理部、110 仮想空間設定部、112 移動処理部、114 接触判定部、116 結合判定部、118 結合部、120 更新部、124 仮想カメラ制御部、126 描画部、128 音生成部、
130 キャラクタ、132 コイン、134 飴玉、136 缶、138 パイプ、140 人、142 ビル、144 雲、146 山、148 太陽、150 空、152 地面、153 大きさ情報、154 リンゴ、156 枝、158 木、160 月、162 空、164 地面、166 大きさ情報
DESCRIPTION OF SYMBOLS 10 Operation part, 20 Storage part, 21 Object data storage part, 22 Frame buffer, 23 Depth buffer, 24 Texture storage part, 25 Connection history storage part, 26 Progress history storage part, 30 Information storage medium, 40 Portable information storage device , 50 display unit, 60 sound output unit, 70 communication unit, 100 processing unit, 110 virtual space setting unit, 112 movement processing unit, 114 contact determination unit, 116 coupling determination unit, 118 coupling unit, 120 updating unit, 124 virtual camera Control unit, 126 drawing unit, 128 sound generation unit,
130 characters, 132 coins, 134 jade balls, 136 cans, 138 pipes, 140 people, 142 building, 144 clouds, 146 mountains, 148 sun, 150 sky, 152 ground, 153 size information, 154 apples, 156 branches, 158 trees , 160 months, 162 sky, 164 ground, 166 size information

Claims (11)

コンピュータに、仮想空間内を移動する第1のオブジェクトに前記仮想空間内に配置された複数種類の第2のオブジェクトを結合させるゲームを実行させ、前記仮想空間内に配置された仮想カメラから前記仮想空間を見た画像を描画させるためのプログラムであって、
前記第1のオブジェクト及び複数種類の前記第2のオブジェクトが配置された仮想空間を設定する仮想空間設定部、
前記仮想空間内で前記第1のオブジェクトを移動させる移動処理部、
前記第1のオブジェクトと前記第2のオブジェクトが接触したか否かを判定する接触判定部、
前記接触判定部により接触したと判定された場合に、接触した前記第1のオブジェクトと前記第2のオブジェクトが所定の結合可能条件を満たすか否かを判定する結合判定部、
前記結合判定部により結合可能条件を満たすと判定された場合に、接触した前記第1のオブジェクトと前記第2のオブジェクトとを結合させる結合部、
前記第2のオブジェクトの種類毎に前記第1のオブジェクトに結合されたことがあるか否かを識別する結合履歴情報を記憶する結合履歴記憶部、
前記第1のオブジェクトと前記第2のオブジェクトが結合された場合に、結合された前記第2のオブジェクトの種類に基づいて、前記結合履歴情報を更新する更新部、
前記結合履歴情報に基づいて、前記第2のオブジェクトを、結合されたことがある種類か否かに応じた描画処理で描画する描画部、
としてコンピュータを機能させることを特徴とするプログラム。
A computer is caused to execute a game in which a plurality of types of second objects arranged in the virtual space are combined with a first object moving in the virtual space, and the virtual camera is arranged from the virtual camera arranged in the virtual space. A program for drawing an image of a space,
A virtual space setting unit for setting a virtual space in which the first object and a plurality of types of the second objects are arranged;
A movement processing unit for moving the first object in the virtual space;
A contact determination unit that determines whether or not the first object and the second object are in contact with each other;
A combination determination unit that determines whether or not the contacted first object and the second object satisfy a predetermined combining condition when the contact determination unit determines that the contact has been made;
A combining unit that combines the first object and the second object that are in contact with each other when the combining determination unit determines that the combining possible condition is satisfied;
A combined history storage unit for storing combined history information for identifying whether or not the second object has been combined with the first object for each type of the second object;
An update unit that updates the combination history information based on a type of the second object combined when the first object and the second object are combined;
A drawing unit that draws the second object by a drawing process according to whether or not the type has been combined based on the combination history information;
A program characterized by causing a computer to function.
前記描画部は、結合されたことのある種類の前記第2のオブジェクトを第1の描画処理で描画し、結合されたことのない種類の前記第2のオブジェクトを第2の描画処理で描画することを特徴とする請求項1に記載のプログラム。   The drawing unit draws the second object of a type that has been combined with the first drawing process, and draws the second object of a type that has not been combined with the second drawing process. The program according to claim 1. 前記描画部は、結合されたことのある種類であり、かつ前記第1のオブジェクトまたは前記仮想カメラからの距離が所定以内の位置に配置された前記第2のオブジェクトを第1の描画処理で描画し、他の前記第2のオブジェクトを第2の描画処理で描画することを特徴とする請求項1に記載のプログラム。   The drawing unit draws the first object or the second object arranged at a position within a predetermined distance from the virtual camera by a first drawing process. The program according to claim 1, wherein the second object is drawn by a second drawing process. 前記ゲームの進行を制御し、前記ゲームの進行状況が所定の条件を満たしたか否かを判定するゲーム処理部としてコンピュータを機能させ、
前記仮想空間設定部は、前記ゲームの進行状況が所定の条件を満たしたと判定された場合、新たに前記第2のオブジェクトを配置し、
前記更新部は、前記進行状況が所定の条件を満たす前に更新された前記結合履歴情報を維持しつつ、前記進行状況が所定の条件を満たした後に結合された前記第2のオブジェクトの種類に基づいて、前記結合履歴情報を更新し、
前記描画部は、前記結合履歴情報に基づいて、前記進行状況が所定の条件を満たした後に新たに配置された前記第2のオブジェクトを描画することを特徴とする請求項1〜3に記載のプログラム。
Controlling the progress of the game, causing the computer to function as a game processing unit that determines whether the progress of the game satisfies a predetermined condition,
The virtual space setting unit newly arranges the second object when it is determined that the progress of the game satisfies a predetermined condition,
The updating unit maintains the combination history information updated before the progress state satisfies a predetermined condition, and sets the type of the second object combined after the progress state satisfies the predetermined condition. Based on the above, update the binding history information,
The said drawing part draws the said 2nd object newly arrange | positioned after the said progress condition satisfy | fills a predetermined condition based on the said joint log | history information, The Claims 1-3 characterized by the above-mentioned. program.
コンピュータに、仮想空間内を移動する第1のオブジェクトに前記仮想空間内に配置された複数の第2のオブジェクトを結合させるゲームを実行させ、前記仮想空間内に配置された仮想カメラから前記仮想空間を見た画像を描画させるためのプログラムであって、
前記第1のオブジェクト及び設定された基準値が互いに異なる複数の第2のオブジェクトを前記仮想空間内に配置する仮想空間設定部、
前記仮想空間内で前記第1のオブジェクトを移動させる移動処理部、
前記第1のオブジェクトと前記第2のオブジェクトとが接触したか否かを判定する接触判定部、
前記接触判定手段により接触したと判定された場合に、接触した前記第1のオブジェクトと前記第2のオブジェクトが所定の結合可能条件を満たすか否かを前記基準値に基づいて判定する結合判定部、
前記結合判定手段により結合可能条件を満たすと判定された場合、接触した前記第1のオブジェクトと前記第2のオブジェクトとを結合させる結合部、
前記第2のオブジェクトを、前記接触判定手段により接触したと判定された場合に前記結合可能条件を満たすことになる前記基準値が設定されているか否かに応じた描画処理で描画する描画部、
としてコンピュータを機能させることを特徴とするプログラム。
A computer is caused to execute a game for combining a plurality of second objects arranged in the virtual space with a first object moving in the virtual space, and the virtual space is arranged from the virtual camera arranged in the virtual space. A program for drawing an image that looks at
A virtual space setting unit that arranges the first object and a plurality of second objects having different set reference values in the virtual space;
A movement processing unit for moving the first object in the virtual space;
A contact determination unit that determines whether or not the first object and the second object are in contact with each other;
A combination determination unit that determines, based on the reference value, whether or not the contacted first object and the second object satisfy a predetermined combining condition when the contact determination unit determines that the contact has occurred. ,
A coupling unit that couples the first object and the second object in contact with each other when it is determined by the coupling determination unit that the coupling possible condition is satisfied;
A drawing unit that draws the second object by a drawing process according to whether or not the reference value that satisfies the combining condition is determined when it is determined that the second object is touched by the contact determination unit;
A program characterized by causing a computer to function.
前記仮想空間設定部は、複数種類の前記第2のオブジェクトを前記仮想空間内に配置し、
前記第2のオブジェクトの種類毎に、前記接触判定手段により接触したと判定された場合に前記結合可能条件を満たすことになる前記基準値が設定されているか否かを識別する結合可能情報を記憶する結合可能情報記憶部、
所与のタイミングで、前記結合可能情報を更新する更新部、
としてコンピュータを機能させ、
前記描画部は、前記第2のオブジェクトを、前記結合可能情報に応じた描画処理で描画することを特徴とする請求項5に記載のプログラム。
The virtual space setting unit arranges a plurality of types of the second objects in the virtual space,
For each type of the second object, connectable information for identifying whether or not the reference value that satisfies the connectable condition is determined when it is determined that the contact is determined by the contact determining unit is stored. A connectable information storage unit,
An update unit that updates the combinable information at a given timing;
Function as a computer
The program according to claim 5, wherein the drawing unit draws the second object by a drawing process according to the connectable information.
前記ゲームの進行を制御し、前記ゲームの進行状況が所定の条件を満たしたか否かを判定するゲーム処理部、
前記ゲームの進行状況が所定の条件を満たしたと判定された場合に更新される進行履歴情報を記憶する進行履歴記憶部、
としてコンピュータを機能させ、
前記仮想空間設定部は、前記仮想空間内に前記第1のオブジェクトに結合不可能な背景オブジェクトを配置し、
前記描画部は、前記進行履歴情報に基づいて、前記背景オブジェクトを描画することを特徴とする請求項1〜6に記載のプログラム。
A game processing unit that controls the progress of the game and determines whether the progress of the game satisfies a predetermined condition;
A progress history storage unit that stores progress history information updated when it is determined that the progress of the game satisfies a predetermined condition;
Function as a computer
The virtual space setting unit arranges a background object that cannot be combined with the first object in the virtual space,
The program according to claim 1, wherein the drawing unit draws the background object based on the progress history information.
前記結合判定部は、接触した前記第1のオブジェクトと前記第2のオブジェクトの大きさの関係が所定の条件を満たす場合に、前記結合可能条件を満たすと判定することを特徴とする請求項1〜7に記載のプログラム。   The combination determination unit determines that the combination possible condition is satisfied when a relationship between the sizes of the first object and the second object in contact satisfies a predetermined condition. The program according to -7. コンピュータにより読み取り可能な情報記憶媒体であって、請求項1〜8のいずれかに記載されたプログラムを記憶することを特徴とする情報記憶媒体。   An information storage medium readable by a computer, wherein the program according to any one of claims 1 to 8 is stored. 仮想空間内を移動する第1のオブジェクトに前記仮想空間内に配置された複数種類の第2のオブジェクトを結合させるゲームを実行し、前記仮想空間内に配置された仮想カメラから前記仮想空間を見た画像を描画する画像生成システムであって、
前記第1のオブジェクト及び複数種類の前記第2のオブジェクトが配置された仮想空間を設定する仮想空間設定部、
前記仮想空間内で前記第1のオブジェクトを移動させる移動処理部、
前記第1のオブジェクトと前記第2のオブジェクトが接触したか否かを判定する接触判定部、
前記接触判定部により接触したと判定された場合に、接触した前記第1のオブジェクトと前記第2のオブジェクトが所定の結合可能条件を満たすか否かを判定する結合判定部、
前記結合判定部により結合可能条件を満たすと判定された場合に、接触した前記第1のオブジェクトと前記第2のオブジェクトとを結合させる結合部、
前記第2のオブジェクトの種類毎に前記第1のオブジェクトに結合されたことがあるか否かを識別する結合履歴情報を記憶する結合履歴記憶部、
前記第1のオブジェクトと前記第2のオブジェクトが結合された場合に、結合された前記第2のオブジェクトの種類に基づいて、前記結合履歴情報を更新する更新部、
前記結合履歴情報に基づいて、前記第2のオブジェクトを、結合されたことがある種類か否かに応じた描画処理で描画する描画部、
を有することを特徴とする画像生成システム。
A game is executed in which a plurality of types of second objects arranged in the virtual space are combined with a first object moving in the virtual space, and the virtual space is viewed from a virtual camera arranged in the virtual space. An image generation system for drawing an image,
A virtual space setting unit for setting a virtual space in which the first object and a plurality of types of the second objects are arranged;
A movement processing unit for moving the first object in the virtual space;
A contact determination unit that determines whether or not the first object and the second object are in contact with each other;
A coupling determination unit that determines whether or not the contacted first object and the second object satisfy a predetermined combining condition when the contact determination unit determines that the contact has been made;
A combining unit that combines the first object and the second object that are in contact with each other when it is determined by the combining determination unit that the combining possible condition is satisfied;
A combined history storage unit for storing combined history information for identifying whether or not the second object has been combined with the first object for each type of the second object;
An update unit that updates the combination history information based on a type of the second object combined when the first object and the second object are combined;
A drawing unit that draws the second object by a drawing process based on whether or not the type has been combined based on the combination history information;
An image generation system comprising:
仮想空間内を移動する第1のオブジェクトに前記仮想空間内に配置された複数の第2のオブジェクトを結合させるゲームを実行し、前記仮想空間内に配置された仮想カメラから前記仮想空間を見た画像を描画する画像生成システムであって、
前記第1のオブジェクト及び設定された基準値が互いに異なる複数の第2のオブジェクトを前記仮想空間内に配置する仮想空間設定部、
前記仮想空間内で前記第1のオブジェクトを移動させる移動処理部、
前記第1のオブジェクトと前記第2のオブジェクトとが接触したか否かを判定する接触判定部、
前記接触判定手段により接触したと判定された場合に、接触した前記第1のオブジェクトと前記第2のオブジェクトが所定の結合可能条件を満たすか否かを前記基準値に基づいて判定する結合判定部、
前記結合判定手段により結合可能条件を満たすと判定された場合、接触した前記第1のオブジェクトと前記第2のオブジェクトとを結合させる結合部、
前記第2のオブジェクトを、前記接触判定手段により接触したと判定された場合に前記結合可能条件を満たすことになる前記基準値が設定されているか否かに応じた描画処理で描画する描画部、
を有することを特徴とする画像生成システム。
A game is executed in which a plurality of second objects arranged in the virtual space are combined with a first object moving in the virtual space, and the virtual space is viewed from a virtual camera arranged in the virtual space An image generation system for drawing an image,
A virtual space setting unit that arranges the first object and a plurality of second objects having different set reference values in the virtual space;
A movement processing unit for moving the first object in the virtual space;
A contact determination unit that determines whether or not the first object and the second object are in contact with each other;
A combination determination unit that determines, based on the reference value, whether or not the contacted first object and the second object satisfy a predetermined combining condition when the contact determination unit determines that the contact has occurred. ,
A coupling unit that couples the first object and the second object in contact with each other when it is determined by the coupling determination unit that the coupling possible condition is satisfied;
A drawing unit that draws the second object by a drawing process according to whether or not the reference value that satisfies the combining condition is determined when it is determined that the second object is touched by the contact determination unit;
An image generation system comprising:
JP2009076578A 2009-03-26 2009-03-26 Image generation system, program and information recording medium Withdrawn JP2010231364A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009076578A JP2010231364A (en) 2009-03-26 2009-03-26 Image generation system, program and information recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009076578A JP2010231364A (en) 2009-03-26 2009-03-26 Image generation system, program and information recording medium

Publications (1)

Publication Number Publication Date
JP2010231364A true JP2010231364A (en) 2010-10-14

Family

ID=43047138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009076578A Withdrawn JP2010231364A (en) 2009-03-26 2009-03-26 Image generation system, program and information recording medium

Country Status (1)

Country Link
JP (1) JP2010231364A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021087149A (en) * 2019-11-29 2021-06-03 グリー株式会社 Video distribution system, information processing method, and computer program
WO2023157323A1 (en) * 2022-03-03 2023-08-24 任天堂株式会社 Game program, game device, game system, and game processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021087149A (en) * 2019-11-29 2021-06-03 グリー株式会社 Video distribution system, information processing method, and computer program
WO2023157323A1 (en) * 2022-03-03 2023-08-24 任天堂株式会社 Game program, game device, game system, and game processing method
JP7487415B2 (en) 2022-03-03 2024-05-20 任天堂株式会社 GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD

Similar Documents

Publication Publication Date Title
JP4651435B2 (en) Program, information storage medium, and image generation system
JP2009237680A (en) Program, information storage medium, and image generation system
JP4717622B2 (en) Program, information recording medium, and image generation system
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP4305903B2 (en) Image generation system, program, and information storage medium
JP2006195882A (en) Program, information storage medium and image generation system
JP2007026112A (en) Program, information storage medium and image generation system
JP2011053737A (en) Program, information storage medium and image generation device
JP4749198B2 (en) Program, information storage medium, and image generation system
JP2009129167A (en) Program, information storage medium, and image generation system
JP4754384B2 (en) Program, information recording medium, and image generation system
JP4743770B2 (en) Image generation system, program, and information storage medium
JP2006323512A (en) Image generation system, program, and information storage medium
JP5253118B2 (en) Image generation system, program, and information storage medium
JP2010231364A (en) Image generation system, program and information recording medium
JP4913399B2 (en) Program, information storage medium, and image generation system
JP2011215724A (en) Program, information storage medium, and image generation system
JP2010134798A (en) Program, information storage medium, game device, and game system
JP4754385B2 (en) Program, information recording medium, and image generation system
JP2012155731A (en) Retrieval system
JP4476040B2 (en) Program, information storage medium, and image generation system
JP2011209864A (en) Program, information storage medium, and image creation system
JP2010233821A (en) Game system, program and information storage medium
JP2010033253A (en) Program, information storage medium, and image generation system
JP4521811B2 (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120605