JP5305765B2 - Program and game system - Google Patents

Program and game system Download PDF

Info

Publication number
JP5305765B2
JP5305765B2 JP2008181699A JP2008181699A JP5305765B2 JP 5305765 B2 JP5305765 B2 JP 5305765B2 JP 2008181699 A JP2008181699 A JP 2008181699A JP 2008181699 A JP2008181699 A JP 2008181699A JP 5305765 B2 JP5305765 B2 JP 5305765B2
Authority
JP
Japan
Prior art keywords
character
data
unit
melody
melody data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008181699A
Other languages
Japanese (ja)
Other versions
JP2010017402A (en
Inventor
義人 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2008181699A priority Critical patent/JP5305765B2/en
Publication of JP2010017402A publication Critical patent/JP2010017402A/en
Application granted granted Critical
Publication of JP5305765B2 publication Critical patent/JP5305765B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a game system capable of reflecting the change of the game situation corresponding to the situation of a character in a melody when a plurality of melody data including the melody data associated with the character are simultaneously played. <P>SOLUTION: The game system 10 includes a character data storage portion 106 for storing data of a plurality of characters; an object space setting portion 206 for setting the plurality of characters in an object space; a displacement-motion control portion 210 for controlling at least either the displacement or motions of the plurality of characters; an image drawing portion 224 for drawing the image of the object space as a game image; a sound control portion 216 for simultaneously playing the plurality of melody data including the melody data associated with the respective characters; and a first determination portion for determining whether a first condition previously set for each character is satisfied or not. The sound control portion 216 adjusts the volume of sound of the plurality of melody data for the respective melody data based on the result of determination by the first determination portion. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明は、プログラム、情報記憶媒体、ゲーム装置に関する。 The present invention relates to a program, an information storage medium, and a game device.

従来から、キャラクタ毎に旋律データを対応付ける技術が知られている。例えば特許文献1には、プレイヤが予め曲の中のどのフレーズをどのキャラクタが歌うのかを特定する特定データを設定し、各キャラクタが特定されたフレーズを歌うゲームシステムが記載されている。特許文献1に記載のゲームシステムは、複数のキャラクタに対応付けられた旋律データを同時に再生し、特定データで特定されていないキャラクタに対応付けられた旋律データをミュートすることによって、特定データで特定されたキャラクタの旋律のみが出力されるようにしている。
2005−081011号
Conventionally, a technique for associating melody data for each character is known. For example, Patent Literature 1 describes a game system in which specific data for specifying which character sings which phrase in a song is set in advance by the player and each character sings the specified phrase. The game system described in Patent Literature 1 specifies specific data by simultaneously playing melody data associated with a plurality of characters and muting melodic data associated with characters not specified by the specific data. Only the melody of the selected character is output.
2005-081011

しかし、特許文献1に記載されたゲームは、プレイヤが予め設定した割り当てに従って旋律データが再生されるものであって、ゲーム中のキャラクタの状況が旋律に反映されるということはない。   However, in the game described in Patent Document 1, melody data is reproduced according to an assignment preset by the player, and the situation of the character in the game is not reflected in the melody.

本発明の目的は、キャラクタに対応付けられた旋律データを含む複数の旋律データを同時に再生させる場合に、キャラクタの状況に応じたゲーム状況の変化を旋律に反映させることができるプログラム、情報記憶媒体、及びゲーム装置を提供することである。   An object of the present invention is to provide a program and an information storage medium capable of reflecting a change in a game situation according to a character situation in the melody when simultaneously reproducing a plurality of melody data including melody data associated with the character. And providing a game device.

(1)本発明は、
複数のキャラクタのデータを記憶するキャラクタデータ記憶部、
前記複数のキャラクタをオブジェクト空間に設定するオブジェクト空間設定部、
前記複数のキャラクタの移動及び動作の少なくとも1つの制御を行う移動・動作制御部、
前記オブジェクト空間をゲーム画像として描画する描画部、
各キャラクタに対応付けられた旋律データを含む複数の旋律データを同時に再生させる音制御部、
前記キャラクタについて予め設定された第1の条件を満たしたか否かを判定する第1の判定部を有し、
前記音制御部は、前記第1の判定部の判定結果に基づいて、前記複数の旋律データの音量を旋律データ毎に調整することを特徴とするゲームシステムに関係する。
(1) The present invention
A character data storage unit for storing data of a plurality of characters;
An object space setting unit for setting the plurality of characters in an object space;
A movement / motion control unit for controlling at least one of movement and motion of the plurality of characters;
A drawing unit for drawing the object space as a game image;
A sound control unit that simultaneously reproduces a plurality of melodic data including melodic data associated with each character;
A first determination unit that determines whether or not a first condition set in advance for the character is satisfied;
The sound control unit relates to a game system that adjusts the volume of the plurality of melody data for each melody data based on a determination result of the first determination unit.

また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。   The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.

本発明によれば、キャラクタに対応付けられた旋律データを含む複数の旋律データを同時に再生させる場合に、キャラクタの状況に応じて旋律データ毎の再生状況を変化させることにより、ゲーム状況の変化を旋律に反映させることができる。
(2)また本発明は、
前記音制御部は、前記第1の判定部の判定結果に基づいて、同時に再生される前記複数の旋律データの再生速度を変化させるようにしてもよい。
According to the present invention, when a plurality of melody data including melody data associated with a character are reproduced at the same time, the game situation can be changed by changing the reproduction situation for each melody data according to the situation of the character. It can be reflected in the melody.
(2) The present invention also provides:
The sound control unit may change a reproduction speed of the plurality of melody data reproduced at the same time based on a determination result of the first determination unit.

このようにすれば、同時に再生される複数の旋律データの再生速度がキャラクタの状況に応じて変化するため、ゲーム状況を旋律に反映させることができる。
(3)また本発明は、
前記音制御部は、前記第1の判定部の判定結果に基づいて、同時に再生される前記複数の旋律データのエフェクト処理を行わせるようにしてもよい。
In this way, since the playback speed of a plurality of melody data that are played back simultaneously changes according to the character's situation, the game situation can be reflected in the melody.
(3) The present invention also provides:
The sound control unit may cause effect processing of the plurality of melody data to be reproduced simultaneously based on a determination result of the first determination unit.

このようにすれば、同時に再生される複数の旋律データのエフェクト処理がキャラクタの状況に応じて行われるため、ゲーム状況を旋律に反映させることができる。
(4)また本発明は、
前記音制御部は、前記第1の判定部の判定結果に基づいて、同時に再生される前記複数の旋律データの変調処理を行わせるようにしてもよい。
In this way, the effect processing of a plurality of melody data that is reproduced at the same time is performed according to the situation of the character, so that the game situation can be reflected in the melody.
(4) The present invention also provides:
The sound control unit may perform a modulation process on the plurality of melody data reproduced simultaneously based on a determination result of the first determination unit.

このようにすれば、同時に再生される複数の旋律データの変調処理がキャラクタの状況に応じて行われるため、ゲーム状況を旋律に反映させることができる。
(5)また本発明は、
前記第1の判定部は、キャラクタ毎に前記第1の条件が満たされたか否かを判定し、
前記音制御部は、前記第1の条件が満たされたキャラクタに対応付けられた旋律データとそれ以外の旋律データの相対的な音量を変化させるようにしてもよい。
In this way, since the modulation processing of a plurality of melody data reproduced simultaneously is performed according to the character situation, the game situation can be reflected in the melody.
(5) The present invention also provides:
The first determination unit determines whether or not the first condition is satisfied for each character,
The sound control unit may change the relative volume of the melody data associated with the character satisfying the first condition and the other melody data.

このようにすれば、キャラクタ毎の状況を旋律に反映させることができる。
(6)また本発明は、
前記複数のキャラクタのうちの所定のキャラクタを選択対象として設定する選択部をさらに有し、
前記第1の判定部は、前記キャラクタが前記選択部により選択対象として設定された場合に、前記第1の条件を満たしたと判定するようにしてもよい。
In this way, the situation for each character can be reflected in the melody.
(6) The present invention also provides:
A selection unit that sets a predetermined character of the plurality of characters as a selection target;
The first determination unit may determine that the first condition is satisfied when the character is set as a selection target by the selection unit.

このようにすれば、キャラクタの選択状況を旋律に反映させることができる。
(7)また本発明は、
前記描画部は前記オブジェクト空間を仮想カメラから見たゲーム画像を描画し、
前記選択部は、前記仮想カメラの視界内、または前記仮想カメラに対応する所定範囲内にあるキャラクタを選択対象として設定するようにしてもよい。
In this way, the character selection status can be reflected in the melody.
(7) The present invention also provides:
The drawing unit draws a game image when the object space is viewed from a virtual camera,
The selection unit may set a character within a field of view of the virtual camera or a predetermined range corresponding to the virtual camera as a selection target.

このようにすれば、仮想カメラとキャラクタの位置関係を旋律に反映させることができる。
(8)また本発明は、
前記音制御部は、前記選択対象として設定されたキャラクタに対応付けられた旋律データの音量がそれ以外の旋律データの音量に対して相対的に大きくなるように制御するようにしてもよい。
In this way, the positional relationship between the virtual camera and the character can be reflected in the melody.
(8) The present invention also provides:
The sound control unit may perform control so that the volume of the melody data associated with the character set as the selection target is relatively larger than the volume of the other melody data.

ここで、音制御部は、選択対象として設定されたキャラクタに対応付けられた旋律データの音量を上げることによって、またはそれ以外の旋律データの音量を下げることによって、選択対象として設定されたキャラクタに対応付けられた旋律データの音量がそれ以外の旋律データの音量に対して相対的に大きくなるように制御することができる。   Here, the sound control unit increases the volume of the melody data associated with the character set as the selection target, or decreases the volume of the other melody data to the character set as the selection target. Control can be performed so that the volume of the associated melody data becomes relatively larger than the volume of the other melody data.

このようにすれば、どのキャラクタが選択されたのかをより分かりやすく旋律に反映させることができる。
(9)また本発明は、
前記キャラクタについて予め設定された第2の条件が満たされたか否かを判定する第2の判定部、
前記第2の判定部の判定結果に基づいて、前記キャラクタのデータに含まれる所定のパラメータを更新するパラメータ更新部をさらに有し、
前記第1の判定部は、前記所定のパラメータが所定値に達した場合に、前記第1の条件を満たしたと判定するようにしてもよい。
In this way, which character is selected can be reflected in the melody more easily.
(9) The present invention also provides:
A second determination unit for determining whether a second condition set in advance for the character is satisfied;
A parameter updating unit that updates a predetermined parameter included in the character data based on a determination result of the second determination unit;
The first determination unit may determine that the first condition is satisfied when the predetermined parameter reaches a predetermined value.

このようにすれば、プレイヤはキャラクタの所定のパラメータの状況を旋律によって把握することができる。
(10)また本発明は、
時間を計時する計時部、
前記計時部が計時した時間が予め設定された所定の時間か否かを判定する時間判定部、
前記時間判定部の判定結果に基づいて、前記複数の旋律データの少なくとも1つを他の旋律データに変更する音変更部、をさらに有するようにしてもよい。
In this way, the player can grasp the situation of the predetermined parameter of the character by melody.
(10) The present invention also provides:
A timekeeping section that measures time,
A time determination unit for determining whether the time measured by the time measuring unit is a predetermined time set in advance;
You may make it further have a sound change part which changes at least 1 of these melody data into another melody data based on the determination result of the said time determination part.

このようにすれば、現在の時間を旋律に反映させることができる。
(11)また本発明は、
前記第1の条件として複数の条件が設定され、
前記音制御部は、2つ以上の前記第1の条件が満たされた場合に、前記複数の旋律データの音量を調整するようにしてもよい。
In this way, the current time can be reflected in the melody.
(11) The present invention also provides:
A plurality of conditions are set as the first condition,
The sound control unit may adjust the volume of the plurality of melody data when two or more of the first conditions are satisfied.

このようにすれば、複数の第1の条件が満たされた組み合わせに応じた音量調整が行われるので、詳細なゲーム状況を旋律に反映させることができる。   In this way, volume adjustment is performed according to a combination that satisfies the plurality of first conditions, so that a detailed game situation can be reflected in the melody.

1.概観構成
図1に本実施形態のゲームシステム10の外観図を示す。図1に示すゲームシステム10は、プレイヤ(操作者、観者)が携帯可能な大きさに形成されており、プレイヤがゲームシステム10を手で持ってゲームをプレイすることができるようになっている。そしてゲームシステム10は、本体下部12と本体上部14とがヒンジ部16により連結されており、本体下部12と本体上部14とがヒンジ部16の軸回りに回動可能となっている。そして本体下部12の中央部には画像を出力する第1の表示部18(表示部44の一例)が設けられており、本体下部12の第1の表示部18の周囲には、プレイヤが操作情報を入力するための十字キー20、第1ボタン22〜第4ボタン28の4つのボタン、スタートボタン30、セレクトボタン32が設けられている。また本体上部14の中央部には画像を出力する第2の表示部34(表示部44の一例)が設けられ、第2の表示部34の左右側には音を出力するスピーカ36(音出力部46の一例)が設けられている。またヒンジ部16には、プレイヤが音入力(音声入力)を行うためのマイク38(音入力部42の一例)が設けられている。
1. Overview Configuration FIG. 1 shows an external view of a game system 10 of the present embodiment. The game system 10 shown in FIG. 1 is formed in a size that can be carried by a player (operator, viewer), so that the player can play the game by holding the game system 10 by hand. Yes. In the game system 10, the main body lower portion 12 and the main body upper portion 14 are connected by a hinge portion 16, and the main body lower portion 12 and the main body upper portion 14 are rotatable around the axis of the hinge portion 16. A first display unit 18 (an example of the display unit 44) that outputs an image is provided at the center of the lower body portion 12, and a player operates around the first display portion 18 of the lower body portion 12. A cross key 20 for inputting information, four buttons of a first button 22 to a fourth button 28, a start button 30, and a select button 32 are provided. In addition, a second display unit 34 (an example of the display unit 44) that outputs an image is provided in the central portion of the main body upper part 14, and speakers 36 (sound output) that output sound on the left and right sides of the second display unit 34 An example of the part 46 is provided. In addition, the hinge unit 16 is provided with a microphone 38 (an example of the sound input unit 42) for the player to input sound (voice input).

本体下部12の第1の表示部18は、液晶ディスプレイとタッチパネルとが積層された構造を有しており、第1の表示部18の表示領域に対してプレイヤが行った接触操作の位置を検出できるようになっている。例えばプレイヤが、図1に示すようなタッチペンの先端を第1の表示部18に接触させると、ゲームシステム10はタッチペンの先端が第1の表示部18に接触した位置を検出する。従ってプレイヤは、第1の表示部18に接触することによっても操作情報を入力することができる。   The first display unit 18 of the lower main body 12 has a structure in which a liquid crystal display and a touch panel are stacked, and detects the position of a contact operation performed by the player with respect to the display area of the first display unit 18. It can be done. For example, when the player brings the tip of the touch pen as shown in FIG. 1 into contact with the first display unit 18, the game system 10 detects the position where the tip of the touch pen contacts the first display unit 18. Therefore, the player can also input operation information by touching the first display unit 18.

そしてゲームシステム10は、仮想的な3次元空間であるオブジェクト空間を仮想カメラから見た画像を第1の表示部18と第2の表示部34とに表示するとともに、プレイヤから十字キー20や第1ボタン22〜第4ボタン28や第1の表示部18に対する操作情報の入力を受け付けて、オブジェクト空間に配置設定されたキャラクタ(特定オブジェクトの一例)を育成する育成ゲームを実行する。本実施形態では、公園を模したオブジェクト空間に配置された複数のキャラクタを育成するゲームが実行される。特にゲームシステム10は、オブジェクト空間に第1の仮想カメラと第2の仮想カメラとを設定し、オブジェクト空間を第1の仮想カメラから見た画像を第1の表示部18に表示させ、それと同時に、オブジェクト空間を第2の仮想カメラから見た画像を第2の表示部34に表示させる。
2.機能ブロック
図2は、本実施形態におけるゲームシステム10の機能ブロック図の一例である。なお、本実施形態のゲームシステム10は、図2の構成要素(各部)の一部を省略した構成としてもよい。
The game system 10 displays an image obtained by viewing the object space, which is a virtual three-dimensional space, from the virtual camera on the first display unit 18 and the second display unit 34, and from the player, the cross key 20 and the second key are displayed. An input of operation information to the first button 22 to the fourth button 28 and the first display unit 18 is received, and a breeding game for breeding a character (an example of a specific object) arranged and set in the object space is executed. In the present embodiment, a game for nurturing a plurality of characters arranged in an object space simulating a park is executed. In particular, the game system 10 sets a first virtual camera and a second virtual camera in the object space, displays an image of the object space viewed from the first virtual camera on the first display unit 18, and at the same time Then, an image obtained by viewing the object space from the second virtual camera is displayed on the second display unit 34.
2. Functional Block FIG. 2 is an example of a functional block diagram of the game system 10 in the present embodiment. Note that the game system 10 of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 2 are omitted.

操作部40は、プレイヤが操作データを入力するためのものであり、その機能は十字キー20、第1ボタン22〜第4ボタン28、レバー、ステアリングなどにより実現できる。   The operation unit 40 is for the player to input operation data, and the function can be realized by the cross key 20, the first button 22 to the fourth button 28, the lever, the steering, and the like.

音入力部42は、プレイヤが音声や手拍子などの音を入力するためのものであり、その機能はマイク38などにより実現できる。   The sound input unit 42 is used by the player to input sounds such as voice and clapping, and the function can be realized by the microphone 38 or the like.

表示部44は、ゲームシステム10により生成された画像を出力するものであり、その機能はCRTディスプレイ、液晶ディスプレイ、プラズマディスプレイ、プロジェクタ、HMD(ヘッドマウントディスプレイ)などにより実現できる。ここで本実施形態では第1の表示部18が、液晶ディスプレイと、接触位置を検出するタッチパネルとが積層された構造を有するタッチパネルディスプレイにより実現されている。従って本実施形態では、第1の表示部18が操作部40としても機能する。ここでタッチパネルは、液晶ディスプレイに積層しても画像の視認性が維持されるように光の透過率が高い素材により構成されており、例えば抵抗膜方式(4線式、5線式など)、静電容量方式などによりタッチパネルに対する接触位置を電気的に検出する。なおタッチパネルは、図1で示したタッチペンなどの入力器具による接触操作や、プレイヤの指先による接触操作を検出することができる。   The display unit 44 outputs an image generated by the game system 10, and its function can be realized by a CRT display, a liquid crystal display, a plasma display, a projector, an HMD (head mounted display), or the like. Here, in the present embodiment, the first display unit 18 is realized by a touch panel display having a structure in which a liquid crystal display and a touch panel for detecting a contact position are stacked. Therefore, in the present embodiment, the first display unit 18 also functions as the operation unit 40. Here, the touch panel is made of a material having a high light transmittance so that image visibility is maintained even when stacked on a liquid crystal display. For example, a resistive film type (4-wire type, 5-wire type, etc.) A contact position with respect to the touch panel is electrically detected by a capacitance method or the like. The touch panel can detect a contact operation with an input device such as a touch pen shown in FIG. 1 or a contact operation with a fingertip of a player.

音出力部46は、ゲームシステム10により生成された音を出力するものであり、その機能は、スピーカ36、或いはヘッドフォンなどにより実現できる。   The sound output unit 46 outputs the sound generated by the game system 10, and its function can be realized by the speaker 36 or headphones.

情報記憶媒体48(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、メモリカード、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープなどにより実現できる。   An information storage medium 48 (a computer-readable medium) stores programs, data, and the like, and functions thereof are a memory card, an optical disk (CD, DVD), a magneto-optical disk (MO), a magnetic disk, and a hard disk. It can be realized with a magnetic tape.

この情報記憶媒体48には、処理部200において種々の処理を行うためのプログラムやデータが記憶されている。即ち、この情報記憶媒体48には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶されている。また情報記憶媒体48には、キャラクタオブジェクトなどの種々のオブジェクトのモデルデータや、キャラクタオブジェクトの属性パラメータなどの各種データが格納されている。   The information storage medium 48 stores programs and data for performing various processes in the processing unit 200. That is, the information storage medium 48 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit). The information storage medium 48 stores model data of various objects such as character objects, and various data such as character object attribute parameters.

記憶部100は、処理部200や通信部50などのワーク領域となるもので、その機能はRAMやVRAMなどにより実現できる。そして、本実施形態の記憶部100は、処理部200のワーク領域として使用される主記憶部102と、表示部44に表示させる画像が描画される描画バッファ104と、キャラクタデータが読み込まれるキャラクタデータ記憶部106と、旋律データが読み込まれる音データ記憶部108を含む。   The storage unit 100 serves as a work area for the processing unit 200, the communication unit 50, and the like, and its functions can be realized by a RAM, a VRAM, or the like. The storage unit 100 of the present embodiment includes a main storage unit 102 used as a work area of the processing unit 200, a drawing buffer 104 in which an image to be displayed on the display unit 44 is drawn, and character data from which character data is read. A storage unit 106 and a sound data storage unit 108 into which melody data are read are included.

通信部50は、外部(例えばサーバや他の携帯端末)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用の集積回路(ASIC)などのハードウェアや、プログラムなどにより実現できる。   The communication unit 50 performs various controls for communicating with the outside (for example, a server or other portable terminal), and functions as hardware such as various processors or an integrated circuit (ASIC) for communication. It can be realized by hardware or a program.

なお、本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバ)が有する情報記憶媒体48からネットワーク及び通信部50を介して情報記憶媒体48(記憶部100)に配信してもよい。このようなホスト装置(サーバ)の情報記憶媒体48の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is transferred from the information storage medium 48 of the host device (server) to the information storage medium 48 (storage unit 100) via the network and communication unit 50. You may distribute. Use of the information storage medium 48 of such a host device (server) can be included in the scope of the present invention.

処理部200(プロセッサ)は、操作部40、音入力部42などからの操作情報やプログラムなどに基づいて、ゲーム処理、描画処理、音処理などの処理を行う。この処理部200は、記憶部100をワーク領域として各種処理を行い、その機能は各種プロセッサ(CPU、DSP等)、各種集積回路(IC、ASIC)などのハードウェアや、プログラムにより実現できる。   The processing unit 200 (processor) performs processing such as game processing, drawing processing, and sound processing based on operation information and programs from the operation unit 40, the sound input unit 42, and the like. The processing unit 200 performs various processes using the storage unit 100 as a work area, and functions thereof can be realized by hardware such as various processors (CPU, DSP, etc.), various integrated circuits (IC, ASIC), and programs.

特に、本実施形態の処理部200は、ゲーム処理部202、表示制御部204、オブジェクト空間設定部206、仮想カメラ制御部208、移動・動作制御部210、判定部212、選択部214、音制御部216、音変更部218、計時部220、通信制御部222、描画部224、音処理部226を含む。なお、これらの一部を省略する構成としてもよい。   In particular, the processing unit 200 of the present embodiment includes a game processing unit 202, a display control unit 204, an object space setting unit 206, a virtual camera control unit 208, a movement / motion control unit 210, a determination unit 212, a selection unit 214, and sound control. A unit 216, a sound changing unit 218, a timing unit 220, a communication control unit 222, a drawing unit 224, and a sound processing unit 226. Note that some of these may be omitted.

ゲーム処理部202は、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などを行う。ゲーム処理部202はまた、キャラクタデータに含まれる所定のパラメータ(属性パラメータ)を更新する処理などを行う。所定のパラメータは例えば、キャラクタの感情、成長度、疲労度、健康状態などを表すパラメータとすることができる。   The game processing unit 202 is a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for calculating a game result, or a process for ending a game when a game end condition is satisfied. I do. The game processing unit 202 also performs processing for updating a predetermined parameter (attribute parameter) included in the character data. The predetermined parameter can be, for example, a parameter representing the character's emotion, degree of growth, degree of fatigue, health condition, and the like.

表示制御部204は、表示部44に表示される画像(オブジェクト画像)の表示制御を行う。具体的には、表示すべきオブジェクト(キャラクタ、移動体、コース、建物、樹木、柱、壁、マップ、背景)を発生させたり、オブジェクトの表示や表示位置を指示したり、オブジェクトを消滅させたりするなどの表示制御を行う。即ち発生したオブジェクトをオブジェクトリストに登録したり、オブジェクトリストを描画部224等に転送したり、消滅したオブジェクトをオブジェクトリストから削除したりするなどの表示制御を行う。   The display control unit 204 performs display control of an image (object image) displayed on the display unit 44. Specifically, an object to be displayed (character, moving object, course, building, tree, pillar, wall, map, background) is generated, the display or display position of the object is indicated, or the object is deleted. Display control such as That is, display control is performed such as registering the generated object in the object list, transferring the object list to the drawing unit 224, and deleting the disappeared object from the object list.

また表示制御部204は、プレイヤからの操作情報やプログラムなどにより、オブジェクトの移動や動作が発生した場合に、発生した移動や動作の様子を示す画像を表示するための制御を行う。特に本実施形態のゲームシステム10では、3次元のオブジェクト空間にオブジェクトを設定するようになっており、表示制御部204は、オブジェクト空間設定部206と仮想カメラ制御部208とを含む。   In addition, the display control unit 204 performs control for displaying an image indicating the state of movement or movement that has occurred when movement or movement of the object occurs according to operation information or a program from the player. In particular, in the game system 10 of the present embodiment, an object is set in a three-dimensional object space, and the display control unit 204 includes an object space setting unit 206 and a virtual camera control unit 208.

オブジェクト空間設定部206は、キャラクタ、移動体、コース、建物、樹木、柱、壁、マップ、背景などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 206 includes various objects representing objects such as characters, moving objects, courses, buildings, trees, pillars, walls, maps, and backgrounds (objects composed of primitives such as polygons, free-form surfaces, or subdivision surfaces). ) Is set in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects.

仮想カメラ制御部208は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、向きあるいは画角を制御する処理)を行う。   The virtual camera control unit 208 performs a virtual camera (viewpoint) control process for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, a process of controlling the position (X, Y, Z) or rotation angle (rotation angle around the X, Y, Z axes) of the virtual camera (process for controlling the viewpoint position, orientation, or angle of view). Do.

例えば仮想カメラによりキャラクタを撮影する場合には、仮想カメラの向きを規定する注視点(特定オブジェクトの位置情報の一例)をキャラクタに設定し、キャラクタの位置又は回転の変化に応じて変化する注視点を仮想カメラが向くように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、後述する移動・動作制御部210で求められたキャラクタ(注視点)の位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させたりする制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための予め決められた制御情報に基づいて仮想カメラを制御する。或いは、操作部40によって入力されたプレイヤの操作に基づいて仮想カメラを制御する。   For example, when shooting a character with a virtual camera, a gazing point (an example of position information of a specific object) that defines the orientation of the virtual camera is set for the character, and the gazing point changes according to changes in the character position or rotation. The position or rotation angle of the virtual camera (the direction of the virtual camera) is controlled so that the virtual camera faces. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the character (gaze point) obtained by the movement / motion control unit 210 described later. Alternatively, control may be performed such that the virtual camera is rotated at a predetermined rotation angle or moved along a predetermined movement path. In this case, the virtual camera is controlled based on predetermined control information for specifying the position (movement path) or rotation angle of the virtual camera. Alternatively, the virtual camera is controlled based on the player's operation input by the operation unit 40.

移動・動作制御部210は、キャラクタの移動動作演算(移動動作シミュレーション)を行う。すなわち操作部40、音入力部42などからの操作情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、キャラクタをオブジェクト空間内で移動させたり、キャラクタを動作(モーション、アニメーション)させたりする処理を行う。具体的には、キャラクタの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(移動体を構成する各パーツの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、キャラクタの移動動作処理(シミュレーション処理)や描画処理を行う時間の単位である。   The movement / motion control unit 210 performs a movement motion calculation (movement motion simulation) of the character. That is, based on operation information from the operation unit 40, the sound input unit 42, a program (movement / motion algorithm), various data (motion data), or the like, the character is moved in the object space or the character is moved ( (Motion, animation). Specifically, character movement information (position, rotation angle, speed, or acceleration) and action information (position or rotation angle of each part constituting the moving body) are stored every frame (1/60 seconds). A simulation process is sequentially performed. The frame is a unit of time for performing the character movement operation process (simulation process) and the drawing process.

特に本実施形態では、複数のキャラクタにそれぞれ属性パラメータや行動パターンデータなどが設定されているとともに、各キャラクタに移動動作アルゴリズムやモーションデータが設定されている。そして移動・動作制御部210は、操作部40、音入力部42などからの操作情報や、属性パラメータや行動パターンデータなどに基づいてキャラクタを移動動作させる制御を開始し、そのキャラクタに設定された移動動作アルゴリズムやモーションデータや操作情報に基づいてフレーム単位での移動量(移動体の移動速度)を算出するとともにフレーム単位での移動体の回転量(移動体の回転速度)を算出して移動体の座標変換マトリクスMを求める。そして第K−1のフレームでの移動体の頂点座標PK−1に座標変換マトリクスMを乗算して第Kのフレームでの移動体の頂点座標P(=PK−1×M)を求めている。 In particular, in the present embodiment, attribute parameters, action pattern data, and the like are set for each of the plurality of characters, and a moving motion algorithm and motion data are set for each character. Then, the movement / motion control unit 210 starts control for moving the character based on the operation information from the operation unit 40, the sound input unit 42, the attribute parameter, the action pattern data, and the like, and is set for the character. Calculates the amount of movement (moving speed of the moving body) in units of frames based on the moving motion algorithm, motion data, and operation information, and calculates the amount of rotation of the moving body (rotation speed of the moving body) in units of frames. A body coordinate transformation matrix M is obtained. Then, the vertex coordinate P K-1 of the moving object in the ( K−1 ) th frame is multiplied by the coordinate transformation matrix M to obtain the vertex coordinate P K (= P K−1 × M) of the moving object in the Kth frame. Looking for.

計時部220はオブジェクト空間における仮想的な時間の計時、或いは現実世界の時間の計時を行う。計時部220は、現実世界の時間に基づいてオブジェクト空間における仮想的な時間を設定してもよい。   The timer unit 220 measures the virtual time in the object space or the time in the real world. The timer unit 220 may set a virtual time in the object space based on the real world time.

選択部214は、オブジェクト空間に配置されたキャラクタのうち所定数のキャラクタを選択対象として設定する。選択部214は、例えば操作部40からの操作情報に基づいてキャラクタを選択対象として設定する。具体的には、プレイヤがタッチパネルを接触することによって指定した座標に配置されているキャラクタを選択対象として設定する。   The selection unit 214 sets a predetermined number of characters among the characters arranged in the object space as selection targets. The selection unit 214 sets a character as a selection target based on operation information from the operation unit 40, for example. Specifically, a character placed at coordinates designated by the player touching the touch panel is set as a selection target.

選択条件を満たすキャラクタが複数存在する場合、選択部214は、複数のキャラクタを選択対象として設定してもよいし、選択条件を満たした複数のキャラクタの中から特定のキャラクタのみを選択対象として設定してもよい。例えばプレイヤがタッチパネルで所定の範囲を指定し、当該所定範囲に複数のキャラクタが配置されている場合、選択部214は当該複数のキャラクタのうち仮想カメラに最も近いキャラクタを選択対象として設定してもよい。   When there are a plurality of characters that satisfy the selection condition, the selection unit 214 may set a plurality of characters as selection targets, or set only a specific character from among a plurality of characters that satisfy the selection conditions as a selection target. May be. For example, when the player designates a predetermined range on the touch panel and a plurality of characters are arranged in the predetermined range, the selection unit 214 may set a character closest to the virtual camera among the plurality of characters as a selection target. Good.

選択部214はまた、プレイヤの操作によらず、自動的に選択対象を設定することもできる。例えば、仮想カメラの視界内に配置されたキャラクタを選択対象として設定するようにしてもよい。また、移動・動作制御部210が複数のキャラクタの移動を自動制御する場合に、仮想カメラに最も近づいたキャラクタを自動的に選択対象として設定するようにしてもよい。   The selection unit 214 can also automatically set the selection target regardless of the player's operation. For example, a character arranged in the field of view of the virtual camera may be set as a selection target. In addition, when the movement / motion control unit 210 automatically controls the movement of a plurality of characters, the character closest to the virtual camera may be automatically set as a selection target.

判定部212は、キャラクタについて予め設定された第1の条件が満たされたか否かを判定する第1の判定部を含む。第1の条件は例えば、キャラクタが選択されたこと、キャラクタのデータに含まれる所定のパラメータが所定値に達したこととすることができる。判定部212はオブジェクト空間に配置された複数のキャラクタ毎に第1の条件が満たされたか否かを判定してもよい。   The determination unit 212 includes a first determination unit that determines whether or not a first condition preset for the character is satisfied. For example, the first condition may be that a character has been selected and that a predetermined parameter included in the character data has reached a predetermined value. The determination unit 212 may determine whether or not the first condition is satisfied for each of a plurality of characters arranged in the object space.

判定部212は、キャラクタについて予め設定された第2の条件が満たされたか否かを判定する第2の判定部を含む。第2の条件は例えば、操作部40で所定の操作が行われたこと、ゲーム内で所定のアイテムが使用されたことなどとすることができる。第2の判定部の判定結果に基づいて、ゲーム処理部202がキャラクタのデータに含まれる所定のパラメータを更新する。   The determination unit 212 includes a second determination unit that determines whether a second condition set in advance for the character is satisfied. The second condition can be, for example, that a predetermined operation has been performed on the operation unit 40, or that a predetermined item has been used in the game. Based on the determination result of the second determination unit, the game processing unit 202 updates a predetermined parameter included in the character data.

判定部212は、計時部220が計時した時間が予め設定された所定の時間か否かを判定する時間判定部を含む。所定の時間は例えば、一日を昼と夜に二分割した場合に昼と夜の境目となる時間とすることができる。   The determination unit 212 includes a time determination unit that determines whether the time measured by the time measuring unit 220 is a predetermined time set in advance. The predetermined time can be, for example, a time that is the boundary between day and night when the day is divided into day and night.

音制御部216は、ゲームが開始された場合に、音処理部226が再生すべき複数の旋律データを情報記憶媒体48から音データ記憶部108に読み込み、ゲームの進行に合わせて音処理部226に当該複数の旋律データを同時に再生させる。また、音制御部216は第1の判定部の判定結果に基づいて、複数の旋律データの音量を旋律データ毎に調整する。また、音制御部216は第1の判定部の判定結果に基づいて、音処理部226に旋律データの再生速度を変化させる処理、エフェクト処理、変調処理を行わせる。ここでエフェクト処理とは、例えば、リバーブ、コーラス、ディレイ、フランジャー、エコー、ハーモナイザー、シンフォニック、ピッチシフター、イコライザ、ワウ、ディストーション、オーバードライブ、リミッター、コンプレイッサー、エキスパンダー、ノイズゲート、オートパン等の処理、あるいはこれらの組み合わせとすることができる。また、変調処理とは、例えば、ハ長調の旋律データをイ短調に移調する処理とすることができる。   When the game is started, the sound control unit 216 reads a plurality of melody data to be reproduced by the sound processing unit 226 from the information storage medium 48 to the sound data storage unit 108, and the sound processing unit 226 in accordance with the progress of the game. The plurality of melody data are reproduced simultaneously. Further, the sound control unit 216 adjusts the volume of the plurality of melody data for each melody data based on the determination result of the first determination unit. The sound control unit 216 also causes the sound processing unit 226 to perform processing for changing the reproduction speed of the melody data, effect processing, and modulation processing based on the determination result of the first determination unit. Here, effect processing refers to processing such as reverb, chorus, delay, flanger, echo, harmonicizer, symphonic, pitch shifter, equalizer, wah, distortion, overdrive, limiter, compressor, expander, noise gate, auto pan, etc. Or a combination thereof. The modulation process can be a process of transposing C major melody data to A minor, for example.

音制御部216は音変更部218を含む。音変更部218は時間判定部の判定結果に基づいて、同時に再生される複数の旋律データの少なくとも1つを他の旋律データに変更する。   The sound control unit 216 includes a sound change unit 218. The sound changing unit 218 changes at least one of a plurality of melody data reproduced at the same time to other melody data based on the determination result of the time determination unit.

通信制御部222は、他のゲームシステム10に送信するパケットを生成する処理、パケット送信先のゲームシステム10のネットワークアドレスを指定する処理、受信したパケットを記憶部100に保存する処理、受信したパケットを解析する処理、その他のパケットの送受信に関する通信部50の制御処理等を行う。特に本実施形態では、育成ゲームをネットワーク(例えば、インターネット)を利用して実行するために必要なデータパケット及びコマンドパケットを生成する制御や、通信部50を介してデータパケット及びコマンドパケットを送受信させる制御を行う。   The communication control unit 222 performs processing for generating a packet to be transmitted to another game system 10, processing for designating a network address of the game system 10 that is a packet transmission destination, processing for storing the received packet in the storage unit 100, and received packet And the control processing of the communication unit 50 related to transmission / reception of other packets. In particular, in the present embodiment, control for generating data packets and command packets necessary for executing a breeding game using a network (for example, the Internet), and transmission and reception of data packets and command packets via the communication unit 50 are performed. Take control.

描画部224は、処理部200で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、第1の表示部18および第2の表示部34に出力する。いわゆる3次元ゲーム画像を生成する場合には、まず表示物(オブジェクト、モデル)を定義する各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含む表示物データ(オブジェクトデータ、モデルデータ)が入力され、入力された表示物データに含まれる頂点データに基づいて、頂点処理が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。頂点処理では、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、あるいは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、表示物を構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(フラグメント処理)が行われる。ピクセル処理では、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を、ピクセル単位で画像情報を記憶できる描画バッファ104(VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。   The drawing unit 224 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 200, thereby generating an image and outputting it to the first display unit 18 and the second display unit 34. To do. When a so-called three-dimensional game image is generated, first, vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex defining a display object (object, model) is included. Display object data (object data, model data) is input, and vertex processing is performed based on vertex data included in the input display object data. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary. In vertex processing, geometry processing such as vertex movement processing, coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed, and the display object is configured based on the processing result. The given vertex data is changed (updated, adjusted) for the vertex group. Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (fragment processing) for drawing pixels constituting an image (fragments constituting a display screen) is performed. In pixel processing, various processes such as texture reading (texture mapping), color data setting / changing, translucent composition, anti-aliasing, etc. are performed to determine the final drawing color of the pixels that make up the image, and perspective transformation is performed. The drawing color of the object is output (drawn) to a drawing buffer 104 (VRAM, rendering target) that can store image information in units of pixels. That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed.

なお描画部224が行う頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現されてもよい。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、ハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   The vertex processing and pixel processing performed by the drawing unit 224 are realized by hardware that enables polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). May be. Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of rendering processing is high, and the expressive power can be greatly improved compared to fixed rendering processing by hardware. .

そして描画部224は、表示物を描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 224 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing the display object.

ジオメトリ処理では、表示物に関して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理が行われる。そして、ジオメトリ処理後(透視投影変換後)の表示物データ(表示物の頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、主記憶部102に保存される。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the display object. Then, display object data after geometric processing (after perspective projection conversion) (position coordinates of vertex of display object, texture coordinates, color data (luminance data), normal vector, α value, etc.) is stored in the main storage unit 102. Saved.

テクスチャマッピングは、記憶部100に記憶されるテクスチャ(テクセル値)を表示物にマッピングするための処理である。具体的には、表示物の頂点に設定(付与)されるテクスチャ座標等を用いて記憶部100からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャを表示物にマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value) stored in the storage unit 100 to a display object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the storage unit 100 using the texture coordinates set (given) at the vertex of the display object. Then, a texture that is a two-dimensional image is mapped to a display object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照する。そして参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing can be performed by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) in which Z values (depth information) of drawing pixels are stored. . That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer is referred to. Then, the Z value of the referenced Z buffer is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is a Z value (for example, a small Z value) on the near side when viewed from the virtual camera. In some cases, the drawing process of the drawing pixel is performed and the Z value of the Z buffer is updated to a new Z value.

αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。例えば、通常αブレンディングでは、α値を合成の強さとして線形補間を行うことにより2つの色を合成した色を求める処理を行う。   α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value). For example, in normal α blending, a process for obtaining a color obtained by combining two colors by performing linear interpolation with the α value as the strength of synthesis is performed.

なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えばRGBの各色成分の輝度を表す色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   The α value is information that can be stored in association with each pixel (texel, dot), and is, for example, plus alpha information other than color information indicating the luminance of each RGB color component. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

音処理部226は、音データ記憶部108に読み込まれた旋律データの再生を行い、連続的な音の波形を音出力部46に出力するものであり、その機能は、旋律データに基づいて音の波形を生成する集積回路(音源IC)などのハードウェアや、プログラムなどにより実現できる。   The sound processing unit 226 reproduces the melody data read into the sound data storage unit 108, and outputs a continuous sound waveform to the sound output unit 46. The function is based on the melody data. This can be realized by hardware such as an integrated circuit (sound source IC) that generates a waveform of the above, a program, or the like.

なお、本実施形態の画像生成システムは、1人のプレイヤのみがプレイできるシングルプレイヤモード専用のシステムにしてもよいし、複数のプレイヤがプレイできるマルチプレイヤモードも備えるシステムにしてもよい。また複数のプレイヤがプレイする場合に、これらの複数のプレイヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。
3.本実施形態の手法
3−1.データ構造
図3は本実施形態において音データ記憶部108に記憶されるデータの内容を示した図である。音データ記憶部108は、情報記憶媒体48から読み込まれた音波形データが記憶される波形データ記憶領域、複数のシーケンスデータが記憶されるシーケンス群データ記憶領域を有する。本実施形態では、音波形データとシーケンスデータを合わせたものが旋律データとなる。ただし、旋律データの形式はこれに限られず、これ以外の形式とすることもできる。また、音データ記憶部108は、旋律データの再生状況を変化させるためのデータが記憶される音量データ記憶領域、再生速度データ記憶領域、エフェクトデータ記憶領域を有する。
Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).
3. Method 3-1. Data Structure FIG. 3 is a diagram showing the contents of data stored in the sound data storage unit 108 in the present embodiment. The sound data storage unit 108 has a waveform data storage area for storing sound waveform data read from the information storage medium 48 and a sequence group data storage area for storing a plurality of sequence data. In the present embodiment, the combination of the sound waveform data and the sequence data is the melody data. However, the format of the melody data is not limited to this, and other formats may be used. The sound data storage unit 108 has a volume data storage area, a playback speed data storage area, and an effect data storage area in which data for changing the playback state of the melody data is stored.

波形データ記憶領域には、例えば複数種類の楽器のそれぞれの楽器音に相当する音波形データが記憶される。この音波形データは例えばPCM方式、ADPCM方式のデータとすることができる。   In the waveform data storage area, for example, sound waveform data corresponding to each instrument sound of a plurality of types of instruments is stored. The sound waveform data can be, for example, PCM or ADPCM data.

シーケンス群データ記憶領域には、同時に再生される複数のシーケンスデータ(楽譜データ)から構成されるシーケンス群データが記憶される。本実施形態では1つのシーケンス群データに、メロディシーケンス(フルート)、キャラクタA用シーケンス(木琴)、キャラクタB用シーケンス(ギター)、キャラクタC用シーケンス(バイオリン)、愛情音用シーケンス(パーカッション)、背景音用シーケンス(鳥のさえずり、風の音、川のせせらぎ音など)の6つのシーケンスデータが含まれており、シーケンスデータ毎に出力するチャンネルが割り当てられている。そして各シーケンスデータに従って音波形データが読み出される。   The sequence group data storage area stores sequence group data composed of a plurality of sequence data (score data) that are reproduced simultaneously. In the present embodiment, one sequence group data includes a melody sequence (flute), a character A sequence (xylophone), a character B sequence (guitar), a character C sequence (violin), a love sound sequence (percussion), a background Six sequence data of a sound sequence (bird song, wind sound, river murmuring sound, etc.) are included, and a channel to be output is assigned to each sequence data. The sound waveform data is read according to each sequence data.

音量データ記憶領域には、各チャンネルの音量が記憶される。そして、音量データ記憶領域に記憶された音量に基づいて、各チャンネルの旋律データが再生される。   The volume data storage area stores the volume of each channel. The melody data of each channel is reproduced based on the volume stored in the volume data storage area.

再生速度データ記憶領域には、旋律データの再生速度情報が記憶される。そして、再生速度データ記憶領域に記憶された再生速度で、旋律データが再生される。ここで、再生速度データは6つのチャンネルに共通に設定される。これにより、6つのシーケンス(チャンネル)単位で速度制御がされるため、6つのチャンネルから出力される旋律の速度が同じになり、チャンネルによって出力される旋律の速度が異なって聞き苦しくなるということはない。さらに本実施形態では音量データがチャンネル毎に設定されるため、音量の大きい特定の旋律データのみの再生速度が変化したように聞こえる。   In the reproduction speed data storage area, reproduction speed information of melody data is stored. Then, the melody data is reproduced at the reproduction speed stored in the reproduction speed data storage area. Here, the reproduction speed data is commonly set for the six channels. As a result, speed control is performed in units of six sequences (channels), so the melody speeds output from the six channels are the same, and the melody speeds output by the channels are different, making it difficult to hear. Absent. Furthermore, since the volume data is set for each channel in this embodiment, it seems that the playback speed of only specific melody data with a large volume has changed.

エフェクトデータ記憶領域には、旋律データのエフェクト情報が記憶される。そして、エフェクトデータ記憶領域に記憶されたエフェクト情報に基づいて、エフェクト処理が行われる。ここで、エフェクトデータは6つのチャンネルに共通に設定されるが、本実施形態では音量データがチャンネル毎に設定されるため、音量の大きい特定の旋律のみにエフェクト効果がかかったように聞こえる。
3−2.キャラクタの選択に応じた音量の調整
本実施形態における音量の調整について説明する。
In the effect data storage area, effect information of melodic data is stored. Then, effect processing is performed based on the effect information stored in the effect data storage area. Here, the effect data is commonly set for the six channels, but in the present embodiment, since the volume data is set for each channel, it seems that the effect is applied only to a specific melody having a high volume.
3-2. Adjustment of Volume According to Character Selection The volume adjustment in the present embodiment will be described.

図4はゲームの進行に伴って各チャンネルの音量が変化する様子を示した図である。縦軸は各チャンネルの音量を、横軸は時間を表している。t0は、シーケンス群データが読み込まれ、旋律データの再生が開始された時点を示している。再生開始直後の初期状態では、チャンネル1〜6のうち、メロディシーケンスが割り当てられたチャンネル1、背景音用シーケンスが割り当てられたチャンネル6の音量が100に、チャンネル2〜5の音量が0になるように設定される。そして、チャンネル1〜6に割り当てられた6つのシーケンスが同期されて再生される。すなわち6つのシーケンスデータ単位で再生制御が行われるが、チャンネル2〜5は音量が0に設定されているため旋律は出力されず、チャンネル1、6に割り当てられたシーケンスの旋律のみが出力される。本実施形態ではメロディシーケンスとしてフルートの旋律を演奏するシーケンスが記憶されている。従って、初期状態ではフルートの演奏音と背景音(鳥のさえずり、風の音、川のせせらぎ音など)が音出力部46から出力される。   FIG. 4 shows how the volume of each channel changes as the game progresses. The vertical axis represents the volume of each channel, and the horizontal axis represents time. t0 indicates a point in time when the sequence group data is read and the reproduction of the melody data is started. In the initial state immediately after the start of reproduction, among channels 1 to 6, the volume of channel 1 to which the melody sequence is assigned, the volume of channel 6 to which the background sound sequence is assigned is 100, and the volumes of channels 2 to 5 are 0. It is set as follows. Then, the six sequences assigned to channels 1 to 6 are reproduced in synchronization. That is, playback control is performed in units of six sequence data, but the melody is not output because the volume of channels 2 to 5 is set to 0, and only the melody of the sequence assigned to channels 1 and 6 is output. . In this embodiment, a sequence for playing a flute melody is stored as a melody sequence. Therefore, in the initial state, the performance sound of the flute and the background sound (bird song, wind sound, river noise, etc.) are output from the sound output unit 46.

初期状態では、ゲーム空間全体を俯瞰できるような位置に仮想カメラが設定される。初期状態において、プレイヤが操作部40を操作して特定のキャラクタを選択すると、選択対象となったキャラクタを注視するように仮想カメラの位置及び視線方向の少なくとも一つが変更される。図5はゲームシステム10において表示されるゲーム画面を示した図である。図5の第1の表示部18には、選択対象として設定されたキャラクタAが注視点となった画像が表示されている。プレイヤはこの状態からさらに別のキャラクタ(例えばキャラクタB)に選択対象を変更することができる。すると、新たに選択対象となったキャラクタBが注視点となった画像が表示される。   In the initial state, the virtual camera is set at a position where the entire game space can be viewed. In the initial state, when the player operates the operation unit 40 to select a specific character, at least one of the position and the line-of-sight direction of the virtual camera is changed so as to gaze at the selected character. FIG. 5 is a view showing a game screen displayed in the game system 10. The first display unit 18 in FIG. 5 displays an image in which the character A set as a selection target is a gazing point. The player can change the selection target from this state to another character (for example, character B). Then, an image in which the newly selected character B is a gazing point is displayed.

図4のt1は、キャラクタAが選択対象として設定された時点を示している。キャラクタAが選択されると、図4に示すように、キャラクタA用シーケンスが割り当てられたチャンネル2の音量が徐々に上がる。この結果、チャンネル1、2、6に割り当てられたシーケンスの旋律が出力されるようになる。本実施形態では、キャラクタA用シーケンスとして木琴の旋律を演奏するシーケンスが記憶されている。従って、t1以降はフルートの演奏音と背景音に木琴の演奏音が加わった旋律が出力される。   T1 in FIG. 4 indicates a point in time when the character A is set as a selection target. When the character A is selected, as shown in FIG. 4, the volume of the channel 2 to which the character A sequence is assigned gradually increases. As a result, the melody of the sequence assigned to the channels 1, 2, and 6 is output. In this embodiment, a sequence for playing the xylophone melody is stored as the sequence for the character A. Therefore, after t1, a melody in which the xylophone performance sound is added to the flute performance sound and the background sound is output.

図4のt2は、キャラクタAからキャラクタBに選択対象が変更された時点を示す。キャラクタBに選択対象が変更されると、キャラクタB用シーケンスが割り当てられたチャンネル3の音量が徐々に上がる。それと共に、キャラクタA用シーケンスが割り当てられたチャンネル2の音量が徐々に下がる。この結果、チャンネル1、3、6に割り当てられたシーケンスの旋律が出力されるようになる。本実施形態では、キャラクタB用シーケンスとしてギターの旋律を演奏するシーケンスが記憶されている。従って、t2以降はフルートの演奏音と背景音にギターの演奏音が加わった旋律が出力される。   4 indicates a time point when the selection target is changed from the character A to the character B. When the selection target is changed to the character B, the volume of the channel 3 to which the character B sequence is assigned gradually increases. At the same time, the volume of channel 2 to which the sequence for character A is assigned gradually decreases. As a result, the melody of the sequence assigned to the channels 1, 3, and 6 is output. In the present embodiment, a sequence for playing a guitar melody is stored as the character B sequence. Therefore, after t2, a melody in which the performance sound of the guitar is added to the performance sound of the flute and the background sound is output.

このように、本実施形態によれば、プレイヤはキャラクタが選択されているか否か、キャラクタが選択されている場合はどのキャラクタが選択されているのかを旋律の出力状況によって知ることができる。また、注視点となるキャラクタに応じて旋律の出力状況が変化するので、表示画像の変化に応じて旋律が変化する演出的効果を得ることができる。
3−3.キャラクタの感情に応じた音量および再生速度の調整
図6は、本実施形態におけるキャラクタデータの一例である。本実施形態では、キャラクタ毎に現在愛情値、第1の閾値、第2の閾値というパラメータが設定されている。現在愛情値はキャラクタの感情の状態を表すパラメータであり、ゲームの進行によって変化する。例えば、プレイヤがタッチペンを使ってキャラクタの所定の部位をなでる(こする)操作を行った場合や、プレイヤがキャラクタの好きなえさアイテム、おもちゃアイテムなどをキャラクタに与えた場合に、現在愛情値が増加する。一方、プレイヤがキャラクタの嫌いなえさアイテムやおもちゃアイテムを与えた場合は、現在愛情値は減少する。このようなキャラクタの感情に関するパラメータを設けることにより、育成ゲームにおいてプレイヤとキャラクタの関係を表現することができる。そして、キャラクタの現在愛情値が第1の閾値に達すると後述するように旋律が変化し始める。尚、本実施形態ではキャラクタ毎に閾値が設定されているが、複数のキャラクタに共通の閾値を設定するようにしてもよい。
Thus, according to this embodiment, the player can know whether or not a character is selected, and when a character is selected, which character is selected based on the output state of the melody. In addition, since the output state of the melody changes according to the character serving as the gaze point, it is possible to obtain an effect that the melody changes according to the change of the display image.
3-3. Adjustment of Volume and Reproduction Speed According to Character Emotion FIG. 6 is an example of character data in this embodiment. In the present embodiment, parameters such as a current love value, a first threshold value, and a second threshold value are set for each character. The current love value is a parameter representing the emotional state of the character and changes with the progress of the game. For example, when the player performs an operation of stroking (rubbing) a predetermined part of the character using the touch pen, or when the player gives the character a favorite food item, a toy item, or the like, the current love value is To increase. On the other hand, if the player gives a character disliked item or a toy item, the current love value decreases. By providing such parameters relating to the emotion of the character, the relationship between the player and the character can be expressed in the breeding game. Then, when the current affection value of the character reaches the first threshold value, the melody starts to change as will be described later. In the present embodiment, a threshold is set for each character, but a common threshold may be set for a plurality of characters.

本実施形態では、キャラクタの現在愛情値を旋律データの再生状況に反映させることによって、プレイヤが旋律によってキャラクタの状態を把握できるようにしている。具体的には、選択対象キャラクタの現在愛情値が第1の閾値に達したときに、愛情音用シーケンスが割り当てられたチャンネル5の音量が上がり、旋律データの再生速度が遅くなり、旋律データにエフェクト処理が行われる。   In the present embodiment, the current love value of the character is reflected in the reproduction state of the melody data so that the player can grasp the character state by melody. Specifically, when the current love value of the selection target character reaches the first threshold value, the volume of the channel 5 to which the love sound sequence is assigned increases, the playback speed of the melody data decreases, and the melody data Effect processing is performed.

図4のt3は、選択対象であるキャラクタBの現在愛情値が50(第1の閾値)に達した時点、t4は現在愛情値が100(第2の閾値)に達した時点を示している。本実施形態では、現在愛情値が50未満のときは、愛情音用シーケンスが割り当てられたチャンネル5の音量は0に設定される。そして、現在愛情値が50〜100の間のときは、チャンネル5の音量が現在愛情値の値に応じて調整される。さらに、現在愛情値が100を超えるときは、チャンネル5の音量は100に固定される。本実施形態では、愛情音用シーケンスとしてパーカッションの旋律を演奏するシーケンスが記憶されている。従って、t3以降はフルートとギターの演奏音と背景音にパーカッションの演奏音が加わった旋律が出力される。   In FIG. 4, t3 indicates the time when the current love value of the character B to be selected has reached 50 (first threshold), and t4 indicates the time when the current love value has reached 100 (second threshold). . In the present embodiment, when the current love value is less than 50, the volume of the channel 5 to which the love sound sequence is assigned is set to zero. When the current love value is between 50 and 100, the volume of the channel 5 is adjusted according to the value of the current love value. Furthermore, when the current love value exceeds 100, the volume of channel 5 is fixed at 100. In this embodiment, a sequence for playing a percussion melody is stored as a love sound sequence. Therefore, after t3, a melody in which the percussion performance sound is added to the flute and guitar performance sounds and the background sound is output.

さらに現在愛情値が50に達すると、旋律データの再生速度が下がり始める。図4のΔs0は、通常時(選択対象キャラクタの現在愛情値が50未満の時)に旋律データの所定の部分(例えば一小節)が再生されるのにかかる時間である。図4に示すように、キャラクタの現在愛情値が50〜100の間の時は、一小節が再生されるのにΔs0より長いΔs1の時間がかかるようになる。さらに現在愛情値が100を超えると、一小節が再生されるのにΔs1よりも長いΔs2の時間がかかるようになる。再生速度の変化は、具体的には、シーケンスデータに基づいて音波形データが読み出される時間間隔を変化させることによって行われる。図4に示す通り、旋律データの再生速度の変化は、チャンネル1〜6の6つのシーケンスに対して共通に行われるため、6つのシーケンスが同期して再生される。   Furthermore, when the current love value reaches 50, the reproduction speed of the melody data starts to decrease. Δs0 in FIG. 4 is a time required for reproducing a predetermined portion (for example, one measure) of the melody data in the normal time (when the current affection value of the selection target character is less than 50). As shown in FIG. 4, when the current affection value of the character is between 50 and 100, it takes time Δs1 longer than Δs0 to reproduce one measure. Furthermore, when the current love value exceeds 100, it takes a time of Δs2 longer than Δs1 to reproduce one measure. Specifically, the reproduction speed is changed by changing the time interval at which the sound waveform data is read based on the sequence data. As shown in FIG. 4, since the change in the reproduction speed of the melody data is performed in common for the six sequences of channels 1 to 6, the six sequences are reproduced in synchronization.

さらに現在愛情値が50に達すると、旋律にエフェクトがかかる。本実施形態では、キャラクタの現在感情値に応じた強さで、旋律にリバーブがかかる。このようにすることで、キャラクタの感情の昂ぶりを旋律に反映させることができる。ここで、エフェクトデータは6つのチャンネルに共通して設定されるが、図4に示すとおり、t3以降はチャンネル2、4の音量は0なので、チャンネル1、3、5、6の旋律のみにリバーブがかかったように聞こえる。   Furthermore, when the current love value reaches 50, the effect is applied to the melody. In the present embodiment, reverb is applied to the melody with a strength according to the current emotion value of the character. By doing so, it is possible to reflect the flicker of the emotion of the character in the melody. Here, the effect data is set in common for the six channels. As shown in FIG. 4, since the volume of channels 2 and 4 is 0 after t3, the reverb is applied only to the melody of channels 1, 3, 5, and 6. Sounds like it took.

そして、現在愛情値が100を超えてから所定時間が経過すると、現在愛情値は徐々に下がり始める。それに伴って、チャンネル5の音量は徐々に下がり、旋律データの再生速度は徐々に速くなる。図4のt5は、現在愛情値が100を超えた時点(t4)から所定時間が経過した時点を示している。t5以降、チャンネル5の音量は徐々に下がり始める。   Then, when a predetermined time elapses after the current love value exceeds 100, the current love value starts to gradually decrease. Along with this, the volume of the channel 5 gradually decreases, and the reproduction speed of the melody data gradually increases. T5 in FIG. 4 indicates a point in time when a predetermined time has elapsed from the point in time (t4) when the current love value exceeds 100. After t5, the volume of channel 5 begins to gradually decrease.

このように、本実施形態によれば、ゲーム進行によって変化するキャラクタの感情を旋律の出力状況に反映させることができる。これによって、プレイヤはキャラクタの状況を旋律によって把握することができるようになる。特に、本実施形態のように複数のキャラクタを同時に育成するゲームにおいては、各キャラクタの状況をプレイヤが把握するのが困難になる場合があるため、選択対象キャラクタの状況が旋律によって把握できるようにすることによってプレイヤを補助することができる。また、本実施形態では、各キャラクタ用のシーケンスが割り当てられたチャンネル毎の音量調整、再生速度調整、エフェクト処理を組み合わせることによって、キャラクタの感情の変化を旋律の出力状況に細かく反映することができる。
3−4.ステージ、時間に応じた旋律データの切り替え
本実施形態のゲームでは、公園と小屋の2つのステージが用意され、プレイヤの操作によってキャラクタはステージ間を移動することができる。また、各ステージには昼と夜があり、ゲーム内時間、或いは現実時間に応じて昼と夜が移り変わる。本実施形態では、ステージの変化、或いは時間の変化に応じて、再生される旋律データが他の旋律データに変更される。これによって、プレイヤはステージの種類や時間に応じた旋律の変化を体験できる。
Thus, according to the present embodiment, the emotion of the character that changes as the game progresses can be reflected in the melody output status. As a result, the player can grasp the situation of the character by melody. In particular, in a game in which a plurality of characters are nurtured simultaneously as in this embodiment, it may be difficult for the player to grasp the situation of each character, so that the situation of the selection target character can be grasped by melody. By doing so, the player can be assisted. Further, in this embodiment, by combining volume adjustment, playback speed adjustment, and effect processing for each channel to which a sequence for each character is assigned, it is possible to finely reflect character emotion changes in the melody output status. .
3-4. Switching melody data according to stage and time In the game of the present embodiment, two stages of a park and a hut are prepared, and the character can move between the stages by the operation of the player. Each stage has day and night, and day and night change according to the in-game time or the actual time. In the present embodiment, the melody data to be reproduced is changed to other melody data in accordance with a change in stage or a change in time. As a result, the player can experience a change in melody according to the type of stage and time.

図7は、情報記憶媒体48に記憶されるシーケンス群データの一例である。情報記憶媒体48には、公園(昼)のシーケンス群データα、公園(夜)のシーケンス群データβ、小屋(昼)のシーケンス群データγ、小屋(夜)のシーケンス群データσの4つのシーケンス群データが記憶されている。各シーケンス群データにはチャンネル1〜6に割り当てられる6つのシーケンスデータが含まれる。   FIG. 7 is an example of sequence group data stored in the information storage medium 48. The information storage medium 48 includes four sequences: park (day) sequence group data α, park (night) sequence group data β, hut (day) sequence group data γ, and hut (night) sequence group data σ. Group data is stored. Each sequence group data includes six sequence data assigned to channels 1 to 6.

図3のシーケンス群データ記憶領域には、ステージと時間に応じてシーケンス群データα〜σのいずれか1つが記憶される。そして、ステージが切り替わったか、昼と夜が切り替わったときに、切り替え後のステージと時間に応じたシーケンス群データが情報記憶媒体48からシーケンス群データ記憶領域に読み込まれる。そして、新たに読み込まれたシーケンス群データで上述したような、同期再生、キャラクタ選択に応じた音量調整、キャラクタのパラメータに応じた再生速度調整、エフェクト処理が行われる。
4.処理の流れ
図8は、本実施形態のゲームシステム10の音制御の流れを示すフローチャートである。図8に示すように、ゲームシステム10は、プレイヤの選択や時間に基づいてステージを設定し(S10)、設定されたステージに応じたシーケンス群データを情報記憶媒体48から記憶部100に読み込む(S12)。次に、ゲームシステム10は、ステージの初期状態として、シーケンス群データに含まれるメロディシーケンス、背景シーケンスの割り当てられたチャンネルの音量を100に、それ以外のチャンネルの音量を0に設定する(S14)。そして、設定されたステージでのゲーム処理が行われている間、ゲームシステム10は、ゲーム状況に応じて旋律データの調整処理を行う(S16)。そして、設定されたステージでのゲーム処理が終了したか、ステージが変更されたと判断すると(S18Y)、ゲームシステム10は旋律データの調整処理を終了する。
The sequence group data storage area in FIG. 3 stores any one of the sequence group data α to σ depending on the stage and time. When the stage is switched or when the day and night are switched, the sequence group data corresponding to the stage and time after switching is read from the information storage medium 48 to the sequence group data storage area. Then, with the newly read sequence group data, the above-described synchronized playback, volume adjustment according to character selection, playback speed adjustment according to character parameters, and effect processing are performed.
4). Process Flow FIG. 8 is a flowchart showing a sound control flow of the game system 10 of the present embodiment. As shown in FIG. 8, the game system 10 sets a stage based on the player's selection and time (S10), and reads sequence group data corresponding to the set stage from the information storage medium 48 to the storage unit 100 ( S12). Next, as an initial state of the stage, the game system 10 sets the volume of the channel to which the melody sequence and the background sequence included in the sequence group data are assigned to 100, and the volume of the other channels to 0 (S14). . While the game process is being performed at the set stage, the game system 10 performs a melody data adjustment process according to the game situation (S16). When it is determined that the game process at the set stage has been completed or the stage has been changed (S18Y), the game system 10 ends the melody data adjustment process.

図9は、図8のS16における旋律データ調整処理の詳細を示すフローチャートである。ゲームシステム10は、オブジェクト空間に配置されたキャラクタが選択されたか否かを判断する(S100)。キャラクタが選択された場合(S100Y)、ゲームシステム10は選択されたキャラクタに対応するシーケンスが割り当てられたチャンネルの音量を上げる(S102)。次に、ゲームシステム10は選択されているキャラクタの現在愛情値が所定値以上に達したか否かを判断する(S104)。現在愛情値が一定以上に達した場合(S104Y)、ゲームシステム10は愛情音用シーケンスが割り当てられたチャンネルの音量を上げ、旋律データの再生速度を下げ、エフェクト処理を行う(S106)。その後、現在愛情値が所定値以上に達してから所定時間が経過したと判断した場合(S108Y)、ゲームシステム10は、愛情音用シーケンスが割り当てられたチャンネルの音量を下げ、旋律データの再生速度を上げ、エフェクト処理を終了する(S110)。次にゲームシステム10は、キャラクタの選択が解除されたか否かを判断する(S112)。キャラクタの選択が解除された場合(S112Y)、ゲームシステム10は選択が解除されたキャラクタに対応するシーケンスが割り当てられたチャンネルの音量を下げる(114)。
5.変形例
上記実施形態で説明した手法は、一例を示したに過ぎず、上記実施形態の手法と同様の効果を奏する均等な手法を採用した場合においても本発明の範囲に含めることができる。また本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。そして上記実施形態の手法や、変形例として後述する各種の手法は、本発明を実現する手法として適宜組み合わせて採用することができる。
FIG. 9 is a flowchart showing details of the melody data adjustment process in S16 of FIG. The game system 10 determines whether a character arranged in the object space has been selected (S100). When the character is selected (S100Y), the game system 10 increases the volume of the channel to which the sequence corresponding to the selected character is assigned (S102). Next, the game system 10 determines whether or not the current love value of the selected character has reached a predetermined value or more (S104). If the current love value has reached a certain level (S104Y), the game system 10 increases the volume of the channel to which the love sound sequence is assigned, lowers the playback speed of the melody data, and performs the effect processing (S106). Thereafter, when it is determined that the predetermined time has elapsed since the current love value has reached or exceeded the predetermined value (S108Y), the game system 10 decreases the volume of the channel to which the sequence for love sound is assigned, and the playback speed of the melody data To finish the effect processing (S110). Next, the game system 10 determines whether or not the character selection is canceled (S112). When the selection of the character is released (S112Y), the game system 10 decreases the volume of the channel to which the sequence corresponding to the released character is assigned (114).
5. Modification The method described in the above embodiment is merely an example, and even when an equivalent method that achieves the same effect as the method of the above embodiment is employed, it can be included in the scope of the present invention. The present invention is not limited to that described in the above embodiment, and various modifications can be made. And the method of the said embodiment and the various methods mentioned later as a modification can be employ | adopted combining suitably as a method of implement | achieving this invention.

(1)上記実施形態では、図3に示すように、音波形データとシーケンスデータが別のデータとして記憶される場合の例について説明したが、WAVE形式やMP3形式のような音波形データとシーケンスデータが分かれていない ーたを用いてもよい。また、上記実施形態では、シーケンスがキャラクタに対応付けられているが、キャラクタのパーツ毎にシーケンスを対応付けてもよい。このようにすれば、選択されたキャラクタのパーツに応じて、旋律データの再生状況を変化させることができる。   (1) In the above embodiment, as shown in FIG. 3, an example in which the sound waveform data and the sequence data are stored as separate data has been described. However, the sound waveform data and the sequence such as the WAVE format and the MP3 format are described. You may use data that is not separated. Moreover, in the said embodiment, although the sequence is matched with the character, you may match a sequence for every part of a character. In this way, it is possible to change the reproduction status of the melody data according to the selected character part.

(2)上記実施形態では、メロディシーケンスが割り当てられたチャンネル1の音量は常に一定だが、ゲーム状況に応じてチャンネル1の音量を変化させてもよい。例えば、他のチャンネルの音量が上がるのに合わせて、チャンネル1の音量を下げるようにしてもよい。   (2) In the above embodiment, the volume of channel 1 to which the melody sequence is assigned is always constant, but the volume of channel 1 may be changed according to the game situation. For example, the volume of channel 1 may be decreased as the volume of other channels increases.

(3)上記実施形態では、タッチパネルに接触することによってキャラクタが選択される例について説明したが、キャラクタの選択方法はこれに限られない。例えば、画面上にキャラクタ名のリストが表示され、リストの中からキャラクタを指定して選択できるようにしてもよい。このようにすれば、キャラクタがタッチパネル画面に映っているか否かに関わらず、リストに表示されたキャラクタを選択対象とすることができる。また、プレイヤの操作によらず、所与の条件成立に基づいて、自動でキャラクタが選択されるようにしてもよい。例えば、2体のキャラクタが同時に仮想カメラに向かって走ってくるように制御され、先に仮想カメラの一定距離内に辿り着いたキャラクタが選択されるようにしてもよい。   (3) In the above embodiment, an example in which a character is selected by touching the touch panel has been described, but the method for selecting a character is not limited to this. For example, a list of character names may be displayed on the screen, and a character may be designated and selected from the list. In this way, regardless of whether or not the character is shown on the touch panel screen, the character displayed in the list can be selected. In addition, a character may be automatically selected based on satisfaction of a given condition regardless of a player's operation. For example, two characters may be controlled so as to run toward the virtual camera at the same time, and a character that has previously reached a certain distance of the virtual camera may be selected.

(4)上記実施形態では、キャラクタが選択された場合に、選択対象となったキャラクタを注視するように仮想カメラを制御する例について説明したが、キャラクタの選択と仮想カメラの制御の関係はこれに限られない。例えば、プレイヤが操作部40を用いて仮想カメラを制御できるようにし、仮想カメラの視界内に入ったキャラクタを選択対象として設定するようにしてもよい。ここで、本実施形態のゲームシステム10のように、第1の表示部18と第2の表示部34を有するゲームシステム10の場合、第1の仮想カメラから見た画像を第1の表示部18に表示し、第2の仮想カメラから見た画像を第2の表示部34に表示することができる。この場合は、第1及び第2の仮想カメラのいずれか一方の視界内に入ったキャラクタを優先的に選択対象として設定してもよいし、第1、第2の両方の仮想カメラの視界内に入ったキャラクタを選択対象として設定するようにしてもよい。   (4) In the above embodiment, when the character is selected, the example in which the virtual camera is controlled so as to gaze at the selection target character has been described, but the relationship between the character selection and the virtual camera control is described here. Not limited to. For example, the player may be allowed to control the virtual camera using the operation unit 40, and a character that falls within the field of view of the virtual camera may be set as a selection target. Here, in the case of the game system 10 having the first display unit 18 and the second display unit 34 like the game system 10 of the present embodiment, an image viewed from the first virtual camera is displayed on the first display unit. 18, and the image viewed from the second virtual camera can be displayed on the second display unit 34. In this case, a character that falls within the field of view of either the first or second virtual camera may be set as a selection target with priority, or within the field of view of both the first and second virtual cameras. The character entered may be set as a selection target.

(5)上記実施形態では、複数のキャラクタの中から1体のキャラクタが選択対象として設定される例について説明したが、2体以上のキャラクタが選択対象として設定されるようにしてもよい。2体以上のキャラクタが選択対象として設定された場合の音量変化は、2体以上のキャラクタのそれぞれに対応付けられたシーケンスデータを用いてもよいし、2体以上のキャラクタの組み合わせに対応付けられたシーケンスデータを用いてもよい。   (5) In the above embodiment, an example in which one character is set as a selection target from among a plurality of characters has been described, but two or more characters may be set as selection targets. The change in volume when two or more characters are set as selection targets may use sequence data associated with each of the two or more characters, or may be associated with a combination of two or more characters. Alternatively, the sequence data may be used.

図10(A)は、2体のキャラクタのそれぞれに対応付けられたシーケンスデータを用いる場合について説明する図である。図10(A)のt1は、キャラクタAが選択対象として設定された時点を示す。図10(A)に示すように、t1の時点から、キャラクタA用シーケンスが割り当てられたチャンネルの音量が徐々に上がり始める。図10(A)のt2は、キャラクタAが選択対象として設定された状態で、さらにキャラクタBが選択対象として設定された時点を示す。図10(A)に示すように、t2の時点以降は、キャラクタB用シーケンスが割り当てられたチャンネルの音量が徐々に上がり始め、キャラクタA用シーケンスが割り当てられたチャンネル、キャラクタB用シーケンスが割り当てられたチャンネルの両方の音量が上がった状態となる。この場合に、選択対象として設定された複数のキャラクタの間に優先順位を設定してもよい。例えば、仮想カメラからの距離に応じて優先順位を設定し、優先順位に基づいて音量を調整してもよい。図10(A)は、キャラクタAの方がキャラクタBよりも仮想カメラに近い場合の例である。この場合、キャラクタAの方がキャラクタBより高い優先順位が設定されるため、キャラクタA用シーケンスが割り当てられたチャンネルの音量の方がキャラクタB用シーケンスが割り当てられたチャンネルの音量よりも高くなっている。   FIG. 10A is a diagram for explaining the case where sequence data associated with each of two characters is used. In FIG. 10A, t1 indicates a point in time when the character A is set as a selection target. As shown in FIG. 10A, the volume of the channel to which the character A sequence is assigned starts to gradually increase from time t1. In FIG. 10A, t2 indicates the time when the character A is set as the selection target and the character B is set as the selection target. As shown in FIG. 10A, after the time t2, the volume of the channel to which the character B sequence is assigned begins to gradually increase, and the channel to which the character A sequence is assigned and the character B sequence are assigned. The volume of both channels will increase. In this case, priority may be set between a plurality of characters set as selection targets. For example, priority may be set according to the distance from the virtual camera, and the volume may be adjusted based on the priority. FIG. 10A shows an example in which the character A is closer to the virtual camera than the character B. In this case, since the higher priority is set for character A than for character B, the volume of the channel to which the sequence for character A is assigned is higher than the volume of the channel to which the sequence for character B is assigned. Yes.

図10(B)は、2体のキャラクタの組み合わせに対応付けられたシーケンスデータを用いる場合について説明する図である。図10(B)のt1は、キャラクタAが選択対象として設定された時点を示す。図10(B)に示すように、t1の時点から、キャラクタA用シーケンスが割り当てられたチャンネルの音量が徐々に上がり始める。図10(B)のt2は、キャラクタAが選択対象として設定された状態で、さらにキャラクタBが選択対象として設定された時点を示す。図10(B)に示すように、t2の時点から、キャラクタA用シーケンスが割り当てられたチャンネルの音量は徐々に下がり始め、キャラクタA+B用シーケンスが割り当てられたチャンネルの音量が徐々に上がり始める。ここで、選択対象キャラクタと特定のゲーム状況の組み合わせに対応付けられたシーケンスデータを用いるようにしてもよい。例えば、キャラクタAとキャラクタBが選択対象として設定され、さらにキャラクタAとBの相性が一定以上である場合に対応付けられたシーケンスデータを用いるようにしてもよい。このようにすれば、プレイヤは旋律の出力状況の変化によってキャラクタの同士の相性のよさを把握することができる。   FIG. 10B is a diagram illustrating a case where sequence data associated with a combination of two characters is used. In FIG. 10B, t1 indicates a point in time when the character A is set as a selection target. As shown in FIG. 10B, the volume of the channel to which the sequence for character A is assigned starts to gradually increase from time t1. In FIG. 10B, t2 indicates a point in time when the character A is set as the selection target and the character B is set as the selection target. As shown in FIG. 10B, from the time t2, the volume of the channel to which the character A sequence is assigned begins to gradually decrease, and the volume of the channel to which the character A + B sequence is assigned begins to gradually increase. Here, sequence data associated with a combination of a selection target character and a specific game situation may be used. For example, the sequence data associated with the case where the character A and the character B are set as selection targets and the compatibility between the characters A and B is equal to or greater than a certain value may be used. In this way, the player can grasp the compatibility of the characters by changing the melody output status.

(6)上記実施形態では、各キャラクタに一つのシーケンスが対応付けられている例を説明したが、各キャラクタに複数のシーケンスが対応付けられるようにしてもよい。図11はキャラクタA〜Cにそれぞれ2つずつのシーケンスが対応付けられている場合について説明する図である。   (6) In the above embodiment, an example in which one sequence is associated with each character has been described. However, a plurality of sequences may be associated with each character. FIG. 11 is a diagram illustrating a case where two sequences are associated with characters A to C, respectively.

図11のt1は、キャラクタAが選択された時点を示す。キャラクタAが選択されると、図11に示すように、キャラクタA用シーケンス1が割り当てられたチャンネルの音量が上がる。図11のt2は、キャラクタAの現在愛情値が所定値に達した時点を示す。キャラクタAの現在愛情値が所定値に達すると、図11に示すように、キャラクタA用シーケンス2が割り当てられたチャンネルの音量が上がる。キャラクタの現在愛情値が所定値に達した場合、上記実施形態ではキャラクタ共通の愛情音用シーケンスが割り当てられたチャンネルの音量を上げるようにしたが、図11に示す変形例では各キャラクタに対応付けられた複数のシーケンスのうちの一つが割り当てられたチャンネルの音量が上がるようにしている。   T1 in FIG. 11 indicates a point in time when the character A is selected. When the character A is selected, the volume of the channel to which the character A sequence 1 is assigned increases as shown in FIG. T2 in FIG. 11 indicates a point in time when the current love value of the character A reaches a predetermined value. When the current affection value of the character A reaches a predetermined value, the volume of the channel to which the character A sequence 2 is assigned increases as shown in FIG. When the current love value of the character reaches a predetermined value, the volume of the channel to which the sequence for love sound common to the characters is assigned is increased in the above embodiment, but in the modification shown in FIG. The volume of a channel to which one of a plurality of assigned sequences is assigned is increased.

図11のt3は、キャラクタBが選択された時点を示す。キャラクタBが選択されると、キャラクタB用シーケンス1が割り当てられたチャンネルの音量が上がり、キャラクタA用シーケンス1とキャラクタB用シーケンス1が割り当てられたチャンネルの音量がともに上がった状態となる。図11のt4は、キャラクタBの現在愛情値が所定値に達した時点を示す。この場合もキャラクタAの場合と同様に、キャラクタB用シーケンス2が割り当てられたチャンネルの音量が上がる。   T3 in FIG. 11 indicates a point in time when the character B is selected. When the character B is selected, the volume of the channel to which the character B sequence 1 is assigned increases, and the volume of the channel to which the character A sequence 1 and the character B sequence 1 are assigned increases. T4 in FIG. 11 indicates a point in time when the current love value of the character B reaches a predetermined value. In this case, as in the case of the character A, the volume of the channel to which the character B sequence 2 is assigned is increased.

尚、キャラクタA用シーケンス2が割り当てられたチャンネルの音量が上がるのに合わせてキャラクタA用シーケンス1が割り当てられたチャンネルの音量を、キャラクタB用シーケンス2が割り当てられたチャンネルの音量が上がるのに合わせてキャラクタB用シーケンス1が割り当てられたチャンネルの音量を下げるようにしてもよい。   As the volume of the channel to which the character A sequence 2 is assigned increases, the volume of the channel to which the character A sequence 1 is assigned increases and the volume of the channel to which the character B sequence 2 is assigned increases. In addition, the volume of the channel to which the character B sequence 1 is assigned may be lowered.

(7)上記実施形態では、キャラクタの現在愛情値が所定の値に達した場合にエフェクト処理を行うようにしたが、エフェクト処理と共に、またはこれに代えて、変調処理を行うようにしてもよい。変調処理とは例えば、ハ長調の楽譜をイ短調に変える処理である。この場合に、6つのシーケンスが割り当てられたチャンネルに共通で変調処理を行えば、特定のシーケンスだけが変調されて聞き苦しくなってしまうのを防ぐことができる。6つのシーケンスに共通で変調処理を行った場合でも、上記実施形態においてはチャンネル毎に音量が調整されているので、特定のチャンネルに割り当てられたシーケンスのみが変調されたように聞こえる。   (7) In the above embodiment, the effect processing is performed when the current love value of the character reaches a predetermined value. However, the modulation processing may be performed together with or instead of the effect processing. . The modulation process is, for example, a process for changing a C-major score to a B minor. In this case, if modulation processing is performed in common for channels to which six sequences are assigned, it is possible to prevent only a specific sequence from being modulated and becoming difficult to hear. Even when modulation processing is performed in common for the six sequences, the volume is adjusted for each channel in the above embodiment, so that only the sequence assigned to a specific channel sounds like being modulated.

(8)上記実施形態では、ステージ及び時間の少なくとも一つの変化に応じて、シーケンス群データを構成する6つのシーケンスデータを一斉に変更する例について説明したが、シーケンス群データを構成するシーケンスデータのうち一部のシーケンスデータのみを変更するようにしてもよい。   (8) In the above embodiment, the example in which the six sequence data constituting the sequence group data are changed all at once according to at least one change in the stage and time has been described. However, the sequence data constituting the sequence group data Only a part of the sequence data may be changed.

本実施形態のゲームシステム10の外観を示す図。The figure which shows the external appearance of the game system 10 of this embodiment. 本実施形態のゲームシステム10の機能ブロック図。The functional block diagram of the game system 10 of this embodiment. 本実施形態のゲームシステム10のデータ構成の説明図。Explanatory drawing of the data structure of the game system 10 of this embodiment. 本実施形態のゲームシステム10の制御手法の説明図。Explanatory drawing of the control method of the game system 10 of this embodiment. 本実施形態のゲームシステム10のゲーム画面を示す図。The figure which shows the game screen of the game system 10 of this embodiment. 本実施形態のゲームシステム10のデータ構成の説明図。Explanatory drawing of the data structure of the game system 10 of this embodiment. 本実施形態のゲームシステム10のデータ構成の説明図。Explanatory drawing of the data structure of the game system 10 of this embodiment. 本実施形態のゲームシステム10の処理の流れを示すフローチャート図。The flowchart figure which shows the flow of a process of the game system 10 of this embodiment. 本実施形態のゲームシステム10の処理の流れを示すフローチャート図。The flowchart figure which shows the flow of a process of the game system 10 of this embodiment. 本実施形態の変形例におけるゲームシステム10の制御手法の説明図。Explanatory drawing of the control method of the game system 10 in the modification of this embodiment. 本実施形態の変形例におけるゲームシステム10の制御手法の説明図。Explanatory drawing of the control method of the game system 10 in the modification of this embodiment.

符号の説明Explanation of symbols

10 ゲームシステム、12 本体下部、14 本体上部、16 ヒンジ部
18 第1の表示部、20 十字キー、22 第1ボタン、24 第2ボタン、
26 第3ボタン、28 第4ボタン、30 スタートボタン、32 セレクトボタン、
34 第2の表示部、36 スピーカ、38 マイク、
40 操作部、 42 音入力部、44 表示部、46 音出力部、48 情報記憶媒体、
50 通信部、
100 記憶部、102 主記憶部、104 描画バッファ、
106 キャラクタデータ記憶部、108 音データ記憶部、
200 処理部、202 ゲーム処理部、204 表示制御部、
206 オブジェクト空間設定部、208 仮想カメラ制御部、
210 移動・動作制御部、212 判定部、214 選択部、216 音制御部、
218 音変更部、220 計時部、222 通信制御部、224 描画部、
226 音処理部
DESCRIPTION OF SYMBOLS 10 Game system, 12 Main body lower part, 14 Main body upper part, 16 Hinge part 18 1st display part, 20 Cross key, 22 1st button, 24 2nd button,
26 3rd button, 28 4th button, 30 start button, 32 select button,
34 second display unit, 36 speaker, 38 microphone,
40 operation unit, 42 sound input unit, 44 display unit, 46 sound output unit, 48 information storage medium,
50 communication department,
100 storage unit, 102 main storage unit, 104 drawing buffer,
106 character data storage unit, 108 sound data storage unit,
200 processing unit, 202 game processing unit, 204 display control unit,
206 Object space setting unit, 208 Virtual camera control unit,
210 movement / operation control unit, 212 determination unit, 214 selection unit, 216 sound control unit,
218 sound changing unit, 220 timing unit, 222 communication control unit, 224 drawing unit,
226 Sound processor

Claims (13)

複数のキャラクタのデータを記憶するキャラクタデータ記憶部を備えたコンピュータを、
前記キャラクタを含むゲーム画像描画する描画部
各キャラクタに対応付けられた旋律データを含む複数の旋律データを同時に再生させる音制御部
前記キャラクタについて予め設定された第1の条件が満たされたか否かを判定する第1の判定部として機能させ、
前記音制御部が前記第1の判定部の判定結果に基づいて、前記複数の旋律データの音量を旋律データ毎に調整し、同時に再生される前記複数の旋律データの再生速度を変化させることを特徴とするプログラム。
A computer comprising a character data storage unit for storing data of a plurality of characters ,
A drawing unit that draws a game image including the character,
A sound control section for reproducing a plurality of melodies data simultaneously containing melody data associated with each character,
Function as a first determination unit for determining whether or not a first condition set in advance for the character is satisfied;
Said sound control unit, based on a determination result of the first determination unit, the volume of said plurality of melody data adjusted for each melody data, changing the playback speed of the plurality of melody data which are simultaneously played A program characterized by
複数のキャラクタのデータを記憶するキャラクタデータ記憶部を備えたコンピュータを、
前記キャラクタを含むゲーム画像描画する描画部
各キャラクタに対応付けられた旋律データを含む複数の旋律データを同時に再生させる音制御部
前記キャラクタについて予め設定された第1の条件が満たされたか否かを判定する第1の判定部として機能させ、
前記音制御部が前記第1の判定部の判定結果に基づいて、前記複数の旋律データの音量を旋律データ毎に調整し、同時に再生される前記複数の旋律データのエフェクト処理を行わせることを特徴とするプログラム。
A computer comprising a character data storage unit for storing data of a plurality of characters ,
A drawing unit that draws a game image including the character,
A sound control section for reproducing a plurality of melodies data simultaneously containing melody data associated with each character,
Function as a first determination unit for determining whether or not a first condition set in advance for the character is satisfied;
Said sound control unit, based on a determination result of the first determination unit, the volume of said plurality of melody data adjusted for each melody data, to perform effect processing of said plurality of melody data which are simultaneously played A program characterized by
複数のキャラクタのデータを記憶するキャラクタデータ記憶部を備えたコンピュータを、
前記キャラクタを含むゲーム画像描画する描画部
各キャラクタに対応付けられた旋律データを含む複数の旋律データを同時に再生させる音制御部
前記キャラクタについて予め設定された第1の条件が満たされたか否かを判定する第1
の判定部として機能させ、
前記音制御部が前記第1の判定部の判定結果に基づいて、前記複数の旋律データの音量を旋律データ毎に調整し、同時に再生される前記複数の旋律データの変調処理を行わせることを特徴とするプログラム。
A computer comprising a character data storage unit for storing data of a plurality of characters ,
A drawing unit that draws a game image including the character,
A sound control section for reproducing a plurality of melodies data simultaneously containing melody data associated with each character,
First to determine whether or not a first condition preset for the character is satisfied
Function as a judgment part of
Said sound control unit, based on a determination result of the first determination unit, the volume of said plurality of melody data adjusted for each melody data, to perform modulation processing of the plurality of melody data which are simultaneously played A program characterized by
前記第1の判定部は、キャラクタ毎に前記第1の条件が満たされたか否かを判定し、
前記音制御部は、前記第1の条件が満たされたキャラクタに対応付けられた旋律データとそれ以外の旋律データの相対的な音量を変化させることを特徴とする、請求項1〜3のいずれかに記載のプログラム。
The first determination unit determines whether or not the first condition is satisfied for each character,
The said sound control part changes the relative volume of the melody data matched with the character by which the said 1st condition was satisfy | filled, and other melody data, The any one of Claims 1-3 characterized by the above-mentioned. program according to any.
前記複数のキャラクタのうちの所定のキャラクタを選択対象として設定する選択部としてコンピュータを機能させ、
前記第1の判定部は、前記キャラクタが前記選択部により選択対象として設定された場合に、前記第1の条件を満たしたと判定することを特徴とする、請求項に記載のプログラム。
Causing the computer to function as a selection unit that sets a predetermined character of the plurality of characters as a selection target;
The program according to claim 4 , wherein the first determination unit determines that the first condition is satisfied when the character is set as a selection target by the selection unit.
前記描画部は、前記複数のキャラクタが設定されるオブジェクト空間を仮想カメラから見たゲーム画像を描画し、
前記選択部は、前記仮想カメラの視界内、または前記仮想カメラに対応する所定範囲内にあるキャラクタを選択対象として設定することを特徴とする請求項に記載のプログラム。
The drawing unit draws a game image when an object space in which the plurality of characters are set is viewed from a virtual camera,
The program according to claim 5 , wherein the selection unit sets a character within a field of view of the virtual camera or a predetermined range corresponding to the virtual camera as a selection target.
前記音制御部は、前記選択対象として設定されたキャラクタに対応付けられた旋律データの音量がそれ以外の旋律データの音量に対して相対的に大きくなるように調整することを特徴とする、請求項又はに記載のプログラム。 The sound control unit adjusts the volume of melody data associated with the character set as the selection target to be relatively larger than the volume of other melody data. Item 7. The program according to item 5 or 6 . 前記キャラクタについて予め設定された第2の条件が満たされたか否かを判定する第2の判定部
前記第2の判定部の判定結果に基づいて、前記キャラクタのデータに含まれる所定のパラメータを更新するパラメータ更新部としてコンピュータを機能させ、
前記第1の判定部は、前記所定のパラメータが所定値に達した場合に、前記第1の条件を満たしたと判定することを特徴とする請求項1〜7のいずれかに記載のプログラム。
A second determination unit determines whether the second condition is met, which is set in advance for the character,
Based on the determination result of the second determination unit, the computer functions as a parameter update unit that updates a predetermined parameter included in the character data,
Wherein the first determination unit, when the predetermined parameter reaches a predetermined value, the program according to any one of claims 1 to 7, wherein determining that satisfies the first condition.
時間を計時する計時部
前記計時部が計時した時間が予め設定された所定の時間か否かを判定する時間判定部
前記時間判定部の判定結果に基づいて、前記複数の旋律データの少なくとも1つを他の旋律データに変更する音変更部
してコンピュータを機能させることを特徴とする、請求項1〜8のいずれかに記載のプログラム。
And the time measuring unit for measuring a time,
And time determination unit time during which the timer unit is timed to determine whether a preset predetermined time,
Based on the determination result of the time determining unit, and a sound changing section for changing at least one of said plurality of melody data to other melody data,
The program according to any one of claims 1 to 8, wherein the program causes the computer to function.
前記第1の条件として複数の条件が設定され、
前記音制御部は、2つ以上の前記第1の条件が満たされた場合に、前記複数の旋律データの音量を調整することを特徴とする、請求項1〜9のいずれかに記載のプログラム。
A plurality of conditions are set as the first condition,
The sound control unit, when two or more of the first condition is satisfied, and adjusting the volume of said plurality of melody data, the program according to any one of claims 1-9 .
複数のキャラクタのデータを記憶するキャラクタデータ記憶部
前記キャラクタを含むゲーム画像描画する描画部
各キャラクタに対応付けられた旋律データを含む複数の旋律データを同時に再生させる音制御部
前記キャラクタについて予め設定された第1の条件を満たしたか否かを判定する第1の
判定部を有し、
前記音制御部は、前記第1の判定部の判定結果に基づいて、前記複数の旋律データの音量を旋律データ毎に調整し、同時に再生される前記複数の旋律データの再生速度を変化させることを特徴とするゲームシステム。
A character data storage unit which stores data of a plurality of characters,
A drawing unit that draws a game image including the character,
A sound control section for reproducing a plurality of melodies data simultaneously containing melody data associated with each character,
And a first determination unit that determines whether satisfies the first condition set in advance for the character,
The sound control unit adjusts the volume of the plurality of melody data for each melody data based on the determination result of the first determination unit, and changes the reproduction speed of the plurality of melody data reproduced simultaneously. A game system characterized by
複数のキャラクタのデータを記憶するキャラクタデータ記憶部
前記キャラクタを含むゲーム画像描画する描画部
各キャラクタに対応付けられた旋律データを含む複数の旋律データを同時に再生させる音制御部
前記キャラクタについて予め設定された第1の条件を満たしたか否かを判定する第1の判定部を有し、
前記音制御部は、前記第1の判定部の判定結果に基づいて、前記複数の旋律データの音量を旋律データ毎に調整し、同時に再生される前記複数の旋律データのエフェクト処理を行わせることを特徴とするゲームシステム。
A character data storage unit which stores data of a plurality of characters,
A drawing unit that draws a game image including the character,
A sound control section for reproducing a plurality of melodies data simultaneously containing melody data associated with each character,
And a first determination unit that determines whether satisfies the first condition set in advance for the character,
The sound control unit adjusts the volume of the plurality of melody data for each melody data based on the determination result of the first determination unit, and performs the effect processing of the plurality of melody data reproduced simultaneously. A game system characterized by
複数のキャラクタのデータを記憶するキャラクタデータ記憶部
前記キャラクタを含むゲーム画像描画する描画部
各キャラクタに対応付けられた旋律データを含む複数の旋律データを同時に再生させる音制御部
前記キャラクタについて予め設定された第1の条件を満たしたか否かを判定する第1の判定部を有し、
前記音制御部は、前記第1の判定部の判定結果に基づいて、前記複数の旋律データの音量を旋律データ毎に調整し、同時に再生される前記複数の旋律データの変調処理を行わせることを特徴とするゲームシステム。
A character data storage unit which stores data of a plurality of characters,
A drawing unit that draws a game image including the character,
A sound control section for reproducing a plurality of melodies data simultaneously containing melody data associated with each character,
And a first determination unit that determines whether satisfies the first condition set in advance for the character,
The sound control unit adjusts the volume of the plurality of melody data for each melody data based on the determination result of the first determination unit, and performs modulation processing of the plurality of melody data reproduced simultaneously. A game system characterized by
JP2008181699A 2008-07-11 2008-07-11 Program and game system Active JP5305765B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008181699A JP5305765B2 (en) 2008-07-11 2008-07-11 Program and game system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008181699A JP5305765B2 (en) 2008-07-11 2008-07-11 Program and game system

Publications (2)

Publication Number Publication Date
JP2010017402A JP2010017402A (en) 2010-01-28
JP5305765B2 true JP5305765B2 (en) 2013-10-02

Family

ID=41702873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008181699A Active JP5305765B2 (en) 2008-07-11 2008-07-11 Program and game system

Country Status (1)

Country Link
JP (1) JP5305765B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013007921A (en) * 2011-06-24 2013-01-10 Sony Corp Sound controller, program and control method
JP5433809B1 (en) * 2013-06-03 2014-03-05 株式会社カプコン Game program
JP5580922B1 (en) * 2013-07-12 2014-08-27 グリー株式会社 Program and game system control method
JP5599955B1 (en) * 2014-05-01 2014-10-01 グリー株式会社 Program and game system control method
WO2020075533A1 (en) * 2018-10-11 2020-04-16 株式会社コナミアミューズメント Game system, game program, and game system control method
JP6802569B2 (en) * 2018-10-11 2020-12-16 株式会社コナミアミューズメント Game systems, game programs, and how to control game systems
JP7195018B2 (en) * 2021-01-06 2022-12-23 株式会社ユピテル System and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3563428B2 (en) * 1993-11-30 2004-09-08 ヤマハ株式会社 Multimedia control device
JP3863545B2 (en) * 2005-07-25 2006-12-27 株式会社バンダイナムコゲームス Information storage medium and game device

Also Published As

Publication number Publication date
JP2010017402A (en) 2010-01-28

Similar Documents

Publication Publication Date Title
JP5305765B2 (en) Program and game system
EP2105905A2 (en) Image generation apparatus
JP3863165B2 (en) Audio output device, audio output method, and program
JP2010022646A (en) Program, information storage medium, and image generation system
JP2003524216A (en) Method and apparatus for displaying music data in a three-dimensional environment
US20050009602A1 (en) Storage medium and game device storing image generating program
JP3639280B2 (en) Game message display method and game program
JP3372234B2 (en) Reflected image display method, game apparatus, and recording medium
JP2010035978A (en) Game program and game machine
JP2001070633A (en) Image forming system and information recording medium
JP3990258B2 (en) Image generation system, program, and information storage medium
JP4447000B2 (en) Image generation system, program, and information storage medium
JP2010029375A (en) Game system, program, and information storage medium
JP2007272356A (en) Program, information storage medium and image generation system
JP4303395B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP2001084390A (en) Image generation system and information storage medium
JP2006318196A (en) Program, information storage medium and image generation system
WO2007007522A1 (en) Game program, game machine, and game method
JP4106917B2 (en) Animation generation program and image processing apparatus using the same
JP3048346B2 (en) Method for expressing motion of object and computer-readable recording medium on which game program is recorded
JP2012155731A (en) Retrieval system
JP2007087030A (en) Program, information storage medium, and image generation system
JP2001084393A (en) Picture generation system and information storage medium
JP4880298B2 (en) Program, information storage medium, and data reproduction system
JP2001224846A (en) Game system and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130625

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5305765

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250