JP3617839B2 - GAME SOUND CONTROL PROGRAM, GAME SOUND CONTROL METHOD, AND GAME DEVICE - Google Patents

GAME SOUND CONTROL PROGRAM, GAME SOUND CONTROL METHOD, AND GAME DEVICE Download PDF

Info

Publication number
JP3617839B2
JP3617839B2 JP2003387766A JP2003387766A JP3617839B2 JP 3617839 B2 JP3617839 B2 JP 3617839B2 JP 2003387766 A JP2003387766 A JP 2003387766A JP 2003387766 A JP2003387766 A JP 2003387766A JP 3617839 B2 JP3617839 B2 JP 3617839B2
Authority
JP
Japan
Prior art keywords
sound
data
volume component
volume
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003387766A
Other languages
Japanese (ja)
Other versions
JP2004195210A (en
Inventor
昌史 川村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2003387766A priority Critical patent/JP3617839B2/en
Publication of JP2004195210A publication Critical patent/JP2004195210A/en
Application granted granted Critical
Publication of JP3617839B2 publication Critical patent/JP3617839B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

この発明はゲームサウンド制御プログラム、ゲームサウンド制御方法およびゲーム装置に関し、特にたとえば、プレイヤによる操作情報を入力するための操作手段を備え、操作手段の操作に応じてゲームを進行させて、少なくとも2つのオブジェクトを含むゲーム画面を表示するとともに、ゲーム画面に関連する音を発生する、ゲームサウンド制御プログラム、ゲームサウンド制御方法およびゲーム装置に関する。   The present invention relates to a game sound control program, a game sound control method, and a game apparatus, and in particular, includes, for example, an operation means for inputting operation information by a player, and the game is advanced in accordance with the operation of the operation means. The present invention relates to a game sound control program, a game sound control method, and a game apparatus that display a game screen including an object and generate a sound related to the game screen.

一般的に、仮想3次元空間内で展開されるゲームにおいて、たとえば松明などが表示されているような場合、プレイヤの操作するキャラクタ(プレイヤキャラクタ)が松明などの、音を発生するサウンドオブジェクトに近づくと、松明の燃える音が大きくなる処理が行われる。このとき、松明がプレイヤキャラクタの周りに複数存在すると、松明の数だけ音源を発音させて、松明の燃える音を再生していた。ただし、音源の発音数が最大同時発音数を越える場合には、優先順位を付けて、たとえば遠くに在る松明については音を出さないようにして、音源の発音数を節約していた。   Generally, in a game developed in a virtual three-dimensional space, for example, when a torch or the like is displayed, a character (player character) operated by the player approaches a sound object that generates sound, such as a torch. Then, the process of increasing the torsion noise is performed. At this time, if a plurality of torches exist around the player character, the sound source is sounded by the number of torches to reproduce the torches burning sound. However, when the number of pronunciations of the sound source exceeds the maximum number of simultaneous pronunciations, priorities are assigned, for example, tones are not emitted for torches located far away, thereby saving the number of pronunciations of the sound source.

また、このようなゲームでは、松明が画面の右斜め前に在るとすれば、音源の右ボリュームを上げ、左ボリュームを下げることにより、あたかも松明の音が右斜め前から聞こえてくるように処理していた。さらに、サラウンド成分を処理可能であれば、松明の音がプレイヤの後方から鳴っているとか、音に囲まれているかのような鳴らし方で処理することが可能であった。   Also, in such a game, if the torch is in front of the screen diagonally to the right, increasing the right volume of the sound source and lowering the left volume will make the sound of the torch sound heard from the diagonally right front. I was processing. Furthermore, if it is possible to process the surround component, it is possible to process the sound as if the sound of a torch is sounding from behind the player or surrounded by the sound.

また、従来技術の一例が特許文献1に開示される。この特許文献1に開示される音再生装置では、聞き手の頭の位置を原点とし、聞き手の顔の正面向きに延びる軸を所定角度で回転させた回転軸によって、配置されたすべてのサウンドオブジェクトをいくつかのグループに分けて、1つのグループに含まれる1または複数のサウンドオブジェクトの音を音源の1つの発音だけで発生するようにしていた。
特開2000−13900号公報(第5頁〜第6頁,第1図〜第6図)
An example of the prior art is disclosed in Patent Document 1. In the sound reproduction device disclosed in Patent Document 1, all the sound objects arranged by a rotation axis obtained by rotating the axis extending in front of the listener's face at a predetermined angle with the position of the listener's head as the origin. The sound of one or a plurality of sound objects included in one group is generated by only one sound generation of the sound source by dividing into several groups.
Japanese Unexamined Patent Publication No. 2000-13900 (pages 5 to 6, FIGS. 1 to 6)

しかし、前者のように、優先順位を付けて音源を節約する場合には、さほど重要ではないが、音場(仮想3次元空間)の雰囲気として鳴ってほしい音、たとえば環境音等が消されてしまうと、ゲームの臨場感を消失してしまうという問題があった。また、左右に松明が在るときに、右の松明の音だけが消されてしまうと、左右の松明対して左の松明だけが燃える音がするなどの違和感もあった。   However, as in the former case, in order to save sound sources by assigning priorities, sounds that are desired as the atmosphere of the sound field (virtual three-dimensional space), such as environmental sounds, are erased. In other words, there was a problem that the realism of the game disappeared. Also, when there were torches on the left and right, if only the sound of the right torches were turned off, there was a sense of incongruity that only the left torches made a burning sound against the left and right torches.

また、後者の場合には、グループ分けに際して方向を決めるため、音を発生するオブジェクト全てについて音を集音する位置に対する角度を求める必要があり、したがって、計算処理が膨大であり、処理負担が大きく、本来的なゲーム処理に遅れが生じてしまうという問題があった。   In the latter case, in order to determine the direction for grouping, it is necessary to obtain the angle with respect to the position where the sound is collected for all the objects that generate the sound. Therefore, the calculation processing is enormous and the processing load is large. There is a problem that a delay occurs in the original game processing.

それゆえに、この発明の主たる目的は、新規な、ゲームサウンド制御プログラムを記憶した記憶媒体、ゲームサウンド制御方法およびゲーム装置を提供することである。   SUMMARY OF THE INVENTION Therefore, a main object of the present invention is to provide a novel storage medium storing a game sound control program, a game sound control method, and a game apparatus.

この発明の他の目的は、効率的に音源を使用できる、ゲームサウンド制御プログラムを記憶した記憶媒体、ゲームサウンド制御方法およびゲーム装置を提供することである。   Another object of the present invention is to provide a storage medium storing a game sound control program, a game sound control method, and a game apparatus that can efficiently use a sound source.

請求項1の発明は、操作手段、オブジェクト記憶手段、画像表示制御手段、スピーカ、波形データ記憶手段、音発生位置データ記憶手段、サウンド出力制御手段、およびマイクデータ記憶手段を備えるゲーム装置のコンピュータによって実行されるゲームサウンド制御プログラムである。 According to the first aspect of the present invention, there is provided a computer of a game apparatus comprising operating means, object storage means, image display control means, speakers, waveform data storage means, sound generation position data storage means, sound output control means, and microphone data storage means. A game sound control program to be executed.

操作手段は、プレイヤによる操作情報を入力する。オブジェクト記憶手段は、ゲーム画像を構成するオブジェクトを記憶している。画像表示制御手段は、操作手段によって入力されるプレイヤによる操作情報に基づいて少なくとも2つのオブジェクトを含むゲーム画像を表示する。スピーカは左右2つ備えられ、音を出力する。波形データ記憶手段は、ゲーム画像を構成する少なくとも2つのオブジェクトが音を発生するサウンドオブジェクトであり、当該サウンドオブジェクトの発生する音に対応する少なくとも1種類の波形データを記憶している。音発生位置データ記憶手段は、サウンドオブジェクト毎に音の発生位置を示す音発生位置データを記憶している。サウンド出力制御手段は、少なくとも音の出力指示に従って、波形データを読み出して、音データを生成し、生成した音データを音としてスピーカから出力する。そして、マイクデータ記憶手段は、少なくともゲーム中に音を集音する位置を示す集音位置データと集音する集音方向を示す集音方向データとを含むマイクデータを記憶している。 The operation means inputs operation information by the player. The object storage means stores objects constituting the game image. The image display control means displays a game image including at least two objects based on operation information by the player input by the operation means. Speaker provided two left right, and outputs the sound. The waveform data storage means is a sound object in which at least two objects constituting the game image generate sound, and stores at least one type of waveform data corresponding to the sound generated by the sound object. The sound generation position data storage means stores sound generation position data indicating the sound generation position for each sound object. Sound output control means, in accordance with an output indication of at least sound, reads the waveform data to generate sound data, output from the speaker the generated sound data as sound. The microphone data storage means stores microphone data including at least sound collection position data indicating a position where sound is collected during the game and sound collection direction data indicating a sound collection direction.

ゲームサウンド制御プログラムは、音量データ算出ステップ、定位算出ステップ、音量成分分割ステップ、オブジェクト分類ステップ、音出力データ生成ステップおよび音出力指示ステップによって構成される。 The game sound control program includes a volume data calculation step, a localization calculation step, a volume component division step, an object classification step , a sound output data generation step, and a sound output instruction step .

音量データ算出ステップは、サウンドオブジェクト毎に、音発生位置データと集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、算出した距離に基づいてサウンドオブジェクトがそれぞれ発生する音の音量データを算出する。定位算出ステップは、集音方向データと音発生位置データとに基づいて、各々のサウンドオブジェクトについての定位データを算出する。音量成分分割ステップは、定位算出ステップによって算出された定位データに基づいて、各サウンドオブジェクトの音量データを、スピーカから出力する音の右側音量成分と左側音量成分とに分割する。オブジェクト分類ステップは、すべてのサウンドオブジェクトを同じ音を発生するオブジェクトに分類する。音出力データ生成ステップは、同じ音を発生するオブジェクトについて、音量成分分割ステップによって分割された右側音量成分および左側音量成分のうち、最大の右側音量成分および最大の左側音量成分を抽出し、当該オブジェクトの波形データと最大の右側音量成分および最大の左側音量成分とに基づいて、サウンド出力制御手段がスピーカから音を出力するためのデータを生成する。そして、出力指示ステップは、サウンド出力制御手段に、音の出力指示と音出力データ生成ステップによって生成したデータとを与える。 In the sound volume data calculating step, for each sound object, the distance between the sound object and the sound collection position is calculated from the sound generation position data and the sound collection position data, and the sound volume generated by the sound object based on the calculated distance is calculated. Calculate the data. The localization calculation step calculates localization data for each sound object based on the sound collection direction data and the sound generation position data. The volume component dividing step divides the volume data of each sound object into a right volume component and a left volume component of the sound output from the speaker based on the localization data calculated by the localization calculation step. The object classification step classifies all sound objects into objects that generate the same sound. The sound output data generation step extracts the maximum right volume component and the maximum left volume component from the right volume component and the left volume component divided by the volume component division step for the object that generates the same sound, and the object The sound output control means generates data for outputting sound from the speaker based on the waveform data and the maximum right volume component and maximum left volume component . The output instruction step gives the sound output control means the sound output instruction and the data generated by the sound output data generation step.

請求項1の発明では、ゲーム装置(12:実施例で相当する参照番号。以下、同じ。)には、プレイヤによる操作情報を入力するための操作手段(16,22)が接続される。その操作情報に基づいて少なくとも2つのオブジェクトを含むゲーム画像(80)が画像表示制御手段(36、S11)によって表示される。このゲーム画像(80)を構成するオブジェクト(82,84,88)は、オブジェクト記憶手段(40)に記憶される。たとえば、ゲーム画像(80)を構成する少なくとも2つのオブジェクトが音を発生するサウンドオブジェクト(84,88)であり、当該サウンドオブジェクト(84,88)の発生する音に対応する少なくとも1種類の波形データが波形データ記憶手段(54)に記憶される。当該サウンドオブジェクトの音は、左右2つのスピーカ(34a,34a)から出力される。また、サウンドオブジェクト(84,88)毎に音の発生位置を示す音発生位置データ(722b,726b,730b)が音発生位置データ記憶手段(40)に記憶される。さらに、少なくともゲーム中に音を集音する位置を示す集音位置データ(74a)と、集音する集音方向を示す集音方向データ(74b)とを含むマイクデータがマイクデータ記憶手段74に記憶される。このような構成のゲーム装置のプロセサによって、ゲームサウンド制御プログラムは実行される。具体的には、音量データ算出ステップ(36,S31)は、音発生位置データ(722b,726b,730b)とマイクデータとからサウンドオブジェクト(84,88)毎に、音発生位置データと集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、その距離に基づいて音量データを算出する。そして、定位算出ステップ(36,S33)が、集音方向データと音発生位置データとに基づいて、各々のサウンドオブジェクトについての定位データを算出する。すると、音量成分分割ステップ(36,S43)が、定位算出ステップによって算出された定位データに基づき、音量データ算出ステップ(36,S31)によって算出された音量データを、スピーカ(34a,34a)から出力する音の右側音量成分と左側音量成分とに分割する。オブジェクト分類ステップ(36,S39)は、すべてのサウンドオブジェクト(84,88)を、同じ音を発生するオブジェクトに分類する。オブジェクトが分類されると、音出力データ生成ステップ(36,S51)は、同じ音を発生するオブジェクトについて、音量成分分割ステップ(36,S43)によって分割された右側音量成分および左側音量成分のうち、最大の右側音量成分および最大の左側音量成分を抽出し、当該オブジェクトの波形データと最大の右側音量成分および最大の左側音量成分とに基づいて、サウンド出力制御手段(52)がスピーカ(34a,34a)から音を出力するためのデータを生成する。そして、出力指示ステップ(36,S53)は、音の出力指示と音出力データ生成ステップ(36,S51)によって生成したデータとを、サウンド出力制御手段(52)に与える。したがって、生成されたデータに基づいて、サウンド出力制御手段(52)がスピーカ(34a,34a)から音を出力するので、分類されたオブジェクトの発生する音が、1つにまとめられてスピーカ(34a,34a)から聞こえる。 According to the first aspect of the present invention, the game device (12: reference number corresponding to the embodiment; hereinafter the same) is connected to operation means (16, 22) for inputting operation information by the player. Based on the operation information, a game image (80) including at least two objects is displayed by the image display control means (36, S11). The objects (82, 84, 88) constituting the game image (80) are stored in the object storage means (40). For example, at least two objects constituting the game image (80) are sound objects (84, 88) that generate sound, and at least one type of waveform data corresponding to the sound generated by the sound object (84, 88). Is stored in the waveform data storage means (54). The sound of the sound object is output from the left and right speakers (34a, 34a). Further, sound generation position data (722b, 726b, 730b) indicating a sound generation position for each sound object (84, 88) is stored in the sound generation position data storage means (40). Furthermore, microphone data including at least sound collection position data (74a) indicating a position for collecting sound during the game and sound collection direction data (74b) indicating the sound collection direction for collecting sound is stored in the microphone data storage means 74. Remembered. The game sound control program is executed by the processor of the game apparatus having such a configuration. Specifically, the sound volume data calculating step (36, S31) is performed for each sound object (84, 88) from the sound generation position data (722b, 726b, 730b) and the microphone data. The distance between the sound object and the sound collection position is calculated from the data, and the volume data is calculated based on the distance. A localization calculation step (36, S33) calculates localization data for each sound object based on the sound collection direction data and the sound generation position data. Then, the volume component dividing step (36, S43) outputs the volume data calculated by the volume data calculation step (36, S31) from the speakers (34a, 34a) based on the localization data calculated by the localization calculation step. Is divided into a right volume component and a left volume component . The object classification step (36, S39) classifies all sound objects (84, 88) into objects that generate the same sound. When the objects are classified, the sound output data generation step (36, S51) includes the right volume component and the left volume component divided by the volume component dividing step (36, S43) for the object that generates the same sound. The maximum right volume component and the maximum left volume component are extracted, and based on the waveform data of the object and the maximum right volume component and the maximum left volume component , the sound output control means (52) uses the speakers (34a, 34a). ) To generate data for outputting sound. The output instruction step (36, S53) gives the sound output instruction and the data generated in the sound output data generation step (36, S51) to the sound output control means (52). Accordingly, since the sound output control means (52) outputs sound from the speakers (34a, 34a ) based on the generated data, the sounds generated by the classified objects are combined into one speaker (34a). , 34a) .

請求項1の発明によれば、同じ種類のサウンドオブジェクトについての音を音源の1つの発音だけで出力するので、音源を効率的に使用することができる。   According to the first aspect of the invention, the sound of the same type of sound object is output by only one sound generation of the sound source, so that the sound source can be used efficiently.

請求項2の発明は、請求項1に従属し、音出力データ生成ステップは、最大の右側音量成分および最大の左側音量成分を、そのまま、出力する音の右側音量成分および左側音量成分とする。 The invention according to claim 2 is dependent on claim 1, and the sound output data generation step uses the maximum right volume component and the maximum left volume component as they are as the right volume component and left volume component of the output sound.

請求項2の発明によれば、音出力データ生成ステップ(36,S51)は、抽出された最大の右側音量成分および最大の左側音量成分を、そのまま、出力する音の右側音量成分および左側音量成分とするので、分類されたサウンドオブジェクトが発生する音を、音源の1つの発音だけで出力することができる。 According to the invention of claim 2, sound output data generating step (36, S51) is the extracted maximum right volume components and maximum left volume components, as, right volume component and left volume component of the sound to be output Therefore, the sound generated by the classified sound object can be output with only one sound generation of the sound source.

請求項3の発明は、操作手段、オブジェクト記憶手段、画像表示制御手段、波形データ記憶手段、音発生位置データ記憶手段、およびマイクデータ記憶手段を備えるゲーム装置のプロセサによって実行されるゲームサウンド制御プログラムである。
操作手段は、プレイヤによる操作情報を入力する。オブジェクト記憶手段は、ゲーム画像を構成するオブジェクトを記憶している。画像表示制御手段は、操作情報に基づいて少なくとも2つのオブジェクトを含むゲーム画像を表示する。スピーカは、左右2つ備えられ、音を出力する。波形データ記憶手段は、ゲーム画像を構成する少なくとも2つのオブジェクトが音を発生するサウンドオブジェクトであり、当該サウンドオブジェクトの発生する音に対応する少なくとも1種類の波形データを記憶している。音発生位置データ記憶手段は、サウンドオブジェクト毎に音の発生位置を示す音発生位置データを記憶している。サウンド出力制御手段は、少なくとも音の出力指示に従って、波形データを読み出して、音データを生成し、生成した音データを音としてスピーカから出力する。そして、マイクデータ記憶手段は、少なくともゲーム中に音を集音する位置を示す集音位置データと集音する集音方向を示す集音方向データとを含むマイクデータを記憶している。
サウンド制御プログラムは、音量データ算出ステップ、定位算出ステップ、音量成分分割ステップ、オブジェクト分類ステップ、音出力データ生成ステップおよび音出力指示ステップによって構成される。
音量データ算出ステップは、サウンドオブジェクト毎に、音発生位置データと集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、算出した距離に基づいてサウンドオブジェクトがそれぞれ発生する音の音量データを算出する。定位算出ステップは、集音方向データと音発生位置データとに基づいて各々のサウンドオブジェクトについての定位データを算出する。音量成分分割ステップは、定位算出ステップによって算出された定位データに基づいて、各々のサウンドオブジェクトの音量データを、スピーカから出力する音の右側音量成分、左側音量成分およびサラウンド音量成分に分割する。オブジェクト分類ステップは、すべてのサウンドオブジェクトを同じ音を発生するオブジェクトに分類する。音出力データ生成ステップは、同じ音を発生するオブジェクトについて音量成分分割ステップによって分割された右側音量成分、左側音量成分およびサラウンド音量成分のうち、最大の右側音量成分、最大の左側音量成分および最大のサラウンド音量成分を抽出し、当該オブジェクトの波形データと最大の右側音量成分、最大の左側音量成分および最大のサラウンド音量成分とに基づいて、サウンド出力制御手段がスピーカから音を出力するためのデータを生成する。そして、出力指示ステップは、サウンド出力制御手段に、音の出力指示と音出力データ生成ステップによって生成したデータとを与える。
According to a third aspect of the present invention, there is provided a game sound control program to be executed by a processor of a game device comprising an operation means, an object storage means, an image display control means, a waveform data storage means, a sound generation position data storage means, and a microphone data storage means. It is.
The operation means inputs operation information by the player. The object storage means stores objects constituting the game image. The image display control means displays a game image including at least two objects based on the operation information. Two left and right speakers are provided to output sound. The waveform data storage means is a sound object in which at least two objects constituting the game image generate sound, and stores at least one type of waveform data corresponding to the sound generated by the sound object. The sound generation position data storage means stores sound generation position data indicating the sound generation position for each sound object. The sound output control means reads waveform data according to at least a sound output instruction, generates sound data, and outputs the generated sound data as sound from a speaker. The microphone data storage means stores microphone data including at least sound collection position data indicating a position where sound is collected during the game and sound collection direction data indicating a sound collection direction.
The sound control program includes a volume data calculation step, a localization calculation step, a volume component division step, an object classification step, a sound output data generation step, and a sound output instruction step.
In the sound volume data calculating step, for each sound object, the distance between the sound object and the sound collection position is calculated from the sound generation position data and the sound collection position data, and the sound volume generated by the sound object based on the calculated distance is calculated. Calculate the data. The localization calculation step calculates localization data for each sound object based on the sound collection direction data and the sound generation position data. The volume component dividing step divides the volume data of each sound object into a right volume component, a left volume component, and a surround volume component of the sound output from the speaker based on the localization data calculated by the localization calculation step. The object classification step classifies all sound objects into objects that generate the same sound. The sound output data generation step includes a maximum right volume component, a maximum left volume component, and a maximum volume among the right volume component, the left volume component, and the surround volume component divided by the volume component division step for objects that generate the same sound. Based on the waveform data of the object and the maximum right volume component, maximum left volume component and maximum surround volume component, the sound output control means extracts data for outputting sound from the speaker. Generate. The output instruction step gives the sound output control means the sound output instruction and the data generated by the sound output data generation step.

請求項3の発明によれば、音量成分分割ステップ(36,S43)は、音発生位置データ(722b,726b,730b)とその集音方向データ(74b)とからサウンドオブジェクトが発生する音の音量データを、スピーカ(34a,34a)から出力する音の右側音量成分、左側音量成分およびサラウンド音量成分に分割する。したがって、音出力データ生成ステップ(36,S51)は、同じ音を発生するオブジェクトについて、音量成分分割ステップ(36,S43)によって分割された右側音量成分、左側音量成分およびサラウンド音量成分のうち、最大の右側音量成分、最大の左側音量成分および最大のサラウンド音量成分を抽出し、当該オブジェクトの波形データと最大の右側音量成分、最大の左側音量成分および最大のサラウンド音量成分とに基づいて、サウンド出力制御手段(52)がスピーカ(34a,34a)から音を出力するためのデータを生成することができる。 According to the third aspect of the present invention, the volume component dividing step (36, S43) performs the volume of the sound generated by the sound object from the sound generation position data (722b, 726b, 730b) and the sound collection direction data (74b). The data is divided into a right volume component, a left volume component and a surround volume component of the sound output from the speakers (34a, 34a) . Therefore, in the sound output data generation step (36, S51), the maximum of the right volume component, the left volume component, and the surround volume component divided by the volume component dividing step (36, S43) is calculated for the objects that generate the same sound. The right volume component, maximum left volume component, and maximum surround volume component are extracted, and the sound output is based on the waveform data of the object and the maximum right volume component, maximum left volume component, and maximum surround volume component. The control means (52) can generate data for outputting sound from the speakers (34a, 34a).

請求項4の発明は、請求項3に従属し、音発生位置データは、1つの座標データで表されるサウンドオブジェクトの位置データおよび少なくとも2つの座標データで定義されたレールデータにより表される、レールデータを持つサウンドオブジェクトの位置データを含み、レールデータを持つサウンドオブジェクトについて、レールデータを表す座標を結ぶ線分上であり、かつ、集音位置データに最も接近する位置の座標データを算出する近接座標算出ステップ、音量データ算出ステップは、レールデータを持つサウンドオブジェクトの音量データを算出するとき、近接座標算出ステップによって算出された座標データと集音位置データとから当該サウンドオブジェクトの音量データを算出し、音量成分分割ステップは、近接座標算出ステップによって算出された座標データと集音位置データとから、スピーカから出力する音の右側音量成分左側音量成分およびサラウンド音量成分のそれぞれに音量データを分割する。 The invention of claim 4 is dependent on claim 3, and the sound generation position data is represented by position data of a sound object represented by one coordinate data and rail data defined by at least two coordinate data. It includes the position data of the sound object with rail data, and for the sound object with rail data, calculates the coordinate data of the position closest to the sound collection position data on the line connecting the coordinates representing the rail data. The proximity coordinate calculation step and the volume data calculation step calculate the volume data of the sound object from the coordinate data calculated by the proximity coordinate calculation step and the sound collection position data when calculating the volume data of the sound object having rail data. In the volume component dividing step, the proximity coordinate calculating step From the coordinate data and satellite position data calculated by the right volume component of the sound output from the speaker, to divide the volume data to each of the left volume components and surround sound components.

請求項4の発明によれば、音発生位置データは、1つの座標データで表される点のサウンドオブジェクトの位置データおよび少なくとも2つの座標データで定義されたレールデータを持つサウンドオブジェクトの位置データを含み、レールデータを持つサウンドオブジェクトについて、レールデータを表す座標を結ぶ線分上であり、かつ、集音位置データに最も接近する位置の座標データを算出する近接座標算出ステップをさらに備え、音量データ算出ステップは、レールデータを持つサウンドオブジェクトの音量データを算出するとき、近接座標算出ステップにより算出された座標データと集音位置データとから当該サウンドオブジェクトの音量データを算出し、音量成分分割ステップは、近接座標算出ステップによって算出された座標データと集音位置データとから、スピーカから出力する音の右側音量成分左側音量成分およびサラウンド音量成分のそれぞれに音量データを分割する。 According to the invention of claim 4, the sound generation position data includes the position data of a sound object at a point represented by one coordinate data and the position data of a sound object having rail data defined by at least two coordinate data. Including a proximity coordinate calculation step for calculating coordinate data of a position that is on a line connecting the coordinates representing the rail data and that is closest to the sound collection position data, for a sound object having rail data, The calculation step calculates the volume data of the sound object from the coordinate data calculated by the proximity coordinate calculation step and the sound collection position data when calculating the volume data of the sound object having rail data, and the volume component division step The coordinate data calculated by the proximity coordinate calculation step And a data and satellite position data, the right volume component of the sound output from the speaker, to divide the volume data to each of the left volume components and surround sound components.

具体的には、音発生位置データ(722b,726b,730b)は、1つの座標データで表されるサウンドオブジェクトの位置データ(722b,726b)および少なくとも2つの座標データで定義されるレールデータにより表されるレールデータサウンドオブジェクトの位置データ(730b)を含む。近接座標算出ステップ(36,S63)は、レールデータを持つサウンドオブジェクト(88)について、レールデータを表す線分上であり、集音位置データ(74a)に最も接近する位置の座標データを算出する。音量データ算出ステップ(36,S31)は、レールデータを持つサウンドオブジェクトの音量データを算出する場合には、近接座標算出ステップ(36,S63)によって算出された座標データとマイクデータとから当該サウンドオブジェクト(88)の音量データを算出する。つまり、レールデータの線分上であり、集音位置データ(74a)に最も接近する位置にサウンドオブジェクトの音が存在するとみなして、当該音の音量データを算出して、音源の発音数を低減している。したがって、音量成分分割ステップ(36,S43)は、レールデータを持つサウンドオブジェクト(88)の音量データを成分に分割するとき、近接座標算出ステップ(36,S63)によって算出された座標データと集音方向データ(74b)とから、スピーカ(34a,34a)から出力する音の右側音量成分、左側音量成分およびサラウンド音量成分に分割する。つまり、少なくとも2つの座標データで定義されるレールデータをサウンドオブジェクトの音とみなして音源の発音数を低減するので、1つの座標データで表されるサウンドオブジェクトが複数存在する場合と同様に扱うことができる。 Specifically, the sound generation position data (722b, 726b, 730b) is represented by the position data (722b, 726b) of the sound object represented by one coordinate data and rail data defined by at least two coordinate data. Position data (730b) of the rail data sound object to be played. The proximity coordinate calculation step (36, S63) calculates the coordinate data of the position closest to the sound collection position data (74a) on the line segment representing the rail data for the sound object (88) having the rail data. . In the sound volume data calculating step (36, S31), when calculating sound volume data of a sound object having rail data, the sound object is calculated from the coordinate data calculated by the proximity coordinate calculating step (36, S63) and the microphone data. The volume data of (88) is calculated. That is, on the line segment of the rail data, the sound object sound is assumed to be present at the position closest to the sound collection position data (74a), and the sound volume data of the sound is calculated to reduce the number of sounds of the sound source. doing. Therefore, in the volume component dividing step (36, S43), when dividing the volume data of the sound object (88) having rail data into components, the coordinate data calculated by the proximity coordinate calculating step (36, S63) and the sound collection are obtained. The direction data (74b) is divided into a right volume component, a left volume component and a surround volume component of the sound output from the speakers (34a, 34a) . In other words, the rail data defined by at least two coordinate data is regarded as the sound of the sound object and the number of sound generations of the sound source is reduced, so that it is handled in the same way as when there are multiple sound objects represented by one coordinate data. Can do.

請求項の発明は、操作手段、オブジェクト記憶手段、画像表示制御手段、スピーカ、波形データ記憶手段、音発生位置データ記憶手段、サウンド出力制御手段、およびマイクデータ記憶手段を備えるゲーム装置のコンピュータによって実行されるゲームサウンド制御方法である。 According to a fifth aspect of the present invention, there is provided a computer of a game apparatus comprising operating means, object storage means, image display control means, speakers, waveform data storage means, sound generation position data storage means, sound output control means, and microphone data storage means. A game sound control method to be executed.

操作手段は、プレイヤによる操作情報を入力する。オブジェクト記憶手段は、ゲーム画像を構成するオブジェクトを記憶している。画像表示制御手段は、操作手段によって入力されるプレイヤによる操作情報に基づいて少なくとも2つのオブジェクトを含むゲーム画像を表示する。スピーカは音を出力し、左右2つ備えられる。波形データ記憶手段は、ゲーム画像を構成する少なくとも2つのオブジェクトが音を発生するサウンドオブジェクトであり、当該サウンドオブジェクトの発生する音に対応する少なくとも1種類の波形データを記憶している。音発生位置データ記憶手段は、サウンドオブジェクト毎に音の発生位置を示す音発生位置データを記憶している。サウンド出力制御手段は、少なくとも音の出力指示に従って、波形データを読み出して、音データを生成し、生成した音データを音としてスピーカから出力する。そして、マイクデータ記憶手段は、少なくともゲーム中に音を集音する位置を示す集音位置データと、集音する集音方向を示す集音方向データとを含むマイクデータを記憶している。 The operation means inputs operation information by the player. The object storage means stores objects constituting the game image. The image display control means displays a game image including at least two objects based on operation information by the player input by the operation means. Speaker outputs sound, are left right two provided. The waveform data storage means is a sound object in which at least two objects constituting the game image generate sound, and stores at least one type of waveform data corresponding to the sound generated by the sound object. The sound generation position data storage means stores sound generation position data indicating the sound generation position for each sound object. The sound output control means reads waveform data according to at least a sound output instruction, generates sound data, and outputs the generated sound data as sound from a speaker. The microphone data storage means stores microphone data including at least sound collection position data indicating the position at which sound is collected during the game and sound collection direction data indicating the sound collection direction in which sound is collected.

ゲームサウンド制御方法では、(a) サウンドオブジェクト毎に、音発生位置データと集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、算出した距離に基づいてサウンドオブジェクトがそれぞれ発生する音の音量データを算出し、(b)集音方向データと音発生位置データとに基づいて各々のサウンドオブジェクトについての定位データを算出し、(c)ステップ(b)で算出した定位データに基づいて、各々のサウンドオブジェクトの音量データを、スピーカから出力する音の右側音量成分と左側音量成分とに分割し、(d)すべてのサウンドオブジェクトを同じ音を発生するオブジェクトに分類し、(e)同じ音を発生するオブジェクトについてステップ(c)で分割した右側音量成分および左側音量成分のうち、最大の右側音量成分および最大の左側音量成分を抽出し、当該オブジェクトの波形データと最大の右側音量成分および最大の左側音量成分とに基づいて、サウンド出力制御手段がスピーカから音を出力するためのデータを生成し、そして(f)サウンド出力制御手段に、音の出力指示とステップ(e)で生成したデータとを与える。 In the game sound control method, (a) for each sound object, the distance between the sound object and the sound collection position is calculated from the sound generation position data and the sound collection position data, and the sound object is generated based on the calculated distance. Calculate sound volume data, (b) calculate localization data for each sound object based on the sound collection direction data and sound generation position data, and (c) based on the localization data calculated in step (b) The volume data of each sound object is divided into the right volume component and the left volume component of the sound output from the speaker , (d) all sound objects are classified into objects that generate the same sound, and (e) Of the right volume component and left volume component divided in step (c) for objects that generate the same sound, the largest right volume component and Extracting the maximum left volume components, based on the waveform data and the maximum of the right volume components and the maximum of the left volume component of the object, the sound output control means generates data for outputting the sound from the speaker, and (f) A sound output instruction and the data generated in step (e) are given to the sound output control means.

請求項9の発明は、プレイヤによる操作情報を入力するための操作手段を備え、操作手段の操作に応じてゲームを進行させて、少なくとも2つのオブジェクトを含むゲーム画面を表示するとともに、音を出力する左右2つのスピーカから、ゲーム画面に関連する音を発生するよう構成されたゲーム装置である。このゲーム装置は、波形データ記憶手段、発生位置データ記憶手段、サウンド出力制御手段、マイクデータ記憶手段、音量データ算出手段、定位算出手段、音量成分分割手段、オブジェクト分類手段、音出力データ生成手段、および出力指示手段をさらに備える。 The invention of claim 9 is provided with operation means for inputting operation information by the player, and the game is advanced according to the operation of the operation means to display a game screen including at least two objects and to output a sound. from left to right two speakers it is configured game device to generate a sound associated with the game screen. This game apparatus includes waveform data storage means, sound generation position data storage means, sound output control means, microphone data storage means, volume data calculation means, localization calculation means, volume component division means, object classification means, sound output data generation means , And output instruction means.

請求項の発明および請求項の発明においても、請求項1の発明と同様に、音源の発音数を減らすことができるので、音源を効率的に使用することができる。 In the invention of claim 5 and claim 9 as well, as in the invention of claim 1, since the number of sound generation of the sound source can be reduced, the sound source can be used efficiently.

この発明によれば、同じ種類のサウンドオブジェクトについて、音の発生源を1つにまとめるので、音源を効率的に使用することができる。   According to the present invention, since the sound generation sources are grouped into one for the same type of sound object, the sound source can be used efficiently.

また、この発明によれば、音の発生源を1つにまとめるときに、違和感無くまとめることができるので、音源を効率的に使用しながら、しかもプレイヤに違和感や不自然さを感じさせることがない。   In addition, according to the present invention, when the sound sources are combined into one, it is possible to combine them without a sense of incongruity, so that it is possible to make the player feel uncomfortable or unnatural while using the sound source efficiently. Absent.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のビデオゲームシステム10はビデオゲーム装置12を含む。ビデオゲーム装置12は、略立方体のハウジング14を含み、ハウジング14の上端に光ディスクドライブ16を備える。光ディスクドライブ16には、ゲームプログラム等を記憶した情報記憶媒体の一例である光ディスク18が装着される。ハウジング14の前面には複数の(実施例では4つの)コネクタ20が備えられる。これらコネクタ20は、ケーブル24によって、コントローラ22をビデオゲーム装置12に接続するためのものであり、この実施例では最大4つのコントローラ22をビデオゲーム装置12に接続することができる。   Referring to FIG. 1, the video game system 10 of this embodiment includes a video game apparatus 12. The video game apparatus 12 includes a substantially cubic housing 14 and includes an optical disk drive 16 at the upper end of the housing 14. An optical disk 18 which is an example of an information storage medium storing a game program or the like is mounted on the optical disk drive 16. A plurality of (four in the embodiment) connectors 20 are provided on the front surface of the housing 14. These connectors 20 are for connecting the controller 22 to the video game apparatus 12 by a cable 24. In this embodiment, a maximum of four controllers 22 can be connected to the video game apparatus 12.

コントローラ22は、その上面,下面,或いは側面などに、操作手段(コントロール)26を備える。操作手段26は,たとえば2つのアナログジョイスティック,1つの十字キー,複数のボタンスイッチ等を含む。1つのアナログジョイスティックは、スティックの傾き量と方向とによって、プレイヤキャラクタ(プレイヤがコントローラ22によって操作可能な動画キャラクタ)の移動方向および/または移動速度ないし移動量などを入力するために用いられる。他のアナログジョイスティックは、傾斜方向によって、仮想カメラの移動を制御する。十字スイッチは、アナログジョイスティックに代えてプレイヤキャラクタの移動方向を指示するために用いられる。ボタンスイッチは、プレイヤキャラクタの動作を指示するために利用されたり、3次元画像の仮想カメラの視点を切り換えたり、プレイヤキャラクタの移動スピード調節等に用いられる。ボタンスイッチは、さらに、たとえばメニュー選択やポインタあるいはカーソル移動を制御するのに用いられる。   The controller 22 includes operation means (control) 26 on its upper surface, lower surface, or side surface. The operation means 26 includes, for example, two analog joysticks, one cross key, a plurality of button switches, and the like. One analog joystick is used to input the moving direction and / or moving speed or moving amount of the player character (moving image character that the player can operate with the controller 22) according to the tilt amount and direction of the stick. Other analog joysticks control the movement of the virtual camera according to the tilt direction. The cross switch is used to instruct the moving direction of the player character instead of the analog joystick. The button switch is used for instructing the action of the player character, switching the viewpoint of the virtual camera of the three-dimensional image, and adjusting the moving speed of the player character. The button switch is further used to control menu selection and pointer or cursor movement, for example.

ビデオゲーム装置12のハウジング14の前面のコネクタ20の下方には、少なくとも1つの(この実施例では2つの)メモリスロット28が備えられる。このメモリスロット28にはメモリカード30が挿入される。メモリカード30は、光ディスク18から読み出したゲームプログラム等をローディングして一時的に記憶したり、このゲームシステム10を利用してプレイしたゲームのゲームデータ(たとえばゲームの結果)を保存(セーブ)しておいたりするために利用される。   Below the connector 20 on the front surface of the housing 14 of the video game apparatus 12, at least one (two in this embodiment) memory slot 28 is provided. A memory card 30 is inserted into the memory slot 28. The memory card 30 loads and temporarily stores a game program or the like read from the optical disc 18, or saves (saves) game data (for example, game results) of a game played using the game system 10. It is used for storing.

ビデオゲーム装置12のハウジング14の後面は、AVケーブルコネクタ(図示せず)を備え、そのコネクタを介して、AVケーブル32を通してビデオビデオゲーム装置12にモニタ34を接続する。このモニタ34は典型的にはカラーテレビジョン受像機であり、AVケーブル32は、ビデオゲーム装置12からの映像信号をカラーテレビのビデオ入力端子に入力し、音声信号が音声入力端子に入力される。したがって、カラーテレビ(モニタ)34の画面上にたとえば3次元(3D)ビデオゲームのゲーム画像が表示され、左右のスピーカ34aからゲーム音楽や効果音などのステレオゲーム音声、または2スピーカであってもサラウンド効果を出すことが可能な場合は、サラウンド音声を含むゲーム音声が出力される。   The rear surface of the housing 14 of the video game apparatus 12 includes an AV cable connector (not shown), and a monitor 34 is connected to the video video game apparatus 12 through the AV cable 32 via the connector. The monitor 34 is typically a color television receiver, and the AV cable 32 inputs a video signal from the video game apparatus 12 to a video input terminal of the color television, and an audio signal is input to the audio input terminal. . Therefore, for example, a game image of a three-dimensional (3D) video game is displayed on the screen of the color television (monitor) 34, and stereo game sounds such as game music and sound effects from the left and right speakers 34a, or two speakers. When a surround effect can be produced, game sound including surround sound is output.

このゲームシステム10において、ユーザまたはゲームプレイヤがゲーム(または他のアプリケーション)をプレイするために、ユーザはまずゲーム装置12の電源をオンし、次いで、ユーザはビデオゲーム(もしくはプレイしたいと思う他のアプリケーション)をストアしている適宜の光ディスク18を選択し、その光ディスク18をゲーム装置12のディスクドライブ16にローディングする。応じて、ゲーム装置12がその光ディスク18にストアされているソフトウェアに基づいてビデオゲームもしくは他のアプリケーションを実行し始めるようにする。ユーザはゲーム装置12に入力を与えるためにコントローラ22を操作する。たとえば、操作手段26のどれかを操作することによってゲームもしくは他のアプリケーションをスタートさせる。操作手段26の他のものを動かすことによって、動画キャラクタ(プレイヤキャラクタ)を異なる方向に移動させ、または3次元(3D)のゲーム世界におけるユーザの視点(カメラ位置)を変化させることができる。   In this game system 10, in order for a user or game player to play a game (or other application), the user first turns on the game device 12 and then the user plays a video game (or other game that he / she wishes to play). An appropriate optical disk 18 storing the application) is selected, and the optical disk 18 is loaded into the disk drive 16 of the game apparatus 12. In response, the game device 12 starts to execute a video game or other application based on the software stored on the optical disc 18. The user operates the controller 22 to give input to the game apparatus 12. For example, a game or other application is started by operating any of the operation means 26. By moving the other operation means 26, the moving image character (player character) can be moved in different directions, or the user's viewpoint (camera position) in the three-dimensional (3D) game world can be changed.

図2は図1実施例のビデオゲームシステム10の電気的な構成を示すブロック図である。ビデオゲーム装置12は、中央処理ユニット(以下、「CPU」という。)36を含む。このCPU36は、コンピュータ或いはプロセサなどとも呼ばれ、ビデオゲーム装置12の全体的な制御を担当する。CPU36ないしコンピュータは、ゲームプロセサとして機能し、このCPU36には、バスを介して、メモリコントローラ38が接続される。メモリコントローラ38は主として、CPU36の制御の下で、バスを介して結合されるメインメモリ40の書込みや読出しを制御する。このメモリコントローラ38にはGPU(Graphics Processing Unit:グラフィックス処理装置) 42が接続される。   FIG. 2 is a block diagram showing an electrical configuration of the video game system 10 of FIG. 1 embodiment. The video game apparatus 12 includes a central processing unit (hereinafter referred to as “CPU”) 36. The CPU 36 is also called a computer or a processor, and is responsible for overall control of the video game apparatus 12. The CPU 36 or the computer functions as a game processor, and a memory controller 38 is connected to the CPU 36 via a bus. The memory controller 38 mainly controls writing and reading of the main memory 40 coupled via the bus under the control of the CPU 36. A GPU (Graphics Processing Unit) 42 is connected to the memory controller 38.

GPU42は、描画手段の一部を形成し、たとえばシングルチップASICで構成され、メモリコントローラ38を介してCPU36からのグラフィクスコマンド(graphics command :作画命令) を受け、そのコマンドに従って、ジオメトリユニット44およびレンダリングユニット46によって3次元(3D)ゲーム画像を生成する。つまり、ジオメトリユニット44は、3次元座標系の各種キャラクタやオブジェクト(複数のポリゴンで構成されている。そして、ポリゴンとは少なくとも3つの頂点座標によって定義される多角形平面をいう)の回転,移動,変形等の座標演算処理を行う。レンダリングユニット46は、各種オブジェクトの各ポリゴンにテクスチャ(Texture :模様画像)を貼り付けるなどの画像生成処理を行う。したがって、GPU42によって、ゲーム画面上に表示すべき3D画像データが作成され、その画像データ(テクスチャデータ)がフレームバッファ48内に描画(記憶)される。   The GPU 42 forms part of the drawing means, and is constituted by, for example, a single chip ASIC. The GPU 42 receives a graphics command (graphics command) from the CPU 36 via the memory controller 38, and the geometry unit 44 and the rendering according to the command. A unit 46 generates a three-dimensional (3D) game image. In other words, the geometry unit 44 rotates and moves various characters and objects (consisting of a plurality of polygons. The polygon is a polygonal plane defined by at least three vertex coordinates) in a three-dimensional coordinate system. , Perform coordinate calculation processing such as deformation. The rendering unit 46 performs image generation processing such as pasting a texture (Texture: pattern image) on each polygon of various objects. Therefore, 3D image data to be displayed on the game screen is created by the GPU 42, and the image data (texture data) is drawn (stored) in the frame buffer 48.

なお、GPU42が作画コマンドを実行するにあたって必要なデータ(プリミティブまたはポリゴンやテクスチャ等)は、GPU42がメモリコントローラ38を介して、メインメモリ40にアクセスして取得する。   Note that data (primitives, polygons, textures, etc.) necessary for the GPU 42 to execute the drawing command is obtained by the GPU 42 accessing the main memory 40 via the memory controller 38.

フレームバッファ48は、たとえばラスタスキャンモニタ34の1フレーム分の画像データを描画(蓄積)しておくためのメモリであり、GPU42によって1フレーム毎に書き換えられる。後述のビデオI/F58がメモリコントローラ38を介してフレームバッファ48のデータを読み出すことによって、モニタ34の画面上に3Dゲーム画像が表示される。   The frame buffer 48 is a memory for drawing (accumulating) image data for one frame of the raster scan monitor 34, for example, and is rewritten frame by frame by the GPU. A video I / F 58 described later reads data from the frame buffer 48 via the memory controller 38, whereby a 3D game image is displayed on the screen of the monitor 34.

また、Zバッファ50は、フレームバッファ48に対応する画素(記憶位置またはアドレス)数×1画素当たりの奥行データのビット数に相当する記憶容量を有し、フレームバッファ48の各記憶位置に対応するドットの奥行き情報または奥行データ(Z値)を記憶する。   The Z buffer 50 has a storage capacity corresponding to the number of pixels (storage position or address) corresponding to the frame buffer 48 × the number of bits of depth data per pixel, and corresponds to each storage position of the frame buffer 48. Dot depth information or depth data (Z value) is stored.

なお、フレームバッファ48およびZバッファ50は、ともにメインメモリ40の一部を用いて構成されてもよい。   Note that both the frame buffer 48 and the Z buffer 50 may be configured using part of the main memory 40.

メモリコントローラ38はまた、DSP(Digital Signal Processor)52を介して、ARAM54に接続される。したがって、メモリコントローラ38は、メインメモリ40だけでなく、サブメモリとしてのARAM54の書込みおよび/または読出しを制御する。   The memory controller 38 is also connected to the ARAM 54 via a DSP (Digital Signal Processor) 52. Therefore, the memory controller 38 controls writing and / or reading of not only the main memory 40 but also the ARAM 54 as a sub memory.

DSP52は、サウンドプロセサとして働き、メインメモリ40に記憶されたサウンドデータ(図3参照)にアクセスしたり、ARAM54に書き込まれている音波形データ(図6参照)にアクセスしたりして、ゲームに必要な音、音声或いは音楽に対応するオーディオデータを生成する。たとえば、この実施例では、DSP52は、後で詳細に説明する“松明”、“川”のようなサウンドオブジェクトが発生する音に対応するオーディオデータを、音波形データを用いて生成する。   The DSP 52 functions as a sound processor, and accesses the sound data (see FIG. 3) stored in the main memory 40 or accesses the sound waveform data (see FIG. 6) written in the ARAM 54 to play the game. Audio data corresponding to the necessary sound, voice or music is generated. For example, in this embodiment, the DSP 52 generates audio data corresponding to sounds generated by sound objects such as “torches” and “rivers”, which will be described in detail later, using sound waveform data.

メモリコントローラ38は、さらに、バスによって、各インタフェース(I/F)56,58,60,62および64に接続される。コントローラI/F56は、コントローラ22のためのインタフェースであり、コントローラ22の操作手段26の操作信号またはデータをメモリコントローラ38を通してCPU36に送る。ビデオI/F58は、フレームバッファ48にアクセスし、GPU42で作成した画像データを読み出して、画像信号または画像データ(ディジタルRGBピクセル値)をAVケーブル32(図1)を介してモニタ34に送る。   The memory controller 38 is further connected to each interface (I / F) 56, 58, 60, 62 and 64 by a bus. The controller I / F 56 is an interface for the controller 22, and sends an operation signal or data of the operation means 26 of the controller 22 to the CPU 36 through the memory controller 38. The video I / F 58 accesses the frame buffer 48, reads out image data created by the GPU 42, and sends an image signal or image data (digital RGB pixel value) to the monitor 34 via the AV cable 32 (FIG. 1).

外部メモリI/F60は、ゲーム装置12の前面に挿入されるメモリカード30(図1)をメモリコントローラ38に接続する。それによって、メモリコントローラ38を介して、CPU36がこのメモリカード30にデータを書込み、またはメモリカード30からデータを読み出すことができる。オーディオI/F62は、メモリコントローラ38を通してDSP52から与えられるオーディオデータまたは光ディスク18から読み出されたオーディオストリームを、それらに応じたオーディオ信号(音声信号)としてモニタ34のスピーカ34aに送る。   The external memory I / F 60 connects the memory card 30 (FIG. 1) inserted in the front surface of the game apparatus 12 to the memory controller 38. Thereby, the CPU 36 can write data to the memory card 30 or read data from the memory card 30 via the memory controller 38. The audio I / F 62 sends the audio data supplied from the DSP 52 through the memory controller 38 or the audio stream read from the optical disc 18 to the speaker 34a of the monitor 34 as an audio signal (audio signal) corresponding to the audio data.

なお、ステレオ音声の場合には、スピーカ34aは、少なくとも、左右1つずつ設けられる。また、サラウンド処理することで、左右2つのスピーカのみであっても後方から音が発生しているように音を聞かせることも可能である。   In the case of stereo sound, at least one speaker 34a is provided on each of the left and right speakers. In addition, by performing the surround processing, it is possible to let the sound be heard as if the sound is generated from the rear even with only the two left and right speakers.

そして、ディスクI/F64は、そのディスクドライブ16をメモリコントローラ38に接続し、したがって、CPU36がディスクドライブ16を制御する。このディスクドライブ16によって光ディスク18から読み出されたプログラムデータやテクスチャデータ等が、CPU36の制御の下で、メインメモリ40に書き込まれる。   Then, the disk I / F 64 connects the disk drive 16 to the memory controller 38, and thus the CPU 36 controls the disk drive 16. Program data, texture data, and the like read from the optical disk 18 by the disk drive 16 are written into the main memory 40 under the control of the CPU 36.

図3はメインメモリ40のメモリマップである。メインメモリ40は、プログラム領域70、オブジェクトデータ記憶領域72、マイクデータ記憶領域74およびサウンド出力制御データ記憶領域76を含む。プログラム記憶領域70には、光ディスク18から読み出したゲームプログラムが、1度にまたは部分的にかつ順次的に、記憶される。このゲームプログラムは、この実施例では、ゲームメイン処理プログラム70a、画像処理プログラム70bおよびサウンド制御処理プログラム70cなどによって構成される。   FIG. 3 is a memory map of the main memory 40. The main memory 40 includes a program area 70, an object data storage area 72, a microphone data storage area 74, and a sound output control data storage area 76. In the program storage area 70, the game program read from the optical disk 18 is stored once or partially and sequentially. In this embodiment, the game program includes a game main processing program 70a, an image processing program 70b, a sound control processing program 70c, and the like.

オブジェクトデータ記憶領域72には、たとえば、オブジェクトA(松明1)データ72a、オブジェクトB(松明2)データ72bおよびオブジェクトC(川1)データ72cのようなノンプレイヤオブジェクトについてのデータが光ディスク18から読み出されロードされる。図示は省略するが、さらに、プレイヤキャラクタオブジェクトデータや敵キャラクタオブジェクトデータのようなゲームキャラクタのデータやゲーム世界(マップ)のデータも記憶領域72にロードされる。   In the object data storage area 72, for example, data about non-player objects such as object A (torches 1) data 72a, object B (torches 2) data 72b and object C (river 1) data 72c are read from the optical disc 18. Issued and loaded. Although not shown, game character data such as player character object data and enemy character object data and game world (map) data are also loaded into the storage area 72.

なお、オブジェクトAデータ72a、オブジェクトBデータ72bおよびオブジェクトCデータ72cなどの各オブジェクトデータは、ポリゴンによって形成される。   Each object data such as the object A data 72a, the object B data 72b, and the object C data 72c is formed by polygons.

また、メインメモリ40には、上記各キャラクタおよびオブジェクト等のデータを光ディスク18から必要に応じてロードするようにしてもよい。   The main memory 40 may be loaded with data such as each character and object from the optical disc 18 as necessary.

マイクデータ記憶領域74には、仮想カメラとともに設けられる仮想マイク86(図8参照)のゲーム世界における位置(集音位置)を示す座標データ(集音位置データ)74aおよび当該位置に対応して予め決定される仮想マイク86の集音方向を示す集音方向データ74bが光ディスク18から読み出されロードされる。   In the microphone data storage area 74, coordinate data (sound collection position data) 74a indicating the position (sound collection position) in the game world of the virtual microphone 86 (see FIG. 8) provided together with the virtual camera, and corresponding to the position in advance. Sound collection direction data 74b indicating the sound collection direction of the determined virtual microphone 86 is read from the optical disc 18 and loaded.

サウンド出力制御データ記憶領域76には、サウンドAデータ760およびサウンドBデータ762などのサウンドデータが記憶される。ただし、これらのサウンドデータは、後述するサウンド制御処理によって算出されたデータである。サウンドAデータ760は、この実施例では、“松明”についてのサウンドデータであり、定位データ760aおよび音量データ760bを含む。また、サウンドBデータ762は、この実施例では、“川”についてのサウンドデータであり、定位データ762aおよび音量データ762bを含む。定位データは、ゲーム世界上のオブジェクト(松明或いは川など)が音を発生する方向を示すデータであり、音量データは当該オブジェクト(松明或いは川など)が発生する音の音量を示すデータである。   The sound output control data storage area 76 stores sound data such as sound A data 760 and sound B data 762. However, these sound data are data calculated by a sound control process described later. In this embodiment, the sound A data 760 is sound data for “torches” and includes localization data 760a and volume data 760b. In this embodiment, the sound B data 762 is sound data for “river”, and includes localization data 762a and volume data 762b. The localization data is data indicating the direction in which an object (torches or rivers) in the game world generates sound, and the volume data is data indicating the volume of sounds generated by the objects (torches or rivers).

なお、図示は省略するが、サウンド出力制御データ記憶領域76には、ゲームに必要な音、音楽および音声などのデータもロードされ書き込まれる。   Although illustration is omitted, the sound output control data storage area 76 is loaded and written with data such as sound, music and voice necessary for the game.

また、サウンド制御処理プログラム70cは、図4に示すように、音量データ算出プログラム700、定位算出プログラム702、オブジェクト分類プログラム704、音量データ成分算出プログラム706、最大音量成分データ抽出プログラム708およびレールデータ近接座標算出プログラム710を含む。ただし、これらのプログラムは別個独立に実行されるのではなく、後述するように、一連の流れに沿って実行される(図14および図15参照)。   Further, as shown in FIG. 4, the sound control processing program 70c includes a volume data calculation program 700, a localization calculation program 702, an object classification program 704, a volume data component calculation program 706, a maximum volume component data extraction program 708, and rail data proximity. A coordinate calculation program 710 is included. However, these programs are not executed separately, but are executed along a series of flows as described later (see FIGS. 14 and 15).

さらに、オブジェクトAデータ72a〜オブジェクトCデータ72cは、図5に示すように構成される。オブジェクトAデータ72aは、オブジェクトA(松明1)をモニタ34に表示するための画像表示用データ720および当該オブジェクトA(松明1)が発生する音をスピーカ34aから出力するためのサウンドデータ722を含む。   Further, the object A data 72a to the object C data 72c are configured as shown in FIG. The object A data 72a includes image display data 720 for displaying the object A (torches 1) on the monitor 34, and sound data 722 for outputting sounds generated by the objects A (torches 1) from the speakers 34a. .

また、サウンドデータ722は、音指定データ722a、座標データ722b、音量データ722cおよび音優先順位データ722dを含む。音指定データ722aは、当該オブジェクトAが発生する音を出力する場合に、使用する音波形データをARAM54に記憶される複数の音波形データ(図6参照)から指定(選択)するためのインデックスデータである。座標データ722bは、当該オブジェクトAが存在するゲーム世界上の位置を示し、この実施例では、3次元座標で表される。   The sound data 722 includes sound designation data 722a, coordinate data 722b, volume data 722c, and sound priority data 722d. The sound designation data 722a is index data for designating (selecting) sound waveform data to be used from a plurality of sound waveform data (see FIG. 6) stored in the ARAM 54 when outputting the sound generated by the object A. It is. The coordinate data 722b indicates the position in the game world where the object A exists, and is represented by three-dimensional coordinates in this embodiment.

ただし、オブジェクトAは松明であり、このような松明はゲーム世界上の所定位置に配置されるため、したがって、この場合は座標データはサウンドオブジェクトの音の位置を示すこととなる。   However, the object A is a torch, and such a torch is arranged at a predetermined position in the game world. Therefore, in this case, the coordinate data indicates the position of the sound of the sound object.

音量データ722cは、当該オブジェクトAが発生する音の音量を示すデータである。また、音優先順位データ722dは、モニタ34の一画面に表示されるゲーム世界内に複数のオブジェクト(サウンドオブジェクト)が存在し、使用可能な音源の発音数、すなわちDSP52が使用可能な最大同時発音数を超えた場合に、当該サウンドオブジェクトを他のサウンドオブジェクトと比較して、音を発生するか否かを決定するためのデータである。つまり、音源の発音数が足りない場合には、優先順位の低いサウンドオブジェクトの音は発せられない。   The volume data 722c is data indicating the volume of the sound generated by the object A. The sound priority data 722d includes a plurality of objects (sound objects) in the game world displayed on one screen of the monitor 34, and the number of sound sources that can be used, that is, the maximum simultaneous sound that the DSP 52 can use. When the number is exceeded, the sound object is compared with other sound objects to determine whether or not to generate sound. In other words, when the number of pronunciations of the sound source is insufficient, the sound of the sound object with a low priority is not emitted.

オブジェクトBデータ72bは、画像表示用データ724およびサウンドデータ726を含む。オブジェクトB(松明2)は、オブジェクトA(松明1)と同じ種類のオブジェクトデータであるため、画像表示用データ724およびサウンドデータ726は、上述した内容と同じである。ただし、オブジェクトBは、オブジェクトAとはゲーム世界上の異なる位置に配置されるため、それに従って、サウンドデータ726の座標データ726b、音量データ726cおよび音優先順位データ726dの内容が異なる。   The object B data 72b includes image display data 724 and sound data 726. Since the object B (torches 2) is the same type of object data as the objects A (torches 1), the image display data 724 and the sound data 726 are the same as described above. However, since object B is arranged at a different position in the game world from object A, the contents of coordinate data 726b, volume data 726c, and sound priority data 726d of sound data 726 differ accordingly.

なお、音指定データ726aは、オブジェクトAとオブジェクトBとが同じ種類のサウンドオブジェクトであるため、音指定データ722aと同じデータである。   The sound designation data 726a is the same data as the sound designation data 722a because the object A and the object B are the same type of sound object.

オブジェクトCデータ72cは、オブジェクトC(川1)をモニタ34に表示するための画像表示用データ728および当該オブジェクトC(川1)が発生する音をスピーカ34aから出力するためのサウンドデータ730を含む。また、サウンドデータ730は、オブジェクトAおよびオブジェクトBと同様に、音指定データ730a、座標データ730b、音量データ730cおよび音優先順位データ730dを含む。各データの内容は、オブジェクトAおよびオブジェクトBについてのデータと略同じであるが、オブジェクトCは“川”であり、使用する音波形データが松明とは異なるため、音指定データ730aの内容が異なる。また、このオブジェクトCでは、川の流れに沿うように、複数のサウンドオブジェクトの音が設けられるため、座標データ730bには複数の座標が記述される。つまり、少なくとも2つ以上の座標データで定義されるレールデータが記憶される。また、音量データ730には、当該レールデータによって決定されるレール(図12参照)のそれぞれに対応する音量データが記憶される。   The object C data 72c includes image display data 728 for displaying the object C (river 1) on the monitor 34 and sound data 730 for outputting the sound generated by the object C (river 1) from the speaker 34a. . Similarly to the objects A and B, the sound data 730 includes sound designation data 730a, coordinate data 730b, volume data 730c, and sound priority data 730d. The contents of each data are substantially the same as the data for the object A and the object B, but the object C is “river” and the sound waveform data used is different from that of the torches, so the contents of the sound designation data 730a are different. . Further, since the sound of a plurality of sound objects is provided along the river flow in the object C, a plurality of coordinates are described in the coordinate data 730b. That is, rail data defined by at least two or more coordinate data is stored. The volume data 730 stores volume data corresponding to each rail (see FIG. 12) determined by the rail data.

また、上述したような音波形データは、音波形データ記憶領域、この実施例では、サブメモリとしてのARAM54に光ディスク18からロードされ書き込まれる。図6に示すように、たとえば、ARAM54には、松明の燃える音についての音波形Aデータ54a、川の流れる音についての音波形Bデータ54bおよび波の音についての音波形Cデータ54cなどが記憶される。図示は省略するが、他のサウンドオブジェクトについての音波形データも記憶される。DSP52は、CPU36の指示の下、音波形データ54a,54b,54c,…のいずれか1つ或いは2つ以上にアクセスして、サウンドオブジェクトが発生する音のオーディオデータを生成する。生成されたオーディオデータは、オーディオI/F62でオーディオ信号に変換された後、スピーカ34aに出力される。   The sound wave data as described above is loaded and written from the optical disk 18 to the sound wave data storage area, in this embodiment, the ARAM 54 as a sub memory. As shown in FIG. 6, for example, the ARAM 54 stores sound waveform A data 54 a for torches burning sound, sound waveform B data 54 b for river flowing sounds, sound waveform C data 54 c for wave sounds, and the like. Is done. Although illustration is omitted, sound waveform data for other sound objects is also stored. The DSP 52 accesses any one or two or more of the sound waveform data 54a, 54b, 54c,... Under the instruction of the CPU 36, and generates audio data of the sound generated by the sound object. The generated audio data is converted into an audio signal by the audio I / F 62 and then output to the speaker 34a.

図7には、モニタ34にゲーム画面80が表示され、当該ゲーム画面80が表示される場合において、左右のスピーカ34aおよびサラウンドスピーカから出力されるサウンドオブジェクトの音(松明が燃える音)の大きさが模式的に示される。ただし、この図7に示す例では、3つの松明をそれぞれサウンドオブジェクトとして用いて音を出力した場合について示してある。また、プレイヤないしユーザは、ゲーム画面80(モニタ34)の正面であり、左右のスピーカ34aとサラウンドスピーカによって囲まれるように位置する。   In FIG. 7, when the game screen 80 is displayed on the monitor 34 and the game screen 80 is displayed, the sound object sound (sound of torches) output from the left and right speakers 34 a and the surround speakers is displayed. Is schematically shown. However, the example shown in FIG. 7 shows a case where sound is output using three torches as sound objects. The player or user is located in front of the game screen 80 (monitor 34) and surrounded by the left and right speakers 34a and the surround speakers.

ゲーム画面80では、プレイヤオブジェクト82は、画面中央の下側に配置され、プレイヤに対して背を向けるように立っている。このプレイヤオブジェクト82の後方に松明84aが配置され、プレイヤオブジェクト82の左斜め前に松明84bが配置され、そして、プレイヤオブジェクト82の右斜め前方に松明84cが配置される。また、ゲーム画面80の奥行き方向のみについて考えると、一番手前に松明84aが配置され、その次に松明84bが配置され、一番奥に松明84cが配置される。さらに、ゲーム画面80の横方向(幅方向)のみについて考えると、ゲーム画面80の右側に松明84aが配置され、ゲーム画面80の左側に松明84bが配置され、ゲーム画面80の略中央に松明84cが配置される。   On the game screen 80, the player object 82 is arranged on the lower side of the center of the screen and stands to face the player. A torch 84a is arranged behind the player object 82, a torch 84b is arranged diagonally to the left of the player object 82, and a torch 84c is arranged diagonally to the right of the player object 82. Further, considering only the depth direction of the game screen 80, the torches 84a are arranged in the foreground, the torches 84b are arranged next, and the torches 84c are arranged in the back. Further, considering only the horizontal direction (width direction) of the game screen 80, a torch 84 a is arranged on the right side of the game screen 80, a torch 84 b is arranged on the left side of the game screen 80, and a torch 84 c is arranged at the approximate center of the game screen 80. Is placed.

このようなゲーム画面80は、ゲーム世界で移動可能に設けられる仮想カメラで撮影した映像(画像)に基づいて生成およびモニタ34に描画(表示)される。図8に示すように、ゲーム世界では、プレイヤオブジェクト82、松明84a〜84cおよび仮想マイク86は、それぞれ、3次元座標で互いの位置関係が表わされる。これは、上述したオブジェクトデータに含まれる座標データ(図5)によって決定される。たとえば、プレイヤオブジェクト82は、3次元座標(xp,yp,zp)で示される位置に存在する。また、松明84a、松明84bおよび松明84cは、それぞれ、3次元座標(x1,y1,z1)、(x2,y2,z2)および(x3,y3,z3)で示される位置に存在する。さらに、仮想マイク86は、3次元座標(xm,ym,zm)で示される位置に存在する。   Such a game screen 80 is generated and drawn (displayed) on the monitor 34 based on a video (image) photographed by a virtual camera provided so as to be movable in the game world. As shown in FIG. 8, in the game world, the player object 82, the torches 84a to 84c, and the virtual microphone 86 each have a positional relationship represented by three-dimensional coordinates. This is determined by the coordinate data (FIG. 5) included in the object data described above. For example, the player object 82 exists at a position indicated by three-dimensional coordinates (xp, yp, zp). In addition, the torches 84a, torches 84b, and torches 84c exist at positions indicated by three-dimensional coordinates (x1, y1, z1), (x2, y2, z2) and (x3, y3, z3), respectively. Furthermore, the virtual microphone 86 exists at a position indicated by three-dimensional coordinates (xm, ym, zm).

なお、図面の都合上、仮想カメラは図示していないが、この実施例では、仮想マイク86と同じ位置に存在する。   For convenience of drawing, the virtual camera is not shown, but in this embodiment, it exists at the same position as the virtual microphone 86.

上述したように、ゲーム画面80は仮想カメラで撮影した映像(画像)をモニタ34に表示するのであるが、ゲーム世界のワールド座標系を3次元のカメラ座標に変換することにより、仮想カメラの撮影方向についての画像を表示するようにしてある。   As described above, the game screen 80 displays the video (image) captured by the virtual camera on the monitor 34. By converting the world coordinate system of the game world into three-dimensional camera coordinates, the virtual camera is captured. An image about the direction is displayed.

つまり、図9に示すように、仮想カメラの撮影方向すなわち仮想マイク86の集音方向は、プレイヤキャラクタ82と仮想マイク86とを結ぶ線上に決定され、当該線をZ′軸に決定する。ただし、仮想マイク86の集音方向は、上述したようなマイクデータ記憶領域74に記憶される座標データ74aに対応して記憶される集音方向データ74bによって決定される。また、Z′軸を仮想マイク86の位置を中心に右回りに90度回転させた軸をX′軸に決定する。次いで、図10に示すように、仮想マイク86の位置が原点位置(0,0,0)となり、Z′軸およびX′軸が、それぞれ、Z軸およびX軸に重なるように、座標変換が行われる。具体的には、図9に示した仮想マイク86の位置を原点位置に平行移動した後、Z′軸およびX′軸がZ軸およびX軸のそれぞれに重なるように、原点を中心に仮想カメラで撮影されるゲーム世界を回転すればよい。このようにして、図7に示したようなゲーム画像80がモニタ34に表示される。   That is, as shown in FIG. 9, the shooting direction of the virtual camera, that is, the sound collection direction of the virtual microphone 86 is determined on a line connecting the player character 82 and the virtual microphone 86, and the line is determined as the Z ′ axis. However, the sound collection direction of the virtual microphone 86 is determined by the sound collection direction data 74b stored corresponding to the coordinate data 74a stored in the microphone data storage area 74 as described above. Further, an axis obtained by rotating the Z ′ axis 90 degrees clockwise around the position of the virtual microphone 86 is determined as the X ′ axis. Next, as shown in FIG. 10, the coordinate conversion is performed so that the position of the virtual microphone 86 becomes the origin position (0, 0, 0) and the Z ′ axis and the X ′ axis overlap the Z axis and the X axis, respectively. Done. Specifically, after the virtual microphone 86 shown in FIG. 9 is translated to the origin position, the virtual camera is centered on the origin so that the Z ′ axis and the X ′ axis overlap with the Z axis and the X axis, respectively. Rotate the game world shot in In this way, the game image 80 as shown in FIG. 7 is displayed on the monitor 34.

また、図7に示したようなゲーム画面80が表示されている場合には、ゲームのBGMやサウンドオブジェクトが発生する音(松明が燃える音)が左右のスピーカ34aおよびサラウンドスピーカから出力される。ただし、図7においては、簡単に説明するために、松明が燃える音の音量についてのみ模式的に示し、BGMのようなサウンドオブジェクトが発生する音以外の音の音量については省略してある。   When the game screen 80 as shown in FIG. 7 is displayed, the sound generated by the game BGM or sound object (the sound of burning torches) is output from the left and right speakers 34a and the surround speakers. However, in FIG. 7, for the sake of simple explanation, only the volume of the sound of burning torches is schematically shown, and the volume of the sound other than the sound generated by the sound object such as BGM is omitted.

ここで、スピーカ34から出力される音の大きさを、大、中および小の3段階で表すと、松明84aの燃える音については、右のスピーカ34aの音量が大きく、左のスピーカ34aの音量が中くらいであり、そして、サラウンドスピーカの音量は小さい。また、松明84bの燃える音については、右のスピーカ34aの音量が小さく、左のスピーカ34aの音量およびサラウンドスピーカの音量が中くらいである。さらに、松明84cの燃える音については、右のスピーカ34aの音量および左のスピーカ34aの音量が小さく、サラウンドスピーカの音量が大きい。   Here, when the loudness of the sound output from the speaker 34 is expressed in three levels of large, medium, and small, for the burning sound of the torches 84a, the volume of the right speaker 34a is large and the volume of the left speaker 34a is large. Is medium, and the volume of the surround speakers is low. Regarding the burning sound of the torches 84b, the volume of the right speaker 34a is low, and the volume of the left speaker 34a and the volume of the surround speaker are medium. Further, regarding the burning sound of the torches 84c, the volume of the right speaker 34a and the volume of the left speaker 34a are low, and the volume of the surround speaker is high.

したがって、図7に示すように、松明84aが燃える音は、右のスピーカ34aとサラウンドスピーカとの間で大きい音量で聞こえるように出力される。また、松明84bが燃える音は、左のスピーカ34aとサラウンドスピーカとの間で中くらいの音量で聞こえるように出力される。さらに、松明84cが燃える音は、左右のスピーカ34aの略中央で小さい音量で聞こえるように出力される。   Therefore, as shown in FIG. 7, the sound of burning torches 84a is output so that it can be heard at a high volume between the right speaker 34a and the surround speakers. The sound of burning torches 84b is output so that it can be heard at a medium volume between the left speaker 34a and the surround speakers. Furthermore, the burning sound of the torches 84c is output so that it can be heard at a small volume at the approximate center of the left and right speakers 34a.

なお、図1においては、サラウンドスピーカは省略してあるが、サラウンドスピーカは別途設けるようにしてもよく、また、左右のスピーカ34aの音量および定位を調整することにより、仮想のサラウンドスピーカが設けられるようにしてもよい。後者の場合には、特開2000−93579号公報に開示された構成および方法を採用することができる。   In FIG. 1, surround speakers are omitted, but surround speakers may be provided separately, and virtual surround speakers are provided by adjusting the volume and localization of the left and right speakers 34a. You may do it. In the latter case, the configuration and method disclosed in Japanese Patent Laid-Open No. 2000-93579 can be employed.

このように、ゲーム画面80上に表示されるサウンドオブジェクトのそれぞれに対応して音源から音を出力する場合には、図10に示したように、3次元のカメラ座標に変換した後の原点を中心として、Z軸から回転角度によって集音方向が決定され、また原点とサウンドオブジェクトとの距離によって出力する音(各サウンドオブジェクトを鳴らす場合の音)の音量が決定される。しかし、ゲーム装置12では、ゲーム中のBGMや効果音などの音(音楽)も鳴らす必要があるため、ゲーム画面80上に多数のサウンドオブジェクトが存在する場合には、使用可能な音源の発音数すなわちDSP52が使用可能な最大同時発音数を超えてしまう。   As described above, when sound is output from the sound source corresponding to each of the sound objects displayed on the game screen 80, the origin after being converted into the three-dimensional camera coordinates as shown in FIG. As the center, the sound collection direction is determined by the rotation angle from the Z axis, and the volume of the sound to be output (the sound when each sound object is played) is determined by the distance between the origin and the sound object. However, since it is necessary for the game apparatus 12 to play sounds (music) such as BGM and sound effects during the game, when there are a large number of sound objects on the game screen 80, the number of pronunciations of usable sound sources That is, the maximum number of simultaneous sounds that the DSP 52 can use is exceeded.

かかる場合には、たとえば、優先順位データ(図5参照)に従って音を出力しないサウンドオブジェクトを決定することも考えられるが、図7に示したように、左右に松明が存在する場合に、一方の松明の音が出力されなくなるのは、違和感がある。また、重要な音でなくても、それが出力されないことにより、ゲームの臨場感を消失してしまうこともある。   In such a case, for example, it may be possible to determine a sound object that does not output sound according to the priority order data (see FIG. 5). However, when torches are present on the left and right as shown in FIG. It is uncomfortable that the torches are not output. Also, even if the sound is not important, it may not be output, and the sense of reality of the game may be lost.

そこで、この実施例では、同じ種類のサウンドオブジェクトがゲーム画面80に複数存在する場合には、音源において1つの発音だけで音を出力するようにして、使用する音源を節約するようにしてある。つまり、音源を効率的に使用するようにしてある。   Therefore, in this embodiment, when there are a plurality of sound objects of the same type on the game screen 80, the sound source is output with only one pronunciation, thereby saving the sound source to be used. In other words, the sound source is used efficiently.

具体的に言うと、ゲーム画面80に存在するすべてのサウンドオブジェクトについて、それぞれの座標(3次元座標)に基づいて、原点位置との距離および音の発生方向(Z軸となす角)すなわち定位を、数1および数2のそれぞれに従って算出する。ただし、後述するように、原点との距離を用いて音量(データ)を算出するが、当該音量を求める場合には、Y軸成分は無視してよいので、数1においては、X成分とZ成分とに基づいて距離を算出するようにしてある。   Specifically, for all sound objects existing on the game screen 80, the distance from the origin position and the sound generation direction (angle formed with the Z axis), that is, the localization, are determined based on the respective coordinates (three-dimensional coordinates). , And are calculated according to the equations 1 and 2, respectively. However, as will be described later, the sound volume (data) is calculated using the distance from the origin. However, when obtaining the sound volume, the Y-axis component can be ignored. The distance is calculated based on the components.

[数1]
距離DP=√{(XP)2 +(ZP)2 }
ただし、P=1,2,3,…,m,…,pである。
[Equation 1]
Distance DP = √ {(XP) 2 + (ZP) 2}
However, P = 1, 2, 3,..., M,.

[数2]
発生方向(定位)θ=sin-1(|XP|/DP)
=cos-1(|ZP|/DP)
ただし、|・|は絶対値を意味し、XPおよびZPはサウンドオブジェクトの座標に含まれる数値であり、DPは数1で求めた距離である。
[Equation 2]
Generation direction (localization) θ = sin −1 (| XP | / DP)
= Cos-1 (| ZP | / DP)
However, | · | means an absolute value, XP and ZP are numerical values included in the coordinates of the sound object, and DP is a distance obtained by Equation 1.

次いで、数1を用いて算出した距離に基づいて当該サウンドオブジェクトについて鳴らす音量(データ)VPが数3に従って算出される。   Next, the sound volume (data) VP to be sounded for the sound object is calculated according to Equation 3 based on the distance calculated using Equation 1.

[数3]
音量VP=(1−(DP/VD))×Vo
ただし、DPは数1で求めた距離であり、VDは音が聞こえなくなる距離であり、Voは当該サウンドオブジェクトの音量(データ)の初期値である。ここで、VDは当該ゲームのプログラマ或いは開発者によって予め決定される値である。また、Voは図5に示した音量データ722c、音量データ726cおよび音量データ730c等によって予め決定される音量の初期値である。
[Equation 3]
Volume VP = (1− (DP / VD)) × Vo
However, DP is a distance obtained by Equation 1, VD is a distance at which sound cannot be heard, and Vo is an initial value of sound volume (data) of the sound object. Here, VD is a value determined in advance by the programmer or developer of the game. Vo is an initial value of the volume determined in advance by the volume data 722c, volume data 726c, volume data 730c, and the like shown in FIG.

このようにして、各サウンドオブジェクトを鳴らす場合の定位データおよび音量データが算出されるのである。続いて、同じ音を発生するサウンドオブジェクト毎に、サウンドオブジェクトを分類する。また、各サウンドオブジェクトについて算出した音量データと定位データとから、スピーカ34aから出力する音の音量の各成分、この実施例では、L(左側音量成分)、R(右側音量成分)およびサラウンド(以下、「SR」という。)成分を算出する。次に、同じ音を発生するサウンドオブジェクトの中から、L、RおよびSR成分のそれぞれについて最大値を選択する。続いて、選択したL、RおよびSR成分の最大値から、DSP52が出力する音の音量および定位を処理する。そして、処理した音量および定位に基づいて音がスピーカ34a,34bから出力される。 In this way, localization data and sound volume data for sounding each sound object are calculated. Subsequently, the sound objects are classified for each sound object that generates the same sound. Also, from the volume data and localization data calculated for each sound object, each component of the volume of the sound output from the speaker 34a, in this embodiment, L (left volume component), R (right volume component) and surround (hereinafter referred to as the volume) , Referred to as “SR”). Next, the maximum value is selected for each of the L, R, and SR components from the sound objects that generate the same sound. Subsequently, the selected The L, the maximum value of R and SR components, processes the volume and localization of the sound output by the DSP 52. Then, the sound based on the processed volume and localization Ru is output from the speaker 34a, 34b.

つまり、図10に示した例では、松明84a、松明84bおよび松明84cを1つにまとめた仮想の松明を求めて、当該仮想の松明が燃える音を出力していると考えることができる。このように、仮想の松明を求めるようにした場合であっても、当該松明が燃える音はゲームの臨場感を出すために出力される音であるため、プレイヤないしユーザはさほど違和感を覚えることはない。   That is, in the example shown in FIG. 10, it can be considered that a virtual torch obtained by combining the torches 84a, torches 84b, and torches 84c is obtained and a sound of burning the virtual torches is output. In this way, even when a virtual torch is obtained, since the sound of the torch burns is a sound that is output to give the game a sense of realism, the player or the user may feel a little uncomfortable. Absent.

また、上述の例では、1つのサウンドオブジェクトの音が複数存在する場合について説明したが、サウンドオブジェクトとしては川や波のように1つのオブジェクトで複数の点音源が含まれるものも存在する。このようなサウンドオブジェクトも、同じ種類のサウンドオブジェクト(音源)が複数存在するものと考えることができる。   In the above-described example, the case where there are a plurality of sounds of one sound object has been described. However, there are some sound objects such as rivers and waves that include a plurality of point sound sources. Such a sound object can also be considered to have a plurality of sound objects (sound sources) of the same type.

たとえば、図11に示すようなゲーム画面80が表示される場合には、図9および図10を用いて説明した場合と同様にして、ゲーム世界のワールド座標系がカメラ座標に変換される。このゲーム画面80では、プレイヤオブジェクト82および“川”のようなサウンドオブジェクト88が表示される。   For example, when a game screen 80 as shown in FIG. 11 is displayed, the world coordinate system of the game world is converted into camera coordinates in the same manner as described with reference to FIGS. On the game screen 80, a player object 82 and a sound object 88 such as “river” are displayed.

また、図12に示すように、“川”のようなサウンドオブジェクト88では、サウンドオブジェクトの音の位置はいわゆるレールデータで表される。この図12から分かるように、川の両側に直線(線分)或いは折れ線(複数の線分が連結される曲線)で示される複数のレール92,94,96,98,100,102,104が設定され、レール92〜104のそれぞれは、座標データが示す座標を結んだ直線(線分)上のいずれかの点から音を発生する点のサウンドオブジェクトとして定義される。たとえば、仮想マイク86の存在する位置(集音位置)とレールとの近接点、つまりレール上の点であり仮想マイク86の座標(点)と最も距離が短い点がサウンドオブジェクトの位置に決定され、当該サウンドオブジェクトと仮想マイク86との距離に応じて、当該サウンドオブジェクトを鳴らす音の音量が計算される。   Also, as shown in FIG. 12, in the sound object 88 such as “river”, the position of the sound of the sound object is represented by so-called rail data. As can be seen from FIG. 12, a plurality of rails 92, 94, 96, 98, 100, 102, and 104 indicated by straight lines (segments) or broken lines (curves connecting a plurality of segments) are formed on both sides of the river. Each of the rails 92 to 104 is set as a sound object that generates a sound from any point on a straight line (line segment) connecting the coordinates indicated by the coordinate data. For example, the position where the virtual microphone 86 exists (sound collecting position) and the proximity point of the rail, that is, the point on the rail and the point having the shortest distance from the coordinate (point) of the virtual microphone 86 is determined as the position of the sound object. The sound volume of the sound object is calculated according to the distance between the sound object and the virtual microphone 86.

しかし、上述したように、使用可能な最大同時発音数を超える場合には、優先順位に従って鳴らさないサウンドオブジェクトの音が決定されるため、音が欠けてしまい、したがって、臨場感を消失したり、違和感を覚えたりしてしまう。   However, as described above, when the maximum number of simultaneous pronunciations that can be used is exceeded, the sound of the sound object that does not sound according to the priority order is determined, so the sound is lost, and therefore, the sense of reality disappears, I feel uncomfortable.

このため、松明のようなサウンドオブジェクトの音と同様に、仮想のサウンドオブジェクトを求めて、音源において1つの発音だけで音を出力するようにしてある。   For this reason, a virtual sound object is obtained in the same manner as the sound of a sound object such as a torch, and the sound is output with only one pronunciation in the sound source.

まず、点のサウンドオブジェクトの位置を決定するために、上述したように、仮想マイク86との近接点がレール92〜104のそれぞれについて求められる。具体的には、レールに直交する、かつ、原点を通る直線が存在するか否かをレール92〜104のそれぞれについて求める。このような直線が存在する場合には、当該直線とレールとが直交する点(レール上の点)に1つの位置が決定される。つまり、1つのサウンドオブジェクトが定義される。ただし、レール94、98、102および104のように、2つ以上の線分が連結された曲線でレールが構成される場合には、1つのレール上に存在するサウンドオブジェクトの位置のうち、原点との距離が一番短いサウンドオブジェクトの位置を含む線分についてのみ、上述したような直線が存在するか否かが求められる。一方、線分に直交し、かつ、原点を通る直線が存在しない場合には、レールデータとしての座標データが示す座標と原点との距離が算出され、一番距離が短い点(座標)がサウンドオブジェクトの位置に決定される。   First, in order to determine the position of the sound object of a point, as described above, a proximity point with the virtual microphone 86 is obtained for each of the rails 92 to 104. Specifically, it is determined for each of the rails 92 to 104 whether or not there is a straight line orthogonal to the rail and passing through the origin. When such a straight line exists, one position is determined at a point (point on the rail) where the straight line and the rail are orthogonal to each other. That is, one sound object is defined. However, when the rail is configured by a curve in which two or more line segments are connected, such as the rails 94, 98, 102, and 104, the origin of the positions of the sound objects existing on one rail. Whether or not there is a straight line as described above is obtained only for the line segment including the position of the sound object with the shortest distance to the sound object. On the other hand, if there is no straight line that is orthogonal to the line segment and passes through the origin, the distance between the coordinates indicated by the coordinate data as the rail data and the origin is calculated, and the point (coordinate) with the shortest distance is the sound. The position of the object is determined.

なお、図12においては、分かり易くするために、選出されたサウンドオブジェクトの位置に白△印を付してある。   In FIG. 12, for easy understanding, the position of the selected sound object is marked with a white triangle.

また、距離の計算は、数1で示した場合と同様に、原点の座標とレールデータとしての座標データが示す座標とから簡単に求めることができる。   Also, the distance can be calculated easily from the coordinates of the origin and the coordinates indicated by the coordinate data as rail data, as in the case of Expression 1.

ただし、各レールに直交し、かつ、原点を通る直線を算出するなどの処理を実行するのは煩雑であるため、そのような直線が存在しない場合と同様に、レールデータとしての座標データが示す座標(点)のうち、仮想マイク86の座標(点)との距離が一番短い座標(点)にサウンドオブジェクトの位置を決定するようにしてもよい。かかる場合には、レールデータとしての座標データが示す座標(点)と仮想マイク86の座標(点)との距離を計算するだけなので、処理負担を軽減することができる。   However, since it is cumbersome to execute processing such as calculating a straight line that is orthogonal to each rail and passes through the origin, the coordinate data as the rail data indicates the same as when there is no such straight line. Of the coordinates (points), the position of the sound object may be determined at the coordinate (point) having the shortest distance from the coordinates (point) of the virtual microphone 86. In such a case, since only the distance between the coordinates (points) indicated by the coordinate data as rail data and the coordinates (points) of the virtual microphone 86 is calculated, the processing load can be reduced.

このようにして、レール92〜104のそれぞれからサウンドオブジェクトが選出されると、選出されたサウンドオブジェクトのそれぞれについて、算出した距離を用いて数3に従って当該サウンドオブジェクトの音を鳴らす音量データを計算し、また、選出されたサウンドオブジェクトの位置の3次元座標と算出した距離を用いて数2に従って定位データを算出する。次に、算出した音量データと定位データとから、各サウンドオブジェクトの音の位置についてのL,RおよびSR成分を算出し、算出した結果からL,RおよびSRの最大値を選択する。続いて、選択したL,RおよびSR成分の最大値から音量と定位とを算出する。つまり、“川”のようなサウンドオブジェクトについての仮想のサウンドオブジェクトの音の位置、音源を用いて出力する音の音量および定位が決定される。そして、決定された音量と定位とに基づいて音源から音が出力される。   In this way, when a sound object is selected from each of the rails 92 to 104, volume data for sounding the sound object is calculated for each of the selected sound objects according to Equation 3 using the calculated distance. In addition, the localization data is calculated according to Equation 2 using the three-dimensional coordinates of the position of the selected sound object and the calculated distance. Next, L, R, and SR components for the sound position of each sound object are calculated from the calculated volume data and localization data, and the maximum values of L, R, and SR are selected from the calculated results. Subsequently, the volume and localization are calculated from the maximum values of the selected L, R and SR components. That is, the position of the sound of the virtual sound object for the sound object such as “river”, the volume and localization of the sound output using the sound source are determined. Then, a sound is output from the sound source based on the determined volume and localization.

上述したような動作は、図2に示したCPU36によって、図13〜図16に示すようなフロー図に従って処理される。光ディスク18がゲーム装置12のディスクドライブ16にローディングされると、図13に示すように、CPU36はゲーム処理を開始し、ステップS1で光ディスク18からプログラム(ゲームメイン処理プログラム、画像処理プログラムおよびサウンド制御処理プログラムなど)およびデータ(オブジェクトデータおよびマイクデータ等)をメインメモリ40にロードする。続くステップS3では、ゲームに必要な音波形データをARAM54にロードする。   The operation as described above is processed by the CPU 36 shown in FIG. 2 according to the flowcharts shown in FIGS. When the optical disk 18 is loaded into the disk drive 16 of the game apparatus 12, as shown in FIG. 13, the CPU 36 starts a game process, and in step S1, a program (game main processing program, image processing program and sound control) is read from the optical disk 18. Processing program etc.) and data (object data, microphone data etc.) are loaded into the main memory 40. In the subsequent step S3, sound waveform data necessary for the game is loaded into the ARAM 54.

ステップS5では、入力があるかどうかを判断する。つまり、コントローラ22からの入力があるかどうかを判断する。ステップS5で“NO”であれば、つまりコントローラ22からの入力がなければ、そのままステップS11に進んで、オブジェクト描画処理、厳密には敵キャラクタの描画処理などを実行する。一方、ステップS5で“YES”であれば、つまりコントローラ22からの入力があれば、ステップS7においてそのコントローラ入力に応じてプレイヤキャラクタの動作処理を実行する。プレイヤないしユーザは、図7に示したようなゲーム画面82において、プレイヤキャラクタ82の位置を変更する場合には、コントローラ22の操作手段26(図1)のうち、アナログジョイスティック(または3Dジョイスティック)を操作する。したがって、CPU36は、このステップS7では、たとえばジョイスティックの傾斜方向および傾斜量のデータをコントローラI/F56から受けて、そのデータに基づいて、プレイヤキャラクタ82の位置をワールド座標系において変更する。   In step S5, it is determined whether there is an input. That is, it is determined whether there is an input from the controller 22. If “NO” in the step S5, that is, if there is no input from the controller 22, the process proceeds to a step S11 as it is, and an object drawing process, strictly, an enemy character drawing process or the like is executed. On the other hand, if “YES” in the step S5, that is, if there is an input from the controller 22, an action process of the player character is executed in accordance with the controller input in a step S7. When the player or the user changes the position of the player character 82 on the game screen 82 as shown in FIG. 7, the analog joystick (or 3D joystick) of the operation means 26 (FIG. 1) of the controller 22 is used. Manipulate. Therefore, in this step S7, the CPU 36 receives, for example, the joystick tilt direction and tilt amount data from the controller I / F 56, and changes the position of the player character 82 in the world coordinate system based on the data.

続くステップS9では、カメラ処理(マイク処理)を実行する。つまり、ステップS7において更新されたプレイヤキャラクタの位置に応じて、ワールド座標系での仮想カメラ(仮想マイク86)の位置を更新する。次にステップS11では、オブジェクト描画処理を実行する。つまり、CPU36は、上述したプレイヤキャラクタやサウンドオブジェクトなどの位置(3次元位置)を仮想カメラすなわち仮想マイク86を基準位置(原点位置)とする3次元のカメラ座標系に変換する。そして、3次元のカメラ座標系を2次元の投陰平面座標系に変換するとともに、テクスチャの指定やクリッピング(clipping:不可視世界の切り取り)等も併せて実行する。その後、ゲーム画像の生成処理によってゲーム画像が生成され、ゲーム画面をモニタ34(図1)に表示する。つまり、CPU36がビデオI/F58に指令を与え、応じて、ビデオI/F58がフレームバッファ48(図2)にアクセスする。したがって、フレームバッファ48からモニタ34に表示すべき画像データが読み出され、ゲーム画像(ゲーム画面)が表示される。   In subsequent step S9, camera processing (microphone processing) is executed. That is, the position of the virtual camera (virtual microphone 86) in the world coordinate system is updated according to the position of the player character updated in step S7. In step S11, an object drawing process is executed. That is, the CPU 36 converts the position (three-dimensional position) of the above-described player character or sound object into a three-dimensional camera coordinate system having the virtual camera, that is, the virtual microphone 86 as the reference position (origin position). Then, the three-dimensional camera coordinate system is converted into a two-dimensional shadow plane coordinate system, and texture designation and clipping (clipping: clipping of the invisible world) are also executed. Thereafter, the game image is generated by the game image generation process, and the game screen is displayed on the monitor 34 (FIG. 1). That is, the CPU 36 gives a command to the video I / F 58, and the video I / F 58 accesses the frame buffer 48 (FIG. 2) accordingly. Accordingly, image data to be displayed on the monitor 34 is read from the frame buffer 48, and a game image (game screen) is displayed.

なお、この実施例では、ゲーム画像の生成処理についての詳細な説明は省略する。   In this embodiment, a detailed description of the game image generation process is omitted.

続くステップS13では、後で詳細に説明するサウンド制御処理を実行する。次いで、ステップS15では、その他のゲーム処理を実行する。その他のゲーム処理としては、ゲームの進行によって発生したゲームデータのバックアップ(セーブ)処理などが該当する。たとえば、ゲームの進行に従って、ゲームデータがメインメモリ40のワーク領域(図示せず)に書き込まれ、ゲームデータは逐次更新される。そして、プレイヤないしユーザの指示や所定のイベントに従って、バックアップ処理が実行されると、メインメモリ40のワーク領域に書き込まれているゲームデータが外部メモリI/F60を介してメモリカード30に記憶される(図2)。   In the subsequent step S13, a sound control process which will be described in detail later is executed. Next, in step S15, other game processes are executed. Other game processing includes backup (save) processing of game data generated by the progress of the game. For example, game data is written in a work area (not shown) of the main memory 40 as the game progresses, and the game data is updated sequentially. Then, when backup processing is executed in accordance with a player or user instruction or a predetermined event, game data written in the work area of the main memory 40 is stored in the memory card 30 via the external memory I / F 60. (FIG. 2).

そして、ステップS17では、ゲーム終了かどうかを判断する。ステップS17で“NO”であれば、つまりゲーム終了でなければ、そのままステップS5に戻る。一方、ステップS17で“YES”であれば、つまりゲーム終了であれば、そのままゲーム処理を終了する。   In step S17, it is determined whether or not the game is over. If “NO” in the step S17, that is, if the game is not ended, the process returns to the step S5 as it is. On the other hand, if “YES” in the step S17, that is, if the game is ended, the game process is ended as it is.

図14に示すように、サウンド制御処理が開始されると、CPU36は、ステップS21でオブジェクトの座標データを取得する。つまり、ゲーム画面80に表示されるサウンドオブジェクトについての座標データをメインメモリ40のオブジェクトデータ記憶領域72(図3、図5)から取得する。次にステップS23では、図9および図10を用いて説明したように、仮想マイク86の位置を原点として座標変換を行う。ただし、上述したように、ステップS11のオブジェクト描画処理において、同様の座標変換を行っているため、その結果を利用するようにしてもよい。   As shown in FIG. 14, when the sound control process is started, the CPU 36 acquires the coordinate data of the object in step S21. That is, the coordinate data about the sound object displayed on the game screen 80 is acquired from the object data storage area 72 (FIGS. 3 and 5) of the main memory 40. Next, in step S23, as described with reference to FIGS. 9 and 10, coordinate conversion is performed using the position of the virtual microphone 86 as the origin. However, as described above, since the same coordinate transformation is performed in the object drawing process of step S11, the result may be used.

続くステップS25では、サウンドオブジェクトの座標データがレールデータであるかどうかを判断する。つまり、オブジェクトデータ記憶領域72に記憶されるオブジェクトデータに複数の座標データが記述されているか否かを判断する。ただし、サウンドオブジェクトの位置のデータ或いはレールデータの別を示すラベルをオブジェクト毎に付しておき、当該ラベルで判別できるようにしておいてもよい。   In a succeeding step S25, it is determined whether or not the coordinate data of the sound object is rail data. That is, it is determined whether or not a plurality of coordinate data is described in the object data stored in the object data storage area 72. However, a label indicating whether the sound object position data or the rail data is different may be attached to each object so that the label can be discriminated.

ステップS25で“NO”であれば、つまりレールデータでなければ、そのままステップS29に進むが、“YES”であれば、つまりレールデータであれば、ステップS27で後述するレールデータ処理を実行してからステップS29に進む。   If “NO” in the step S25, that is, if it is not rail data, the process proceeds to the step S29 as it is, but if “YES”, that is, if it is rail data, a rail data process described later is executed in a step S27. To step S29.

ステップS29では、最初のオブジェクトの座標データを検索する。ただし、検索するオブジェクトの順番は、CPU36が任意に決定している。続くステップS31では、当該オブジェクトの座標データから数1に従って距離を求めて、当該距離を用いて、数3に従って当該オブジェクトを鳴らす音の音量データを算出する。次に、ステップS33では、当該オブジェクトの座標データおよび数1で求めた距離を用いて、数2に従って音の発生方向を算出する。つまり、定位データが算出される。そして、ステップS35では、すべてのオブジェクトについて音量データと定位データとの算出処理を終了したかどうかを判断する。   In step S29, the coordinate data of the first object is searched. However, the CPU 36 arbitrarily determines the order of objects to be searched. In the subsequent step S31, the distance is obtained from the coordinate data of the object according to Equation 1, and the sound volume data of the sound that sounds the object is calculated according to Equation 3 using the distance. Next, in step S33, the sound generation direction is calculated according to Equation 2 using the coordinate data of the object and the distance obtained in Equation 1. That is, localization data is calculated. In step S35, it is determined whether or not the calculation processing of the volume data and the localization data has been completed for all objects.

ステップS35で“NO”であれば、つまりすべてのオブジェクトについて音量データと定位データとの算出処理を終了していなければ、ステップS37で次のオブジェクトの座標データを検索してから、ステップS31に戻る。一方、ステップS35で“YES”であれば、つまりすべてのオブジェクトについて音量データと定位データとの算出処理を終了すれば、図15に示すステップS39で、オブジェクトを分類して、音源の発音を一本化する(音源において発音を1つにまとめる)オブジェクトを特定する。つまり、松明のようなサウンドオブジェクトが複数存在する場合や川のようなサウンドオブジェクトが存在する場合には、当該ステップS39で、音源の発音を1つにまとめるべきオブジェクトが特定される。   If “NO” in the step S35, that is, if the calculation processing of the volume data and the localization data is not finished for all the objects, the coordinate data of the next object is searched in the step S37, and then the process returns to the step S31. . On the other hand, if “YES” in the step S35, that is, if the calculation processing of the sound volume data and the localization data is finished for all the objects, the objects are classified in step S39 shown in FIG. The object to be materialized (to combine the pronunciation in the sound source into one) is specified. That is, when there are a plurality of sound objects such as torches, or when there is a sound object such as a river, in step S39, the objects for which the sound sources are to be combined are specified.

続くステップS41では、特定したオブジェクトの分類に含まれる1番目のオブジェクトについて、S31およびS33おいて算出した音量データと定位データとを取得する。ただし、取得するオブジェクトの順番は、CPU36が任意に決定している。続くステップS43では、取得した音量データと定位データとを用いて、L,R,SR成分を算出する。次いで、ステップS45では、一本化するオブジェクトについてすべて終了したかどうかを判断する。つまり、ステップS39において特定したオブジェクトの分類に含まれるすべてのオブジェクトについて、L,R,SR成分を算出したかどうかを判断する。   In the subsequent step S41, the volume data and localization data calculated in S31 and S33 are acquired for the first object included in the identified object classification. However, the CPU 36 arbitrarily determines the order of objects to be acquired. In subsequent step S43, L, R, and SR components are calculated using the acquired volume data and localization data. Next, in step S45, it is determined whether all the objects to be unified have been completed. That is, it is determined whether the L, R, and SR components have been calculated for all objects included in the object classification specified in step S39.

ステップS45で“NO”であれば、つまりすべてのオブジェクトについてのL,R,SR成分の算出を終了していなければ、ステップS47で次のオブジェクトを検索して、ステップS43に戻る。一方、ステップS45で“YES”であれば、つまりすべてのオブジェクトについてのL,R,SR成分の算出を終了すれば、ステップS49で算出したすべてのオブジェクトについてのL,R,SR成分からそれぞれの最大値を選択する。   If “NO” in the step S45, that is, if the calculation of the L, R, and SR components for all the objects has not been completed, the next object is searched in the step S47, and the process returns to the step S43. On the other hand, if “YES” in the step S45, that is, if the calculation of the L, R, and SR components for all the objects is finished, the respective L, R, and SR components for all the objects calculated in the step S49 are determined. Select the maximum value.

続くステップS51では、選択したL,R,SR成分のそれぞれの最大値からスピーカ34a,34bから出力する音の音量と定位をDSP52が処理する。言い換えると、仮想の1つのサウンドオブジェクトを特定して、当該サウンドオブジェクトの音量と定位とを処理するのである。そして、ステップS53では、ステップS51において処理した音量データおよび定位データとに基づいてサウンド(音)をスピーカ34a,34bから出力する。つまり、CPU36は、DSP52に対して音の出力制御の指示を与えるとともに、音量データおよび定位データからL、RおよびSR成分を算出して、算出結果をDSP52に与える。これに応じて、DSP52は、該当する音波形データをARAM54から読み出し、L、RおよびSR成分の算出結果に従って音データを生成する。そして、DSP52は、生成した音データをオーディオI/F62に与える。したがって、アナログ信号に変換された音信号がスピーカ34aから出力される。 In subsequent step S51, the DSP 52 processes the volume and localization of the sound output from the speakers 34a and 34b from the maximum values of the selected L, R, and SR components. In other words, one virtual sound object is specified and the volume and localization of the sound object are processed . In step S53, sound (sound) is output from the speakers 34a and 34b based on the volume data and localization data processed in step S51. That is, the CPU 36 gives a sound output control instruction to the DSP 52, calculates the L, R, and SR components from the volume data and the localization data, and gives the calculation result to the DSP 52. In response to this, the DSP 52 reads out the corresponding sound waveform data from the ARAM 54, and generates sound data according to the calculation results of the L, R, and SR components. Then, the DSP 52 gives the generated sound data to the audio I / F 62. Therefore, the sound signal converted into the analog signal is output from the speaker 34a.

ただし、一本化するオブジェクトの種類が複数存在する場合には、その数に応じてステップS41からS53の処理が繰り返される。   However, when there are a plurality of types of objects to be unified, the processes of steps S41 to S53 are repeated according to the number of objects.

なお、一度算出された音量データおよび定位データは、ゲーム世界における仮想カメラ(仮想マイク86)の3次元座標に対応づけられて、図3を用いて説明したように、メインメモリ40のサウンド出力制御データ記憶領域76に記憶される。たとえば、メインメモリ40への書込処理は、図13に示したステップS15のその他のゲーム処理で実行すればよい。したがって、次回以降、同じ位置に仮想マイク86が存在する場合には、図14および図15に示したサウンド制御処理を実行することなく、メインメモリ40を参照して、同じ種類の複数のサウンドオブジェクト或いは複数の音源の発音を要するサウンドオブジェクトについての音を、音源の発音1つだけを用いて容易に出力することができる。   The volume data and the localization data calculated once are associated with the three-dimensional coordinates of the virtual camera (virtual microphone 86) in the game world, and as described with reference to FIG. 3, the sound output control of the main memory 40 is performed. It is stored in the data storage area 76. For example, the writing process to the main memory 40 may be executed in the other game process of step S15 shown in FIG. Therefore, when the virtual microphone 86 is present at the same position after the next time, a plurality of sound objects of the same type are referred to by referring to the main memory 40 without executing the sound control processing shown in FIGS. Alternatively, it is possible to easily output a sound for a sound object that requires pronunciation of a plurality of sound sources by using only one sound source.

また、この実施例では、同じ種類の複数のサウンドオブジェクトが発生する音を音源の1つの発音で出力するようにしたため、L、RおよびSR成分の最大値を取得した後に、それらを用いて音量データおよび定位データを算出するようにしてあるが、取得した最大値をDSP52にそのまま与える(転送する)ようにしてもよい。このようにしても、同じ種類の複数のサウンドオブジェクトが発生する音を1つにまとめることができるので、使用する音源の発音数を低減することができる。   Further, in this embodiment, since sounds generated by a plurality of sound objects of the same type are output with one sound source, after obtaining the maximum values of the L, R, and SR components, the sound volume is obtained using them. Data and localization data are calculated, but the acquired maximum value may be given (transferred) to the DSP 52 as it is. Even in this case, sounds generated by a plurality of sound objects of the same type can be combined into one, so that the number of sound generations of the sound source to be used can be reduced.

図16に示すように、レールデータ処理が開始されると、ステップS61でオブジェクトの座標リストを取得する。つまり、複数の3次元座標データを取得する。そして、ステッS63では、各レールから原点との距離が最も小さくなる点、すなわち原点と最も接近する点の座標を算出する。つまり、各レールをサウンドオブジェクトに置き換える。   As shown in FIG. 16, when the rail data processing is started, an object coordinate list is acquired in step S61. That is, a plurality of three-dimensional coordinate data is acquired. In step S63, the coordinates of the point where the distance from each rail is the smallest, that is, the point closest to the origin is calculated. That is, replace each rail with a sound object.

なお、上述のゲーム処理では、プレイヤキャラクタの位置が更新された場合に、サウンド制御処理を実行するようにしたが、たとえばコントローラ22の操作手段26のうち、たとえばボタンスイッチを操作することにより、3次元画像の仮想カメラの視点を切り換えた場合にも、カメラ処理(マイク処理)およびオブジェクト描画処理を経て、サウンド制御処理を実行するようにしてもよい。   In the above game process, the sound control process is executed when the position of the player character is updated. For example, by operating a button switch among the operation means 26 of the controller 22, for example, 3 Even when the viewpoint of a virtual camera of a three-dimensional image is switched, sound control processing may be executed through camera processing (microphone processing) and object drawing processing.

この実施例によれば、同じ種類の複数のオブジェクトの音を音源の1つの発音で出力するので、音源を節約することができる。すなわち、音源を効率的に使用できる。しかも、優先順位にしたがって音源を削除することもないので、ゲームの臨場感を低減してしまうことはない。   According to this embodiment, the sound of a plurality of objects of the same type is output with one pronunciation of the sound source, so that the sound source can be saved. That is, the sound source can be used efficiently. Moreover, since the sound source is not deleted according to the priority order, the realism of the game is not reduced.

なお、この実施例では、同じ種類の複数のサウンドオブジェクトが存在する場合には、それらを音源における発音が1つになるようにまとめて、音源を節約するようにしてあるが、音源を節約した場合であっても、使用可能な音源の発音数を超えてしまうような場合には、サウンドオブジェクトのデータに含まれる優先順位データ(図5参照)に従って、出力しないサウンドオブジェクトの音が決定される。ただし、上述のようにして、音源の発音を1つにまとめたサウンドオブジェクトの優先順位は高く設定され、当該音については必ず出力されるようにしてある。   In this embodiment, when a plurality of sound objects of the same type exist, they are grouped together so that the sound source in the sound source becomes one, and the sound source is saved. However, the sound source is saved. Even in such a case, when the number of sound generations of the usable sound source is exceeded, the sound of the sound object that is not output is determined according to the priority order data (see FIG. 5) included in the sound object data. . However, as described above, the priority order of the sound objects in which the sound sources of the sound sources are combined into one is set high, and the sound is always output.

また、この実施例では、音源の発音数に拘わらず、同じ種類の音を発するサウンドオブジェクトが存在する場合には、それらを1つにまとめるようにしたが、サウンドオブジェクトの数が一定数を超えた場合にのみ、同じ種類の音を音源においての1つの発音にまとめるようにしてもよい。   In this embodiment, when there are sound objects that emit the same type of sound regardless of the number of sound generations of the sound source, they are combined into one, but the number of sound objects exceeds a certain number. Only in the case of the same sound, the same type of sound may be combined into one pronunciation in the sound source.

さらに、この実施例では、図1に示したようなビデオゲーム装置についてのみ説明したが、モニタに表示されるサウンドオブジェクトが発生する音を、音波形データを用いてDSPのようなサウンドプロセサによって生成するような他のゲーム装置または携帯ゲーム機或いはDVDプレイヤなどにも適用可能なことは言うまでもない。   Furthermore, in this embodiment, only the video game apparatus as shown in FIG. 1 has been described, but the sound generated by the sound object displayed on the monitor is generated by a sound processor such as a DSP using sound waveform data. Needless to say, the present invention can be applied to other game apparatuses, portable game machines, DVD players, and the like.

さらにまた、この実施例では、左右のスピーカのみ、またはさらにサラウンドスピーカを設けた場合について説明したが、スピーカは少なくとも2方向についての音を出力するために2つ設ければよく、また4つ以上設けるようにしてもよい。また、音量データの成分を計算する場合には、上述の実施例で示したとおり、スピーカの個数に応じて算出するのが望ましい。   Furthermore, in this embodiment, the case where only the left and right speakers or further surround speakers are provided has been described. However, two speakers may be provided to output sound in at least two directions, and four or more speakers are provided. You may make it provide. Further, when calculating the volume data component, it is desirable to calculate according to the number of speakers as shown in the above-described embodiment.

また、この実施例では、サウンドオブジェクトとしては、松明、川、波についてのみ説明したが、サウンドオブジェクトはこれらに限定される必要はない。   Further, in this embodiment, only the torches, rivers, and waves have been described as sound objects, but the sound objects need not be limited to these.

この発明のゲームシステムの一例を示す図解図である。It is an illustration figure which shows an example of the game system of this invention. 図1実施例に示すビデオゲーム装置の電気的な構成を示すブロック図である。FIG. 2 is a block diagram showing an electrical configuration of the video game apparatus shown in FIG. 1 embodiment. 図2に示すメインメモリのメモリマップを示す図解図である。FIG. 3 is an illustrative view showing a memory map of a main memory shown in FIG. 2. 図3に示すサウンド制御プログラムの構成を示す図解図である。It is an illustration figure which shows the structure of the sound control program shown in FIG. 図3に示すオブジェクトデータ記憶領域に記憶されるデータを示す図解図である。FIG. 4 is an illustrative view showing data stored in an object data storage area shown in FIG. 3. 図2に示すARAMに記憶されるサウンドオブジェクトの音波形データを示す図解図である。It is an illustration figure which shows the sound waveform data of the sound object memorize | stored in ARAM shown in FIG. 図1実施例のゲームシステムにおいてモニタに表示されるゲーム画面の一例および当該ゲーム画面についてスピーカから出力されるサウンドオブジェクトの音の大きさを模式的に示した図解図である。FIG. 2 is an illustrative view schematically showing an example of a game screen displayed on a monitor in the game system of FIG. 1 embodiment and the volume of a sound object output from a speaker for the game screen. 図7に示すゲーム画面に対応するゲーム世界の3次元座標(カメラ座標)を示す図解図である。It is an illustration figure which shows the three-dimensional coordinate (camera coordinate) of the game world corresponding to the game screen shown in FIG. 図7に示すゲーム画面に対応するゲーム世界の3次元座標(カメラ座標)を示す図解図である。It is an illustration figure which shows the three-dimensional coordinate (camera coordinate) of the game world corresponding to the game screen shown in FIG. 図7に示すゲーム世界の3次元座標を描画座標に変換した変換後の3次元座標を示す図解図である。FIG. 8 is an illustrative view showing converted three-dimensional coordinates obtained by converting the three-dimensional coordinates of the game world shown in FIG. 7 into drawing coordinates. 図1実施例のゲームシステムにおいてモニタに表示されるゲーム画面の他の一例を示す図解図である。It is an illustration figure which shows another example of the game screen displayed on a monitor in the game system of FIG. 1 Example. 図11に示すゲーム画面に表示されるサウンドオブジェクトの音源を示す図解図である。It is an illustration figure which shows the sound source of the sound object displayed on the game screen shown in FIG. 図2に示すCPUのゲーム処理の一例を示すフロー図である。It is a flowchart which shows an example of the game process of CPU shown in FIG. 図2に示すCPUのサウンド制御処理の一部を示すフロー図である。It is a flowchart which shows a part of sound control process of CPU shown in FIG. 図2に示すCPUのサウンド制御処理の他の一部を示すフロー図である。It is a flowchart which shows a part of other sound control process of CPU shown in FIG. 図2に示すCPUのレールデータ処理を示すフロー図である。It is a flowchart which shows the rail data processing of CPU shown in FIG.

符号の説明Explanation of symbols

10 …ゲームシステム
12 …ゲーム装置
18 …光ディスク
22 …コントローラ
34 …モニタ
34a …スピーカ
36 …CPU
38 …メモリコントローラ
40 …メインメモリ
42 …GPU
54 …ARAM
62 …オーディオI/F
DESCRIPTION OF SYMBOLS 10 ... Game system 12 ... Game device 18 ... Optical disk 22 ... Controller 34 ... Monitor 34a ... Speaker 36 ... CPU
38 ... Memory controller 40 ... Main memory 42 ... GPU
54 ... ARAM
62 ... Audio I / F

Claims (12)

プレイヤによる操作情報を入力するための操作手段、
ゲーム画像を構成するオブジェクトを記憶したオブジェクト記憶手段、
前記操作情報に基づいて少なくとも2つの前記オブジェクトを含むゲーム画像を表示する画像表示制御手段、
音を出力する、左右2つのスピーカ、
前記ゲーム画像を構成する前記少なくとも2つのオブジェクトが音を発生するサウンドオブジェクトであり、当該サウンドオブジェクトの発生する音に対応する少なくとも1種類の波形データを記憶した波形データ記憶手段、
前記サウンドオブジェクト毎に音の発生位置を示す音発生位置データを記憶した音発生位置データ記憶手段、
少なくとも音の出力指示に従って、前記波形データを読み出して、音データを生成し、生成した音データを音として前記スピーカから出力するサウンド出力制御手段、および
少なくともゲーム中に音を集音する位置を示す集音位置データと集音する集音方向を示す集音方向データとを含むマイクデータを記憶したマイクデータ記憶手段を備えるゲーム装置のゲームサウンド制御プログラムであって、
当該ゲーム装置のプロセサに、
前記サウンドオブジェクト毎に、前記音発生位置データと前記集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、算出した距離に基づいて前記サウンドオブジェクトがそれぞれ発生する音の音量データを算出する音量データ算出ステップ、
前記集音方向データと前記音発生位置データとに基づいて各々の前記サウンドオブジェクトについての定位データを算出する定位算出ステップ、
前記定位算出ステップによって算出された定位データに基づいて、前記各々のサウンドオブジェクトの音量データを、前記スピーカから出力する音の右側音量成分と左側音量成分とに分割する音量成分分割ステップ、
すべての前記サウンドオブジェクトを同じ音を発生するオブジェクトに分類するオブジェクト分類ステップ、
前記同じ音を発生するオブジェクトについて前記音量成分分割ステップによって分割された前記右側音量成分および前記左側音量成分のうち、最大の右側音量成分および最大の左側音量成分を抽出し、当該オブジェクトの波形データと前記最大の右側音量成分および前記最大の左側音量成分とに基づいて、前記サウンド出力制御手段が前記スピーカから音を出力するためのデータを生成する音出力データ生成ステップ、および
前記サウンド出力制御手段に、音の出力指示と前記音出力データ生成ステップによって生成したデータとを与える出力指示ステップ、を実行させる、ゲームサウンド制御プログラム。
Operation means for inputting operation information by the player;
Object storage means for storing objects constituting a game image;
Image display control means for displaying a game image including at least two objects based on the operation information;
And it outputs the sound, left right two speakers,
Waveform data storage means for storing at least one type of waveform data corresponding to the sound generated by the sound object, wherein the at least two objects constituting the game image are sound objects that generate sound;
Sound generation position data storage means for storing sound generation position data indicating a sound generation position for each sound object;
At least a sound output control means for reading out the waveform data in accordance with a sound output instruction, generating sound data, and outputting the generated sound data from the speaker as sound; and at least a position for collecting sound during the game A game sound control program for a game device comprising microphone data storage means for storing microphone data including sound collection position data and sound collection direction data indicating a sound collection direction for collecting sound,
In the game device processor,
For each sound object, a distance between the sound object and the sound collection position is calculated from the sound generation position data and the sound collection position data, and volume data of sound generated by the sound object based on the calculated distance is obtained. Volume data calculation step to calculate,
A localization calculation step of calculating localization data for each of the sound objects based on the sound collection direction data and the sound generation position data;
A volume component dividing step for dividing the volume data of each sound object into a right volume component and a left volume component of the sound output from the speaker , based on the localization data calculated by the localization calculation step;
An object classification step for classifying all the sound objects into objects that generate the same sound;
Wherein the object to generate the same sound of the sound volume component said split by split step right volume component and the left volume component, extracts the maximum right volume components and maximum left volume component, the waveform data of the object Based on the maximum right volume component and the maximum left volume component , the sound output control unit generates data for outputting sound from the speaker, and the sound output control unit. A game sound control program for executing an output instruction step for giving a sound output instruction and the data generated by the sound output data generation step.
前記音出力データ生成ステップは、前記最大の右側音量成分および前記最大の左側音量成分を、そのまま、出力する音の右側音量成分および左側音量成分とする、請求項1記載のゲームサウンド制御プログラム。 The game sound control program according to claim 1, wherein the sound output data generation step uses the maximum right volume component and the maximum left volume component as they are as the right volume component and left volume component of the sound to be output. プレイヤによる操作情報を入力するための操作手段、
ゲーム画像を構成するオブジェクトを記憶したオブジェクト記憶手段、
前記操作情報に基づいて少なくとも2つの前記オブジェクトを含むゲーム画像を表示する画像表示制御手段、
音を出力する、左右2つのスピーカ、
前記ゲーム画像を構成する前記少なくとも2つのオブジェクトが音を発生するサウンドオブジェクトであり、当該サウンドオブジェクトの発生する音に対応する少なくとも1種類の波形データを記憶した波形データ記憶手段、
前記サウンドオブジェクト毎に音の発生位置を示す音発生位置データを記憶した音発生位置データ記憶手段、
少なくとも音の出力指示に従って、前記波形データを読み出して、音データを生成し、生成した音データを音として前記スピーカから出力するサウンド出力制御手段、および
少なくともゲーム中に音を集音する位置を示す集音位置データと集音する集音方向を示す集音方向データとを含むマイクデータを記憶したマイクデータ記憶手段を備えるゲーム装置のゲームサウンド制御プログラムであって、
当該ゲーム装置のプロセサに、
前記サウンドオブジェクト毎に、前記音発生位置データと前記集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、算出した距離に基づいて前記サウンドオブジェクトがそれぞれ発生する音の音量データを算出する音量データ算出ステップ、
前記集音方向データと前記音発生位置データとに基づいて各々の前記サウンドオブジェクトについての定位データを算出する定位算出ステップ、
前記定位算出ステップによって算出された定位データに基づいて、前記各々のサウンドオブジェクトの音量データを、前記スピーカから出力する音の右側音量成分、左側音量成分およびサラウンド音量成分に分割する音量成分分割ステップ、
すべての前記サウンドオブジェクトを同じ音を発生するオブジェクトに分類するオブジェクト分類ステップ、
前記同じ音を発生するオブジェクトについて前記音量成分分割ステップによって分割された前記右側音量成分、前記左側音量成分および前記サラウンド音量成分のうち、最大の右側音量成分、最大の左側音量成分および最大のサラウンド音量成分を抽出し、当該オブジェクトの波形データと前記最大の右側音量成分、前記最大の左側音量成分および前記最大のサラウンド音量成分とに基づいて、前記サウンド出力制御手段が前記スピーカから音を出力するためのデータを生成する音出力データ生成ステップ、および
前記サウンド出力制御手段に、音の出力指示と前記音出力データ生成ステップによって生成したデータとを与える出力指示ステップ、を実行させる、ゲームサウンド制御プログラム。
Operation means for inputting operation information by the player;
Object storage means for storing objects constituting a game image;
Image display control means for displaying a game image including at least two objects based on the operation information;
Two speakers, left and right, that output sound,
Waveform data storage means for storing at least one type of waveform data corresponding to the sound generated by the sound object, wherein the at least two objects constituting the game image are sound objects that generate sound;
Sound generation position data storage means for storing sound generation position data indicating a sound generation position for each sound object;
Sound output control means for reading out the waveform data according to at least a sound output instruction, generating sound data, and outputting the generated sound data as sound from the speaker; and
Game sound control program for game device comprising microphone data storage means storing microphone data including at least sound collection position data indicating a position where sound is collected during a game and sound collection direction data indicating a sound collection direction. Because
In the game device processor,
For each sound object, a distance between the sound object and the sound collection position is calculated from the sound generation position data and the sound collection position data, and volume data of sound generated by the sound object based on the calculated distance is obtained. Volume data calculation step to calculate,
A localization calculation step of calculating localization data for each of the sound objects based on the sound collection direction data and the sound generation position data;
A volume component dividing step of dividing the volume data of each sound object into a right volume component, a left volume component and a surround volume component of the sound output from the speaker, based on the localization data calculated by the localization calculation step;
An object classification step for classifying all the sound objects into objects that generate the same sound;
Of the right volume component, the left volume component, and the surround volume component divided by the volume component dividing step for the object that generates the same sound, the maximum right volume component, the maximum left volume component, and the maximum surround volume among the right volume component, the left volume component, and the surround volume component. The sound output control means outputs a sound from the speaker based on the waveform data of the object and the maximum right volume component, the maximum left volume component, and the maximum surround volume component. Sound output data generation step for generating the data of, and
A game sound control program for causing the sound output control means to execute an output instruction step for giving a sound output instruction and data generated by the sound output data generation step .
前記音発生位置データは、1つの座標データで表されるサウンドオブジェクトの位置データおよび少なくとも2つの座標データで定義されたレールデータにより表される、レールデータを持つサウンドオブジェクトの位置データを含み、
前記レールデータを持つサウンドオブジェクトについて、前記レールデータを表す座標を結ぶ線分上であり、かつ、前記集音位置データに最も接近する位置の座標データを算出する近接座標算出ステップ、
前記音量データ算出ステップは、前記レールデータを持つサウンドオブジェクトの音量データを算出するとき、前記近接座標算出ステップによって算出された座標データと前記集音位置データとから当該サウンドオブジェクトの音量データを算出し、
前記音量成分分割ステップは、前記近接座標算出ステップによって算出された座標データと前記集音位置データとから、前記スピーカから出力する音の右側音量成分左側音量成分およびサラウンド音量成分のそれぞれに音量データを分割する、請求項3記載のゲームサウンド制御プログラム。
The sound generation position data includes sound object position data represented by one coordinate data and position data of a sound object having rail data represented by rail data defined by at least two coordinate data.
For the sound object having the rail data, a proximity coordinate calculating step for calculating coordinate data on a line connecting the coordinates representing the rail data and closest to the sound collection position data;
The volume data calculation step calculates volume data of the sound object from the coordinate data calculated by the proximity coordinate calculation step and the sound collection position data when calculating volume data of the sound object having the rail data. ,
The volume component dividing step includes volume data for each of a right volume component , a left volume component, and a surround volume component of the sound output from the speaker from the coordinate data calculated by the proximity coordinate calculation step and the sound collection position data. The game sound control program according to claim 3, wherein the game sound control program is divided.
プレイヤによる操作情報を入力するための操作手段、
ゲーム画像を構成するオブジェクトを記憶したオブジェクト記憶手段、
前記操作情報に基づいて少なくとも2つの前記オブジェクトを含むゲーム画像を表示する画像表示制御手段、
音を出力する、左右2つのスピーカ、
前記ゲーム画像を構成する前記少なくとも2つのオブジェクトが音を発生するサウンドオブジェクトであり、当該サウンドオブジェクトの発生する音に対応する少なくとも1種類の波形データを記憶した波形データ記憶手段、
前記サウンドオブジェクト毎に音の発生位置を示す音発生位置データを記憶した音発生位置データ記憶手段、
少なくとも音の出力指示に従って、前記波形データを読み出して、音データを生成し、生成した音データを音として前記スピーカから出力するサウンド出力制御手段、および
少なくともゲーム中に音を集音する位置を示す集音位置データと集音する集音方向を示す集音方向データを含むマイクデータを記憶したマイクデータ記憶手段を備えるゲーム装置のゲームサウンド制御方法であって、
(a) 前記サウンドオブジェクト毎に、前記音発生位置データと前記集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、算出した距離に基づいて前記サウンドオブジェクトがそれぞれ発生する音の音量データを算出し、
(b)前記集音方向データと前記音発生位置データとに基づいて各々の前記サウンドオブジェクトについての定位データを算出し、
(c)前記ステップ(b)で算出した定位データに基づいて、前記各々のサウンドオブジェクトの音量データを、前記スピーカから出力する音の右側音量成分と左側音量成分とに分割し、
(d)すべての前記サウンドオブジェクトを同じ音を発生するオブジェクトに分類し、
(e)前記同じ音を発生するオブジェクトについて前記ステップ(c)で分割した前記右側音量成分および前記左側音量成分のうち、最大の右側音量成分および最大の左側音量成分を抽出し、当該オブジェクトの波形データと前記最大の右側音量成分および前記最大の左側音量成分とに基づいて、前記サウンド出力制御手段が前記スピーカから音を出力するためのデータを生成し、そして、
(f)前記サウンド出力制御手段に、音の出力指示と前記ステップ(e)で生成したデータとを与える、ゲームサウンド制御方法。
Operation means for inputting operation information by the player;
Object storage means for storing objects constituting a game image;
Image display control means for displaying a game image including at least two objects based on the operation information;
And it outputs the sound, left right two speakers,
Waveform data storage means for storing at least one type of waveform data corresponding to the sound generated by the sound object, wherein the at least two objects constituting the game image are sound objects that generate sound;
Sound generation position data storage means for storing sound generation position data indicating a sound generation position for each sound object;
At least a sound output control means for reading out the waveform data in accordance with a sound output instruction, generating sound data, and outputting the generated sound data from the speaker as sound; and at least a position for collecting sound during the game A game sound control method for a game apparatus comprising microphone data storage means for storing microphone data including sound collection position data and sound collection direction data indicating a sound collection direction for collecting sound,
(a) For each sound object, a distance between the sound object and the sound collection position is calculated from the sound generation position data and the sound collection position data, and the sound object generated by each sound object is calculated based on the calculated distance. Calculate the volume data,
(b) calculating localization data for each of the sound objects based on the sound collection direction data and the sound generation position data;
(c) Based on the localization data calculated in step (b), the volume data of each sound object is divided into a right volume component and a left volume component of the sound output from the speaker ,
(d) classify all the sound objects as objects that generate the same sound;
(e) above for the object that generates the same sound of the right volume component and the left volume component divided the in step (c), to extract the maximum of the right volume components and maximum left volume component, the waveform of the object Based on the data and the maximum right volume component and the maximum left volume component , the sound output control means generates data for outputting sound from the speaker; and
(f) A game sound control method in which a sound output instruction and the data generated in the step (e) are given to the sound output control means.
前記ステップ(e)は、(e-1)前記最大の右側音量成分および前記最大の左側音量成分を、そのまま、出力する音の右側音量成分および左側音量成分とするステップを含む、請求項5記載のゲームサウンド制御方法。 6. The step (e) includes a step (e-1) of using the maximum right volume component and the maximum left volume component as they are as a right volume component and a left volume component of an output sound. Game sound control method. プレイヤによる操作情報を入力するための操作手段、
ゲーム画像を構成するオブジェクトを記憶したオブジェクト記憶手段、
前記操作情報に基づいて少なくとも2つの前記オブジェクトを含むゲーム画像を表示する画像表示制御手段、
音を出力する、左右2つのスピーカ、
前記ゲーム画像を構成する前記少なくとも2つのオブジェクトが音を発生するサウンドオブジェクトであり、当該サウンドオブジェクトの発生する音に対応する少なくとも1種類の波形データを記憶した波形データ記憶手段、
前記サウンドオブジェクト毎に音の発生位置を示す音発生位置データを記憶した音発生位置データ記憶手段、
少なくとも音の出力指示に従って、前記波形データを読み出して、音データを生成し、生成した音データを音として前記スピーカから出力するサウンド出力制御手段、および
少なくともゲーム中に音を集音する位置を示す集音位置データと集音する集音方向を示す集音方向データを含むマイクデータを記憶したマイクデータ記憶手段を備えるゲーム装置のゲームサウンド制御方法であって、
(a) 前記サウンドオブジェクト毎に、前記音発生位置データと前記集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、算出した距離に基づいて前記サウンドオブジェクトがそれぞれ発生する音の音量データを算出し、
(b)前記集音方向データと前記音発生位置データとに基づいて各々の前記サウンドオブジェクトについての定位データを算出し、
(c)前記ステップ(b)で算出した定位データに基づいて、前記各々のサウンドオブジェクトの音量データを、前記スピーカから出力する音の右側音量成分、左側音量成分およびサラウンド音量成分に分割し、
(d)すべての前記サウンドオブジェクトを同じ音を発生するオブジェクトに分類し、
(e)前記同じ音を発生するオブジェクトについて前記ステップ(c)で分割した前記右側音量成分、前記左側音量成分および前記サラウンド音量成分のうち、最大の右側音量成分、最大の左側音量成分および最大のサラウンド音量成分を抽出し、当該オブジェクトの波形データと前記最大の右側音量成分、前記最大の左側音量成分および前記最大のサラウンド音量成分とに基づいて、前記サウンド出力制御手段が前記スピーカから音を出力するためのデータを生成し、そして、
(f)前記サウンド出力制御手段に、音の出力指示と前記ステップ(e)で生成したデータとを与える、ゲームサウンド制御方法。
Operation means for inputting operation information by the player;
Object storage means for storing objects constituting a game image;
Image display control means for displaying a game image including at least two objects based on the operation information;
Two speakers, left and right, that output sound,
Waveform data storage means for storing at least one type of waveform data corresponding to the sound generated by the sound object, wherein the at least two objects constituting the game image are sound objects that generate sound;
Sound generation position data storage means for storing sound generation position data indicating a sound generation position for each sound object;
Sound output control means for reading out the waveform data according to at least a sound output instruction, generating sound data, and outputting the generated sound data as sound from the speaker; and
A game sound control method for a game apparatus comprising microphone data storage means storing at least sound collection position data indicating a position for collecting sound during a game and microphone data including sound collection direction data indicating a sound collection direction for collecting sound. There,
(a) For each sound object, a distance between the sound object and the sound collection position is calculated from the sound generation position data and the sound collection position data, and the sound object generated by each sound object is calculated based on the calculated distance. Calculate the volume data,
(b) calculating localization data for each of the sound objects based on the sound collection direction data and the sound generation position data;
(c) Based on the localization data calculated in the step (b), the volume data of each sound object is divided into a right volume component, a left volume component and a surround volume component of the sound output from the speaker,
(d) classify all the sound objects as objects that generate the same sound;
(e) Among the right volume component, the left volume component and the surround volume component divided in step (c) for the object that generates the same sound, the maximum right volume component, the maximum left volume component, and the maximum The surround sound volume component is extracted, and the sound output control means outputs sound from the speaker based on the waveform data of the object and the maximum right volume component, the maximum left volume component, and the maximum surround volume component. Data to generate, and
(f) A game sound control method in which a sound output instruction and the data generated in the step (e) are given to the sound output control means .
前記音発生位置データは、1つの座標データで表される点音源位置データおよび少なくとも2つの座標データで定義されたレールデータにより表される、レールデータを持つレールデータ音源位置データを含み、
(g)前記レールデータを持つサウンドオブジェクトについて、前記レールデータを表す座標を結ぶ線分上であり、かつ、前記集音位置データに最も接近する位置の座標データを算出するステップをさらに備え、
前記ステップ(a)は、前記レールデータを持つサウンドオブジェクトの音量データを算出するとき、前記ステップ(g)によって算出された座標データと前記集音位置データとから当該サウンドオブジェクトの音量データを算出し、
前記ステップ(c)は、前記ステップ(g)によって算出された座標データと前記集音位置データとから、前記スピーカから出力する音の右側音量成分左側音量成分およびサラウンド音量成分のそれぞれに音量データを分割する、請求項7記載のゲームサウンド制御方法。
The sound generation position data includes rail sound source position data having rail data, represented by point sound source position data represented by one coordinate data and rail data defined by at least two coordinate data,
(g) For the sound object having the rail data, further comprising the step of calculating coordinate data of a position on a line connecting the coordinates representing the rail data and closest to the sound collection position data;
When calculating the volume data of the sound object having the rail data, the step (a) calculates the volume data of the sound object from the coordinate data calculated in the step (g) and the sound collection position data. ,
The step (c) includes volume data for each of a right volume component , a left volume component and a surround volume component of the sound output from the speaker from the coordinate data calculated in the step (g) and the sound collection position data. The game sound control method according to claim 7, wherein the game sound is divided.
プレイヤによる操作情報を入力するための操作手段を備え、操作手段の操作に応じてゲームを進行させて、少なくとも2つのオブジェクトを含むゲーム画面を表示するとともに、音を出力する左右2つのスピーカから、ゲーム画面に関連する音を発生するよう構成されたゲーム装置であって、
前記少なくとも2つのオブジェクトが音を発生するサウンドオブジェクトであり、当該サウンドオブジェクトの発生する音に対応する少なくとも1種類の波形データを記憶した波形データ記憶手段、
前記サウンドオブジェクト毎に音の発生位置を示す音発生位置データを記憶した音発生位置データ記憶手段、
少なくとも音の出力指示に従って、前記波形データを読み出して、音データを生成し、生成した音データを音として前記スピーカから出力するサウンド出力制御手段、
少なくともゲーム中に音を集音する位置を示す集音位置データと集音する集音方向を示す集音方向データとを含むマイクデータを記憶したマイクデータ記憶手段、
前記サウンドオブジェクト毎に、前記音発生位置データと前記集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、算出した距離に基づいて前記サウンドオブジェクトがそれぞれ発生する音の音量データを算出する音量データ算出手段、
前記集音方向データと前記音発生位置データとに基づいて各々の前記サウンドオブジェクトについての定位データを算出する定位算出手段、
前記定位算出手段によって算出された定位データに基づいて、前記各々のサウンドオブジェクの音量データを、前記スピーカから出力する音の右側音量成分と左側音量成分とに分割する音量成分分割手段、
すべての前記サウンドオブジェクトを同じ音を発生するオブジェクトに分類するオブジェクト分類手段、
前記同じ音を発生するオブジェクトについて前記音量成分分割手段によって分割された前記右側音量成分および前記左側音量成分のうち、最大の右側音量成分および最大の左側音量成分を抽出し、当該オブジェクトの波形データと前記最大の右側音量成分および前記最大の左側音量成分とに基づいて、前記サウンド出力制御手段が前記スピーカから音を出力するためのデータを生成する音出力データ生成手段、および
前記サウンド出力制御手段に、音の出力指示と前記音出力データ生成手段によって生成されたデータとを与える出力指示手段を備える、ゲーム装置。
An operation means for inputting operation information by the player, so the game to progress in accordance with the operation of the operating means, at least two objects and displays a game screen including a left right two speakers you outputting sound A game device configured to generate sound related to the game screen,
Waveform data storage means for storing at least one type of waveform data corresponding to the sound generated by the sound object, wherein the at least two objects are sound objects that generate sound;
Sound generation position data storage means for storing sound generation position data indicating a sound generation position for each sound object;
Sound output control means for reading out the waveform data according to at least a sound output instruction, generating sound data, and outputting the generated sound data as sound from the speaker;
Microphone data storage means storing microphone data including at least sound collection position data indicating a position where sound is collected during the game and sound collection direction data indicating a sound collection direction for collecting sound;
For each sound object, a distance between the sound object and the sound collection position is calculated from the sound generation position data and the sound collection position data, and volume data of sound generated by the sound object based on the calculated distance is obtained. Volume data calculation means for calculating,
Localization calculation means for calculating localization data for each of the sound objects based on the sound collection direction data and the sound generation position data;
Volume component dividing means for dividing the volume data of each sound object into a right volume component and a left volume component of the sound output from the speaker , based on the localization data calculated by the localization calculation means;
Object classification means for classifying all the sound objects into objects that generate the same sound;
Wherein the object to generate the same sound of the right volume component and the left volume component divided by the volume component dividing means extracts the maximum right volume components and maximum left volume component, the waveform data of the object Based on the maximum right volume component and the maximum left volume component , the sound output data generation means for generating data for the sound output control means to output sound from the speaker, and the sound output control means A game apparatus comprising output instruction means for giving a sound output instruction and data generated by the sound output data generation means.
前記音出力データ生成手段は、前記最大の右側音量成分および前記最大の左側音量成分を、そのまま、出力する音の右側音量成分および左側音量成分とする、請求項9記載のゲーム装置。 The game apparatus according to claim 9, wherein the sound output data generation unit directly uses the maximum right volume component and the maximum left volume component as a right volume component and a left volume component of a sound to be output. プレイヤによる操作情報を入力するための操作手段を備え、操作手段の操作に応じてゲームを進行させて、少なくとも2つのオブジェクトを含むゲーム画面を表示するとともに、音を出力する左右2つのスピーカから、ゲーム画面に関連する音を発生するよう構成されたゲーム装置であって、
前記少なくとも2つのオブジェクトが音を発生するサウンドオブジェクトであり、当該サウンドオブジェクトの発生する音に対応する少なくとも1種類の波形データを記憶した波形データ記憶手段、
前記サウンドオブジェクト毎に音の発生位置を示す音発生位置データを記憶した音発生位置データ記憶手段、
少なくとも音の出力指示に従って、前記波形データを読み出して、音データを生成し、生成した音データを音として前記スピーカから出力するサウンド出力制御手段、
少なくともゲーム中に音を集音する位置を示す集音位置データと集音する集音方向を示す集音方向データとを含むマイクデータを記憶したマイクデータ記憶手段、
前記サウンドオブジェクト毎に、前記音発生位置データと前記集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、算出した距離に基づいて前記サウンドオブジェクトがそれぞれ発生する音の音量データを算出する音量データ算出手段、
前記集音方向データと前記音発生位置データとに基づいて各々の前記サウンドオブジェクトについての定位データを算出する定位算出手段、
前記定位算出手段によって算出された定位データに基づいて、前記各々のサウンドオブジェクの音量データを、前記スピーカから出力する音の右側音量成分、左側音量成分およびサラウンド音量成分に分割する音量成分分割手段、
すべての前記サウンドオブジェクトを同じ音を発生するオブジェクトに分類するオブジェクト分類手段、
前記同じ音を発生するオブジェクトについて前記音量成分分割手段によって分割された前記右側音量成分、前記左側音量成分および前記サラウンド音量成分のうち、最大の右側音量成分、最大の左側音量成分および最大のサラウンド音量成分を抽出し、当該オブジェクトの波形データと前記最大の右側音量成分、前記最大の左側音量成分および前記最大のサラウンド音量成分に基づいて、前記サウンド出力制御手段が前記スピーカから音を出力するためのデータを生成する音出力データ生成手段、および
前記サウンド出力制御手段に、音の出力指示と前記音出力データ生成手段によって生成されたデータとを与える出力指示手段を備える、ゲーム装置。
An operation means for inputting operation information by the player is provided. The game is advanced in accordance with the operation of the operation means, and a game screen including at least two objects is displayed. A game device configured to generate a sound related to a game screen,
Waveform data storage means for storing at least one type of waveform data corresponding to the sound generated by the sound object, wherein the at least two objects are sound objects that generate sound;
Sound generation position data storage means for storing sound generation position data indicating a sound generation position for each sound object;
Sound output control means for reading out the waveform data according to at least a sound output instruction, generating sound data, and outputting the generated sound data as sound from the speaker;
Microphone data storage means storing microphone data including at least sound collection position data indicating a position where sound is collected during the game and sound collection direction data indicating a sound collection direction for collecting sound;
For each sound object, a distance between the sound object and the sound collection position is calculated from the sound generation position data and the sound collection position data, and volume data of sound generated by the sound object based on the calculated distance is obtained. Volume data calculation means for calculating,
Localization calculation means for calculating localization data for each of the sound objects based on the sound collection direction data and the sound generation position data;
Volume component dividing means for dividing the volume data of each sound object into a right volume component, a left volume component and a surround volume component of the sound output from the speaker, based on the localization data calculated by the localization calculation means;
Object classification means for classifying all the sound objects into objects that generate the same sound;
Among the right volume component, the left volume component, and the surround volume component divided by the volume component dividing unit for the object that generates the same sound, the maximum right volume component, the maximum left volume component, and the maximum surround volume are divided. Component for extracting the sound from the speaker based on the waveform data of the object and the maximum right volume component, the maximum left volume component, and the maximum surround volume component. Sound output data generating means for generating data, and
A game apparatus comprising: output instruction means for giving a sound output instruction and data generated by the sound output data generating means to the sound output control means .
前記サウンド発生位置データは、1つの座標データで表されるサウンドオブジェクト位置データおよび少なくとも2つの座標データで定義されたレールデータを持つサウンドオブジェクトの位置データを含み、
前記レールデータを持つサウンドオブジェクトについて、前記レールデータを表す座標を結ぶ線分上であり、かつ、前記マイクデータ記憶手段に記憶されている前記集音位置データに最も接近する位置の座標データを算出する近接座標算出手段をさらに備え、
前記音量データ算出手段は、前記レールデータを持つサウンドオブジェクトの音量データを算出するとき、前記近接座標算出手段によって算出された座標データと前記集音位置データとから当該サウンドオブジェクトの音量データを算出し、
前記音量成分分割手段は、前記近接座標算出手段によって算出された座標データと前記集音方向データとから、前記スピーカから出力する音の右側音量成分左側音量成分およびサラウンド音量成分のそれぞれに音量データを分割する、請求項11記載のゲーム装置。
The sound generation position data includes sound object position data represented by one coordinate data and position data of a sound object having rail data defined by at least two coordinate data,
For the sound object having the rail data, the coordinate data of the position on the line connecting the coordinates representing the rail data and closest to the sound collection position data stored in the microphone data storage means is calculated. A proximity coordinate calculating means for
The sound volume data calculating means calculates sound volume data of the sound object from the coordinate data calculated by the proximity coordinate calculating means and the sound collection position data when calculating sound volume data of the sound object having the rail data. ,
The volume component dividing unit is configured to generate volume data for each of a right volume component , a left volume component, and a surround volume component of a sound output from the speaker, from the coordinate data calculated by the proximity coordinate calculation unit and the sound collection direction data. The game device according to claim 11, wherein the game device is divided.
JP2003387766A 2002-12-04 2003-11-18 GAME SOUND CONTROL PROGRAM, GAME SOUND CONTROL METHOD, AND GAME DEVICE Expired - Fee Related JP3617839B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003387766A JP3617839B2 (en) 2002-12-04 2003-11-18 GAME SOUND CONTROL PROGRAM, GAME SOUND CONTROL METHOD, AND GAME DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002352169 2002-12-04
JP2003387766A JP3617839B2 (en) 2002-12-04 2003-11-18 GAME SOUND CONTROL PROGRAM, GAME SOUND CONTROL METHOD, AND GAME DEVICE

Publications (2)

Publication Number Publication Date
JP2004195210A JP2004195210A (en) 2004-07-15
JP3617839B2 true JP3617839B2 (en) 2005-02-09

Family

ID=32775031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003387766A Expired - Fee Related JP3617839B2 (en) 2002-12-04 2003-11-18 GAME SOUND CONTROL PROGRAM, GAME SOUND CONTROL METHOD, AND GAME DEVICE

Country Status (1)

Country Link
JP (1) JP3617839B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007212635A (en) * 2006-02-08 2007-08-23 Copcom Co Ltd Sound effect producing device, video game device equipped with the same, and program and recording medium for attaining the same
JP4015173B1 (en) 2006-06-16 2007-11-28 株式会社コナミデジタルエンタテインメント GAME SOUND OUTPUT DEVICE, GAME SOUND CONTROL METHOD, AND PROGRAM
WO2010137069A1 (en) * 2009-05-27 2010-12-02 株式会社サスティーン・アーキテクト Answer verification device and problem generation device
JP5036797B2 (en) * 2009-12-11 2012-09-26 株式会社スクウェア・エニックス Pronunciation processing apparatus, pronunciation processing method, and pronunciation processing program
JP4951688B2 (en) 2010-03-15 2012-06-13 株式会社コナミデジタルエンタテインメント GAME SYSTEM, COMPUTER PROGRAM THEREOF, AND GAME SYSTEM CONTROL METHOD
JP5538148B2 (en) * 2010-09-08 2014-07-02 株式会社カプコン GAME PROGRAM AND GAME DEVICE
JP5969200B2 (en) 2011-11-11 2016-08-17 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
JP2013102842A (en) 2011-11-11 2013-05-30 Nintendo Co Ltd Information processing program, information processor, information processing system, and information processing method
KR101374961B1 (en) * 2012-09-10 2014-03-18 김정헌 Sound based interface apparatus and method
JP6147486B2 (en) * 2012-11-05 2017-06-14 任天堂株式会社 GAME SYSTEM, GAME PROCESSING CONTROL METHOD, GAME DEVICE, AND GAME PROGRAM
JP6055657B2 (en) * 2012-11-09 2016-12-27 任天堂株式会社 GAME SYSTEM, GAME PROCESSING CONTROL METHOD, GAME DEVICE, AND GAME PROGRAM
JP5813172B2 (en) * 2014-04-28 2015-11-17 株式会社カプコン GAME PROGRAM AND GAME DEVICE
CN111882309B (en) * 2020-08-07 2023-08-22 腾讯科技(深圳)有限公司 Message processing method, device, electronic equipment and storage medium
JP7252998B2 (en) * 2021-03-15 2023-04-05 任天堂株式会社 Information processing program, information processing device, information processing system, and information processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4095227B2 (en) * 2000-03-13 2008-06-04 株式会社コナミデジタルエンタテインメント Video game apparatus, background sound output setting method in video game, and computer-readable recording medium recorded with background sound output setting program
JP4688267B2 (en) * 2000-09-20 2011-05-25 株式会社バンダイナムコゲームス GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP2002199498A (en) * 2000-12-25 2002-07-12 Victor Co Of Japan Ltd Method for localizing sound image of sound source and game machine for localizing sound image, and recording medium recording sound image localization program, and transmitting method for the program
JP3455739B2 (en) * 2001-12-26 2003-10-14 コナミ株式会社 GAME DEVICE AND PROGRAM

Also Published As

Publication number Publication date
JP2004195210A (en) 2004-07-15

Similar Documents

Publication Publication Date Title
US7338373B2 (en) Method and apparatus for generating sounds in a video game
JP3725524B2 (en) Method for generating computer display image and computer processing system and graphics processor for generating image data
JP3372832B2 (en) GAME DEVICE, GAME IMAGE PROCESSING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING GAME IMAGE PROCESSING PROGRAM
JP3668019B2 (en) Recording medium, image processing apparatus, and image processing method
JP3617839B2 (en) GAME SOUND CONTROL PROGRAM, GAME SOUND CONTROL METHOD, AND GAME DEVICE
JP4242318B2 (en) 3D image generation apparatus and 3D image generation program
JP4791852B2 (en) GAME DEVICE, GAME PROGRAM, AND GAME CONTROL METHOD
JP4099434B2 (en) Image generation program and game device
JP2004329463A (en) Game device and control program of virtual camera
JP3625184B2 (en) 3D image processing method and apparatus for game, readable recording medium recording game 3D image processing program, and video game apparatus
JP2006068138A (en) Game apparatus and image processing program
JP3639280B2 (en) Game message display method and game program
US20020034979A1 (en) Video game system, character action control method, and readable storage medium storing character action control program
JP4355512B2 (en) Image processing apparatus and image processing program
US20070261539A1 (en) Music reproducing program and music reproducing apparatus
JP3001538B1 (en) VIDEO GAME DEVICE, MODEL DISPLAY METHOD FOR VIDEO GAME, AND READABLE RECORDING MEDIUM ON WHICH MODEL DISPLAY PROGRAM FOR VIDEO GAME IS RECORDED
JP3602835B2 (en) VIDEO GAME DEVICE, ITS CONTROL METHOD, AND GAME PROGRAM
JP3564440B2 (en) Moving image generation program, moving image generation method and apparatus
JP3839355B2 (en) GAME DEVICE AND GAME PROGRAM
JP3183636B2 (en) Three-dimensional game device and information storage medium
JP4560532B2 (en) Image generating apparatus and information storage medium
JP3197133B2 (en) Karaoke equipment
JP3708904B2 (en) Image processing program
JP4219766B2 (en) Image generation program and image generation apparatus
JP2004313218A (en) Game apparatus and game program

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20040415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040415

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20040517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040817

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041104

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees