JP3617839B2 - GAME SOUND CONTROL PROGRAM, GAME SOUND CONTROL METHOD, AND GAME DEVICE - Google Patents
GAME SOUND CONTROL PROGRAM, GAME SOUND CONTROL METHOD, AND GAME DEVICE Download PDFInfo
- Publication number
- JP3617839B2 JP3617839B2 JP2003387766A JP2003387766A JP3617839B2 JP 3617839 B2 JP3617839 B2 JP 3617839B2 JP 2003387766 A JP2003387766 A JP 2003387766A JP 2003387766 A JP2003387766 A JP 2003387766A JP 3617839 B2 JP3617839 B2 JP 3617839B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- data
- volume component
- volume
- game
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
この発明はゲームサウンド制御プログラム、ゲームサウンド制御方法およびゲーム装置に関し、特にたとえば、プレイヤによる操作情報を入力するための操作手段を備え、操作手段の操作に応じてゲームを進行させて、少なくとも2つのオブジェクトを含むゲーム画面を表示するとともに、ゲーム画面に関連する音を発生する、ゲームサウンド制御プログラム、ゲームサウンド制御方法およびゲーム装置に関する。 The present invention relates to a game sound control program, a game sound control method, and a game apparatus, and in particular, includes, for example, an operation means for inputting operation information by a player, and the game is advanced in accordance with the operation of the operation means. The present invention relates to a game sound control program, a game sound control method, and a game apparatus that display a game screen including an object and generate a sound related to the game screen.
一般的に、仮想3次元空間内で展開されるゲームにおいて、たとえば松明などが表示されているような場合、プレイヤの操作するキャラクタ(プレイヤキャラクタ)が松明などの、音を発生するサウンドオブジェクトに近づくと、松明の燃える音が大きくなる処理が行われる。このとき、松明がプレイヤキャラクタの周りに複数存在すると、松明の数だけ音源を発音させて、松明の燃える音を再生していた。ただし、音源の発音数が最大同時発音数を越える場合には、優先順位を付けて、たとえば遠くに在る松明については音を出さないようにして、音源の発音数を節約していた。 Generally, in a game developed in a virtual three-dimensional space, for example, when a torch or the like is displayed, a character (player character) operated by the player approaches a sound object that generates sound, such as a torch. Then, the process of increasing the torsion noise is performed. At this time, if a plurality of torches exist around the player character, the sound source is sounded by the number of torches to reproduce the torches burning sound. However, when the number of pronunciations of the sound source exceeds the maximum number of simultaneous pronunciations, priorities are assigned, for example, tones are not emitted for torches located far away, thereby saving the number of pronunciations of the sound source.
また、このようなゲームでは、松明が画面の右斜め前に在るとすれば、音源の右ボリュームを上げ、左ボリュームを下げることにより、あたかも松明の音が右斜め前から聞こえてくるように処理していた。さらに、サラウンド成分を処理可能であれば、松明の音がプレイヤの後方から鳴っているとか、音に囲まれているかのような鳴らし方で処理することが可能であった。 Also, in such a game, if the torch is in front of the screen diagonally to the right, increasing the right volume of the sound source and lowering the left volume will make the sound of the torch sound heard from the diagonally right front. I was processing. Furthermore, if it is possible to process the surround component, it is possible to process the sound as if the sound of a torch is sounding from behind the player or surrounded by the sound.
また、従来技術の一例が特許文献1に開示される。この特許文献1に開示される音再生装置では、聞き手の頭の位置を原点とし、聞き手の顔の正面向きに延びる軸を所定角度で回転させた回転軸によって、配置されたすべてのサウンドオブジェクトをいくつかのグループに分けて、1つのグループに含まれる1または複数のサウンドオブジェクトの音を音源の1つの発音だけで発生するようにしていた。
しかし、前者のように、優先順位を付けて音源を節約する場合には、さほど重要ではないが、音場(仮想3次元空間)の雰囲気として鳴ってほしい音、たとえば環境音等が消されてしまうと、ゲームの臨場感を消失してしまうという問題があった。また、左右に松明が在るときに、右の松明の音だけが消されてしまうと、左右の松明対して左の松明だけが燃える音がするなどの違和感もあった。 However, as in the former case, in order to save sound sources by assigning priorities, sounds that are desired as the atmosphere of the sound field (virtual three-dimensional space), such as environmental sounds, are erased. In other words, there was a problem that the realism of the game disappeared. Also, when there were torches on the left and right, if only the sound of the right torches were turned off, there was a sense of incongruity that only the left torches made a burning sound against the left and right torches.
また、後者の場合には、グループ分けに際して方向を決めるため、音を発生するオブジェクト全てについて音を集音する位置に対する角度を求める必要があり、したがって、計算処理が膨大であり、処理負担が大きく、本来的なゲーム処理に遅れが生じてしまうという問題があった。 In the latter case, in order to determine the direction for grouping, it is necessary to obtain the angle with respect to the position where the sound is collected for all the objects that generate the sound. Therefore, the calculation processing is enormous and the processing load is large. There is a problem that a delay occurs in the original game processing.
それゆえに、この発明の主たる目的は、新規な、ゲームサウンド制御プログラムを記憶した記憶媒体、ゲームサウンド制御方法およびゲーム装置を提供することである。 SUMMARY OF THE INVENTION Therefore, a main object of the present invention is to provide a novel storage medium storing a game sound control program, a game sound control method, and a game apparatus.
この発明の他の目的は、効率的に音源を使用できる、ゲームサウンド制御プログラムを記憶した記憶媒体、ゲームサウンド制御方法およびゲーム装置を提供することである。 Another object of the present invention is to provide a storage medium storing a game sound control program, a game sound control method, and a game apparatus that can efficiently use a sound source.
請求項1の発明は、操作手段、オブジェクト記憶手段、画像表示制御手段、スピーカ、波形データ記憶手段、音発生位置データ記憶手段、サウンド出力制御手段、およびマイクデータ記憶手段を備えるゲーム装置のコンピュータによって実行されるゲームサウンド制御プログラムである。 According to the first aspect of the present invention, there is provided a computer of a game apparatus comprising operating means, object storage means, image display control means, speakers, waveform data storage means, sound generation position data storage means, sound output control means, and microphone data storage means. A game sound control program to be executed.
操作手段は、プレイヤによる操作情報を入力する。オブジェクト記憶手段は、ゲーム画像を構成するオブジェクトを記憶している。画像表示制御手段は、操作手段によって入力されるプレイヤによる操作情報に基づいて少なくとも2つのオブジェクトを含むゲーム画像を表示する。スピーカは左右2つ備えられ、音を出力する。波形データ記憶手段は、ゲーム画像を構成する少なくとも2つのオブジェクトが音を発生するサウンドオブジェクトであり、当該サウンドオブジェクトの発生する音に対応する少なくとも1種類の波形データを記憶している。音発生位置データ記憶手段は、サウンドオブジェクト毎に音の発生位置を示す音発生位置データを記憶している。サウンド出力制御手段は、少なくとも音の出力指示に従って、波形データを読み出して、音データを生成し、生成した音データを音としてスピーカから出力する。そして、マイクデータ記憶手段は、少なくともゲーム中に音を集音する位置を示す集音位置データと集音する集音方向を示す集音方向データとを含むマイクデータを記憶している。 The operation means inputs operation information by the player. The object storage means stores objects constituting the game image. The image display control means displays a game image including at least two objects based on operation information by the player input by the operation means. Speaker provided two left right, and outputs the sound. The waveform data storage means is a sound object in which at least two objects constituting the game image generate sound, and stores at least one type of waveform data corresponding to the sound generated by the sound object. The sound generation position data storage means stores sound generation position data indicating the sound generation position for each sound object. Sound output control means, in accordance with an output indication of at least sound, reads the waveform data to generate sound data, output from the speaker the generated sound data as sound. The microphone data storage means stores microphone data including at least sound collection position data indicating a position where sound is collected during the game and sound collection direction data indicating a sound collection direction.
ゲームサウンド制御プログラムは、音量データ算出ステップ、定位算出ステップ、音量成分分割ステップ、オブジェクト分類ステップ、音出力データ生成ステップおよび音出力指示ステップによって構成される。 The game sound control program includes a volume data calculation step, a localization calculation step, a volume component division step, an object classification step , a sound output data generation step, and a sound output instruction step .
音量データ算出ステップは、サウンドオブジェクト毎に、音発生位置データと集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、算出した距離に基づいてサウンドオブジェクトがそれぞれ発生する音の音量データを算出する。定位算出ステップは、集音方向データと音発生位置データとに基づいて、各々のサウンドオブジェクトについての定位データを算出する。音量成分分割ステップは、定位算出ステップによって算出された定位データに基づいて、各サウンドオブジェクトの音量データを、スピーカから出力する音の右側音量成分と左側音量成分とに分割する。オブジェクト分類ステップは、すべてのサウンドオブジェクトを同じ音を発生するオブジェクトに分類する。音出力データ生成ステップは、同じ音を発生するオブジェクトについて、音量成分分割ステップによって分割された右側音量成分および左側音量成分のうち、最大の右側音量成分および最大の左側音量成分を抽出し、当該オブジェクトの波形データと最大の右側音量成分および最大の左側音量成分とに基づいて、サウンド出力制御手段がスピーカから音を出力するためのデータを生成する。そして、出力指示ステップは、サウンド出力制御手段に、音の出力指示と音出力データ生成ステップによって生成したデータとを与える。 In the sound volume data calculating step, for each sound object, the distance between the sound object and the sound collection position is calculated from the sound generation position data and the sound collection position data, and the sound volume generated by the sound object based on the calculated distance is calculated. Calculate the data. The localization calculation step calculates localization data for each sound object based on the sound collection direction data and the sound generation position data. The volume component dividing step divides the volume data of each sound object into a right volume component and a left volume component of the sound output from the speaker based on the localization data calculated by the localization calculation step. The object classification step classifies all sound objects into objects that generate the same sound. The sound output data generation step extracts the maximum right volume component and the maximum left volume component from the right volume component and the left volume component divided by the volume component division step for the object that generates the same sound, and the object The sound output control means generates data for outputting sound from the speaker based on the waveform data and the maximum right volume component and maximum left volume component . The output instruction step gives the sound output control means the sound output instruction and the data generated by the sound output data generation step.
請求項1の発明では、ゲーム装置(12:実施例で相当する参照番号。以下、同じ。)には、プレイヤによる操作情報を入力するための操作手段(16,22)が接続される。その操作情報に基づいて少なくとも2つのオブジェクトを含むゲーム画像(80)が画像表示制御手段(36、S11)によって表示される。このゲーム画像(80)を構成するオブジェクト(82,84,88)は、オブジェクト記憶手段(40)に記憶される。たとえば、ゲーム画像(80)を構成する少なくとも2つのオブジェクトが音を発生するサウンドオブジェクト(84,88)であり、当該サウンドオブジェクト(84,88)の発生する音に対応する少なくとも1種類の波形データが波形データ記憶手段(54)に記憶される。当該サウンドオブジェクトの音は、左右2つのスピーカ(34a,34a)から出力される。また、サウンドオブジェクト(84,88)毎に音の発生位置を示す音発生位置データ(722b,726b,730b)が音発生位置データ記憶手段(40)に記憶される。さらに、少なくともゲーム中に音を集音する位置を示す集音位置データ(74a)と、集音する集音方向を示す集音方向データ(74b)とを含むマイクデータがマイクデータ記憶手段74に記憶される。このような構成のゲーム装置のプロセサによって、ゲームサウンド制御プログラムは実行される。具体的には、音量データ算出ステップ(36,S31)は、音発生位置データ(722b,726b,730b)とマイクデータとからサウンドオブジェクト(84,88)毎に、音発生位置データと集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、その距離に基づいて音量データを算出する。そして、定位算出ステップ(36,S33)が、集音方向データと音発生位置データとに基づいて、各々のサウンドオブジェクトについての定位データを算出する。すると、音量成分分割ステップ(36,S43)が、定位算出ステップによって算出された定位データに基づき、音量データ算出ステップ(36,S31)によって算出された音量データを、スピーカ(34a,34a)から出力する音の右側音量成分と左側音量成分とに分割する。オブジェクト分類ステップ(36,S39)は、すべてのサウンドオブジェクト(84,88)を、同じ音を発生するオブジェクトに分類する。オブジェクトが分類されると、音出力データ生成ステップ(36,S51)は、同じ音を発生するオブジェクトについて、音量成分分割ステップ(36,S43)によって分割された右側音量成分および左側音量成分のうち、最大の右側音量成分および最大の左側音量成分を抽出し、当該オブジェクトの波形データと最大の右側音量成分および最大の左側音量成分とに基づいて、サウンド出力制御手段(52)がスピーカ(34a,34a)から音を出力するためのデータを生成する。そして、出力指示ステップ(36,S53)は、音の出力指示と音出力データ生成ステップ(36,S51)によって生成したデータとを、サウンド出力制御手段(52)に与える。したがって、生成されたデータに基づいて、サウンド出力制御手段(52)がスピーカ(34a,34a)から音を出力するので、分類されたオブジェクトの発生する音が、1つにまとめられてスピーカ(34a,34a)から聞こえる。 According to the first aspect of the present invention, the game device (12: reference number corresponding to the embodiment; hereinafter the same) is connected to operation means (16, 22) for inputting operation information by the player. Based on the operation information, a game image (80) including at least two objects is displayed by the image display control means (36, S11). The objects (82, 84, 88) constituting the game image (80) are stored in the object storage means (40). For example, at least two objects constituting the game image (80) are sound objects (84, 88) that generate sound, and at least one type of waveform data corresponding to the sound generated by the sound object (84, 88). Is stored in the waveform data storage means (54). The sound of the sound object is output from the left and right speakers (34a, 34a). Further, sound generation position data (722b, 726b, 730b) indicating a sound generation position for each sound object (84, 88) is stored in the sound generation position data storage means (40). Furthermore, microphone data including at least sound collection position data (74a) indicating a position for collecting sound during the game and sound collection direction data (74b) indicating the sound collection direction for collecting sound is stored in the microphone data storage means 74. Remembered. The game sound control program is executed by the processor of the game apparatus having such a configuration. Specifically, the sound volume data calculating step (36, S31) is performed for each sound object (84, 88) from the sound generation position data (722b, 726b, 730b) and the microphone data. The distance between the sound object and the sound collection position is calculated from the data, and the volume data is calculated based on the distance. A localization calculation step (36, S33) calculates localization data for each sound object based on the sound collection direction data and the sound generation position data. Then, the volume component dividing step (36, S43) outputs the volume data calculated by the volume data calculation step (36, S31) from the speakers (34a, 34a) based on the localization data calculated by the localization calculation step. Is divided into a right volume component and a left volume component . The object classification step (36, S39) classifies all sound objects (84, 88) into objects that generate the same sound. When the objects are classified, the sound output data generation step (36, S51) includes the right volume component and the left volume component divided by the volume component dividing step (36, S43) for the object that generates the same sound. The maximum right volume component and the maximum left volume component are extracted, and based on the waveform data of the object and the maximum right volume component and the maximum left volume component , the sound output control means (52) uses the speakers (34a, 34a). ) To generate data for outputting sound. The output instruction step (36, S53) gives the sound output instruction and the data generated in the sound output data generation step (36, S51) to the sound output control means (52). Accordingly, since the sound output control means (52) outputs sound from the speakers (34a, 34a ) based on the generated data, the sounds generated by the classified objects are combined into one speaker (34a). , 34a) .
請求項1の発明によれば、同じ種類のサウンドオブジェクトについての音を音源の1つの発音だけで出力するので、音源を効率的に使用することができる。 According to the first aspect of the invention, the sound of the same type of sound object is output by only one sound generation of the sound source, so that the sound source can be used efficiently.
請求項2の発明は、請求項1に従属し、音出力データ生成ステップは、最大の右側音量成分および最大の左側音量成分を、そのまま、出力する音の右側音量成分および左側音量成分とする。
The invention according to
請求項2の発明によれば、音出力データ生成ステップ(36,S51)は、抽出された最大の右側音量成分および最大の左側音量成分を、そのまま、出力する音の右側音量成分および左側音量成分とするので、分類されたサウンドオブジェクトが発生する音を、音源の1つの発音だけで出力することができる。
According to the invention of
請求項3の発明は、操作手段、オブジェクト記憶手段、画像表示制御手段、波形データ記憶手段、音発生位置データ記憶手段、およびマイクデータ記憶手段を備えるゲーム装置のプロセサによって実行されるゲームサウンド制御プログラムである。
操作手段は、プレイヤによる操作情報を入力する。オブジェクト記憶手段は、ゲーム画像を構成するオブジェクトを記憶している。画像表示制御手段は、操作情報に基づいて少なくとも2つのオブジェクトを含むゲーム画像を表示する。スピーカは、左右2つ備えられ、音を出力する。波形データ記憶手段は、ゲーム画像を構成する少なくとも2つのオブジェクトが音を発生するサウンドオブジェクトであり、当該サウンドオブジェクトの発生する音に対応する少なくとも1種類の波形データを記憶している。音発生位置データ記憶手段は、サウンドオブジェクト毎に音の発生位置を示す音発生位置データを記憶している。サウンド出力制御手段は、少なくとも音の出力指示に従って、波形データを読み出して、音データを生成し、生成した音データを音としてスピーカから出力する。そして、マイクデータ記憶手段は、少なくともゲーム中に音を集音する位置を示す集音位置データと集音する集音方向を示す集音方向データとを含むマイクデータを記憶している。
サウンド制御プログラムは、音量データ算出ステップ、定位算出ステップ、音量成分分割ステップ、オブジェクト分類ステップ、音出力データ生成ステップおよび音出力指示ステップによって構成される。
音量データ算出ステップは、サウンドオブジェクト毎に、音発生位置データと集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、算出した距離に基づいてサウンドオブジェクトがそれぞれ発生する音の音量データを算出する。定位算出ステップは、集音方向データと音発生位置データとに基づいて各々のサウンドオブジェクトについての定位データを算出する。音量成分分割ステップは、定位算出ステップによって算出された定位データに基づいて、各々のサウンドオブジェクトの音量データを、スピーカから出力する音の右側音量成分、左側音量成分およびサラウンド音量成分に分割する。オブジェクト分類ステップは、すべてのサウンドオブジェクトを同じ音を発生するオブジェクトに分類する。音出力データ生成ステップは、同じ音を発生するオブジェクトについて音量成分分割ステップによって分割された右側音量成分、左側音量成分およびサラウンド音量成分のうち、最大の右側音量成分、最大の左側音量成分および最大のサラウンド音量成分を抽出し、当該オブジェクトの波形データと最大の右側音量成分、最大の左側音量成分および最大のサラウンド音量成分とに基づいて、サウンド出力制御手段がスピーカから音を出力するためのデータを生成する。そして、出力指示ステップは、サウンド出力制御手段に、音の出力指示と音出力データ生成ステップによって生成したデータとを与える。
According to a third aspect of the present invention, there is provided a game sound control program to be executed by a processor of a game device comprising an operation means, an object storage means, an image display control means, a waveform data storage means, a sound generation position data storage means, and a microphone data storage means. It is.
The operation means inputs operation information by the player. The object storage means stores objects constituting the game image. The image display control means displays a game image including at least two objects based on the operation information. Two left and right speakers are provided to output sound. The waveform data storage means is a sound object in which at least two objects constituting the game image generate sound, and stores at least one type of waveform data corresponding to the sound generated by the sound object. The sound generation position data storage means stores sound generation position data indicating the sound generation position for each sound object. The sound output control means reads waveform data according to at least a sound output instruction, generates sound data, and outputs the generated sound data as sound from a speaker. The microphone data storage means stores microphone data including at least sound collection position data indicating a position where sound is collected during the game and sound collection direction data indicating a sound collection direction.
The sound control program includes a volume data calculation step, a localization calculation step, a volume component division step, an object classification step, a sound output data generation step, and a sound output instruction step.
In the sound volume data calculating step, for each sound object, the distance between the sound object and the sound collection position is calculated from the sound generation position data and the sound collection position data, and the sound volume generated by the sound object based on the calculated distance is calculated. Calculate the data. The localization calculation step calculates localization data for each sound object based on the sound collection direction data and the sound generation position data. The volume component dividing step divides the volume data of each sound object into a right volume component, a left volume component, and a surround volume component of the sound output from the speaker based on the localization data calculated by the localization calculation step. The object classification step classifies all sound objects into objects that generate the same sound. The sound output data generation step includes a maximum right volume component, a maximum left volume component, and a maximum volume among the right volume component, the left volume component, and the surround volume component divided by the volume component division step for objects that generate the same sound. Based on the waveform data of the object and the maximum right volume component, maximum left volume component and maximum surround volume component, the sound output control means extracts data for outputting sound from the speaker. Generate. The output instruction step gives the sound output control means the sound output instruction and the data generated by the sound output data generation step.
請求項3の発明によれば、音量成分分割ステップ(36,S43)は、音発生位置データ(722b,726b,730b)とその集音方向データ(74b)とからサウンドオブジェクトが発生する音の音量データを、スピーカ(34a,34a)から出力する音の右側音量成分、左側音量成分およびサラウンド音量成分に分割する。したがって、音出力データ生成ステップ(36,S51)は、同じ音を発生するオブジェクトについて、音量成分分割ステップ(36,S43)によって分割された右側音量成分、左側音量成分およびサラウンド音量成分のうち、最大の右側音量成分、最大の左側音量成分および最大のサラウンド音量成分を抽出し、当該オブジェクトの波形データと最大の右側音量成分、最大の左側音量成分および最大のサラウンド音量成分とに基づいて、サウンド出力制御手段(52)がスピーカ(34a,34a)から音を出力するためのデータを生成することができる。 According to the third aspect of the present invention, the volume component dividing step (36, S43) performs the volume of the sound generated by the sound object from the sound generation position data (722b, 726b, 730b) and the sound collection direction data (74b). The data is divided into a right volume component, a left volume component and a surround volume component of the sound output from the speakers (34a, 34a) . Therefore, in the sound output data generation step (36, S51), the maximum of the right volume component, the left volume component, and the surround volume component divided by the volume component dividing step (36, S43) is calculated for the objects that generate the same sound. The right volume component, maximum left volume component, and maximum surround volume component are extracted, and the sound output is based on the waveform data of the object and the maximum right volume component, maximum left volume component, and maximum surround volume component. The control means (52) can generate data for outputting sound from the speakers (34a, 34a).
請求項4の発明は、請求項3に従属し、音発生位置データは、1つの座標データで表されるサウンドオブジェクトの位置データおよび少なくとも2つの座標データで定義されたレールデータにより表される、レールデータを持つサウンドオブジェクトの位置データを含み、レールデータを持つサウンドオブジェクトについて、レールデータを表す座標を結ぶ線分上であり、かつ、集音位置データに最も接近する位置の座標データを算出する近接座標算出ステップ、音量データ算出ステップは、レールデータを持つサウンドオブジェクトの音量データを算出するとき、近接座標算出ステップによって算出された座標データと集音位置データとから当該サウンドオブジェクトの音量データを算出し、音量成分分割ステップは、近接座標算出ステップによって算出された座標データと集音位置データとから、スピーカから出力する音の右側音量成分、左側音量成分およびサラウンド音量成分のそれぞれに音量データを分割する。
The invention of claim 4 is dependent on
請求項4の発明によれば、音発生位置データは、1つの座標データで表される点のサウンドオブジェクトの位置データおよび少なくとも2つの座標データで定義されたレールデータを持つサウンドオブジェクトの位置データを含み、レールデータを持つサウンドオブジェクトについて、レールデータを表す座標を結ぶ線分上であり、かつ、集音位置データに最も接近する位置の座標データを算出する近接座標算出ステップをさらに備え、音量データ算出ステップは、レールデータを持つサウンドオブジェクトの音量データを算出するとき、近接座標算出ステップにより算出された座標データと集音位置データとから当該サウンドオブジェクトの音量データを算出し、音量成分分割ステップは、近接座標算出ステップによって算出された座標データと集音位置データとから、スピーカから出力する音の右側音量成分、左側音量成分およびサラウンド音量成分のそれぞれに音量データを分割する。 According to the invention of claim 4, the sound generation position data includes the position data of a sound object at a point represented by one coordinate data and the position data of a sound object having rail data defined by at least two coordinate data. Including a proximity coordinate calculation step for calculating coordinate data of a position that is on a line connecting the coordinates representing the rail data and that is closest to the sound collection position data, for a sound object having rail data, The calculation step calculates the volume data of the sound object from the coordinate data calculated by the proximity coordinate calculation step and the sound collection position data when calculating the volume data of the sound object having rail data, and the volume component division step The coordinate data calculated by the proximity coordinate calculation step And a data and satellite position data, the right volume component of the sound output from the speaker, to divide the volume data to each of the left volume components and surround sound components.
具体的には、音発生位置データ(722b,726b,730b)は、1つの座標データで表されるサウンドオブジェクトの位置データ(722b,726b)および少なくとも2つの座標データで定義されるレールデータにより表されるレールデータサウンドオブジェクトの位置データ(730b)を含む。近接座標算出ステップ(36,S63)は、レールデータを持つサウンドオブジェクト(88)について、レールデータを表す線分上であり、集音位置データ(74a)に最も接近する位置の座標データを算出する。音量データ算出ステップ(36,S31)は、レールデータを持つサウンドオブジェクトの音量データを算出する場合には、近接座標算出ステップ(36,S63)によって算出された座標データとマイクデータとから当該サウンドオブジェクト(88)の音量データを算出する。つまり、レールデータの線分上であり、集音位置データ(74a)に最も接近する位置にサウンドオブジェクトの音が存在するとみなして、当該音の音量データを算出して、音源の発音数を低減している。したがって、音量成分分割ステップ(36,S43)は、レールデータを持つサウンドオブジェクト(88)の音量データを成分に分割するとき、近接座標算出ステップ(36,S63)によって算出された座標データと集音方向データ(74b)とから、スピーカ(34a,34a)から出力する音の右側音量成分、左側音量成分およびサラウンド音量成分に分割する。つまり、少なくとも2つの座標データで定義されるレールデータをサウンドオブジェクトの音とみなして音源の発音数を低減するので、1つの座標データで表されるサウンドオブジェクトが複数存在する場合と同様に扱うことができる。 Specifically, the sound generation position data (722b, 726b, 730b) is represented by the position data (722b, 726b) of the sound object represented by one coordinate data and rail data defined by at least two coordinate data. Position data (730b) of the rail data sound object to be played. The proximity coordinate calculation step (36, S63) calculates the coordinate data of the position closest to the sound collection position data (74a) on the line segment representing the rail data for the sound object (88) having the rail data. . In the sound volume data calculating step (36, S31), when calculating sound volume data of a sound object having rail data, the sound object is calculated from the coordinate data calculated by the proximity coordinate calculating step (36, S63) and the microphone data. The volume data of (88) is calculated. That is, on the line segment of the rail data, the sound object sound is assumed to be present at the position closest to the sound collection position data (74a), and the sound volume data of the sound is calculated to reduce the number of sounds of the sound source. doing. Therefore, in the volume component dividing step (36, S43), when dividing the volume data of the sound object (88) having rail data into components, the coordinate data calculated by the proximity coordinate calculating step (36, S63) and the sound collection are obtained. The direction data (74b) is divided into a right volume component, a left volume component and a surround volume component of the sound output from the speakers (34a, 34a) . In other words, the rail data defined by at least two coordinate data is regarded as the sound of the sound object and the number of sound generations of the sound source is reduced, so that it is handled in the same way as when there are multiple sound objects represented by one coordinate data. Can do.
請求項5の発明は、操作手段、オブジェクト記憶手段、画像表示制御手段、スピーカ、波形データ記憶手段、音発生位置データ記憶手段、サウンド出力制御手段、およびマイクデータ記憶手段を備えるゲーム装置のコンピュータによって実行されるゲームサウンド制御方法である。 According to a fifth aspect of the present invention, there is provided a computer of a game apparatus comprising operating means, object storage means, image display control means, speakers, waveform data storage means, sound generation position data storage means, sound output control means, and microphone data storage means. A game sound control method to be executed.
操作手段は、プレイヤによる操作情報を入力する。オブジェクト記憶手段は、ゲーム画像を構成するオブジェクトを記憶している。画像表示制御手段は、操作手段によって入力されるプレイヤによる操作情報に基づいて少なくとも2つのオブジェクトを含むゲーム画像を表示する。スピーカは音を出力し、左右2つ備えられる。波形データ記憶手段は、ゲーム画像を構成する少なくとも2つのオブジェクトが音を発生するサウンドオブジェクトであり、当該サウンドオブジェクトの発生する音に対応する少なくとも1種類の波形データを記憶している。音発生位置データ記憶手段は、サウンドオブジェクト毎に音の発生位置を示す音発生位置データを記憶している。サウンド出力制御手段は、少なくとも音の出力指示に従って、波形データを読み出して、音データを生成し、生成した音データを音としてスピーカから出力する。そして、マイクデータ記憶手段は、少なくともゲーム中に音を集音する位置を示す集音位置データと、集音する集音方向を示す集音方向データとを含むマイクデータを記憶している。 The operation means inputs operation information by the player. The object storage means stores objects constituting the game image. The image display control means displays a game image including at least two objects based on operation information by the player input by the operation means. Speaker outputs sound, are left right two provided. The waveform data storage means is a sound object in which at least two objects constituting the game image generate sound, and stores at least one type of waveform data corresponding to the sound generated by the sound object. The sound generation position data storage means stores sound generation position data indicating the sound generation position for each sound object. The sound output control means reads waveform data according to at least a sound output instruction, generates sound data, and outputs the generated sound data as sound from a speaker. The microphone data storage means stores microphone data including at least sound collection position data indicating the position at which sound is collected during the game and sound collection direction data indicating the sound collection direction in which sound is collected.
ゲームサウンド制御方法では、(a) サウンドオブジェクト毎に、音発生位置データと集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、算出した距離に基づいてサウンドオブジェクトがそれぞれ発生する音の音量データを算出し、(b)集音方向データと音発生位置データとに基づいて各々のサウンドオブジェクトについての定位データを算出し、(c)ステップ(b)で算出した定位データに基づいて、各々のサウンドオブジェクトの音量データを、スピーカから出力する音の右側音量成分と左側音量成分とに分割し、(d)すべてのサウンドオブジェクトを同じ音を発生するオブジェクトに分類し、(e)同じ音を発生するオブジェクトについてステップ(c)で分割した右側音量成分および左側音量成分のうち、最大の右側音量成分および最大の左側音量成分を抽出し、当該オブジェクトの波形データと最大の右側音量成分および最大の左側音量成分とに基づいて、サウンド出力制御手段がスピーカから音を出力するためのデータを生成し、そして(f)サウンド出力制御手段に、音の出力指示とステップ(e)で生成したデータとを与える。 In the game sound control method, (a) for each sound object, the distance between the sound object and the sound collection position is calculated from the sound generation position data and the sound collection position data, and the sound object is generated based on the calculated distance. Calculate sound volume data, (b) calculate localization data for each sound object based on the sound collection direction data and sound generation position data, and (c) based on the localization data calculated in step (b) The volume data of each sound object is divided into the right volume component and the left volume component of the sound output from the speaker , (d) all sound objects are classified into objects that generate the same sound, and (e) Of the right volume component and left volume component divided in step (c) for objects that generate the same sound, the largest right volume component and Extracting the maximum left volume components, based on the waveform data and the maximum of the right volume components and the maximum of the left volume component of the object, the sound output control means generates data for outputting the sound from the speaker, and (f) A sound output instruction and the data generated in step (e) are given to the sound output control means.
請求項9の発明は、プレイヤによる操作情報を入力するための操作手段を備え、操作手段の操作に応じてゲームを進行させて、少なくとも2つのオブジェクトを含むゲーム画面を表示するとともに、音を出力する左右2つのスピーカから、ゲーム画面に関連する音を発生するよう構成されたゲーム装置である。このゲーム装置は、波形データ記憶手段、音発生位置データ記憶手段、サウンド出力制御手段、マイクデータ記憶手段、音量データ算出手段、定位算出手段、音量成分分割手段、オブジェクト分類手段、音出力データ生成手段、および出力指示手段をさらに備える。
The invention of
請求項5の発明および請求項9の発明においても、請求項1の発明と同様に、音源の発音数を減らすことができるので、音源を効率的に使用することができる。
In the invention of
この発明によれば、同じ種類のサウンドオブジェクトについて、音の発生源を1つにまとめるので、音源を効率的に使用することができる。 According to the present invention, since the sound generation sources are grouped into one for the same type of sound object, the sound source can be used efficiently.
また、この発明によれば、音の発生源を1つにまとめるときに、違和感無くまとめることができるので、音源を効率的に使用しながら、しかもプレイヤに違和感や不自然さを感じさせることがない。 In addition, according to the present invention, when the sound sources are combined into one, it is possible to combine them without a sense of incongruity, so that it is possible to make the player feel uncomfortable or unnatural while using the sound source efficiently. Absent.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例のビデオゲームシステム10はビデオゲーム装置12を含む。ビデオゲーム装置12は、略立方体のハウジング14を含み、ハウジング14の上端に光ディスクドライブ16を備える。光ディスクドライブ16には、ゲームプログラム等を記憶した情報記憶媒体の一例である光ディスク18が装着される。ハウジング14の前面には複数の(実施例では4つの)コネクタ20が備えられる。これらコネクタ20は、ケーブル24によって、コントローラ22をビデオゲーム装置12に接続するためのものであり、この実施例では最大4つのコントローラ22をビデオゲーム装置12に接続することができる。
Referring to FIG. 1, the
コントローラ22は、その上面,下面,或いは側面などに、操作手段(コントロール)26を備える。操作手段26は,たとえば2つのアナログジョイスティック,1つの十字キー,複数のボタンスイッチ等を含む。1つのアナログジョイスティックは、スティックの傾き量と方向とによって、プレイヤキャラクタ(プレイヤがコントローラ22によって操作可能な動画キャラクタ)の移動方向および/または移動速度ないし移動量などを入力するために用いられる。他のアナログジョイスティックは、傾斜方向によって、仮想カメラの移動を制御する。十字スイッチは、アナログジョイスティックに代えてプレイヤキャラクタの移動方向を指示するために用いられる。ボタンスイッチは、プレイヤキャラクタの動作を指示するために利用されたり、3次元画像の仮想カメラの視点を切り換えたり、プレイヤキャラクタの移動スピード調節等に用いられる。ボタンスイッチは、さらに、たとえばメニュー選択やポインタあるいはカーソル移動を制御するのに用いられる。
The
ビデオゲーム装置12のハウジング14の前面のコネクタ20の下方には、少なくとも1つの(この実施例では2つの)メモリスロット28が備えられる。このメモリスロット28にはメモリカード30が挿入される。メモリカード30は、光ディスク18から読み出したゲームプログラム等をローディングして一時的に記憶したり、このゲームシステム10を利用してプレイしたゲームのゲームデータ(たとえばゲームの結果)を保存(セーブ)しておいたりするために利用される。
Below the
ビデオゲーム装置12のハウジング14の後面は、AVケーブルコネクタ(図示せず)を備え、そのコネクタを介して、AVケーブル32を通してビデオビデオゲーム装置12にモニタ34を接続する。このモニタ34は典型的にはカラーテレビジョン受像機であり、AVケーブル32は、ビデオゲーム装置12からの映像信号をカラーテレビのビデオ入力端子に入力し、音声信号が音声入力端子に入力される。したがって、カラーテレビ(モニタ)34の画面上にたとえば3次元(3D)ビデオゲームのゲーム画像が表示され、左右のスピーカ34aからゲーム音楽や効果音などのステレオゲーム音声、または2スピーカであってもサラウンド効果を出すことが可能な場合は、サラウンド音声を含むゲーム音声が出力される。
The rear surface of the
このゲームシステム10において、ユーザまたはゲームプレイヤがゲーム(または他のアプリケーション)をプレイするために、ユーザはまずゲーム装置12の電源をオンし、次いで、ユーザはビデオゲーム(もしくはプレイしたいと思う他のアプリケーション)をストアしている適宜の光ディスク18を選択し、その光ディスク18をゲーム装置12のディスクドライブ16にローディングする。応じて、ゲーム装置12がその光ディスク18にストアされているソフトウェアに基づいてビデオゲームもしくは他のアプリケーションを実行し始めるようにする。ユーザはゲーム装置12に入力を与えるためにコントローラ22を操作する。たとえば、操作手段26のどれかを操作することによってゲームもしくは他のアプリケーションをスタートさせる。操作手段26の他のものを動かすことによって、動画キャラクタ(プレイヤキャラクタ)を異なる方向に移動させ、または3次元(3D)のゲーム世界におけるユーザの視点(カメラ位置)を変化させることができる。
In this
図2は図1実施例のビデオゲームシステム10の電気的な構成を示すブロック図である。ビデオゲーム装置12は、中央処理ユニット(以下、「CPU」という。)36を含む。このCPU36は、コンピュータ或いはプロセサなどとも呼ばれ、ビデオゲーム装置12の全体的な制御を担当する。CPU36ないしコンピュータは、ゲームプロセサとして機能し、このCPU36には、バスを介して、メモリコントローラ38が接続される。メモリコントローラ38は主として、CPU36の制御の下で、バスを介して結合されるメインメモリ40の書込みや読出しを制御する。このメモリコントローラ38にはGPU(Graphics Processing Unit:グラフィックス処理装置) 42が接続される。
FIG. 2 is a block diagram showing an electrical configuration of the
GPU42は、描画手段の一部を形成し、たとえばシングルチップASICで構成され、メモリコントローラ38を介してCPU36からのグラフィクスコマンド(graphics command :作画命令) を受け、そのコマンドに従って、ジオメトリユニット44およびレンダリングユニット46によって3次元(3D)ゲーム画像を生成する。つまり、ジオメトリユニット44は、3次元座標系の各種キャラクタやオブジェクト(複数のポリゴンで構成されている。そして、ポリゴンとは少なくとも3つの頂点座標によって定義される多角形平面をいう)の回転,移動,変形等の座標演算処理を行う。レンダリングユニット46は、各種オブジェクトの各ポリゴンにテクスチャ(Texture :模様画像)を貼り付けるなどの画像生成処理を行う。したがって、GPU42によって、ゲーム画面上に表示すべき3D画像データが作成され、その画像データ(テクスチャデータ)がフレームバッファ48内に描画(記憶)される。
The
なお、GPU42が作画コマンドを実行するにあたって必要なデータ(プリミティブまたはポリゴンやテクスチャ等)は、GPU42がメモリコントローラ38を介して、メインメモリ40にアクセスして取得する。
Note that data (primitives, polygons, textures, etc.) necessary for the
フレームバッファ48は、たとえばラスタスキャンモニタ34の1フレーム分の画像データを描画(蓄積)しておくためのメモリであり、GPU42によって1フレーム毎に書き換えられる。後述のビデオI/F58がメモリコントローラ38を介してフレームバッファ48のデータを読み出すことによって、モニタ34の画面上に3Dゲーム画像が表示される。
The
また、Zバッファ50は、フレームバッファ48に対応する画素(記憶位置またはアドレス)数×1画素当たりの奥行データのビット数に相当する記憶容量を有し、フレームバッファ48の各記憶位置に対応するドットの奥行き情報または奥行データ(Z値)を記憶する。
The
なお、フレームバッファ48およびZバッファ50は、ともにメインメモリ40の一部を用いて構成されてもよい。
Note that both the
メモリコントローラ38はまた、DSP(Digital Signal Processor)52を介して、ARAM54に接続される。したがって、メモリコントローラ38は、メインメモリ40だけでなく、サブメモリとしてのARAM54の書込みおよび/または読出しを制御する。
The
DSP52は、サウンドプロセサとして働き、メインメモリ40に記憶されたサウンドデータ(図3参照)にアクセスしたり、ARAM54に書き込まれている音波形データ(図6参照)にアクセスしたりして、ゲームに必要な音、音声或いは音楽に対応するオーディオデータを生成する。たとえば、この実施例では、DSP52は、後で詳細に説明する“松明”、“川”のようなサウンドオブジェクトが発生する音に対応するオーディオデータを、音波形データを用いて生成する。
The
メモリコントローラ38は、さらに、バスによって、各インタフェース(I/F)56,58,60,62および64に接続される。コントローラI/F56は、コントローラ22のためのインタフェースであり、コントローラ22の操作手段26の操作信号またはデータをメモリコントローラ38を通してCPU36に送る。ビデオI/F58は、フレームバッファ48にアクセスし、GPU42で作成した画像データを読み出して、画像信号または画像データ(ディジタルRGBピクセル値)をAVケーブル32(図1)を介してモニタ34に送る。
The
外部メモリI/F60は、ゲーム装置12の前面に挿入されるメモリカード30(図1)をメモリコントローラ38に接続する。それによって、メモリコントローラ38を介して、CPU36がこのメモリカード30にデータを書込み、またはメモリカード30からデータを読み出すことができる。オーディオI/F62は、メモリコントローラ38を通してDSP52から与えられるオーディオデータまたは光ディスク18から読み出されたオーディオストリームを、それらに応じたオーディオ信号(音声信号)としてモニタ34のスピーカ34aに送る。
The external memory I /
なお、ステレオ音声の場合には、スピーカ34aは、少なくとも、左右1つずつ設けられる。また、サラウンド処理することで、左右2つのスピーカのみであっても後方から音が発生しているように音を聞かせることも可能である。
In the case of stereo sound, at least one
そして、ディスクI/F64は、そのディスクドライブ16をメモリコントローラ38に接続し、したがって、CPU36がディスクドライブ16を制御する。このディスクドライブ16によって光ディスク18から読み出されたプログラムデータやテクスチャデータ等が、CPU36の制御の下で、メインメモリ40に書き込まれる。
Then, the disk I /
図3はメインメモリ40のメモリマップである。メインメモリ40は、プログラム領域70、オブジェクトデータ記憶領域72、マイクデータ記憶領域74およびサウンド出力制御データ記憶領域76を含む。プログラム記憶領域70には、光ディスク18から読み出したゲームプログラムが、1度にまたは部分的にかつ順次的に、記憶される。このゲームプログラムは、この実施例では、ゲームメイン処理プログラム70a、画像処理プログラム70bおよびサウンド制御処理プログラム70cなどによって構成される。
FIG. 3 is a memory map of the
オブジェクトデータ記憶領域72には、たとえば、オブジェクトA(松明1)データ72a、オブジェクトB(松明2)データ72bおよびオブジェクトC(川1)データ72cのようなノンプレイヤオブジェクトについてのデータが光ディスク18から読み出されロードされる。図示は省略するが、さらに、プレイヤキャラクタオブジェクトデータや敵キャラクタオブジェクトデータのようなゲームキャラクタのデータやゲーム世界(マップ)のデータも記憶領域72にロードされる。
In the object
なお、オブジェクトAデータ72a、オブジェクトBデータ72bおよびオブジェクトCデータ72cなどの各オブジェクトデータは、ポリゴンによって形成される。
Each object data such as the
また、メインメモリ40には、上記各キャラクタおよびオブジェクト等のデータを光ディスク18から必要に応じてロードするようにしてもよい。
The
マイクデータ記憶領域74には、仮想カメラとともに設けられる仮想マイク86(図8参照)のゲーム世界における位置(集音位置)を示す座標データ(集音位置データ)74aおよび当該位置に対応して予め決定される仮想マイク86の集音方向を示す集音方向データ74bが光ディスク18から読み出されロードされる。
In the microphone
サウンド出力制御データ記憶領域76には、サウンドAデータ760およびサウンドBデータ762などのサウンドデータが記憶される。ただし、これらのサウンドデータは、後述するサウンド制御処理によって算出されたデータである。サウンドAデータ760は、この実施例では、“松明”についてのサウンドデータであり、定位データ760aおよび音量データ760bを含む。また、サウンドBデータ762は、この実施例では、“川”についてのサウンドデータであり、定位データ762aおよび音量データ762bを含む。定位データは、ゲーム世界上のオブジェクト(松明或いは川など)が音を発生する方向を示すデータであり、音量データは当該オブジェクト(松明或いは川など)が発生する音の音量を示すデータである。
The sound output control
なお、図示は省略するが、サウンド出力制御データ記憶領域76には、ゲームに必要な音、音楽および音声などのデータもロードされ書き込まれる。
Although illustration is omitted, the sound output control
また、サウンド制御処理プログラム70cは、図4に示すように、音量データ算出プログラム700、定位算出プログラム702、オブジェクト分類プログラム704、音量データ成分算出プログラム706、最大音量成分データ抽出プログラム708およびレールデータ近接座標算出プログラム710を含む。ただし、これらのプログラムは別個独立に実行されるのではなく、後述するように、一連の流れに沿って実行される(図14および図15参照)。
Further, as shown in FIG. 4, the sound
さらに、オブジェクトAデータ72a〜オブジェクトCデータ72cは、図5に示すように構成される。オブジェクトAデータ72aは、オブジェクトA(松明1)をモニタ34に表示するための画像表示用データ720および当該オブジェクトA(松明1)が発生する音をスピーカ34aから出力するためのサウンドデータ722を含む。
Further, the
また、サウンドデータ722は、音指定データ722a、座標データ722b、音量データ722cおよび音優先順位データ722dを含む。音指定データ722aは、当該オブジェクトAが発生する音を出力する場合に、使用する音波形データをARAM54に記憶される複数の音波形データ(図6参照)から指定(選択)するためのインデックスデータである。座標データ722bは、当該オブジェクトAが存在するゲーム世界上の位置を示し、この実施例では、3次元座標で表される。
The
ただし、オブジェクトAは松明であり、このような松明はゲーム世界上の所定位置に配置されるため、したがって、この場合は座標データはサウンドオブジェクトの音の位置を示すこととなる。 However, the object A is a torch, and such a torch is arranged at a predetermined position in the game world. Therefore, in this case, the coordinate data indicates the position of the sound of the sound object.
音量データ722cは、当該オブジェクトAが発生する音の音量を示すデータである。また、音優先順位データ722dは、モニタ34の一画面に表示されるゲーム世界内に複数のオブジェクト(サウンドオブジェクト)が存在し、使用可能な音源の発音数、すなわちDSP52が使用可能な最大同時発音数を超えた場合に、当該サウンドオブジェクトを他のサウンドオブジェクトと比較して、音を発生するか否かを決定するためのデータである。つまり、音源の発音数が足りない場合には、優先順位の低いサウンドオブジェクトの音は発せられない。
The
オブジェクトBデータ72bは、画像表示用データ724およびサウンドデータ726を含む。オブジェクトB(松明2)は、オブジェクトA(松明1)と同じ種類のオブジェクトデータであるため、画像表示用データ724およびサウンドデータ726は、上述した内容と同じである。ただし、オブジェクトBは、オブジェクトAとはゲーム世界上の異なる位置に配置されるため、それに従って、サウンドデータ726の座標データ726b、音量データ726cおよび音優先順位データ726dの内容が異なる。
The
なお、音指定データ726aは、オブジェクトAとオブジェクトBとが同じ種類のサウンドオブジェクトであるため、音指定データ722aと同じデータである。
The
オブジェクトCデータ72cは、オブジェクトC(川1)をモニタ34に表示するための画像表示用データ728および当該オブジェクトC(川1)が発生する音をスピーカ34aから出力するためのサウンドデータ730を含む。また、サウンドデータ730は、オブジェクトAおよびオブジェクトBと同様に、音指定データ730a、座標データ730b、音量データ730cおよび音優先順位データ730dを含む。各データの内容は、オブジェクトAおよびオブジェクトBについてのデータと略同じであるが、オブジェクトCは“川”であり、使用する音波形データが松明とは異なるため、音指定データ730aの内容が異なる。また、このオブジェクトCでは、川の流れに沿うように、複数のサウンドオブジェクトの音が設けられるため、座標データ730bには複数の座標が記述される。つまり、少なくとも2つ以上の座標データで定義されるレールデータが記憶される。また、音量データ730には、当該レールデータによって決定されるレール(図12参照)のそれぞれに対応する音量データが記憶される。
The
また、上述したような音波形データは、音波形データ記憶領域、この実施例では、サブメモリとしてのARAM54に光ディスク18からロードされ書き込まれる。図6に示すように、たとえば、ARAM54には、松明の燃える音についての音波形Aデータ54a、川の流れる音についての音波形Bデータ54bおよび波の音についての音波形Cデータ54cなどが記憶される。図示は省略するが、他のサウンドオブジェクトについての音波形データも記憶される。DSP52は、CPU36の指示の下、音波形データ54a,54b,54c,…のいずれか1つ或いは2つ以上にアクセスして、サウンドオブジェクトが発生する音のオーディオデータを生成する。生成されたオーディオデータは、オーディオI/F62でオーディオ信号に変換された後、スピーカ34aに出力される。
The sound wave data as described above is loaded and written from the
図7には、モニタ34にゲーム画面80が表示され、当該ゲーム画面80が表示される場合において、左右のスピーカ34aおよびサラウンドスピーカから出力されるサウンドオブジェクトの音(松明が燃える音)の大きさが模式的に示される。ただし、この図7に示す例では、3つの松明をそれぞれサウンドオブジェクトとして用いて音を出力した場合について示してある。また、プレイヤないしユーザは、ゲーム画面80(モニタ34)の正面であり、左右のスピーカ34aとサラウンドスピーカによって囲まれるように位置する。
In FIG. 7, when the
ゲーム画面80では、プレイヤオブジェクト82は、画面中央の下側に配置され、プレイヤに対して背を向けるように立っている。このプレイヤオブジェクト82の後方に松明84aが配置され、プレイヤオブジェクト82の左斜め前に松明84bが配置され、そして、プレイヤオブジェクト82の右斜め前方に松明84cが配置される。また、ゲーム画面80の奥行き方向のみについて考えると、一番手前に松明84aが配置され、その次に松明84bが配置され、一番奥に松明84cが配置される。さらに、ゲーム画面80の横方向(幅方向)のみについて考えると、ゲーム画面80の右側に松明84aが配置され、ゲーム画面80の左側に松明84bが配置され、ゲーム画面80の略中央に松明84cが配置される。
On the
このようなゲーム画面80は、ゲーム世界で移動可能に設けられる仮想カメラで撮影した映像(画像)に基づいて生成およびモニタ34に描画(表示)される。図8に示すように、ゲーム世界では、プレイヤオブジェクト82、松明84a〜84cおよび仮想マイク86は、それぞれ、3次元座標で互いの位置関係が表わされる。これは、上述したオブジェクトデータに含まれる座標データ(図5)によって決定される。たとえば、プレイヤオブジェクト82は、3次元座標(xp,yp,zp)で示される位置に存在する。また、松明84a、松明84bおよび松明84cは、それぞれ、3次元座標(x1,y1,z1)、(x2,y2,z2)および(x3,y3,z3)で示される位置に存在する。さらに、仮想マイク86は、3次元座標(xm,ym,zm)で示される位置に存在する。
Such a
なお、図面の都合上、仮想カメラは図示していないが、この実施例では、仮想マイク86と同じ位置に存在する。
For convenience of drawing, the virtual camera is not shown, but in this embodiment, it exists at the same position as the
上述したように、ゲーム画面80は仮想カメラで撮影した映像(画像)をモニタ34に表示するのであるが、ゲーム世界のワールド座標系を3次元のカメラ座標に変換することにより、仮想カメラの撮影方向についての画像を表示するようにしてある。
As described above, the
つまり、図9に示すように、仮想カメラの撮影方向すなわち仮想マイク86の集音方向は、プレイヤキャラクタ82と仮想マイク86とを結ぶ線上に決定され、当該線をZ′軸に決定する。ただし、仮想マイク86の集音方向は、上述したようなマイクデータ記憶領域74に記憶される座標データ74aに対応して記憶される集音方向データ74bによって決定される。また、Z′軸を仮想マイク86の位置を中心に右回りに90度回転させた軸をX′軸に決定する。次いで、図10に示すように、仮想マイク86の位置が原点位置(0,0,0)となり、Z′軸およびX′軸が、それぞれ、Z軸およびX軸に重なるように、座標変換が行われる。具体的には、図9に示した仮想マイク86の位置を原点位置に平行移動した後、Z′軸およびX′軸がZ軸およびX軸のそれぞれに重なるように、原点を中心に仮想カメラで撮影されるゲーム世界を回転すればよい。このようにして、図7に示したようなゲーム画像80がモニタ34に表示される。
That is, as shown in FIG. 9, the shooting direction of the virtual camera, that is, the sound collection direction of the
また、図7に示したようなゲーム画面80が表示されている場合には、ゲームのBGMやサウンドオブジェクトが発生する音(松明が燃える音)が左右のスピーカ34aおよびサラウンドスピーカから出力される。ただし、図7においては、簡単に説明するために、松明が燃える音の音量についてのみ模式的に示し、BGMのようなサウンドオブジェクトが発生する音以外の音の音量については省略してある。
When the
ここで、スピーカ34から出力される音の大きさを、大、中および小の3段階で表すと、松明84aの燃える音については、右のスピーカ34aの音量が大きく、左のスピーカ34aの音量が中くらいであり、そして、サラウンドスピーカの音量は小さい。また、松明84bの燃える音については、右のスピーカ34aの音量が小さく、左のスピーカ34aの音量およびサラウンドスピーカの音量が中くらいである。さらに、松明84cの燃える音については、右のスピーカ34aの音量および左のスピーカ34aの音量が小さく、サラウンドスピーカの音量が大きい。
Here, when the loudness of the sound output from the
したがって、図7に示すように、松明84aが燃える音は、右のスピーカ34aとサラウンドスピーカとの間で大きい音量で聞こえるように出力される。また、松明84bが燃える音は、左のスピーカ34aとサラウンドスピーカとの間で中くらいの音量で聞こえるように出力される。さらに、松明84cが燃える音は、左右のスピーカ34aの略中央で小さい音量で聞こえるように出力される。
Therefore, as shown in FIG. 7, the sound of burning
なお、図1においては、サラウンドスピーカは省略してあるが、サラウンドスピーカは別途設けるようにしてもよく、また、左右のスピーカ34aの音量および定位を調整することにより、仮想のサラウンドスピーカが設けられるようにしてもよい。後者の場合には、特開2000−93579号公報に開示された構成および方法を採用することができる。
In FIG. 1, surround speakers are omitted, but surround speakers may be provided separately, and virtual surround speakers are provided by adjusting the volume and localization of the left and
このように、ゲーム画面80上に表示されるサウンドオブジェクトのそれぞれに対応して音源から音を出力する場合には、図10に示したように、3次元のカメラ座標に変換した後の原点を中心として、Z軸から回転角度によって集音方向が決定され、また原点とサウンドオブジェクトとの距離によって出力する音(各サウンドオブジェクトを鳴らす場合の音)の音量が決定される。しかし、ゲーム装置12では、ゲーム中のBGMや効果音などの音(音楽)も鳴らす必要があるため、ゲーム画面80上に多数のサウンドオブジェクトが存在する場合には、使用可能な音源の発音数すなわちDSP52が使用可能な最大同時発音数を超えてしまう。
As described above, when sound is output from the sound source corresponding to each of the sound objects displayed on the
かかる場合には、たとえば、優先順位データ(図5参照)に従って音を出力しないサウンドオブジェクトを決定することも考えられるが、図7に示したように、左右に松明が存在する場合に、一方の松明の音が出力されなくなるのは、違和感がある。また、重要な音でなくても、それが出力されないことにより、ゲームの臨場感を消失してしまうこともある。 In such a case, for example, it may be possible to determine a sound object that does not output sound according to the priority order data (see FIG. 5). However, when torches are present on the left and right as shown in FIG. It is uncomfortable that the torches are not output. Also, even if the sound is not important, it may not be output, and the sense of reality of the game may be lost.
そこで、この実施例では、同じ種類のサウンドオブジェクトがゲーム画面80に複数存在する場合には、音源において1つの発音だけで音を出力するようにして、使用する音源を節約するようにしてある。つまり、音源を効率的に使用するようにしてある。
Therefore, in this embodiment, when there are a plurality of sound objects of the same type on the
具体的に言うと、ゲーム画面80に存在するすべてのサウンドオブジェクトについて、それぞれの座標(3次元座標)に基づいて、原点位置との距離および音の発生方向(Z軸となす角)すなわち定位を、数1および数2のそれぞれに従って算出する。ただし、後述するように、原点との距離を用いて音量(データ)を算出するが、当該音量を求める場合には、Y軸成分は無視してよいので、数1においては、X成分とZ成分とに基づいて距離を算出するようにしてある。
Specifically, for all sound objects existing on the
[数1]
距離DP=√{(XP)2 +(ZP)2 }
ただし、P=1,2,3,…,m,…,pである。
[Equation 1]
Distance DP = √ {(XP) 2 + (ZP) 2}
However, P = 1, 2, 3,..., M,.
[数2]
発生方向(定位)θ=sin-1(|XP|/DP)
=cos-1(|ZP|/DP)
ただし、|・|は絶対値を意味し、XPおよびZPはサウンドオブジェクトの座標に含まれる数値であり、DPは数1で求めた距離である。
[Equation 2]
Generation direction (localization) θ = sin −1 (| XP | / DP)
= Cos-1 (| ZP | / DP)
However, | · | means an absolute value, XP and ZP are numerical values included in the coordinates of the sound object, and DP is a distance obtained by
次いで、数1を用いて算出した距離に基づいて当該サウンドオブジェクトについて鳴らす音量(データ)VPが数3に従って算出される。
Next, the sound volume (data) VP to be sounded for the sound object is calculated according to
[数3]
音量VP=(1−(DP/VD))×Vo
ただし、DPは数1で求めた距離であり、VDは音が聞こえなくなる距離であり、Voは当該サウンドオブジェクトの音量(データ)の初期値である。ここで、VDは当該ゲームのプログラマ或いは開発者によって予め決定される値である。また、Voは図5に示した音量データ722c、音量データ726cおよび音量データ730c等によって予め決定される音量の初期値である。
[Equation 3]
Volume VP = (1− (DP / VD)) × Vo
However, DP is a distance obtained by
このようにして、各サウンドオブジェクトを鳴らす場合の定位データおよび音量データが算出されるのである。続いて、同じ音を発生するサウンドオブジェクト毎に、サウンドオブジェクトを分類する。また、各サウンドオブジェクトについて算出した音量データと定位データとから、スピーカ34aから出力する音の音量の各成分、この実施例では、L(左側音量成分)、R(右側音量成分)およびサラウンド(以下、「SR」という。)成分を算出する。次に、同じ音を発生するサウンドオブジェクトの中から、L、RおよびSR成分のそれぞれについて最大値を選択する。続いて、選択したL、RおよびSR成分の最大値から、DSP52が出力する音の音量および定位を処理する。そして、処理した音量および定位に基づいて音がスピーカ34a,34bから出力される。
In this way, localization data and sound volume data for sounding each sound object are calculated. Subsequently, the sound objects are classified for each sound object that generates the same sound. Also, from the volume data and localization data calculated for each sound object, each component of the volume of the sound output from the
つまり、図10に示した例では、松明84a、松明84bおよび松明84cを1つにまとめた仮想の松明を求めて、当該仮想の松明が燃える音を出力していると考えることができる。このように、仮想の松明を求めるようにした場合であっても、当該松明が燃える音はゲームの臨場感を出すために出力される音であるため、プレイヤないしユーザはさほど違和感を覚えることはない。
That is, in the example shown in FIG. 10, it can be considered that a virtual torch obtained by combining the
また、上述の例では、1つのサウンドオブジェクトの音が複数存在する場合について説明したが、サウンドオブジェクトとしては川や波のように1つのオブジェクトで複数の点音源が含まれるものも存在する。このようなサウンドオブジェクトも、同じ種類のサウンドオブジェクト(音源)が複数存在するものと考えることができる。 In the above-described example, the case where there are a plurality of sounds of one sound object has been described. However, there are some sound objects such as rivers and waves that include a plurality of point sound sources. Such a sound object can also be considered to have a plurality of sound objects (sound sources) of the same type.
たとえば、図11に示すようなゲーム画面80が表示される場合には、図9および図10を用いて説明した場合と同様にして、ゲーム世界のワールド座標系がカメラ座標に変換される。このゲーム画面80では、プレイヤオブジェクト82および“川”のようなサウンドオブジェクト88が表示される。
For example, when a
また、図12に示すように、“川”のようなサウンドオブジェクト88では、サウンドオブジェクトの音の位置はいわゆるレールデータで表される。この図12から分かるように、川の両側に直線(線分)或いは折れ線(複数の線分が連結される曲線)で示される複数のレール92,94,96,98,100,102,104が設定され、レール92〜104のそれぞれは、座標データが示す座標を結んだ直線(線分)上のいずれかの点から音を発生する点のサウンドオブジェクトとして定義される。たとえば、仮想マイク86の存在する位置(集音位置)とレールとの近接点、つまりレール上の点であり仮想マイク86の座標(点)と最も距離が短い点がサウンドオブジェクトの位置に決定され、当該サウンドオブジェクトと仮想マイク86との距離に応じて、当該サウンドオブジェクトを鳴らす音の音量が計算される。
Also, as shown in FIG. 12, in the
しかし、上述したように、使用可能な最大同時発音数を超える場合には、優先順位に従って鳴らさないサウンドオブジェクトの音が決定されるため、音が欠けてしまい、したがって、臨場感を消失したり、違和感を覚えたりしてしまう。 However, as described above, when the maximum number of simultaneous pronunciations that can be used is exceeded, the sound of the sound object that does not sound according to the priority order is determined, so the sound is lost, and therefore, the sense of reality disappears, I feel uncomfortable.
このため、松明のようなサウンドオブジェクトの音と同様に、仮想のサウンドオブジェクトを求めて、音源において1つの発音だけで音を出力するようにしてある。 For this reason, a virtual sound object is obtained in the same manner as the sound of a sound object such as a torch, and the sound is output with only one pronunciation in the sound source.
まず、点のサウンドオブジェクトの位置を決定するために、上述したように、仮想マイク86との近接点がレール92〜104のそれぞれについて求められる。具体的には、レールに直交する、かつ、原点を通る直線が存在するか否かをレール92〜104のそれぞれについて求める。このような直線が存在する場合には、当該直線とレールとが直交する点(レール上の点)に1つの位置が決定される。つまり、1つのサウンドオブジェクトが定義される。ただし、レール94、98、102および104のように、2つ以上の線分が連結された曲線でレールが構成される場合には、1つのレール上に存在するサウンドオブジェクトの位置のうち、原点との距離が一番短いサウンドオブジェクトの位置を含む線分についてのみ、上述したような直線が存在するか否かが求められる。一方、線分に直交し、かつ、原点を通る直線が存在しない場合には、レールデータとしての座標データが示す座標と原点との距離が算出され、一番距離が短い点(座標)がサウンドオブジェクトの位置に決定される。
First, in order to determine the position of the sound object of a point, as described above, a proximity point with the
なお、図12においては、分かり易くするために、選出されたサウンドオブジェクトの位置に白△印を付してある。 In FIG. 12, for easy understanding, the position of the selected sound object is marked with a white triangle.
また、距離の計算は、数1で示した場合と同様に、原点の座標とレールデータとしての座標データが示す座標とから簡単に求めることができる。
Also, the distance can be calculated easily from the coordinates of the origin and the coordinates indicated by the coordinate data as rail data, as in the case of
ただし、各レールに直交し、かつ、原点を通る直線を算出するなどの処理を実行するのは煩雑であるため、そのような直線が存在しない場合と同様に、レールデータとしての座標データが示す座標(点)のうち、仮想マイク86の座標(点)との距離が一番短い座標(点)にサウンドオブジェクトの位置を決定するようにしてもよい。かかる場合には、レールデータとしての座標データが示す座標(点)と仮想マイク86の座標(点)との距離を計算するだけなので、処理負担を軽減することができる。
However, since it is cumbersome to execute processing such as calculating a straight line that is orthogonal to each rail and passes through the origin, the coordinate data as the rail data indicates the same as when there is no such straight line. Of the coordinates (points), the position of the sound object may be determined at the coordinate (point) having the shortest distance from the coordinates (point) of the
このようにして、レール92〜104のそれぞれからサウンドオブジェクトが選出されると、選出されたサウンドオブジェクトのそれぞれについて、算出した距離を用いて数3に従って当該サウンドオブジェクトの音を鳴らす音量データを計算し、また、選出されたサウンドオブジェクトの位置の3次元座標と算出した距離を用いて数2に従って定位データを算出する。次に、算出した音量データと定位データとから、各サウンドオブジェクトの音の位置についてのL,RおよびSR成分を算出し、算出した結果からL,RおよびSRの最大値を選択する。続いて、選択したL,RおよびSR成分の最大値から音量と定位とを算出する。つまり、“川”のようなサウンドオブジェクトについての仮想のサウンドオブジェクトの音の位置、音源を用いて出力する音の音量および定位が決定される。そして、決定された音量と定位とに基づいて音源から音が出力される。
In this way, when a sound object is selected from each of the
上述したような動作は、図2に示したCPU36によって、図13〜図16に示すようなフロー図に従って処理される。光ディスク18がゲーム装置12のディスクドライブ16にローディングされると、図13に示すように、CPU36はゲーム処理を開始し、ステップS1で光ディスク18からプログラム(ゲームメイン処理プログラム、画像処理プログラムおよびサウンド制御処理プログラムなど)およびデータ(オブジェクトデータおよびマイクデータ等)をメインメモリ40にロードする。続くステップS3では、ゲームに必要な音波形データをARAM54にロードする。
The operation as described above is processed by the
ステップS5では、入力があるかどうかを判断する。つまり、コントローラ22からの入力があるかどうかを判断する。ステップS5で“NO”であれば、つまりコントローラ22からの入力がなければ、そのままステップS11に進んで、オブジェクト描画処理、厳密には敵キャラクタの描画処理などを実行する。一方、ステップS5で“YES”であれば、つまりコントローラ22からの入力があれば、ステップS7においてそのコントローラ入力に応じてプレイヤキャラクタの動作処理を実行する。プレイヤないしユーザは、図7に示したようなゲーム画面82において、プレイヤキャラクタ82の位置を変更する場合には、コントローラ22の操作手段26(図1)のうち、アナログジョイスティック(または3Dジョイスティック)を操作する。したがって、CPU36は、このステップS7では、たとえばジョイスティックの傾斜方向および傾斜量のデータをコントローラI/F56から受けて、そのデータに基づいて、プレイヤキャラクタ82の位置をワールド座標系において変更する。
In step S5, it is determined whether there is an input. That is, it is determined whether there is an input from the
続くステップS9では、カメラ処理(マイク処理)を実行する。つまり、ステップS7において更新されたプレイヤキャラクタの位置に応じて、ワールド座標系での仮想カメラ(仮想マイク86)の位置を更新する。次にステップS11では、オブジェクト描画処理を実行する。つまり、CPU36は、上述したプレイヤキャラクタやサウンドオブジェクトなどの位置(3次元位置)を仮想カメラすなわち仮想マイク86を基準位置(原点位置)とする3次元のカメラ座標系に変換する。そして、3次元のカメラ座標系を2次元の投陰平面座標系に変換するとともに、テクスチャの指定やクリッピング(clipping:不可視世界の切り取り)等も併せて実行する。その後、ゲーム画像の生成処理によってゲーム画像が生成され、ゲーム画面をモニタ34(図1)に表示する。つまり、CPU36がビデオI/F58に指令を与え、応じて、ビデオI/F58がフレームバッファ48(図2)にアクセスする。したがって、フレームバッファ48からモニタ34に表示すべき画像データが読み出され、ゲーム画像(ゲーム画面)が表示される。
In subsequent step S9, camera processing (microphone processing) is executed. That is, the position of the virtual camera (virtual microphone 86) in the world coordinate system is updated according to the position of the player character updated in step S7. In step S11, an object drawing process is executed. That is, the
なお、この実施例では、ゲーム画像の生成処理についての詳細な説明は省略する。 In this embodiment, a detailed description of the game image generation process is omitted.
続くステップS13では、後で詳細に説明するサウンド制御処理を実行する。次いで、ステップS15では、その他のゲーム処理を実行する。その他のゲーム処理としては、ゲームの進行によって発生したゲームデータのバックアップ(セーブ)処理などが該当する。たとえば、ゲームの進行に従って、ゲームデータがメインメモリ40のワーク領域(図示せず)に書き込まれ、ゲームデータは逐次更新される。そして、プレイヤないしユーザの指示や所定のイベントに従って、バックアップ処理が実行されると、メインメモリ40のワーク領域に書き込まれているゲームデータが外部メモリI/F60を介してメモリカード30に記憶される(図2)。
In the subsequent step S13, a sound control process which will be described in detail later is executed. Next, in step S15, other game processes are executed. Other game processing includes backup (save) processing of game data generated by the progress of the game. For example, game data is written in a work area (not shown) of the
そして、ステップS17では、ゲーム終了かどうかを判断する。ステップS17で“NO”であれば、つまりゲーム終了でなければ、そのままステップS5に戻る。一方、ステップS17で“YES”であれば、つまりゲーム終了であれば、そのままゲーム処理を終了する。 In step S17, it is determined whether or not the game is over. If “NO” in the step S17, that is, if the game is not ended, the process returns to the step S5 as it is. On the other hand, if “YES” in the step S17, that is, if the game is ended, the game process is ended as it is.
図14に示すように、サウンド制御処理が開始されると、CPU36は、ステップS21でオブジェクトの座標データを取得する。つまり、ゲーム画面80に表示されるサウンドオブジェクトについての座標データをメインメモリ40のオブジェクトデータ記憶領域72(図3、図5)から取得する。次にステップS23では、図9および図10を用いて説明したように、仮想マイク86の位置を原点として座標変換を行う。ただし、上述したように、ステップS11のオブジェクト描画処理において、同様の座標変換を行っているため、その結果を利用するようにしてもよい。
As shown in FIG. 14, when the sound control process is started, the
続くステップS25では、サウンドオブジェクトの座標データがレールデータであるかどうかを判断する。つまり、オブジェクトデータ記憶領域72に記憶されるオブジェクトデータに複数の座標データが記述されているか否かを判断する。ただし、サウンドオブジェクトの位置のデータ或いはレールデータの別を示すラベルをオブジェクト毎に付しておき、当該ラベルで判別できるようにしておいてもよい。
In a succeeding step S25, it is determined whether or not the coordinate data of the sound object is rail data. That is, it is determined whether or not a plurality of coordinate data is described in the object data stored in the object
ステップS25で“NO”であれば、つまりレールデータでなければ、そのままステップS29に進むが、“YES”であれば、つまりレールデータであれば、ステップS27で後述するレールデータ処理を実行してからステップS29に進む。 If “NO” in the step S25, that is, if it is not rail data, the process proceeds to the step S29 as it is, but if “YES”, that is, if it is rail data, a rail data process described later is executed in a step S27. To step S29.
ステップS29では、最初のオブジェクトの座標データを検索する。ただし、検索するオブジェクトの順番は、CPU36が任意に決定している。続くステップS31では、当該オブジェクトの座標データから数1に従って距離を求めて、当該距離を用いて、数3に従って当該オブジェクトを鳴らす音の音量データを算出する。次に、ステップS33では、当該オブジェクトの座標データおよび数1で求めた距離を用いて、数2に従って音の発生方向を算出する。つまり、定位データが算出される。そして、ステップS35では、すべてのオブジェクトについて音量データと定位データとの算出処理を終了したかどうかを判断する。
In step S29, the coordinate data of the first object is searched. However, the
ステップS35で“NO”であれば、つまりすべてのオブジェクトについて音量データと定位データとの算出処理を終了していなければ、ステップS37で次のオブジェクトの座標データを検索してから、ステップS31に戻る。一方、ステップS35で“YES”であれば、つまりすべてのオブジェクトについて音量データと定位データとの算出処理を終了すれば、図15に示すステップS39で、オブジェクトを分類して、音源の発音を一本化する(音源において発音を1つにまとめる)オブジェクトを特定する。つまり、松明のようなサウンドオブジェクトが複数存在する場合や川のようなサウンドオブジェクトが存在する場合には、当該ステップS39で、音源の発音を1つにまとめるべきオブジェクトが特定される。 If “NO” in the step S35, that is, if the calculation processing of the volume data and the localization data is not finished for all the objects, the coordinate data of the next object is searched in the step S37, and then the process returns to the step S31. . On the other hand, if “YES” in the step S35, that is, if the calculation processing of the sound volume data and the localization data is finished for all the objects, the objects are classified in step S39 shown in FIG. The object to be materialized (to combine the pronunciation in the sound source into one) is specified. That is, when there are a plurality of sound objects such as torches, or when there is a sound object such as a river, in step S39, the objects for which the sound sources are to be combined are specified.
続くステップS41では、特定したオブジェクトの分類に含まれる1番目のオブジェクトについて、S31およびS33おいて算出した音量データと定位データとを取得する。ただし、取得するオブジェクトの順番は、CPU36が任意に決定している。続くステップS43では、取得した音量データと定位データとを用いて、L,R,SR成分を算出する。次いで、ステップS45では、一本化するオブジェクトについてすべて終了したかどうかを判断する。つまり、ステップS39において特定したオブジェクトの分類に含まれるすべてのオブジェクトについて、L,R,SR成分を算出したかどうかを判断する。
In the subsequent step S41, the volume data and localization data calculated in S31 and S33 are acquired for the first object included in the identified object classification. However, the
ステップS45で“NO”であれば、つまりすべてのオブジェクトについてのL,R,SR成分の算出を終了していなければ、ステップS47で次のオブジェクトを検索して、ステップS43に戻る。一方、ステップS45で“YES”であれば、つまりすべてのオブジェクトについてのL,R,SR成分の算出を終了すれば、ステップS49で算出したすべてのオブジェクトについてのL,R,SR成分からそれぞれの最大値を選択する。 If “NO” in the step S45, that is, if the calculation of the L, R, and SR components for all the objects has not been completed, the next object is searched in the step S47, and the process returns to the step S43. On the other hand, if “YES” in the step S45, that is, if the calculation of the L, R, and SR components for all the objects is finished, the respective L, R, and SR components for all the objects calculated in the step S49 are determined. Select the maximum value.
続くステップS51では、選択したL,R,SR成分のそれぞれの最大値からスピーカ34a,34bから出力する音の音量と定位をDSP52が処理する。言い換えると、仮想の1つのサウンドオブジェクトを特定して、当該サウンドオブジェクトの音量と定位とを処理するのである。そして、ステップS53では、ステップS51において処理した音量データおよび定位データとに基づいてサウンド(音)をスピーカ34a,34bから出力する。つまり、CPU36は、DSP52に対して音の出力制御の指示を与えるとともに、音量データおよび定位データからL、RおよびSR成分を算出して、算出結果をDSP52に与える。これに応じて、DSP52は、該当する音波形データをARAM54から読み出し、L、RおよびSR成分の算出結果に従って音データを生成する。そして、DSP52は、生成した音データをオーディオI/F62に与える。したがって、アナログ信号に変換された音信号がスピーカ34aから出力される。
In subsequent step S51, the
ただし、一本化するオブジェクトの種類が複数存在する場合には、その数に応じてステップS41からS53の処理が繰り返される。 However, when there are a plurality of types of objects to be unified, the processes of steps S41 to S53 are repeated according to the number of objects.
なお、一度算出された音量データおよび定位データは、ゲーム世界における仮想カメラ(仮想マイク86)の3次元座標に対応づけられて、図3を用いて説明したように、メインメモリ40のサウンド出力制御データ記憶領域76に記憶される。たとえば、メインメモリ40への書込処理は、図13に示したステップS15のその他のゲーム処理で実行すればよい。したがって、次回以降、同じ位置に仮想マイク86が存在する場合には、図14および図15に示したサウンド制御処理を実行することなく、メインメモリ40を参照して、同じ種類の複数のサウンドオブジェクト或いは複数の音源の発音を要するサウンドオブジェクトについての音を、音源の発音1つだけを用いて容易に出力することができる。
The volume data and the localization data calculated once are associated with the three-dimensional coordinates of the virtual camera (virtual microphone 86) in the game world, and as described with reference to FIG. 3, the sound output control of the
また、この実施例では、同じ種類の複数のサウンドオブジェクトが発生する音を音源の1つの発音で出力するようにしたため、L、RおよびSR成分の最大値を取得した後に、それらを用いて音量データおよび定位データを算出するようにしてあるが、取得した最大値をDSP52にそのまま与える(転送する)ようにしてもよい。このようにしても、同じ種類の複数のサウンドオブジェクトが発生する音を1つにまとめることができるので、使用する音源の発音数を低減することができる。
Further, in this embodiment, since sounds generated by a plurality of sound objects of the same type are output with one sound source, after obtaining the maximum values of the L, R, and SR components, the sound volume is obtained using them. Data and localization data are calculated, but the acquired maximum value may be given (transferred) to the
図16に示すように、レールデータ処理が開始されると、ステップS61でオブジェクトの座標リストを取得する。つまり、複数の3次元座標データを取得する。そして、ステッS63では、各レールから原点との距離が最も小さくなる点、すなわち原点と最も接近する点の座標を算出する。つまり、各レールをサウンドオブジェクトに置き換える。 As shown in FIG. 16, when the rail data processing is started, an object coordinate list is acquired in step S61. That is, a plurality of three-dimensional coordinate data is acquired. In step S63, the coordinates of the point where the distance from each rail is the smallest, that is, the point closest to the origin is calculated. That is, replace each rail with a sound object.
なお、上述のゲーム処理では、プレイヤキャラクタの位置が更新された場合に、サウンド制御処理を実行するようにしたが、たとえばコントローラ22の操作手段26のうち、たとえばボタンスイッチを操作することにより、3次元画像の仮想カメラの視点を切り換えた場合にも、カメラ処理(マイク処理)およびオブジェクト描画処理を経て、サウンド制御処理を実行するようにしてもよい。
In the above game process, the sound control process is executed when the position of the player character is updated. For example, by operating a button switch among the operation means 26 of the
この実施例によれば、同じ種類の複数のオブジェクトの音を音源の1つの発音で出力するので、音源を節約することができる。すなわち、音源を効率的に使用できる。しかも、優先順位にしたがって音源を削除することもないので、ゲームの臨場感を低減してしまうことはない。 According to this embodiment, the sound of a plurality of objects of the same type is output with one pronunciation of the sound source, so that the sound source can be saved. That is, the sound source can be used efficiently. Moreover, since the sound source is not deleted according to the priority order, the realism of the game is not reduced.
なお、この実施例では、同じ種類の複数のサウンドオブジェクトが存在する場合には、それらを音源における発音が1つになるようにまとめて、音源を節約するようにしてあるが、音源を節約した場合であっても、使用可能な音源の発音数を超えてしまうような場合には、サウンドオブジェクトのデータに含まれる優先順位データ(図5参照)に従って、出力しないサウンドオブジェクトの音が決定される。ただし、上述のようにして、音源の発音を1つにまとめたサウンドオブジェクトの優先順位は高く設定され、当該音については必ず出力されるようにしてある。 In this embodiment, when a plurality of sound objects of the same type exist, they are grouped together so that the sound source in the sound source becomes one, and the sound source is saved. However, the sound source is saved. Even in such a case, when the number of sound generations of the usable sound source is exceeded, the sound of the sound object that is not output is determined according to the priority order data (see FIG. 5) included in the sound object data. . However, as described above, the priority order of the sound objects in which the sound sources of the sound sources are combined into one is set high, and the sound is always output.
また、この実施例では、音源の発音数に拘わらず、同じ種類の音を発するサウンドオブジェクトが存在する場合には、それらを1つにまとめるようにしたが、サウンドオブジェクトの数が一定数を超えた場合にのみ、同じ種類の音を音源においての1つの発音にまとめるようにしてもよい。 In this embodiment, when there are sound objects that emit the same type of sound regardless of the number of sound generations of the sound source, they are combined into one, but the number of sound objects exceeds a certain number. Only in the case of the same sound, the same type of sound may be combined into one pronunciation in the sound source.
さらに、この実施例では、図1に示したようなビデオゲーム装置についてのみ説明したが、モニタに表示されるサウンドオブジェクトが発生する音を、音波形データを用いてDSPのようなサウンドプロセサによって生成するような他のゲーム装置または携帯ゲーム機或いはDVDプレイヤなどにも適用可能なことは言うまでもない。 Furthermore, in this embodiment, only the video game apparatus as shown in FIG. 1 has been described, but the sound generated by the sound object displayed on the monitor is generated by a sound processor such as a DSP using sound waveform data. Needless to say, the present invention can be applied to other game apparatuses, portable game machines, DVD players, and the like.
さらにまた、この実施例では、左右のスピーカのみ、またはさらにサラウンドスピーカを設けた場合について説明したが、スピーカは少なくとも2方向についての音を出力するために2つ設ければよく、また4つ以上設けるようにしてもよい。また、音量データの成分を計算する場合には、上述の実施例で示したとおり、スピーカの個数に応じて算出するのが望ましい。 Furthermore, in this embodiment, the case where only the left and right speakers or further surround speakers are provided has been described. However, two speakers may be provided to output sound in at least two directions, and four or more speakers are provided. You may make it provide. Further, when calculating the volume data component, it is desirable to calculate according to the number of speakers as shown in the above-described embodiment.
また、この実施例では、サウンドオブジェクトとしては、松明、川、波についてのみ説明したが、サウンドオブジェクトはこれらに限定される必要はない。 Further, in this embodiment, only the torches, rivers, and waves have been described as sound objects, but the sound objects need not be limited to these.
10 …ゲームシステム
12 …ゲーム装置
18 …光ディスク
22 …コントローラ
34 …モニタ
34a …スピーカ
36 …CPU
38 …メモリコントローラ
40 …メインメモリ
42 …GPU
54 …ARAM
62 …オーディオI/F
DESCRIPTION OF
38 ...
54 ... ARAM
62 ... Audio I / F
Claims (12)
ゲーム画像を構成するオブジェクトを記憶したオブジェクト記憶手段、
前記操作情報に基づいて少なくとも2つの前記オブジェクトを含むゲーム画像を表示する画像表示制御手段、
音を出力する、左右2つのスピーカ、
前記ゲーム画像を構成する前記少なくとも2つのオブジェクトが音を発生するサウンドオブジェクトであり、当該サウンドオブジェクトの発生する音に対応する少なくとも1種類の波形データを記憶した波形データ記憶手段、
前記サウンドオブジェクト毎に音の発生位置を示す音発生位置データを記憶した音発生位置データ記憶手段、
少なくとも音の出力指示に従って、前記波形データを読み出して、音データを生成し、生成した音データを音として前記スピーカから出力するサウンド出力制御手段、および
少なくともゲーム中に音を集音する位置を示す集音位置データと集音する集音方向を示す集音方向データとを含むマイクデータを記憶したマイクデータ記憶手段を備えるゲーム装置のゲームサウンド制御プログラムであって、
当該ゲーム装置のプロセサに、
前記サウンドオブジェクト毎に、前記音発生位置データと前記集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、算出した距離に基づいて前記サウンドオブジェクトがそれぞれ発生する音の音量データを算出する音量データ算出ステップ、
前記集音方向データと前記音発生位置データとに基づいて各々の前記サウンドオブジェクトについての定位データを算出する定位算出ステップ、
前記定位算出ステップによって算出された定位データに基づいて、前記各々のサウンドオブジェクトの音量データを、前記スピーカから出力する音の右側音量成分と左側音量成分とに分割する音量成分分割ステップ、
すべての前記サウンドオブジェクトを同じ音を発生するオブジェクトに分類するオブジェクト分類ステップ、
前記同じ音を発生するオブジェクトについて前記音量成分分割ステップによって分割された前記右側音量成分および前記左側音量成分のうち、最大の右側音量成分および最大の左側音量成分を抽出し、当該オブジェクトの波形データと前記最大の右側音量成分および前記最大の左側音量成分とに基づいて、前記サウンド出力制御手段が前記スピーカから音を出力するためのデータを生成する音出力データ生成ステップ、および
前記サウンド出力制御手段に、音の出力指示と前記音出力データ生成ステップによって生成したデータとを与える出力指示ステップ、を実行させる、ゲームサウンド制御プログラム。 Operation means for inputting operation information by the player;
Object storage means for storing objects constituting a game image;
Image display control means for displaying a game image including at least two objects based on the operation information;
And it outputs the sound, left right two speakers,
Waveform data storage means for storing at least one type of waveform data corresponding to the sound generated by the sound object, wherein the at least two objects constituting the game image are sound objects that generate sound;
Sound generation position data storage means for storing sound generation position data indicating a sound generation position for each sound object;
At least a sound output control means for reading out the waveform data in accordance with a sound output instruction, generating sound data, and outputting the generated sound data from the speaker as sound; and at least a position for collecting sound during the game A game sound control program for a game device comprising microphone data storage means for storing microphone data including sound collection position data and sound collection direction data indicating a sound collection direction for collecting sound,
In the game device processor,
For each sound object, a distance between the sound object and the sound collection position is calculated from the sound generation position data and the sound collection position data, and volume data of sound generated by the sound object based on the calculated distance is obtained. Volume data calculation step to calculate,
A localization calculation step of calculating localization data for each of the sound objects based on the sound collection direction data and the sound generation position data;
A volume component dividing step for dividing the volume data of each sound object into a right volume component and a left volume component of the sound output from the speaker , based on the localization data calculated by the localization calculation step;
An object classification step for classifying all the sound objects into objects that generate the same sound;
Wherein the object to generate the same sound of the sound volume component said split by split step right volume component and the left volume component, extracts the maximum right volume components and maximum left volume component, the waveform data of the object Based on the maximum right volume component and the maximum left volume component , the sound output control unit generates data for outputting sound from the speaker, and the sound output control unit. A game sound control program for executing an output instruction step for giving a sound output instruction and the data generated by the sound output data generation step.
ゲーム画像を構成するオブジェクトを記憶したオブジェクト記憶手段、
前記操作情報に基づいて少なくとも2つの前記オブジェクトを含むゲーム画像を表示する画像表示制御手段、
音を出力する、左右2つのスピーカ、
前記ゲーム画像を構成する前記少なくとも2つのオブジェクトが音を発生するサウンドオブジェクトであり、当該サウンドオブジェクトの発生する音に対応する少なくとも1種類の波形データを記憶した波形データ記憶手段、
前記サウンドオブジェクト毎に音の発生位置を示す音発生位置データを記憶した音発生位置データ記憶手段、
少なくとも音の出力指示に従って、前記波形データを読み出して、音データを生成し、生成した音データを音として前記スピーカから出力するサウンド出力制御手段、および
少なくともゲーム中に音を集音する位置を示す集音位置データと集音する集音方向を示す集音方向データとを含むマイクデータを記憶したマイクデータ記憶手段を備えるゲーム装置のゲームサウンド制御プログラムであって、
当該ゲーム装置のプロセサに、
前記サウンドオブジェクト毎に、前記音発生位置データと前記集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、算出した距離に基づいて前記サウンドオブジェクトがそれぞれ発生する音の音量データを算出する音量データ算出ステップ、
前記集音方向データと前記音発生位置データとに基づいて各々の前記サウンドオブジェクトについての定位データを算出する定位算出ステップ、
前記定位算出ステップによって算出された定位データに基づいて、前記各々のサウンドオブジェクトの音量データを、前記スピーカから出力する音の右側音量成分、左側音量成分およびサラウンド音量成分に分割する音量成分分割ステップ、
すべての前記サウンドオブジェクトを同じ音を発生するオブジェクトに分類するオブジェクト分類ステップ、
前記同じ音を発生するオブジェクトについて前記音量成分分割ステップによって分割された前記右側音量成分、前記左側音量成分および前記サラウンド音量成分のうち、最大の右側音量成分、最大の左側音量成分および最大のサラウンド音量成分を抽出し、当該オブジェクトの波形データと前記最大の右側音量成分、前記最大の左側音量成分および前記最大のサラウンド音量成分とに基づいて、前記サウンド出力制御手段が前記スピーカから音を出力するためのデータを生成する音出力データ生成ステップ、および
前記サウンド出力制御手段に、音の出力指示と前記音出力データ生成ステップによって生成したデータとを与える出力指示ステップ、を実行させる、ゲームサウンド制御プログラム。 Operation means for inputting operation information by the player;
Object storage means for storing objects constituting a game image;
Image display control means for displaying a game image including at least two objects based on the operation information;
Two speakers, left and right, that output sound,
Waveform data storage means for storing at least one type of waveform data corresponding to the sound generated by the sound object, wherein the at least two objects constituting the game image are sound objects that generate sound;
Sound generation position data storage means for storing sound generation position data indicating a sound generation position for each sound object;
Sound output control means for reading out the waveform data according to at least a sound output instruction, generating sound data, and outputting the generated sound data as sound from the speaker; and
Game sound control program for game device comprising microphone data storage means storing microphone data including at least sound collection position data indicating a position where sound is collected during a game and sound collection direction data indicating a sound collection direction. Because
In the game device processor,
For each sound object, a distance between the sound object and the sound collection position is calculated from the sound generation position data and the sound collection position data, and volume data of sound generated by the sound object based on the calculated distance is obtained. Volume data calculation step to calculate,
A localization calculation step of calculating localization data for each of the sound objects based on the sound collection direction data and the sound generation position data;
A volume component dividing step of dividing the volume data of each sound object into a right volume component, a left volume component and a surround volume component of the sound output from the speaker, based on the localization data calculated by the localization calculation step;
An object classification step for classifying all the sound objects into objects that generate the same sound;
Of the right volume component, the left volume component, and the surround volume component divided by the volume component dividing step for the object that generates the same sound, the maximum right volume component, the maximum left volume component, and the maximum surround volume among the right volume component, the left volume component, and the surround volume component. The sound output control means outputs a sound from the speaker based on the waveform data of the object and the maximum right volume component, the maximum left volume component, and the maximum surround volume component. Sound output data generation step for generating the data of, and
A game sound control program for causing the sound output control means to execute an output instruction step for giving a sound output instruction and data generated by the sound output data generation step .
前記レールデータを持つサウンドオブジェクトについて、前記レールデータを表す座標を結ぶ線分上であり、かつ、前記集音位置データに最も接近する位置の座標データを算出する近接座標算出ステップ、
前記音量データ算出ステップは、前記レールデータを持つサウンドオブジェクトの音量データを算出するとき、前記近接座標算出ステップによって算出された座標データと前記集音位置データとから当該サウンドオブジェクトの音量データを算出し、
前記音量成分分割ステップは、前記近接座標算出ステップによって算出された座標データと前記集音位置データとから、前記スピーカから出力する音の右側音量成分、左側音量成分およびサラウンド音量成分のそれぞれに音量データを分割する、請求項3記載のゲームサウンド制御プログラム。 The sound generation position data includes sound object position data represented by one coordinate data and position data of a sound object having rail data represented by rail data defined by at least two coordinate data.
For the sound object having the rail data, a proximity coordinate calculating step for calculating coordinate data on a line connecting the coordinates representing the rail data and closest to the sound collection position data;
The volume data calculation step calculates volume data of the sound object from the coordinate data calculated by the proximity coordinate calculation step and the sound collection position data when calculating volume data of the sound object having the rail data. ,
The volume component dividing step includes volume data for each of a right volume component , a left volume component, and a surround volume component of the sound output from the speaker from the coordinate data calculated by the proximity coordinate calculation step and the sound collection position data. The game sound control program according to claim 3, wherein the game sound control program is divided.
ゲーム画像を構成するオブジェクトを記憶したオブジェクト記憶手段、
前記操作情報に基づいて少なくとも2つの前記オブジェクトを含むゲーム画像を表示する画像表示制御手段、
音を出力する、左右2つのスピーカ、
前記ゲーム画像を構成する前記少なくとも2つのオブジェクトが音を発生するサウンドオブジェクトであり、当該サウンドオブジェクトの発生する音に対応する少なくとも1種類の波形データを記憶した波形データ記憶手段、
前記サウンドオブジェクト毎に音の発生位置を示す音発生位置データを記憶した音発生位置データ記憶手段、
少なくとも音の出力指示に従って、前記波形データを読み出して、音データを生成し、生成した音データを音として前記スピーカから出力するサウンド出力制御手段、および
少なくともゲーム中に音を集音する位置を示す集音位置データと集音する集音方向を示す集音方向データを含むマイクデータを記憶したマイクデータ記憶手段を備えるゲーム装置のゲームサウンド制御方法であって、
(a) 前記サウンドオブジェクト毎に、前記音発生位置データと前記集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、算出した距離に基づいて前記サウンドオブジェクトがそれぞれ発生する音の音量データを算出し、
(b)前記集音方向データと前記音発生位置データとに基づいて各々の前記サウンドオブジェクトについての定位データを算出し、
(c)前記ステップ(b)で算出した定位データに基づいて、前記各々のサウンドオブジェクトの音量データを、前記スピーカから出力する音の右側音量成分と左側音量成分とに分割し、
(d)すべての前記サウンドオブジェクトを同じ音を発生するオブジェクトに分類し、
(e)前記同じ音を発生するオブジェクトについて前記ステップ(c)で分割した前記右側音量成分および前記左側音量成分のうち、最大の右側音量成分および最大の左側音量成分を抽出し、当該オブジェクトの波形データと前記最大の右側音量成分および前記最大の左側音量成分とに基づいて、前記サウンド出力制御手段が前記スピーカから音を出力するためのデータを生成し、そして、
(f)前記サウンド出力制御手段に、音の出力指示と前記ステップ(e)で生成したデータとを与える、ゲームサウンド制御方法。 Operation means for inputting operation information by the player;
Object storage means for storing objects constituting a game image;
Image display control means for displaying a game image including at least two objects based on the operation information;
And it outputs the sound, left right two speakers,
Waveform data storage means for storing at least one type of waveform data corresponding to the sound generated by the sound object, wherein the at least two objects constituting the game image are sound objects that generate sound;
Sound generation position data storage means for storing sound generation position data indicating a sound generation position for each sound object;
At least a sound output control means for reading out the waveform data in accordance with a sound output instruction, generating sound data, and outputting the generated sound data from the speaker as sound; and at least a position for collecting sound during the game A game sound control method for a game apparatus comprising microphone data storage means for storing microphone data including sound collection position data and sound collection direction data indicating a sound collection direction for collecting sound,
(a) For each sound object, a distance between the sound object and the sound collection position is calculated from the sound generation position data and the sound collection position data, and the sound object generated by each sound object is calculated based on the calculated distance. Calculate the volume data,
(b) calculating localization data for each of the sound objects based on the sound collection direction data and the sound generation position data;
(c) Based on the localization data calculated in step (b), the volume data of each sound object is divided into a right volume component and a left volume component of the sound output from the speaker ,
(d) classify all the sound objects as objects that generate the same sound;
(e) above for the object that generates the same sound of the right volume component and the left volume component divided the in step (c), to extract the maximum of the right volume components and maximum left volume component, the waveform of the object Based on the data and the maximum right volume component and the maximum left volume component , the sound output control means generates data for outputting sound from the speaker; and
(f) A game sound control method in which a sound output instruction and the data generated in the step (e) are given to the sound output control means.
ゲーム画像を構成するオブジェクトを記憶したオブジェクト記憶手段、
前記操作情報に基づいて少なくとも2つの前記オブジェクトを含むゲーム画像を表示する画像表示制御手段、
音を出力する、左右2つのスピーカ、
前記ゲーム画像を構成する前記少なくとも2つのオブジェクトが音を発生するサウンドオブジェクトであり、当該サウンドオブジェクトの発生する音に対応する少なくとも1種類の波形データを記憶した波形データ記憶手段、
前記サウンドオブジェクト毎に音の発生位置を示す音発生位置データを記憶した音発生位置データ記憶手段、
少なくとも音の出力指示に従って、前記波形データを読み出して、音データを生成し、生成した音データを音として前記スピーカから出力するサウンド出力制御手段、および
少なくともゲーム中に音を集音する位置を示す集音位置データと集音する集音方向を示す集音方向データを含むマイクデータを記憶したマイクデータ記憶手段を備えるゲーム装置のゲームサウンド制御方法であって、
(a) 前記サウンドオブジェクト毎に、前記音発生位置データと前記集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、算出した距離に基づいて前記サウンドオブジェクトがそれぞれ発生する音の音量データを算出し、
(b)前記集音方向データと前記音発生位置データとに基づいて各々の前記サウンドオブジェクトについての定位データを算出し、
(c)前記ステップ(b)で算出した定位データに基づいて、前記各々のサウンドオブジェクトの音量データを、前記スピーカから出力する音の右側音量成分、左側音量成分およびサラウンド音量成分に分割し、
(d)すべての前記サウンドオブジェクトを同じ音を発生するオブジェクトに分類し、
(e)前記同じ音を発生するオブジェクトについて前記ステップ(c)で分割した前記右側音量成分、前記左側音量成分および前記サラウンド音量成分のうち、最大の右側音量成分、最大の左側音量成分および最大のサラウンド音量成分を抽出し、当該オブジェクトの波形データと前記最大の右側音量成分、前記最大の左側音量成分および前記最大のサラウンド音量成分とに基づいて、前記サウンド出力制御手段が前記スピーカから音を出力するためのデータを生成し、そして、
(f)前記サウンド出力制御手段に、音の出力指示と前記ステップ(e)で生成したデータとを与える、ゲームサウンド制御方法。 Operation means for inputting operation information by the player;
Object storage means for storing objects constituting a game image;
Image display control means for displaying a game image including at least two objects based on the operation information;
Two speakers, left and right, that output sound,
Waveform data storage means for storing at least one type of waveform data corresponding to the sound generated by the sound object, wherein the at least two objects constituting the game image are sound objects that generate sound;
Sound generation position data storage means for storing sound generation position data indicating a sound generation position for each sound object;
Sound output control means for reading out the waveform data according to at least a sound output instruction, generating sound data, and outputting the generated sound data as sound from the speaker; and
A game sound control method for a game apparatus comprising microphone data storage means storing at least sound collection position data indicating a position for collecting sound during a game and microphone data including sound collection direction data indicating a sound collection direction for collecting sound. There,
(a) For each sound object, a distance between the sound object and the sound collection position is calculated from the sound generation position data and the sound collection position data, and the sound object generated by each sound object is calculated based on the calculated distance. Calculate the volume data,
(b) calculating localization data for each of the sound objects based on the sound collection direction data and the sound generation position data;
(c) Based on the localization data calculated in the step (b), the volume data of each sound object is divided into a right volume component, a left volume component and a surround volume component of the sound output from the speaker,
(d) classify all the sound objects as objects that generate the same sound;
(e) Among the right volume component, the left volume component and the surround volume component divided in step (c) for the object that generates the same sound, the maximum right volume component, the maximum left volume component, and the maximum The surround sound volume component is extracted, and the sound output control means outputs sound from the speaker based on the waveform data of the object and the maximum right volume component, the maximum left volume component, and the maximum surround volume component. Data to generate, and
(f) A game sound control method in which a sound output instruction and the data generated in the step (e) are given to the sound output control means .
(g)前記レールデータを持つサウンドオブジェクトについて、前記レールデータを表す座標を結ぶ線分上であり、かつ、前記集音位置データに最も接近する位置の座標データを算出するステップをさらに備え、
前記ステップ(a)は、前記レールデータを持つサウンドオブジェクトの音量データを算出するとき、前記ステップ(g)によって算出された座標データと前記集音位置データとから当該サウンドオブジェクトの音量データを算出し、
前記ステップ(c)は、前記ステップ(g)によって算出された座標データと前記集音位置データとから、前記スピーカから出力する音の右側音量成分、左側音量成分およびサラウンド音量成分のそれぞれに音量データを分割する、請求項7記載のゲームサウンド制御方法。 The sound generation position data includes rail sound source position data having rail data, represented by point sound source position data represented by one coordinate data and rail data defined by at least two coordinate data,
(g) For the sound object having the rail data, further comprising the step of calculating coordinate data of a position on a line connecting the coordinates representing the rail data and closest to the sound collection position data;
When calculating the volume data of the sound object having the rail data, the step (a) calculates the volume data of the sound object from the coordinate data calculated in the step (g) and the sound collection position data. ,
The step (c) includes volume data for each of a right volume component , a left volume component and a surround volume component of the sound output from the speaker from the coordinate data calculated in the step (g) and the sound collection position data. The game sound control method according to claim 7, wherein the game sound is divided.
前記少なくとも2つのオブジェクトが音を発生するサウンドオブジェクトであり、当該サウンドオブジェクトの発生する音に対応する少なくとも1種類の波形データを記憶した波形データ記憶手段、
前記サウンドオブジェクト毎に音の発生位置を示す音発生位置データを記憶した音発生位置データ記憶手段、
少なくとも音の出力指示に従って、前記波形データを読み出して、音データを生成し、生成した音データを音として前記スピーカから出力するサウンド出力制御手段、
少なくともゲーム中に音を集音する位置を示す集音位置データと集音する集音方向を示す集音方向データとを含むマイクデータを記憶したマイクデータ記憶手段、
前記サウンドオブジェクト毎に、前記音発生位置データと前記集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、算出した距離に基づいて前記サウンドオブジェクトがそれぞれ発生する音の音量データを算出する音量データ算出手段、
前記集音方向データと前記音発生位置データとに基づいて各々の前記サウンドオブジェクトについての定位データを算出する定位算出手段、
前記定位算出手段によって算出された定位データに基づいて、前記各々のサウンドオブジェクの音量データを、前記スピーカから出力する音の右側音量成分と左側音量成分とに分割する音量成分分割手段、
すべての前記サウンドオブジェクトを同じ音を発生するオブジェクトに分類するオブジェクト分類手段、
前記同じ音を発生するオブジェクトについて前記音量成分分割手段によって分割された前記右側音量成分および前記左側音量成分のうち、最大の右側音量成分および最大の左側音量成分を抽出し、当該オブジェクトの波形データと前記最大の右側音量成分および前記最大の左側音量成分とに基づいて、前記サウンド出力制御手段が前記スピーカから音を出力するためのデータを生成する音出力データ生成手段、および
前記サウンド出力制御手段に、音の出力指示と前記音出力データ生成手段によって生成されたデータとを与える出力指示手段を備える、ゲーム装置。 An operation means for inputting operation information by the player, so the game to progress in accordance with the operation of the operating means, at least two objects and displays a game screen including a left right two speakers you outputting sound A game device configured to generate sound related to the game screen,
Waveform data storage means for storing at least one type of waveform data corresponding to the sound generated by the sound object, wherein the at least two objects are sound objects that generate sound;
Sound generation position data storage means for storing sound generation position data indicating a sound generation position for each sound object;
Sound output control means for reading out the waveform data according to at least a sound output instruction, generating sound data, and outputting the generated sound data as sound from the speaker;
Microphone data storage means storing microphone data including at least sound collection position data indicating a position where sound is collected during the game and sound collection direction data indicating a sound collection direction for collecting sound;
For each sound object, a distance between the sound object and the sound collection position is calculated from the sound generation position data and the sound collection position data, and volume data of sound generated by the sound object based on the calculated distance is obtained. Volume data calculation means for calculating,
Localization calculation means for calculating localization data for each of the sound objects based on the sound collection direction data and the sound generation position data;
Volume component dividing means for dividing the volume data of each sound object into a right volume component and a left volume component of the sound output from the speaker , based on the localization data calculated by the localization calculation means;
Object classification means for classifying all the sound objects into objects that generate the same sound;
Wherein the object to generate the same sound of the right volume component and the left volume component divided by the volume component dividing means extracts the maximum right volume components and maximum left volume component, the waveform data of the object Based on the maximum right volume component and the maximum left volume component , the sound output data generation means for generating data for the sound output control means to output sound from the speaker, and the sound output control means A game apparatus comprising output instruction means for giving a sound output instruction and data generated by the sound output data generation means.
前記少なくとも2つのオブジェクトが音を発生するサウンドオブジェクトであり、当該サウンドオブジェクトの発生する音に対応する少なくとも1種類の波形データを記憶した波形データ記憶手段、
前記サウンドオブジェクト毎に音の発生位置を示す音発生位置データを記憶した音発生位置データ記憶手段、
少なくとも音の出力指示に従って、前記波形データを読み出して、音データを生成し、生成した音データを音として前記スピーカから出力するサウンド出力制御手段、
少なくともゲーム中に音を集音する位置を示す集音位置データと集音する集音方向を示す集音方向データとを含むマイクデータを記憶したマイクデータ記憶手段、
前記サウンドオブジェクト毎に、前記音発生位置データと前記集音位置データとからサウンドオブジェクトと集音位置との距離を算出し、算出した距離に基づいて前記サウンドオブジェクトがそれぞれ発生する音の音量データを算出する音量データ算出手段、
前記集音方向データと前記音発生位置データとに基づいて各々の前記サウンドオブジェクトについての定位データを算出する定位算出手段、
前記定位算出手段によって算出された定位データに基づいて、前記各々のサウンドオブジェクの音量データを、前記スピーカから出力する音の右側音量成分、左側音量成分およびサラウンド音量成分に分割する音量成分分割手段、
すべての前記サウンドオブジェクトを同じ音を発生するオブジェクトに分類するオブジェクト分類手段、
前記同じ音を発生するオブジェクトについて前記音量成分分割手段によって分割された前記右側音量成分、前記左側音量成分および前記サラウンド音量成分のうち、最大の右側音量成分、最大の左側音量成分および最大のサラウンド音量成分を抽出し、当該オブジェクトの波形データと前記最大の右側音量成分、前記最大の左側音量成分および前記最大のサラウンド音量成分に基づいて、前記サウンド出力制御手段が前記スピーカから音を出力するためのデータを生成する音出力データ生成手段、および
前記サウンド出力制御手段に、音の出力指示と前記音出力データ生成手段によって生成されたデータとを与える出力指示手段を備える、ゲーム装置。 An operation means for inputting operation information by the player is provided. The game is advanced in accordance with the operation of the operation means, and a game screen including at least two objects is displayed. A game device configured to generate a sound related to a game screen,
Waveform data storage means for storing at least one type of waveform data corresponding to the sound generated by the sound object, wherein the at least two objects are sound objects that generate sound;
Sound generation position data storage means for storing sound generation position data indicating a sound generation position for each sound object;
Sound output control means for reading out the waveform data according to at least a sound output instruction, generating sound data, and outputting the generated sound data as sound from the speaker;
Microphone data storage means storing microphone data including at least sound collection position data indicating a position where sound is collected during the game and sound collection direction data indicating a sound collection direction for collecting sound;
For each sound object, a distance between the sound object and the sound collection position is calculated from the sound generation position data and the sound collection position data, and volume data of sound generated by the sound object based on the calculated distance is obtained. Volume data calculation means for calculating,
Localization calculation means for calculating localization data for each of the sound objects based on the sound collection direction data and the sound generation position data;
Volume component dividing means for dividing the volume data of each sound object into a right volume component, a left volume component and a surround volume component of the sound output from the speaker, based on the localization data calculated by the localization calculation means;
Object classification means for classifying all the sound objects into objects that generate the same sound;
Among the right volume component, the left volume component, and the surround volume component divided by the volume component dividing unit for the object that generates the same sound, the maximum right volume component, the maximum left volume component, and the maximum surround volume are divided. Component for extracting the sound from the speaker based on the waveform data of the object and the maximum right volume component, the maximum left volume component, and the maximum surround volume component. Sound output data generating means for generating data, and
A game apparatus comprising: output instruction means for giving a sound output instruction and data generated by the sound output data generating means to the sound output control means .
前記レールデータを持つサウンドオブジェクトについて、前記レールデータを表す座標を結ぶ線分上であり、かつ、前記マイクデータ記憶手段に記憶されている前記集音位置データに最も接近する位置の座標データを算出する近接座標算出手段をさらに備え、
前記音量データ算出手段は、前記レールデータを持つサウンドオブジェクトの音量データを算出するとき、前記近接座標算出手段によって算出された座標データと前記集音位置データとから当該サウンドオブジェクトの音量データを算出し、
前記音量成分分割手段は、前記近接座標算出手段によって算出された座標データと前記集音方向データとから、前記スピーカから出力する音の右側音量成分、左側音量成分およびサラウンド音量成分のそれぞれに音量データを分割する、請求項11記載のゲーム装置。 The sound generation position data includes sound object position data represented by one coordinate data and position data of a sound object having rail data defined by at least two coordinate data,
For the sound object having the rail data, the coordinate data of the position on the line connecting the coordinates representing the rail data and closest to the sound collection position data stored in the microphone data storage means is calculated. A proximity coordinate calculating means for
The sound volume data calculating means calculates sound volume data of the sound object from the coordinate data calculated by the proximity coordinate calculating means and the sound collection position data when calculating sound volume data of the sound object having the rail data. ,
The volume component dividing unit is configured to generate volume data for each of a right volume component , a left volume component, and a surround volume component of a sound output from the speaker, from the coordinate data calculated by the proximity coordinate calculation unit and the sound collection direction data. The game device according to claim 11, wherein the game device is divided.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003387766A JP3617839B2 (en) | 2002-12-04 | 2003-11-18 | GAME SOUND CONTROL PROGRAM, GAME SOUND CONTROL METHOD, AND GAME DEVICE |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002352169 | 2002-12-04 | ||
JP2003387766A JP3617839B2 (en) | 2002-12-04 | 2003-11-18 | GAME SOUND CONTROL PROGRAM, GAME SOUND CONTROL METHOD, AND GAME DEVICE |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004195210A JP2004195210A (en) | 2004-07-15 |
JP3617839B2 true JP3617839B2 (en) | 2005-02-09 |
Family
ID=32775031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003387766A Expired - Fee Related JP3617839B2 (en) | 2002-12-04 | 2003-11-18 | GAME SOUND CONTROL PROGRAM, GAME SOUND CONTROL METHOD, AND GAME DEVICE |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3617839B2 (en) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007212635A (en) * | 2006-02-08 | 2007-08-23 | Copcom Co Ltd | Sound effect producing device, video game device equipped with the same, and program and recording medium for attaining the same |
JP4015173B1 (en) | 2006-06-16 | 2007-11-28 | 株式会社コナミデジタルエンタテインメント | GAME SOUND OUTPUT DEVICE, GAME SOUND CONTROL METHOD, AND PROGRAM |
WO2010137069A1 (en) * | 2009-05-27 | 2010-12-02 | 株式会社サスティーン・アーキテクト | Answer verification device and problem generation device |
JP5036797B2 (en) * | 2009-12-11 | 2012-09-26 | 株式会社スクウェア・エニックス | Pronunciation processing apparatus, pronunciation processing method, and pronunciation processing program |
JP4951688B2 (en) | 2010-03-15 | 2012-06-13 | 株式会社コナミデジタルエンタテインメント | GAME SYSTEM, COMPUTER PROGRAM THEREOF, AND GAME SYSTEM CONTROL METHOD |
JP5538148B2 (en) * | 2010-09-08 | 2014-07-02 | 株式会社カプコン | GAME PROGRAM AND GAME DEVICE |
JP5969200B2 (en) | 2011-11-11 | 2016-08-17 | 任天堂株式会社 | Information processing program, information processing apparatus, information processing system, and information processing method |
JP2013102842A (en) | 2011-11-11 | 2013-05-30 | Nintendo Co Ltd | Information processing program, information processor, information processing system, and information processing method |
KR101374961B1 (en) * | 2012-09-10 | 2014-03-18 | 김정헌 | Sound based interface apparatus and method |
JP6147486B2 (en) * | 2012-11-05 | 2017-06-14 | 任天堂株式会社 | GAME SYSTEM, GAME PROCESSING CONTROL METHOD, GAME DEVICE, AND GAME PROGRAM |
JP6055657B2 (en) * | 2012-11-09 | 2016-12-27 | 任天堂株式会社 | GAME SYSTEM, GAME PROCESSING CONTROL METHOD, GAME DEVICE, AND GAME PROGRAM |
JP5813172B2 (en) * | 2014-04-28 | 2015-11-17 | 株式会社カプコン | GAME PROGRAM AND GAME DEVICE |
CN111882309B (en) * | 2020-08-07 | 2023-08-22 | 腾讯科技(深圳)有限公司 | Message processing method, device, electronic equipment and storage medium |
JP7252998B2 (en) * | 2021-03-15 | 2023-04-05 | 任天堂株式会社 | Information processing program, information processing device, information processing system, and information processing method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4095227B2 (en) * | 2000-03-13 | 2008-06-04 | 株式会社コナミデジタルエンタテインメント | Video game apparatus, background sound output setting method in video game, and computer-readable recording medium recorded with background sound output setting program |
JP4688267B2 (en) * | 2000-09-20 | 2011-05-25 | 株式会社バンダイナムコゲームス | GAME DEVICE AND INFORMATION STORAGE MEDIUM |
JP2002199498A (en) * | 2000-12-25 | 2002-07-12 | Victor Co Of Japan Ltd | Method for localizing sound image of sound source and game machine for localizing sound image, and recording medium recording sound image localization program, and transmitting method for the program |
JP3455739B2 (en) * | 2001-12-26 | 2003-10-14 | コナミ株式会社 | GAME DEVICE AND PROGRAM |
-
2003
- 2003-11-18 JP JP2003387766A patent/JP3617839B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004195210A (en) | 2004-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7338373B2 (en) | Method and apparatus for generating sounds in a video game | |
JP3725524B2 (en) | Method for generating computer display image and computer processing system and graphics processor for generating image data | |
JP3372832B2 (en) | GAME DEVICE, GAME IMAGE PROCESSING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING GAME IMAGE PROCESSING PROGRAM | |
JP3668019B2 (en) | Recording medium, image processing apparatus, and image processing method | |
JP3617839B2 (en) | GAME SOUND CONTROL PROGRAM, GAME SOUND CONTROL METHOD, AND GAME DEVICE | |
JP4242318B2 (en) | 3D image generation apparatus and 3D image generation program | |
JP4791852B2 (en) | GAME DEVICE, GAME PROGRAM, AND GAME CONTROL METHOD | |
JP4099434B2 (en) | Image generation program and game device | |
JP2004329463A (en) | Game device and control program of virtual camera | |
JP3625184B2 (en) | 3D image processing method and apparatus for game, readable recording medium recording game 3D image processing program, and video game apparatus | |
JP2006068138A (en) | Game apparatus and image processing program | |
JP3639280B2 (en) | Game message display method and game program | |
US20020034979A1 (en) | Video game system, character action control method, and readable storage medium storing character action control program | |
JP4355512B2 (en) | Image processing apparatus and image processing program | |
US20070261539A1 (en) | Music reproducing program and music reproducing apparatus | |
JP3001538B1 (en) | VIDEO GAME DEVICE, MODEL DISPLAY METHOD FOR VIDEO GAME, AND READABLE RECORDING MEDIUM ON WHICH MODEL DISPLAY PROGRAM FOR VIDEO GAME IS RECORDED | |
JP3602835B2 (en) | VIDEO GAME DEVICE, ITS CONTROL METHOD, AND GAME PROGRAM | |
JP3564440B2 (en) | Moving image generation program, moving image generation method and apparatus | |
JP3839355B2 (en) | GAME DEVICE AND GAME PROGRAM | |
JP3183636B2 (en) | Three-dimensional game device and information storage medium | |
JP4560532B2 (en) | Image generating apparatus and information storage medium | |
JP3197133B2 (en) | Karaoke equipment | |
JP3708904B2 (en) | Image processing program | |
JP4219766B2 (en) | Image generation program and image generation apparatus | |
JP2004313218A (en) | Game apparatus and game program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20040415 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040415 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20040517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040525 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040817 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041104 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |