JP2014063183A - Sound effect generation device and sound effect generation program for achieving sound effect generation device - Google Patents

Sound effect generation device and sound effect generation program for achieving sound effect generation device Download PDF

Info

Publication number
JP2014063183A
JP2014063183A JP2013229165A JP2013229165A JP2014063183A JP 2014063183 A JP2014063183 A JP 2014063183A JP 2013229165 A JP2013229165 A JP 2013229165A JP 2013229165 A JP2013229165 A JP 2013229165A JP 2014063183 A JP2014063183 A JP 2014063183A
Authority
JP
Japan
Prior art keywords
sound
data
game
reverberation
land
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013229165A
Other languages
Japanese (ja)
Other versions
JP5619260B2 (en
Inventor
Takeshi Kitamura
武 北村
Tae Komatsu
多恵 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2013229165A priority Critical patent/JP5619260B2/en
Publication of JP2014063183A publication Critical patent/JP2014063183A/en
Application granted granted Critical
Publication of JP5619260B2 publication Critical patent/JP5619260B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To turn, when displaying a three-dimensional image, a sound effect of a depicted scene thereof to a sound to be heard naturally and similarly to an actual world.SOLUTION: An equivalent sound effect generation circuit 30 of the present invention includes: a filter circuit 31 for performing LPF processing; reverberation circuits 35 and 36 for respectively generating reverberation signals of original signals on land and in water; sound volume adjustment circuits 32, 33 and 34 for respectively adjusting sound volumes of the original signals and the reverberation signals; and signal mixing circuits 37 and 38 for mixing the reverberation signals with the original signals. A sound producing position and a sound detecting position to be set movably in the air and in the water in a three-dimensional space are calculated in synchronism with drawing processing, and a combination of media in which the sound generating position and the sound detecting position are present is specified on the basis of a calculation result. By changing the sound volumes of the reverberation signals by the sound volume adjustment circuits 32, 33 and 34 according to the combination of the media in which the sound generating position and the sound detecting position are present, the generated sound of a sound generating body to be heard at the sound detecting position is made natural in each combination.

Description

本発明は、発音体が出現する仮想空間の三次元画像を表示装置に表示する際、仮想空間において発音体の発する音が当該仮想空間に設定された所定の聴音位置で聞こえる音を擬似的に生成し、効果音として出力する効果音生成装置に係り、特に、ゲーム展開が三次元画像で表示されるビデオゲームに好適な効果音を生成することができる効果音生成装置及びその効果音生成装置を実現するための効果音生成プログラムに関するものである。   In the present invention, when a three-dimensional image of a virtual space in which a sounding body appears is displayed on a display device, the sound emitted by the sounding body in the virtual space is simulated in a predetermined listening position set in the virtual space. TECHNICAL FIELD The present invention relates to a sound effect generating device that generates and outputs sound effects, and in particular, a sound effect generating device capable of generating sound effects suitable for a video game in which game development is displayed as a three-dimensional image, and the sound effect generating device thereof The present invention relates to a sound effect generation program for realizing the above.

従来、ゲーム展開が三次元画像で表示されるゲームソフトが多数商品化されている。このようなゲームソフトでは、例えば、三次元のゲーム空間(仮想のゲーム世界)にプレイヤが操作するキャラクタ(以下、「プレイヤキャラクタ」という。)やコンピュータによって制御されるキャラクタを登場させ、例えば、プレイヤキャラクタ後方の所定の位置に設定された視点位置から仮想的なカメラでゲーム空間を撮影した画像を作成してゲーム画面に表示する描画処理が行われている。   Conventionally, a lot of game software in which game development is displayed as a three-dimensional image has been commercialized. In such game software, for example, a character operated by a player (hereinafter referred to as “player character”) or a character controlled by a computer appears in a three-dimensional game space (virtual game world). A drawing process is performed in which an image obtained by photographing the game space with a virtual camera is created from a viewpoint position set at a predetermined position behind the character and displayed on the game screen.

また、ゲーム展開に応じて発生させる効果音、特に仮想のゲーム空間に登場する生き物などのキャラクタが発生する音(例えば、鳴き声や足音などの動作音)の生成処理では、その音をプレイヤキャラクタに聞こえる音として擬似的に生成し、出力する処理が行われている。特に、ゲーム画像が三次元で表示され、プレイヤに対して視覚的にゲーム空間の広がりが演出されることから、効果音の生成処理でも、キャラクタが発した、例えば鳴き声に対してゲーム空間におけるキャラクタとプレイヤキャラクタとの距離に応じた減衰をかけることによって聴覚的にもゲーム空間の広がりを演出するようにしている。   In addition, in the process of generating sound effects generated according to game development, particularly sounds generated by characters such as creatures appearing in a virtual game space (for example, operation sounds such as screams and footsteps), the sounds are sent to the player character. A process of generating and outputting a pseudo sound as an audible sound is performed. In particular, the game image is displayed in three dimensions, and the game space is visually expanded for the player. Therefore, even in the sound effect generation process, the character uttered by the character, for example, in the game space The game space is expanded auditorily by applying attenuation according to the distance between the player character and the player character.

上記の効果音の生成処理は、現実世界における音の伝播特性などを擬似的にシミュレートすることによって聴覚的に仮想のゲーム空間に現実世界に近いリアリティを与えるものであるが、同様の考え方に基づいて、各種の効果音生成技術が提案されている。   The sound effect generation process described above gives auditory virtual game space a reality close to the real world by simulating the propagation characteristics of sound in the real world. Based on this, various sound effect generation techniques have been proposed.

例えば、特開平10−137445号公報には、仮想のゲーム空間内に複数の視点を設け、各視点からゲーム空間を撮影した画像(三次元画像)をプレイヤの選択によってゲーム画像として表示する一方、各視点によって効果音の内容を変化させ、視点が切り換えられるのに応じて効果音もその視点に対応した効果音に切り変える技術が示されている。   For example, in Japanese Patent Laid-Open No. 10-137445, a plurality of viewpoints are provided in a virtual game space, and an image (three-dimensional image) obtained by shooting the game space from each viewpoint is displayed as a game image by selection of the player. There is shown a technique in which the content of a sound effect is changed depending on each viewpoint, and the sound effect is switched to a sound effect corresponding to the viewpoint as the viewpoint is switched.

具体的には、カーレースのゲームにおいて、視点をレースカー後方の所定位置、レースカーの運転位置、レースカーを追尾するヘリコプターの操縦位置の各位置に切り換え可能にするとともに、レースカーのエンジン音の波形として各位置で聞こえる3つの波形を用意し、プレイヤによって視点が切り換えられる(ゲーム画面が切り換えられる)のに応じてスピーカから出力されるエンジン音を各視点に対応したエンジン音に切り換え、これによりプレイヤが各視点位置で聞こえるエンジン音を擬似的に体感できるようにしている。   Specifically, in a car racing game, the viewpoint can be switched between a predetermined position behind the race car, a driving position of the race car, and a control position of the helicopter that tracks the race car, and the engine sound of the race car is changed. Three waveforms that can be heard at each position are prepared, and the engine sound output from the speaker is switched to the engine sound corresponding to each viewpoint when the viewpoint is switched by the player (the game screen is switched). Thus, the player can experience the engine sound that can be heard at each viewpoint position in a pseudo manner.

特開2008−188308号公報には、ゲーム空間に登場するモンスターをハンターであるプレイヤキャラクタによって捕獲させるハンティングゲームにおいて、モンスターとハンターとの間に遮音物がある場合、モンスターの発した、例えば咆哮の音量に対して、モンスターからハンターまでの距離による減衰だけでなく当該遮音物による減衰若しくは遮音を加味した処理を行い、ゲーム場面に応じた効果音をより自然な感じにして出力する技術が記載されている。   In Japanese Patent Application Laid-Open No. 2008-188308, in a hunting game in which a monster appearing in a game space is captured by a player character that is a hunter, there is a sound insulation between the monster and the hunter. A technique is described for processing the sound volume in a more natural feeling by performing processing that takes into account not only the attenuation due to the distance from the monster to the hunter but also the attenuation or sound insulation by the sound insulation material. ing.

特開平10−137445号公報Japanese Patent Laid-Open No. 10-137445 特開2008−188308号公報JP 2008-188308 A

近年の仮想のゲーム空間で展開されるゲーム場面を三次元コンピュータグラフィクス(Computer Graphics)を用いたアニメーション技術で描画するゲームソフトでは、効果音の表現でも現実世界における音の伝播特性などの特性を擬似的にシミュレートした内容を盛り込むことによって、より臨場感のある効果音をプレイヤに聞かせる開発が進められている。   Game software that draws game scenes developed in a virtual game space in recent years with animation technology using 3D computer graphics (Pseudo Graphics) simulates characteristics such as sound propagation characteristics in the real world even in the representation of sound effects Developments are being made to let players hear more realistic sound effects by incorporating realistically simulated content.

従来のゲームソフトでは、仮想のゲーム空間として水中、陸上、空中など、現実世界と同様の空間が設定されているものは知られているが、効果音の発生技術としては、特開2008−188308号公報に示されているように、音の発生位置とその音の聴音位置の距離に応じた減衰量や遮音物による遮音量を考慮して音量を制御することを基本としている。   Conventional game software is known in which a space similar to the real world, such as underwater, land, and air, is set as a virtual game space. However, as a technique for generating sound effects, Japanese Patent Application Laid-Open No. 2008-188308 is known. As shown in the Gazette, the volume is basically controlled in consideration of the amount of attenuation corresponding to the distance between the sound generation position and the listening position of the sound and the sound insulation volume due to the sound insulation.

特開2008−188308号公報にはゲームソフトの例示として「モンスターハンター(登録商標)」が挙げられているが、この「モンスターハンター(登録商標)」では雪山、火山、森林、洞窟、砂漠、川、湖、海、などの各種の自然環境を含むフィールドがモンスターの狩猟フィールドとして設定されていることはよく知られている。そして、その狩猟フィールドに登場するモンスターも陸上だけでなく水中や砂中などに生息したり、水中や砂中や空中などを移動したりする多種多様なものが設定されている。   JP-A-2008-188308 discloses “Monster Hunter (registered trademark)” as an example of game software. In “Monster Hunter (registered trademark)”, there are snowy mountains, volcanoes, forests, caves, deserts, rivers, lakes. It is well known that fields including various natural environments such as sea, sea, etc. are set as monster hunting fields. A variety of monsters appearing in the hunting field are inhabited not only on land but also in the water and in the sand, and move in the water, in the sand, and in the air.

「モンスターハンター(登録商標)」のゲーム空間(狩猟フィールド)を音響環境の観点で見ると、音の伝播特性や音高特性(周波数特性)の異なる複数の媒質(水、空気、岩など)を含むゲーム空間が設定されている。また、洞窟の中や壁や森林に囲まれた場所などの残響特性の異なるゲーム空間も設定されている。   If you look at the game space (hunting field) of "Monster Hunter (registered trademark)" from the viewpoint of the acoustic environment, it contains multiple media (water, air, rocks, etc.) with different sound propagation characteristics and pitch characteristics (frequency characteristics) A game space is set. There are also game spaces with different reverberation characteristics, such as inside a cave and surrounded by walls and forests.

モンスター(発音体)とハンター(聴音体)はそれぞれ独立して移動するから、ゲーム空間における両者間の距離は一定でなく、両者の存在する媒質も変化する。例えば、水中と陸地や空(気中)の両方を移動可能なモンスターをハンターが追尾しながら狩猟する場合、両者が陸地にいる場合だけでなく、両者が水中にいる場合や一方が水中にいて他方が陸地にいたり、一方が陸地にいて他方が水中にいたりする場合などの場面が生じる。   Since the monster (sounding body) and the hunter (listening body) move independently from each other, the distance between the two in the game space is not constant, and the medium in which both exist also changes. For example, when a hunter tracks a monster that can move both underwater and on land and in the air (in the air), not only when both are on land but also when both are underwater or one is underwater There are situations where the other is on land, or one is on land and the other is underwater.

モンスター(発音体)とハンター(聴音体)の位置関係が異なる媒質の間で変化する場合、モンスターの発生した音のハンターの位置での聞こえ方は単に距離減衰に基づく音量だけでなく、媒質の周波数特性や残響特性などの特性によっても異なってくる。   When the positional relationship between a monster (sounding body) and a hunter (listening body) changes between different media, how the sound generated by the monster is heard at the hunter's position is not only the volume based on distance attenuation, It also depends on characteristics such as frequency characteristics and reverberation characteristics.

なお、周波数特性に基づく音の聞こえ方の相違とは、周波数によって伝播特性が異なることに基づき音色が異なる場合であり、例えば、水中では高周波成分の伝播距離は非常に短くなるから、ハンターが水中で聞こえる音は陸上で聞える音に対して特定の周波数以上の高周波成分がカットされたような音(こもったような音)になる例が挙げられる。   Note that the difference in how sounds are heard based on frequency characteristics is when the timbre differs based on the difference in propagation characteristics depending on the frequency.For example, the propagation distance of high-frequency components in water is very short. The sound that can be heard on the ground is an example of a sound that sounds like a sound that has been cut off from a sound that can be heard on land.

また、残響特性に基づく音の聞こえ方の相違とは、媒質によって周波数成分の伝播特性が異なることに基づき媒質によって残響成分の量などが異なり、これにより音の聞こえ方が異なる場合である。例えば、水中では陸上(空気中)に比べて低周波成分の伝播距離が長く、音の直進性も高いから、水中で聞こえる音は陸上で聞こえる音よりも低周波の残響成分の量が多くなる例が挙げられる。   The difference in how sounds are heard based on the reverberation characteristics is when the amount of reverberation components differs depending on the medium based on the propagation characteristics of frequency components differing depending on the medium, and the sound is heard differently. For example, underwater, the propagation distance of low-frequency components is longer than that of land (in the air) and the straightness of sound is high, so the sound that can be heard in water has a higher amount of reverberant components at low frequencies than the sound that can be heard on land. An example is given.

図12は、モンスター(発音体)とハンター(聴音体)の位置関係によってハンターに聞こえるモンスターの発生音が変化することを説明するための図である。   FIG. 12 is a diagram for explaining that the sound generated by the monster heard by the hunter changes depending on the positional relationship between the monster (sounding body) and the hunter (listening body).

同図(a),(b)に示すように、陸上(空気中)にいるモンスターMが発する咆哮音Sを陸上(空気中)にいるハンターHが聴く場面Aと、水中にいるモンスターMが発する咆哮音Sを陸上にいるハンターHが聴く場面Bとを比較すると、場面AではモンスターMの咆哮音Sは空気中だけを伝播するから、主として空気中における減衰特性に基づいて音量を制御してハンターHに聞こえる咆哮音Sを発生しても特に違和感は生じない。   As shown in FIGS. 4A and 4B, a scene A where a hunter H on land (in the air) listens to the roar S generated by the monster M on land (in the air) and a monster M in the water Compared with the scene B where the hunter H on land listens to the uttered roar S, in the scene A, the roar S of the monster M propagates only in the air, so the volume is controlled mainly based on the attenuation characteristics in the air. Even if the stuttering sound S heard by the hunter H is generated, there is no particular sense of incongruity.

しかし、場面BではモンスターMが水中で咆哮すると、その咆哮音Sは水中と空気中を伝播してハンターHに届くから、場面Aと同様の咆哮音Sを出力すると、不自然さが残ることになる。特に、場面Bから場面Aの状態になるようにモンスターMが咆哮しながら移動する場面では、ハンターHに聞こえるモンスターMの咆哮音Sは、モンスターMが水中から陸上(空気中)に出る瞬間にその音量や音色の特性が不連続に変化するはずである。   However, when the monster M roars in the water in the scene B, the roar S propagates in the water and in the air and reaches the hunter H. If the roar S similar to the scene A is output, the unnaturalness remains. become. In particular, in the scene where the monster M moves while scolding from the scene B to the state of the scene A, the roar S of the monster M that can be heard by the hunter H is the moment when the monster M goes out of the water (in the air). The volume and timbre characteristics should change discontinuously.

従って、上記のような咆哮音Sの媒質による伝播特性の相違を考慮すると、咆哮音Sを発しながらモンスターMが水中から陸上(空気中)に移動する場面の、例えば水中から陸上(空気中)に出る瞬間などでは、ハンターHに聞こえるモンスターMの咆哮音Sの音量(咆哮音Sの振幅)や音色(咆哮音Sの周波数成分)などの特性は不連続に変化させる方がプレイヤにはより自然でリアリティに優れた聴覚的効果を与えることになる。   Therefore, in consideration of the difference in propagation characteristics due to the medium of the roaring S as described above, a scene where the monster M moves from the water to the land (in the air) while emitting the roaring S, for example, from the water to the land (in the air) At the moment of appearing on the player, it is better for the player to discontinuously change characteristics such as the volume of the roar S (the amplitude of the roar S) and the tone (frequency component of the roar S) of the monster M that can be heard by the hunter H. It gives a natural and realistic auditory effect.

しかしながら、従来のゲームソフトでは、ゲーム空間における異なる媒質の音の伝播特性を考慮せず、単に音の減衰特性や遮音物による遮音量だけを考慮して効果音を制御しているだけであるので、ゲーム展開に基づく種々のゲーム場面によっては、モンスターの発する咆哮音などの効果音がプレイヤに対して不自然な感じを与え、効果音の品質においては改善すべき点があった。   However, conventional game software does not consider the sound propagation characteristics of different media in the game space, but only controls sound effects taking into account only the sound attenuation characteristics and sound insulation volume due to sound insulation. Depending on various game scenes based on the game development, sound effects such as roaring sounds produced by monsters give the player an unnatural feeling, and there is a point to be improved in the quality of the sound effects.

なお、上記の改善点は、ゲームソフトに限らず、三次元映像を表示装置に表示する際、その三次元映像の対象となっている三次元空間において発音体の発する音が三次元空間に設定された所定の聴音位置で聞こえる音を擬似的に生成し、効果音として出力する場合についても言えることである。   Note that the above improvements are not limited to game software. When a 3D image is displayed on a display device, the sound produced by the sounding body in the 3D space that is the target of the 3D image is set in the 3D space. This also applies to the case where a sound that can be heard at a predetermined listening position is generated and output as a sound effect.

本発明は、上記の課題に鑑みてなされたものであり、三次元画像を表示装置に表示する際、その三次元画像で描写される場面に応じた現実世界に近い自然な感じの擬似的な音を生成し、効果音として出力することができる効果音生成装置及びその効果音生成装置を実現するための効果音生成プログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and when displaying a three-dimensional image on a display device, a pseudo-natural feeling close to the real world according to the scene depicted in the three-dimensional image. An object is to provide a sound effect generating device capable of generating sound and outputting it as a sound effect and a sound effect generating program for realizing the sound effect generating device.

本発明は、コンピュータを、三次元画像で表示される複数の媒質を含む仮想空間上の発音体の発音動作に対して、当該発音体の発生音を前記仮想空間上に設定された所定の聴音位置で聞こえる音に加工し、効果音として出力する効果音生成装置として機能させる効果音生成プログラムであって、前記複数の媒質には、残響特性が異なる第1の媒質と第2の媒質が含まれ、前記コンピュータを、前記三次元画像上で前記発音体が発音動作を開始するとき、前記発音体の発する1以上の原音データを記憶する原音データ記憶手段から当該発音動作に対応する原音データを読み出し、当該原音データから音声信号を再生する原音データ再生手段と、前記原音データ再生手段が前記音声信号を再生している期間に、前記仮想空間上の前記発音体と前記聴音位置の位置情報を所定のタイミングで取得する位置情報取得手段と、前記位置情報取得手段で前記位置情報が取得される毎に、前記発音体の存在する媒質と前記聴音位置の存在する媒質の組合せを特定する媒質組合せ特定手段と、前記媒質組合せ特定手段により前記2種類の媒質の組合せが特定される毎に、加工データ記憶手段に前記発音体の存在する媒質と前記聴音位置の存在する媒質の組合せ毎に予め記憶されている、前記原音データから生成され、当該原音データに付加される残響信号の内容と音量を含む残響特性を含む所定の音響特性を加工するための複数の加工データの中から、前記媒質組合せ特定手段により特定された前記2種類の媒質の組合せに対応する加工データを読み出し、その加工データを用いて前記音声信号の加工を行う音声信号加工手段と、して機能させ、前記残響信号の音量の特性は、同一の媒質に前記発音体と前記聴音位置が存在する場合の前記残響信号の音量に対して異なる媒質に前記発音体と前記聴音位置が存在する場合の前記残響信号の音量を減少させる特性であり、前記発音体が前記第1の媒質に存在し、前記聴音位置が前記第2の媒質に存在する場合の前記残響信号の音量を減少させる度合いは、前記発音体が前記第2の媒質に存在し、前記聴音位置が前記第1の媒質に存在する場合の度合いと異なる、ことを特徴とする効果音生成プログラムである(請求項1)。   The present invention relates to a computer that generates a sound generated by a sounding body in a virtual space including a plurality of media displayed in a three-dimensional image. A sound effect generating program for processing a sound that can be heard at a position and outputting the sound as a sound effect, wherein the plurality of media includes a first medium and a second medium having different reverberation characteristics When the sounding body starts a sounding operation on the three-dimensional image, the computer obtains original sound data corresponding to the sounding operation from original sound data storage means for storing one or more original sound data emitted by the sounding body. Reading, reproducing the audio signal from the original sound data, and the sound source on the virtual space and the sound source in the period when the original sound data reproducing unit is reproducing the audio signal A position information acquisition unit that acquires position information of a sound position at a predetermined timing; and each time the position information is acquired by the position information acquisition unit, a medium in which the sounding body exists and a medium in which the listening position exists A medium combination specifying means for specifying a combination, and a medium in which the sounding body is present in the processing data storage means and a medium in which the listening position is present each time the combination of the two types of media is specified by the medium combination specifying means A plurality of pieces of processing data for processing predetermined acoustic characteristics including reverberation characteristics including the content and volume of the reverberation signal generated from the original sound data and added to the original sound data. The processing data corresponding to the combination of the two types of media specified by the medium combination specifying means is read out, and the audio signal is added using the processing data. The reverberation signal volume characteristic is different from the sound volume of the reverberation signal when the sounding body and the listening position exist in the same medium. A characteristic of reducing the volume of the reverberation signal when the sounding body and the listening position are present, wherein the sounding body is present in the first medium and the listening position is present in the second medium. The degree of reduction in the volume of the reverberation signal is different from the degree when the sounding body is present in the second medium and the listening position is present in the first medium. A program (claim 1).

上記の効果音生成プログラムにおいて、前記三次元画像は、前記仮想空間を移動可能なキャラクタ若しくはオブジェクトが前記発音体として登場するゲーム空間とし、当該ゲーム空間に移動可能に設定された仮想カメラで撮影したゲーム画像であり、前記聴音位置は、前記キャラクタのうちプレイヤが操作するキャラクタの位置、または前記仮想カメラの位置に対応付けられているとよい(請求項2)。   In the sound effect generation program, the three-dimensional image is taken as a game space in which a character or object that can move in the virtual space appears as the sounding body, and is shot with a virtual camera that is set to be movable in the game space. It is a game image, and the listening position may be associated with a position of a character operated by a player among the characters or a position of the virtual camera.

本発明は、請求項1又は2に記載の効果音生成プログラムを記憶したプログラム記憶部と、前記プログラム記憶部に記憶された効果音生成プログラムを実行する制御部と、を備えたことを特徴とする効果音生成装置である(請求項3)。     The present invention includes a program storage unit that stores the sound effect generation program according to claim 1 or 2, and a control unit that executes the sound effect generation program stored in the program storage unit. (3).

本発明によれば、三次元画像で表示される仮想空間上の発音体が発音動作を開始するとき、原音データ記憶手段から当該発音動作に対応する原音データが読み出され、再生される。この原音データが再生されている期間に、仮想空間上の発音体と聴音位置の位置情報が所定のタイミングで取得され、その位置情報の基づき発音体の存在する媒質と聴音位置の存在する媒質の組合せが特定される。   According to the present invention, when a sounding body in a virtual space displayed as a three-dimensional image starts a sounding operation, the original sound data corresponding to the sounding operation is read from the original sound data storage means and reproduced. During the period when the original sound data is being reproduced, the position information of the sounding body and the listening position in the virtual space is acquired at a predetermined timing, and based on the position information, the medium where the sounding body exists and the medium where the listening position exists A combination is specified.

そして、媒質の組合せが特定される毎に、加工データ記憶手段からその媒質の組合せに対応する加工データ(原音データの周波数成分、距離による減衰、媒質変化による音量変化などの特性を加工するためのデータ)が読み出され、その加工データを用いて再生されている音声信号の加工処理が行われる。これにより、原音データの再生音が、三次元画像で表示される発音体と聴音位置との相対的な位置関係の変化に応じて変化するので、発音体の音の聞こえ方を可及的に現実世界に近い自然な聞こえ方にすることができる。   Each time a combination of media is specified, processing data (for processing characteristics such as frequency components of the original sound data, attenuation due to distance, volume change due to medium change, etc.) corresponding to the combination of the media from the processing data storage means Data) is read out, and the audio signal being reproduced is processed using the processed data. As a result, the reproduced sound of the original sound data changes in accordance with the change in the relative positional relationship between the sounding body displayed in the three-dimensional image and the listening position, so that the sounding sound of the sounding body can be heard as much as possible. You can make it sound more natural to the real world.

特に、媒質の音響特性が及ぼす音量や音色や媒質変化に伴う音量変化などの特性を効果音の生成処理に反映するので、発音体が異なる媒質の間を移動したときの音の不連続な聞こえ方を擬似的に表現することができ、音の聞こえ方により自然さを与えることができる。   In particular, the sound characteristics, such as the volume, tone color, and volume changes that accompany changes in the medium, are reflected in the sound effect generation process, so that the sound can be heard discontinuously when the sounding body moves between different media. Can be expressed in a pseudo manner, and naturalness can be given depending on how the sound is heard.

雪山の麓の湖と陸地を含むエリアのゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen of the area containing the lake and the land of a snowy mountain. 本発明に係る効果音生成プログラムを含むゲームプログラムを実行するビデオゲーム装置の概観を示す正面図である。1 is a front view showing an overview of a video game device that executes a game program including a sound effect generation program according to the present invention. ビデオゲーム装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of a video game device. 三次元のゲーム画像の生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of a three-dimensional game image. 原音データの一例を示す図である。It is a figure which shows an example of original sound data. 減衰特性の一例を示す図である。It is a figure which shows an example of an attenuation characteristic. 4つの異なるシチュエーションにおける減衰処理、フィルタリング処理、残響処理などの内容を示した図である。It is the figure which showed the contents, such as an attenuation process, a filtering process, and a reverberation process, in four different situations. 本発明に係る効果音の生成処理プログラムを実行することによって実現される等価的な効果音生成回路を示す図である。It is a figure which shows the equivalent sound effect generation circuit implement | achieved by running the sound effect generation processing program which concerns on this invention. 本発明に係る効果音の生成処理手順を示すフローチャートである。It is a flowchart which shows the production | generation process sequence of the sound effect which concerns on this invention. 図9のステップS10の処理条件を決定する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which determines the process condition of FIG.9 S10. 本発明に係る効果音生成処理により発生される効果音の波形の変化の一例を示す図である。It is a figure which shows an example of the change of the waveform of the sound effect produced | generated by the sound effect production | generation process which concerns on this invention. モンスター(発音体)とハンター(聴音体)の位置関係によってハンターに聞こえるモンスターの発生音が変化することを説明するための図である。It is a figure for demonstrating that the generation | occurrence | production sound of the monster heard by a hunter changes with the positional relationship of a monster (sounding body) and a hunter (listening body).

本発明の好ましい実施の形態として、本発明に係る効果音生成プログラムをゲームソフトに適用した場合について、図面を参照して具体的に説明する。   As a preferred embodiment of the present invention, a case where a sound effect generation program according to the present invention is applied to game software will be specifically described with reference to the drawings.

以下の説明では、シリーズ化されている「モンスターハンター(登録商標)」というゲームソフトを例に説明するが、本発明に係る効果音生成プログラムをゲームソフトに適用した場合、その効果音はゲーム画像によって表示されるゲーム場面に対応した内容となるので、まず、モンスターハンター(登録商標)について、主として効果音生成に関係するゲーム場面を中心に簡単に説明する。   In the following description, a series of game software called “Monster Hunter (registered trademark)” will be described as an example. However, when the sound effect generation program according to the present invention is applied to the game software, the sound effect depends on the game image. Since the contents correspond to the displayed game scene, first, Monster Hunter (registered trademark) will be briefly described focusing on game scenes mainly related to sound effect generation.

モンスターハンター(登録商標)は、敵キャラクタである多種多様のモンスターが生息する仮想社会(仮想のゲーム空間)にプレイヤの分身であるハンター(プレイヤキャラクタ)を登場させ、そのハンターがモンスターの討伐若しくは捕獲、キノコや魚などの動植物の採取などの種々の指令(以下、「クエスト」という。)を仮想社会に存在する人から受注し、そのクエストを達成することにより報酬金を得てその仮想社会で生活することを内容とするハンティングアクションゲームである。   Monster Hunter (registered trademark) makes a hunter (player character) that is a player's alternation appear in a virtual society (virtual game space) inhabited by various monsters that are enemy characters, and that hunter subverts or captures the monster, Receive orders from people who exist in the virtual society, such as the collection of animals and plants such as mushrooms and fish (hereinafter referred to as “quests”), and earn rewards for achieving those quests and living in that virtual society. It is a hunting action game whose content is to do.

モンスターが生息する仮想のゲーム空間は、現実の自然環境に類似した環境を有しており、例えば、雪山、密林、砂漠、沼地などの複数のモンスターの生息場所(以下、「狩猟フィールド」という。)が設けられている。   The virtual game space where the monsters inhabit has an environment similar to the actual natural environment. For example, a plurality of monster habitats such as snowy mountains, dense forests, deserts, and swamps (hereinafter referred to as “hunting fields”). ) Is provided.

各狩猟フィールドは複数のエリア(狩場)に分かれており、例えば、雪山の狩猟フィールドでは、雪山の麓にある湖と陸地を含むエリア、雪山に繋がる氷の洞窟のエリア、山奥の山壁に囲まれたエリア、山頂近くの開けたエリアなどが設けられている。雪山に出現するモンスターは上記の複数のエリアを移動しながら生息しており、プレイヤは操作ボタンを操作してハンターを上記の複数のエリアのいずれかに移動させてモンスターを探索する。そして、いずれかのエリアでハンターがモンスターに出会えば、プレイヤはハンターをモンスターと対決させることができ、その対決でモンスターを討伐(モンスターの体力をゼロにする)若しくは捕獲すると、クエスト達成となる。   Each hunting field is divided into multiple areas (hunting grounds). For example, in a snowy mountain hunting field, it is surrounded by an area including a lake and land at the foot of the snowy mountain, an ice cave area connected to the snowy mountain, and a mountain wall in the back of the mountain. Area, open area near the summit. The monster that appears in the snowy mountain lives while moving in the plurality of areas, and the player operates the operation button to move the hunter to any of the plurality of areas to search for the monster. If the hunter meets a monster in any area, the player can confront the hunter with the monster, and if the monster is subjugated (set the monster's physical strength to zero) or captured, the quest is achieved.

上記のように、各狩猟フィールドには、モンスターの生息場所として陸上や空中だけでなく水中などが設けられており、モンスターの種類によっては陸上や空中だけでなく水中や砂中や地中も移動するものが存在している。このため、ハンターがモンスターを探索できる場所も陸上だけでなく水中なども含まれるようになっている。   As mentioned above, each hunting field has monsters inhabited not only on land and in the air, but also underwater, etc. Depending on the type of monster, it moves not only on land and in the air, but also underwater, in the sand and in the ground. There is something to do. For this reason, locations where hunters can search for monsters include not only land but also underwater.

音響環境の観点で上記の狩猟フィ-ルドを見ると、例えば、雪山の麓にある湖と陸地を含むエリアは、図1(a)(b)に示すように、陸上や空中は「空気」で占められ、水中は「水」で占められ、音響特性(音の伝播特性や残響特性などの特性)の異なる2種類の媒質で占められたエリアとなっている。なお、図1(b)は、ハンターHとモンスターMとの縦方向の位置関係が分かるように、図1(a)のI−I線の部分の縦断面を示したものである。   Looking at the hunting field from the viewpoint of the acoustic environment, for example, the area including the lake and the land at the foot of the snowy mountain is “air” on land and in the air, as shown in FIGS. The water is occupied by “water” and is an area occupied by two types of media having different acoustic characteristics (characteristics such as sound propagation characteristics and reverberation characteristics). FIG. 1 (b) shows a vertical section of the portion taken along the line II in FIG. 1 (a) so that the vertical positional relationship between the hunter H and the monster M can be understood.

仮想のゲーム空間でも現実世界と類似した音響特性になっているとすると、媒質が空気の領域A1と水の領域A2では、ハンターHとモンスターMが同じ領域に居た場合でもハンターHのモンスターMの発する音(例えば咆哮音S)の聞こえ方は異なるのが自然である。ハンターHが陸上に居てモンスターMが水中に居たり、逆にハンターHが水中に居てモンスターMが陸上に居たりする場合でもハンターHのモンスターMの発する咆哮音Sの聞こえ方が異なることは同様である。このような音響環境は、空気で占められた領域と水以外の他の液体で占められた領域を含む狩猟フィールドでも同様である。   Assuming that the virtual game space has acoustic characteristics similar to those of the real world, even if the hunter H and the monster M are in the same area in the air area A1 and the water area A2, the monster M of the hunter H It is natural that the way sounds (eg, stuttering S) are heard is different. Even if Hunter H is on land and Monster M is underwater, or Hunter H is underwater and Monster M is on land, the sound of the roar S generated by Hunter H's monster M is different. Is the same. Such an acoustic environment is similar in a hunting field that includes areas occupied by air and areas occupied by liquids other than water.

上記のように、本実施形態に係るゲームソフトの「モンスターハンター(登録商標)」では、仮想のゲーム空間が現実世界に近い自然環境を有しており、ゲーム画面に表示されるゲーム場面には2種類以上の音響特性の異なる媒質で占められた領域が含まれ、しかも、ハンターH及びモンスターMはいずれの領域も移動可能に構成されている。従って、例えば、モンスターMの発する咆哮音SのハンターHの聞こえ方は、ゲーム空間におけるハンターHとモンスターMとの距離関係だけでなく、ハンターHとモンスターMがそれぞれ存在する領域(媒質)やハンターHの存在する位置の周りの音の反射物などの影響を受けるものとなっている。モンスターMの発する咆哮音Sだけでなく、ゲーム空間に登場する他のキャラクタやオブジェクトが発する、衝突音、爆発音、振動音などの各種の音についても同様である。   As described above, in the “Monster Hunter (registered trademark)” of the game software according to the present embodiment, the virtual game space has a natural environment close to the real world, and there are 2 game scenes displayed on the game screen. An area occupied by a medium having different acoustic characteristics of at least types is included, and the hunter H and the monster M are configured to be movable. Therefore, for example, how to hear the hunter H of the roar S generated by the monster M is not only the distance relationship between the hunter H and the monster M in the game space, but also the area (medium) or hunter where the hunter H and the monster M exist respectively. It is affected by the reflection of sound around the position where H exists. The same applies not only to the roar S generated by the monster M but also to various sounds such as collision sounds, explosion sounds, and vibration sounds generated by other characters and objects appearing in the game space.

従って、本発明に係る効果音生成プログラムでは、上記の音響環境を考慮し、ゲーム空間におけるハンターHとモンスターMや他のキャラクタやオブジェクトとの位置関係がどのように変化してもゲーム空間で発生した音の聞こえ方がその位置関係に応じた自然な聞こえ方となるように効果音の生成方法を工夫している。   Therefore, the sound effect generation program according to the present invention is generated in the game space regardless of how the positional relationship between the hunter H and the monster M, other characters, or objects in the game space changes in consideration of the acoustic environment described above. The method of generating sound effects is devised so that the sound is heard in a natural way according to the positional relationship.

次に、本発明に係る効果音生成プログラムを含むゲームプログラムを実行するビデオゲーム装置について説明する。   Next, a video game apparatus that executes a game program including a sound effect generation program according to the present invention will be described.

図2は、本発明に係る効果音生成プログラムを含むゲームプログラムを実行するビデオゲーム装置の概観を示す正面図である。   FIG. 2 is a front view showing an overview of a video game apparatus that executes a game program including a sound effect generation program according to the present invention.

ビデオゲーム装置1(以下、「ゲーム装置1」と略称する。)は、携帯型ビデオゲーム機である。本実施形態では携帯型ビデオゲーム機であるが、ゲーム装置としては家庭用のビデオゲーム機やゲームセンターに配置される業務用のビデオゲーム機(アーケードゲーム機)などの他の種類のゲーム機を用いることができる。   The video game apparatus 1 (hereinafter abbreviated as “game apparatus 1”) is a portable video game machine. Although this embodiment is a portable video game machine, other types of game machines such as home video game machines and commercial video game machines (arcade game machines) arranged in game centers are used as game devices. Can be used.

本発明に係る効果音生成プログラムを含むゲームプログラムとそのゲームプログラムに必要なゲームデータは、専用の可搬型記録メディア(以下、「ゲームメディア」という。)に記録されており、ゲームソフトメーカからユーザに提供される。ユーザがゲーム装置1の図略のゲームメディア装着部にゲームメディアを装着すると、ゲーム装置1は、当該ゲームメディアからゲームプログラム及びゲームデータを装置内のメモリ(RAM)に読み込み、CPU(Central Processing Unit)がゲームプログラムの実行を開始する。これにより、ユーザはゲーム装置1でゲームソフトを楽しむことができる。なお、アーケードゲーム機では、ゲーム機本体にゲームプログラムとゲームデータが一体的に組み込まれているので、ゲームをする際にゲームメディアをアーケードゲーム機に装着する必要はない。   The game program including the sound effect generation program according to the present invention and the game data necessary for the game program are recorded on a dedicated portable recording medium (hereinafter referred to as “game media”). Provided to. When a user inserts game media into a game media mounting section (not shown) of the game device 1, the game device 1 reads a game program and game data from the game media into a memory (RAM) in the device, and a CPU (Central Processing Unit). ) Starts executing the game program. Thereby, the user can enjoy the game software on the game apparatus 1. In the arcade game machine, the game program and the game data are integrally incorporated in the game machine main body, so that it is not necessary to attach the game media to the arcade game machine when playing the game.

ゲーム装置1は、横長長方形の薄型直方体からなる本体2を有する。本体2の上面の中央にゲーム画面であるディスプレイ3が配設され、このディスプレイ3の左右に方向キー4a及びジョイステックキー4bを含む操作キー4と4個のボタンからなる操作ボタン5とがそれぞれ配設されている。方向キー4aとジョイステックキー4bは縦に配列され、ジョイステックキー4bと操作ボタン5の下部に効果音を出力するための一対のスピーカ9a,9bが配設されている。   The game apparatus 1 has a main body 2 made of a horizontally long rectangular thin rectangular parallelepiped. A display 3, which is a game screen, is disposed at the center of the upper surface of the main body 2, and operation keys 4 including a direction key 4a and a joystick key 4b on the left and right of the display 3 and operation buttons 5 including four buttons are respectively provided. It is arranged. The direction key 4 a and the joystick key 4 b are arranged vertically, and a pair of speakers 9 a and 9 b for outputting sound effects are disposed below the joystick key 4 b and the operation button 5.

操作キー4は、主としてディスプレイ3に表示されるプレイヤの操作対象であるプレイヤキャラクタ(ハンター)の移動方向を指定したり、メニュー画面に表示される選択項目を選択するための選択方向を指定したりするための操作部材である。操作ボタン5は、例えば、ハンティングアクションゲームの場合、主としてゲーム進行中に敵キャラクタ(モンスター)に対してプレイヤキャラクタに攻撃動作や防御動作などの各種の動作指令をするための操作部材である。   The operation key 4 mainly designates the moving direction of the player character (hunter) that is the operation target of the player displayed on the display 3, or designates the selection direction for selecting the selection item displayed on the menu screen. It is the operation member for doing. For example, in the case of a hunting action game, the operation button 5 is an operation member for giving various action commands such as an attack action and a defense action to the player character mainly against an enemy character (monster) during the game.

スピーカ9a,9bからはゲーム進行中のBGMやゲーム展開において発生する各種の事象に対応した音(例えば、モンスターが発する咆哮音Sやモンスターが攻撃する攻撃音やその攻撃によって岩などのオブジェクトが崩壊する音など)やゲーム効果(例えば、ハンターがモンスターにダメージを与えたり、モンスターからダメージを受けたりした場合の効果)を演出する音などを発生する。   From the speakers 9a and 9b, sounds corresponding to various events that occur in the BGM during game progress and game development (for example, a roar S generated by a monster, an attack sound attacked by a monster, and an object such as a rock collapse due to the attack) Sound that produces a sound or a game effect (for example, an effect when a hunter damages or receives damage from a monster).

ディスプレイ3の下部には「START」ボタン6、「SELECT」ボタン7、音量調整ボタン8などの操作ボタンが配設されている。「START」ボタン6は、主としてゲームの開始時に「ゲーム開始」を指令するための操作ボタンであり、「SELECT」ボタン7は、主としてゲーム開始時にゲームの動作モードなどを選択するための操作ボタンである。なお、図示はしていないが、本体2の側面に電源ボタンやゲームメディアを装着するためのメディア装着部が設けられている。   At the bottom of the display 3, operation buttons such as a “START” button 6, a “SELECT” button 7, and a volume adjustment button 8 are arranged. The “START” button 6 is an operation button for mainly instructing “game start” at the start of the game, and the “SELECT” button 7 is an operation button for selecting a game operation mode mainly at the start of the game. is there. Although not shown, a media mounting part for mounting a power button and game media is provided on the side of the main body 2.

図3は、ゲーム装置1の内部構成を示すブロック図である。   FIG. 3 is a block diagram showing an internal configuration of the game apparatus 1.

ゲーム装置1は、CPU11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、描画データ生成プロセッサ14、描画処理プロセッサ15、VRAM(Video-RAM)16、D/A(Digital-Analog)コンバータ17、表示部18、音声処理プロセッサ19、アンプ20、スピーカ21、操作部22、ドライバ23及びバス24を含んでいる。   The game apparatus 1 includes a CPU 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a drawing data generation processor 14, a drawing processing processor 15, a VRAM (Video-RAM) 16, and a D / A (Digital-Analog). It includes a converter 17, a display unit 18, an audio processor 19, an amplifier 20, a speaker 21, an operation unit 22, a driver 23, and a bus 24.

なお、表示部18は図2のディスプレイ3に対応し、スピーカ21は図2のスピーカ9a,9bに対応している。また、操作部22は、図2の操作キー4、操作ボタン5、「START」ボタン6、「SELECT」ボタン7、音量調整ボタン8などの操作ボタンや図略の電源ボタンなどに対応している。プレイヤによってこれらの操作部材が操作されると、その操作信号が操作部22からCPU11に入力される。   The display unit 18 corresponds to the display 3 in FIG. 2, and the speaker 21 corresponds to the speakers 9a and 9b in FIG. The operation unit 22 corresponds to the operation buttons 4, the operation buttons 5, the “START” button 6, the “SELECT” button 7, the volume adjustment button 8, and the like, and the power button (not shown). . When these operation members are operated by the player, an operation signal is input from the operation unit 22 to the CPU 11.

CPU11、ROM12、RAM13、描画データ生成プロセッサ14、描画処理プロセッサ15、音声処理プロセッサ19及びドライバ23はバス24によって相互にデータ伝送可能に接続されている。   The CPU 11, ROM 12, RAM 13, drawing data generation processor 14, drawing processing processor 15, sound processing processor 19, and driver 23 are connected to each other via a bus 24 so that data can be transmitted.

ゲームメディア10には、ゲームプログラム及びゲームデータが記録されている。ゲームデータには、キャラクタや背景の画像データ、ステータスなどの情報表示用の画像データ、BGMやゲーム空間内に出現するプレイヤキャラクタ(ハンター)、敵キャラクタ(モンスター)、オブジェクト(他の動物や植物)などの発する各種の音などの効果音に関する音響データ、文字や記号によるメッセージデータなどが含まれる。音響データには、例えば、原音データ、原音の音量や周波数成分の調整値、原音データから残響成分のデータを生成する際のパラメータ値(後述する)や残響成分の音量調整値などの加工内容を指定するためのデータなどの本発明に係る効果音生成プログラムで使用される各種のデータが含まれている。音響データの詳細は後述する。   A game program and game data are recorded on the game media 10. The game data includes character and background image data, image data for displaying information such as status, player characters (hunters), enemy characters (monsters), and objects (other animals and plants) that appear in BGM and game space. Sound data related to sound effects such as various kinds of sounds, message data using characters and symbols, and the like. The acoustic data includes, for example, processing contents such as original sound data, original sound volume and frequency component adjustment values, parameter values for generating reverberation component data from the original sound data (described later), and reverberation component volume adjustment values. Various data used in the sound effect generation program according to the present invention such as data for designating are included. Details of the acoustic data will be described later.

ROM12には、ディスクローディング機能などのゲーム装置1の基本的機能やゲームメディア10に記憶されたゲームプログラム及びゲームデータを読み出す手順などを示す基本プログラムが記憶されている。RAM13は、ドライバ23によってゲームメディア10から読み込まれたゲームプログラム及びゲームデータを格納したり、CPU11がRAM13に格納されたゲームプログラムを実行する際に必要な記憶領域を提供したりする。なお、ゲーム装置1が、ゲームメディア10として光ディスクの一種であるUMD(Universal media Disc)(登録商標)を採用している場合は、ドライバ23は、光ディスクドライバによって構成される。   The ROM 12 stores a basic program indicating a basic function of the game apparatus 1 such as a disk loading function, a game program stored in the game media 10 and a procedure for reading game data, and the like. The RAM 13 stores a game program and game data read from the game media 10 by the driver 23, and provides a storage area necessary when the CPU 11 executes the game program stored in the RAM 13. When the game apparatus 1 employs a UMD (Universal media Disc) (registered trademark), which is a kind of optical disc, as the game media 10, the driver 23 is configured by an optical disc driver.

CPU11は、メディア装着部(図示省略)にゲームメディア10が装着されると、ROM12の基本プログラムに従ってドライバ23を動作させ、ゲームメディア10からゲーム起動時に必要なゲームプログラム及びゲームデータをRAM13に読み込み、ゲーム開始状態に設定する。その後、CPU11は、操作部22からのプレイヤの操作信号に基づいてRAM13に読み込まれたゲームプログラムを実行することより、ゲーム進行やゲーム展開を統括的に制御する。   When the game media 10 is loaded in the media loading unit (not shown), the CPU 11 operates the driver 23 according to the basic program in the ROM 12 and reads the game program and game data necessary for starting the game from the game media 10 into the RAM 13. Set to the game start state. Thereafter, the CPU 11 performs overall control of game progress and game development by executing a game program read into the RAM 13 based on a player operation signal from the operation unit 22.

なお、モンスターハンター(登録商標)は、独立した複数のゲームプログラムの集合体で構成されている。例えば、上述したように、狩猟フィールドには雪山フィールド、密林フィールド、砂漠フィールド、沼地フィールドなどが設けられているが、これらの各フィールドは複数の狩猟エリアで構成されているので、狩猟エリア毎にゲーム進行を制御するゲームプログラムが作成されている。   Monster Hunter (registered trademark) is composed of a collection of a plurality of independent game programs. For example, as described above, a hunting field has a snowy mountain field, a dense forest field, a desert field, a swamp field, etc., but each of these fields is composed of a plurality of hunting areas. A game program for controlling the game progress has been created.

従って、例えば、狩猟フィールドにおけるゲーム進行の制御では、プレイヤによって狩猟エリアが選択される毎にその狩猟エリアのゲームプログラムをゲームメディア10からRAM13に読み込み、CPU11がそのゲームプログラムを実行することによりその狩猟エリアにおけるゲーム進行が制御される。他のゲーム場面のゲーム進行の処理についても同様で、プレイヤの選択操作に応じて必要なゲームプログラムとゲームデータとがゲームメディア10からRAM13に読み込まれ、そのゲームプログラムをCPU11が実行することよりゲーム進行およびゲーム展開が制御される。   Therefore, for example, in the control of the game progress in the hunting field, every time a hunting area is selected by the player, the game program of the hunting area is read from the game media 10 into the RAM 13, and the hunting is executed by the CPU 11 executing the game program. The game progress in the area is controlled. The same applies to the process of game progress in other game scenes, and a game program and game data required in accordance with the player's selection operation are read from the game media 10 into the RAM 13, and the game program is executed by the CPU 11 executing the game program. Progress and game development are controlled.

ゲームプログラムには、CPU11に実行させるための処理手順や各種命令等が記述されている。狩猟フィールドの各エリアにおけるゲーム進行を制御するゲームプログラムには、モンスターMの動作やその他のオブジェクトの動きを制御するプログラムが含まれている。従って、CPU11がそのゲームプログラムを実行することによりゲーム空間におけるモンスターMの動作やその他のオブジェクトの動きが自動的に制御される。   The game program describes processing procedures and various instructions to be executed by the CPU 11. The game program for controlling the game progress in each area of the hunting field includes a program for controlling the movement of the monster M and the movement of other objects. Therefore, when the CPU 11 executes the game program, the operation of the monster M and the movement of other objects in the game space are automatically controlled.

モンスターMの咆哮動作も当該モンスターMの動作を制御するゲームプログラムに記述されており、CPU11が咆哮指令を実行すると、CPU11から音声処理プロセッサ19にその咆哮指令に対応する咆哮音Sの情報が出力され、音声処理プロセッサ19で咆哮音Sの出力処理が行われる。   The spear movement of the monster M is also described in the game program that controls the movement of the monster M. When the CPU 11 executes the spear command, the CPU 11 outputs information on the stutter sound S corresponding to the spear command to the voice processor 19. Then, the sound processor 19 performs the output process of the stuttering S.

一方、ハンターHの動作を制御するゲームプログラムは、基本的にプレイヤによる操作キー4や操作ボタン5の操作に基づく操作部22からの操作信号によってその動作が制御される構成となっている。従って、CPU11は、操作部22からプレイヤの操作信号が入力されると、ゲームプログラムに従ってその操作信号に対する所定の動作をハンターHに行わせる処理を行い、その処理結果を表示部18にゲーム進行を示すゲーム画像として表示する。また、ハンターHの動作によって効果音を発生させる事象が発生する場合(モンスターMへの攻撃音の発生やモンスターMによる攻撃音の発生など)、CPU11は、その処理結果によって算出される効果音の情報を音声処理プロセッサ19に出力し、音声処理プロセッサ19でその効果音の発生処理が行わせる。この効果音の発生処理の詳細は後述する。   On the other hand, the game program for controlling the operation of the hunter H is basically configured such that the operation is controlled by an operation signal from the operation unit 22 based on the operation of the operation keys 4 and the operation buttons 5 by the player. Therefore, when the player's operation signal is input from the operation unit 22, the CPU 11 performs a process for causing the hunter H to perform a predetermined operation on the operation signal according to the game program, and displays the processing result on the display unit 18. It displays as a game image to show. In addition, when an event that generates a sound effect occurs due to the action of the hunter H (such as an attack sound on the monster M or an attack sound generated by the monster M), the CPU 11 determines the sound effect calculated based on the processing result. The information is output to the sound processor 19, and the sound processor 19 performs the sound effect generation process. Details of the sound effect generation process will be described later.

ゲーム画像としては、三次元コンピュータグラフィクスを用いたアニメーション技術により作成される三次元(3D)アニメーション画像が用いられる。この三次元のゲーム画像は、図4に示すように、ハンター(プレイヤキャラクタ)Hに対して後方の所定の位置CP(ハンターHの位置HPより水平方向に距離dだけ後方で高さhの位置)に仮想カメラCを配置し、この仮想カメラCでハンターH側を撮影して得られる画像を各コマの画像として生成したものである。   As the game image, a three-dimensional (3D) animation image created by an animation technique using three-dimensional computer graphics is used. As shown in FIG. 4, the three-dimensional game image is a predetermined position CP behind the hunter (player character) H (a position at a height h behind the position HP of the hunter H by a distance d in the horizontal direction). ), And an image obtained by photographing the hunter H side with the virtual camera C is generated as an image of each frame.

なお、画像は、仮想カメラCからハンターH側に視線を伸ばし、その視線が仮想カメラCとハンターHとの間に仮想的に配置されたスクリーンと交差する位置にハンターHやモンスターMや背景の山などの他の物体を描画したもの(透視投影法による二次元画像)である。   The image extends from the virtual camera C to the hunter H side, and the sight line of the hunter H, the monster M, or the background is at a position where the line of sight intersects the screen virtually placed between the virtual camera C and the hunter H. This is a drawing (two-dimensional image by perspective projection method) depicting another object such as a mountain.

プレイヤの方向キー4aまたはジョイステックキー4bの操作によりハンターHがゲーム空間内を移動する場合、仮想カメラCもハンターHと共に移動させながら各コマの画像を生成することにより、ゲーム画面にはゲーム空間内で移動するハンターHの画像が表示される。   When the hunter H moves in the game space by the player's operation of the directional key 4a or the joystick key 4b, the virtual camera C moves with the hunter H while generating images of each frame, so that the game screen has a game space. An image of the hunter H moving within is displayed.

ゲーム空間における仮想カメラCは、ハンターHと共に移動する。本実施形態では、ハンターHが陸上だけでなく水中などの他の媒質の領域中も移動できるように設定されているので、プレイヤがハンターHを水中に移動させた場合は仮想カメラCも水中に移動し、水中内でのモンスターMの探索シーンやモンスターMとの対戦シーンの画像が表示される。   The virtual camera C in the game space moves with the hunter H. In the present embodiment, since the hunter H is set to move not only on land but also in other medium areas such as underwater, the virtual camera C is also underwater when the player moves the hunter H underwater. It moves and the image of the search scene of the monster M in the water and the battle scene with the monster M is displayed.

また、プレイヤはハンターHを停止させた状態で方向キー4aまたはジョイステックキー4bを操作して仮想カメラCだけを移動させることができる。例えば、プレイヤはハンターHの周りに仮想カメラCを回転移動させたり、仮想カメラCの位置をハンターHの目の位置に切り換えたりすることができる。従って、プレイヤは陸上のハンターHを移動させることなく、仮想カメラCだけを水中などの他の媒質の領域内の所定の位置に移動させることができる。   Further, the player can move only the virtual camera C by operating the direction key 4a or the joystick key 4b while the hunter H is stopped. For example, the player can rotate the virtual camera C around the hunter H or switch the position of the virtual camera C to the position of the hunter H eye. Therefore, the player can move only the virtual camera C to a predetermined position in the area of another medium such as underwater without moving the land-based hunter H.

そして、本実施形態では、後述するようにゲーム空間における仮想カメラCの位置CPを当該ゲーム空間内で発生する音(ゲーム空間内に出現するキャラクタやオブジェクトが発する音)の聴音位置TPに設定し、効果音の発生処理では、モンスターMの咆哮音Sなどのゲーム空間内で発生する音をその聴音位置TPで聞こえる音に加工して出力するようにしている。   In the present embodiment, as will be described later, the position CP of the virtual camera C in the game space is set to the listening position TP of the sound generated in the game space (the sound generated by the character or object appearing in the game space). In the sound effect generation processing, sounds generated in the game space such as the roar S of the monster M are processed into sounds that can be heard at the listening position TP and output.

なお、各コマの画像を作成したり、効果音を発生させたりする際、仮想カメラCとゲーム空間に登場するハンターHやモンスターMやその他のオブジェクトなどの物体のゲーム空間における位置を定義し、これらの位置関係(距離と方向)の情報が必要になるので、各エリアのゲーム空間には、図1(a)に示すように、互いに直交するXYZ座標系が設けられている。   In addition, when creating an image of each frame or generating a sound effect, the virtual camera C and the position in the game space of objects such as the hunter H, monster M and other objects appearing in the game space are defined, Since information on these positional relationships (distance and direction) is required, the game space in each area is provided with XYZ coordinate systems orthogonal to each other as shown in FIG.

XYZ座標系の原点は任意に設定することができるが、本実施形態では、仮想カメラCやハンターHが水中にも移動し、水中シーンもゲーム場面として表示されるので、図1に示すように、隣接した2つの異なる媒質を含むエリアのゲーム空間ではZ座標の0基準が図1(b)に示すように水面の位置(媒質の境界)に設定されるように、XYZ座標系が設定される。従って、例えば、XY平面の+X軸と+Y軸で囲まれる領域にエリアのゲーム空間が設定される場合、ゲーム空間に登場する物体のX座標とY座標はいずれも正の値となるが、Z座標は、その物体が陸上もしくは空中に存在するときに正の値となり、水中に存在するときは負の値となる。   Although the origin of the XYZ coordinate system can be arbitrarily set, in this embodiment, the virtual camera C and the hunter H move underwater, and the underwater scene is displayed as a game scene, as shown in FIG. In the game space of an area including two different adjacent media, the XYZ coordinate system is set so that the zero reference of the Z coordinate is set to the position of the water surface (medium boundary) as shown in FIG. The Therefore, for example, when an area game space is set in an area surrounded by the + X axis and + Y axis on the XY plane, the X coordinate and Y coordinate of an object appearing in the game space are both positive values. The coordinates are positive when the object is on land or in the air, and are negative when the object is in water.

図3に戻り、表示部18に表示するためのゲーム画像(3Dアニメーション画像)の描画処理は、主として描画データ生成プロセッサ14と描画処理プロセッサ15とによって行われる。CPU11は、操作部22からのプレイヤの操作信号に基づき、表示部18に表示すべきゲーム画像の内容を決定し、その画像の描画に必要な画像データ(背景、プレイヤキャラクタ(ハンターH)や他のキャラクタ(モンスターM)やその他のオブジェクトのポリゴンデータ、テクスチャデータ、光源データなどのデータ)をRAM13から読み出して描画データ生成プロセッサ14に供給する。また、CPU11は、操作部22から入力される操作情報を描画データ生成プロセッサ14に供給する。   Returning to FIG. 3, the drawing processing of the game image (3D animation image) to be displayed on the display unit 18 is mainly performed by the drawing data generation processor 14 and the drawing processing processor 15. The CPU 11 determines the content of the game image to be displayed on the display unit 18 based on the player's operation signal from the operation unit 22, and the image data (background, player character (hunter H) and others required for drawing the image) (Data such as polygon data, texture data, light source data, etc.) of the character (monster M) and other objects are read from the RAM 13 and supplied to the drawing data generation processor 14. Further, the CPU 11 supplies operation information input from the operation unit 22 to the drawing data generation processor 14.

描画データ生成プロセッサ14は、CPU11から供給される画像データと操作情報に基づいて、描画に必要なデータ(透視投影における仮想カメラC、ハンターH、モンスターM及び背景その他のオブジェクトの位置関係、スクリーン画面(表示部18の画面に相当)上におけるハンターH、モンスターM及び背景その他のオブジェクトを構成するポリゴンの座標、各ポリゴンに対応するテクスチャや反射特性などのデータ)を演算し、その演算結果を描画処理プロセッサ15に供給する。   Based on the image data and operation information supplied from the CPU 11, the drawing data generation processor 14 generates data necessary for drawing (the positional relationship between the virtual camera C, the hunter H, the monster M and the background and other objects in perspective projection, the screen screen (Equivalent to the screen of the display unit 18) The coordinates of the polygons that make up the hunter H, monster M and background and other objects above, and data such as texture and reflection characteristics corresponding to each polygon) are calculated, and the calculation results are drawn. This is supplied to the processor 15.

描画処理プロセッサ15は、CPU11からの描画指令に基づき、1/30秒毎に、描画データ生成プロセッサ14から供給されるデータを用いて表示部18に表示させる三次元アニメーションの各コマの画像(透視投影法による二次元画像)を生成する。描画処理プロセッサ15には各コマの画像の作成作業をするためのVRAM16が接続されている。   Based on the drawing command from the CPU 11, the drawing processor 15 uses the data supplied from the drawing data generation processor 14 every 1/30 seconds to display images of each frame of the three-dimensional animation displayed on the display unit 18 (see-through). 2D image by projection method). Connected to the drawing processor 15 is a VRAM 16 for creating an image of each frame.

VRAM16には、表示部18に表示される各コマの画像データを格納するためのバッファ領域(以下、「スクリーンバッファ」という。)が設けられている。描画処理プロセッサ15は、描画データ生成プロセッサ14から供給されるデータをVRAM16の作業領域に一時保存し、1/30秒毎にこの作業領域から表示すべき画像に必要なデータを読み出してスクリーンバッファに展開する処理(描画処理)を繰り返す。   The VRAM 16 is provided with a buffer area (hereinafter referred to as “screen buffer”) for storing image data of each frame displayed on the display unit 18. The drawing processor 15 temporarily stores the data supplied from the drawing data generation processor 14 in the work area of the VRAM 16, reads out data necessary for an image to be displayed from this work area every 1/30 seconds, and stores it in the screen buffer. Repeat the development process (drawing process).

VRAM16に展開された画像データは、D/Aコンバータ17でアナログ信号に変換されて表示部18に出力され、表示される。   The image data developed in the VRAM 16 is converted to an analog signal by the D / A converter 17 and output to the display unit 18 for display.

CPU11は、ゲームプログラムの実行により効果音を発生させる処理を行うと、その処理結果によって決定されたスピーカ21から出力すべき効果音(モンスターMの咆哮音SやハンターMの攻撃動作や防御動作で発生する音など)の内容を音声処理プロセッサ19に出力し、その効果音に対応した音声データを生成させ、その音声データをスピーカ21から出力させる。   When the CPU 11 performs a process of generating a sound effect by executing the game program, the sound effect to be output from the speaker 21 determined by the result of the process (the roaring sound S of the monster M or the attacking action or the defensive action of the hunter M). The content of the generated sound or the like is output to the sound processor 19, sound data corresponding to the sound effect is generated, and the sound data is output from the speaker 21.

音声処理プロセッサ19は、CPU11からの効果音生成指令に基づき、RAM13から効果音のデータを読み出し、所要のデジタル信号処理をした後、音声信号(アナログ信号)にD/A変換する処理をする。所要のデジタル信号処理には、本発明に係る効果音生成処理が含まれる。音声処理プロセッサ19から出力される音声信号は、アンプ20で所定のゲインで増幅された後、スピーカ21から出力される。   The sound processor 19 reads out sound effect data from the RAM 13 on the basis of the sound effect generation command from the CPU 11, performs necessary digital signal processing, and then performs D / A conversion to a sound signal (analog signal). The required digital signal processing includes sound effect generation processing according to the present invention. The audio signal output from the audio processor 19 is amplified with a predetermined gain by the amplifier 20 and then output from the speaker 21.

次に、本発明に係る効果音の生成処理について、モンスターMの位置を発音位置MP(図1のMPの位置参照)とし、ハンターHの位置HPを聴音位置TP(図1のHPの位置参照)とし、モンスターMの発する咆哮音Sを聴音位置TPで聞こえる音として出力する場合を例に説明する。なお、上述の説明では、仮想カメラCの位置CPを聴音位置TPとしていたが、ハンターHはプレイヤの分身としてゲーム空間に登場し、ハンターHを介してプレイヤがモンスターMの発する音を聴くことを想定しているので、ここでは、説明の便宜上、ハンターHの位置HPを聴音位置TPとし、「聴音位置HP」と表記する。   Next, regarding the sound effect generation processing according to the present invention, the position of the monster M is set to the sound generation position MP (refer to the position of MP in FIG. 1), and the position HP of the hunter H is set to the listening position TP (refer to the position of HP in FIG. 1). ), And a case where the stuttering sound S generated by the monster M is output as a sound heard at the listening position TP will be described as an example. In the above description, the position CP of the virtual camera C is set as the listening position TP. However, the hunter H appears in the game space as a player's alternation, and the player listens to the sound generated by the monster M through the hunter H. Since it is assumed, for convenience of explanation, the position HP of the hunter H is referred to as the listening position TP and is expressed as “listening position HP”.

上述したように、モンスターハンター(登録商標)では発音体であるモンスターMと聴音体のハンターHがゲーム空間の陸上だけでなく水中なども移動できる構成となっている。従って、例えば、図1に示すエリアの場合、ハンターHとモンスターMの存在する位置関係を分類すると、モンスターMもハンターHも陸上に存在する場合、モンスターMが陸上に存在しハンターHが水中に存在する場合、モンスターMが水中に存在しハンターHが陸上に存在する場合、モンスターMもハンターHも水中に存在する場合の4種類のシチュエーションに分けることができる。   As described above, Monster Hunter (registered trademark) is configured such that a monster M as a sounding body and a hunter H as a hearing body can move not only on land in the game space but also underwater. Therefore, for example, in the case of the area shown in FIG. 1, when the positional relationship between the hunter H and the monster M is classified, if the monster M and the hunter H exist on the land, the monster M exists on the land and the hunter H is in the water. When the monster M exists in the water and the hunter H exists on the ground, the monster M and the hunter H can be divided into four types of situations.

そして、4種類のシチュエーションを発音及び聴音の位置と媒質との関係で整理すると、
(1)発音位置MPも聴音位置HPも陸上(空気中)にある場合(ケース1)
(2)発音位置MPが水中にあり、聴音位置HPが陸上(空気中)にある場合(ケース2)
(3)発音位置MPが陸上(空気中)にあり、聴音位置HPが水中にある場合(ケース3)
(4)発音位置MPも聴音位置HPも水中にある場合(ケース4)
の4つのケースに分けることができる。
And if you organize the four types of situations by the relationship between the position of pronunciation and listening sound and the medium,
(1) When the sound generation position MP and the listening position HP are both on land (in the air) (case 1)
(2) When the sound generation position MP is in water and the listening position HP is on land (in the air) (Case 2)
(3) When the sound generation position MP is on land (in the air) and the listening position HP is in water (Case 3)
(4) When the sound generation position MP and the listening position HP are both underwater (Case 4)
It can be divided into four cases.

なお、以下の説明では、ケース1〜ケース4の内容を直感できるように、ケース(MP,HP)で表記した表現を適宜使用することにする。この表記によれば、ケース1=ケース(陸上,陸上)、ケース2=ケース(水中,陸上)、ケース3=ケース(陸上,水中)、ケース4=ケース(水中,水中)となる。   In the following description, expressions expressed in cases (MP, HP) are used as appropriate so that the contents of cases 1 to 4 can be intuitively understood. According to this notation, case 1 = case (land, land), case 2 = case (underwater, land), case 3 = case (land, underwater), and case 4 = case (underwater, underwater).

現実世界においては、空気中と水中で音波の伝わり方や減衰特性が異なり、例えば、(a)水中では数kHz以上の高周波は減衰量が大きく、伝搬距離が短い、(b)空気中よりも水中の方が音の直進性がある、などのことが知られている。本実施形態では、(a),(b)の特性を参考に、上記のケース1〜ケース4の4つのケースでの原音データに対する音量や周波数成分や残響成分の特性の加工処理を異ならせ、ゲーム画像で表現されるゲーム場面のシチュエーションがケース1〜ケース4の間で時々刻々と変化するのに応じて原音データに対して該当するケースの加工処理を行うことにより各ケースのゲーム場面の音の聞こえ方の違いを演出し、ゲーム上でプレイヤに与える聴覚的効果が可及的に自然な感じとなるようにしている。   In the real world, the way in which sound waves are transmitted and the attenuation characteristics differ between air and water. For example, (a) a high frequency of several kHz or more in water has a large attenuation and a short propagation distance. It is known that underwater people have straight sound. In the present embodiment, with reference to the characteristics of (a) and (b), the volume, frequency component, and reverberation component characteristics of the original sound data in the four cases 1 to 4 are processed differently. As the situation of the game scene represented by the game image changes from case 1 to case 4 every moment, the processing of the corresponding case is performed on the original sound data, so that the sound of the game scene in each case Is produced so that the auditory effect given to the player in the game is as natural as possible.

従って、本実施形態では、原音データに対して音量や周波数成分や残響成分の各特性を加工するための複数種類の処理プログラムが設けられている。なお、原音データは、例えば、モンスターMの咆哮動作に対して咆哮音Sを出力させるために、予め作成されたオリジナルの音声波形データである。原音データは、例えば、図5に示すアナログのオーディオ信号Wをデジタル信号に変換し、例えばADPCM(Adaptive Differential Pulse Code Modulation)により圧縮したデータで構成され、ゲームデータの音響データに含まれている。モンスターMが複数種類の鳴き声を発する場合、各鳴き声に対して原音データが予め作成されている。モンスターM以外のキャラクタやオブジェクトの発する音の原音データについても同様である。   Therefore, in this embodiment, a plurality of types of processing programs are provided for processing the characteristics of the volume, frequency component, and reverberation component for the original sound data. The original sound data is, for example, original voice waveform data created in advance in order to output a stuttering sound S in response to a spear movement of the monster M. The original sound data includes, for example, data obtained by converting the analog audio signal W shown in FIG. 5 into a digital signal and compressed by, for example, ADPCM (Adaptive Differential Pulse Code Modulation), and is included in the sound data of the game data. When the monster M emits a plurality of kinds of calls, original sound data is created in advance for each call. The same applies to the original sound data of sounds generated by characters and objects other than the monster M.

処理プログラムとしては、水中(水媒質)における音声効果を与えるツールとして機能する処理プログラムと陸上(空気媒質)における音声効果を与えるツールとして機能する処理プログラムが設けられている。具体的には、距離に対する減衰効果を演出するための減衰処理プログラムと、水中と空気中で周波数成分の違いによる音色の違いを演出するためのフィルタリング処理プログラムとが設けられている。また、水中と空気中との音波の伝播特性の相違に基づく音の聞こえ方の違いを表現するためのエフェクタとして残響(リバーブ)を付加する残響処理プログラムとが設けられている。   As the processing program, there are provided a processing program that functions as a tool that gives a sound effect in water (water medium) and a processing program that functions as a tool that gives a sound effect in land (air medium). Specifically, there are provided an attenuation processing program for producing an attenuation effect with respect to a distance and a filtering processing program for producing a timbre difference due to a difference in frequency components in water and in air. Further, a reverberation processing program for adding reverberation (reverb) is provided as an effector for expressing a difference in how sounds are heard based on differences in sound wave propagation characteristics between underwater and air.

減衰処理プログラムに対しては、例えば、図6に示す空気中を音が伝播するときの減衰特性を示す減衰データD1(陸上用減衰データD1)と水中を音が伝播するときの減衰特性を示す減衰データD2(水中用減衰データD2)が予め設定されている。現実世界では低周波の音は空気中よりも水中の方が減衰しにくいが、本実施形態では、ゲームの聴覚的効果として水中の密閉感を演出するために、水中用減衰データD2の減衰量を陸上用減衰データD1の減衰量よりも大きくしている。発音位置MPと聴音位置HPとの間の距離Lと図6に示す減衰データを用いて減衰処理プログラムにより原音データに加工処理を行うことによって、聴音位置HPにおける聴音レベルが算出される。   For the attenuation processing program, for example, attenuation data D1 (attenuation data D1 for land) indicating attenuation characteristics when sound propagates through the air shown in FIG. 6 and attenuation characteristics when sound propagates through water are shown. Attenuation data D2 (underwater attenuation data D2) is preset. In the real world, low-frequency sound is less likely to attenuate in water than in the air. However, in this embodiment, the attenuation amount of the underwater attenuation data D2 is used to produce a sense of underwater sealing as an auditory effect of the game. Is made larger than the attenuation amount of the attenuation data for land D1. By processing the original sound data by the attenuation processing program using the distance L between the sound generation position MP and the listening position HP and the attenuation data shown in FIG. 6, the listening level at the listening position HP is calculated.

なお、図6では、横軸が音の発生位置からの距離L(m)を示し、縦軸が音量レベルを示している。音声データは8ビットのデジタルデータ(128諧調のデータ)であるので、音量レベルの最大値は「127」、最小値は「0」となるが、図6では、最大値を「1」に正規化して音量レベルを示す内容になっている。これは、原音データに対して音量を何%に減少させると良いか、すなわち、音量調整のためのゲインが直読できるようにしたものである。   In FIG. 6, the horizontal axis indicates the distance L (m) from the sound generation position, and the vertical axis indicates the volume level. Since the audio data is 8-bit digital data (128 tone data), the maximum value of the volume level is “127” and the minimum value is “0”. In FIG. 6, the maximum value is normally set to “1”. It is a content that shows the volume level. This is the percentage of volume that should be reduced with respect to the original sound data, that is, the gain for volume adjustment can be directly read.

従って、例えば、ケース(陸上,陸上)において、発音位置MPと聴音位置HPの間の距離がLrの場合、音量レベルは「Kr」で、これが音量調整のためのゲインとなるので、発音位置MPの音量を「S」とすると、聴音位置HPの音量はKr×S(0<Kr<1.0)に減少することになる。   Therefore, for example, in the case (land, land), when the distance between the sound generation position MP and the listening position HP is Lr, the sound volume level is “Kr”, which is a gain for adjusting the sound volume, so the sound generation position MP. Is set to “S”, the volume of the listening position HP is reduced to Kr × S (0 <Kr <1.0).

なお、音響データには予め設定された複数の種類の原音データが含まれているが、各原音データの音量は同一ではなく、原音データ同士では異なる場合がある。図6の縦軸の音量レベルの最大値は、全ての原音データの音量のうちの最大の音量に対応させているので、図6に例示した陸上用減衰データD1および水中用減衰データD2の最大値が「1」になっていないのは、その最大の音量に対して正規化した値となっているからである。   The acoustic data includes a plurality of types of original sound data set in advance, but the volume of each original sound data is not the same, and the original sound data may be different. Since the maximum value of the volume level on the vertical axis in FIG. 6 corresponds to the maximum volume of all the original sound data, the maximum of the land attenuation data D1 and the underwater attenuation data D2 illustrated in FIG. The value is not “1” because it is a value normalized with respect to the maximum volume.

図6に示すように、陸上用減衰データD1も水中用減衰データD2も、その波形は発生位置の近傍位置でわずかに上昇するがその後は単調に減少する形状(下方に湾曲した形状)を有している。そして、水中用減衰データD2の方が陸上用減衰データD1よりも距離Lに対する減衰量が大きくなっている。   As shown in FIG. 6, both the onshore attenuation data D1 and the underwater attenuation data D2 have a shape in which the waveform slightly rises in the vicinity of the generation position but then decreases monotonously (curved downward). doing. The underwater attenuation data D2 has a larger attenuation with respect to the distance L than the land attenuation data D1.

図6に示す減衰データの波形は一例であり、本発明に係る効果音がゲームにおける効果音であり、多少の創作性や誇張性が認められることを考慮すると、その波形には適宜の変更を加えることができる。減衰データは、音響データとしてゲームデータに含まれている。   The waveform of the attenuation data shown in FIG. 6 is an example, and considering that the sound effect according to the present invention is a sound effect in a game and some creativity and exaggeration are recognized, the waveform is appropriately changed. Can be added. The attenuation data is included in the game data as acoustic data.

フィルタリング処理プログラムとしては、例えば、1200Hz(カットオフ周波数fc)以上の高周波成分をカットするローパスフィルタの処理プログラムが設けられている。原音データにローパスフィルタの処理プログラムによるフィルタリング処理を行うことによって、原音の波形が変化する。図5の例では、オーディオ信号Wの1200Hz以上の高周波成分が除去されるので、その波形は急峻に変化する部分が緩やかになり、聴覚的にはなまった音に変化する。本実施形態では、聴音位置HPが水中にある場合、原音データに対してフィルタリング処理を行うようにしている。これは、音の高周波成分をカットすることにより、水中での音のように聞こえる感じを演出するためである。   As the filtering processing program, for example, a processing program for a low-pass filter that cuts high frequency components of 1200 Hz (cutoff frequency fc) or higher is provided. A waveform of the original sound is changed by performing filtering processing on the original sound data by a processing program of a low-pass filter. In the example of FIG. 5, since the high frequency component of 1200 Hz or higher of the audio signal W is removed, the portion of the waveform that changes sharply becomes gentle and changes to a sound that is audibly audible. In the present embodiment, when the listening position HP is underwater, the filtering process is performed on the original sound data. This is because the high frequency component of the sound is cut to produce a feeling of being heard like sound in water.

従って、ケース(陸上,陸上)の場合ではモンスターMの発した咆哮音Sの原音データにはフィルタリング処理は行われないが、ケース(水中,水中)の場合ではモンスターMの発した咆哮音Sの原音データに対してフィルタリング処理が行われるので、効果音として出力される咆哮音Sはカットオフ周波数fc以上の高周波成分がカットされ、ケース(水中,水中)の場合はケース(陸上,陸上)の場合よりも低い、こもった音となる。   Therefore, in the case (land, land), filtering processing is not performed on the original sound data of the roar S generated by the monster M. However, in the case (underwater, underwater), the roar S generated by the monster M is not filtered. Since the filtering process is performed on the original sound data, the high-frequency component higher than the cut-off frequency fc is cut from the stuttering sound S output as the sound effect. In the case (underwater, underwater), the case (land, land) It becomes a muffled sound lower than the case.

残響処理プログラムに対しても、減衰データと同様に、水中における残響特性を示す残響データ(水中用残響データ)と空気中における残響特性を示す残響データ(陸上用残響データ)とが予め設定されている。残響データとは、具体的にはエフェクタの一つである、原音に残響音を付加する「リバーブ」をデジタル処理するためのデータである。本実施形態では、空気中と水中の音の聞こえ方の違いを効果的に演出するエフェクタとしてリバーブを利用している。リバーブでは、原音データから残響音のデータが生成されるが、残響データは、その生成処理の際のプリディレイ、リバーブタイム、高周波減衰、クロストーク、反響信号強度などの各パラメータの特性を示すデータである。   Similarly to attenuation data, reverberation data indicating reverberation characteristics in water (underwater reverberation data) and reverberation data indicating reverberation characteristics in air (land reverberation data) are set in advance for the reverberation processing program. Yes. The reverberation data is data for digitally processing “reverb”, which is one of effectors, and adds reverberation to the original sound. In the present embodiment, reverb is used as an effector that effectively produces a difference in how the sound is heard in the air and in the water. In reverb, reverberant sound data is generated from the original sound data. The reverberant data is data indicating the characteristics of parameters such as pre-delay, reverb time, high-frequency attenuation, crosstalk, and reverberation signal intensity during the generation process. It is.

残響は、一般に直接音が聞こえた後、数m秒から100m秒くらいの間に初期反射の反響音が生じ、その後に後期反射の反響音が生じる構造を有していると言われている。初期反射は直接音とまとめて、一連の音として認知されるので、後期反射が直接音とは別に残響音として認知される。   Reverberation is generally said to have a structure in which a reverberant reflection sound is generated after an initial reflection occurs within a few milliseconds to 100 milliseconds after a direct sound is heard. Since the initial reflection is combined with the direct sound and recognized as a series of sounds, the late reflection is recognized as a reverberant sound separately from the direct sound.

プリディレイは、直接音に対する残響音の遅延時間を設定するもので、音源と反射壁との距離が長い場所では長い値が設定される。水中の方が空気中よりも音が遠くまで届くので、水中の残響特性のプリディレイを空気中よりも長くすることによって水中と空気中の音の違いを演出することができる要素である。   The pre-delay is for setting the delay time of the reverberant sound with respect to the direct sound, and a long value is set in a place where the distance between the sound source and the reflection wall is long. Since the sound reaches farther in the water than in the air, the difference between the sound in the water and the air can be produced by making the pre-delay of the reverberation characteristics in the water longer than in the air.

リバーブタイムは、残響音が継続する時間を設定するもので、反射率の大きい反射壁や反射経路が長い場合には減衰が少ないので、残響時間が長くなる。水中の残響特性のリバーブタイムも空気中よりも長くすることによって水中と空気中の音の違いを演出することができる要素である。   The reverberation time sets the time for which the reverberant sound lasts. When the reflection wall or reflection path with a high reflectivity is long, the reverberation time is long because the attenuation is small. The reverberation time of the reverberation characteristics in water is an element that can produce a difference between sound in water and air by making it longer than in air.

高周波減衰は、反響音に含まれる高周波成分の減衰量を設定するものである。水中の音は空気中よりも高周波成分が少なくなるので、残響音についても高周波成分を減衰させることにより水中と空気中の音の違いを演出することができる要素である。   The high frequency attenuation is for setting the attenuation amount of the high frequency component included in the reverberant sound. Since the sound in water has less high frequency components than in the air, the reverberant sound is an element that can produce a difference between sound in water and air by attenuating the high frequency components.

クロストークは、チャンネル間の残響音の相互作用の程度を設定するものである。例えば、Lチャネル側に音源がある場合、残響音のRチャネルからの出力量を小さくするほど、音源からの音の直進性を表現することができる。水中では空気中よりも音の直進性が高いので、水中の残響特性のクロストークを空気中よりも小さくすることより水中と空気中の音の違いを演出することができる要素となる。   Crosstalk sets the degree of reverberant interaction between channels. For example, when there is a sound source on the L channel side, the straightness of the sound from the sound source can be expressed as the output amount of the reverberant sound from the R channel is reduced. Since the straightness of sound is higher in water than in air, reducing the crosstalk of the reverberation characteristics in water lower than in air is an element that can produce a difference in sound between water and air.

反響信号強度は、残響音の大きさ(残響成分の音量)を設定するものである。反響信号強度もプリディレイやリバーブタイムと同様の理由により、水中の残響特性の反響信号強度を空気中よりも大きくすることより水中と空気中の音の違いを演出することができる要素となる。   The reverberant signal intensity sets the magnitude of the reverberant sound (the volume of the reverberant component). For the same reason as the pre-delay and reverb time, the reverberation signal intensity is also an element that can produce a difference between sound in water and air by making the reverberation signal intensity of reverberation characteristics in water larger than in air.

水中は陸上(空気中)に比べて、(1)残響成分が遠くまで届く、(2)音の伝播の直進性が強い、(3)水流などのノイズが多く、中周波数領域と高周波領域の残響成分が相対的に少なくなる、という特徴を考慮し、例えば、反射壁のない広い水中に対する水中用残響データの各パラメータは、例えば、プリディレイ:設定時間を「短」、「中」、「長」の3つに分けた場合、「長」に設定、リバーブタイム:設定時間を「短」、「中」、「長」の3つに分けた場合、「長」に設定、高周波減衰:減衰させる周波数領域を「低域」、「中域」、「高域」の3つに分けた場合、減衰域を「中域」と「高域」に設定、クロストーク:クロストークの音量を「小」、「中」、「大」の3つに分けた場合、「小」に設定、反響信号強度:反響信号の音量を「小」、「中」、「大」の3つに分けた場合、「大」に設定、となっている。   Compared to land (in the air) underwater, (1) reverberation components reach far, (2) strong straightness of sound propagation, (3) a lot of noise such as water currents, Considering the feature that the reverberation component becomes relatively small, for example, each parameter of the underwater reverberation data for wide water without a reflection wall is, for example, pre-delay: setting time is “short”, “medium”, “ When divided into three "long", set to "long", reverb time: set the time to "short", "medium", "long", set to "long", high frequency attenuation: When the frequency range to be attenuated is divided into “low range”, “mid range”, and “high range”, the attenuation range is set to “middle range” and “high range”, and crosstalk: Crosstalk volume is set When it is divided into “Small”, “Medium”, and “Large”, it is set to “Small”. The amount "small", "medium", if that were divided into three "large", has been set, and the "large".

一方、例えば、反射壁のない広い草原に対する陸上用残響データの各パラメータは、プリディレイ:「短」に設定、リバーブタイム:「短」に設定、高周波減衰:減衰域を「高域」に設定(水中よりも減衰域を高い領域に設定)、クロストーク:「小」から「中」に設定(水中よりも大きく設定)、反響信号強度:「小」に設定、となっている。   On the other hand, for example, each parameter of land reverberation data for a large grassland without reflection walls is set to pre-delay: “short”, reverb time: set to “short”, high frequency attenuation: set attenuation range to “high” (Attenuation range is set higher than underwater), Crosstalk: Set from “Small” to “Medium” (Set larger than underwater), Resonance signal strength: Set to “Small”.

なお、上記の水中用残響データと陸上用残響データの各パラメータの相違は、一般的な傾向を示すものである。残響特性は、媒質の音の伝播特性だけでなく、発音位置の周りにある反射物や反射体の影響を受けるから、陸上のゲーム場面によっては、陸上用残響データのいずれかのパラメータが水中用残響データのパラメータと同一もしくは上記の傾向とは逆になる場合もある。水上のゲーム場面についても同様である。   In addition, the difference of each parameter of said reverberation data for underwater and reverberation data for land shows a general tendency. The reverberation characteristics are affected not only by the sound propagation characteristics of the medium, but also by reflectors and reflectors around the sound generation position. It may be the same as the parameters of reverberation data, or may be opposite to the above tendency. The same applies to game scenes on the water.

従って、陸上用残響データの中には、反射特性の異なるゲーム場面(例えば、開放された草原場面と洞窟内の場面など)に応じて上記のパラメータを適宜変更した複数の残響データが含まれている。例えば、洞窟内の陸上用残響データでは、プリディレイ:「中」に設定洞窟内の空間で反響するから)、リバーブタイム:「中」に設定(洞窟内の空間で反響するから)、高周波減衰:減衰域を「低域」に設定、クロストーク:「大」に設定(洞窟壁の反射により反響音が拡散するから)、反響信号強度:「大」に設定、となる。   Therefore, the land reverberation data includes a plurality of reverberation data in which the above parameters are appropriately changed according to game scenes having different reflection characteristics (for example, an open grassland scene and a cave scene). Yes. For example, for land reverberation data in a cave, pre-delay is set to “medium” because it reverberates in the space inside the cave, and reverb time is set to “medium” (because it echoes in the space inside the cave), high frequency attenuation : Attenuation range is set to “Low”, Crosstalk is set to “Large” (because the echo sound diffuses due to reflection of the cave wall), and Echo signal strength is set to “Large”.

なお、反射特性の異なるゲーム場面に応じてパラメータを適宜変更した複数の残響データが含まれることは、水中用残響データについても同様である。   The same applies to underwater reverberation data that includes a plurality of reverberation data whose parameters are appropriately changed according to game scenes having different reflection characteristics.

図7は、上述した4つのケースにおける効果音の生成処理を示したものである。具体的には、図7は、ケース(陸上,陸上)、ケース(水中,陸上)、ケース(陸上,水中)、ケース(水中,水中)の各ケースにおける減衰処理、フィルタリング処理、残響処理などの内容を示したものである。   FIG. 7 shows sound effect generation processing in the four cases described above. Specifically, FIG. 7 shows attenuation processing, filtering processing, reverberation processing, etc. in each case (land, land), case (underwater, land), case (land, underwater), and case (underwater, underwater). The contents are shown.

図7において、「LPF処理の有無」はローパスフィルタリング処理をするか否かを示す欄である。「減衰特性の種類」は陸上用減衰データと水中用減衰データのいずれを使用するかを示す欄である。「媒質変化による音量変化率Kd」は音が異なる媒質を進行する際に媒質の境界で音が反射することに起因する音量の変化の割合を示す欄である。「陸上用残響特性(付加量Krv)」は陸上用残響特性を使用するか否かを示す欄であり、「水中用残響特性(付加量Krv)」は水中用残響特性を使用するか否かを示す欄である。また、両欄の(付加量Krv)は、原音から生成される残響音を当該原音に付加する際の音量の割合を示すものである。   In FIG. 7, “Presence / absence of LPF processing” is a column indicating whether or not to perform low-pass filtering processing. “Type of attenuation characteristics” is a column indicating whether to use land-based attenuation data or underwater attenuation data. “Volume change rate Kd due to medium change” is a column indicating the rate of change in sound volume resulting from reflection of sound at the boundary of the medium when the sound travels through different media. “Land reverberation characteristics (addition amount Krv)” is a column indicating whether or not to use terrestrial reverberation characteristics, and “Underwater reverberation characteristics (addition amount Krv)” is whether or not to use underwater reverberation characteristics. It is a column which shows. Further, (addition amount Krv) in both columns indicates a volume ratio when a reverberation sound generated from the original sound is added to the original sound.

図7に示すように、LPF処理は、発音位置MPが陸上の場合(ケース(陸上,水中)とケース(陸上,陸上))は行われず、発音位置MPが水中の場合(ケース(水中,陸上)とケース(水中,水中))に行われる。これは、音声発生源が水中の場合、原音データの高周波成分をカットして水中の感じを演出するための処理である。   As shown in FIG. 7, LPF processing is not performed when the sound generation position MP is onshore (case (land, underwater) and case (land, land)), and when the sound generation position MP is underwater (case (underwater, land). ) And case (underwater, underwater)). This is a process for producing a feeling of underwater by cutting high frequency components of the original sound data when the sound source is underwater.

減衰特性の適用については、聴音位置HPが陸上の場合(ケース(水中,陸上)とケース(陸上,陸上))には陸上用減衰データ(図6の減衰データD1参照)が適用され、聴音位置HPが水中の場合(ケース(陸上,水中)とケース(水中,水中))には水中用減衰データ(図6の減衰データD2参照)が適用される。ケース(陸上,陸上)の場合に陸上用減衰データを適用し、ケース(水中,水中)の場合に水中用減衰データを適用するのは、両減衰データをそれぞれ対応するケースのために作成しているから、当然の適用である。   Regarding the application of the attenuation characteristics, when the listening position HP is on land (case (underwater, land) and case (land, land)), the land attenuation data (see attenuation data D1 in FIG. 6) is applied, and the listening position is When HP is underwater (case (land, underwater) and case (underwater, underwater)), underwater attenuation data (see attenuation data D2 in FIG. 6) is applied. Applying land attenuation data in case (land, land) and applying water attenuation data in case (underwater, underwater) is to create both attenuation data for each corresponding case. Therefore, it is a natural application.

一方、ケース(水中,陸上)の場合は、発音位置MPから聴音位置HPまでの音の伝播経路に水中の区間と陸上の区間が存在するので、正確には水中の区間では水中用減衰データを適用し、陸上の区間では陸上用減衰データを適用すべきであるが、本実施形態では、可及的に自然に聞こえることを条件に減衰処理の簡素化を図るために、陸上用減衰データと水中用減衰データのいずれか一方を適用することとし、聴音位置HPの媒質の減衰データ(陸上用減衰データD1参照)を適用するように設定している。ケース(陸上,水中)の場合も同様で、水中用減衰データD2を適用するように設定している。   On the other hand, in the case (underwater, land), there are underwater sections and land sections in the sound propagation path from the sound generation position MP to the listening position HP. However, in this embodiment, in order to simplify the attenuation process on the condition that the sound is naturally heard as much as possible, in this embodiment, One of the underwater attenuation data is applied, and the attenuation data of the medium at the listening position HP (see the land attenuation data D1) is applied. The same applies to the case (land, underwater), and the underwater attenuation data D2 is set to be applied.

「媒質変化による音量変化率Kd」の欄は、発音位置MPから聴音位置HPまでの伝播経路に水中と陸上の両方が含まれる場合、その境界面で音の反射に起因して音量が不連続に減少するのを表現するための処理を示している。音の伝播経路が水中または陸上だけの場合(ケース(陸上,陸上)とケース(水中,水中))は、媒質の境界面が存在しないので、同欄の内容は、音量の変化率Kdを1.0で処理する内容、すなわち、音量を変化させる処理をしない内容になっている。   In the “volume change rate Kd due to medium change” column, when the propagation path from the sound generation position MP to the listening position HP includes both underwater and land, the volume is discontinuous due to sound reflection at the boundary surface. The processing for expressing the decrease is shown. When the sound propagation path is only underwater or on land (case (land, land) and case (underwater, underwater)), there is no medium boundary surface. The content to be processed at 0.0, that is, the content to be processed without changing the volume.

一方、音の伝播経路に水中と陸上の両方が含まれる場合(ケース(水中,陸上)とケース(陸上,水中))は、媒質の境界面が存在するので、その境界面での音量変化を表現するために、同欄の内容は、音量の変化率Kdを1.0より小さい値で処理する内容になっている。本実施形態では、ケース(水中,陸上)では音量を0.6倍に減少させ、ケース(陸上,水中)では音量を0.5倍に減少させるように設定している。なお、これらの音量変化率Kdは設計事項であるので、他の数値を適宜設定することができる。   On the other hand, when the sound propagation path includes both underwater and land (case (underwater, land) and case (land, underwater)), there is a boundary surface of the medium. In order to express, the contents in the same column are the contents for processing the change rate Kd of the volume with a value smaller than 1.0. In the present embodiment, the volume is set to be reduced by 0.6 times in the case (underwater, land), and the volume is reduced by 0.5 times in the case (land, underwater). Since these volume change rates Kd are design matters, other numerical values can be set as appropriate.

残響特性の適用について、聴音位置HPが陸上の場合(ケース(水中,陸上)とケース(陸上,陸上))には陸上用残響データが適用され、聴音位置HPが水中の場合(ケース(陸上,水中)とケース(水中,水中))には水中用残響データが適用される。ケース(陸上,陸上)の場合に陸上用残響データを適用し、ケース(水中,水中)の場合に水中用残響データを適用する理由は、両残響データをそれぞれ対応するケースのために作成しているから、減衰特性の適用の場合と同様、当然の適用である。   Regarding the application of reverberation characteristics, reverberation data for land is applied when the listening position HP is onshore (case (underwater, land) and case (land, land)), and when the listening position HP is underwater (case (land, Underwater) and case (underwater, underwater)) reverberation data for underwater is applied. The reason for applying land reverberation data in case (land, land) and underwater reverberation data in case (underwater, underwater) is to create both reverberation data for each corresponding case. Therefore, it is a natural application as in the case of application of the attenuation characteristic.

一方、ケース(水中,陸上)とケース(陸上,水中)の場合に聴音位置HPの媒質の減衰データを適用する設定にしているのは、減衰特性の適用の場合と同様の理由によるものである。従って、ケース(水中,陸上)では陸上用残響データを適用し、ケース(陸上,水中)では水中用残響データを適用する設定となっている。   On the other hand, the reason why the attenuation data of the medium at the listening position HP is applied in the case (underwater, land) and the case (land, underwater) is the same reason as in the case of applying the attenuation characteristic. . Accordingly, the reverberation data for land is applied in the case (underwater, onshore), and the reverberation data for underwater is applied in the case (land, underwater).

なお、ケース(水中,陸上)とケース(陸上,水中)では伝播経路で媒質の変化があるので、その変化に基づき残響効果がケース(陸上,陸上)やケース(水中,水中)よりも低下することを考慮し、残響成分の音量レベルを低下させる処理を行うようにしている。ケース(水中,陸上)の陸上用残響特性の付加量Krvを0.8(残響音の音量を80%に減少)とし、ケース(陸上,水中)の水中用残響特性の付加量Krvを0.5(残響音の音量を50%に減少)としているのはその処理をすることを示している。   In addition, since there is a medium change in the propagation path in case (underwater, land) and case (land, underwater), the reverberation effect is lower than in case (land, land) and case (underwater, underwater). In view of this, processing for reducing the volume level of the reverberation component is performed. The added amount Krv of the terrestrial reverberation characteristic in the case (underwater, land) is set to 0.8 (reverberation sound volume is reduced to 80%), and the added amount Krv of the underwater reverberation characteristic in the case (land, underwater) is set to 0. A value of 5 (the volume of the reverberant sound is reduced to 50%) indicates that the processing is performed.

ケース(陸上,水中)の残響特性の付加量Krvをケース(水中,陸上)の残響特性の付加量Krvよりも小さくしているのは、残響成分の聞こえ方が水中の方が陸上の方よりも大きく聞こえることから、媒質が変化する前の媒質の残響特性を反映したものである。媒質が変化する前の状態では、ケース(水中,陸上)の方がケース(陸上,水中)の方よりも残響成分が多いから、媒質の変化により残響成分が低下するとしても、全体としてはケース(水中,陸上)の方がケース(陸上,水中)の方よりも残響成分が大きくなるようにしている。なお、これらの残響成分の付加量Krvも設計事項であるので、他の数値を適宜設定することができる。   The additional amount Krv of the reverberation characteristics of the case (land, underwater) is made smaller than the additional amount Krv of the reverberation characteristics of the case (underwater, land). Therefore, it reflects the reverberation characteristics of the medium before the medium changes. In the state before the medium changes, the case (underwater, land) has more reverberation components than the case (land, underwater). The reverberation component is larger in (underwater, land) than in the case (land, underwater). Since the additional amount Krv of these reverberation components is also a design matter, other numerical values can be set as appropriate.

図8は、本発明に係る効果音の生成処理プログラムを実行することによって実現される等価的な効果音生成回路を示す図である。   FIG. 8 is a diagram showing an equivalent sound effect generation circuit realized by executing the sound effect generation processing program according to the present invention.

同図に示す効果音生成回路30は、フィルタ回路31と、3個の音量調整回路32,33,34と、2個のリバーブ回路35,36と、2個の信号混合回路37,38とで構成される。   The sound effect generating circuit 30 shown in the figure includes a filter circuit 31, three volume adjusting circuits 32, 33, 34, two reverb circuits 35, 36, and two signal mixing circuits 37, 38. Composed.

効果音生成回路30においては、音声信号(原音データ)がフィルタ回路31に入力され、フィルタ回路31の出力信号は第1の音量調整回路32を介して第1の信号混合回路37に入力される。また、フィルタ回路31の出力信号は第1のリバーブ回路35と第2のリバーブ回路36とに入力される。第1のリバーブ回路35の出力信号は第2の音量調整回路33を介して第1の信号混合回路37に入力され、第2のリバーブ回路36の出力信号は第3の音量調整回路34を介して第2の信号混合回路38に入力される。第1の信号混合回路37では第1の音量調整回路32を介して入力されたフィルタ回路31の出力信号と第2の音量調整回路33を介して入力された第1のリバーブ回路35の出力信号とが混合され、第2の信号混合回路38では第3の音量調整回路34を介して入力された第2のリバーブ回路36の出力信号と第1の信号混合回路37の出力信号とが混合され、その混合信号が効果音として出力される。   In the sound effect generation circuit 30, an audio signal (original sound data) is input to the filter circuit 31, and an output signal of the filter circuit 31 is input to the first signal mixing circuit 37 via the first volume adjustment circuit 32. . The output signal of the filter circuit 31 is input to the first reverb circuit 35 and the second reverb circuit 36. The output signal of the first reverb circuit 35 is input to the first signal mixing circuit 37 via the second volume adjustment circuit 33, and the output signal of the second reverb circuit 36 is input via the third volume adjustment circuit 34. And input to the second signal mixing circuit 38. In the first signal mixing circuit 37, the output signal of the filter circuit 31 input via the first volume adjustment circuit 32 and the output signal of the first reverb circuit 35 input via the second volume adjustment circuit 33. And the second signal mixing circuit 38 mixes the output signal of the second reverb circuit 36 and the output signal of the first signal mixing circuit 37 input via the third volume adjustment circuit 34. The mixed signal is output as a sound effect.

フィルタ回路31は、外部からカットオフ周波数fcを設定することができるローパスフィルタである。フィルタ回路31は、カットオフ周波数fcが設定されると、ローパスフィルタとして動作し、カットオフ周波数fcが設定されなければ、入力信号をスルーさせる回路(フィルタ機能のない回路)として機能する。フィルタ回路31は、図7の「LPF処理の有無」の欄に対応するLPF処理をする回路であり、「LPF処理の有無」の欄で「有り」が設定されている場合は、CPU11からフィルタ回路31にカットオフ周波数fcが設定され、「無し」が設定されている場合は、CPU11からフィルタ回路31にカットオフ周波数fcは設定されない。   The filter circuit 31 is a low-pass filter that can set a cutoff frequency fc from the outside. When the cut-off frequency fc is set, the filter circuit 31 operates as a low-pass filter. When the cut-off frequency fc is not set, the filter circuit 31 functions as a circuit that allows an input signal to pass through (a circuit without a filter function). The filter circuit 31 is a circuit that performs LPF processing corresponding to the “LPF processing presence / absence” column in FIG. 7. If “Yes” is set in the “LPF processing presence / absence” column, the filter circuit 31 performs filtering. When the cutoff frequency fc is set in the circuit 31 and “none” is set, the cutoff frequency fc is not set in the filter circuit 31 from the CPU 11.

第1の音量調整回路32は、図7の「減衰特性の種類」と「媒質変化による音量変化率Kd」の欄に対応する減衰処理をする回路である。第1の音量調整回路32は、CPU11から音量調整情報が入力され、その音量調整情報を用いてフィルタ回路31の出力信号のレベルを調整する。   The first volume adjustment circuit 32 is a circuit that performs attenuation processing corresponding to the columns of “type of attenuation characteristics” and “volume change rate Kd due to medium change” in FIG. The first volume adjustment circuit 32 receives volume adjustment information from the CPU 11 and adjusts the level of the output signal of the filter circuit 31 using the volume adjustment information.

第1の音量調整回路32は、フィルタ回路31から出力される音声信号SLFのレベルに係数K1を乗じて当該音声信号SLFの音量を調整する。従って、この係数K1を第1の音量調整回路32の音量調整値とすると、CPU11から第1の音量調整回路32に音量調整値K1が入力される。この音量調整値K1は、図7の「媒質変化による音量変化率Kd」の欄の比率Kdと図6に示した陸上用減衰データD1または水中用減衰データD2によって算出されるレベルKrまたはKr’を乗じて算出される値(Kd×KrまたはKd×Kr’)である。 First volume control circuit 32, the level of the audio signal S LF output from the filter circuit 31 is multiplied by a coefficient K1 to adjust the volume of the audio signal S LF. Accordingly, when the coefficient K1 is set as the volume adjustment value of the first volume adjustment circuit 32, the volume adjustment value K1 is input from the CPU 11 to the first volume adjustment circuit 32. The volume adjustment value K1 is a level Kr or Kr ′ calculated from the ratio Kd in the column “Volume change rate Kd due to medium change” in FIG. 7 and the land attenuation data D1 or the underwater attenuation data D2 shown in FIG. Is a value calculated by multiplying (Kd × Kr or Kd × Kr ′).

CPU11は、例えば、発音位置MPと聴音位置HPとの間の距離LがLrの場合(図6参照)、ケース(陸上,陸上)であれば、点PrのレベルKrと「媒質変化による音量変化率Kd」の欄の比率Kd=1.0を乗じて音量調整値K1=1.0×Krを算出し、その算出値を第1の音量調整回路32に設定する。ケース(水中,水中)であれば、CPU11は、上記のレベルKrに代えて点Pr’のレベルKr’を用いて算出した音量調整値K1=1.0×Kr’を第1の音量調整回路32に設定する。   For example, if the distance L between the sound generation position MP and the listening position HP is Lr (see FIG. 6), the CPU 11 determines the level Kr of the point Pr and “change in volume due to medium change” if the case (land, land). The volume adjustment value K1 = 1.0 × Kr is calculated by multiplying the ratio Kd = 1.0 in the “rate Kd” column, and the calculated value is set in the first volume adjustment circuit 32. If it is a case (underwater, underwater), the CPU 11 sets the volume adjustment value K1 = 1.0 × Kr ′ calculated using the level Kr ′ of the point Pr ′ instead of the level Kr to the first volume adjustment circuit. Set to 32.

また、ケース(水中,陸上)であれば、CPU11は、点PrのレベルKrと「媒質変化による音量変化率」の欄の比率Kd=0.6を乗じて音量調整値K1=0.6×Krを算出し、その算出値を第1の音量調整回路32に設定する。ケース(陸上,水中)であれば、CPU11は、点Pr’のレベルKr’と「媒質変化による音量変化率」の欄の比率Kd=0.5を乗じて音量調整値K1=0.5×Kr’を算出し、その算出値を第1の音量調整回路32に設定する。   In the case (underwater, land), the CPU 11 multiplies the level Kr of the point Pr by the ratio Kd = 0.6 in the “volume change rate due to medium change” column, and the volume adjustment value K1 = 0.6 ×. Kr is calculated, and the calculated value is set in the first volume adjustment circuit 32. In the case (land, underwater), the CPU 11 multiplies the level Kr ′ of the point Pr ′ by the ratio Kd = 0.5 in the “volume change rate due to medium change” column, and the volume adjustment value K1 = 0.5 ×. Kr ′ is calculated, and the calculated value is set in the first volume adjustment circuit 32.

従って、第1の信号混合回路37にはK1×SLF(0<K1≦1)の音声信号が入力される。 Therefore, the first signal mixing circuit 37 receives a sound signal of K1 × S LF (0 <K1 ≦ 1).

第1のリバーブ回路35と第2の音量調整回路33は、図7の「陸上用残響特性(付加量Krv)」の欄に対応する減衰処理をする回路である。第1のリバーブ回路35にはCPU11から回路を動作させるか否かの信号(リバーブ有り/無しの信号)と陸上用残響データ(プリディレイ、リバーブタイム、高周波減衰、クロストーク、反響信号強度などの各パラメータのデータ)が入力される。CPU11からリバーブ有りの信号が入力されると、第1のリバーブ回路35は陸上用のリバーブ回路として動作し、フィルタ回路31から入力される音声信号SLFを用いて残響信号Srvを生成する。 The first reverberation circuit 35 and the second volume adjustment circuit 33 are circuits that perform attenuation processing corresponding to the column “land reverberation characteristics (addition amount Krv)” in FIG. The first reverb circuit 35 includes a signal indicating whether or not to operate the circuit from the CPU 11 (signal with / without reverb) and reverberation data for land (pre-delay, reverb time, high frequency attenuation, crosstalk, echo signal strength, etc.) Each parameter data) is input. When a signal with reverb is input from the CPU 11, the first reverb circuit 35 operates as a reverberation circuit for land and generates a reverberation signal Srv using the audio signal S LF input from the filter circuit 31.

第2の音量調整回路33は、第1のリバーブ回路35から出力される残響信号Srvのレベルに音量調整値K2(0<K2≦1)を乗じて当該残響信号Srvの音量を調整する回路である。この音量調整値K2は、図7の「陸上用残響特性(付加量Krv)」の欄の付加量Krvと図6に示した陸上用減衰データD1によって算出されるレベルKrを乗じて算出される値(Krv×Kr)である。残響信号Srvにも距離による減衰を考慮する必要があるので、音量調整値K1と同様に、付加量Krvに陸上用減衰データD1によって算出されるレベルKrを乗じている。   The second volume adjustment circuit 33 is a circuit that adjusts the volume of the reverberation signal Srv by multiplying the level of the reverberation signal Srv output from the first reverb circuit 35 by the volume adjustment value K2 (0 <K2 ≦ 1). is there. This volume adjustment value K2 is calculated by multiplying the additional amount Krv in the “land reverberation characteristics (addition amount Krv)” column of FIG. 7 by the level Kr calculated by the land attenuation data D1 shown in FIG. Value (Krv × Kr). Since the reverberation signal Srv also needs to be attenuated due to distance, the added amount Krv is multiplied by the level Kr calculated by the land attenuation data D1, similarly to the volume adjustment value K1.

従って、ケース(陸上,水中)とケース(水中,水中)の場合は、第1のリバーブ回路35がリバーブ回路として機能しないので、第2の音量調整回路33からは残響信号Srvは出力されず、第1の信号混合回路37には残響信号Srvは入力されない。   Therefore, in the case (land, underwater) and case (underwater, underwater), the reverberation signal Srv is not output from the second volume adjustment circuit 33 because the first reverb circuit 35 does not function as a reverb circuit. The reverberation signal Srv is not input to the first signal mixing circuit 37.

一方、ケース(陸上,陸上)とケース(水中,陸上)の場合は、第1のリバーブ回路35から陸上用残響データに基づいて残響信号Srvが生成され、その残響信号Srvのレベルが第2の音量調整回路33でK2倍に調整されて第1の信号混合回路37に入力される。すなわち、ケース(陸上,陸上)の場合は、残響信号SrvのレベルがK2=Krv×Kr=Kr倍にレベル調整されて第1の信号混合回路37に入力され、ケース(水中,陸上)の場合は、残響信号SrvのレベルがK2=Krv×Kr=0.8×Kr倍にレベル調整されて第1の信号混合回路37に入力される。   On the other hand, in the case (land, land) and case (underwater, land), the reverberation signal Srv is generated from the first reverb circuit 35 based on the land reverberation data, and the level of the reverberation signal Srv is the second. The volume is adjusted to K2 times by the volume adjustment circuit 33 and input to the first signal mixing circuit 37. That is, in the case (land, land), the level of the reverberation signal Srv is adjusted to K2 = Krv × Kr = Kr times and input to the first signal mixing circuit 37, and the case (underwater, land). The level of the reverberation signal Srv is adjusted to K2 = Krv × Kr = 0.8 × Kr times and input to the first signal mixing circuit 37.

第2のリバーブ回路36と第3の音量調整回路34は、図7の「水中用残響特性(付加量Krv)」の欄に対応する減衰処理をする回路である。第2のリバーブ回路36の構成及び動作は、「水中用残響特性(付加量Krv)」の欄の情報と水中用残響データを用いる点を除いて上述した第1のリバーブ回路35と同様である。また、第3の音量調整回路34の構成及び動作も「水中用残響特性(付加量Krv)」の欄の情報と水中用減衰データD2によって算出されるレベルKr'を用いる点を除いて上述した第2の音量調整回路33と同様である。   The second reverb circuit 36 and the third volume adjustment circuit 34 are circuits that perform attenuation processing corresponding to the column of “underwater reverberation characteristics (addition amount Krv)” in FIG. The configuration and operation of the second reverb circuit 36 are the same as those of the first reverb circuit 35 described above except that the information in the column of “underwater reverberation characteristics (addition amount Krv)” and underwater reverberation data are used. . The configuration and operation of the third volume adjustment circuit 34 are also described above except that the level Kr ′ calculated from the information in the “underwater reverberation characteristics (addition amount Krv)” column and the underwater attenuation data D2 is used. This is the same as the second volume adjustment circuit 33.

従って、ケース(陸上,陸上)とケース(水中,陸上)の場合は、第2のリバーブ回路36がリバーブ回路として機能しないので、第3の音量調整回路34からは残響信号Srvは出力されず、第2の信号混合回路38には残響信号Srvは入力されない。   Therefore, in the case (land, land) and case (underwater, land), the reverberation signal Srv is not output from the third volume adjustment circuit 34 because the second reverb circuit 36 does not function as a reverb circuit. The reverberation signal Srv is not input to the second signal mixing circuit 38.

一方、ケース(陸上,水中)とケース(水中,水中)の場合は、第2のリバーブ回路36から水中用残響データに基づいて残響信号Srvが生成され、第3の音量調整回路34でその残響信号Srvのレベルに音量調整値K3(0<K3≦1)を乗じてレベル調整がされた後、第2の信号混合回路38に入力される。なお、第3の音量調整回路34には、CPU11から「水中用残響特性(付加量Krv)」の欄の付加量Krvと図6に示した水中用減衰データD2によって算出されるレベルKr'を乗じて算出される値(Krv×Kr')が音量調整値K3として設定される。   On the other hand, in the case (land, underwater) and case (underwater, underwater), a reverberation signal Srv is generated from the second reverb circuit 36 based on the reverberation data for underwater, and the reverberation signal 34 is generated by the third volume adjustment circuit 34. The level is adjusted by multiplying the level of the signal Srv by a volume adjustment value K3 (0 <K3 ≦ 1), and then input to the second signal mixing circuit 38. The third volume adjustment circuit 34 receives the level Kr ′ calculated from the added amount Krv in the column of “underwater reverberation characteristics (added amount Krv)” from the CPU 11 and the underwater attenuation data D2 shown in FIG. A value (Krv × Kr ′) calculated by multiplication is set as the volume adjustment value K3.

ケース(水中,水中)の場合は、残響信号SrvのレベルがK3=Krv×Kr'=Kr'倍にレベル調整されて第2の信号混合回路38に入力され、ケース(陸上,水中)の場合は、残響信号SrvのレベルがK3=Krv×Kr'=0.5×Kr'倍にレベル調整されて第2の信号混合回路38に入力される。   In the case (underwater, underwater), the level of the reverberation signal Srv is adjusted to K3 = Krv × Kr ′ = Kr ′ times and input to the second signal mixing circuit 38. The level of the reverberation signal Srv is adjusted to K3 = Krv × Kr ′ = 0.5 × Kr ′ times and input to the second signal mixing circuit 38.

第1の信号混合回路37では、第1の音量調整回路32によってレベル調整が行われたフィルタ回路31からの音声信号K1×SLFと、第2の音量調整回路33によってレベル調整が行われた残響信号K2×Srvが混合され、第2の信号混合回路38では、第1の信号混合回路37から出力される混合信号(K1×SLF+K2×Srv)と、第3の音量調整回路34によってレベル調整が行われた残響信号K3×Srvが混合される。 In the first signal mixing circuit 37, the audio signal K 1 × S LF from the filter circuit 31 whose level is adjusted by the first volume adjustment circuit 32 and the level adjustment is performed by the second volume adjustment circuit 33. The reverberation signal K2 × Srv is mixed. In the second signal mixing circuit 38, the mixed signal (K1 × S LF + K2 × Srv) output from the first signal mixing circuit 37 and the third volume adjustment circuit 34 are used. The reverberation signal K3 × Srv whose level has been adjusted is mixed.

第1のリバーブ回路35と第2のリバーブ回路36は、いずれか一方しか動作しないので、効果音生成回路30からは、第1の音量調整回路32によってレベル調整された音声信号K1×SLFと第2の音量調整回路33によってレベル調整された第1のリバーブ回路35からの残響信号K2×Srvとを混合した混合信号(K1×SLF+K2×Srv)と、同音声信号K1×SLFと第3の音量調整回路33によってレベル調整された第2のリバーブ回路36からの残響信号K3×Srvとを混合した混合信号(K1×SLF+K3×Srv)のいずれかが効果音として出力される。 Since only one of the first reverb circuit 35 and the second reverb circuit 36 operates, the sound effect generation circuit 30 outputs the audio signal K1 × S LF whose level is adjusted by the first volume adjustment circuit 32. A mixed signal (K1 × S LF + K2 × Srv) obtained by mixing the reverberation signal K2 × Srv from the first reverb circuit 35 whose level is adjusted by the second volume adjustment circuit 33, and the audio signal K1 × S LF One of the mixed signals (K1 × S LF + K3 × Srv) obtained by mixing the reverberation signal K3 × Srv from the second reverb circuit 36 whose level is adjusted by the third volume adjustment circuit 33 is output as a sound effect. .

次に、本発明に係る効果音の生成処理について、図9,図10のフローチャートを用いて説明する。なお、以下の説明では、ゲーム展開のあるタイミングでモンスターMが咆哮音Sを発する場面における当該咆哮音Sの生成処理について説明する。また、上記の説明では、聴音位置TPをハンターHの位置HPとしたが、図9,図10のフローチャートの説明では、仮想カメラCの位置CPを聴音位置TPとし、「聴音位置TP」として説明する。   Next, sound effect generation processing according to the present invention will be described with reference to the flowcharts of FIGS. In the following description, the generation process of the roaring S in a scene where the monster M emits the roaring S at a certain timing of game development will be described. In the above description, the listening position TP is the position HP of the hunter H. However, in the description of the flowcharts of FIGS. 9 and 10, the position CP of the virtual camera C is the listening position TP and described as the “listening position TP”. To do.

表示部18には、1/30毎にコマ画像をVRAM16に生成する動作を繰り返すことによってゲーム画像が動画表示される。表示部18によるゲーム画像の表示によって展開されるゲーム中に、CPU11がモンスターMの咆哮音Sを生成するプログラムを実行する処理に移行すると、CPU11は、RAM13に格納されている音響データから当該咆哮音Sの原音データを読み出し、図8に示した等価的な効果音生成回路30により咆哮音Sの生成処理を行う。   The game image is displayed as a moving image on the display unit 18 by repeating the operation of generating a frame image in the VRAM 16 every 1/30. When the CPU 11 shifts to a process of executing a program for generating the roar S of the monster M during the game developed by displaying the game image on the display unit 18, the CPU 11 reads the sound from the acoustic data stored in the RAM 13. The original sound data of the sound S is read out, and the generation process of the stuttering sound S is performed by the equivalent sound effect generating circuit 30 shown in FIG.

原音データは、図5に示すように時間tの咆哮波形を有するデータであるから、何ら加工をすることなく当該原音データを再生すると、咆哮音Sの発生開始時から時間tが経過するまでに表示部18にモンスターMが姿勢変化や移動などの所定の動作をするゲーム画像が表示されると、モンスターMがその動作をしている期間、原音データがそのまま再生されることになる。すなわち、この場合は、図8の等価的な効果音生成回路30内の各回路を、咆哮音Sの発生開始時に設定されたデフォルト値で時間tが経過するまで動作させることになる。   Since the original sound data is data having a soot waveform at time t as shown in FIG. 5, when the original sound data is reproduced without any processing, the time t elapses from the start of the occurrence of the soot S. When a game image in which the monster M performs a predetermined operation such as a change in posture or movement is displayed on the display unit 18, the original sound data is reproduced as it is during the period in which the monster M is performing the operation. That is, in this case, each circuit in the equivalent sound effect generating circuit 30 of FIG. 8 is operated until the time t has passed with the default value set at the start of the generation of the stuttering S.

本発明に係る効果音の生成処理では、原音データが再生されている時間tの間、ゲーム空間におけるモンスターM(発音位置MP)及び仮想カメラCの位置CP(聴音位置TP)を1/30毎に算出する。そして、両者の位置関係に基づいて表示部18に表示させるゲーム画像を更新するのに合わせて、モンスターM(発音位置MP)及び仮想カメラCの位置CP(聴音位置TP)の位置情報を用いて効果音生成回路30内の各回路に設定される動作条件(図7の各欄の内容に従って設定される条件)を変化させて原音データの再生中に当該原音データの再生波形を変化させる処理が行われる。   In the sound effect generation processing according to the present invention, the monster M (sound generation position MP) and the virtual camera C position CP (listening position TP) in the game space are set every 1/30 during the time t when the original sound data is reproduced. To calculate. Then, the position information of the monster M (sound generation position MP) and the position CP (listening position TP) of the virtual camera C is used in accordance with the update of the game image displayed on the display unit 18 based on the positional relationship between the two. Processing for changing the operation waveform set in each circuit in the sound effect generating circuit 30 (condition set according to the contents of each column in FIG. 7) and changing the reproduction waveform of the original sound data during reproduction of the original sound data. Done.

従って、図9に示すフローチャートのステップS2〜S12のループ処理は、1/30毎に繰り返し行われる処理手順を示し、この処理手順では図8の等価的な効果音生成回路30内の各回路に設定される動作条件を更新し、原音データを加工する処理が行われる。   Therefore, the loop processing of steps S2 to S12 in the flowchart shown in FIG. 9 shows a processing procedure that is repeatedly performed every 1/30. In this processing procedure, each circuit in the equivalent sound effect generation circuit 30 in FIG. A process for updating the set operating conditions and processing the original sound data is performed.

まず、モンスターMが咆哮音Sを発する場面になると(CPU11がゲームプログラムの効果音生成処理を実行するタイミングになると)、RAM13に格納されている音響データからその咆哮音Sの原音データが読み出される(S1)。続いて、ゲーム空間におけるモンスターMの位置の座標が取得される(S2)。図1(a)に示したように、ゲーム空間には三次元の直交座標系XYZが設定されており、モンスターMの動作はコンピュータによって制御されているので、ゲーム画像の描画処理においては、XYZ座標系におけるモンスターMの座標(Xm,Ym,Zm)は1/30秒毎に自動的に算出される。また、仮想カメラCのXYZ座標系における座標(Xc,Yc,Zc)も各エリアの初期画面ではデフォルト値が設定されており、プレイヤの操作キー4による移動操作の操作量に応じて1/30秒毎に当該デフォルト値の更新処理が行われるので、その更新値が仮想カメラCの座標として取得される。   First, when the monster M emits a roaring sound S (when the CPU 11 performs the sound effect generation process of the game program), the original sound data of the roaring sound S is read from the acoustic data stored in the RAM 13. (S1). Subsequently, the coordinates of the position of the monster M in the game space are acquired (S2). As shown in FIG. 1A, a three-dimensional Cartesian coordinate system XYZ is set in the game space, and the operation of the monster M is controlled by the computer. Therefore, in the game image drawing process, XYZ The coordinates (Xm, Ym, Zm) of the monster M in the coordinate system are automatically calculated every 1/30 seconds. Also, the coordinates (Xc, Yc, Zc) in the XYZ coordinate system of the virtual camera C are set to default values on the initial screen of each area, and 1/30 according to the operation amount of the moving operation by the operation key 4 of the player. Since the default value is updated every second, the updated value is acquired as the coordinates of the virtual camera C.

なお、本実施形態では、水中におけるモンスターMやハンターHの三次元画像が表示部18に表示されるので、図1(b)に示すように、直交座標系XYZのZ座標については水と空気の境界面を「0」とし、+方向を陸上(空気中)の領域A1、−方向を水中の領域A2を示すようにしている。従って、モンスターMや仮想カメラCが水中にいるか否かは、Z座標値がマイナスであるか否かによって判断される。   In the present embodiment, since a three-dimensional image of the monster M or hunter H in the water is displayed on the display unit 18, as shown in FIG. 1B, the Z coordinate of the orthogonal coordinate system XYZ is water and air. Is defined as “0”, the + direction indicates a land (in the air) area A1, and the − direction indicates an underwater area A2. Therefore, whether or not the monster M or the virtual camera C is underwater is determined by whether or not the Z coordinate value is negative.

続いて、モンスターMのZ座標値(Zm)がZm≦0であるか否かを判別することによってモンスターMが水中にいるか否かが判別される(S3)。モンスターMが水中に存在すれば(S3:YES)、フラグF1が「1」に設定され(S4)、モンスターMが水中に存在しなければ、すなわち、モンスターMが陸上に存在すれば(S3:NO)、フラグF1が「0」に設定される(S5)。   Subsequently, it is determined whether or not the monster M is underwater by determining whether or not the Z coordinate value (Zm) of the monster M is Zm ≦ 0 (S3). If the monster M exists in the water (S3: YES), the flag F1 is set to “1” (S4). If the monster M does not exist in the water, that is, if the monster M exists on the land (S3: NO), the flag F1 is set to “0” (S5).

なお、フラグF1は、モンスターMが水中に存在するか否かを示すフラグであり、図9のフローチャートが開始される初期状態ではデフォルト値として「0」(陸上に存在することを示す)に設定されている。従って、F1=1は水中に存在することを示し、F1=0は陸上に存在することを示す。   The flag F1 is a flag indicating whether or not the monster M exists in the water, and is set to “0” (indicating that it exists on land) as a default value in the initial state in which the flowchart of FIG. 9 is started. Has been. Therefore, F1 = 1 indicates that it exists in water, and F1 = 0 indicates that it exists on land.

続いて、ゲーム空間における聴音位置TPの座標(XTP,YTP,ZTP)が取得される(S6)。この説明では、仮想カメラCの位置CPを聴音位置TPとしているので、(XTP,YTP,ZTP)=(Xc,Yc,Zc)が取得される。 Subsequently, the coordinates (X TP , Y TP , Z TP ) of the listening position TP in the game space are acquired (S6). In this description, since the position CP of the virtual camera C is the listening position TP, (X TP , Y TP , Z TP ) = (Xc, Yc, Zc) is acquired.

続いて、仮想カメラCのZ座標値(Zc)がZc≦0であるか否かを判別することによって仮想カメラCが水中にあるか否かが判別される(S7)。仮想カメラCが水中にあれば(S7:YES)、フラグF2が「1」に設定され(S8)、仮想カメラCが水中になければ(S7:NO)、フラグF2が「0」に設定される(S9)。     Subsequently, it is determined whether or not the virtual camera C is underwater by determining whether or not the Z coordinate value (Zc) of the virtual camera C is Zc ≦ 0 (S7). If the virtual camera C is underwater (S7: YES), the flag F2 is set to “1” (S8). If the virtual camera C is not underwater (S7: NO), the flag F2 is set to “0”. (S9).

なお、フラグF2は、仮想カメラC(正確には聴音位置TP)が水中にあるか否かを示すフラグであり、図9のフローチャートが開始される初期状態ではデフォルト値として「0」(陸上にあることを示す)に設定されている。従って、F2=1は水中にあることを示し、F2=0は陸上にあることを示す。   The flag F2 is a flag indicating whether or not the virtual camera C (accurately, the listening position TP) is in water. In the initial state where the flowchart of FIG. Is set). Thus, F2 = 1 indicates that it is in water and F2 = 0 indicates that it is on land.

続いて、フラグF1,F2の設定状態と図7に示す効果音の生成処理の内容とに基づいて、図8の等価的な効果音生成回路30の各回路に対する処理条件が決定される(S10)。   Subsequently, based on the setting state of the flags F1 and F2 and the content of the sound effect generation process shown in FIG. 7, processing conditions for each circuit of the equivalent sound effect generation circuit 30 in FIG. 8 are determined (S10). ).

図10は、ステップS10の処理条件を決定する処理手順を示す図である。   FIG. 10 is a diagram showing a processing procedure for determining the processing conditions in step S10.

ステップS10に移行すると、フラグF1,F2の設定内容に基づいて効果音生成シーンが図7の4つのケースのいずれに該当するかが決定される。すなわち、フラグF1,F2の設定内容を(F1,F2)の2ビット情報であるとすると、(F1,F2)=(0,0)であれば(S21:NO,S23:NO)、効果音生成シーンのケースはケース(陸上,陸上)に決定され(S24)、(F1,F2)=(0,1)であれば(S21:NO,S23:YES)、効果音生成シーンのケースはケース(陸上,水中)に決定される(S25)。また、(F1,F2)=(1,1)であれば(S21:YES,S22:YES)、効果音生成シーンのケースはケース(水中,水中)に決定され(S26)、(F1,F2)=(1,0)であれば(S21:YES,S22:NO)、効果音生成シーンのケースはケース(水中,陸上)に決定される(S27)。   When the process proceeds to step S10, it is determined which one of the four cases in FIG. 7 corresponds to the sound effect generation scene based on the setting contents of the flags F1 and F2. That is, if the setting contents of the flags F1 and F2 are 2-bit information of (F1, F2), if (F1, F2) = (0, 0) (S21: NO, S23: NO), the sound effect The case of the generation scene is determined to be a case (land, land) (S24), and if (F1, F2) = (0, 1) (S21: NO, S23: YES), the case of the sound effect generation scene is the case (Land, underwater) is determined (S25). If (F1, F2) = (1, 1) (S21: YES, S22: YES), the case of the sound effect generation scene is determined to be a case (underwater, underwater) (S26), (F1, F2). ) = (1, 0) (S21: YES, S22: NO), the case of the sound effect generation scene is determined to be a case (underwater, land) (S27).

そして、ステップS24〜S27で決定されたケースに対応する効果音生成条件、すなわち、等価的な効果音生成回路30の各回路に対する動作条件が設定される(S28)。   Then, a sound effect generation condition corresponding to the case determined in steps S24 to S27, that is, an operation condition for each circuit of the equivalent sound effect generation circuit 30 is set (S28).

すなわち、(F1,F2)=(0,0)の場合は、図7のケース1の動作条件に従ってLPF処理のカットオフ周波数fcは「0」に決定される。   That is, when (F1, F2) = (0, 0), the cut-off frequency fc of the LPF process is determined to be “0” according to the operation condition of case 1 in FIG.

また、モンスターMの座標(Xm,Ym,Zm)と仮想カメラCの座標(Xc,Yc,Zc)から両者の距離Lr=√[(Xm−Xc)2+(Ym−Yc)2+(Zm−Zc)2]が算出され、この距離Lrと図6に示す陸上用減衰データD1から距離Lrにおける音量レベルKrが設定される。また、この音量レベルKrと「媒質変化による音量変化率Kd」の欄の音量変化率Kd=1.0とから第1の音量調整回路32に対する音量調整値K1=Krが設定される。 Further, the distance Lr = √ [(Xm−Xc) 2 + (Ym−Yc) 2 + (Zm) from the coordinates (Xm, Ym, Zm) of the monster M and the coordinates (Xc, Yc, Zc) of the virtual camera C -Zc) 2 ] is calculated, and the volume level Kr at the distance Lr is set from the distance Lr and the land attenuation data D1 shown in FIG. Also, the volume adjustment value K1 = Kr for the first volume adjustment circuit 32 is set from the volume level Kr and the volume change rate Kd = 1.0 in the “volume change rate Kd due to medium change” column.

また、陸上用残響データに基づいて第1のリバーブ回路35に設定すべきプリディレイ、リバーブタイム、高周波減衰、クロストーク、反響信号強度などの各パラメータのデータが決定される。さらに、残響信号Srvの付加量Krv=1.0と図6に示した陸上用減衰データD1によって算出されるレベルKrを乗じて第2の音量調整回路33に対する音量調整値K2が「Kr」に決定される。なお、水中用残響データは使用しないので、第2のリバーブ回路36に対しては動作させないことが決定され、第3の音量調整回路34に対する音量調整値K3は設定されない。   Further, data of parameters such as pre-delay, reverb time, high frequency attenuation, crosstalk, and reverberation signal intensity to be set in the first reverb circuit 35 is determined based on the reverberation data for land. Further, the volume adjustment value K2 for the second volume adjustment circuit 33 is set to “Kr” by multiplying the additional amount Krv = 1.0 of the reverberation signal Srv by the level Kr calculated by the land attenuation data D1 shown in FIG. It is determined. Since the underwater reverberation data is not used, it is determined not to operate the second reverb circuit 36, and the volume adjustment value K3 for the third volume adjustment circuit 34 is not set.

(F1,F2)=(1,0)の場合は、図7のケース2の動作条件に従ってLPF処理のカットオフ周波数fcが決定される。上記の説明では、例示として1200Hzのカットオフ周波数fcだけを示していたが、ゲーム全体としては、エリア毎にカットオフ周波数fcが設けられ、各エリアのゲーム場面では複数個設定されている場合があるので、ステップS28では、現在のゲーム場面に対応するカットオフ周波数fcが決定される。   In the case of (F1, F2) = (1, 0), the cut-off frequency fc of the LPF process is determined according to the operation condition of case 2 in FIG. In the above description, only the cut-off frequency fc of 1200 Hz is shown as an example. However, as a whole game, there are cases where a cut-off frequency fc is provided for each area, and a plurality of cut-off frequencies are set in the game scene of each area. Therefore, in step S28, a cut-off frequency fc corresponding to the current game scene is determined.

また、モンスターMの座標(Xm,Ym,Zm)と仮想カメラCの座標(Xc,Yc,Zc)から両者の距離Lrが算出され、この距離Lrと図6に示す陸上用減衰データD1から距離Lrにおける音量レベルKrが設定される。また、この音量レベルKrと「媒質変化による音量変化率Kd」の欄の音量変化率Kd=0.6とから第1の音量調整回路32に対する音量調整値K1=0.6×Krが設定される。   Further, a distance Lr between the coordinates (Xm, Ym, Zm) of the monster M and the coordinates (Xc, Yc, Zc) of the virtual camera C is calculated, and the distance Lr and the distance from the land attenuation data D1 shown in FIG. A volume level Kr at Lr is set. Also, the volume adjustment value K1 = 0.6 × Kr for the first volume adjustment circuit 32 is set from the volume level Kr and the volume change rate Kd = 0.6 in the column “volume change rate Kd due to medium change”. The

また、陸上用残響データに基づいて第1のリバーブ回路35に設定すべきプリディレイ、リバーブタイム、高周波減衰、クロストーク、反響信号強度などの各パラメータのデータが決定される。さらに、残響信号Srvの付加量Krv=0.8と図6に示した陸上用減衰データD1によって算出されるレベルKrを乗じて第2の音量調整回路33に対する音量調整情値K2が「0.8×Kr」に決定される。なお、水中用残響データは使用しないので、第2のリバーブ回路36に対しては動作させないことが決定され、第3の音量調整回路34に対する音量調整値K3は設定されない。   Further, data of parameters such as pre-delay, reverb time, high frequency attenuation, crosstalk, and reverberation signal intensity to be set in the first reverb circuit 35 is determined based on the reverberation data for land. Further, the volume adjustment information value K2 for the second volume adjustment circuit 33 is “0.0” by multiplying the additional amount Krv = 0.8 of the reverberation signal Srv by the level Kr calculated by the land attenuation data D1 shown in FIG. 8 × Kr ”. Since the underwater reverberation data is not used, it is determined not to operate the second reverb circuit 36, and the volume adjustment value K3 for the third volume adjustment circuit 34 is not set.

(F1,F2)=(0,1)の場合は、図7のケース3の動作条件に従ってLPF処理のカットオフ周波数fcが「0」に決定される。   In the case of (F1, F2) = (0, 1), the cut-off frequency fc of the LPF process is determined to be “0” according to the operation condition of case 3 in FIG.

また、モンスターMの座標(Xm,Ym,Zm)と仮想カメラCの座標(Xc,Yc,Zc)から両者の距離Lrが算出され、この距離Lrと図6に示す水中用減衰データD2から距離Lrにおける音量レベルKr’が設定される。また、この音量レベルKr’と「媒質変化による音量変化率Kd」の欄の音量変化率Kd=0.5とから第1の音量調整回路32に対する音量調整値K1=0.5×Kr’が設定される。   Further, a distance Lr between the coordinates (Xm, Ym, Zm) of the monster M and the coordinates (Xc, Yc, Zc) of the virtual camera C is calculated, and the distance Lr and the distance from the underwater attenuation data D2 shown in FIG. A volume level Kr ′ at Lr is set. Further, from this volume level Kr ′ and the volume change rate Kd = 0.5 in the “volume change rate Kd due to medium change” column, the volume adjustment value K1 = 0.5 × Kr ′ for the first volume adjustment circuit 32 is obtained. Is set.

また、水中用残響データに基づいて第2のリバーブ回路36に設定すべきプリディレイ、リバーブタイム、高周波減衰、クロストーク、反響信号強度などの各パラメータのデータが決定される。さらに、残響信号Srvの付加量Krv=0.5と図6に示した水中用減衰データD2によって算出されるレベルKr’を乗じて第3の音量調整回路34に対する音量調整値K3が「0.5×Kr’」に決定される。なお、陸上用残響データは使用しないので、第1のリバーブ回路35に対しては動作させないことが決定され、第2の音量調整回路33に対する音量調整値K2は設定されない。   Further, data of parameters such as pre-delay, reverb time, high frequency attenuation, crosstalk, and reverberation signal intensity to be set in the second reverb circuit 36 is determined based on the underwater reverberation data. Further, the volume adjustment value K3 for the third volume adjustment circuit 34 is “0..0” by multiplying the additional amount Krv = 0.5 of the reverberation signal Srv by the level Kr ′ calculated by the underwater attenuation data D2 shown in FIG. 5 × Kr ′ ”. Since land reverberation data is not used, it is determined that the first reverb circuit 35 is not operated, and the volume adjustment value K2 for the second volume adjustment circuit 33 is not set.

(F1,F2)=(1,1)の場合は、図7のケース4の動作条件に従ってLPF処理のカットオフ周波数fcが決定される。また、モンスターMの座標(Xm,Ym,Zm)と仮想カメラCの座標(Xc,Yc,Zc)から両者の距離Lrが算出され、この距離Lrと図6に示す水中用減衰データD2から距離Lrにおける音量レベルKr’が設定される。また、この音量レベルKr’と「媒質変化による音量変化率Kd」の欄の音量変化率Kd=1.0とを乗じて第1の音量調整回路32に対する音量調整値K1が「Kr’」に設定される。   In the case of (F1, F2) = (1, 1), the cut-off frequency fc of the LPF process is determined according to the operation condition of case 4 in FIG. Further, a distance Lr between the coordinates (Xm, Ym, Zm) of the monster M and the coordinates (Xc, Yc, Zc) of the virtual camera C is calculated, and the distance Lr and the distance from the underwater attenuation data D2 shown in FIG. A volume level Kr ′ at Lr is set. Also, the volume adjustment value K1 for the first volume adjustment circuit 32 is set to “Kr ′” by multiplying the volume level Kr ′ by the volume change rate Kd = 1.0 in the “volume change rate Kd due to medium change” column. Is set.

また、水中用残響データに基づいて第2のリバーブ回路36に設定すべきプリディレイ、リバーブタイム、高周波減衰、クロストーク、反響信号強度などの各パラメータのデータが決定され、残響信号Srvの付加量Krv=1.0と図6に示した水中用減衰データD2によって算出されるレベルKr’を乗じてから第3の音量調整回路34に対する音量調整値K3が「Kr’」に決定される。なお、陸上用残響データは使用しないので、第1のリバーブ回路35に対しては動作させないことが決定され、第2の音量調整回路33に対する音量調整値K2は設定されない。   Further, data of parameters such as pre-delay, reverb time, high frequency attenuation, crosstalk, and reverberation signal intensity to be set in the second reverb circuit 36 is determined based on the reverberation data for underwater, and the amount of reverberation signal Srv added. After multiplying Krv = 1.0 by the level Kr ′ calculated by the underwater attenuation data D2 shown in FIG. 6, the volume adjustment value K3 for the third volume adjustment circuit 34 is determined to be “Kr ′”. Since land reverberation data is not used, it is determined that the first reverb circuit 35 is not operated, and the volume adjustment value K2 for the second volume adjustment circuit 33 is not set.

ステップS10で処理条件が決定されると、その処理条件が図8の等価的な効果音生成回路30の各回路に設定され、原音データに対して各回路で所定の加工処理が行われて出力されている効果音の音量や音色(周波数成分)や残響特性を変化させる(S11)。   When the processing conditions are determined in step S10, the processing conditions are set in each circuit of the equivalent sound effect generating circuit 30 in FIG. 8, and predetermined processing is performed in each circuit on the original sound data and output. The volume, tone color (frequency component), and reverberation characteristics of the sound effect being applied are changed (S11).

上記のステップS2〜S11の処理は、モンスターMの咆哮音Sの発生開始からその咆哮音Sの原音データの再生時間tが経過するまで繰り返され(S2〜S12のループ処理)、咆哮音Sの原音データの再生時間tが経過すると(S12:YES)、効果音の生成処理は終了する。   The processes in steps S2 to S11 are repeated until the reproduction time t of the original sound data of the roar S passes from the start of the generation of the roar S of the monster M (loop process of S2 to S12). When the reproduction time t of the original sound data elapses (S12: YES), the sound effect generation process ends.

図11は、本発明に係る効果音生成処理により発生される効果音の波形の変化の一例を示す図である。同図(a)〜(d)の横軸は時間を示し、縦軸は咆哮音Sのレベルを示している。   FIG. 11 is a diagram showing an example of a change in the sound effect waveform generated by the sound effect generation processing according to the present invention. The horizontal axis of FIGS. 9A to 9D indicates time, and the vertical axis indicates the level of the noise S.

同図(a)は、仮想カメラCが陸上の所定の位置に固定され、モンスターMが陸上で咆哮しながら仮想カメラCから離れる方向に移動した場合の咆哮音Sの波形を示し、同図(b)は、仮想カメラCが水中の所定の位置に固定され、モンスターMが水中で咆哮しながら仮想カメラCから離れる方向に移動した場合の咆哮音Sの波形を示している。   The figure (a) shows the waveform of the roar S when the virtual camera C is fixed at a predetermined position on the land and the monster M moves away from the virtual camera C while roaming on the land. b) shows the waveform of the roar S when the virtual camera C is fixed at a predetermined position in the water and the monster M moves away from the virtual camera C while roaming in the water.

(a)のケースは、咆哮音Sが発生している期間は全てケース(陸上,陸上)に該当し、(b)のケースは、咆哮音Sが発生している期間は全てケース(水中,水中)に該当するから、(a)では図7のケース1の条件で効果音生成処理が行われ、(b)では図7のケース4の条件で効果音生成処理が行われる。従って、(a)の波形も(b)の波形もレベルが連続的に変化(減衰)し、不連続になることはない。また、ケース(水中,水中)ではローパスフィルタのフィルタリング処理が行われるので、ケース(陸上,陸上)に比べて咆哮音Sの波形は高周波成分が少なくなる。(a)の咆哮音Sがギザギサした周期の短い波形を有しているのに対し、(b)が(a)よりも丸みがあり、周期が少し長い波形を有しているのは、フィルタリング処理の効果によることを示している。   The case (a) corresponds to the case (land, land) during the period when the noise S is generated, and the case (b) is the case (underwater, all the period during which the noise S is generated. In (a), the sound effect generation process is performed under the conditions of case 1 in FIG. 7, and in (b), the sound effect generation process is performed under the conditions of case 4 in FIG. Accordingly, the levels of the waveform (a) and the waveform (b) continuously change (attenuate) and do not become discontinuous. Further, since the filtering process of the low pass filter is performed in the case (underwater, underwater), the waveform of the noise S has less high frequency components than the case (land, land). The reason why the roaring S of (a) has a jagged short waveform, while (b) has a rounder waveform than (a) and has a slightly longer period is the filtering. It shows that it depends on the effect of processing.

同図(c)は、仮想カメラCが陸上の所定の位置に固定され、同図(e)に示すように、水中にいるモンスターMが咆哮しながら途中で一時空気中に出現した後、水中に戻る経路で仮想カメラCから離れる方向に移動した場合の咆哮音Sの波形を示し、同図(d)は、仮想カメラCが水中の所定の位置に固定され、モンスターMが(c)と同様の移動動作をした場合の咆哮音Sの波形を示している。   FIG. 8C shows a state where the virtual camera C is fixed at a predetermined position on the land, and as shown in FIG. The waveform of the roar S when moving in a direction away from the virtual camera C along the path back to (d) is shown. FIG. 4D shows that the virtual camera C is fixed at a predetermined position in the water, and the monster M becomes (c). The waveform of the roar S when the same movement operation is performed is shown.

同図(c)では、咆哮音Sが発生している期間のうち、モンスターMが最初に水中にいる期間T1はケース(水中,陸上)に該当し、モンスターMが空中に出現している期間T2はケース(陸上,陸上)に該当し、モンスターMが最後に水中にいる期間T3はケース(水中,陸上)に該当する。   In the figure (c), among the periods in which the roar S is occurring, the period T1 in which the monster M is first in the water corresponds to the case (underwater, land), and the period in which the monster M appears in the air. T2 corresponds to the case (land, land), and the period T3 when the monster M is finally in the water corresponds to the case (underwater, land).

従って、期間T1と期間T3では図7のケース2の条件で効果音生成処理が行われ、期間T2では図7のケース1の条件で効果音生成処理が行われるので、期間T1と期間T2の境界N1及び期間T2と期間T3の境界N2で咆哮音Sのレベルが不連続になる。また、ケース2の処理ではローパスフィルタのフィルタリング処理が行われるが、ケース1の処理ではそのフィルタリング処理は行われないので、期間T1,T3の波形は期間T2の波形よりも丸みがあり、周期が少し長い波形となる。ケース2の処理からケース1の処理に変化すると、ケース2の処理では媒質変化による音量変化率Kdと距離減衰Krとにより音量レベルが0.6×Kr倍に低減されるが、ケース1の処理ではその音量レベルの低減処理が行われないので、(c)では期間T1,T3のレベルが期間T2よりも低くなる。   Therefore, in the period T1 and the period T3, the sound effect generation process is performed under the condition of the case 2 in FIG. 7, and in the period T2, the sound effect generation process is performed under the condition of the case 1 in FIG. The level of the noise S becomes discontinuous at the boundary N1 and at the boundary N2 between the period T2 and the period T3. In addition, the low pass filter filtering process is performed in the case 2 process. However, since the filtering process is not performed in the case 1 process, the waveforms in the periods T1 and T3 are rounder than the waveform in the period T2, and the period is shorter. A slightly longer waveform. When the process of Case 2 is changed to the process of Case 1, in the process of Case 2, the volume level is reduced to 0.6 × Kr times by the volume change rate Kd and the distance attenuation Kr due to the medium change. Then, since the volume level reduction processing is not performed, in (c), the levels of the periods T1 and T3 are lower than those of the period T2.

同図(d)では、咆哮音Sが発生している期間のうち、モンスターMが最初に水中にいる期間T1はケース(水中,水中)に該当し、モンスターMが空中に出現している期間T2はケース(陸上,水中)に該当し、モンスターMが最後に水中にいる期間T3はケース(水中,水中)に該当する。   In the same figure (d), among the periods when the roar S is occurring, the period T1 in which the monster M is first in the water corresponds to the case (underwater, underwater), and the period in which the monster M appears in the air. T2 corresponds to the case (land, underwater), and the period T3 when the monster M is finally in the water corresponds to the case (underwater, underwater).

従って、期間T1と期間T3では図7のケース4の条件で効果音生成処理が行われ、期間T2では図7のケース3の条件で効果音生成処理が行われるので、(c)と同様に期間T1と期間T2の境界N1及び期間T2と期間T3の境界N2で咆哮音Sのレベルが不連続になる。また、ケース4の処理ではローパスフィルタのフィルタリング処理が行われるが、ケース1の処理ではそのフィルタリング処理は行われないので、期間T1,T3の波形は期間T2の波形よりも丸みがあり、周期が少し長い波形となる点も(c)と同様の傾向となる。その一方、ケース4の処理からケース3の処理に変化すると、媒質変化による音量変化率Kdと距離減衰Kr’とにより音量レベルが0.5×Kr’倍に低減されるので、(d)では(c)とは逆に期間T2のレベルが期間T1,T3よりも低くなる。   Therefore, in the period T1 and the period T3, the sound effect generation process is performed under the condition of case 4 in FIG. 7, and in the period T2, the sound effect generation process is performed under the condition of case 3 in FIG. The level of the noise S becomes discontinuous at the boundary N1 between the periods T1 and T2 and at the boundary N2 between the periods T2 and T3. In addition, the low pass filter filtering process is performed in the case 4 process, but the filtering process is not performed in the case 1 process. Therefore, the waveforms in the periods T1 and T3 are rounder than the waveform in the period T2, and the period is longer. The point which becomes a little long waveform also becomes the same tendency as (c). On the other hand, when the process of case 4 is changed to the process of case 3, the volume level is reduced by a factor of 0.5 × Kr ′ by the volume change rate Kd and the distance attenuation Kr ′ due to the medium change. Contrary to (c), the level of the period T2 is lower than that of the periods T1 and T3.

上記のように、本実施形態に係る効果音生成方法が適用されるゲーム装置1によれば、ゲーム空間に音響特性の異なる媒質で占められる2種類の領域(空気中と水中)が設けられ、両領域を発音体であるモンスターMと聴音体であるハンターH(若しくは仮想カメラC)とが移動可能に設定されている場合に、各領域の音の減衰特性、周波数特性及び残響特性を設け、ゲーム空間におけるモンスターMの存在する領域とハンターH(若しくは仮想カメラC)の存在する領域の4つの組合せ(ケース(陸上,陸上),ケース(水中,陸上),ケース(陸上,水中),ケース(水中,水中)の組合せ)とモンスターMとハンターHとの間の距離に応じた効果音の減衰特性、周波数特性及び残響特性の処理を行うようにしているので、2つの領域の間でモンスターM(発音位置)とハンターH(聴音位置)との位置関係が自由に変化してもその位置関係の変化に応じて可及的に自然に聞こえる効果音を出力することができる。   As described above, according to the game apparatus 1 to which the sound effect generation method according to the present embodiment is applied, two types of regions (in the air and underwater) occupied by media having different acoustic characteristics are provided in the game space. When the monster M which is a sound generator and the hunter H (or virtual camera C) which is a sound body are set to be movable in both areas, the sound attenuation characteristics, frequency characteristics and reverberation characteristics of each area are provided. Four combinations of the area where the monster M exists in the game space and the area where the hunter H (or virtual camera C) exists (case (land, land), case (underwater, land), case (land, underwater), case ( The combination of underwater and underwater)) and sound effect attenuation characteristics, frequency characteristics and reverberation characteristics according to the distance between the monster M and the hunter H are processed. In it is possible to output a monster M (pronunciation position) and Hunter H (listening position) and sound effects sound natural as much as possible in accordance with the positional relationship is a change in that location relationship changed freely of.

特に、ゲーム画像のフレーム画像の生成と同期してモンスターM(発音位置)とハンターH(聴音位置)との位置関係を求め、その位置関係に基づいて効果音生成処理を行うので、図11の(c),(d)に示されるように、モンスターMが水中から陸上に移動する瞬間やその逆の方向に移動する瞬間に効果音が不連続に変化するのを疑似的に表現することすることができ、効果音によって三次元のゲーム画像で描写される場面に応じた現実世界に近い聴覚効果を演出することができる。   In particular, the positional relationship between the monster M (sound generation position) and the hunter H (listening position) is obtained in synchronization with the generation of the frame image of the game image, and the sound effect generation processing is performed based on the positional relationship. As shown in (c) and (d), it is expressed in a pseudo manner that the sound effect changes discontinuously at the moment when the monster M moves from the water to the land or in the opposite direction. It is possible to produce an auditory effect close to the real world according to the scene depicted by the sound effect in the three-dimensional game image.

なお、上記実施形態では、音響特性の異なる媒質の2つの領域の例として水中と空気中について説明したが、音響特性の異なる媒質としてこれらに限られるものではない。すなわち、媒質の異なる2つの領域として液体領域と気体領域とに分けるとすれば、液体領域の種類は水だけに限られず、任意の液体の種類を適用することができ、気体領域の種類も空気だけに限られず、任意の気体の種類を適用することができる。また、ゲームソフトにおいて、現実世界に存在しない液体や気体を創作することができるから、任意に創作した液体や気体を適用してもよい。   In the above-described embodiment, the description has been given of the water and the air as examples of the two regions of the medium having different acoustic characteristics. However, the medium having different acoustic characteristics is not limited thereto. That is, if the liquid region and the gas region are divided into two regions having different media, the liquid region type is not limited to water, and any liquid type can be applied. Any type of gas can be applied. In addition, in the game software, it is possible to create a liquid or gas that does not exist in the real world, so an arbitrarily created liquid or gas may be applied.

また、液体だけでなく砂などの固体による流体の領域を適用してもよく、また隣接する媒質の異なる領域を3種類以上設けるようにしてもよい。   Further, not only liquid but also a fluid region by a solid such as sand may be applied, and three or more different regions of adjacent media may be provided.

上記の実施形態では、水中と空気中との違いを演出するためのエフェクタとして、リバーブを用いたが、例えばディレイやエコーなどの他の残響・反響音の付加に関するエフェクタやコーラスやフランジャーなどの聴覚上の揺らぎを演出するエフェクタを用いてもよい。また、水中と空気中との違いを演出するための主要な要素としては、媒質境界における音量変化やローパスフィルタによる周波数特性の相違がリバーブなどのエフェクタよりも優勢であるので、リバーブなどのエフェクタを省略し、処理の簡素化を図るようにしてもよい。   In the above embodiment, reverb is used as an effector for producing the difference between underwater and air. For example, an effector for adding other reverberation and reverberation such as delay and echo, and an auditory such as chorus and flanger. An effector that produces the above fluctuation may be used. In addition, as the main elements for producing the difference between underwater and air, the effect of the reverb is effective because the change in volume at the medium boundary and the difference in frequency characteristics due to the low-pass filter are more prevalent than the effector such as reverb. It may be omitted and the processing may be simplified.

上記の実施形態では、発音位置MPをモンスターMの位置にしているが、発音位置MPは正確にモンスターMの位置に設定する必要はなく、発音体となるキャラクタやその周辺近傍の任意の位置に設定してもよい。聴音位置TPについても同様で、ハンターHや仮想カメラCの位置に正確に設定する必要はなく、聴音体となるキャラクタは仮想カメラやその周辺近傍の任意の位置に設定してもよい。   In the above embodiment, the sound generation position MP is set to the position of the monster M. However, the sound generation position MP does not have to be set to the position of the monster M accurately, and is set to a character that is a sound generation body or an arbitrary position in the vicinity thereof. It may be set. The same applies to the listening position TP, and it is not necessary to accurately set the position of the hunter H or the virtual camera C, and the character serving as the listening body may be set to any position in the vicinity of the virtual camera or its periphery.

上記の実施形態では、原音データの再生時間tにおける当該原音データの加工処理をゲーム画像の生成動作に同期させていた(1/30秒毎にしていた)が、その加工処理のタイミングは任意に設定することができる。例えば、フレーム画像の生成周期の整数倍の周期に設定しても良い。   In the above embodiment, the processing of the original sound data at the reproduction time t of the original sound data is synchronized with the generation operation of the game image (every 1/30 seconds), but the timing of the processing is arbitrary. Can be set. For example, a cycle that is an integral multiple of the frame image generation cycle may be set.

上記の実施形態では、本発明に係る効果音生成処理を、主として音声処理プロセッサ19により行わせているが、CPU11と音声処理プロセッサ19とが共同して行うようにいてよく、音声処理プロセッサ19を省略してCPU11により行わせるようにしても良い。   In the above embodiment, the sound effect generation processing according to the present invention is mainly performed by the sound processing processor 19, but the CPU 11 and the sound processing processor 19 may jointly perform the sound processing processor 19. It may be omitted and performed by the CPU 11.

上記の実施形態では、ゲーム装置1の効果音を生成する場合について説明したが、本発明に係る効果音生成技術は、ゲームの効果音に限られず、表示装置にゲーム以外の三次元の映像、例えば撮影画像やデモンストレーション画像などを表示するときにその映像に対して効果音を付加する場合にも適用することができる。   In the above embodiment, the case of generating the sound effect of the game apparatus 1 has been described. However, the sound effect generation technique according to the present invention is not limited to the sound effect of the game, and the display device has a three-dimensional image other than the game, For example, the present invention can also be applied to the case where sound effects are added to the video when displaying a photographed image or a demonstration image.

1 ビデオゲーム装置
2 本体
3 ディスプレイ
4a 方向キー
4b ジョイステックキー
5 操作ボタン
6 「START」ボタン
7 「SELECT」ボタン
8 音量調整ボタン
9a,9b スピーカ
10 ゲームメディア
11 CPU
12 ROM
13 RAM
14 描画データ生成プロセッサ
15 描画処理プロセッサ
16 VRAM
17 D/Aコンバータ
18 表示部
19 音声処理プロセッサ
20 アンプ
21 スピーカ
22 操作部
23 ドライバ
24 バス
30 効果音生成回路
31 フィルタ回路
32,33,34 音量調整回路
35,36 リバーブ回路
37,38 信号混合回路
DESCRIPTION OF SYMBOLS 1 Video game device 2 Main body 3 Display 4a Direction key 4b Joystick key 5 Operation button 6 "START" button 7 "SELECT" button 8 Volume control button 9a, 9b Speaker 10 Game media 11 CPU
12 ROM
13 RAM
14 drawing data generation processor 15 drawing processor 16 VRAM
17 D / A converter 18 Display unit 19 Audio processor 20 Amplifier 21 Speaker 22 Operation unit 23 Driver 24 Bus 30 Sound effect generation circuit 31 Filter circuit 32, 33, 34 Volume adjustment circuit 35, 36 Reverb circuit 37, 38 Signal mixing circuit

Claims (3)

コンピュータを、三次元画像で表示される複数の媒質を含む仮想空間上の発音体の発音動作に対して、当該発音体の発生音を前記仮想空間上に設定された所定の聴音位置で聞こえる音に加工し、効果音として出力する効果音生成装置として機能させる効果音生成プログラムであって、
前記複数の媒質には、残響特性が異なる第1の媒質と第2の媒質が含まれ、
前記コンピュータを、
前記三次元画像上で前記発音体が発音動作を開始するとき、前記発音体の発する1以上の原音データを記憶する原音データ記憶手段から当該発音動作に対応する原音データを読み出し、当該原音データから音声信号を再生する原音データ再生手段と、
前記原音データ再生手段が前記音声信号を再生している期間に、前記仮想空間上の前記発音体と前記聴音位置の位置情報を所定のタイミングで取得する位置情報取得手段と、
前記位置情報取得手段で前記位置情報が取得される毎に、前記発音体の存在する媒質と前記聴音位置の存在する媒質の組合せを特定する媒質組合せ特定手段と、
前記媒質組合せ特定手段により前記2種類の媒質の組合せが特定される毎に、加工データ記憶手段に前記発音体の存在する媒質と前記聴音位置の存在する媒質の組合せ毎に予め記憶されている、前記原音データから生成され、当該原音データに付加される残響信号の内容と音量を含む残響特性を含む所定の音響特性を加工するための複数の加工データの中から、前記媒質組合せ特定手段により特定された前記2種類の媒質の組合せに対応する加工データを読み出し、その加工データを用いて前記音声信号の加工を行う音声信号加工手段と、して機能させ、
前記残響信号の音量の特性は、同一の媒質に前記発音体と前記聴音位置が存在する場合の前記残響信号の音量に対して異なる媒質に前記発音体と前記聴音位置が存在する場合の前記残響信号の音量を減少させる特性であり、
前記発音体が前記第1の媒質に存在し、前記聴音位置が前記第2の媒質に存在する場合の前記残響信号の音量を減少させる度合いは、前記発音体が前記第2の媒質に存在し、前記聴音位置が前記第1の媒質に存在する場合の度合いと異なる、ことを特徴とする効果音生成プログラム。
Sound generated by a sound generator generated in a virtual space including a plurality of media displayed in a three-dimensional image, at a predetermined listening position set in the virtual space. And a sound effect generation program that functions as a sound effect generation device that outputs the sound effect as a sound effect,
The plurality of media includes a first medium and a second medium having different reverberation characteristics,
The computer,
When the sounding body starts a sounding operation on the three-dimensional image, the original sound data corresponding to the sounding operation is read out from the original sound data storing means for storing one or more original sound data emitted by the sounding body, and the original sound data is read from the original sound data. An original sound data reproducing means for reproducing an audio signal;
Position information acquisition means for acquiring position information of the sounding body and the listening position in the virtual space at a predetermined timing during a period in which the original sound data reproduction means reproduces the audio signal;
Each time the position information is acquired by the position information acquisition means, medium combination specifying means for specifying a combination of the medium in which the sound generator is present and the medium in which the listening position is present;
Each time the combination of the two types of media is specified by the medium combination specifying unit, the processing data storage unit stores in advance each combination of the medium in which the sounding body exists and the medium in which the listening position exists. Specified by the medium combination specifying means from among a plurality of processing data for processing a predetermined acoustic characteristic including a reverberation characteristic including a content and volume of a reverberation signal generated from the original sound data and added to the original sound data Read out the processing data corresponding to the combination of the two types of media, and function as audio signal processing means for processing the audio signal using the processing data;
The volume characteristic of the reverberation signal is such that the reverberation in the case where the sounding body and the listening position are in different media with respect to the volume of the reverberation signal when the sounding body and the listening position are in the same medium. A characteristic that reduces the volume of the signal,
The degree to which the volume of the reverberation signal is reduced when the sounding body is present in the first medium and the listening position is present in the second medium is that the sounding body is present in the second medium. A sound effect generating program characterized by being different in degree from the case where the listening position is present in the first medium.
前記三次元画像は、前記仮想空間を移動可能なキャラクタ若しくはオブジェクトが前記発音体として登場するゲーム空間とし、当該ゲーム空間に移動可能に設定された仮想カメラで撮影したゲーム画像であり、前記聴音位置は、前記キャラクタのうちプレイヤが操作するキャラクタの位置、または前記仮想カメラの位置に対応付けられている、請求項1に記載の効果音生成プログラム。   The three-dimensional image is a game image in which a character or object capable of moving in the virtual space appears as the sounding body, and is a game image taken with a virtual camera set to be movable in the game space, and the listening position The sound effect generation program according to claim 1, wherein the sound effect generation program is associated with a position of a character operated by a player among the characters or a position of the virtual camera. 請求項1又は2に記載の効果音生成プログラムを記憶したプログラム記憶部と、前記プログラム記憶部に記憶された効果音生成プログラムを実行する制御部と、を備えたことを特徴とする効果音生成装置。   3. A sound effect generation comprising: a program storage unit storing the sound effect generation program according to claim 1; and a control unit executing the sound effect generation program stored in the program storage unit. apparatus.
JP2013229165A 2013-11-05 2013-11-05 Sound effect generating device and sound effect generating program for realizing the sound effect generating device Active JP5619260B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013229165A JP5619260B2 (en) 2013-11-05 2013-11-05 Sound effect generating device and sound effect generating program for realizing the sound effect generating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013229165A JP5619260B2 (en) 2013-11-05 2013-11-05 Sound effect generating device and sound effect generating program for realizing the sound effect generating device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009176383A Division JP5468326B2 (en) 2009-07-29 2009-07-29 Sound effect generating device and sound effect generating program for realizing the sound effect generating device

Publications (2)

Publication Number Publication Date
JP2014063183A true JP2014063183A (en) 2014-04-10
JP5619260B2 JP5619260B2 (en) 2014-11-05

Family

ID=50618408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013229165A Active JP5619260B2 (en) 2013-11-05 2013-11-05 Sound effect generating device and sound effect generating program for realizing the sound effect generating device

Country Status (1)

Country Link
JP (1) JP5619260B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020018620A (en) * 2018-08-01 2020-02-06 株式会社カプコン Voice generation program in virtual space, generation method of quadtree, and voice generation device
CN113398590A (en) * 2021-07-14 2021-09-17 网易(杭州)网络有限公司 Sound processing method, sound processing device, computer equipment and storage medium
CN114035764A (en) * 2021-11-05 2022-02-11 郑州捷安高科股份有限公司 Three-dimensional sound effect simulation method, device, equipment and storage medium
WO2023214515A1 (en) * 2022-05-02 2023-11-09 ソニーグループ株式会社 Sound generation control method, sound production device, and sound generation control program
CN113398590B (en) * 2021-07-14 2024-04-30 网易(杭州)网络有限公司 Sound processing method, device, computer equipment and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06315200A (en) * 1993-04-28 1994-11-08 Victor Co Of Japan Ltd Distance sensation control method for sound image localization processing
JP2000210471A (en) * 1999-01-21 2000-08-02 Namco Ltd Sound device and information recording medium for game machine
JP2001275199A (en) * 2000-03-24 2001-10-05 Mitsubishi Electric Corp Three-dimensional sound reproduction system
JP2001346300A (en) * 2000-05-30 2001-12-14 Yamaha Corp Simulated sound generator and method of generating simulated sound
JP2005046270A (en) * 2003-07-31 2005-02-24 Konami Computer Entertainment Yokyo Inc Game device, control method of computer and program
JP2008188307A (en) * 2007-02-06 2008-08-21 Copcom Co Ltd Game device, game program, and storage medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06315200A (en) * 1993-04-28 1994-11-08 Victor Co Of Japan Ltd Distance sensation control method for sound image localization processing
JP2000210471A (en) * 1999-01-21 2000-08-02 Namco Ltd Sound device and information recording medium for game machine
JP2001275199A (en) * 2000-03-24 2001-10-05 Mitsubishi Electric Corp Three-dimensional sound reproduction system
JP2001346300A (en) * 2000-05-30 2001-12-14 Yamaha Corp Simulated sound generator and method of generating simulated sound
JP2005046270A (en) * 2003-07-31 2005-02-24 Konami Computer Entertainment Yokyo Inc Game device, control method of computer and program
JP2008188307A (en) * 2007-02-06 2008-08-21 Copcom Co Ltd Game device, game program, and storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020018620A (en) * 2018-08-01 2020-02-06 株式会社カプコン Voice generation program in virtual space, generation method of quadtree, and voice generation device
CN113398590A (en) * 2021-07-14 2021-09-17 网易(杭州)网络有限公司 Sound processing method, sound processing device, computer equipment and storage medium
CN113398590B (en) * 2021-07-14 2024-04-30 网易(杭州)网络有限公司 Sound processing method, device, computer equipment and storage medium
CN114035764A (en) * 2021-11-05 2022-02-11 郑州捷安高科股份有限公司 Three-dimensional sound effect simulation method, device, equipment and storage medium
WO2023214515A1 (en) * 2022-05-02 2023-11-09 ソニーグループ株式会社 Sound generation control method, sound production device, and sound generation control program

Also Published As

Publication number Publication date
JP5619260B2 (en) 2014-11-05

Similar Documents

Publication Publication Date Title
US10478724B2 (en) Game device, processing method, and information storage medium
JP5468326B2 (en) Sound effect generating device and sound effect generating program for realizing the sound effect generating device
JP6461850B2 (en) Simulation system and program
EP1565035B1 (en) Dynamic sound source and listener position based audio rendering
JP3949701B1 (en) Voice processing apparatus, voice processing method, and program
WO2017115793A1 (en) Game apparatus, processing method, and information storage medium
US7563168B2 (en) Audio effect rendering based on graphic polygons
US9724608B2 (en) Computer-readable storage medium storing information processing program, information processing device, information processing system, and information processing method
US9744459B2 (en) Computer-readable storage medium storing information processing program, information processing device, information processing system, and information processing method
JP2011028169A5 (en)
JP2000200361A (en) Image processor and information recording medium
JP2017119032A (en) Game device and program
JP2017176728A (en) Simulation system and program
JP5619260B2 (en) Sound effect generating device and sound effect generating program for realizing the sound effect generating device
JP5147253B2 (en) GAME DEVICE, GAME PROGRAM, AND STORAGE MEDIUM
JP3740518B2 (en) GAME DEVICE, COMPUTER CONTROL METHOD, AND PROGRAM
JP4512652B2 (en) GAME DEVICE, GAME CONTROL METHOD, AND GAME CONTROL PROGRAM
JP5619259B2 (en) Sound effect generating device and sound effect generating program for realizing the sound effect generating device
US20100303265A1 (en) Enhancing user experience in audio-visual systems employing stereoscopic display and directional audio
KR20080066796A (en) Voice processor, voice processing method, program, and information recording medium
JP5619258B2 (en) Sound effect generating device and sound effect generating program for realizing the sound effect generating device
JPH06149275A (en) Three-dimensional virtual sound image forming device in consideration of three-dimensional virtual space information
JP3537238B2 (en) GAME DEVICE AND GAME DEVICE CONTROL METHOD
JP3899782B2 (en) Simulated sound generating apparatus and simulated sound generating method
CN113941151A (en) Audio playing method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140826

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140916

R150 Certificate of patent or registration of utility model

Ref document number: 5619260

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S802 Written request for registration of partial abandonment of right

Free format text: JAPANESE INTERMEDIATE CODE: R311802

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250