JP2011028169A5 - - Google Patents

Download PDF

Info

Publication number
JP2011028169A5
JP2011028169A5 JP2009176383A JP2009176383A JP2011028169A5 JP 2011028169 A5 JP2011028169 A5 JP 2011028169A5 JP 2009176383 A JP2009176383 A JP 2009176383A JP 2009176383 A JP2009176383 A JP 2009176383A JP 2011028169 A5 JP2011028169 A5 JP 2011028169A5
Authority
JP
Japan
Prior art keywords
sound
data
game
reverberation
land
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009176383A
Other languages
Japanese (ja)
Other versions
JP5468326B2 (en
JP2011028169A (en
Filing date
Publication date
Application filed filed Critical
Priority to JP2009176383A priority Critical patent/JP5468326B2/en
Priority claimed from JP2009176383A external-priority patent/JP5468326B2/en
Publication of JP2011028169A publication Critical patent/JP2011028169A/en
Publication of JP2011028169A5 publication Critical patent/JP2011028169A5/ja
Application granted granted Critical
Publication of JP5468326B2 publication Critical patent/JP5468326B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

効果音生成装置、その効果音生成装置を実現するための効果音生成プログラム及び記録媒体Sound effect generating device, sound effect generating program for realizing the sound effect generating device, and recording medium

本発明は、発音体が出現する仮想空間の三次元画像を表示装置に表示する際、仮想空間において発音体の発する音が当該仮想空間に設定された所定の聴音位置で聞こえる音を擬似的に生成し、効果音として出力する効果音生成装置に係り、特に、ゲーム展開が三次元画像で表示されるビデオゲームに好適な効果音を生成することができる効果音生成装置、その効果音生成装置を実現するためのプログラム及びこのプログラムを記録した記録媒体に関するものである。   According to the present invention, when displaying a three-dimensional image of a virtual space in which a sounding body appears on a display device, the sound emitted by the sounding body in the virtual space can be artificially heard at a predetermined listening position set in the virtual space. The present invention relates to a sound effect generating device that generates sound effects and outputs the sound effects, and in particular, a sound effect generating device capable of generating a sound effect suitable for a video game in which the game development is displayed as a three-dimensional image And a recording medium storing the program.

従来、ゲーム展開が三次元画像で表示されるゲームソフトが多数商品化されている。このようなゲームソフトでは、例えば、三次元のゲーム空間(仮想のゲーム世界)にプレイヤが操作するキャラクタ(以下、「プレイヤキャラクタ」という。)やコンピュータによって制御されるキャラクタを登場させ、例えば、プレイヤキャラクタ後方の所定の位置に設定された視点位置から仮想的なカメラでゲーム空間を撮影した画像を作成してゲーム画面に表示する描画処理が行われている。   Conventionally, a large number of game software in which game development is displayed as a three-dimensional image has been commercialized. In such game software, for example, characters operated by the player (hereinafter referred to as "player characters") and characters controlled by a computer appear in a three-dimensional game space (virtual game world), for example, the player A drawing process is performed in which an image obtained by photographing the game space with a virtual camera from a viewpoint position set at a predetermined position behind the character is created and displayed on the game screen.

また、ゲーム展開に応じて発生させる効果音、特に仮想のゲーム空間に登場する生き物などのキャラクタが発生する音(例えば、鳴き声や足音などの動作音)の生成処理では、その音をプレイヤキャラクタに聞こえる音として擬似的に生成し、出力する処理が行われている。特に、ゲーム画像が三次元で表示され、プレイヤに対して視覚的にゲーム空間の広がりが演出されることから、効果音の生成処理でも、キャラクタが発した、例えば鳴き声に対してゲーム空間におけるキャラクタとプレイヤキャラクタとの距離に応じた減衰をかけることによって聴覚的にもゲーム空間の広がりを演出するようにしている。 Further, sound effects to be generated in accordance with the game development, in particular sound character such creatures is generated appearing in a virtual game space (for example, operating noise, such as cries and footsteps) generation process of, the sound the player character A process of pseudo generation and output as an audible sound is performed. In particular, since the game image is displayed in three dimensions and the expansion of the game space is visually presented to the player, even in the process of generating sound effects, the character emits a sound, for example, a character in the game space By applying attenuation corresponding to the distance between the player character and the player character, the expansion of the game space is aurally produced.

上記の効果音の生成処理は、現実世界における音の伝播特性などを擬似的にシミュレートすることによって聴覚的に仮想のゲーム空間に現実世界に近いリアリティを与えるものであるが、同様の考え方に基づいて、各種の効果音生成技術が提案されている。 The above-mentioned generation process of sound effects is to give the reality close to the real world to the virtual game space aurally by artificially simulating the propagation characteristics of the sound in the real world, etc. Based on the above, various sound effect generation techniques have been proposed.

例えば、特開平10−137445号公報には、仮想のゲーム空間内に複数の視点を設け、各視点からゲーム空間を撮影した画像(三次元画像)をプレイヤの選択によってゲーム画像として表示する一方、各視点によって効果音の内容を変化させ、視点が切り換えられるのに応じて効果音もその視点に対応した効果音に切り変える技術が示されている。   For example, in JP-A-10-137445, a plurality of viewpoints are provided in a virtual game space, and an image (three-dimensional image) obtained by photographing the game space from each viewpoint is displayed as a game image by the player's selection. A technique is disclosed that changes the content of the sound effect according to each viewpoint, and switches the sound effect to the sound corresponding to the viewpoint as the viewpoint is switched.

具体的には、カーレースのゲームにおいて、視点をレースカー後方の所定位置、レースカーの運転位置、レースカーを追尾するヘリコプターの操縦位置の各位置に切り換え可能にするとともに、レースカーのエンジン音の波形として各位置で聞こえる3つの波形を用意し、プレイヤによって視点が切り換えられる(ゲーム画面が切り換えられる)のに応じてスピーカから出力されるエンジン音を各視点に対応したエンジン音に切り換え、これによりプレイヤが各視点位置で聞こえるエンジン音を擬似的に体感できるようにしている。   Specifically, in a car racing game, the viewpoint can be switched to a predetermined position behind the race car, a driving position of the race car, and a steering position of a helicopter that tracks the race car, and an engine sound of the race car Prepare three waveforms that can be heard at each position as the waveform of, and switch the engine sound output from the speaker to the engine sound corresponding to each viewpoint according to the viewpoint being switched by the player (the game screen is switched) Thus, the player can experience the engine sound heard at each viewpoint position in a pseudo manner.

特開2008−188308号公報には、ゲーム空間に登場するモンスターをハンターであるプレイヤキャラクタによって捕獲させるハンティングゲームにおいて、モンスターとハンターとの間に遮音物がある場合、モンスターの発した、例えば咆哮の音量に対して、モンスターからハンターまでの距離による減衰だけでなく当該遮音物による減衰若しくは遮音を加味した処理を行い、ゲーム場面に応じた効果音をより自然な感じにして出力する技術が記載されている。   JP-A 2008-188308 discloses a hunting game in which a player character as a hunter captures a monster appearing in a game space, and when there is a sound insulator between the monster and the hunter, the monster emits, for example, a whale A technique is described that performs processing that takes into account not only the attenuation due to the distance from the monster to the hunter, but also the attenuation or the sound insulation due to the sound insulation object, and outputs the sound effect more natural and responsive to the game scene. ing.

特開平10−137445号公報JP 10-137445 A 特開2008−188308号公報JP 2008-188308 A

近年の仮想のゲーム空間で展開されるゲーム場面を三次元コンピュータグラフィクス(Computer Graphics)を用いたアニメーション技術で描画するゲームソフトでは、効果音の表現でも現実世界における音の伝播特性などの特性を擬似的にシミュレートした内容を盛り込むことによって、より臨場感のある効果音をプレイヤに聞かせる開発が進められている。   In game software that draws game scenes developed in a virtual game space in recent years using animation technology that uses three-dimensional computer graphics (Computer Graphics), even sound effects can be simulated, such as sound propagation characteristics in the real world. By incorporating content that has been simulated in a realistic manner, developments are in progress that allow the player to hear more realistic sound effects.

従来のゲームソフトでは、仮想のゲーム空間として水中、陸上、空中など、現実世界と同様の空間が設定されているものは知られているが、効果音の発生技術としては、特開2008−188308号公報に示されているように、音の発生位置とその音の聴音位置の距離に応じた減衰量や遮音による遮音量を考慮して音量を制御することを基本としている。 In the conventional game software, there is known a virtual game space in which a space similar to the real world, such as underwater, land, or air, is set, but as a technology for generating sound effects, Japanese Patent Application Laid-Open No. 2008-188308 as shown in JP, it is basically to control the volume in consideration of the amount of sound insulation due to the occurrence position of the sound and the attenuation and sound insulation material in accordance with the distance of the listening position of the sound.

特開2008−188308号公報にはゲームソフトの例示として「モンスターハンター(登録商標)」が挙げられているが、この「モンスターハンター(登録商標)」では雪山、火山、森林、洞窟、砂漠、川、湖、海、などの各種の自然環境を含むフィールドがモンスターの狩猟フィールドとして設定されていることはよく知られている。そして、その狩猟フィールドに登場するモンスターも陸上だけでなく水中や砂中などに生息したり、水中や砂中や空中などを移動したりする多種多様なものが設定されている。   Although "Monster Hunter (registered trademark)" is mentioned as an example of game software in JP 2008-188308 A, in this "Monster Hunter (registered trademark)", snow mountains, volcanoes, forests, caves, deserts, rivers, lakes It is well known that a field including various natural environments such as sea, sea, etc. is set as a hunting field of a monster. The monsters that appear in the hunting field also live in not only on land but also in water and sand, and various kinds of things are set such as moving in water, sand, and the air.

「モンスターハンター(登録商標)」のゲーム空間(狩猟フィールド)を音響環境の観点で見ると、音の伝播特性や音高特性(周波数特性)の異なる複数の媒質(水、空気、岩など)を含むゲーム空間が設定されている。また、洞窟の中や壁や森林に囲まれた場所などの残響特性の異なるゲーム空間も設定されている。   When the game space (hunting field) of “Monster Hunter (registered trademark)” is viewed from the viewpoint of the acoustic environment, it includes multiple media (water, air, rocks, etc.) having different sound propagation characteristics and pitch characteristics (frequency characteristics). A game space is set. There are also game spaces with different reverberation characteristics, such as caves and places surrounded by walls and forests.

モンスター(発音体)とハンター(聴音体)はそれぞれ独立して移動するから、ゲーム空間における両者間の距離は一定でなく、両者の存在する媒質も変化する。例えば、水中と陸地や空(気中)の両方を移動可能なモンスターをハンターが追尾しながら狩猟する場合、両者が陸地にいる場合だけでなく、両者が水中にいる場合や一方が水中にいて他方が陸地にいたり、一方が陸地にいて他方が水中にいたりする場合などの場面が生じる。   Since the monster (sounding body) and the hunter (sounding body) move independently of each other, the distance between the two in the game space is not constant, and the medium in which both exist also changes. For example, when a hunter pursues a monster which can move both underwater and land or sky (air) while hunting, it is not only when both are on land, but when both are in water or one is in water. There are situations where the other is on land, one is on land and the other is in water.

モンスター(発音体)とハンター(聴音体)の位置関係が異なる媒質の間で変化する場合、モンスターの発生した音のハンターの位置での聞こえ方は単に距離減衰に基づく音量だけでなく、媒質の周波数特性や残響特性などの特性によっても異なってくる。   When the positional relationship between the monster (sounding body) and the hunter (hearing body) changes between different media, how the sound generated by the monster is heard at the hunter's position is not only the volume based on the distance attenuation but also the volume of the medium. It also differs depending on the characteristics such as frequency characteristics and reverberation characteristics.

なお、周波数特性に基づく音の聞こえ方の相違とは、周波数によって伝播特性が異なることに基づき音色が異なる場合であり、例えば、水中では高周波成分の伝播距離は非常に短くなるから、ハンターが水中で聞こえる音は陸上で聞える音に対して特定の周波数以上の高周波成分がカットされたような音(こもったような音)になる例が挙げられる。   Note that the difference in how the sound is heard based on the frequency characteristic is the case where the timbre differs based on the difference in the propagation characteristic depending on the frequency. For example, since the propagation distance of high frequency components becomes very short in water, hunters There are examples where the sound heard at can be a sound (like a muffled sound) in which high frequency components higher than a specific frequency are cut with respect to the sound heard on land.

また、残響特性に基づく音の聞こえ方の相違とは、媒質によって周波数成分の伝播特性が異なることに基づき媒質によって残響成分の量などが異なり、これにより音の聞こえ方が異なる場合である。例えば、水中では陸上(空気中)に比べて低周波成分の伝播距離が長く、音の直進性も高いから、水中で聞こえる音は陸上で聞こえる音よりも低周波の残響成分の量が多くなる例が挙げられる。   Further, the difference in the way of hearing the sound based on the reverberation characteristic refers to the case where the amount of reverberation component differs depending on the medium because the propagation characteristic of the frequency component differs depending on the medium, and the way of hearing the sound differs accordingly. For example, since the propagation distance of low-frequency components is longer in water than in land (in air), and the sound straightness is high, the amount of low-frequency reverberation components is higher for sounds heard in water than for sounds heard on land An example is given.

図12は、モンスター(発音体)とハンター(聴音体)の位置関係によってハンターに聞こえるモンスターの発生音が変化することを説明するための図である。   FIG. 12 is a diagram for explaining that the generated sound of the monster heard by the hunter changes due to the positional relationship between the monster (sounding body) and the hunter (sounding body).

同図(a),(b)に示すように、陸上(空気中)にいるモンスターMが発する咆哮音Sを陸上(空気中)にいるハンターHが聴く場面Aと、水中にいるモンスターMが発する咆哮音Sを陸上にいるハンターHが聴く場面Bとを比較すると、場面AではモンスターMの咆哮音Sは空気中だけを伝播するから、主として空気中における減衰特性に基づいて音量を制御してハンターHに聞こえる咆哮音Sを発生しても特に違和感は生じない。   As shown in the same figure (a) and (b), the scene A where the hunter H on the land (in the air) listens to the noise S emitted by the monster M on the land (in the air) and the monster M in the water Compared with the scene B heard by the hunter H on the land, the roar S of the monster M propagates only in the air in the scene A, so the volume is controlled mainly based on the attenuation characteristics in the air. Even if the roaring sound S heard by the hunter H is generated, there is no particular discomfort.

しかし、場面BではモンスターMが水中で咆哮すると、その咆哮音Sは水中と空気中を伝播してハンターHに届くから、場面Aと同様の咆哮音Sを出力すると、不自然さが残ることになる。特に、場面Bから場面Aの状態になるようにモンスターMが咆哮しながら移動する場面では、ハンターHに聞こえるモンスターMの咆哮音Sは、モンスターMが水中から陸上(空気中)に出る瞬間にその音量や音色の特性が不連続に変化するはずである。   However, when monster M crawls in water in scene B, its roaring sound S propagates in the water and the air and reaches hunter H, so when roaring sound S similar to that in scene A is output, unnaturalness remains become. In particular, in the scene where monster M moves while going from scene B to scene A, the roar S of monster M heard by hunter H is the moment monster M leaves land on the water (in the air) The characteristics of the volume and timbre should change discontinuously.

従って、上記のような咆哮音Sの媒質による伝播特性の相違を考慮すると、咆哮音Sを発しながらモンスターMが水中から陸上(空気中)に移動する場面の、例えば水中から陸上(空気中)に出る瞬間などでは、ハンターHに聞こえるモンスターMの咆哮音Sの音量(咆哮音Sの振幅)や音色(咆哮音Sの周波数成分)などの特性は不連続に変化させる方がプレイヤにはより自然でリアリティに優れた聴覚的効果を与えることになる。   Therefore, in consideration of the difference in propagation characteristics of the roaring S by the medium as described above, for example, underwater to land (in air) in a scene where the monster M moves from underwater to onshore (in air) while emitting roaring S It is better for the player to change characteristics such as the volume (amplitude of the roar S) and the timbre (frequency component of the roar S) of the roar S of the monster M heard by the hunter H at a moment when it appears in the It will give a natural and realistic hearing effect.

しかしながら、従来のゲームソフトでは、ゲーム空間における異なる媒質の音の伝播特性を考慮せず、単に音の減衰特性や遮音物による遮音量だけを考慮して効果音を制御しているだけであるので、ゲーム展開に基づく種々のゲーム場面によっては、モンスターの発する咆哮音などの効果音がプレイヤに対して不自然な感じを与え、効果音の品質においては改善すべき点があった。   However, the conventional game software does not consider the sound propagation characteristics of different media in the game space, but merely controls the sound effects in consideration of only the sound attenuation characteristics and the sound shielding by the sound insulator. Depending on various game scenes based on the game development, sound effects such as stuttering from monsters give the player an unnatural feeling, and the quality of the sound effects has to be improved.

なお、上記の改善点は、ゲームソフトに限らず、三次元映像を表示装置に表示する際、その三次元映像の対象となっている三次元空間において発音体の発する音が三次元空間に設定された所定の聴音位置で聞こえる音を擬似的に生成し、効果音として出力する場合についても言えることである。   Note that the above improvement points are not limited to game software, and when displaying a 3D image on a display device, the sound emitted by the sounding body is set in the 3D space in the 3D space that is the target of the 3D image. The same can be said about the case where a sound that can be heard at a predetermined listening position is generated in a pseudo manner and output as a sound effect.

本発明は、上記の課題に鑑みてなされたものであり、三次元画像を表示装置に表示する際、その三次元画像で描写される場面に応じた現実世界に近い自然な感じの擬似的な音を生成し、効果音として出力することができる効果音生成装置、その効果音生成装置を実現するための効果音生成プログラム及びその効果音生成プログラムを記録したコンピュータ読み取り可能な記録媒体を提供することを目的とする。   The present invention has been made in view of the above problems, and when displaying a three-dimensional image on a display device, it is a pseudo-like model of natural feeling close to the real world according to the scene depicted by the three-dimensional image. A sound effect generating device capable of generating a sound and outputting it as a sound effect, a sound effect generating program for realizing the sound effect generating device, and a computer readable recording medium recording the sound effect generating program The purpose is

本発明は、コンピュータを、三次元画像で表示される複数の媒質を含む仮想空間上の発音体の発音動作に対して、当該発音体の発生音を前記仮想空間上に設定された所定の聴音位置で聞こえる音に加工し、効果音として出力する効果音生成装置として機能させる効果音生成プログラムであって、前記コンピュータを、前記三次元画像上で前記発音体が発音動作を開始するとき、前記発音体の発する1以上の原音データを記憶する原音データ記憶手段から当該発音動作に対応する原音データを読み出し、当該原音データから音声信号を再生する原音データ再生手段と、前記原音データ再生手段が前記音声信号を再生している期間に、前記仮想空間上の前記発音体と前記聴音位置の位置情報を所定のタイミングで取得する位置情報取得手段と、前記位置情報取得手段で前記位置情報が取得される毎に、前記発音体の存在する媒質と前記聴音位置の存在する媒質の組合せを特定する媒質組合せ特定手段と、前記媒質組合せ特定手段により前記媒質の組合せが特定される毎に、前記発音体の存在する媒質と前記聴音位置の存在する媒質とによる複数の組合せに対し、少なくとも前記原音データの周波数成分と距離による減衰と媒質変化による音量変化の各特性を含む所定の音響特性を加工するためのデータが前記媒質の組合せ毎に予め設定され、記憶されている加工データ記憶手段から前記媒質組合せ特定手段により特定された媒質の組合せに対応する加工データを読み出し、その加工データを用いて前記音声信号の加工を行う音声信号加工手段と、して機能させることを特徴とする効果音生成プログラムである(請求項1)。   According to the present invention, for a sound producing operation of a sound producing body in a virtual space including a plurality of media displayed in a three-dimensional image, the computer generates predetermined sound of the sound produced by the sound producing body in the virtual space. A sound effect generation program that functions as a sound effect generation device that processes sound into a sound that can be heard at a position and outputs it as a sound effect, wherein the computer performs the sound generation operation on the three-dimensional image. Original sound data corresponding to the sounding operation is read out from the original sound data storing means for storing one or more original sound data emitted by the sounding body, and original sound data reproducing means for reproducing an audio signal from the original sound data Position information acquiring means for acquiring position information of the sound producing body and the listening position in the virtual space at a predetermined timing during a period in which an audio signal is being reproduced; Medium combination specifying means for specifying a combination of a medium in which the sounding body is present and a medium in which the audio listening position is present each time the position information is acquired by the position information acquisition means, and the medium combination identification means by the medium combination identification means Each time a combination is specified, a plurality of combinations of the medium in which the sounding body is present and the medium in which the listening position is present are at least frequency components of the original sound data, attenuation by distance, and volume change due to medium change. Processing data corresponding to the combination of media specified by the medium combination identification unit from the processing data storage unit in which data for processing predetermined acoustic characteristics including characteristics is preset for each combination of the media Sound effect processing means for reading out the sound signal and processing the sound signal using the processing data. Is formed program (claim 1).

上記の効果音生成プログラムにおいて、前記三次元画像は、前記仮想空間を移動可能なキャラクタ若しくはオブジェクトが前記発音体として登場するゲーム空間とし、当該ゲーム空間に移動可能に設定された仮想カメラで撮影したゲーム画像であり、前記聴音位置は、前記キャラクタのうちプレイヤが操作するキャラクタの位置、または前記仮想カメラの位置に対応付けられているとよい(請求項2)。   In the above-described sound effect generation program, the three-dimensional image is taken as a game space in which a character or an object capable of moving in the virtual space appears as the sound generator, and is photographed by a virtual camera set to be movable in the game space The listening position may be associated with the position of the character operated by the player among the characters or the position of the virtual camera (claim 2).

上記の効果音生成プログラムにおいて、前記複数の媒質は、第1の媒質(空気)および第2の媒質(水)の2種類であり、前記発音体の存在する媒質と前記聴音位置の存在する媒質の組合せは、第1の媒質と第1の媒質、第1の媒質と第2の媒質、第2の媒質と第1の媒質、第2の媒質と第2の媒質の4種類とすればよい(請求項3)。   In the above-described sound effect generation program, the plurality of media are two types of a first medium (air) and a second medium (water), and a medium in which the sounding body exists and a medium in which the listening position exists The combination of the first medium and the first medium, the first medium and the second medium, the second medium and the first medium, and the second medium and the second medium may be used. (Claim 3).

上記の効果音生成プログラムにおいて、前記第1の媒質(空気)と前記第2の媒質(水)では音の距離による減衰特性が異なり、前記原音データに対する距離による減衰特性の加工には前記第1の媒質における減衰特性を用いた加工と前記第2の媒質における減衰特性を用いた加工とが設けられ、前記音声信号加工手段は、前記媒質組合せ特定手段により特定される媒質の組合せが前記第1の媒質に前記聴音位置が存在する場合は前記原音データに対して前記第1の媒質における減衰特性を用いた加工を行い、前記媒質組合せ特定手段により特定される媒質の組合せが前記第2の媒質に前記聴音位置が存在する場合は前記原音データに対して前記第2の媒質における減衰特性を用いた加工を行うとよい(請求項4)。   In the above-described sound effect generation program, the first medium (air) and the second medium (water) have different attenuation characteristics due to the distance of sound, and the first for processing the attenuation characteristics due to the distance to the original sound data Processing using attenuation characteristics in the medium and processing using attenuation characteristics in the second medium are provided, and the audio signal processing means is configured to use the first combination of media specified by the medium combination specifying means. Processing the original sound data using the attenuation characteristics of the first medium when the listening position is present in the medium, and the combination of the media specified by the medium combination identifying unit is the second medium If the listening position is present, the original sound data may be processed using the attenuation characteristic of the second medium (claim 4).

上記の効果音生成プログラムにおいて、前記第1の媒質と前記第2の媒質では高周波数成分の周波数特性が異なり、前記原音データに対する周波数成分の加工には前記第1の媒質における周波数特性を用いた加工と前記第2の媒質における周波数特性を用いた加工とが設けられ、前記音声信号加工手段は、前記媒質組合せ特定手段により特定される媒質の組合せが前記第1の媒質に前記発音体が存在する場合は前記原音データに対して前記第1の媒質における周波数特性を用いた加工を行い、前記媒質組合せ特定手段により特定される媒質の組合せが前記第2の媒質に前記発音体が存在する場合は前記原音データに対して前記第2の媒質における周波数特性を用いた加工を行うとよい(請求項5)。   In the above-described sound effect generation program, frequency characteristics of high frequency components are different between the first medium and the second medium, and frequency characteristics of the first medium are used to process frequency components for the original sound data. The processing and the processing using the frequency characteristics of the second medium are provided, and the sound signal processing means is configured such that the combination of the media specified by the medium combination specifying means is the sounding body in the first medium When the original sound data is processed using the frequency characteristics of the first medium, and the combination of the media identified by the medium combination identifying unit is the sounding body in the second medium Preferably, the original sound data is processed using the frequency characteristic of the second medium (claim 5).

上記の効果音生成プログラムにおいて、前第2の媒質における周波数特性を用いた加工は所定のローパスフィルタによって前記原音データの高周波成分を除去する加工であり、前記第1の媒質における周波数特性を用いた加工は前記ローパスフィルタによって前記原音データの高周波成分を除去しない加工であるとよい(請求項6)。   In the above-mentioned sound effect generation program, the processing using the frequency characteristic in the second medium is processing for removing the high frequency component of the original sound data by a predetermined low pass filter, and the frequency characteristic in the first medium is used. It is preferable that the processing is processing that does not remove high frequency components of the original sound data by the low pass filter (claim 6).

上記の効果音生成プログラムにおいて、前記原音データに対する前記媒質変化による音量変化の加工は前記原音データの音量を減少させる加工であり、前記音声信号加工手段は、前記媒質組合せ特定手段により特定される媒質の組合せが前記発音体および前記聴音位置が同一の媒質に存在する場合は前記原音データの音量減少の加工を行わず、前記媒質組合せ特定手段により特定される媒質の組合せが前記発音体および前記聴音位置が異なる媒質に存在する場合は、前記原音データの音量を前記発音体が前記聴音位置と同一の媒質に存在する場合の音量に対して減少させる加工を行うとよい(請求項7)。   In the above-mentioned sound effect generation program, the processing of the volume change due to the medium change to the original sound data is processing to reduce the volume of the original sound data, and the audio signal processing means is a medium specified by the medium combination specifying means When the combination of the sounding body and the listening position exist in the same medium, the processing of volume reduction of the original sound data is not performed, and the combination of the media specified by the medium combination specifying unit is the sounding body and the listening sound When the sound source exists in a medium different in position, it is preferable to perform processing to reduce the volume of the original sound data with respect to the sound volume in the case where the sound producing body is present in the same medium as the listening position (claim 7).

上記の効果音生成プログラムにおいて、前記発音体が前記第1の媒質に存在し、前記聴音位置が前記第2の媒質に存在する場合の前記原音データの音量を減少させる度合いは、前記発音体が前記第2の媒質に存在し、前記聴音位置が前記第1の媒質に存在する場合の度合いと異なるとよい(請求項8)。   In the above-mentioned sound effect generation program, when the sound producing body is present in the first medium and the listening position is present in the second medium, the sound producing body decreases the volume of the original sound data. It is preferable that the second medium be present, and the listening position be different from the degree when present in the first medium (claim 8).

上記の効果音生成プログラムにおいて、前記所定の音響特性には、さらに前記原音データから生成され、当該原音データに付加される残響信号の内容と前記原音データに付加する当該残響信号の音量の特性が含まれるとよい(請求項9)。   In the above-mentioned sound effect generation program, the predetermined acoustic characteristics further include the contents of a reverberation signal generated from the original sound data and added to the original sound data and the characteristics of the volume of the reverberation signal added to the original sound data. Preferably, it is included (claim 9).

上記の効果音生成プログラムにおいて、前記第2の媒質と前記第1の媒質では前記残響特性が異なり、前記原音データに対する残響特性の加工には前記第1の媒質における残響特性を用いた加工と前記第2の媒質における残響特性を用いた加工とが設けられ、前記音声信号加工手段は、前記媒質組合せ特定手段により特定される媒質の組合せが前記第1の媒質に前記聴音位置が存在する場合は前記原音データに対して前記第1の媒質における残響特性を用いた加工を行い、前記媒質組合せ特定手段により特定される媒質の組合せが前記第2の媒質に前記聴音位置が存在する場合は前記原音データに対して前記第2の媒質における残響特性を用いた加工を行うとよい(請求項10)。   In the above-mentioned sound effect generation program, the reverberation characteristics are different between the second medium and the first medium, and processing using the reverberation characteristics of the first medium and processing of the reverberation characteristics to the original sound data And processing using reverberation characteristics in a second medium, wherein the audio signal processing means is configured to execute the audio signal processing means when the listening position is present in the first medium in the combination of media identified by the medium combination identifying means. The original sound data is processed using the reverberation characteristic of the first medium, and the original sound position is present in the second medium when the combination of the media specified by the medium combination specifying unit is the original sound It is preferable to process data using reverberation characteristics in the second medium (claim 10).

上記の効果音生成プログラムにおいて、前記残響信号の音量の特性は、前記発音体が前記聴音位置と同一の媒質に存在する場合の音量に対して前記発音体が前記聴音位置と異なる媒質に存在する場合の音量を減少させる特性であるとよい(請求項11)。   In the above sound effect generation program, the characteristic of the volume of the reverberation signal is that the sound producing body exists in a medium different from the sound listening position with respect to the sound volume when the sound producing body exists in the same medium as the sound listening position. The characteristic may be to reduce the volume of the case (claim 11).

上記の効果音生成プログラムにおいて、前記発音体が前記第1の媒質に存在し、前記聴音位置が前記第2の媒質に存在する場合の前記残響信号の音量を減少させる度合いは、前記発音体が前記第2の媒質に存在し、前記聴音位置が前記第1の媒質に存在する場合の度合いと異なるとよい(請求項12)。   In the above-mentioned sound effect generation program, when the sounding body is present in the first medium and the listening position is present in the second medium, the sounding body reduces the volume of the reverberation signal. It is preferable that the second medium be present, and the listening position be different from the degree when present in the first medium (claim 12).

本発明は、上記の効果音生成プログラムをコンピュータ読み取り可能に記録した記録媒体である(請求項13)。 The present invention is a recording medium in which the effect sound production Narupu program of the above computer-readable recording (claim 13).

本発明は、三次元画像で表示される複数の媒質を含む仮想空間上の発音体の発音動作に対して、当該発音体の発生音を前記仮想空間上に設定された所定の聴音位置で聞こえる音に加工し、効果音として出力する効果音生成装置であって、前記発音体の発する1以上の原音データを記憶する原音データ記憶手段と、前記発音体の存在する媒質と前記聴音位置の存在する媒質とによる複数の組合せに対し、少なくとも前記原音データの周波数成分と距離による減衰と媒質変化による音量変化の各特性を含む所定の音響特性を加工するためのデータが前記媒質の組合せ毎に予め設定され、記憶されている加工データ記憶手段と、前記三次元画像上で前記発音体が発音動作を開始するとき、前記原音データ記憶手段から当該発音動作に対応する原音データを読み出し、当該原音データから音声信号を再生する原音データ再生手段と、前記原音データ再生手段が前記音声信号を再生している期間に、前記仮想空間上の前記発音体と前記聴音位置の位置情報を所定のタイミングで取得する位置情報取得手段と、前記位置情報取得手段で前記位置情報が取得される毎に、前記発音体の存在する媒質と前記聴音位置の存在する媒質の組合せを特定する媒質組合せ特定手段と、前記媒質組合せ特定手段により前記媒質の組合せが特定される毎に、前記加工データ記憶手段から前記媒質組合せ特定手段により特定された媒質の組合せに対応する加工データを読み出し、その加工データを用いて前記音声信号の加工を行う音声信号加工手段と、を備えたことを特徴とする効果音生成装置である(請求項14)。   According to the present invention, with respect to the sounding operation of a sounding body in a virtual space including a plurality of media displayed in a three-dimensional image, the generated sound of the sounding body can be heard at a predetermined listening position set in the virtual space Original sound data storage means for processing sound and outputting as sound effect, storing one or more original sound data emitted by the sounding body, a medium in which the sounding body exists, and the presence of the listening position Data for processing predetermined acoustic characteristics including at least a frequency component of the original sound data and attenuation due to distance and characteristics of volume change due to medium change with respect to a plurality of combinations of mediums for each combination of the medium in advance The processing data storage means set and stored, and when the sounding body starts the sounding operation on the three-dimensional image, the original sound data corresponding to the sounding operation from the original sound data storage means Means for reproducing an audio signal from the original sound data, and a position of the sound producing body and the listening position on the virtual space while the original sound data reproducing means is reproducing the audio signal A combination of a medium in which the sounding body is present and a medium in which the listening position is present is specified each time the position information acquisition means acquires information at a predetermined timing and the position information acquisition means acquires the position information. Every time the combination of the medium is specified by the medium combination specifying means and the medium combination specifying means, the process data corresponding to the combination of the medium specified by the medium combination specifying means is read out from the process data storage means, And a sound signal processing unit for processing the sound signal using processing data. .

上記の効果音生成装置において、前記三次元画像は、前記仮想空間を移動可能なキャラクタ若しくはオブジェクトが前記発音体として登場するゲーム空間とし、当該ゲーム空間に移動可能に設定された仮想カメラで撮影したゲーム画像であり、前記聴音位置は、前記キャラクタのうちプレイヤが操作するキャラクタの位置、または前記仮想カメラの位置に対応付けられているとよい(請求項15)。   In the above-mentioned sound effect generation device, the three-dimensional image is taken as a game space in which a character or object capable of moving in the virtual space appears as the sounding body, and is photographed by a virtual camera set to be movable in the game space Preferably, the listening position is associated with the position of the character operated by the player among the characters or the position of the virtual camera (claim 15).

本発明によれば、三次元画像で表示される仮想空間上の発音体が発音動作を開始するとき、原音データ記憶手段から当該発音動作に対応する原音データが読み出され、再生される。この原音データが再生されている期間に、仮想空間上の発音体と聴音位置の位置情報が所定のタイミングで取得され、その位置情報の基づき発音体の存在する媒質と聴音位置の存在する媒質の組合せが特定される。   According to the present invention, when the sounding body in the virtual space displayed as a three-dimensional image starts the sounding operation, the original sound data corresponding to the sounding operation is read out from the original sound data storage means and reproduced. During the period during which the original sound data is being reproduced, position information of the sounding body and the listening position in the virtual space is acquired at a predetermined timing, and based on the position information, the medium in which the sounding body exists and the medium in which the sounding position exists A combination is identified.

そして、媒質の組合せが特定される毎に、加工データ記憶手段からその媒質の組合せに対応する加工データ(原音データの周波数成分、距離による減衰、媒質変化による音量変化などの特性を加工するためのデータ)が読み出され、その加工データを用いて再生されている音声信号の加工処理が行われる。これにより、原音データの再生音が、三次元画像で表示される発音体と聴音位置との相対的な位置関係の変化に応じて変化するので、発音体の音の聞こえ方を可及的に現実世界に近い自然な聞こえ方にすることができる。   Then, each time a combination of media is specified, processing data corresponding to the combination of media from the processing data storage means (for processing characteristics such as frequency component of original sound data, attenuation due to distance, volume change due to media change, etc. Data) is read out, and processing of the audio signal being reproduced is performed using the processed data. As a result, the reproduced sound of the original sound data changes in accordance with the change in the relative positional relationship between the sounding body displayed in the three-dimensional image and the listening position, so that the sounding of the sounding body can be heard as much as possible You can make it sound natural near the real world.

特に、媒質の音響特性が及ぼす音量や音色や媒質変化に伴う音量変化などの特性を効果音の生成処理に反映するので、発音体が異なる媒質の間を移動したときの音の不連続な聞こえ方を擬似的に表現することができ、音の聞こえ方により自然さを与えることができる。   In particular, the characteristics of the sound characteristics of the medium, such as the volume, tone color, and changes in volume due to changes in the medium, are reflected in the process of generating the effect sound, so discontinuous sounds of the sound when the sounding body moves between different media It can be expressed in a pseudo manner, and can give naturalness to the way the sound is heard.

雪山の麓の湖と陸地を含むエリアのゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen of the area containing the lake and land of the foot of a snowy mountain. 本発明に係る効果音生成プログラムを含むゲームプログラムを実行するビデオゲーム装置の概観を示す正面図である。FIG. 1 is a front view showing an overview of a video game device that executes a game program including a sound effect generation program according to the present invention. ビデオゲーム装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of a video game device. 三次元のゲーム画像の生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of a three-dimensional game image. 原音データの一例を示す図である。It is a figure which shows an example of original sound data. 減衰特性の一例を示す図である。It is a figure which shows an example of an attenuation characteristic. 4つの異なるシチュエーションにおける減衰処理、フィルタリング処理、残響処理などの内容を示した図である。It is a figure showing contents such as attenuation processing, filtering processing, reverberation processing in four different situations. 本発明に係る効果音の生成処理プログラムを実行することによって実現される等価的な効果音生成回路を示す図である。It is a figure which shows the equivalent sound-sound production | generation circuit implement | achieved by running the production | generation processing program of the sound sound which concerns on this invention. 本発明に係る効果音の生成処理手順を示すフローチャートである。It is a flowchart which shows the production | generation processing procedure of the sound sound which concerns on this invention. 図9のステップS10の処理条件を決定する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which determines the process conditions of FIG.9 S10. 本発明に係る効果音生成処理により発生される効果音の波形の変化の一例を示す図である。It is a figure which shows an example of a change of the waveform of the sound effect produced | generated by the sound effect production | generation process which concerns on this invention. モンスター(発音体)とハンター(聴音体)の位置関係によってハンターに聞こえるモンスターの発生音が変化することを説明するための図である。It is a figure for demonstrating that the generation | occurrence | production sound of the monster heard to a hunter changes with the positional relationship of a monster (sounding body) and a hunter (hearing body).

本発明の好ましい実施の形態として、本発明に係る効果音生成プログラムをゲームソフトに適用した場合について、図面を参照して具体的に説明する。   As a preferred embodiment of the present invention, a case where a sound effect generation program according to the present invention is applied to game software will be specifically described with reference to the drawings.

以下の説明では、シリーズ化されている「モンスターハンター(登録商標)」というゲームソフトを例に説明するが、本発明に係る効果音生成プログラムをゲームソフトに適用した場合、その効果音はゲーム画像によって表示されるゲーム場面に対応した内容となるので、まず、モンスターハンター(登録商標)について、主として効果音生成に関係するゲーム場面を中心に簡単に説明する。   In the following description, a series of game software "Monster Hunter (registered trademark)" is described as an example, but when the sound effect generation program according to the present invention is applied to game software, the sound effects are determined by the game image. Since the content corresponds to the displayed game scene, first, Monster Hunter (registered trademark) will be briefly described focusing on the game scene mainly related to the generation of sound effects.

モンスターハンター(登録商標)は、敵キャラクタである多種多様のモンスターが生息する仮想社会(仮想のゲーム空間)にプレイヤの分身であるハンター(プレイヤキャラクタ)を登場させ、そのハンターがモンスターの討伐若しくは捕獲、キノコや魚などの動植物の採取などの種々の指令(以下、「クエスト」という。)を仮想社会に存在する人から受注し、そのクエストを達成することにより報酬金を得てその仮想社会で生活することを内容とするハンティングアクションゲームである。   A monster hunter (registered trademark) causes a hunter (player character), who is another player, to appear in a virtual society (virtual game space) in which a wide variety of monsters, which are enemy characters, inhabit, and the hunter kills or captures the monster, We receive orders from people who exist in the virtual society for various instructions such as collection of animals and plants such as mushrooms and fish (hereinafter referred to as "quests"), and get rewards by achieving the quests, and live in the virtual society It is a hunting action game whose content is to do.

モンスターが生息する仮想のゲーム空間は、現実の自然環境に類似した環境を有しており、例えば、雪山、密林、砂漠、沼地などの複数のモンスターの生息場所(以下、「狩猟フィールド」という。)が設けられている。   A virtual game space in which monsters live has an environment similar to a real natural environment, and for example, a habitat of a plurality of monsters such as snowy mountains, dense forests, deserts, marshes (hereinafter referred to as "hunting fields"). ) Is provided.

各狩猟フィールドは複数のエリア(狩場)に分かれており、例えば、雪山の狩猟フィールドでは、雪山の麓にある湖と陸地を含むエリア、雪山に繋がる氷の洞窟のエリア、山奥の山壁に囲まれたエリア、山頂近くの開けたエリアなどが設けられている。雪山に出現するモンスターは上記の複数のエリアを移動しながら生息しており、プレイヤは操作ボタンを操作してハンターを上記の複数のエリアのいずれかに移動させてモンスターを探索する。そして、いずれかのエリアでハンターがモンスターに出会えば、プレイヤはハンターをモンスターと対決させることができ、その対決でモンスターを討伐(モンスターの体力をゼロにする)若しくは捕獲すると、クエスト達成となる。   Each hunting field is divided into multiple areas (for example, a hunting ground). For example, in the snow mountain hunting field, an area including lake and land at the foot of the snow mountain, an ice cave area connected to the snow mountain, and a mountain wall at the back of the mountain Area, and an open area near the summit. The monsters appearing in the snowy mountains inhabit while moving through the above-mentioned multiple areas, and the player operates the operation button to move the hunter to any of the above-mentioned multiple areas to search for the monster. Then, if the hunter encounters a monster in any area, the player can confront the hunter with the monster, and if the confrontation defeats the monster (makes the strength of the monster zero) or captures it, the quest is achieved.

上記のように、各狩猟フィールドには、モンスターの生息場所として陸上や空中だけでなく水中などが設けられており、モンスターの種類によっては陸上や空中だけでなく水中や砂中や地中も移動するものが存在している。このため、ハンターがモンスターを探索できる場所も陸上だけでなく水中なども含まれるようになっている。   As described above, each hunting field is provided with not only land and air but also underwater as a habitat for monsters, and depending on the type of monster, not only land and air, but also water, sand and underground There is something to do. For this reason, places where hunters can search for monsters include not only land but also underwater.

音響環境の観点で上記の狩猟フィ-ルドを見ると、例えば、雪山の麓にある湖と陸地を含むエリアは、図1(a)(b)に示すように、陸上や空中は「空気」で占められ、水中は「水」で占められ、音響特性(音の伝播特性や残響特性などの特性)の異なる2種類の媒質で占められたエリアとなっている。なお、図1(b)は、ハンターHとモンスターMとの縦方向の位置関係が分かるように、図1(a)のI−I線の部分の縦断面を示したものである。   Looking at the above-mentioned hunting field in terms of the acoustic environment, for example, the area including the lake and land at the foot of the snow mountain is “air” on land and in the air as shown in FIG. 1 (a) (b) The water is occupied by "water", and it is an area occupied by two types of media having different acoustic characteristics (characteristics such as sound propagation characteristics and reverberation characteristics). FIG. 1 (b) shows a longitudinal cross-section of a portion of line I-I in FIG. 1 (a) so that the positional relationship between the hunter H and the monster M in the vertical direction can be understood.

仮想のゲーム空間でも現実世界と類似した音響特性になっているとすると、媒質が空気の領域A1と水の領域A2では、ハンターHとモンスターMが同じ領域に居た場合でもハンターHのモンスターMの発する音(例えば咆哮音S)の聞こえ方は異なるのが自然である。ハンターHが陸上に居てモンスターMが水中に居たり、逆にハンターHが水中に居てモンスターMが陸上に居たりする場合でもハンターHのモンスターMの発する咆哮音Sの聞こえ方が異なることは同様である。このような音響環境は、空気で占められた領域と水以外の他の液体で占められた領域を含む狩猟フィールドでも同様である。   Assuming that the virtual game space has acoustic characteristics similar to those in the real world, in the area A1 of the air and the area A2 of water, even if the hunter H and the monster M are in the same area, the hunter H's monster M It is natural that the way of the sound (for example, the roaring sound S) emitted by is different. Even if the hunter H is on the ground and the monster M is in the water, and conversely the hunter H is in the water and the monster M is on the ground, the sound of the noise S emitted by the hunter H's monster M is different. Is the same. Such an acoustic environment is similar for hunting fields including areas occupied by air and areas occupied by other liquids besides water.

上記のように、本実施形態に係るゲームソフトの「モンスターハンター(登録商標)」では、仮想のゲーム空間が現実世界に近い自然環境を有しており、ゲーム画面に表示されるゲーム場面には2種類以上の音響特性の異なる媒質で占められた領域が含まれ、しかも、ハンターH及びモンスターMはいずれの領域も移動可能に構成されている。従って、例えば、モンスターMの発する咆哮音SのハンターHの聞こえ方は、ゲーム空間におけるハンターHとモンスターMとの距離関係だけでなく、ハンターHとモンスターMがそれぞれ存在する領域(媒質)やハンターHの存在する位置の周りの音の反射物などの影響を受けるものとなっている。モンスターMの発する咆哮音Sだけでなく、ゲーム空間に登場する他のキャラクタやオブジェクトが発する、衝突音、爆発音、振動音などの各種の音についても同様である。   As described above, in “Monster Hunter (registered trademark)” of the game software according to the present embodiment, the virtual game space has a natural environment close to the real world, and the game scene displayed on the game screen is 2 An area occupied by different media having different types of acoustic characteristics is included, and both the hunter H and the monster M are configured to be movable. Therefore, for example, how to hear the hunter H of the stuttering sound S emitted by the monster M is not only the distance relationship between the hunter H and the monster M in the game space, but also the area (medium) and hunter in which the hunter H and the monster M exist respectively. It is affected by the reflection of sound around the position where H is present. The same applies to not only the roaring sound S emitted by the monster M but also various types of sounds such as collision sound, explosion sound and vibration sound emitted by other characters and objects appearing in the game space.

従って、本発明に係る効果音生成プログラムでは、上記の音響環境を考慮し、ゲーム空間におけるハンターHとモンスターMや他のキャラクタやオブジェクトとの位置関係がどのように変化してもゲーム空間で発生した音の聞こえ方がその位置関係に応じた自然な聞こえ方となるように効果音の生成方法を工夫している。   Therefore, in the sound effect generation program according to the present invention, in consideration of the above-mentioned acoustic environment, it occurs in the game space no matter how the positional relationship between the hunter H and the monster M and other characters and objects in the game space changes. The method of generating the sound effect is devised so that the way of hearing the sound is natural according to the positional relationship.

次に、本発明に係る効果音生成プログラムを含むゲームプログラムを実行するビデオゲーム装置について説明する。   Next, a video game apparatus that executes a game program including a sound effect generation program according to the present invention will be described.

図2は、本発明に係る効果音生成プログラムを含むゲームプログラムを実行するビデオゲーム装置の概観を示す正面図である。 FIG. 2 is a front view showing an overview of a video game apparatus that executes a game program including a sound effect generation program according to the present invention.

ビデオゲーム装置1(以下、「ゲーム装置1」と略称する。)は、携帯型ビデオゲーム機である。本実施形態では携帯型ビデオゲーム機であるが、ゲーム装置としては家庭用のビデオゲーム機やゲームセンターに配置される業務用のビデオゲーム機(アーケードゲーム機)などの他の種類のゲーム機を用いることができる。   The video game device 1 (hereinafter, abbreviated as “game device 1”) is a portable video game machine. Although this embodiment is a portable video game machine, other types of game machines such as a home video game machine and a commercial video game machine (arcade game machine) disposed in a game center are used as game machines. It can be used.

本発明に係る効果音生成プログラムを含むゲームプログラムとそのゲームプログラムに必要なゲームデータは、専用の可搬型記録メディア(以下、「ゲームメディア」という。)に記録されており、ゲームソフトメーカからユーザに提供される。ユーザがゲーム装置1の図略のゲームメディア装着部にゲームメディアを装着すると、ゲーム装置1は、当該ゲームメディアからゲームプログラム及びゲームデータを装置内のメモリ(RAM)に読み込み、CPU(Central Processing Unit)がゲームプログラムの実行を開始する。これにより、ユーザはゲーム装置1でゲームソフトを楽しむことができる。なお、アーケードゲーム機では、ゲーム機本体にゲームプログラムとゲームデータが一体的に組み込まれているので、ゲームをする際にゲームメディアをアーケードゲーム機に装着する必要はない。 The game program including the sound effect generation program according to the present invention and the game data required for the game program are recorded in a dedicated portable recording medium (hereinafter referred to as "game medium"), and the game software maker Provided to When the user mounts the game media on the game media mounting unit (not shown) of the game apparatus 1, the game apparatus 1 reads a game program and game data from the game media into a memory (RAM) in the apparatus, and executes a CPU (Central Processing Unit). ) Starts execution of the game program. Thus, the user can enjoy the game software on the game apparatus 1. In the arcade game machine, since the game program and the game data are integrated into the game machine body, it is not necessary to attach the game media to the arcade game machine when playing a game.

ゲーム装置1は、横長長方形の薄型直方体からなる本体2を有する。本体2の上面の中央にゲーム画面であるディスプレイ3が配設され、このディスプレイ3の左右に方向キー4a及びジョイステックキー4bを含む操作キー4と4個のボタンからなる操作ボタン5とがそれぞれ配設されている。方向キー4aとジョイステックキー4bは縦に配列され、ジョイステックキー4bと操作ボタン5の下部に効果音を出力するための一対のスピーカ9a,9bが配設されている。   The game apparatus 1 has a main body 2 formed of a horizontally long thin rectangular parallelepiped. A display 3 which is a game screen is disposed at the center of the upper surface of the main body 2, and operation keys 4 including direction keys 4a and joystick keys 4b on the left and right of the display 3 and operation buttons 5 consisting of four buttons It is arranged. The direction key 4 a and the joystick key 4 b are vertically arranged, and a pair of speakers 9 a and 9 b for outputting sound effects are disposed below the joystick key 4 b and the operation button 5.

操作キー4は、主としてディスプレイ3に表示されるプレイヤの操作対象であるプレイヤキャラクタ(ハンター)の移動方向を指定したり、メニュー画面に表示される選択項目を選択するための選択方向を指定したりするための操作部材である。操作ボタン5は、例えば、ハンティングアクションゲームの場合、主としてゲーム進行中に敵キャラクタ(モンスター)に対してプレイヤキャラクタに攻撃動作や防御動作などの各種の動作指令をするための操作部材である。   The operation key 4 mainly designates the moving direction of the player character (hunter) which is the operation target of the player displayed on the display 3, and designates the selection direction for selecting the selection item displayed on the menu screen. It is an operation member for doing. For example, in the case of a hunting action game, the operation button 5 is an operation member for mainly instructing the enemy character (monster) to perform various types of operation such as an attack operation and a defense operation to the enemy character (monster).

スピーカ9a,9bからはゲーム進行中のBGMやゲーム展開において発生する各種の事象に対応した音(例えば、モンスターが発する咆哮音Sやモンスターが攻撃する攻撃音やその攻撃によって岩などのオブジェクトが崩壊する音など)やゲーム効果(例えば、ハンターがモンスターにダメージを与えたり、モンスターからダメージを受けたりした場合の効果)を演出する音などを発生する。   Sounds corresponding to BGM during game progress and various events generated in the game development from the speakers 9a and 9b (for example, a stuttering sound S emitted by a monster, an attack sound attacked by a monster, and an object such as a rock collapsed by the attack) Sounds that produce effects such as sounds) and game effects (eg, effects when a hunter does damage to a monster or receives damage from a monster) are generated.

ディスプレイ3の下部には「START」ボタン6、「SELECT」ボタン7、音量調整ボタン8などの操作ボタンが配設されている。「START」ボタン6は、主としてゲームの開始時に「ゲーム開始」を指令するための操作ボタンであり、「SELECT」ボタン7は、主としてゲーム開始時にゲームの動作モードなどを選択するための操作ボタンである。なお、図示はしていないが、本体2の側面に電源ボタンやゲームメディアを装着するためのメディア装着部が設けられている。   At the lower part of the display 3, operation buttons such as a “START” button 6, a “SELECT” button 7, and a volume adjustment button 8 are disposed. The "START" button 6 is an operation button mainly for instructing "game start" at the start of the game, and the "SELECT" button 7 is an operation button mainly for selecting the operation mode of the game at the game start, etc. is there. Although not shown, a media mounting unit for mounting a power button and game media is provided on the side of the main body 2.

図3は、ゲーム装置1の内部構成を示すブロック図である。   FIG. 3 is a block diagram showing an internal configuration of the game apparatus 1.

ゲーム装置1は、CPU11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、描画データ生成プロセッサ14、描画処理プロセッサ15、VRAM(Video-RAM)16、D/A(Digital-Analog)コンバータ17、表示部18、音声処理プロセッサ19、アンプ20、スピーカ21、操作部22、ドライバ23及びバス24を含んでいる。   The game apparatus 1 includes a CPU 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a drawing data generation processor 14, a drawing processing processor 15, a VRAM (Video-RAM) 16, and a D / A (Digital-Analog). The converter 17, the display unit 18, the audio processor 19, the amplifier 20, the speaker 21, the operation unit 22, the driver 23 and the bus 24 are included.

なお、表示部18は図2のディスプレイ3に対応し、スピーカ21は図2のスピーカ9a,9bに対応している。また、操作部22は、図2の操作キー4、操作ボタン5、「START」ボタン6、「SELECT」ボタン7、音量調整ボタン8などの操作ボタンや図略の電源ボタンなどに対応している。プレイヤによってこれらの操作部材が操作されると、その操作信号が操作部22からCPU11に入力される。   The display unit 18 corresponds to the display 3 shown in FIG. 2, and the speaker 21 corresponds to the speakers 9a and 9b shown in FIG. In addition, the operation unit 22 corresponds to operation buttons such as the operation key 4, the operation button 5, the “START” button 6, the “SELECT” button 7, the volume adjustment button 8 in FIG. . When the player operates these operation members, the operation signal is input from the operation unit 22 to the CPU 11.

CPU11、ROM12、RAM13、描画データ生成プロセッサ14、描画処理プロセッサ15、音声処理プロセッサ19及びドライバ23はバス24によって相互にデータ伝送可能に接続されている。   The CPU 11, the ROM 12, the RAM 13, the drawing data generation processor 14, the drawing processing processor 15, the audio processing processor 19 and the driver 23 are mutually connected by a bus 24 so as to be able to transmit data.

ゲームメディア10には、ゲームプログラム及びゲームデータが記録されている。ゲームデータには、キャラクタや背景の画像データ、ステータスなどの情報表示用の画像データ、BGMやゲーム空間内に出現するプレイヤキャラクタ(ハンター)、敵キャラクタ(モンスター)、オブジェクト(他の動物や植物)などの発する各種の音などの効果音に関する音響データ、文字や記号によるメッセージデータなどが含まれる。音響データには、例えば、原音データ、原音の音量や周波数成分の調整値、原音データから残響成分のデータを生成する際のパラメータ値(後述する)や残響成分の音量調整値などの加工内容を指定するためのデータなどの本発明に係る効果音生成プログラムで使用される各種のデータが含まれている。音響データの詳細は後述する。   A game program and game data are recorded in the game media 10. Game data includes image data of characters and backgrounds, image data for displaying information such as status, BGM, player characters (hunters) appearing in the game space, enemy characters (monsters), objects (other animals and plants) Sound data relating to sound effects such as various sounds emitted, message data by characters and symbols, etc. are included. The sound data includes, for example, the original sound data, the adjustment value of the volume of the original sound and the frequency component, and the processing content such as the parameter value (described later) when generating the reverberation component data from the original sound data and the volume adjustment value of the reverberation component It includes various data used in the sound effect generation program according to the present invention, such as data for specifying. Details of the acoustic data will be described later.

ROM12には、ディスクローディング機能などのゲーム装置1の基本的機能やゲームメディア10に記憶されたゲームプログラム及びゲームデータを読み出す手順などを示す基本プログラムが記憶されている。RAM13は、ドライバ23によってゲームメディア10から読み込まれたゲームプログラム及びゲームデータを格納したり、CPU11がRAM13に格納されたゲームプログラムを実行する際に必要な記憶領域を提供したりする。なお、ゲーム装置1が、ゲームメディア10として光ディスクの一種であるUMD(Universal media Disc)(登録商標)を採用している場合は、ドライバ23は、光ディスクドライバによって構成される。 The ROM 12, a basic program indicating, for example, steps of reading a game program and game data stored in the basic function and game media 10 Gate beam device 1, such as a disc loading function is stored. The RAM 13 stores a game program and game data read from the game media 10 by the driver 23, and provides a storage area required when the CPU 11 executes the game program stored in the RAM 13. When the game apparatus 1 adopts UMD (Universal media Disc) (registered trademark) which is a type of optical disc as the game medium 10, the driver 23 is configured by an optical disc driver.

CPU11は、メディア装着部(図示省略)にゲームメディア10が装着されると、ROM12の基本プログラムに従ってドライバ23を動作させ、ゲームメディア10からゲーム起動時に必要なゲームプログラム及びゲームデータをRAM13に読み込み、ゲーム開始状態に設定する。その後、CPU11は、操作部22からのプレイヤの操作信号に基づいてRAM13に読み込まれたゲームプログラムを実行することより、ゲーム進行やゲーム展開を統括的に制御する。   When the game media 10 is loaded into the media loading unit (not shown), the CPU 11 operates the driver 23 according to the basic program of the ROM 12 and loads the game program and game data necessary for starting the game from the game media 10 into the RAM 13 Set to the game start state. Thereafter, the CPU 11 centrally controls the game progress and the game development by executing the game program read into the RAM 13 based on the operation signal of the player from the operation unit 22.

なお、モンスターハンター(登録商標)は、独立した複数のゲームプログラムの集合体で構成されている。例えば、上述したように、狩猟フィールドには雪山フィールド、密林フィールド、砂漠フィールド、沼地フィールドなどが設けられているが、これらの各フィールドは複数の狩猟エリアで構成されているので、狩猟エリア毎にゲーム進行を制御するゲームプログラムが作成されている。   In addition, Monster Hunter (registered trademark) is configured of a set of independent game programs. For example, as described above, a hunting field is provided with a snow mountain field, a dense forest field, a desert field, a marsh field, etc., but each of these fields is composed of a plurality of hunting areas. A game program has been created to control the game progress.

従って、例えば、狩猟フィールドにおけるゲーム進行の制御では、プレイヤによって狩猟エリアが選択される毎にその狩猟エリアのゲームプログラムをゲームメディア10からRAM13に読み込み、CPU11がそのゲームプログラムを実行することによりその狩猟エリアにおけるゲーム進行が制御される。他のゲーム場面のゲーム進行の処理についても同様で、プレイヤの選択操作に応じて必要なゲームプログラムとゲームデータとがゲームメディア10からRAM13に読み込まれ、そのゲームプログラムをCPU11が実行することよりゲーム進行およびゲーム展開が制御される。   Therefore, for example, in the control of the game progress in the hunting field, every time the player selects a hunting area, the game program of the hunting area is read from the game media 10 to the RAM 13 and the CPU 11 executes the game program to carry out the hunting. The game progress in the area is controlled. The same applies to processing of the game progress of other game scenes, and the necessary game program and game data are read from the game media 10 to the RAM 13 according to the selection operation of the player, and the game program is executed by the CPU 11 Progress and game development are controlled.

ゲームプログラムには、CPU11に実行させるための処理手順や各種命令等が記述されている。狩猟フィールドの各エリアにおけるゲーム進行を制御するゲームプログラムには、モンスターMの動作やその他のオブジェクトの動きを制御するプログラムが含まれている。従って、CPU11がそのゲームプログラムを実行することによりゲーム空間におけるモンスターMの動作やその他のオブジェクトの動きが自動的に制御される。   In the game program, processing procedures to be executed by the CPU 11, various instructions, and the like are described. The game program for controlling the game progress in each area of the hunting field includes a program for controlling the movement of the monster M and the movement of other objects. Therefore, the execution of the game program by the CPU 11 automatically controls the movement of the monster M and the movement of other objects in the game space.

モンスターMの咆哮動作も当該モンスターMの動作を制御するゲームプログラムに記述されており、CPU11が咆哮指令を実行すると、CPU11から音声処理プロセッサ19にその咆哮指令に対応する咆哮音Sの情報が出力され、音声処理プロセッサ19で咆哮音Sの出力処理が行われる。   The masticatory movement of the monster M is also described in the game program for controlling the operation of the monster M, and when the CPU 11 executes the mastication command, the CPU 11 outputs the information on the stuttering S corresponding to the mastication command to the voice processing processor 19 The voice processing processor 19 performs output processing of the stuttering S.

一方、ハンターHの動作を制御するゲームプログラムは、基本的にプレイヤによる操作キー4や操作ボタン5の操作に基づく操作部22からの操作信号によってその動作が制御される構成となっている。従って、CPU11は、操作部22からプレイヤの操作信号が入力されると、ゲームプログラムに従ってその操作信号に対する所定の動作をハンターHに行わせる処理を行い、その処理結果を表示部18にゲーム進行を示すゲーム画像として表示する。また、ハンターHの動作によって効果音を発生させる事象が発生する場合(モンスターMへの攻撃音の発生やモンスターMによる攻撃音の発生など)、CPU11は、その処理結果によって算出される効果音の情報を音声処理プロセッサ19に出力し、音声処理プロセッサ19でその効果音の発生処理が行わせる。この効果音の発生処理の詳細は後述する。   On the other hand, the game program for controlling the operation of the hunter H is basically configured such that the operation is controlled by the operation signal from the operation unit 22 based on the operation of the operation key 4 or the operation button 5 by the player. Therefore, when the operation signal of the player is input from the operation unit 22, the CPU 11 performs processing for causing the hunter H to perform a predetermined action on the operation signal according to the game program, and the processing result is displayed on the display unit 18 Display as a game image to show. In addition, when an event occurs that causes a sound effect to be generated by the operation of the hunter H (such as generation of an attack sound to the monster M or generation of an attack sound by the monster M), the CPU 11 calculates the sound effect calculated by the processing result. The information is output to the audio processor 19, and the audio processor 19 performs processing for generating the sound effects. The details of this sound effect generation process will be described later.

ゲーム画像としては、三次元コンピュータグラフィクスを用いたアニメーション技術により作成される三次元(3D)アニメーション画像が用いられる。この三次元のゲーム画像は、図4に示すように、ハンター(プレイヤキャラクタ)Hに対して後方の所定の位置CP(ハンターHの位置HPより水平方向に距離dだけ後方で高さhの位置)に仮想カメラCを配置し、この仮想カメラCでハンターH側を撮影して得られる画像を各コマの画像として生成したものである。   As a game image, a three-dimensional (3D) animation image created by animation technology using three-dimensional computer graphics is used. This three-dimensional game image is, as shown in FIG. 4, a predetermined position CP behind the hunter (player character) H (position of height h behind the position HP of the hunter H by a distance d in the horizontal direction The virtual camera C is placed in the), and an image obtained by photographing the hunter H side with this virtual camera C is generated as an image of each frame.

なお、画像は、仮想カメラCからハンターH側に視線を伸ばし、その視線が仮想カメラCとハンターHとの間に仮想的に配置されたスクリーンと交差する位置にハンターHやモンスターMや背景の山などの他の物体を描画したもの(透視投影法による二次元画像)である。   In addition, the image extends the line of sight from the virtual camera C to the hunter H side, and the line of sight of the hunter H or the monster M or the background of the screen virtually intersected with the virtual camera C and the hunter H It is a drawing of another object such as a mountain (two-dimensional image by perspective projection).

プレイヤの方向キー4aまたはジョイステックキー4bの操作によりハンターHがゲーム空間内を移動する場合、仮想カメラCもハンターHと共に移動させながら各コマの画像を生成することにより、ゲーム画面にはゲーム空間内で移動するハンターHの画像が表示される。   When the hunter H moves in the game space by the operation of the direction key 4a of the player or the joystick key 4b, the virtual camera C is also moved together with the hunter H to generate an image of each frame, so that the game space is displayed on the game screen. The image of Hunter H moving within is displayed.

ゲーム空間における仮想カメラCは、ハンターHと共に移動する。本実施形態では、ハンターHが陸上だけでなく水中などの他の媒質の領域中も移動できるように設定されているので、プレイヤがハンターHを水中に移動させた場合は仮想カメラCも水中に移動し、水中内でのモンスターMの探索シーンやモンスターMとの対戦シーンの画像が表示される。   The virtual camera C in the game space moves with the hunter H. In this embodiment, since the hunter H is set to move not only on land but also in the area of other media such as water, if the player moves the hunter H into water, the virtual camera C is also in water. It moves and the image of the search scene of monster M in the water and the battle scene with monster M is displayed.

また、プレイヤはハンターHを停止させた状態で方向キー4aまたはジョイステックキー4bを操作して仮想カメラCだけを移動させることができる。例えば、プレイヤはハンターHの周りに仮想カメラCを回転移動させたり、仮想カメラCの位置をハンターHの目の位置に切り換えたりすることができる。従って、プレイヤは陸上のハンターHを移動させることなく、仮想カメラCだけを水中などの他の媒質の領域内の所定の位置に移動させることができる。   In addition, the player can move only the virtual camera C by operating the direction key 4a or the joystick key 4b while the hunter H is stopped. For example, the player can rotate the virtual camera C around the hunter H or switch the position of the virtual camera C to the eye of the hunter H. Therefore, the player can move only the virtual camera C to a predetermined position in the area of another medium such as underwater without moving the hunter H on land.

そして、本実施形態では、後述するようにゲーム空間における仮想カメラCの位置CPを当該ゲーム空間内で発生する音(ゲーム空間内に出現するキャラクタやオブジェクトが発する音)の聴音位置TPに設定し、効果音の発生処理では、モンスターMの咆哮音Sなどのゲーム空間内で発生する音をその聴音位置TPで聞こえる音に加工して出力するようにしている。   Then, in the present embodiment, as described later, the position CP of the virtual camera C in the game space is set as the listening position TP of the sound generated in the game space (the sound emitted by the character or object appearing in the game space). In the sound effect generation process, the sound generated in the game space such as the roaring sound S of the monster M is processed and output as the sound heard at the listening position TP.

なお、各コマの画像を作成したり、効果音を発生させたりする際、仮想カメラCとゲーム空間に登場するハンターHやモンスターMやその他のオブジェクトなどの物体のゲーム空間における位置を定義し、これらの位置関係(距離と方向)の情報が必要になるので、各エリアのゲーム空間には、図1(a)に示すように、互いに直交するXYZ座標系が設けられている。   In addition, when creating an image of each frame or generating a sound effect, define the position in the game space of an object such as the virtual camera C and the hunter H, monster M or other object appearing in the game space, Since information of these positional relationships (distance and direction) is required, as shown in FIG. 1A, an XYZ coordinate system orthogonal to each other is provided in the game space of each area.

XYZ座標系の原点は任意に設定することができるが、本実施形態では、仮想カメラCやハンターHが水中にも移動し、水中シーンもゲーム場面として表示されるので、図1に示すように、隣接した2つの異なる媒質を含むエリアのゲーム空間ではZ座標の0基準が図1(b)に示すように水面の位置(媒質の境界)に設定されるように、XYZ座標系が設定される。従って、例えば、XY平面の+X軸と+Y軸で囲まれる領域にエリアのゲーム空間が設定される場合、ゲーム空間に登場する物体のX座標とY座標はいずれも正の値となるが、Z座標は、その物体が陸上もしくは空中に存在するときに正の値となり、水中に存在するときは負の値となる。   The origin of the XYZ coordinate system can be set arbitrarily, but in the present embodiment, the virtual camera C and the hunter H move into the water, and the underwater scene is also displayed as a game scene, as shown in FIG. The XYZ coordinate system is set so that the zero reference of the Z coordinate is set at the position of the water surface (the boundary of the medium) as shown in FIG. 1 (b) in the game space of the area containing two different different media. Ru. Therefore, for example, when a game space of an area is set in a region surrounded by + X axis and + Y axis of the XY plane, X coordinate and Y coordinate of an object appearing in the game space both have positive values, but Z The coordinates are positive when the object is on land or in the air, and negative when it is in water.

図3に戻り、表示部18に表示するためのゲーム画像(3Dアニメーション画像)の描画処理は、主として描画データ生成プロセッサ14と描画処理プロセッサ15とによって行われる。CPU11は、操作部22からのプレイヤの操作信号に基づき、表示部18に表示すべきゲーム画像の内容を決定し、その画像の描画に必要な画像データ(背景、プレイヤキャラクタ(ハンターH)や他のキャラクタ(モンスターM)やその他のオブジェクトのポリゴンデータ、テクスチャデータ、光源データなどのデータ)をRAM13から読み出して描画データ生成プロセッサ14に供給する。また、CPU11は、操作部22から入力される操作情報を描画データ生成プロセッサ14に供給する。 Returning to FIG. 3, the drawing process of the game image (3D animation image) to be displayed on the display unit 18 is mainly performed by the drawing data generation processor 14 and the drawing processing processor 15. The CPU 11 determines the content of the game image to be displayed on the display unit 18 based on the operation signal of the player from the operation unit 22 and the image data (background, player character (hunter H) , etc. necessary for drawing the image ). The polygon data, texture data, light source data, and other data of the character (monster M) and other objects are read from the RAM 13 and supplied to the drawing data generation processor 14. The CPU 11 also supplies the drawing data generation processor 14 with the operation information input from the operation unit 22.

描画データ生成プロセッサ14は、CPU11から供給される画像データと操作情報に基づいて、描画に必要なデータ(透視投影における仮想カメラC、ハンターH、モンスターM及び背景その他のオブジェクトの位置関係、スクリーン画面(表示部18の画面に相当)上におけるハンターH、モンスターM及び背景その他のオブジェクトを構成するポリゴンの座標、各ポリゴンに対応するテクスチャや反射特性などのデータ)を演算し、その演算結果を描画処理プロセッサ15に供給する。   Based on the image data and the operation information supplied from the CPU 11, the drawing data generation processor 14 generates data necessary for drawing (positional relationship of virtual camera C, hunter H, monster M and background and other objects in perspective projection, screen screen Calculate the coordinates of the polygons that make up the hunter H, the monster M and the background and other objects on the screen (corresponding to the screen of the display unit 18), data such as textures and reflection characteristics corresponding to each polygon, and draw the calculation results It is supplied to the processing processor 15.

描画処理プロセッサ15は、CPU11からの描画指令に基づき、1/30秒毎に、描画データ生成プロセッサ14から供給されるデータを用いて表示部18に表示させる三次元アニメーションの各コマの画像(透視投影法による二次元画像)を生成する。描画処理プロセッサ15には各コマの画像の作成作業をするためのVRAM16が接続されている。   The drawing processing processor 15 displays an image of each frame of the three-dimensional animation displayed on the display unit 18 using data supplied from the drawing data generation processor 14 every 1/30 seconds based on a drawing command from the CPU 11 Generate a two-dimensional image) by projection method. Connected to the drawing processor 15 is a VRAM 16 for creating an image of each frame.

VRAM16には、表示部18に表示される各コマの画像データを格納するためのバッファ領域(以下、「スクリーンバッファ」という。)が設けられている。描画処理プロセッサ15は、描画データ生成プロセッサ14から供給されるデータをVRAM16の作業領域に一時保存し、1/30秒毎にこの作業領域から表示すべき画像に必要なデータを読み出してスクリーンバッファに展開する処理(描画処理)を繰り返す。   The VRAM 16 is provided with a buffer area (hereinafter referred to as “screen buffer”) for storing image data of each frame displayed on the display unit 18. The drawing processing processor 15 temporarily stores the data supplied from the drawing data generation processor 14 in the working area of the VRAM 16, reads out the data necessary for the image to be displayed from the working area every 1/30 seconds, and stores it in the screen buffer. Repeat the process of expanding (drawing process).

VRAM16に展開された画像データは、D/Aコンバータ17でアナログ信号に変換されて表示部18に出力され、表示される。   The image data developed in the VRAM 16 is converted into an analog signal by the D / A converter 17 and output to the display unit 18 for display.

CPU11は、ゲームプログラムの実行により効果音を発生させる処理を行うと、その処理結果によって決定されたスピーカ21から出力すべき効果音(モンスターMの咆哮音SやハンターMの攻撃動作や防御動作で発生する音など)の内容を音声処理プロセッサ19に出力し、その効果音に対応した音声データを生成させ、その音声データをスピーカ21から出力させる。   When the CPU 11 performs processing to generate sound effects by execution of the game program, the sound effects to be output from the speaker 21 determined by the processing result (the attacking action or the defense action of the monster M's roar S or hunter M The content of the generated sound etc. is output to the audio processing processor 19, audio data corresponding to the sound effect is generated, and the audio data is output from the speaker 21.

音声処理プロセッサ19は、CPU11からの効果音生成指令に基づき、RAM13から効果音のデータを読み出し、所要のデジタル信号処理をした後、音声信号(アナログ信号)にD/A変換する処理をする。所要のデジタル信号処理には、本発明に係る効果音生成処理が含まれる。音声処理プロセッサ19から出力される音声信号は、アンプ20で所定のゲインで増幅された後、スピーカ21から出力される。 The sound processing processor 19 reads data of sound effects from the RAM 13 based on a sound effect generation command from the CPU 11, performs required digital signal processing, and performs D / A conversion to sound signals (analog signals). The required digital signal processing includes sound effect generation processing according to the present invention. The audio signal output from the audio processing processor 19 is amplified by the amplifier 20 with a predetermined gain, and then output from the speaker 21.

次に、本発明に係る効果音の生成処理について、モンスターMの位置を発音位置MP(図1のMPの位置参照)とし、ハンターHの位置HPを聴音位置TP(図1のHPの位置参照)とし、モンスターMの発する咆哮音Sを聴音位置TPで聞こえる音として出力する場合を例に説明する。なお、上述の説明では、仮想カメラCの位置CPを聴音位置TPとしていたが、ハンターHはプレイヤの分身としてゲーム空間に登場し、ハンターHを介してプレイヤがモンスターMの発する音を聴くことを想定しているので、ここでは、説明の便宜上、ハンターHの位置HPを聴音位置TPとし、「聴音位置HP」と表記する。   Next, regarding the process of generating sound effects according to the present invention, the position of monster M is taken as the sound generation position MP (see the position of MP in FIG. 1), and the position HP of the hunter H is the listening position TP (see the position of HP in FIG. 1). The case where the noise M emitted from the monster M is output as the sound heard at the listening position TP will be described as an example. In the above description, the position CP of the virtual camera C is used as the listening position TP. However, the hunter H appears in the game space as the player's own body, and the player listens to the sound emitted by the monster M through the hunter H. Since it is assumed, here, for convenience of explanation, the position HP of the hunter H is referred to as a listening position TP, and is described as “listening position HP”.

上述したように、モンスターハンター(登録商標)では発音体であるモンスターMと聴音体のハンターHがゲーム空間の陸上だけでなく水中なども移動できる構成となっている。従って、例えば、図1に示すエリアの場合、ハンターHとモンスターMの存在する位置関係を分類すると、モンスターMもハンターHも陸上に存在する場合、モンスターMが陸上に存在しハンターHが水中に存在する場合、モンスターMが水中に存在しハンターHが陸上に存在する場合、モンスターMもハンターHも水中に存在する場合の4種類のシチュエーションに分けることができる。   As described above, in the monster hunter (registered trademark), the sounding body monster M and the sounding body hunter H can move not only on land in the game space but also in water. Therefore, for example, in the case of the area shown in FIG. 1, when the positional relationship between the hunter H and the monster M is classified, if the monster M and the hunter H are also on land, the monster M is on land and the hunter H is in water. If the monster M exists in the water and the hunter H exists on the land, it can be divided into four types of situations where both the monster M and the hunter H exist in the water.

そして、4種類のシチュエーションを発音及び聴音の位置と媒質との関係で整理すると、
(1)発音位置MPも聴音位置HPも陸上(空気中)にある場合(ケース1)
(2)発音位置MPが水中にあり、聴音位置HPが陸上(空気中)にある場合(ケース2)
(3)発音位置MPが陸上(空気中)にあり、聴音位置HPが水中にある場合(ケース3)
(4)発音位置MPも聴音位置HPも水中にある場合(ケース4)
の4つのケースに分けることができる。
And, if you arrange four kinds of situations in relation to the position of the pronunciation and the position of the hearing and the medium,
(1) When the sound generation position MP and the listening position HP are both on land (in the air) (case 1)
(2) When the sound generation position MP is in the water and the sound generation position HP is on the land (in the air) (Case 2)
(3) In the case where the sound generation position MP is on land (in air) and the listening position HP is in water (case 3)
(4) In the case where both the pronunciation position MP and the listening position HP are in water (case 4)
Can be divided into four cases.

なお、以下の説明では、ケース1〜ケース4の内容を直できるように、ケース(MP,HP)で表記した表現を適宜使用することにする。この表記によれば、ケース1=ケース(陸上,陸上)、ケース2=ケース(水中,陸上)、ケース3=ケース(陸上,水中)、ケース4=ケース(水中,水中)となる。 In the following description, the contents of the case 1 to case 4 so as to be straight-sensitive, to be used as appropriate representation expressed in the case (MP, HP). According to this notation, Case 1 = case (land, land), Case 2 = case (under water, land), Case 3 = case (land, water), Case 4 = case (under water, water).

現実世界においては、空気中と水中で音波の伝わり方や減衰特性が異なり、例えば、(a)水中では数kHz以上の高周波は減衰量が大きく、伝搬距離が短い、(b)空気中よりも水中の方が音の直進性がある、などのことが知られている。本実施形態では、(a),(b)の特性を参考に、上記のケース1〜ケース4の4つのケースでの原音データに対する音量や周波数成分や残響成分の特性の加工処理を異ならせ、ゲーム画像で表現されるゲーム場面のシチュエーションがケース1〜ケース4の間で時々刻々と変化するのに応じて原音データに対して該当するケースの加工処理を行うことにより各ケースのゲーム場面の音の聞こえ方の違いを演出し、ゲーム上でプレイヤに与える聴覚的効果が可及的に自然な感じとなるようにしている。   In the real world, the transmission and attenuation characteristics of sound waves differ between air and water. For example, in (a) water, high frequencies of several kHz or more have large attenuation, and propagation distance is short, (b) It is known that underwater is more straightforward in sound. In the present embodiment, referring to the characteristics of (a) and (b), processing of characteristics of volume, frequency components, and reverberation components to original sound data in the above four cases of Case 1 to Case 4 is made different. The sound of the game scene of each case is processed by processing the corresponding case with respect to the original sound data according to the situation of the game scene represented by the game image changing momentarily between case 1 to case 4 The difference in the way of hearing is made so that the auditory effect given to the player on the game will be as natural as possible.

従って、本実施形態では、原音データに対して音量や周波数成分や残響成分の各特性を加工するための複数種類の処理プログラムが設けられている。なお、原音データは、例えば、モンスターMの咆哮動作に対して咆哮音Sを出力させるために、予め作成されたオリジナルの音声波形データである。原音データは、例えば、図5に示すアナログのオーディオ信号Wをデジタル信号に変換し、例えばADPCM(Adaptive Differential Pulse Code Modulation)により圧縮したデータで構成され、ゲームデータの音響データに含まれている。モンスターMが複数種類の鳴き声を発する場合、各鳴き声に対して原音データが予め作成されている。モンスターM以外のキャラクタやオブジェクトの発する音の原音データについても同様である。   Therefore, in the present embodiment, a plurality of types of processing programs are provided to process the characteristics of the volume, frequency components, and reverberation components with respect to the original sound data. The original sound data is, for example, original voice waveform data created in advance in order to output a stuttering S to the masticatory movement of the monster M. The original sound data is composed of, for example, data converted from the analog audio signal W shown in FIG. 5 into a digital signal and compressed by, for example, ADPCM (Adaptive Differential Pulse Code Modulation), and is included in the sound data of game data. When the monster M emits a plurality of types of calls, original sound data is created in advance for each call. The same applies to the original sound data of sounds emitted by characters and objects other than the monster M.

処理プログラムとしては、水中(水媒質)における音声効果を与えるツールとして機能する処理プログラムと陸上(空気媒質)における音声効果を与えるツールとして機能する処理プログラムが設けられている。具体的には、距離に対する減衰効果を演出するための減衰処理プログラムと、水中と空気中で周波数成分の違いによる音色の違いを演出するためのフィルタリング処理プログラムとが設けられている。また、水中と空気中との音波の伝播特性の相違に基づく音の聞こえ方の違いを表現するためのエフェクタとして残響(リバーブ)を付加する残響処理プログラムとが設けられている。   The processing program includes a processing program that functions as a tool for providing an audio effect in water (water medium) and a processing program that functions as a tool for providing an audio effect in land (air medium). Specifically, an attenuation processing program for producing an attenuation effect with respect to distance and a filtering processing program for producing a difference in timbre due to a difference between frequency components in water and air are provided. Also, a reverberation processing program is provided to add reverberation as an effector to express the difference in the way of hearing the sound based on the difference in the propagation characteristics of the sound wave in the water and in the air.

減衰処理プログラムに対しては、例えば、図6に示す空気中を音が伝播するときの減衰特性を示す減衰データD1(陸上用減衰データD1)と水中を音が伝播するときの減衰特性を示す減衰データD2(水中用減衰データD2)が予め設定されている。現実世界では低周波の音は空気中よりも水中の方が減衰しにくいが、本実施形態では、ゲームの聴覚的効果として水中の密閉感を演出するために、水中用減衰データD2の減衰量を陸上用減衰データD1の減衰量よりも大きくしている。発音位置MPと聴音位置HPとの間の距離Lと図6に示す減衰データを用いて減衰処理プログラムにより原音データに加工処理を行うことによって、聴音位置HPにおける聴音レベルが算出される。   For the attenuation processing program, for example, attenuation data D1 (attenuation data D1 for land) indicating attenuation characteristics when sound propagates in air shown in FIG. 6 and attenuation characteristics when sound propagates in water are shown. Attenuation data D2 (submersion attenuation data D2) are preset. In the real world, low-frequency sound is less likely to be attenuated in water than in air, but in the present embodiment, the attenuation amount of the attenuation data D2 for water is used to produce a sealing effect in water as a game auditory effect. Is larger than the attenuation amount of the land attenuation data D1. By processing the original sound data by the attenuation processing program using the distance L between the sounding position MP and the listening position HP and the attenuation data shown in FIG. 6, the listening level at the listening position HP is calculated.

なお、図6では、横軸が音の発生位置からの距離L(m)を示し、縦軸が音量レベルを示している。音声データは8ビットのデジタルデータ(128諧調のデータ)であるので、音量レベルの最大値は「127」、最小値は「0」となるが、図6では、最大値を「1」に正規化して音量レベルを示す内容になっている。これは、原音データに対して音量を何%に減少させると良いか、すなわち、音量調整のためのゲインが直読できるようにしたものである。   In FIG. 6, the horizontal axis indicates the distance L (m) from the sound generation position, and the vertical axis indicates the volume level. Since the audio data is 8-bit digital data (data of 128 tones), the maximum value of the sound volume level is "127" and the minimum value is "0". However, in FIG. Content to indicate the volume level. This is what percentage of the volume of the original sound data should be reduced, that is, the gain for adjusting the volume can be read directly.

従って、例えば、ケース(陸上,陸上)において、発音位置MPと聴音位置HPの間の距離がLrの場合、音量レベルは「Kr」で、これが音量調整のためのゲインとなるので、発音位置MPの音量を「S」とすると、聴音位置HPの音量はKr×S(0<Kr<1.0)に減少することになる。   Therefore, for example, in the case (land, land), when the distance between the sounding position MP and the listening position HP is Lr, the volume level is “Kr” and this is a gain for volume adjustment. Assuming that the volume of “H” is “S”, the volume of the listening position HP decreases to Kr × S (0 <Kr <1.0).

なお、音響データには予め設定された複数の種類の原音データが含まれているが、各原音データの音量は同一ではなく、原音データ同士では異なる場合がある。図6の縦軸の音量レベルの最大値は、全ての原音データの音量のうちの最大の音量に対応させているので、図6に例示した陸上用減衰データD1および水中用減衰データD2の最大値が「1」になっていないのは、その最大の音量に対して正規化した値となっているからである。   The sound data includes a plurality of types of original sound data set in advance, but the volume of each original sound data is not the same, and the original sound data may be different. Since the maximum value of the volume level on the vertical axis in FIG. 6 corresponds to the maximum volume of the volumes of all the original sound data, the maximum of the ground attenuation data D1 and the underwater attenuation data D2 illustrated in FIG. The reason why the value is not “1” is that the value is normalized to the maximum volume.

図6に示すように、陸上用減衰データD1も水中用減衰データD2も、その波形は発生位置の近傍位置でわずかに上昇するがその後は単調に減少する形状(下方に湾曲した形状)を有している。そして、水中用減衰データD2の方が陸上用減衰データD1よりも距離Lに対する減衰量大きくなっている。 As shown in FIG. 6, both the ground attenuation data D1 and the underwater attenuation data D2 have a waveform whose shape slightly rises near the occurrence position but decreases monotonically thereafter (shape curved downward). doing. The amount of attenuation with respect to the distance L is larger in the underwater attenuation data D2 than in the land attenuation data D1 .

図6に示す減衰データの波形は一例であり、本発明に係る効果音がゲームにおける効果音であり、多少の創作性や誇張性が認められることを考慮すると、その波形には適宜の変更を加えることができる。減衰データは、音響データとしてゲームデータに含まれている。   The waveform of the attenuation data shown in FIG. 6 is an example, and considering that the sound effect according to the present invention is the sound effect in the game, and some originality and exaggeration are recognized, appropriate change is made to the waveform. It can be added. The attenuation data is included in the game data as sound data.

フィルタリング処理プログラムとしては、例えば、1200Hz(カットオフ周波数fc)以上の高周波成分をカットするローパスフィルタの処理プログラムが設けられている。原音データにローパスフィルタの処理プログラムによるフィルタリング処理を行うことによって、原音の波形が変化する。図5の例では、オーディオ信号Wの1200Hz以上の高周波成分が除去されるので、その波形は急峻に変化する部分が緩やかになり、聴覚的にはなまった音に変化する。本実施形態では、聴音位置HPが水中にある場合、原音データに対してフィルタリング処理を行うようにしている。これは、音の高周波成分をカットすることにより、水中での音のように聞こえる感じを演出するためである。   As the filtering process program, for example, a low-pass filter process program for cutting high frequency components of 1200 Hz (cutoff frequency fc) or higher is provided. The waveform of the original sound is changed by filtering the original sound data by the low-pass filter processing program. In the example of FIG. 5, since the high frequency component of 1200 Hz or more of the audio signal W is removed, the portion where the waveform changes sharply becomes gentle and changes to an auditory sound. In this embodiment, when the listening position HP is in water, filtering processing is performed on the original sound data. This is to produce a feeling that sounds like a sound in water by cutting high frequency components of the sound.

従って、ケース(陸上,陸上)の場合ではモンスターMの発した咆哮音Sの原音データにはフィルタリング処理は行われないが、ケース(水中,水中)の場合ではモンスターMの発した咆哮音Sの原音データに対してフィルタリング処理が行われるので、効果音として出力される咆哮音Sはカットオフ周波数fc以上の高周波成分がカットされ、ケース(水中,水中)の場合はケース(陸上,陸上)の場合よりも低い、こもった音となる。   Therefore, the filtering process is not performed on the raw sound data of the stuttering sound S emitted by the monster M in the case (land, land), but the filtering processing is not performed on the raw sound data of the stuttering S Since the filtering process is performed on the original sound data, the high frequency component of the cutoff frequency fc or higher is cut in the stuttering S output as the sound effect, and in the case (underwater, underwater), the case (land, land) The sound is lower than in the case.

残響処理プログラムに対しても、減衰データと同様に、水中における残響特性を示す残響データ(水中用残響データ)と空気中における残響特性を示す残響データ(陸上用残響データ)とが予め設定されている。残響データとは、具体的にはエフェクタの一つである、原音に残響音を付加する「リバーブ」をデジタル処理するためのデータである。本実施形態では、空気中と水中の音の聞こえ方の違いを効果的に演出するエフェクタとしてリバーブを利用している。リバーブでは、原音データから残響音のデータが生成されるが、残響データは、その生成処理の際のプリディレイ、リバーブタイム、高周波減衰、クロストーク、反響信号強度などの各パラメータの特性を示すデータである。   For the reverberation processing program, similarly to the attenuation data, reverberation data (water reverberation data) indicating reverberation characteristics in water and reverberation data (land reverberation data) indicating reverberation characteristics in air are preset. There is. The reverberation data is, specifically, data for digitally processing “reverb” which is one of the effectors and adds reverberation to the original sound. In the present embodiment, a reverb is used as an effector that effectively produces the difference in the sound in the air and in the water. In reverberation, reverberation data is generated from the original sound data, but the reverberation data is data indicating the characteristics of each parameter such as pre-delay, reverb time, high frequency attenuation, crosstalk, reverberation signal strength, etc. during the generation process. It is.

残響は、一般に直接音が聞こえた後、数m秒から100m秒くらいの間に初期反射の反響音が生じ、その後に後期反射の反響音が生じる構造を有していると言われている。初期反射は直接音とまとめて、一連の音として認知されるので、後期反射が直接音とは別に残響音として認知される。   Reverberation is generally said to have a structure in which echoes of initial reflection occur within a few milliseconds to about 100 milliseconds after direct sound is heard, and then echoes of late reflection occur. The early reflections are combined with the direct sound and recognized as a series of sounds, so the late reflections are recognized as reverberation separately from the direct sound.

プリディレイは、直接音に対する残響音の遅延時間を設定するもので、音源と反射壁との距離が長い場所では長い値が設定される。水中の方が空気中よりも音が遠くまで届くので、水中の残響特性のプディレイを空中よりも長くすることによって水中と空気中の音の違いを演出することができる要素である。 The pre-delay sets the delay time of the reverberation to the direct sound, and is set to a long value at a place where the distance between the sound source and the reflecting wall is long. Since the person in the water reach distant sound than in the air, there is an element to be able to produce a difference of sound in water and air by longer than the air in Prin delay in the water of the reverberation characteristics .

リバーブタイムは、残響音が継続する時間を設定するもので、反射率の大きい反射壁や反射経路が長い場合には減衰が少ないので、残響時間が長くなる。水中の残響特性のリバーブタイムも空中よりも長くすることによって水中と空気中の音の違いを演出することができる要素である。 The reverberation time sets the time for which the reverberation continues, and when the reflection wall with high reflectance or the reflection path is long, the reverberation time becomes long because the attenuation is small. Reverb time in the water of the reverberation characteristics is also an element that it is possible to produce a difference in the water and the sound in the air by longer than in air.

高周波減衰は、反響音に含まれる高周波成分の減衰量を設定するものである。水中の音は空気中よりも高周波成分が少なくなるので、残響音についても高周波成分を減衰させることにより水中と空気中の音の違いを演出することができる要素である。   High frequency attenuation sets the amount of attenuation of high frequency components included in echo sound. Since the sound in water has less high frequency components than in air, it is an element that can produce the difference between the sound in water and in the air by attenuating the high frequency components of reverberant sound as well.

クロストークは、チャンネル間の残響音の相互作用の程度を設定するものである。例えば、Lチャネル側に音源がある場合、残響音のRチャネルからの出力量を小さくするほど、音源からの音の直進性を表現することができる。水中では空気中よりも音の直進性が高いので、水中の残響特性のクロストークを空気中よりも小さくすることより水中と空気中の音の違いを演出することができる要素となる。   Crosstalk sets the degree of reverberation interaction between channels. For example, when there is a sound source on the L channel side, the straightness of the sound from the sound source can be expressed as the output amount of the reverberation from the R channel is reduced. Since the straightness of sound is higher in the water than in the air, making the crosstalk of the reverberation characteristics in the water smaller than in the air is an element capable of directing the difference between the sound in the water and in the air.

反響信号強度は、残響音の大きさ(残響成分の音量)を設定するものである。反響信号強度もプリディレイやリバーブタイムと同様の理由により、水中の残響特性の反響信号強度を空気中よりも大きくすることより水中と空気中の音の違いを演出することができる要素となる。   The reverberation signal strength sets the magnitude of the reverberation (the volume of the reverberation component). The echo signal strength is also a factor that can produce the difference between the sound in the water and in the air by making the echo signal strength of the reverberation characteristics in water larger than in the air for the same reason as the predelay and the reverberation time.

水中は陸上(空気中)に比べて、(1)残響成分が遠くまで届く、(2)音の伝播の直進性が強い、(3)水流などのノイズが多く、中周波数領域と高周波領域の残響成分が相対的に少なくなる、という特徴を考慮し、例えば、反射壁のない広い水中に対する水中用残響データの各パラメータは、例えば、プリディレイ:設定時間を「短」、「中」、「長」の3つに分けた場合、「長」に設定、リバーブタイム:設定時間を「短」、「中」、「長」の3つに分けた場合、「長」に設定、高周波減衰:減衰させる周波数領域を「低域」、「中域」、「高域」の3つに分けた場合、減衰域を「中域」と「高域」に設定、クロストーク:クロストークの音量を「小」、「中」、「大」の3つに分けた場合、「小」に設定、反響信号強度:反響信号の音量を「小」、「中」、「大」の3つに分けた場合、「大」に設定、となっている。   Compared to land (in air), underwater (1) reverberation components reach far, (2) sound propagation straightness is strong, (3) much noise such as water flow, medium frequency region and high frequency region In consideration of the characteristic that the reverberation component is relatively reduced, for example, each parameter of the underwater reverberation data for wide water without a reflecting wall is, for example, pre-delay: setting time is “short”, “medium”, “ When divided into 3 of "long", set to "long", Reverb time: When divided into 3 of "short", "middle" and "long", set to "long", high frequency attenuation: When the frequency range to be attenuated is divided into three parts, "Low," "Mid," and "High," the attenuation is set to "Mid" and "High," and crosstalk: Volume of crosstalk is set When divided into "small", "medium" and "large", it is set to "small", echo signal strength: echo signal The amount "small", "medium", if that were divided into three "large", has been set, and the "large".

一方、例えば、反射壁のない広い草原に対する陸上用残響データの各パラメータは、プリディレイ:「短」に設定、リバーブタイム:「短」に設定、高周波減衰:減衰域を「高域」に設定(水中よりも減衰域を高い領域に設定)、クロストーク:「小」から「中」に設定(水中よりも大きく設定)、反響信号強度:「小」に設定、となっている。   On the other hand, for example, each parameter of the land reverberation data for wide grassland without reflection wall is set to "pre-delay: short", reverb time: "short", high frequency attenuation: attenuation range to "high band" (Attenuation range is set higher than underwater), Crosstalk: set from "small" to "medium" (set larger than underwater), echo signal strength: set to "small".

なお、上記の水中用残響データと陸上用残響データの各パラメータの相違は、一般的な傾向を示すものである。残響特性は、媒質の音の伝播特性だけでなく、発音位置の周りにある反射物や反射体の影響を受けるから、陸上のゲーム場面によっては、陸上用残響データのいずれかのパラメータが水中用残響データのパラメータと同一もしくは上記の傾向とは逆になる場合もある。水上のゲーム場面についても同様である。   The difference between the parameters of the above-mentioned underwater reverberation data and the above-mentioned ground reverberation data shows a general tendency. Since the reverberation characteristics are affected not only by the sound propagation characteristics of the medium, but also by the reflectors and reflectors around the sound generation position, depending on the game scene on land, one of the parameters of the land reverberation data is underwater It may be the same as the parameters of the reverberation data or the opposite of the above tendency. The same applies to the game scene on the water.

従って、陸上用残響データの中には、反射特性の異なるゲーム場面(例えば、開放された草原場面と洞窟内の場面など)に応じて上記のパラメータを適宜変更した複数の残響データが含まれている。例えば、洞窟内の陸上用残響データでは、プリディレイ:「中」に設定洞窟内の空間で反響するから)、リバーブタイム:「中」に設定(洞窟内の空間で反響するから)、高周波減衰:減衰域を「低域」に設定、クロストーク:「大」に設定(洞窟壁の反射により反響音が拡散するから)、反響信号強度:「大」に設定、となる。   Therefore, the land reverberation data includes a plurality of reverberation data in which the above parameters are appropriately changed according to the game scenes having different reflection characteristics (for example, the open grassland scene and the scene in a cave). There is. For example, in the case of land reverberation data in a cave, pre-delay: set to "middle" to reflect in the cave space), reverb time: set to "middle" (because to echo in the cave space), high frequency attenuation : Attenuation zone is set to "low range", crosstalk: set to "large" (because echo is diffused by reflection of the cave wall), echo signal strength: set to "large".

なお、反射特性の異なるゲーム場面に応じてパラメータを適宜変更した複数の残響データが含まれることは、水中用残響データについても同様である。   Note that the inclusion of a plurality of reverberation data in which parameters are appropriately changed according to game scenes having different reflection characteristics is the same as in the underwater reverberation data.

図7は、上述した4つのケースにおける効果音の生成処理を示したものである。具体的には、図7は、ケース(陸上,陸上)、ケース(水中,陸上)、ケース(陸上,水中)、ケース(水中,水中)の各ケースにおける減衰処理、フィルタリング処理、残響処理などの内容を示したものである。   FIG. 7 shows the process of generating sound effects in the four cases described above. Specifically, FIG. 7 shows attenuation processing, filtering processing, reverberation processing, and the like in each case (land, land), case (underwater, land), case (land, underwater), and case (underwater, underwater). It shows the contents.

図7において、「LPF処理の有無」はローパスフィルタリング処理をするか否かを示す欄である。「減衰特性の種類」は陸上用減衰データと水中用減衰データのいずれを使用するかを示す欄である。「媒質変化による音量変化率Kd」は音が異なる媒質を進行する際に媒質の境界で音が反射することに起因する音量の変化の割合を示す欄である。「陸上用残響特性(付加量Krv)」は陸上用残響特性を使用するか否かを示す欄であり、「水中用残響特性(付加量Krv)」は水中用残響特性を使用するか否かを示す欄である。また、両欄の(付加量Krv)は、原音から生成される残響音を当該原音に付加する際の音量の割合を示すものである。   In FIG. 7, “presence or absence of LPF processing” is a column indicating whether or not low-pass filtering processing is performed. "Attenuation characteristic type" is a column indicating which of land attenuation data and underwater attenuation data is used. The “volume change rate Kd due to medium change” is a column indicating the rate of change in volume caused by the reflection of sound at the boundary of the medium when the sound travels through different media. "Land reverberation characteristics (added amount Krv)" is a column indicating whether or not to use the land reverberation characteristics, "water reverberation characteristics (added amount Krv)" whether to use the underwater reverberation characteristics Is a column indicating. Further, (added amount Krv) in both columns indicates the ratio of the volume when the reverberation sound generated from the original sound is added to the original sound.

図7に示すように、LPF処理は、発音位置MPが陸上の場合(ケース(陸上,水中)とケース(陸上,陸上))は行われず、発音位置MPが水中の場合(ケース(水中,陸上)とケース(水中,水中))に行われる。これは、音声発生源が水中の場合、原音データの高周波成分をカットして水中の感じを演出するための処理である。   As shown in FIG. 7, the LPF processing is not performed when the sound generation position MP is on land (case (land, underwater) and case (land, on land)), and when the sound generation position MP is underwater (case (underwater, land) And cases (underwater, underwater))). This is processing for cutting the high frequency component of the original sound data to produce an underwater feeling when the sound generation source is underwater.

減衰特性の適用については、聴音位置HPが陸上の場合(ケース(水中,陸上)とケース(陸上,陸上))には陸上用減衰データ(図6の減衰データD1参照)が適用され、聴音位置HPが水中の場合(ケース(陸上,水中)とケース(水中,水中))には水中用減衰データ(図6の減衰データD2参照)が適用される。ケース(陸上,陸上)の場合に陸上用減衰データを適用し、ケース(水中,水中)の場合に水中用減衰データを適用するのは、両減衰データをそれぞれ対応するケースのために作成しているから、当然の適用である。   As for the application of the attenuation characteristics, the attenuation data for land (see attenuation data D1 in FIG. 6) is applied to the case where the listening position HP is on land (case (underwater, onshore) and case (overland, onshore)). When HP is underwater (case (land, water) and case (water, water)), attenuation data for water (see attenuation data D2 in FIG. 6) is applied. Applying the ground attenuation data in the case (land, land) and applying the underwater attenuation data in the case (water, water) creates both attenuation data for the corresponding case. Because it is, it is a natural application.

一方、ケース(水中,陸上)の場合は、発音位置MPから聴音位置HPまでの音の伝播経路に水中の区間と陸上の区間が存在するので、正確には水中の区間では水中用減衰データを適用し、陸上の区間では陸上用減衰データを適用すべきであるが、本実施形態では、可及的に自然に聞こえることを条件に減衰処理の簡素化を図るために、陸上用減衰データと水中用減衰データのいずれか一方を適用することとし、聴音位置HPの媒質の減衰データ(陸上用減衰データD1参照)を適用するように設定している。ケース(陸上,水中)の場合も同様で、水中用減衰データD2を適用するように設定している。   On the other hand, in the case (underwater, onshore), there is an underwater section and an onshore section in the sound propagation path from the sound generation position MP to the listening position HP, so the underwater attenuation data is In the land section, the land attenuation data should be applied, but in the present embodiment, the land attenuation data is applied in order to simplify the attenuation processing on the condition that the sound can be heard as naturally as possible. One of the underwater attenuation data is to be applied, and the attenuation data of the medium at the listening position HP (see the terrestrial attenuation data D1) is set to be applied. The same applies to the case (land, water), and the attenuation data for water D2 is set to be applied.

「媒質変化による音量変化率Kd」の欄は、発音位置MPから聴音位置HPまでの伝播経路に水中と陸上の両方が含まれる場合、その境界面で音の反射に起因して音量が不連続に減少するのを表現するための処理を示している。音の伝播経路が水中または陸上だけの場合(ケース(陸上,陸上)とケース(水中,水中))は、媒質の境界面が存在しないので、同欄の内容は、音量の変化率Kdを1.0で処理する内容、すなわち、音量を変化させる処理をしない内容になっている。   In the column of “volume change rate Kd due to medium change”, when both underwater and land are included in the propagation path from the sound generation position MP to the listening position HP, the volume is discontinuous due to the reflection of sound at the interface. Shows the process for expressing the decrease. In the case where the sound propagation path is only underwater or on land (case (land, land) and case (underwater, water)), the content of the same column indicates that the volume change rate Kd is 1 because there is no medium interface. The contents to be processed in .0, that is, the contents not to change the volume are processed.

一方、音の伝播経路に水中と陸上の両方が含まれる場合(ケース(水中,陸上)とケース(陸上,水中))は、媒質の境界面が存在するので、その境界面での音量変化を表現するために、同欄の内容は、音量の変化率Kdを1.0より小さい値で処理する内容になっている。本実施形態では、ケース(水中,陸上)では音量を0.6倍に減少させ、ケース(陸上,水中)では音量を0.5倍に減少させるように設定している。なお、これらの音量変化率Kdは設計事項であるので、他の数値を適宜設定することができる。   On the other hand, when the sound propagation path includes both water and land (case (water, land) and case (land, water)), the boundary of the medium exists, so the volume change at the boundary is In order to express, the contents of the same column are contents for processing the volume change rate Kd with a value smaller than 1.0. In the present embodiment, the volume is reduced by 0.6 times in the case (underwater, land), and the volume is reduced by 0.5 times in the case (land, underwater). In addition, since these volume change rates Kd are design matters, other numerical values can be set as appropriate.

残響特性の適用について、聴音位置HPが陸上の場合(ケース(水中,陸上)とケース(陸上,陸上))には陸上用残響データが適用され、聴音位置HPが水中の場合(ケース(陸上,水中)とケース(水中,水中))には水中用残響データが適用される。ケース(陸上,陸上)の場合に陸上用残響データを適用し、ケース(水中,水中)の場合に水中用残響データを適用する理由は、両残響データをそれぞれ対応するケースのために作成しているから、減衰特性の適用の場合と同様、当然の適用である。   Regarding the application of reverberation characteristics, when the listening position HP is on land (case (under water, on land) and case (on land, on land)), the reverberation data for on land is applied, and when the listening position HP is under water (case (on land, Underwater reverberation data apply to underwater) and cases (underwater, underwater). The ground reverberation data is applied in the case (land, land), and the reason for applying the underwater reverberation data in the case (water, water) is to create both reverberation data for the corresponding cases. Therefore, it is a natural application as well as the application of the attenuation characteristic.

一方、ケース(水中,陸上)とケース(陸上,水中)の場合に聴音位置HPの媒質の減衰データを適用する設定にしているのは、減衰特性の適用の場合と同様の理由によるものである。従って、ケース(水中,陸上)では陸上用残響データを適用し、ケース(陸上,水中)では水中用残響データを適用する設定となっている。   On the other hand, the reason for setting the attenuation data of the medium of the listening position HP in the case (underwater, land) and the case (land, underwater) is the same as in the case of the application of the attenuation characteristic. . Therefore, in the case (underwater, land), the reverberation data for land is applied, and in the case (land, water), the reverberation data for water is applied.

なお、ケース(水中,陸上)とケース(陸上,水中)では伝播経路で媒質の変化があるので、その変化に基づき残響効果がケース(陸上,陸上)やケース(水中,水中)よりも低下することを考慮し、残響成分の音量レベルを低下させる処理を行うようにしている。ケース(水中,陸上)の陸上用残響特性の付加量Krvを0.8(残響音の音量を80%に減少)とし、ケース(陸上,水中)の水中用残響特性の付加量Krvを0.5(残響音の音量を50%に減少)としているのはその処理をすることを示している。   In the case (in the water, on the land) and in the case (on the ground, in the water), there is a change in the medium in the propagation path, so the reverberation effect is lower than in the case (on the land, on the land) or the case (in the water, in the water). To reduce the volume level of the reverberation component. Assuming that the additional amount Krv of the on-site reverberation characteristic of the case (underwater, onshore) is 0.8 (the volume of the reverberation is reduced to 80%), the additional amount Krv of the underwater reverberation characteristic of the case (onshore or underwater) is 0. Setting 5 (the volume of the reverberation to 50%) indicates that the processing is to be performed.

ケース(陸上,水中)の残響特性の付加量Krvをケース(水中,陸上)の残響特性の付加量Krvよりも小さくしているのは、残響成分の聞こえ方が水中の方が陸上の方よりも大きく聞こえることから、媒質が変化する前の媒質の残響特性を反映したものである。媒質が変化する前の状態では、ケース(水中,陸上)の方がケース(陸上,水中)の方よりも残響成分が多いから、媒質の変化により残響成分が低下するとしても、全体としてはケース(水中,陸上)の方がケース(陸上,水中)の方よりも残響成分が大きくなるようにしている。なお、これらの残響成分の付加量Krvも設計事項であるので、他の数値を適宜設定することができる。   The amount of reverberation characteristic added in the case (land, water) Krv is smaller than the amount of reverberation added in the case (water, land) Krv. It also reflects the reverberation characteristics of the medium before it changes. In the state before the medium changes, the case (underwater, land) has more reverberation components than the case (overland, water), so even if the reverberation component decreases due to the change of the medium, the case as a whole The reverberation component of (in water, on land) is made larger than that of the case (on land, in water). Since the additional amount Krv of these reverberation components is also a design matter, other numerical values can be set as appropriate.

図8は、本発明に係る効果音の生成処理プログラムを実行することによって実現される等価的な効果音生成回路を示す図である。   FIG. 8 is a view showing an equivalent sound effect generation circuit realized by executing the sound effect generation processing program according to the present invention.

同図に示す効果音生成回路30は、フィルタ回路31と、3個の音量調整回路32,33,34と、2個のリバーブ回路35,36と、2個の信号混合回路37,38とで構成される。   The sound effect generation circuit 30 shown in the figure includes a filter circuit 31, three volume control circuits 32, 33, 34, two reverb circuits 35, 36, and two signal mixing circuits 37, 38. Configured

効果音生成回路30においては、音声信号(原音データ)がフィルタ回路31に入力され、フィルタ回路31の出力信号は第1の音量調整回路32を介して第1の信号混合回路37に入力される。また、フィルタ回路31の出力信号は第1のリバーブ回路35と第2のリバーブ回路36とに入力される。第1のリバーブ回路35の出力信号は第2の音量調整回路33を介して第1の信号混合回路37に入力され、第2のリバーブ回路36の出力信号は第3の音量調整回路34を介して第2の信号混合回路38に入力される。第1の信号混合回路37では第1の音量調整回路32を介して入力されたフィルタ回路31の出力信号と第2の音量調整回路33を介して入力された第1のリバーブ回路35の出力信号とが混合され、第2の信号混合回路38では第3の音量調整回路34を介して入力された第2のリバーブ回路36の出力信号と第1の信号混合回路37の出力信号とが混合され、その混合信号が効果音として出力される。   In the sound effect generation circuit 30, an audio signal (original sound data) is input to the filter circuit 31, and an output signal of the filter circuit 31 is input to the first signal mixing circuit 37 via the first volume adjustment circuit 32. . Further, the output signal of the filter circuit 31 is input to the first reverberation circuit 35 and the second reverberation circuit 36. The output signal of the first reverberation circuit 35 is input to the first signal mixing circuit 37 via the second volume adjustment circuit 33, and the output signal of the second reverberation circuit 36 is via the third volume adjustment circuit 34. The signal is then input to the second signal mixing circuit 38. In the first signal mixing circuit 37, the output signal of the filter circuit 31 input through the first volume adjustment circuit 32 and the output signal of the first reverberation circuit 35 input through the second volume adjustment circuit 33 And the second signal mixing circuit 38 mixes the output signal of the second reverberation circuit 36 input through the third volume adjustment circuit 34 and the output signal of the first signal mixing circuit 37. , The mixed signal is output as a sound effect.

フィルタ回路31は、外部からカットオフ周波数fcを設定することができるローパスフィルタである。フィルタ回路31は、カットオフ周波数fcが設定されると、ローパスフィルタとして動作し、カットオフ周波数fcが設定されなければ、入力信号をスルーさせる回路(フィルタ機能のない回路)として機能する。フィルタ回路31は、図7の「LPF処理の有無」の欄に対応するLPF処理をする回路であり、「LPF処理の有無」の欄で「有り」が設定されている場合は、CPU11からフィルタ回路31にカットオフ周波数fcが設定され、「無し」が設定されている場合は、CPU11からフィルタ回路31にカットオフ周波数fcは設定されない。   The filter circuit 31 is a low pass filter that can set the cutoff frequency fc externally. The filter circuit 31 operates as a low pass filter when the cut-off frequency fc is set, and functions as a circuit (circuit without a filter function) that passes the input signal if the cut-off frequency fc is not set. The filter circuit 31 is a circuit that performs the LPF processing corresponding to the column of "presence or absence of LPF processing" in FIG. 7, and when "presence" is set in the "presence or absence of LPF processing", the filter from the CPU 11 When the cutoff frequency fc is set in the circuit 31 and “none” is set, the cutoff frequency fc is not set in the filter circuit 31 from the CPU 11.

第1の音量調整回路32は、図7の「減衰特性の種類」と「媒質変化による音量変化率Kd」の欄に対応する減衰処理をする回路である。第1の音量調整回路32は、CPU11から音量調整情報が入力され、その音量調整情報を用いてフィルタ回路31の出力信号のレベルを調整する。   The first volume adjustment circuit 32 is a circuit that performs attenuation processing corresponding to the columns of “type of attenuation characteristic” and “volume change rate Kd due to medium change” in FIG. 7. The first volume adjustment circuit 32 receives the volume adjustment information from the CPU 11 and adjusts the level of the output signal of the filter circuit 31 using the volume adjustment information.

第1の音量調整回路32は、フィルタ回路31から出力される音声信号SLFのレベルに係数K1を乗じて当該音声信号SLFの音量を調整する。従って、この係数K1を第1の音量調整回路32の音量調整値とすると、CPU11から第1の音量調整回路32に音量調整値K1が入力される。この音量調整値K1は、図7の「媒質変化による音量変化率Kd」の欄の比率Kdと図6に示した陸上用減衰データD1または水中用減衰データD2によって算出されるレベルKrまたはKr’を乗じて算出される値(Kd×KrまたはKd×Kr’)である。 First volume control circuit 32, the level of the audio signal S LF output from the filter circuit 31 is multiplied by a coefficient K1 to adjust the volume of the audio signal S LF. Therefore, assuming that the coefficient K1 is the volume adjustment value of the first volume adjustment circuit 32, the volume adjustment value K1 is input from the CPU 11 to the first volume adjustment circuit 32. The volume adjustment value K1 is a level Kr or Kr ′ calculated by the ratio Kd in the column of “volume change rate Kd due to medium change” in FIG. 7 and the attenuation data D1 for land or attenuation data D2 for water shown in FIG. It is a value (Kd × Kr or Kd × Kr ′) calculated by multiplying

CPU11は、例えば、発音位置MPと聴音位置HPとの間の距離LがLrの場合(図6参照)、ケース(陸上,陸上)であれば、点PrのレベルKrと「媒質変化による音量変化率Kd」の欄の比率Kd=1.0を乗じて音量調整値K1=1.0×Krを算出し、その算出値を第1の音量調整回路32に設定する。ケース(水中,水中)であれば、CPU11は、上記のレベルKrに代えて点Pr’のレベルKr’を用いて算出した音量調整値K1=1.0×Kr’を第1の音量調整回路32に設定する。   If, for example, the distance L between the sound generation position MP and the listening position HP is Lr (see FIG. 6), the CPU 11 determines that the volume change due to the medium change The volume adjustment value K1 = 1.0 × Kr is calculated by multiplying the ratio Kd = 1.0 in the column of “ratio Kd”, and the calculated value is set in the first volume adjustment circuit 32. In the case (in the water, in the water), the CPU 11 performs the first volume adjustment circuit for the volume adjustment value K1 = 1.0 × Kr ′ calculated using the level Kr ′ of the point Pr ′ instead of the above level Kr. Set to 32.

また、ケース(水中,陸上)であれば、CPU11は、点PrのレベルKrと「媒質変化による音量変化率」の欄の比率Kd=0.6を乗じて音量調整値K1=0.6×Krを算出し、その算出値を第1の音量調整回路32に設定する。ケース(陸上,水中)であれば、CPU11は、点Pr’のレベルKr’と「媒質変化による音量変化率」の欄の比率Kd=0.5を乗じて音量調整値K1=0.5×Krを算出し、その算出値を第1の音量調整回路32に設定する。 Further, in the case (underwater, land), the CPU 11 multiplies the level Kr of the point Pr and the ratio Kd of the column of “volume change rate due to medium change” = 0.6 to adjust the volume adjustment value K1 = 0.6 × Kr is calculated, and the calculated value is set in the first volume adjustment circuit 32. In the case (land, underwater), the CPU 11 multiplies the level Kr ′ of the point Pr ′ by the ratio Kd = 0.5 of the “volume change rate due to medium change” to obtain the volume adjustment value K1 = 0.5 × Kr is calculated, and the calculated value is set in the first volume adjustment circuit 32.

従って、第1の信号混合回路37にはK1×SLF(0<K1≦1)の音声信号が入力される。 Therefore, an audio signal of K1 × S LF (0 <K1 ≦ 1) is input to the first signal mixing circuit 37.

第1のリバーブ回路35と第2の音量調整回路33は、図7の「陸上用残響特性(付加量Krv)」の欄に対応する減衰処理をする回路である。第1のリバーブ回路35にはCPU11から回路を動作させるか否かの信号(リバーブ有り/無しの信号)と陸上用残響データ(プリディレイ、リバーブタイム、高周波減衰、クロストーク、反響信号強度などの各パラメータのデータ)が入力される。CPU11からリバーブ有りの信号が入力されると、第1のリバーブ回路35は陸上用のリバーブ回路として動作し、フィルタ回路31から入力される音声信号SLFを用いて残響信号Srvを生成する。 The first reverberation circuit 35 and the second volume adjustment circuit 33 are circuits for performing attenuation processing corresponding to the "land reverberation characteristics (additional amount Krv)" column in FIG. In the first reverberation circuit 35, a signal indicating whether or not to operate the circuit from the CPU 11 (signal with / without reverb) and reverberation data for land (pre-delay, reverb time, high frequency attenuation, crosstalk, echo signal strength, etc.) Data of each parameter is input. When a signal with reverb is input from the CPU 11, the first reverberation circuit 35 operates as a reverberation circuit for land, and generates the reverberation signal Srv using the audio signal S LF input from the filter circuit 31.

第2の音量調整回路33は、第1のリバーブ回路35から出力される残響信号Srvのレベルに音量調整値K2(0<K2≦1)を乗じて当該残響信号Srvの音量を調整する回路である。この音量調整値K2は、図7の「陸上用残響特性(付加量Krv)」の欄の付加量Krvと図6に示した陸上用減衰データD1によって算出されるレベルKrを乗じて算出される値(Krv×Kr)である。残響信号Srvにも距離による減衰を考慮する必要があるので、音量調整値K1と同様に、付加量Krvに陸上用減衰データD1によって算出されるレベルKrを乗じている。   The second volume adjustment circuit 33 is a circuit that adjusts the volume of the reverberation signal Srv by multiplying the level of the reverberation signal Srv output from the first reverberation circuit 35 by the volume adjustment value K2 (0 <K2 ≦ 1). is there. The volume adjustment value K2 is calculated by multiplying the additional amount Krv in the "land reverberation characteristic (added amount Krv)" column of FIG. 7 by the level Kr calculated by the land attenuation data D1 shown in FIG. It is a value (Krv × Kr). Since it is necessary to consider the attenuation due to the distance also for the reverberation signal Srv, the additional amount Krv is multiplied by the level Kr calculated by the ground attenuation data D1, as in the case of the volume adjustment value K1.

従って、ケース(陸上,水中)とケース(水中,水中)の場合は、第1のリバーブ回路35がリバーブ回路として機能しないので、第2の音量調整回路33からは残響信号Srvは出力されず、第1の信号混合回路37には残響信号Srvは入力されない。   Therefore, in the case (land, water) and the case (water, water), the first reverberation circuit 35 does not function as a reverberation circuit, so the second volume adjustment circuit 33 does not output the reverberation signal Srv, The reverberation signal Srv is not input to the first signal mixing circuit 37.

一方、ケース(陸上,陸上)とケース(水中,陸上)の場合は、第1のリバーブ回路35から陸上用残響データに基づいて残響信号Srvが生成され、その残響信号Srvのレベルが第2の音量調整回路33でK2倍に調整されて第1の信号混合回路37に入力される。すなわち、ケース(陸上,陸上)の場合は、残響信号SrvのレベルがK2=Krv×Kr=Kr倍にレベル調整されて第1の信号混合回路37に入力され、ケース(水中,陸上)の場合は、残響信号SrvのレベルがK2=Krv×Kr=0.8×Kr倍にレベル調整されて第1の信号混合回路37に入力される。   On the other hand, in the case (land, land) and the case (underwater, land), the reverberation signal Srv is generated from the first reverberation circuit 35 based on the land reverberation data, and the level of the reverberation signal Srv is the second. The signal is adjusted to K2 times by the volume adjustment circuit 33 and input to the first signal mixing circuit 37. That is, in the case (land, land), the level of the reverberation signal Srv is adjusted to K2 = Krv × Kr = Kr times and input to the first signal mixing circuit 37, and in the case (water, land) The level of the reverberation signal Srv is adjusted to K2 = Krv × Kr = 0.8 × Kr times and input to the first signal mixing circuit 37.

第2のリバーブ回路36と第3の音量調整回路34は、図7の「水中用残響特性(付加量Krv)」の欄に対応する減衰処理をする回路である。第2のリバーブ回路36の構成及び動作は、「水中用残響特性(付加量Krv)」の欄の情報と水中用残響データを用いる点を除いて上述した第1のリバーブ回路35と同様である。また、第3の音量調整回路34の構成及び動作も「水中用残響特性(付加量Krv)」の欄の情報と水中用減衰データD2によって算出されるレベルKr'を用いる点を除いて上述した第2の音量調整回路33と同様である。   The second reverberation circuit 36 and the third volume adjustment circuit 34 are circuits for performing attenuation processing corresponding to the column of "underwater reverberation characteristics (added amount Krv)" in FIG. The configuration and operation of the second reverberation circuit 36 are the same as those of the first reverberation circuit 35 described above except that the information in the column of "underwater reverberation characteristics (added amount Krv)" and the underwater reverberation data are used. . In addition, the configuration and operation of the third volume adjustment circuit 34 are also described above except that the information in the column of “water reverberation characteristics (added amount Krv)” and the level Kr ′ calculated by the underwater attenuation data D2 are used. Similar to the second volume adjustment circuit 33.

従って、ケース(陸上,陸上)とケース(水中,陸上)の場合は、第2のリバーブ回路36がリバーブ回路として機能しないので、第3の音量調整回路34からは残響信号Srvは出力されず、第2の信号混合回路38には残響信号Srvは入力されない。   Therefore, in the case (land, land) and the case (underwater, land), the second reverberation circuit 36 does not function as a reverberation circuit, so the third volume adjustment circuit 34 does not output the reverberation signal Srv, The reverberation signal Srv is not input to the second signal mixing circuit 38.

一方、ケース(陸上,水中)とケース(水中,水中)の場合は、第2のリバーブ回路36から水中用残響データに基づいて残響信号Srvが生成され、第3の音量調整回路34でその残響信号Srvのレベルに音量調整値K3(0<K3≦1)を乗じてレベル調整がされた後、第2の信号混合回路38に入力される。なお、第3の音量調整回路34には、CPU11から「水中用残響特性(付加量Krv)」の欄の付加量Krvと図6に示した水中用減衰データD2によって算出されるレベルKr'を乗じて算出される値(Krv×Kr')が音量調整値K3として設定される。   On the other hand, in the case (land, water) and case (water, water), the second reverberation circuit 36 generates a reverberation signal Srv based on the underwater reverberation data, and the third volume adjustment circuit 34 generates the reverberation signal Srv. After the level of the signal Srv is multiplied by the volume adjustment value K3 (0 <K3 ≦ 1) to adjust the level, the signal is input to the second signal mixing circuit 38. In the third volume adjustment circuit 34, a level Kr 'calculated by the CPU 11 using the additional amount Krv in the column "underwater reverberation characteristics (additional amount Krv)" and the underwater attenuation data D2 shown in FIG. A value (Krv × Kr ′) calculated by multiplication is set as the volume adjustment value K3.

ケース(水中,水中)の場合は、残響信号SrvのレベルがK3=Krv×Kr'=Kr'倍にレベル調整されて第2の信号混合回路38に入力され、ケース(陸上,水中)の場合は、残響信号SrvのレベルがK3=Krv×Kr'=0.5×Kr'倍にレベル調整されて第2の信号混合回路38に入力される。   In the case (in the water, water), the level of the reverberation signal Srv is adjusted to K3 = Krv × Kr ′ = Kr ′ times and input to the second signal mixing circuit 38, and in the case (land, water) The level of the reverberation signal Srv is adjusted to K3 = Krv × Kr ′ = 0.5 × Kr ′ times and input to the second signal mixing circuit 38.

第1の信号混合回路37では、第1の音量調整回路32によってレベル調整が行われたフィルタ回路31からの音声信号K1×SLFと、第2の音量調整回路33によってレベル調整が行われた残響信号K2×Srvが混合され、第2の信号混合回路38では、第1の信号混合回路37から出力される混合信号(K1×SLF+K2×Srv)と、第3の音量調整回路34によってレベル調整が行われた残響信号K3×Srvが混合される。 In the first signal mixing circuit 37, the audio signal K1 × S LF from the filter circuit 31 whose level has been adjusted by the first volume adjustment circuit 32, and the level adjustment performed by the second volume adjustment circuit 33. The reverberation signal K2 × Srv is mixed, and in the second signal mixing circuit 38, the mixed signal (K1 × S LF + K2 × Srv) output from the first signal mixing circuit 37 and the third volume adjustment circuit 34. The reverberation signal K3 × Srv for which the level adjustment has been performed is mixed.

第1のリバーブ回路35と第2のリバーブ回路36は、いずれか一方しか動作しないので、効果音生成回路30からは、第1の音量調整回路32によってレベル調整された音声信号K1×SLFと第2の音量調整回路33によってレベル調整された第1のリバーブ回路35からの残響信号K2×Srvとを混合した混合信号(K1×SLF+K2×Srv)と、同音声信号K1×SLFと第3の音量調整回路33によってレベル調整された第2のリバーブ回路36からの残響信号K3×Srvとを混合した混合信号(K1×SLF+K3×Srv)のいずれかが効果音として出力される。 Since only one of the first reverberation circuit 35 and the second reverberation circuit 36 operates, the sound effect generation circuit 30 outputs an audio signal K1 × S LF whose level is adjusted by the first volume adjustment circuit 32. A mixed signal (K1 × S LF + K2 × Srv) obtained by mixing the reverberation signal K2 × Srv from the first reverberation circuit 35 whose level is adjusted by the second volume adjustment circuit 33, and the same audio signal K1 × S LF One of mixed signals (K1 × S LF + K3 × Srv) obtained by mixing the reverberation signal K3 × Srv from the second reverberation circuit 36 whose level is adjusted by the third volume adjustment circuit 33 is output as an effect sound .

次に、本発明に係る効果音の生成処理について、図9,図10のフローチャートを用いて説明する。なお、以下の説明では、ゲーム展開のあるタイミングでモンスターMが咆哮Sを発する場面における当該咆哮音Sの生成処理について説明する。また、上記の説明では、聴音位置TPをハンターHの位置HPとしたが、図9,図10のフローチャートの説明では、仮想カメラCの位置CPを聴音位置TPとし、「聴音位置TP」として説明する。 Next, the process of generating a sound effect according to the present invention will be described with reference to the flowcharts of FIGS. In the following description, the monster M at the timing with a game development is described generation processing of the roar sound S in a scene that emits roaring sound S. In the above description, the listening position TP is the position HP of the hunter H, but in the description of the flowcharts of FIGS. 9 and 10, the position CP of the virtual camera C is the listening position TP, and the “listening position TP” is described. Do.

表示部18には、1/30毎にコマ画像をVRAM16に生成する動作を繰り返すことによってゲーム画像が動画表示される。表示部18によるゲーム画像の表示によって展開されるゲーム中に、CPU11がモンスターM咆哮音Sを生成するプログラムを実行する処理に移行すると、CPU11は、RAM13に格納されている音響データから当該咆哮音Sの原音データを読み出し、図8に示した等価的な効果音生成回路30により咆哮音Sの生成処理を行う。 The game image is displayed as a moving image on the display unit 18 by repeating the operation of generating the frame image in the VRAM 16 every 1/30. During the game to be expanded by the display of the game image by the display unit 18, the CPU 11 shifts to processing for executing a program that generates a roar sound S monster M, CPU 11 is the acoustic data stored in the RAM13 The original sound data of the stuttering S is read out, and the processing of generating the stuttering S is performed by the equivalent sound effect generation circuit 30 shown in FIG.

原音データは、図5に示すように時間tの咆哮波形を有するデータであるから、何ら加工をすることなく当該原音データを再生すると、咆哮音Sの発生開始時から時間tが経過するまでに表示部18にモンスターMが姿勢変化や移動などの所定の動作するゲーム画像が表示されると、モンスターMがその動作をしている期間、原音データがそのまま再生されることになる。すなわち、この場合は、図8の等価的な効果音生成回路30内の各回路を、咆哮音Sの発生開始時に設定されたデフォルト値で時間tが経過するまで動作させることになる。 Since the original sound data is data having a spiked waveform of time t as shown in FIG. 5, when the original sound data is reproduced without any processing, time t elapses from the start of generation of the stuttering S. When monster M on the display section 18 is a game image to a predetermined operation, such as position change or movement is displayed, the period in which the monster M is the operation, so that the original sound data is reproduced as it is. That is, in this case, each circuit in the equivalent sound effect generation circuit 30 of FIG. 8 is operated until the time t elapses with the default value set at the start of generation of the noise S.

本発明に係る効果音の生成処理では、原音データが再生されている時間tの間、ゲーム空間におけるモンスターM(発音位置MP)及び仮想カメラCの位置CP(聴音位置TP)を1/30毎に算出する。そして、両者の位置関係に基づいて表示部18に表示させるゲーム画像を更新するのに合わせて、モンスターM(発音位置MP)及び仮想カメラCの位置CP(聴音位置TP)の位置情報を用いて効果音生成回路30内の各回路に設定される動作条件(図7の各欄の内容に従って設定される条件)を変化させて原音データの再生中に当該原音データの再生波形を変化させる処理が行われる。   In the process of generating sound effects according to the present invention, the monster M (the sound generation position MP) and the position CP (the sound generation position TP) of the virtual camera C in the game space are each 1/30 during the time t during which the original sound data is being reproduced. Calculate to Then, using the position information of the monster M (the sound generation position MP) and the position CP of the virtual camera C (the sound acquisition position TP) in accordance with updating the game image displayed on the display unit 18 based on the positional relationship between the two. A process of changing the operation waveform (condition set according to the contents of each column in FIG. 7) set in each circuit in the sound effect generation circuit 30 and changing the reproduction waveform of the original sound data while reproducing the original sound data To be done.

従って、図9に示すフローチャートのステップS2〜S12のループ処理は、1/30毎に繰り返し行われる処理手順を示し、この処理手順では図8の等価的な効果音生成回路30内の各回路に設定される動作条件を更新し、原音データを加工する処理が行われる。   Therefore, the loop processing of steps S2 to S12 of the flowchart shown in FIG. 9 shows a processing procedure which is repeatedly performed every 1/30, and in this processing procedure, each circuit in the equivalent sound effect generation circuit 30 of FIG. Processing is performed to update the set operating conditions and process the original sound data.

まず、モンスターMが咆哮音Sを発する場面になると(CPU11がゲームプログラムの効果音生成処理を実行するタイミングになると)、RAM13に格納されている音響データからその咆哮音Sの原音データが読み出される(S1)。続いて、ゲーム空間におけるモンスターMの位置の座標が取得される(S2)。図1(a)に示したように、ゲーム空間には三次元の直交座標系XYZが設定されており、モンスターMの動作はコンピュータによって制御されているので、ゲーム画像の描画処理においては、XYZ座標系におけるモンスターMの座標(Xm,Ym,Zm)は1/30秒毎に自動的に算出される。また、仮想カメラCのXYZ座標系における座標(Xc,Yc,Zc)も各エリアの初期画面ではデフォルト値が設定されており、プレイヤの操作キー4による移動操作の操作量に応じて1/30秒毎に当該デフォルト値の更新処理が行われるので、その更新値が仮想カメラCの座標として取得される。 First, when the monster M emits a roaring sound S (when the CPU 11 executes the sound effect generation process of the game program), the original sound data of the roaring sound S is read out from the sound data stored in the RAM 13 (S1). Subsequently, the coordinates of the position of the monster M in the game space are acquired (S2). As shown in FIG. 1A, a three-dimensional orthogonal coordinate system XYZ is set in the game space, and the operation of the monster M is controlled by the computer. The coordinates (Xm, Ym, Zm) of the monster M in the coordinate system are automatically calculated every 1/30 seconds. The coordinates (Xc, Yc, Zc) of the virtual camera C in the XYZ coordinate system are also set to default values on the initial screen of each area, and 1/30 according to the operation amount of the movement operation by the operation key 4 of the player. Since the update process of the default value is performed every second, the update value is acquired as the coordinates of the virtual camera C.

なお、本実施形態では、水中におけるモンスターMやハンターHの三次元画像が表示部18に表示されるので、図1(b)に示すように、直交座標系XYZのZ座標については水と空気の境界面を「0」とし、+方向を陸上(空気中)の領域A1、−方向を水中の領域A2を示すようにしている。従って、モンスターMや仮想カメラCが水中にいるか否かは、Z座標値がマイナスであるか否かによって判断される。   In the present embodiment, since the three-dimensional image of the monster M and the hunter H in water is displayed on the display unit 18, as shown in FIG. 1 (b), water and air are indicated for the Z coordinate of the orthogonal coordinate system XYZ. The boundary surface of is set to "0", and the + direction indicates the land (in air) area A1, and the-direction indicates the water area A2. Therefore, whether or not the monster M or the virtual camera C is in water is determined by whether or not the Z coordinate value is negative.

続いて、モンスターMのZ座標値(Zm)がZm≦0であるか否かを判別することによってモンスターMが水中にいるか否かが判別される(S3)。モンスターMが水中に存在すれば(S3:YES)、フラグF1が「1」に設定され(S4)、モンスターMが水中に存在しなければ、すなわち、モンスターMが陸上に存在すれば(S3:NO)、フラグF1が「0」に設定される(S5)。   Subsequently, it is determined whether or not the monster M is in water by determining whether or not the Z coordinate value (Zm) of the monster M is Zm ≦ 0 (S3). If the monster M exists in the water (S3: YES), the flag F1 is set to "1" (S4), and if the monster M does not exist in the water, that is, if the monster M exists on land (S3: (NO), the flag F1 is set to "0" (S5).

なお、フラグF1は、モンスターMが水中に存在するか否かを示すフラグであり、図9のフローチャートが開始される初期状態ではデフォルト値として「0」(陸上に存在することを示す)に設定されている。従って、F1=1は水中に存在することを示し、F1=0は陸上に存在することを示す。   The flag F1 is a flag indicating whether or not the monster M exists in the water, and is set to “0” (indicating that it is present on land) in the initial state where the flowchart of FIG. 9 is started. It is done. Thus, F1 = 1 indicates that it is present in water, and F1 = 0 indicates that it is present on land.

続いて、ゲーム空間における聴音位置TPの座標(XTP,YTP,ZTP)が取得される(S6)。この説明では、仮想カメラCの位置CPを聴音位置TPとしているので、(XTP,YTP,ZTP)=(Xc,Yc,Zc)が取得される。 Subsequently, the coordinates (X TP , Y TP , Z TP ) of the listening position TP in the game space are acquired (S6). In this description, since the position CP of the virtual camera C and the listening position TP, (X TP, Y TP , Z TP) = (Xc, Yc, Zc) is obtained.

続いて、仮想カメラCのZ座標値(Zc)がZc≦0であるか否かを判別することによって仮想カメラCが水中にあるか否かが判別される(S7)。仮想カメラCが水中にあれば(S7:YES)、フラグF2が「1」に設定され(S8)、仮想カメラCが水中になければ(S7:NO)、フラグF2が「0」に設定される(S9)。     Subsequently, it is determined whether the virtual camera C is in water by determining whether the Z coordinate value (Zc) of the virtual camera C is Zc ≦ 0 (S7). If the virtual camera C is underwater (S7: YES), the flag F2 is set to "1" (S8), and if the virtual camera C is not underwater (S7: NO), the flag F2 is set to "0" (S9).

なお、フラグF2は、仮想カメラC(正確には聴音位置TP)が水中にあるか否かを示すフラグであり、図9のフローチャートが開始される初期状態ではデフォルト値として「0」(陸上にあることを示す)に設定されている。従って、F2=1は水中にあることを示し、F2=0は陸上にあることを示す。   The flag F2 is a flag indicating whether the virtual camera C (accurately, the listening position TP) is in the water, and is “0” as a default value in the initial state where the flowchart of FIG. 9 is started. Indicates that there is a). Thus, F2 = 1 indicates that it is in water, and F2 = 0 indicates that it is on land.

続いて、フラグF1,F2の設定状態と図7に示す効果音の生成処理の内容とに基づいて、図8の等価的な効果音生成回路30の各回路に対する処理条件が決定される(S10)。   Subsequently, processing conditions for each circuit of the equivalent sound effect generation circuit 30 of FIG. 8 are determined based on the setting states of the flags F1 and F2 and the contents of the generation process of sound effects shown in FIG. 7 (S10 ).

図10は、ステップS10の処理条件を決定する処理手順を示す図である。   FIG. 10 is a diagram showing a processing procedure for determining the processing condition of step S10.

ステップS10に移行すると、フラグF1,F2の設定内容に基づいて効果音生成シーンが図7の4つのケースのいずれに該当するかが決定される。すなわち、フラグF1,F2の設定内容を(F1,F2)の2ビット情報であるとすると、(F1,F2)=(0,0)であれば(S21:NO,S23:NO)、効果音生成シーンのケースはケース(陸上,陸上)に決定され(S24)、(F1,F2)=(0,1)であれば(S21:NO,S23:YES)、効果音生成シーンのケースはケース(陸上,水中)に決定される(S25)。また、(F1,F2)=(1,1)であれば(S21:YES,S22:YES)、効果音生成シーンのケースはケース(水中,水中)に決定され(S26)、(F1,F2)=(1,0)であれば(S21:YES,S22:NO)、効果音生成シーンのケースはケース(水中,陸上)に決定される(S27)。 In step S10, it is determined which of the four cases in FIG. 7 the sound effect generation scene corresponds to, based on the setting contents of the flags F1 and F2. That is, assuming that the setting contents of the flags F1 and F2 are 2-bit information of (F1 and F2), if (F1 and F2) = (0,0) (S21: NO, S23: NO), the sound effect The case of the generated scene is determined to be the case (land, land) (S24), and if (F1, F2) = (0, 1) (S21: NO, S23: YES), the case of the sound effect generated scene is the case It is determined (on land, in water) (S25). If (F1, F2) = (1, 1) (S21: YES, S22: YES), the case of the sound effect generation scene is determined to be the case (underwater, underwater) (S26), (F1, F2) ) = (1, 0) (S21: YES, S22: NO), the case of the sound effect generation scene is determined to be the case (underwater, land) (S27).

そして、ステップS24〜S27で決定されたケースに対応する効果音生成条件、すなわち、等価的な効果音生成回路30の各回路に対する動作条件が設定される(S28)。   Then, the sound effect generation condition corresponding to the case determined in steps S24 to S27, that is, the operation condition for each circuit of the sound effect generation circuit 30 equivalent to the case is set (S28).

すなわち、(F1,F2)=(0,0)の場合は、図7のケース1の動作条件に従ってLPF処理のカットオフ周波数fcは「0」に決定される。   That is, in the case of (F1, F2) = (0, 0), the cutoff frequency fc of the LPF processing is determined to “0” according to the operating condition of Case 1 of FIG.

また、モンスターMの座標(Xm,Ym,Zm)と仮想カメラCの座標(Xc,Yc,Zc)から両者の距離Lr=√[(Xm−Xc)2+(Ym−Yc)2+(Zm−Zc)2]が算出され、この距離Lrと図6に示す陸上用減衰データD1から距離Lrにおける音量レベルKrが設定される。また、この音量レベルKrと「媒質変化による音量変化率Kd」の欄の音量変化率Kd=1.0とから第1の音量調整回路32に対する音量調整値K1=Krが設定される。 In addition, the distance Lr = [[(Xm−Xc) 2 + (Ym−Yc) 2 + (Zm) between the coordinates (Xm, Ym, Zm) of the monster M and the coordinates (Xc, Yc, Zc) of the virtual camera C -zc) 2] is calculated, the volume level Kr at a distance Lr from terrestrial attenuation data D1 shown in this distance Lr and 6 are set. Further, the volume adjustment value K1 = Kr for the first volume adjustment circuit 32 is set from the volume level Kr and the volume change ratio Kd = 1.0 in the column of "volume change ratio Kd due to medium change".

また、陸上用残響データに基づいて第1のリバーブ回路35に設定すべきプリディレイ、リバーブタイム、高周波減衰、クロストーク、反響信号強度などの各パラメータのデータが決定される。さらに、残響信号Srvの付加量Krv=1.0と図6に示した陸上用減衰データD1によって算出されるレベルKrを乗じて第2の音量調整回路33に対する音量調整値K2が「Kr」に決定される。なお、水中用残響データは使用しないので、第2のリバーブ回路36に対しては動作させないことが決定され、第3の音量調整回路34に対する音量調整値K3は設定されない。   In addition, data of each parameter such as pre-delay, reverb time, high frequency attenuation, crosstalk, echo signal strength, etc. to be set in the first reverberation circuit 35 is determined based on the land reverberation data. Further, the volume adjustment value K2 for the second volume adjustment circuit 33 is set to “Kr” by multiplying the additional amount Krv = 1.0 of the reverberation signal Srv by the level Kr calculated by the land attenuation data D1 shown in FIG. It is determined. Since the underwater reverberation data is not used, it is determined that the second reverberation circuit 36 is not operated, and the volume adjustment value K3 for the third volume adjustment circuit 34 is not set.

(F1,F2)=(1,0)の場合は、図7のケース2の動作条件に従ってLPF処理のカットオフ周波数fcが決定される。上記の説明では、例示として1200Hzのカットオフ周波数fcだけを示していたが、ゲーム全体としては、エリア毎にカットオフ周波数fcが設けられ、各エリアのゲーム場面では複数個設定されている場合があるので、ステップS28では、現在のゲーム場面に対応するカットオフ周波数fcが決定される。   In the case of (F1, F2) = (1, 0), the cutoff frequency fc of the LPF processing is determined according to the operating condition of Case 2 of FIG. In the above description, only the cutoff frequency fc of 1200 Hz is shown as an example, but in the whole game, a cutoff frequency fc is provided for each area, and a plurality of game scenes may be set for each area. Since there is, in step S28, the cutoff frequency fc corresponding to the current game scene is determined.

また、モンスターMの座標(Xm,Ym,Zm)と仮想カメラCの座標(Xc,Yc,Zc)から両者の距離Lrが算出され、この距離Lrと図6に示す陸上用減衰データD1から距離Lrにおける音量レベルKrが設定される。また、この音量レベルKrと「媒質変化による音量変化率Kd」の欄の音量変化率Kd=0.6とから第1の音量調整回路32に対する音量調整値K1=0.6×Krが設定される。   In addition, the distance Lr between the two is calculated from the coordinates (Xm, Ym, Zm) of the monster M and the coordinates (Xc, Yc, Zc) of the virtual camera C, and the distance Lr is calculated from the attenuation data D1 for land shown in FIG. The volume level Kr in Lr is set. Further, the volume adjustment value K1 = 0.6 × Kr for the first volume adjustment circuit 32 is set from the volume level Kr and the volume change ratio Kd = 0.6 in the “volume change ratio Kd due to medium change” column. Ru.

また、陸上用残響データに基づいて第1のリバーブ回路35に設定すべきプリディレイ、リバーブタイム、高周波減衰、クロストーク、反響信号強度などの各パラメータのデータが決定される。さらに、残響信号Srvの付加量Krv=0.8と図6に示した陸上用減衰データD1によって算出されるレベルKrを乗じて第2の音量調整回路33に対する音量調整情値K2が「0.8×Kr」に決定される。なお、水中用残響データは使用しないので、第2のリバーブ回路36に対しては動作させないことが決定され、第3の音量調整回路34に対する音量調整値K3は設定されない。   In addition, data of each parameter such as pre-delay, reverb time, high frequency attenuation, crosstalk, echo signal strength, etc. to be set in the first reverberation circuit 35 is determined based on the land reverberation data. Further, by multiplying the additional amount Krv of the reverberation signal Srv = 0.8 with the level Kr calculated by the on-ground attenuation data D1 shown in FIG. It is determined that “8 × Kr”. Since the underwater reverberation data is not used, it is determined that the second reverberation circuit 36 is not operated, and the volume adjustment value K3 for the third volume adjustment circuit 34 is not set.

(F1,F2)=(0,1)の場合は、図7のケース3の動作条件に従ってLPF処理のカットオフ周波数fcが「0」に決定される。   In the case of (F1, F2) = (0, 1), the cutoff frequency fc of the LPF processing is determined to be “0” according to the operation condition of Case 3 of FIG.

また、モンスターMの座標(Xm,Ym,Zm)と仮想カメラCの座標(Xc,Yc,Zc)から両者の距離Lrが算出され、この距離Lrと図6に示す水中用減衰データD2から距離Lrにおける音量レベルKr’が設定される。また、この音量レベルKr’と「媒質変化による音量変化率Kd」の欄の音量変化率Kd=0.5とから第1の音量調整回路32に対する音量調整値K1=0.5×Kr’が設定される。   Further, the distance Lr between the two is calculated from the coordinates (Xm, Ym, Zm) of the monster M and the coordinates (Xc, Yc, Zc) of the virtual camera C, and the distance Lr is a distance from the underwater attenuation data D2 shown in FIG. The volume level Kr 'at Lr is set. Further, the volume adjustment value K1 = 0.5 × Kr ′ for the first volume adjustment circuit 32 is obtained from the volume level Kr ′ and the volume change rate Kd = 0.5 in the “volume change rate Kd due to medium change” column. It is set.

また、水中用残響データに基づいて第2のリバーブ回路36に設定すべきプリディレイ、リバーブタイム、高周波減衰、クロストーク、反響信号強度などの各パラメータのデータが決定される。さらに、残響信号Srvの付加量Krv=0.5と図6に示した水中用減衰データD2によって算出されるレベルKr’を乗じて第3の音量調整回路34に対する音量調整値K3が「0.5×Kr’」に決定される。なお、陸上用残響データは使用しないので、第1のリバーブ回路35に対しては動作させないことが決定され、第2の音量調整回路33に対する音量調整値K2は設定されない。   In addition, data of each parameter such as pre-delay, reverb time, high frequency attenuation, crosstalk, echo signal intensity, etc. to be set in the second reverberation circuit 36 is determined based on the underwater reverberation data. Further, the volume adjustment value K3 for the third volume adjustment circuit 34 is “0..6” by multiplying the additional amount Krv = 0.5 of the reverberation signal Srv by the level Kr ′ calculated by the underwater attenuation data D2 shown in FIG. It is determined to be 5 × Kr ′. Since the land reverberation data is not used, it is determined that the first reverberation circuit 35 is not operated, and the volume adjustment value K2 for the second volume adjustment circuit 33 is not set.

(F1,F2)=(1,1)の場合は、図7のケース4の動作条件に従ってLPF処理のカットオフ周波数fcが決定される。また、モンスターMの座標(Xm,Ym,Zm)と仮想カメラCの座標(Xc,Yc,Zc)から両者の距離Lrが算出され、この距離Lrと図6に示す水中用減衰データD2から距離Lrにおける音量レベルKr’が設定される。また、この音量レベルKr’と「媒質変化による音量変化率Kd」の欄の音量変化率Kd=1.0とを乗じて第1の音量調整回路32に対する音量調整値K1が「Kr’」に設定される。   In the case of (F1, F2) = (1, 1), the cutoff frequency fc of the LPF processing is determined according to the operating condition of Case 4 of FIG. Further, the distance Lr between the two is calculated from the coordinates (Xm, Ym, Zm) of the monster M and the coordinates (Xc, Yc, Zc) of the virtual camera C, and the distance Lr is a distance from the underwater attenuation data D2 shown in FIG. The volume level Kr 'at Lr is set. Further, the volume adjustment value K1 for the first volume adjustment circuit 32 is set to "Kr '" by multiplying the volume level Kr' and the volume change ratio Kd = 1.0 of the "volume change ratio Kd due to medium change" column. It is set.

また、水中用残響データに基づいて第2のリバーブ回路36に設定すべきプリディレイ、リバーブタイム、高周波減衰、クロストーク、反響信号強度などの各パラメータのデータが決定され、残響信号Srvの付加量Krv=1.0と図6に示した水中用減衰データD2によって算出されるレベルKr’を乗じてから第3の音量調整回路34に対する音量調整値K3が「Kr’」に決定される。なお、陸上用残響データは使用しないので、第1のリバーブ回路35に対しては動作させないことが決定され、第2の音量調整回路33に対する音量調整値K2は設定されない。 Also, based on the underwater reverberation data, data of each parameter such as pre-delay, reverb time, high frequency attenuation, crosstalk, reverberation signal strength to be set in the second reverberation circuit 36 is determined, and reverberation signal Srv is added. The volume adjustment value K3 for the third volume adjustment circuit 34 is determined as " Kr '" after multiplying the amount Krv = 1.0 and the level Kr' calculated by the underwater attenuation data D2 shown in FIG. Since the land reverberation data is not used, it is determined that the first reverberation circuit 35 is not operated, and the volume adjustment value K2 for the second volume adjustment circuit 33 is not set.

ステップS10で処理条件が決定されると、その処理条件が図8の等価的な効果音生成回路30の各回路に設定され、原音データに対して各回路で所定の加工処理が行われて出力されている効果音の音量や音色(周波数成分)や残響特性を変化させる(S11)。   When the processing conditions are determined in step S10, the processing conditions are set in each circuit of the equivalent sound effect generation circuit 30 of FIG. 8, and predetermined processing is performed on the original sound data in each circuit and output. The volume and timbre (frequency component) and reverberation characteristics of the sound effect being changed are changed (S11).

上記のステップS2〜S11の処理は、モンスターMの咆哮音Sの発生開始からその咆哮音Sの原音データの再生時間tが経過するまで繰り返され(S2〜S12のループ処理)、咆哮音Sの原音データの再生時間tが経過すると(S12:YES)、効果音の生成処理は終了する。 The processing of the above steps S2 to S11 is repeated until the reproduction time t of the original sound data of the stutter S elapses from the start of the generation of the stutter S of the monster M (loop processing of S2 to S12). When the reproduction time t of the original sound data has elapsed (S12: YES), the generation process of the sound effect ends.

図11は、本発明に係る効果音生成処理により発生される効果音の波形の変化の一例を示す図である。同図(a)〜(d)の横軸は時間を示し、縦軸は咆哮音Sのレベルを示している。   FIG. 11 is a view showing an example of the change of the waveform of the sound effect generated by the sound effect generation process according to the present invention. The horizontal axis of the figure (a)-(d) has shown time, and the vertical axis has shown the level of the stuttering S. As shown in FIG.

同図(a)は、仮想カメラCが陸上の所定の位置に固定され、モンスターMが陸上で咆哮しながら仮想カメラCから離れる方向に移動した場合の咆哮音Sの波形を示し、同図(b)は、仮想カメラCが水中の所定の位置に固定され、モンスターMが水中で咆哮しながら仮想カメラCから離れる方向に移動した場合の咆哮音Sの波形を示している。   The figure (a) shows the waveform of the stuttering S when the virtual camera C is fixed at the predetermined position on land, and the monster M moves in the direction away from the virtual camera C while crawling on the land. b) shows the waveform of a roaring sound S when the virtual camera C is fixed at a predetermined position in water and the monster M moves away from the virtual camera C while crawling underwater.

(a)のケースは、咆哮音Sが発生している期間は全てケース(陸上,陸上)に該当し、(b)のケースは、咆哮音Sが発生している期間は全てケース(水中,水中)に該当するから、(a)では図7のケース1の条件で効果音生成処理が行われ、(b)では図7のケース4の条件で効果音生成処理が行われる。従って、(a)の波形も(b)の波形もレベルが連続的に変化(減衰)し、不連続になることはない。また、ケース(水中,水中)ではローパスフィルタのフィルタリング処理が行われるので、ケース(陸上,陸上)に比べて咆哮音Sの波形は高周波成分が少なくなる。(a)の咆哮音Sがギザギサした周期の短い波形を有しているのに対し、(b)が(a)よりも丸みがあり、周期が少し長い波形を有しているのは、フィルタリング処理の効果によることを示している。   The case of (a) corresponds to all cases (land, land) during the period when the roaring S occurs, and the case of (b) corresponds to the case during the period when the roaring S occurs. In (a), the sound effect generation process is performed under the condition of case 1 of FIG. 7, and in (b), the sound effect generation process is performed under the condition of case 4 of FIG. 7. Therefore, the waveform of (a) and the waveform of (b) continuously change (attenuate) in level, and do not become discontinuous. Further, in the case (in the water, in the water), the filtering process of the low pass filter is performed, so that the waveform of the stuttering S has less high frequency components than in the case (in the land, on the land). While the roaring sound S in (a) has a short waveform with a jagged period, (b) is more rounded than in (a) and has a waveform with a slightly longer period. It shows that it depends on the effect of processing.

同図(c)は、仮想カメラCが陸上の所定の位置に固定され、同図(e)に示すように、水中にいるモンスターMが咆哮しながら途中で一時空気中に出現した後、水中に戻る経路で仮想カメラCから離れる方向に移動した場合の咆哮音Sの波形を示し、同図(d)は、仮想カメラCが水中の所定の位置に固定され、モンスターMが(c)と同様の移動動作をした場合の咆哮音Sの波形を示している。   In the figure (c), the virtual camera C is fixed at a predetermined position on land, and as shown in the figure (e), after the monster M in the water appears in the air temporarily while crawling, Shows the waveform of the stuttering sound S when moving in a direction away from the virtual camera C along the route back to the figure (d), the virtual camera C is fixed at a predetermined position in the water, and the monster M is (c) The waveform of the roaring sound S at the time of performing the same movement operation is shown.

同図(c)では、咆哮音Sが発生している期間のうち、モンスターMが最初に水中にいる期間T1はケース(水中,陸上)に該当し、モンスターMが空中に出現している期間T2はケース(陸上,陸上)に該当し、モンスターMが最後に水中にいる期間T3はケース(水中,陸上)に該当する。   In the same figure (c), the period T1 in which the monster M is in the water first among the periods in which the stuttering S occurs corresponds to the case (in the water, on the land) and the period in which the monster M appears in the air T2 corresponds to the case (land, land), and the period when the monster M last in the water T3 corresponds to the case (water, land).

従って、期間T1と期間T3では図7のケース2の条件で効果音生成処理が行われ、期間T2では図7のケース1の条件で効果音生成処理が行われるので、期間T1と期間T2の境界N1及び期間T2と期間T3の境界N2で咆哮音Sのレベルが不連続になる。また、ケース2の処理ではローパスフィルタのフィルタリング処理が行われるが、ケース1の処理ではそのフィルタリング処理は行われないので、期間T1,T3の波形は期間T2の波形よりも丸みがあり、周期が少し長い波形となる。ケース2の処理からケース1の処理に変化すると、ケース2の処理では媒質変化による音量変化率Kdと距離減衰Krとにより音量レベルが0.6×Kr倍に低減されるが、ケース1の処理ではその音量レベルの低減処理が行われないので、(c)では期間T1,T3のレベルが期間T2よりも低くなる。   Therefore, in period T1 and period T3, the sound effect generation process is performed under the conditions of case 2 in FIG. 7, and in period T2, the sound effect generation process is performed under the conditions of case 1 in FIG. The level of the noise S becomes discontinuous at the boundary N1 and the boundary N2 of the period T2 and the period T3. In addition, in the process of Case 2, the filtering process of the low-pass filter is performed, but in the process of Case 1, since the filtering process is not performed, the waveforms of periods T1 and T3 are more rounded than those of period T2, and the period is It becomes a little long waveform. When the process of Case 2 is changed to the process of Case 1, the process of Case 2 reduces the volume level to 0.6 × Kr by the volume change rate Kd due to the medium change and the distance attenuation Kr. Then, since the volume level reduction processing is not performed, the levels of the periods T1 and T3 become lower than the period T2 in (c).

同図(d)では、咆哮音Sが発生している期間のうち、モンスターMが最初に水中にいる期間T1はケース(水中,水中)に該当し、モンスターMが空中に出現している期間T2はケース(陸上,水中)に該当し、モンスターMが最後に水中にいる期間T3はケース(水中,水中)に該当する。   In the same figure (d), the period T1 in which the monster M is in the water first among the periods in which the stuttering S occurs corresponds to the case (in the water, in the water) and the period in which the monster M appears in the air T2 corresponds to the case (land, water), and the period T3 in which the monster M is last in water corresponds to the case (water, water).

従って、期間T1と期間T3では図7のケース4の条件で効果音生成処理が行われ、期間T2では図7のケース3の条件で効果音生成処理が行われるので、(c)と同様に期間T1と期間T2の境界N1及び期間T2と期間T3の境界N2で咆哮音Sのレベルが不連続になる。また、ケース4の処理ではローパスフィルタのフィルタリング処理が行われるが、ケース1の処理ではそのフィルタリング処理は行われないので、期間T1,T3の波形は期間T2の波形よりも丸みがあり、周期が少し長い波形となる点も(c)と同様の傾向となる。その一方、ケース4の処理からケース3の処理に変化すると、媒質変化による音量変化率Kdと距離減衰Kr’とにより音量レベルが0.5×Kr’倍に低減されるので、(d)では(c)とは逆に期間T2のレベルが期間T1,T3よりも低くなる。   Therefore, in period T1 and period T3, the sound effect generation process is performed under the condition of case 4 of FIG. 7, and in period T2, the sound effect generation process is performed under the condition of case 3 of FIG. The level of the noise S becomes discontinuous at the boundary N1 of the period T1 and the period T2 and at the boundary N2 of the period T2 and the period T3. In addition, in the process of case 4, the filtering process of the low-pass filter is performed, but in the process of case 1, the filtering process is not performed. Therefore, the waveforms of periods T1 and T3 are more rounded than those of period T2, and the period is The same tendency as in (c) also results in a slightly longer waveform. On the other hand, when the process in case 4 is changed to the process in case 3, the volume level is reduced by 0.5 × Kr ′ times by the volume change rate Kd due to the medium change and the distance attenuation Kr ′. Contrary to (c), the level of the period T2 is lower than the periods T1 and T3.

上記のように、本実施形態に係る効果音生成方法が適用されるゲーム装置1によれば、ゲーム空間に音響特性の異なる媒質で占められる2種類の領域(空気中と水中)が設けられ、両領域を発音体であるモンスターMと聴音体であるハンターH(若しくは仮想カメラC)とが移動可能に設定されている場合に、各領域の音の減衰特性、周波数特性及び残響特性を設け、ゲーム空間におけるモンスターMの存在する領域とハンターH(若しくは仮想カメラC)の存在する領域の4つの組合せ(ケース(陸上,陸上),ケース(水中,陸上),ケース(陸上,水中),ケース(水中,水中)の組合せ)とモンスターMとハンターHとの間の距離に応じた効果音の減衰特性、周波数特性及び残響特性の処理を行うようにしているので、2つの領域の間でモンスターM(発音位置)とハンターH(聴音位置)との位置関係が自由に変化してもその位置関係の変化に応じて可及的に自然に聞こえる効果音を出力することができる。   As described above, according to the game device 1 to which the sound effect generation method according to the present embodiment is applied, the game space is provided with two types of regions (in air and underwater) occupied by media having different acoustic characteristics, Attenuation characteristics, frequency characteristics and reverberation characteristics of the sound of each area are provided when the monster M as a sounding body and the hunter H (or virtual camera C) as a sounding body are set to be movable in both areas. Four combinations of the area where Monster M exists and the area where Hunter H (or virtual camera C) exists in the game space (case (land, land), case (water, land), case (land, water), case (case Processing of the attenuation characteristics, frequency characteristics and reverberation characteristics of the sound effect according to the distance between the combination of the monster M and the hunter H) and the combination of In it is possible to output a monster M (pronunciation position) and Hunter H (listening position) and sound effects sound natural as much as possible in accordance with the positional relationship is a change in that location relationship changed freely of.

特に、ゲーム画像のフレーム画像の生成と同期してモンスターM(発音位置)とハンターH(聴音位置)との位置関係を求め、その位置関係に基づいて効果音生成処理を行うので、図11の(c),(d)に示されるように、モンスターMが水中から陸上に移動する瞬間やその逆の方向に移動する瞬間に効果音が不連続に変化するのを疑似的に表現することすることができ、効果音によって三次元のゲーム画像で描写される場面に応じた現実世界に近い聴覚効果を演出することができる。   In particular, the positional relationship between the monster M (pronunciation position) and the hunter H (listening position) is determined synchronously with the generation of the frame image of the game image, and the sound effect generation processing is performed based on the positional relationship. As shown in (c) and (d), to simulate that the sound effect changes discontinuously at the moment when the monster M moves from water to land or in the opposite direction. It is possible to produce an auditory effect close to the real world according to a scene depicted in a three-dimensional game image by sound effects.

なお、上記実施形態では、音響特性の異なる媒質の2つの領域の例として水中と空気中について説明したが、音響特性の異なる媒質としてこれらに限られるものではない。すなわち、媒質の異なる2つの領域として液体領域と気体領域とに分けるとすれば、液体領域の種類は水だけに限られず、任意の液体の種類を適用することができ、気体領域の種類も空気だけに限られず、任意の気体の種類を適用することができる。また、ゲームソフトにおいて、現実世界に存在しない液体や気体を創作することができるから、任意に創作した液体や気体を適用してもよい。   In the above-mentioned embodiment, although it explained in water and air as an example of two fields of a medium from which acoustic characteristics differ, it is not restricted to these as a medium from which acoustic characteristics differ. That is, if it is divided into a liquid area and a gas area as two different areas of the medium, the type of liquid area is not limited to water only, and any type of liquid can be applied, and the type of gas area is also air Not limited to, any kind of gas can be applied. In addition, since it is possible to create a liquid or gas that does not exist in the real world in the game software, the liquid or gas created arbitrarily may be applied.

また、液体だけでなく砂などの固体による流体の領域を適用してもよく、また隣接する媒質の異なる領域を3種類以上設けるようにしてもよい。   Not only the liquid but also an area of a fluid such as sand may be applied, and three or more different areas of adjacent media may be provided.

上記の実施形態では、水中と空気中との違いを演出するためのエフェクタとして、リバーブを用いたが、例えばディレイやエコーなどの他の残響・反響音の付加に関するエフェクタやコーラスやフランジャーなどの聴覚上の揺らぎを演出するエフェクタを用いてもよい。また、水中と空気中との違いを演出するための主要な要素としては、媒質境界における音量変化やローパスフィルタによる周波数特性の相違がリバーブなどのエフェクタよりも優勢であるので、リバーブなどのエフェクタを省略し、処理の簡素化を図るようにしてもよい。   In the above embodiment, a reverb is used as an effector for producing the difference between underwater and in the air, but for example, an effector related to the addition of other reverberation and echo such as delay and echo, an auditory sense such as chorus and flanger An effector that produces the above fluctuation may be used. In addition, as a main factor for directing the difference between underwater and in the air, since the volume change at the medium boundary and the difference in frequency characteristics due to the low pass filter are superior to the effector such as reverb, the effector such as reverb is It may be omitted to simplify the process.

上記の実施形態では、発音位置MPをモンスターMの位置にしているが、発音位置MPは正確にモンスターMの位置に設定する必要はなく、発音体となるキャラクタやその周辺近傍の任意の位置に設定してもよい。聴音位置TPについても同様で、ハンターHや仮想カメラCの位置に正確に設定する必要はなく、聴音体となるキャラクタは仮想カメラやその周辺近傍の任意の位置に設定してもよい。   In the above embodiment, although the sound generation position MP is set to the position of the monster M, the sound generation position MP does not have to be accurately set to the position of the monster M, and may be set to an arbitrary position near the sound generating character or its periphery. It may be set. The same applies to the listening position TP, and it is not necessary to set the position of the hunter H or the virtual camera C correctly, and the character to be the sounding object may be set at an arbitrary position near the virtual camera or its periphery.

上記の実施形態では、原音データの再生時間tにおける当該原音データの加工処理をゲーム画像の生成動作に同期させていた(1/30秒毎にしていた)が、その加工処理のタイミングは任意に設定することができる。例えば、フレーム画像の生成周期の整数倍の周期に設定しても良い。 In the above embodiment, the processing of the original sound data at the reproduction time t of the original sound data is synchronized with the operation of generating the game image (every 1/30 seconds), but the timing of the processing is arbitrary. It can be set. For example, it may be set to a cycle that is an integral multiple of the cycle of generating a frame image.

上記の実施形態では、本発明に係る効果音生成処理を、主として音声処理プロセッサ19により行わせているが、CPU11と音声処理プロセッサ19とが共同して行うようにいてよく、音声処理プロセッサ19を省略してCPU11により行わせるようにしても良い。   In the above embodiment, the sound effect generation process according to the present invention is mainly performed by the audio processor 19, but the CPU 11 and the audio processor 19 may jointly perform the process. It may be omitted and performed by the CPU 11.

上記の実施形態では、ゲーム装置1の効果音を生成する場合について説明したが、本発明に係る効果音生成技術は、ゲームの効果音に限られず、表示装置にゲーム以外の三次元の映像、例えば撮影画像やデモンストレーション画像などを表示するときにその映像に対して効果音を付加する場合にも適用することができる。   Although the above embodiment has described the case where the sound effects of the game apparatus 1 are generated, the sound effect generation technology according to the present invention is not limited to the sound effects of the game, and three-dimensional video other than the game on the display device For example, when displaying a captured image or a demonstration image, the present invention can also be applied to the case of adding a sound effect to the video.

1 ビデオゲーム装置
2 本体
3 ディスプレイ
4a 方向キー
4b ジョイステックキー
5 操作ボタン
6 「START」ボタン
7 「SELECT」ボタン
8 音量調整ボタン
9a,9b スピーカ
10 ゲームメディア
11 CPU
12 ROM
13 RAM
14 描画データ生成プロセッサ
15 描画処理プロセッサ
16 VRAM
17 D/Aコンバータ
18 表示部
19 音声処理プロセッサ
20 アンプ
21 スピーカ
22 操作部
23 ドライバ
24 バス
30 効果音生成回路
31 フィルタ回路
32,33,34 音量調整回路
35,36 リバーブ回路
37,38 信号混合回路
1 Video Game Device 2 Main Unit 3 Display 4a Direction Key 4b Joystick Key 5 Operation Button 6 "START" Button 7 "SELECT" Button 8 Volume Control Button 9a, 9b Speaker 10 Game Media 11 CPU
12 ROM
13 RAM
14 drawing data generation processor 15 drawing processing processor 16 VRAM
DESCRIPTION OF SYMBOLS 17 D / A converter 18 Display part 19 Speech processing processor 20 Amplifier 21 Speaker 22 Operation part 23 Driver 24 Bus 30 Sound effect generation circuit 31 Filter circuit 32, 33, 34 Volume control circuit 35, 36 Reverb circuit 37, 38 Signal mixing circuit

Claims (1)

前記所定の音響特性には、さらに前記原音データから生成され、当該原音データに付加される残響信号の内容と前記原音データに付加する当該残響信号の音量の特性が含まれる、請求項乃至のいずれかに記載の効果音生成プログラム。 Wherein the predetermined acoustic characteristics, is further generated from the original data, the volume of the characteristics of the reverberation signal to be added to the contents of the reverberation signal added to the original sound data to the original data is included, claims 3 to 8 The sound effect generation program according to any of the above.
JP2009176383A 2009-07-29 2009-07-29 Sound effect generating device and sound effect generating program for realizing the sound effect generating device Active JP5468326B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009176383A JP5468326B2 (en) 2009-07-29 2009-07-29 Sound effect generating device and sound effect generating program for realizing the sound effect generating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009176383A JP5468326B2 (en) 2009-07-29 2009-07-29 Sound effect generating device and sound effect generating program for realizing the sound effect generating device

Related Child Applications (3)

Application Number Title Priority Date Filing Date
JP2013229163A Division JP5619258B2 (en) 2013-11-05 2013-11-05 Sound effect generating device and sound effect generating program for realizing the sound effect generating device
JP2013229165A Division JP5619260B2 (en) 2013-11-05 2013-11-05 Sound effect generating device and sound effect generating program for realizing the sound effect generating device
JP2013229164A Division JP5619259B2 (en) 2013-11-05 2013-11-05 Sound effect generating device and sound effect generating program for realizing the sound effect generating device

Publications (3)

Publication Number Publication Date
JP2011028169A JP2011028169A (en) 2011-02-10
JP2011028169A5 true JP2011028169A5 (en) 2012-09-06
JP5468326B2 JP5468326B2 (en) 2014-04-09

Family

ID=43636950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009176383A Active JP5468326B2 (en) 2009-07-29 2009-07-29 Sound effect generating device and sound effect generating program for realizing the sound effect generating device

Country Status (1)

Country Link
JP (1) JP5468326B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5486557B2 (en) * 2011-07-08 2014-05-07 株式会社スクウェア・エニックス Reverberation processing device
JP5969200B2 (en) * 2011-11-11 2016-08-17 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
JP5882403B2 (en) 2014-06-25 2016-03-09 株式会社カプコン Sound effect processing program and game device
JP6294899B2 (en) * 2016-02-03 2018-03-14 株式会社カプコン Sound effect processing program and game device
JP6530445B2 (en) * 2017-06-02 2019-06-12 株式会社カプコン Game program and game apparatus
CN108854069B (en) 2018-05-29 2020-02-07 腾讯科技(深圳)有限公司 Sound source determination method and device, storage medium and electronic device
CN114917585A (en) * 2022-06-24 2022-08-19 四川省商投信息技术有限责任公司 Sound effect generation method and system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06315200A (en) * 1993-04-28 1994-11-08 Victor Co Of Japan Ltd Distance sensation control method for sound image localization processing
JP2000210471A (en) * 1999-01-21 2000-08-02 Namco Ltd Sound device and information recording medium for game machine
JP3955425B2 (en) * 2000-03-24 2007-08-08 三菱電機株式会社 3D sound reproduction system
JP3899782B2 (en) * 2000-05-30 2007-03-28 ヤマハ株式会社 Simulated sound generating apparatus and simulated sound generating method
JP3740518B2 (en) * 2003-07-31 2006-02-01 コナミ株式会社 GAME DEVICE, COMPUTER CONTROL METHOD, AND PROGRAM
JP5147253B2 (en) * 2007-02-06 2013-02-20 株式会社カプコン GAME DEVICE, GAME PROGRAM, AND STORAGE MEDIUM

Similar Documents

Publication Publication Date Title
JP5468326B2 (en) Sound effect generating device and sound effect generating program for realizing the sound effect generating device
JP2011028169A5 (en)
US10478724B2 (en) Game device, processing method, and information storage medium
JP6727807B2 (en) Game device and program
JP6306442B2 (en) Program and game system
US6760050B1 (en) Virtual three-dimensional sound pattern generator and method and medium thereof
EP1795240B1 (en) Game machine, game machine control method, information recording medium, and program
JP5619260B2 (en) Sound effect generating device and sound effect generating program for realizing the sound effect generating device
JP3863165B2 (en) Audio output device, audio output method, and program
JP2000200361A (en) Image processor and information recording medium
JP6515057B2 (en) Simulation system, simulation apparatus and program
JP5147253B2 (en) GAME DEVICE, GAME PROGRAM, AND STORAGE MEDIUM
WO2000049579A1 (en) Image displaying device, image processing device, image displaying system
JP2017184174A (en) Simulation system and program
JP2017119032A (en) Game device and program
KR100936867B1 (en) Voice processor, voice processing method, and computer-readable information recording medium having a program recorded thereon
JP2004141261A (en) Game program and game machine
JP2000140431A (en) Game device and image processor
JP5619259B2 (en) Sound effect generating device and sound effect generating program for realizing the sound effect generating device
JP4512652B2 (en) GAME DEVICE, GAME CONTROL METHOD, AND GAME CONTROL PROGRAM
JPH06149275A (en) Three-dimensional virtual sound image forming device in consideration of three-dimensional virtual space information
JP5619258B2 (en) Sound effect generating device and sound effect generating program for realizing the sound effect generating device
JP6622832B2 (en) Program and game system
JP3537238B2 (en) GAME DEVICE AND GAME DEVICE CONTROL METHOD
JP3527578B2 (en) Game device