JP2020031303A - Voice generating program and voice generating apparatus in virtual space - Google Patents

Voice generating program and voice generating apparatus in virtual space Download PDF

Info

Publication number
JP2020031303A
JP2020031303A JP2018154723A JP2018154723A JP2020031303A JP 2020031303 A JP2020031303 A JP 2020031303A JP 2018154723 A JP2018154723 A JP 2018154723A JP 2018154723 A JP2018154723 A JP 2018154723A JP 2020031303 A JP2020031303 A JP 2020031303A
Authority
JP
Japan
Prior art keywords
sound
sound source
virtual space
signal processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018154723A
Other languages
Japanese (ja)
Inventor
健二 小島
Kenji Kojima
健二 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2018154723A priority Critical patent/JP2020031303A/en
Publication of JP2020031303A publication Critical patent/JP2020031303A/en
Pending legal-status Critical Current

Links

Images

Abstract

To facilitate reflection of a developer's intention when generating voice in a virtual space.SOLUTION: A computer is configured to function as: sound source means for outputting voice data mapped with a sound source of a virtual space; voice processing means having a plurality of signal processing means capable of processing voice data and connecting the signal processing means solely or hierarchically to process voice data; and output destination determination means for determining an output destination on the basis of output destination determination information of determining the signal processing means which is an output destination of the sound source means from a positional relationship between the sound source and a virtual sound receiving point.SELECTED DRAWING: Figure 5

Description

本発明は、仮想空間における音声生成プログラム、および音声生成装置に関する。   The present invention relates to a sound generation program and a sound generation device in a virtual space.

近年のゲームプログラムでは、三次元の動画像を用いつつ、より正確な音響表現を試みることで、ユーザに豊かなバーチャル体験を提供している(例えば特許文献1を参照)。特許文献1の例では、より正確な音響表現を行うために、仮想三次元空間内にオブジェクトを配置し、音響シミュレーションをすることで音響信号を生成している。   Recent game programs provide users with rich virtual experiences by trying more accurate sound expression while using three-dimensional moving images (see, for example, Patent Document 1). In the example of Patent Literature 1, in order to perform more accurate acoustic expression, an acoustic signal is generated by arranging an object in a virtual three-dimensional space and performing an acoustic simulation.

特開2000−267675号公報JP 2000-267675 A

しかしながら、特許文献1のようにシミュレーションに基づいて音響信号を生成する方法では、例えば、何らかの音を強調させたいとか、弱めたいとか、或いはなくしたといったプログラム開発者の意図を反映させる余地がない。   However, in the method of generating an acoustic signal based on a simulation as in Patent Document 1, there is no room for reflecting a program developer's intention, for example, to emphasize, weaken, or eliminate some sound.

そこで、本発明は、仮想空間における音声生成に際して、開発者の意図を容易に反映できるようにすることを目的とする。   Therefore, an object of the present invention is to make it possible to easily reflect the intention of a developer when generating sound in a virtual space.

第1の発明は、コンピュータを、仮想空間の音源に対応する音声データを出力する音源手段と、音声データの加工が可能な信号処理手段を複数有して前記信号処理手段を単独または階層的に繋いで前記音声データを処理する音声加工手段と、前記音源と仮想の受音点との位置関係から前記音源手段の出力先となる信号処理手段を決定する出力先決定情報に基づいて、前記出力先を決定する出力先決定手段と、して機能させることを特徴とする仮想空間における音声生成プログラムである。   According to a first aspect of the present invention, a computer includes a sound source unit that outputs sound data corresponding to a sound source in a virtual space, and a plurality of signal processing units capable of processing sound data. Sound processing means for processing the sound data by connecting the sound data, and the output based on output destination determination information for determining signal processing means to be an output destination of the sound source means from a positional relationship between the sound source and a virtual sound receiving point. A sound generation program in a virtual space characterized by functioning as an output destination determining means for determining a destination.

また、第1の発明において、前記信号処理手段は、加工後の音声データに音像定位を行う音像定位手段を設けてもよい。   Further, in the first invention, the signal processing unit may include a sound image localization unit that performs sound image localization on the processed audio data.

また、前記発明において、前記音源から前記受音点に、両者間のオブジェクトを透過して直線的に到達する音の変化を決定するパラメータに基づいて、前記音源手段が出力する音声データの音量を調整する第1調整手段として前記コンピュータを機能させてもよい。   Further, in the above invention, the volume of the sound data output by the sound source means is set based on a parameter that determines a change in sound that reaches the sound receiving point from the sound source and reaches the sound receiving point linearly through the object between the two. The computer may function as first adjusting means for adjusting.

また、前記発明において、前記音源から前記受音点に、両者間のオブジェクトを回折して到達する音の変化を決定するパラメータに基づいて、前記信号処理手段が出力する音声データの音量を調整する第2調整手段として前記コンピュータを機能させてもよい。   Further, in the invention, the volume of the audio data output by the signal processing unit is adjusted based on a parameter that determines a change in sound that reaches the sound receiving point from the sound source by diffracting an object between the two. The computer may function as second adjusting means.

また、前記発明において、前記音源と前記受音点との間には、ドアを有した壁を示すオブジェクトが配置されており、前記音源から前記受音点に、前記ドアの開口を通過して到達する音の変化を定めるパラメータに基づいて、前記信号処理手段が出力する音声データの音量を調整する第3調整手段として前記コンピュータを機能させてもよい。   Further, in the invention, an object indicating a wall having a door is arranged between the sound source and the sound receiving point, and from the sound source to the sound receiving point, passing through an opening of the door. The computer may function as third adjusting means for adjusting the volume of the audio data output by the signal processing means based on a parameter that determines a change in the sound that arrives.

また、第2の発明は、前記仮想空間における音声生成プログラムを記憶した記憶部と、前記音声生成プログラムを実行する制御部と、を備えたことを特徴とする音声生成装置である。   According to a second aspect of the present invention, there is provided a voice generating apparatus including: a storage unit that stores a voice generating program in the virtual space; and a control unit that executes the voice generating program.

本発明によれば、仮想空間における音声生成に際して、開発者の意図を容易に反映できる。   ADVANTAGE OF THE INVENTION According to this invention, when producing | generating audio | voice in a virtual space, the intention of a developer can be reflected easily.

本実施形態のゲーム装置の構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of the game device of the present embodiment. 音源手段の構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of a sound source unit. バスの構成を模式的に示すブロック図である。It is a block diagram which shows the structure of a bus typically. 仮想空間に設けられた、建物のオブジェクトの一部を平面的に表している。A part of a building object provided in the virtual space is represented in a plane. 図4のオブジェクトにおける音の伝搬経路を表現するためのバスの階層構造の例である。5 is an example of a hierarchical structure of a bus for expressing a sound propagation path in the object of FIG. 4. 音声データの送り先決定に用いるテーブルである。It is a table used to determine the destination of audio data. 第1調整手段の音量等の調整機能を説明する図である。FIG. 4 is a diagram illustrating a function of adjusting the volume and the like of a first adjusting unit. 第3調整手段の音量等の調整機能を説明する図である。FIG. 9 is a diagram illustrating an adjustment function of a third adjustment unit such as a volume. 第4調整手段の音量等の調整機能を説明する図である。It is a figure explaining the adjustment function, such as a sound volume of 4th adjustment means. 音量値、カットオフ周波数を決定するための特性曲線の例である。It is an example of a characteristic curve for determining a volume value and a cutoff frequency. 音源と開口とがなす角度等に基づいて、音量値、カットオフ周波数を決定するための特性曲線の例である。7 is an example of a characteristic curve for determining a sound volume value and a cutoff frequency based on an angle formed between a sound source and an aperture and the like. バスの階層構造の他の例である。It is another example of the hierarchical structure of a bus. 図12の階層構造に対応する出力先決定情報の例である。13 is an example of output destination determination information corresponding to the hierarchical structure of FIG.

[実施形態]
以下、本発明の実施形態にかかる音声生成プログラム、および音声生成装置について、図面を参照して説明する。なお、本発明の仮想空間における音声生成プログラムは、ゲームプログラムとして実装されている。また、音声生成装置は、ゲーム装置として実現されている。
[Embodiment]
Hereinafter, a speech generation program and a speech generation device according to an embodiment of the present invention will be described with reference to the drawings. The sound generation program in the virtual space according to the present invention is implemented as a game program. Further, the sound generation device is realized as a game device.

本実施形態で説明するゲームプログラムは、例えば、パーソナルコンピュータ、プレイステーション(登録商標)、XBox(登録商標)、PlayStation Vita(登録商標)などのゲーム装置において実行される。   The game program described in the present embodiment is executed on a game device such as a personal computer, a PlayStation (registered trademark), an XBox (registered trademark), and a PlayStation Vita (registered trademark).

このゲームプログラムによるゲームでは、各ユーザの操作を受けて、プレイヤキャラクタを三次元の仮想ゲーム空間(以下、仮想空間VSという)で活動させたり、プレイヤキャラクタ同士でグループを編成して様々なアクションを行わせたりする。より具体的には、このゲームは、プレイヤキャラクタが敵キャラクタを攻撃して倒していく対戦型のアクションゲームである。   In a game according to this game program, a player character is activated in a three-dimensional virtual game space (hereinafter, referred to as a virtual space VS) in response to an operation of each user, or a group of players is formed to perform various actions. Or let them do it. More specifically, this game is a competitive action game in which a player character attacks and defeats an enemy character.

〈ゲーム装置の構成〉
ゲーム装置5は、ユーザの操作に基づいて所定のゲームを実行する。図1は、本実施形態のゲーム装置5の構成を示すブロック図である。ゲーム装置5には、ディスプレイ61、スピーカ62およびコントローラ63が外部接続または内蔵される。ゲーム装置5では、例えば、インストールされたゲームプログラムおよびゲームデータに基づいてゲームが進行する。なお、ゲーム装置5同士も、通信ネットワーク(図示を省略)または近距離無線通信装置(図示せず)を用いて、互いにデータ通信を行うことができる。
<Configuration of game device>
The game device 5 executes a predetermined game based on a user operation. FIG. 1 is a block diagram illustrating a configuration of the game device 5 of the present embodiment. The game device 5 has a display 61, a speaker 62, and a controller 63 externally connected or built in. In the game device 5, for example, the game proceeds based on the installed game program and game data. The game devices 5 can also perform data communication with each other using a communication network (not shown) or a short-range wireless communication device (not shown).

ゲーム装置5は、ネットワークインターフェース51、グラフィック処理部52、オーディオ処理部53、操作部54、記憶部55および制御部56を有する。ネットワークインターフェース51、グラフィック処理部52、オーディオ処理部53、操作部54および記憶部55は、バス59を介して制御部56と電気的に接続されている。   The game device 5 includes a network interface 51, a graphic processing unit 52, an audio processing unit 53, an operation unit 54, a storage unit 55, and a control unit 56. The network interface 51, the graphic processing unit 52, the audio processing unit 53, the operation unit 54, and the storage unit 55 are electrically connected to a control unit 56 via a bus 59.

ネットワークインターフェース51は、例えばゲーム装置5や外部のサーバ装置(図示を省略)との間で各種データを送受信するために、前記通信ネットワークに通信可能に接続される。   The network interface 51 is communicably connected to the communication network in order to transmit and receive various data to and from the game device 5 and an external server device (not shown).

グラフィック処理部52は、制御部56から出力されるゲーム画像情報に従って、プレイヤキャラクタおよび仮想空間に関する各種オブジェクトを含むゲーム画像を、動画形式で描画する。グラフィック処理部52はディスプレイ61と接続されており、動画形式に描画されたゲーム画像は、ゲーム画面としてディスプレイ61上に表示される。   The graphic processing unit 52 draws a game image including a player character and various objects related to the virtual space in a moving image format according to the game image information output from the control unit 56. The graphic processing unit 52 is connected to the display 61, and the game image drawn in the moving image format is displayed on the display 61 as a game screen.

このゲームプログラムの下では、ゲーム画像を構築する際に、グラフィック処理部52は、ユーザの視点として仮想のカメラ(以下、仮想カメラVC)を仮想空間に設定する。グラフィック処理部52は、あたかも、仮想カメラVCで仮想空間内を撮影したかのように、3D(三次元)の映像(動画像)を構成してディスプレイ61に表示する。   Under this game program, when constructing a game image, the graphic processing unit 52 sets a virtual camera (hereinafter, virtual camera VC) in a virtual space as a user's viewpoint. The graphic processing unit 52 configures a 3D (three-dimensional) video (moving image) and displays the video on the display 61 as if the virtual camera VC had taken a picture in a virtual space.

オーディオ処理部53は、制御部56の指示に従ってデジタルのゲーム音声を再生および合成する。オーディオ処理部53は、スピーカ62と接続されており、再生および合成されたゲーム音声は、アナログ信号に変換されたのちにスピーカ62から出力される。   The audio processing unit 53 reproduces and synthesizes digital game sound in accordance with an instruction from the control unit 56. The audio processing unit 53 is connected to the speaker 62, and the reproduced and synthesized game sound is output from the speaker 62 after being converted into an analog signal.

操作部54は、コントローラ63と接続され、操作入力に関するデータをコントローラ63との間で送受信する。例えば、ユーザは、コントローラ63に設けられたボタン等の操作子(図示略)を操作することにより、ゲーム装置5に操作信号を入力する。   The operation unit 54 is connected to the controller 63 and transmits and receives data related to operation input to and from the controller 63. For example, the user inputs an operation signal to the game device 5 by operating an operation element (not shown) such as a button provided on the controller 63.

記憶部55は、HDD、RAMおよびROM等で構成される。記憶部55は、ゲームプログラムおよびゲームデータを記憶することができる。また、記憶部55には、他のゲーム装置5から受信した他アカウント情報なども記憶される。   The storage unit 55 includes an HDD, a RAM, a ROM, and the like. The storage unit 55 can store a game program and game data. The storage unit 55 also stores other account information and the like received from the other game devices 5.

制御部56は、CPUおよび半導体メモリを含むマイクロコンピュータで構成され、ゲーム装置5自身の動作を制御する。例えば、制御部56は、前記ゲームプログラムを実行することにより、グラフィック処理部52およびオーディオ処理部53を動作させる。   The control unit 56 is configured by a microcomputer including a CPU and a semiconductor memory, and controls the operation of the game device 5 itself. For example, the control unit 56 operates the graphic processing unit 52 and the audio processing unit 53 by executing the game program.

また、制御部56とオーディオ処理部53とは、協働して音響表現を行う。以下、制御部56とオーディオ処理部53の機能について詳述する。   In addition, the control unit 56 and the audio processing unit 53 cooperate to perform an acoustic expression. Hereinafter, the functions of the control unit 56 and the audio processing unit 53 will be described in detail.

〈オーディオ処理部53の機能的構成〉
既述の通り、オーディオ処理部53は、ゲーム音声の再生および合成を行う。この明細書における、ゲーム音声とは、ゲーム中にスピーカ62から流れる音声であり、例えば、BGM(Back Ground Music)や、ユーザの操作に応じて流れる効果音が上げられる。また、洞窟内の水たまりに天井から落ちてくる水滴の音、洞窟において入口から出口に向かう風の音、町の雑踏の音(通行人の声や付近を通過する自動車の音等)、森や草原に吹く風の音等の環境音もゲーム音声の一例である。
<Functional configuration of audio processing unit 53>
As described above, the audio processing unit 53 reproduces and synthesizes game sound. In this specification, the game sound is a sound that flows from the speaker 62 during the game, and includes, for example, BGM (Back Ground Music) and a sound effect that flows in response to a user operation. In addition, the sound of water drops falling from the ceiling in the puddles in the cave, the sound of the wind going from the entrance to the exit in the cave, the noise of crowds in the town (the voice of passers-by, the sound of cars passing by, etc.), forests and grasslands Environmental sounds such as the sound of a blowing wind are also examples of game sounds.

また、このゲームプログラムでは、仮想空間VS内に音源(すなわち仮想の音源)として取り扱われるオブジェクト(以下、音源オブジェクトという)が存在する。音源オブジェクトの例としては、プレイヤキャラクタ、ゲームに登場する敵キャラクタ(モンスターなど)、プレイヤキャラクタの仲間として登場するキャラクタ、プレイヤキャラクタが持っているアイテム(例えば武器など)、仮想空間VSに設置された機械や設備などが挙げられる。   Further, in this game program, an object (hereinafter, referred to as a sound source object) that is handled as a sound source (that is, a virtual sound source) exists in the virtual space VS. Examples of the sound source object include a player character, an enemy character (such as a monster) appearing in a game, a character appearing as a friend of the player character, an item (eg, a weapon) possessed by the player character, and a virtual space VS. Examples include machines and equipment.

オーディオ処理部53は、ゲーム音声の再生や合成の機能を発揮する、いわゆるミドルウエアを含んでいる。このミドルウエアが実行されることで、オーディオ処理部53は、音源手段531、および信号処理手段532(以下ではバスと呼ぶ場合もある)として機能する。   The audio processing unit 53 includes so-called middleware that has a function of reproducing and synthesizing game sound. By executing the middleware, the audio processing unit 53 functions as a sound source unit 531 and a signal processing unit 532 (hereinafter, also referred to as a bus).

音源手段531は、ミドルウエアによって実現された機能であり、音源オブジェクトに対応する音声データを出力する。オーディオ処理部53のミドルウエアでは、音源オブジェクトに対応して、音源手段531を複数設けることができる。図2に、音源手段531の構成例をブロック図で示す。音源手段531は、第1エフェクタ531a、音量調整部531b、第2エフェクタ531cの各モジュールを備えている。   The sound source 531 is a function realized by middleware, and outputs sound data corresponding to the sound source object. In the middleware of the audio processing unit 53, a plurality of sound source units 531 can be provided corresponding to the sound source objects. FIG. 2 is a block diagram showing a configuration example of the sound source 531. The sound source 531 includes a first effector 531a, a volume controller 531b, and a second effector 531c.

第1エフェクタ531aは、入力された音声データに対して、例えば、反響(Reverb)効果を付加する処理、フィルター処理(例えばローパスフィルターによる処理)等の処理を行うことができる。また、音量調整部531bでは、音量の調整を行う。   The first effector 531a can perform, for example, a process of adding a reverberation (Reverb) effect, a filter process (for example, a process using a low-pass filter), or the like, to the input audio data. Further, the sound volume adjustment section 531b adjusts the sound volume.

第2エフェクタ531cは、入力された音声データに対して、フィルター処理(ここではローパスフィルターによる処理)と音量調整を行うことができる。第2エフェクタ531cにおける音量値やローパスフィルタのカットオフ周波数は、制御部56によって制御される。   The second effector 531c can perform filter processing (here, processing using a low-pass filter) and volume adjustment on the input audio data. The control section 56 controls the volume value and the cutoff frequency of the low-pass filter in the second effector 531c.

また、音源手段531には、複数の出力系統が設けられている。音源手段531は、これらの出力系統を用いて複数のバスに音声データを出力できる。これらの出力系統では、個々にボリューム(以下、説明の便宜のためセンドボリュームという)の調整が可能である。   The sound source 531 is provided with a plurality of output systems. The sound source 531 can output audio data to a plurality of buses using these output systems. In these output systems, it is possible to individually adjust the volume (hereinafter referred to as “send volume” for convenience of description).

信号処理手段532(バス)は、ミドルウエアによって実現された機能であり、音声データに加工を加える。その加工に際して、信号処理手段532は、必要に応じて、音像定位も行う。そのため、信号処理手段532には、仮想空間VS上の位置が対応づけられる場合がある。以下では、信号処理手段532に仮想空間VS上の位置が対応づけられることを「信号処理手段532(バス)が位置を持つ」と表現する場合がある。   The signal processing unit 532 (bus) is a function realized by middleware and adds processing to audio data. At the time of the processing, the signal processing means 532 also performs sound image localization as necessary. Therefore, a position in the virtual space VS may be associated with the signal processing unit 532. Hereinafter, associating the position in the virtual space VS with the signal processing unit 532 may be expressed as "the signal processing unit 532 (bus) has a position".

オーディオ処理部53のミドルウエアでは、信号処理手段532を複数設けることができる。オーディオ処理部53では、信号処理手段532を単独で使用することもできるし、信号処理手段532を階層的に接続することによって、何れかの信号処理手段532で処理された信号を別の信号処理手段532が受け取って、更にその信号に処理を加えるといった使い方もできる。このゲームプログラムでは、信号処理手段532同士の接続は、仮想空間内のオブジェクトの構造によって決定される。   In the middleware of the audio processing unit 53, a plurality of signal processing units 532 can be provided. In the audio processing unit 53, the signal processing means 532 can be used alone, or by connecting the signal processing means 532 hierarchically, the signal processed by any one of the signal processing means 532 can be processed by another signal processing means. The means 532 can also receive and further process the signal. In this game program, the connection between the signal processing means 532 is determined by the structure of the object in the virtual space.

各信号処理手段532で作られた音声データは、最終的には、マスターバス(以下、参照符合を付けてマスターバスMBと言う)と呼ばれる信号処理系統に送られる。マスターバスMBでは、送られてきた音声データの合成および音量調整を行う。   The audio data generated by each signal processing unit 532 is finally sent to a signal processing system called a master bus (hereinafter, referred to as a master bus MB). The master bus MB performs synthesis and volume adjustment of the sent audio data.

そして、オーディオ処理部53は、マスターバスMBで処理された信号を、アナログ信号に変換したのちにスピーカ62に出力する。これにより、スピーカ62からは、ゲーム音声が出力(再生)される。   Then, the audio processing unit 53 converts the signal processed by the master bus MB into an analog signal and outputs the analog signal to the speaker 62. Thereby, the game sound is output (reproduced) from the speaker 62.

図3は、信号処理手段532の構成を模式的に示すブロック図である。何れの信号処理手段532も同様の構成を有している。各信号処理手段532は、音声データの処理を行うモジュールとして、第1音像定位手段532a、バスエフェクタ532b、バス音量調整部532c、伝搬エフェクタ532d、および第2音像定位手段532eを備えている。   FIG. 3 is a block diagram schematically illustrating a configuration of the signal processing unit 532. Each of the signal processing units 532 has the same configuration. Each signal processing unit 532 includes a first sound image localization unit 532a, a bus effector 532b, a bass volume adjustment unit 532c, a propagation effector 532d, and a second sound image localization unit 532e as modules for processing audio data.

第1音像定位手段532aは、入力された音声データの音像定位を行う。具体的には、第1音像定位手段532aは、入力された音声データがモノラル信号の場合には、出力先のチャンネルを決定してそのチャンネルの音声データとして、次のバスエフェクタ532bに出力する。また、第1音像定位手段532aは、音声データがモノラル信号ではない場合には、そのまま次のバスエフェクタ532bに出力する。   The first sound image localization means 532a performs sound image localization of the input audio data. Specifically, when the input audio data is a monaural signal, the first sound image localization unit 532a determines the output destination channel and outputs the channel to the next bus effector 532b as the audio data of the channel. If the sound data is not a monaural signal, the first sound image localization means 532a outputs the sound data to the next bus effector 532b as it is.

バスエフェクタ532bは、与えられた音声データに対して、反響(Reverb)効果を付加する処理、フィルター処理(ここではローパスフィルターによる処理)等の処理を行う。バス音量調整部532cは、バスエフェクタ532bの出力の音量調整を行う。   The bus effector 532b performs a process such as a process of adding a reverberation (Reverb) effect to the given audio data, and a process of filtering (here, a process using a low-pass filter). The bus volume adjusting unit 532c adjusts the volume of the output of the bus effector 532b.

伝搬エフェクタ532dは、信号処理手段532(バス)が位置を持つ場合に、バス音量調整部532cよって音量調整された音声データに加工を行う。この例では、伝搬エフェクタ532dが行う加工は、音量調整とローパスフィルタによる処理である。伝搬エフェクタ532dにおける音量値やローパスフィルタのカットオフ周波数は、制御部56によって制御される。   When the signal processing unit 532 (bus) has a position, the propagation effector 532d processes audio data whose volume has been adjusted by the bus volume adjusting unit 532c. In this example, the processing performed by the propagation effector 532d is volume adjustment and processing using a low-pass filter. The volume value and the cutoff frequency of the low-pass filter in the propagation effector 532d are controlled by the control unit 56.

第2音像定位手段532eは、伝搬エフェクタ532dが出力した音声データに対して音像定位を行う。ここでは、信号処理手段532が位置を持っていない場合には、伝搬エフェクタ532dの出力をそのまま出力する。また、信号処理手段532が位置を持っている場合には、一旦、音声信号をモノラルにダウンミックスした後に、信号処理手段532が持つ位置に応じて音像定位を行う。   The second sound image localization unit 532e performs sound image localization on the audio data output by the propagation effector 532d. Here, when the signal processing means 532 does not have a position, the output of the propagation effector 532d is output as it is. If the signal processing unit 532 has a position, the sound signal is once down-mixed to monaural, and then the sound image is localized according to the position of the signal processing unit 532.

この音像定位の際に、オーディオ処理部53は、仮想空間VSに仮想の受音点(以下、仮想マイクLという)を規定して、音源オブジェクトから発せられた音声を、あたかも仮想マイクLで集音したかのような音響表現で、スピーカ62に出力する。すなわち、仮想マイクLは、仮想の聴取者であり、オーディオ処理部53のミドルウエアにおいては、音像定位の基準点である。   At the time of the sound image localization, the audio processing unit 53 defines a virtual sound receiving point (hereinafter, referred to as a virtual microphone L) in the virtual space VS, and collects the sound emitted from the sound source object as if the virtual microphone L. The sound is output to the speaker 62 in an acoustic expression as if it had sounded. That is, the virtual microphone L is a virtual listener, and is a reference point for sound image localization in the middleware of the audio processing unit 53.

本実施形態では、仮想マイクLは、仮想カメラVCと同じ位置に設定されている。ユーザは、仮想カメラVC位置にいる感覚でゲームをプレイしているので、ユーザにとって臨場感のある音声が再生されることになる。なお、仮想カメラVCの位置は、プレイヤキャラクタの近傍に設定されている。したがって、プレイヤキャラクタの位置と、仮想マイクLの位置は概ね同じと考えて差し支えない。   In the present embodiment, the virtual microphone L is set at the same position as the virtual camera VC. Since the user plays the game as if he were at the position of the virtual camera VC, a sound with a sense of reality is reproduced for the user. Note that the position of the virtual camera VC is set near the player character. Therefore, the position of the player character and the position of the virtual microphone L may be considered to be substantially the same.

このゲームプログラムでは、仮想マイクLで集音したような音響表現をオーディオ処理部53において行うために、仮想空間VSにおける音声データの伝搬経路に対応してバスを振り分けている。この振り分けは、仮想空間VSの構成(オブジェクトの構造、及び配置)に応じて定められている。以下では、この振り分けについて具体例を用いて説明する。   In this game program, the bus is allocated in accordance with the propagation path of the audio data in the virtual space VS in order for the audio processing unit 53 to perform an acoustic expression as if the sound was collected by the virtual microphone L. This distribution is determined according to the configuration of the virtual space VS (the structure and arrangement of the objects). Hereinafter, this distribution will be described using a specific example.

−バスの振り分けの例−
このゲームプログラムでは、音響表現を行いたい領域(例えば建物)毎にバスの振り分けが設定されている。図4は、仮想空間に設けられた、建物のオブジェクトの一部を平面的に表している。
-Example of bus distribution-
In this game program, the distribution of buses is set for each area (for example, a building) where sound expression is desired. FIG. 4 is a plan view showing a part of a building object provided in the virtual space.

この建物は、図4に示すように、3つの部屋(領域)R0,R1,R2を有している。部屋R0と部屋R1との間には、ドアD01がある。同様に、部屋R1と部屋R2との間には、ドアD12がある。これらのドアD01,D12は、何れも開いた状態である。これらのドアD01,D12が開いているときは、壁に開口部が形成されていると見ることができる。   This building has three rooms (regions) R0, R1, and R2, as shown in FIG. There is a door D01 between the room R0 and the room R1. Similarly, there is a door D12 between the room R1 and the room R2. These doors D01 and D12 are both open. When these doors D01 and D12 are open, it can be seen that an opening is formed in the wall.

部屋R0には、プレイヤキャラクタが立っている(図示は省略)。プレイヤキャラクタが立っている位置の近傍には、仮想マイクL(受音点)が設定されている。また、部屋R0には、仮想の音源である音源オブジェクトS0も存在する。ここでは、音源オブジェクトS0は、敵のキャラクタ(例えばモンスターなど)である。   A player character stands in the room R0 (not shown). A virtual microphone L (sound receiving point) is set near the position where the player character stands. In the room R0, there is also a sound source object S0 that is a virtual sound source. Here, the sound source object S0 is an enemy character (for example, a monster).

音源オブジェクトS0からは、プレイヤキャラクタ(仮想マイクL)に向かって咆号等の音声が発せられている。同様に、部屋R1には音源オブジェクトS1が存在し、部屋R2には音源オブジェクトS2が存在する。なお、以下では、音源オブジェクトS0に対応する音源を、音源S0と表記する(以下、他の音源オブジェクトについても同様)。   A sound such as a roar is emitted from the sound source object S0 toward the player character (virtual microphone L). Similarly, the sound source object S1 exists in the room R1, and the sound source object S2 exists in the room R2. Hereinafter, the sound source corresponding to the sound source object S0 is referred to as a sound source S0 (the same applies to other sound source objects hereinafter).

例えば、音源S0から仮想マイクLに伝わる音を表現するためは、部屋R0にバスを割り当てればよい。また、他の部屋にも音源がある場合には、音源のある部屋のそれぞれにバスを配置すればよい。   For example, in order to express a sound transmitted from the sound source S0 to the virtual microphone L, a bus may be assigned to the room R0. When a sound source also exists in another room, a bus may be arranged in each room where the sound source exists.

図4に、部屋R1、部屋R2にそれぞれ配置されたバス(バスSR0_0,SR1_0とする)の位置を示す。すなわち、それらのバスは位置を持っている。この例では、ドアD01,D12の開口から漏れ出す音を表現するために、バスSR0_0,SR1_0は、ドアの近傍に配置されている。開口から漏れる音の音源としてこれらバスSR0_0,SR1_0を割り当てれば、開口から漏れる音の音像を、開口の位置に定位させることできる。なお、図4では、実線および破線は、各バスからの音の伝搬経路を示している。 FIG. 4 shows the positions of buses (referred to as buses S R0 — 0 and S R1 — 0 ) arranged in the rooms R1 and R2, respectively. That is, those buses have a location. In this example, the buses S R0 — 0 and S R1 — 0 are arranged near the doors in order to express the sound leaking from the openings of the doors D01 and D12. If these buses S R0 — 0 and S R1 — 0 are assigned as sound sources of the sound leaking from the opening, the sound image of the sound leaking from the opening can be localized at the position of the opening. In FIG. 4, solid lines and broken lines indicate the propagation paths of sound from each bus.

図4の例では、音源S2からの音は、部屋R2、部屋R1を通って部屋R0に至る。すなわち、音源S2からの音の伝搬経路は、複数の領域にまたがっている。音の伝搬経路が複数の領域を通ることを表現するには、バスを階層構造にすればよい。図4のオブジェクト(建物)における音の伝搬経路を表現するためのバスの階層構造を図5に例示する。この例では、マスターバスMBの上流に部屋R0用のバス、部屋R1用のバス(バスSR0_0)、部屋R2用のバス(バスSR1_0)がこの順で直列に接続されている。 In the example of FIG. 4, the sound from the sound source S2 reaches the room R0 through the rooms R2 and R1. That is, the propagation path of the sound from the sound source S2 extends over a plurality of regions. In order to express that the sound propagation path passes through a plurality of regions, the bass may have a hierarchical structure. FIG. 5 illustrates a hierarchical structure of a bus for expressing a sound propagation path in the object (building) in FIG. In this example, a bus for the room R0, a bus for the room R1 (bus S R0_0 ), and a bus for the room R2 (bus S R1_0 ) are connected in series in this order upstream of the master bus MB.

なお、図5におけるS0〜S2は、音源S0,S1,S2に対応する音声データである。図5では、各音声データからバスに延びる実線は、音声データの出力先を示している。この出力先は、音源オブジェクトと仮想マイクLとの位置関係に応じて適宜、動的に決定される。出力先の決定は、制御部56が行う。   Note that S0 to S2 in FIG. 5 are audio data corresponding to the sound sources S0, S1, and S2. In FIG. 5, a solid line extending from each audio data to the bus indicates an output destination of the audio data. This output destination is dynamically determined as appropriate according to the positional relationship between the sound source object and the virtual microphone L. The control unit 56 determines the output destination.

〈制御部の機能的構成〉
制御部56は、ゲームプログラムを実行することにより、出力先決定手段565、第1調整手段561、第2調整手段562、第3調整手段563、および第4調整手段564として機能する。
<Functional configuration of control unit>
The control unit 56 functions as the output destination determining unit 565, the first adjusting unit 561, the second adjusting unit 562, the third adjusting unit 563, and the fourth adjusting unit 564 by executing the game program.

出力先決定手段565は、階層構造化されたバス(信号処理手段532)の何れに音声データを送るかを決定する。この例では、出力先決定手段565は、図6のテーブルに相当するデータを音声データの出力先の決定に用いる。図6のテーブルは、音源の情報(例えば音源がある部屋)と仮想マイクL(受音点)の位置(受音点がある部屋)の情報との組に対して、音声データの出力先を対応づけた対応表(以下、出力先決定情報と命名する)の一部である。   The output destination determining unit 565 determines to which of the hierarchically structured buses (signal processing unit 532) the audio data is to be sent. In this example, the output destination determining unit 565 uses data corresponding to the table in FIG. 6 to determine the output destination of the audio data. The table in FIG. 6 indicates the output destination of the audio data for a set of information on the sound source (for example, the room where the sound source is located) and the position of the virtual microphone L (the sound receiving point) (the room where the sound receiving point is located). This is a part of a correspondence table (hereinafter, referred to as output destination determination information).

出力先決定手段565は、ゲームプログラムの実行中は、音源や受音点の移動に応じて、このテーブルを用いて、音声データの出力先を逐次決定している。例えば、仮想マイクL(受音点)が部屋R0にある場合には、出力先決定手段565は、部屋R0内の音源S0の音声データを、部屋R0用のバスに送ることを決定する(図5も参照)。同様に、出力先決定手段565は、部屋R1内の音源S1の音声データを、部屋R1用のバス(すなわちバスSR0_0)に送ることを決定する。 During execution of the game program, the output destination determining means 565 uses the table to sequentially determine the output destination of the audio data according to the movement of the sound source and the sound receiving point. For example, when the virtual microphone L (sound receiving point) is in the room R0, the output destination determining unit 565 determines to transmit the audio data of the sound source S0 in the room R0 to the bus for the room R0 (see FIG. 5). Similarly, the output destination determining unit 565 determines to transmit the audio data of the sound source S1 in the room R1 to the bus for the room R1 (that is, the bus S R0 — 0 ).

第1調整手段561は、音源と仮想マイクLとの間のオブジェクト(例えば壁)を透過して直線的に、音源から仮想マイクLに到達する音(以下、直接音という)の音量(減衰量)や周波数スペクトルを調整する。その際、第1調整手段561は、音源手段531の第2エフェクタ531cを制御する。   The first adjusting unit 561 linearly transmits an object (for example, a wall) between the sound source and the virtual microphone L and linearly reaches the virtual microphone L from the sound source (hereinafter, referred to as a direct sound). ) And adjust the frequency spectrum. At that time, the first adjusting unit 561 controls the second effector 531c of the sound source unit 531.

より詳しくは、第1調整手段561は、以下の式(1)から算出したパラメータrf(ただし、0≦rf≦1)から新たな音量値およびローパスフィルタのカットオフ周波数を求め、rfの大きさに応じて音量や周波数スペクトルを調整する。   More specifically, the first adjusting unit 561 calculates a new volume value and a cutoff frequency of the low-pass filter from the parameter rf (where 0 ≦ rf ≦ 1) calculated from the following equation (1), and calculates the magnitude of rf Adjust the volume and frequency spectrum according to.

Figure 2020031303
Figure 2020031303

式(1)のdrは、直接音の伝搬経路長であり、音源Sと仮想マイクLとの直線距離である。図7に直接音の伝搬経路を実線で示す。また、図7に破線で示すように、音源S1から仮想マイクLに到達する音には、音源S1と仮想マイクLとの間のオブジェクト(壁など)を回折しつつ仮想マイクLに到達する音(以下、回折音という)がある。   In Expression (1), dr is the propagation path length of the direct sound, and is the linear distance between the sound source S and the virtual microphone L. FIG. 7 shows a direct sound propagation path by a solid line. As shown by a broken line in FIG. 7, sounds reaching the virtual microphone L from the sound source S1 include sounds reaching the virtual microphone L while diffracting an object (such as a wall) between the sound source S1 and the virtual microphone L. (Hereinafter referred to as diffraction sound).

図7のdf0は部屋R1内における回折音の伝搬経路長であり、df1は、部屋R0内における回折音の回折音の伝搬経路長である。したがって、式(1)の右辺におけるΣdfは、回折音の総伝搬経路長(Σdf=df0+df1)であり、式(1)における右辺の第2項の分子は、直接音と回折音の経路差である。 D f0 in FIG. 7 is a propagation path length of the diffracted sound in the room R1, d f1 is a propagation path length of the diffracted sound of diffracted sound in the room R0. Therefore, Shigumadf on the right-hand side of Equation (1) is the total propagation path length of the diffracted sound (Σdf = d f0 + d f1 ), molecules of the second term of the right side in Equation (1) is of the direct sound and diffracted sound Path difference.

式(1)のTfは、ゲームプログラムの開発時に音響表現を担当する開発者(以下、サウンドデザイナという)が設定可能な閾値である。閾値Tfをサウンドデザイナが適宜設定することによって、直接音の聞こえ方を調整できる。例えば、閾値Tfが大きいほど、直接音の音量は大きくなる。   Tf in Expression (1) is a threshold value that can be set by a developer (hereinafter, referred to as a sound designer) responsible for sound expression when developing a game program. By setting the threshold value Tf as appropriate by the sound designer, it is possible to adjust how the direct sound is heard. For example, the volume of the direct sound increases as the threshold value Tf increases.

式(1)からrfが求まると、第1調整手段561によって、音量値やカットオフ周波数が調整される。図7の例では、第1調整手段561は、部屋R1内の音源Sに対応する音源手段531の第2エフェクタ531cにおける音量値およびカットオフ周波数を調整する。すなわち、パラメータrfは、音源から受音点に、両者間のオブジェクトを透過して直線的に到達する音の変化を決定するパラメータである。   When rf is obtained from Expression (1), the volume value and the cutoff frequency are adjusted by the first adjusting unit 561. In the example of FIG. 7, the first adjusting unit 561 adjusts the volume value and the cutoff frequency of the second effector 531c of the sound source 531 corresponding to the sound source S in the room R1. That is, the parameter rf is a parameter that determines a change in sound that reaches the sound receiving point from the sound source and reaches the sound receiving point linearly through the object between them.

このとき、音量は、rfが大きいほど、より大きく制御され、カットオフ周波数はより高く調整される。例えば、仮想マイクLがドアD01の付近にある場合は、経路差はほとんどないので、rfはほぼ1である。したがって、第2エフェクタ531cの音量値(直接音の音量値)は、設定可能な最高レベルに調整される。また、第2エフェクタ531cのローパスフィルタは無効化される。   At this time, the sound volume is controlled to be larger as rf is larger, and the cutoff frequency is adjusted to be higher. For example, when the virtual microphone L is near the door D01, there is almost no path difference, so that rf is almost 1. Therefore, the volume value of the second effector 531c (the volume value of the direct sound) is adjusted to the highest level that can be set. Further, the low-pass filter of the second effector 531c is invalidated.

また、仮想マイクLが部屋R0の奥(図7の上方)に移動して行くと徐々に経路差が大きくなってrfが徐々に小さくなる。経路差が閾値Tfを超えると、rfがゼロになって、第2エフェクタ531cの音量値は、設定可能な最低レベルに調整される。また、第2エフェクタのローパスフィルタのカットオフ周波数は、設定可能な最低値に設定される。このような、音量値等の制御の結果、直接音は完全に遮蔽したように表現される。   Further, as the virtual microphone L moves deeper into the room R0 (upward in FIG. 7), the path difference gradually increases, and rf gradually decreases. When the path difference exceeds the threshold value Tf, rf becomes zero, and the volume value of the second effector 531c is adjusted to the lowest level that can be set. Further, the cut-off frequency of the low-pass filter of the second effector is set to a settable minimum value. As a result of such control of the volume value and the like, the direct sound is expressed as completely shielded.

第2調整手段562は、回折音の音量(減衰量)を調整する。具体的に第2調整手段562は、音源手段531から信号処理手段532へ送られる過程において、音声データの音量を調整する。より詳しくは、第2調整手段562では、開口に設けられたバス(図7ではバスSR0_0)に音声データを送る過程においてセンドボリュームを調整することによって、回折音の音量調整を実現している。 The second adjusting unit 562 adjusts the volume (attenuation) of the diffracted sound. Specifically, the second adjusting unit 562 adjusts the volume of the audio data in the process of being sent from the sound source unit 531 to the signal processing unit 532. More specifically, the second adjustment unit 562 adjusts the volume of the diffracted sound by adjusting the send volume in the process of sending the audio data to the bus (the bus S R0 — 0 in FIG. 7) provided in the opening. .

その際、第2調整手段562は、以下の式(2)から算出したパラメータr0(ただし、0≦r0≦1)を用いてセンドボリューム調整用に新たな音量値を求めている。つまり、パラメータr0は、音源から受音点に、両者間のオブジェクトを回折して到達する回折音の変化を決定するパラメータである。   At this time, the second adjusting unit 562 obtains a new volume value for the send volume adjustment using the parameter r0 (where 0 ≦ r0 ≦ 1) calculated from the following equation (2). That is, the parameter r0 is a parameter that determines the change in the diffracted sound that reaches the sound receiving point from the sound source by diffracting the object between them.

Figure 2020031303
Figure 2020031303

式(2)のrfは、式(1)によって算出されたものである。式(2)から分かるように、r0は、rfが大きくなると小さくなり、rfが小さくなると大きくなる。つまり、Tfをサウンドデザイナが設定することによって、直接音と回折音の音量バランスを調整できる。   Rf in equation (2) is calculated by equation (1). As can be seen from equation (2), r0 decreases as rf increases and increases as rf decreases. That is, by setting Tf by the sound designer, the volume balance between the direct sound and the diffracted sound can be adjusted.

なお、ここでは、R1用のバスSR0_0のように位置を持つバスに音声データを送る場合には、音源手段531が有する第2エフェクタ531cを無効にしている。これは、音源S1から開口(ドアD01の開口)に届く音は、壁を透過しているわけではなく、周波数スペクトル等の調整は不要だからである。 Here, when the audio data is sent to a bus having a position such as the bus S R0_0 for R1, the second effector 531c of the sound source 531 is disabled. This is because the sound arriving at the opening (the opening of the door D01) from the sound source S1 does not pass through the wall, and it is not necessary to adjust the frequency spectrum and the like.

第3調整手段563は、音がドアの開口を回折して他の空間(例えば他の部屋)に伝わる場合にドアが音へ及ぼす影響を考慮して、音量や周波数スペクトルの調整を行う。図8は、第3調整手段563の整機能を説明する図である。本実施形態では、ドアを透過して仮想マイクLに伝わる直接音と、ドアを回折して仮想マイクLに伝わる回折音の音量や周波数スペクトルを調整することで、ドアが音へ及ぼす影響を表現する。   The third adjustment unit 563 adjusts the volume and frequency spectrum in consideration of the influence of the door on the sound when the sound is diffracted through the opening of the door and transmitted to another space (for example, another room). FIG. 8 is a diagram for explaining the adjusting function of the third adjusting unit 563. In the present embodiment, the influence of the door on the sound is expressed by adjusting the volume and frequency spectrum of the direct sound transmitted to the virtual microphone L through the door and the diffracted sound transmitted to the virtual microphone L by diffracting the door. I do.

まず、ドアを透過する直接音は、壁の透過と同様に考えればよい。すなわち、ドアを透過する直接音については、既述の式(1)を用いて音量等を調整すればよい。ここでは、ドアのヒンジ(S’)付近を透過するものとして、音量値およびカットオフ周波数を決定している。   First, the direct sound transmitted through the door can be considered in the same manner as the transmission through the wall. That is, for the direct sound transmitted through the door, the volume and the like may be adjusted using the above-described equation (1). Here, the sound volume value and the cut-off frequency are determined so as to pass through the vicinity of the hinge (S ') of the door.

式(1)から、パラメータrfが求まると、第3調整手段563は、音源Sからドアの開口部(S’とする)’までの音を生成するために、音源Sに対応する音源手段531が有する第2エフェクタ531cに対して、パラメータrfを用いて音量値やカットオフ周波数を指示する。   When the parameter rf is determined from Expression (1), the third adjusting unit 563 generates a sound from the sound source S to the opening of the door (referred to as S ′) ′. Are instructed to the second effector 531c included in the parameter value using the parameter rf.

一方、ドアを回折する回折音については、ドアの端(S’’)から音が回り込むと考えて減衰量等を決定すればよい。具体的に第3調整手段563は、次の式(3)から算出したパラメータrd(ただし、0≦rd≦1)から新たな音量値やカットオフ周波数を求めている。パラメータrdは、音源から受音点に、ドアの開口を通過して到達する音の変化を定めるパラメータである。   On the other hand, with respect to the diffracted sound diffracting the door, the attenuation amount and the like may be determined on the assumption that the sound goes around from the end (S ″) of the door. More specifically, the third adjusting unit 563 obtains a new volume value and a new cutoff frequency from the parameter rd (where 0 ≦ rd ≦ 1) calculated from the following equation (3). The parameter rd is a parameter that determines a change in sound that reaches the sound receiving point from the sound source through the opening of the door.

Figure 2020031303
Figure 2020031303

この式(3)は、ドアの開度(φd)が大きいほど音量が大きく、且つカットオフ周波数が高くなることを示している。式(3)のTdは、サウンドデザイナが設定可能な閾値である。閾値Tdをサウンドデザイナが適宜設定することによって、音に対するドアの影響度を調整できる。例えば、φdが閾値Tdを超えると、ドアは全開したものとして音量値とカットオフ周波数が設定される。   This equation (3) indicates that the larger the door opening (φd), the higher the volume and the higher the cutoff frequency. Td in Expression (3) is a threshold that can be set by the sound designer. By appropriately setting the threshold value Td by the sound designer, the degree of influence of the door on the sound can be adjusted. For example, when φd exceeds the threshold value Td, the volume value and the cutoff frequency are set assuming that the door is fully opened.

回折音の生成用に音量値やカットオフ周波数が決まると、第3調整手段563は、開口部S’から仮想マイクLまでの音を生成するために、部屋R1に対応のバスが有する伝搬エフェクタ532dに対して、パラメータrdを用いて音量値やカットオフ周波数を指示する。   When the volume value and the cutoff frequency are determined for the generation of the diffracted sound, the third adjusting unit 563 generates the sound from the opening S ′ to the virtual microphone L by using the propagation effector of the bus corresponding to the room R1. For 532d, a volume value and a cutoff frequency are instructed using the parameter rd.

第4調整手段564は、音源と仮想マイクLとの距離、および両者を結ぶ経路の方向に応じて、音声データの音量と周波数スペクトルの調整を行う。図9は、第4調整手段564の調整機能を説明する図である。第4調整手段564は、音源Sから、ドアの開口部を介した仮想マイクLまでの最短経路(経路長=dsd+ddl)を音の伝搬経路とし、この伝搬経路における減衰と周波数スペクトル変化を音声データに付加する。 The fourth adjustment unit 564 adjusts the volume and frequency spectrum of the audio data according to the distance between the sound source and the virtual microphone L and the direction of the path connecting the two. FIG. 9 is a diagram illustrating the adjustment function of the fourth adjustment unit 564. The fourth adjusting unit 564 sets the shortest path (path length = d sd + d dl ) from the sound source S to the virtual microphone L through the opening of the door as a sound propagation path, and the attenuation and frequency spectrum change in this propagation path. Is added to the audio data.

具体的に、第4調整手段564は、音源Sからドアの開口部S’までの音の表現を行うために、音源Sに対応する音源手段531が有する第2エフェクタ531cに対して、音量値およびローパスフィルタのカットオフ周波数を指示する。また、開口部S’から仮想マイクLまでの音の表現には、第4調整手段564は、部屋R1に対応のバスが有する伝搬エフェクタ532dに対して、音量値およびローパスフィルタのカットオフ周波数を指示する。   Specifically, the fourth adjusting unit 564 sends a sound volume value to the second effector 531c of the sound source unit 531 corresponding to the sound source S in order to represent the sound from the sound source S to the door opening S ′. And the cutoff frequency of the low-pass filter. Further, in expressing the sound from the opening S ′ to the virtual microphone L, the fourth adjusting unit 564 sets the volume value and the cutoff frequency of the low-pass filter to the propagation effector 532d of the bus corresponding to the room R1. To instruct.

第4調整手段564は、制御の際には、図10に示す特性曲線を用いる。図10では、横軸が経路長であり、縦軸は、左側が音量値の減衰量、右側がローパスフィルタのカットオフ周波数である。また、図10では、実線が左側の目盛(減衰量)に対応し、破線が右の目盛(カットオフ周波数)に対応している。   The fourth adjusting means 564 uses a characteristic curve shown in FIG. 10 at the time of control. In FIG. 10, the horizontal axis indicates the path length, and the vertical axis indicates the attenuation of the sound volume value on the left side, and the cutoff frequency of the low-pass filter on the right side. In FIG. 10, the solid line corresponds to the scale on the left (amount of attenuation), and the broken line corresponds to the scale on the right (cutoff frequency).

また、第4調整手段564は、図11に示す特性曲線も制御に用いる。図11の特性曲線は、音源Sと開口(開口部S’)とを結ぶ線が壁となす角度(φs)や、仮想マイクLと開口(開口部S’)とを結ぶ線が壁の法線となす角度(φ)が、音の減衰や周波数スペクトル変化に及ぼす影響度を調整するものである。 The fourth adjusting unit 564 also uses the characteristic curve shown in FIG. 11 for control. The characteristic curve in FIG. 11 indicates that the angle (φs) between the line connecting the sound source S and the opening (opening S ′) forms a wall, and the line connecting the virtual microphone L and the opening (opening S ′) forms the wall. This adjusts the degree of influence of the angle (φ L ) between the line and the line on sound attenuation and frequency spectrum change.

図11は、横軸は角度(φs,φ)であり、縦軸は、左側が音量値の減衰量、右側がローパスフィルタのカットオフ周波数である。また、図11でも、実線が左の目盛(減衰量)に対応し、破線が右の目盛(カットオフ周波数)に対応している。このゲームプログラムでは、図10および図11に示した特性曲線は、何れもサウンドデザイナが自由に設定できる。すなわち、サウンドデザイナがデザイン可能な項目である。 11, the horizontal axis represents the angle (φs, φ L), the vertical axis represents the attenuation of the left volume value, a cut-off frequency of the right low-pass filter. Also in FIG. 11, the solid line corresponds to the left scale (attenuation amount), and the broken line corresponds to the right scale (cutoff frequency). In this game program, any of the characteristic curves shown in FIGS. 10 and 11 can be freely set by the sound designer. That is, the item can be designed by the sound designer.

そして、第4調整手段564は、角度(φs)と図11の特性曲線を用いて、音源Sから開口部S’までの伝搬経路における音量値とカットオフ周波数を求め、角度(φ)と図11の特性曲線を用いて、開口部S’から仮想マイクLまでの伝搬経路における音量値とカットオフ周波数を求めている。 Then, the fourth adjusting unit 564 obtains a volume value and a cutoff frequency in the propagation path from the sound source S to the opening S ′ using the angle (φs) and the characteristic curve of FIG. 11, and obtains the angle (φ L ) Using the characteristic curve of FIG. 11, the volume value and the cutoff frequency in the propagation path from the opening S ′ to the virtual microphone L are obtained.

以上をまとめると、本件発明は、コンピュータ(ゲーム装置5)を、仮想空間の音源に対応する音声データを出力する音源手段と、音声データの加工が可能な信号処理手段を複数有して前記信号処理手段を単独または階層的に繋いで前記音声データを処理する音声加工手段と、前記音源と仮想の受音点との位置関係から前記音源手段の出力先となる信号処理手段を決定する出力先決定情報に基づいて、前記出力先を決定する出力先決定手段として機能させることを特徴とする仮想空間における音声生成プログラムである。   In summary, the present invention provides a computer (game device 5) having a plurality of sound source means for outputting sound data corresponding to a sound source in a virtual space, and a plurality of signal processing means capable of processing sound data. Audio processing means for processing the audio data by connecting processing means alone or hierarchically, and an output destination for determining a signal processing means to be an output destination of the sound source means from a positional relationship between the sound source and a virtual sound receiving point A sound generation program in a virtual space, which functions as an output destination determining unit that determines the output destination based on determination information.

〈本実施形態の効果〉
以上のように、本実施形態では、バスが仮想空間のオブジェクト(建物など)の構造に応じて階層的に接続されており、サウンドデザイナは、出力先決定情報を用いて音声データの出力先(バス)を自由に設定できる。また、サウンドデザイナは、閾値Tfや閾値Tdを調整することで、直接音と回折音のバランスを調整したり、ドアの開度、材質などが音の伝搬に及ぼす影響度を調整したりできる。更に、音源と受音点との距離、方向に応じた減衰も制御できる。
<Effect of this embodiment>
As described above, in the present embodiment, the buses are hierarchically connected according to the structure of the object (such as a building) in the virtual space, and the sound designer uses the output destination determination information to output the audio data ( Bus) can be set freely. In addition, the sound designer can adjust the balance between the direct sound and the diffracted sound and adjust the degree of influence of the door opening, material, and the like on the sound propagation by adjusting the threshold Tf and the threshold Td. Further, the attenuation according to the distance and direction between the sound source and the sound receiving point can be controlled.

すなわち、本実施形態によれば、仮想空間における音声生成に際して、開発者の意図を容易に反映できる。   That is, according to the present embodiment, the intention of the developer can be easily reflected when generating the sound in the virtual space.

[実施形態の変形例]
前記実施形態で説明した出力先決定情報は例示であり、出力先決定情報の内容は、サウンドデザイナが適宜設定することができる。例えば、図4に示した部屋R2内の音源S2の音について、あまり細やかな表現を必要としないとサウンドデザイナが考えたとする。
[Modification of Embodiment]
The output destination determination information described in the above embodiment is an example, and the content of the output destination determination information can be appropriately set by a sound designer. For example, it is assumed that the sound designer considers that the sound of the sound source S2 in the room R2 shown in FIG. 4 does not require a very detailed expression.

その場合には、図12のようにバスの階層構造を構成することが考えられる。この例では、部屋R2に対応するバスは設けられていない。部屋R2内の音源S2の音声データは、部屋R1用のバスに入力されている。   In that case, it is conceivable to configure a hierarchical structure of the bus as shown in FIG. In this example, a bus corresponding to the room R2 is not provided. The audio data of the sound source S2 in the room R2 is input to the bus for the room R1.

図13に、図12の階層構造に対応する出力先決定情報を例示する。この出力先決定情報には、音量の欄が設けられて、音源S2の音量が低下させられている。これは、部屋R2の音源S2の音を、そのままの音量で部屋R1用のバスに入力すると、音源S2の音が想定されるよりも大きな音としてユーザに聞こえて不自然だからである。   FIG. 13 illustrates output destination determination information corresponding to the hierarchical structure in FIG. This output destination determination information is provided with a volume column, and the volume of the sound source S2 is reduced. This is because, if the sound of the sound source S2 in the room R2 is input to the bus for the room R1 at the same volume, the user hears the sound of the sound source S2 as a sound larger than expected and is unnatural.

[その他の実施形態]
なお、第1調整手段561や第3調整手段563は、壁やドアの材質に応じて音声データを減衰させるように構成してもよい。例えば、壁やドアに素材(例えば、木、ガラス、鉄)が設定されている場合には、素材に対応する音量量やカットオフ周波数をテーブルから検索できるようにしておくことでこれを実現できる。このテーブルは、サウンドデザイナが任意に設定できる項目である。すなわち、壁やドアの材質に応じた音の変化もサウンドデザイナがデザイン可能な項目である。
[Other Embodiments]
Note that the first adjustment unit 561 and the third adjustment unit 563 may be configured to attenuate the audio data according to the material of the wall or the door. For example, when a material (for example, wood, glass, or iron) is set for a wall or a door, this can be realized by making it possible to search a table for a volume amount and a cutoff frequency corresponding to the material. . This table is an item that can be arbitrarily set by the sound designer. That is, the sound change according to the material of the wall or the door is also an item that the sound designer can design.

また、第2エフェクタ531cや伝搬エフェクタ532dの構成は例示であり、更に別のエフェクト機能を実装したり、一部の機能を省略したりすることも可能である。   Also, the configurations of the second effector 531c and the propagation effector 532d are examples, and it is possible to implement still another effect function or omit some of the functions.

また、第3調整手段563の処理の適用は、ドア部分には限定されない。例えば、オブジェクトが「窓」を有する場合には、その窓の部分にも適用できる。要は、第3調整手段563における処理は、開口の開度が変化する場所に適用できる処理である。   Further, the application of the processing of the third adjusting unit 563 is not limited to the door portion. For example, when the object has a “window”, the present invention can be applied to the window. In short, the process in the third adjusting unit 563 is a process applicable to a place where the opening degree of the opening changes.

また、音源手段531から信号処理手段532に送る音声データに対しては、センドボリュームとともにローパスフィルタを作用させてもよい。   A low-pass filter may be applied to the audio data sent from the sound source 531 to the signal processing unit 532 together with the send volume.

また、オーディオ処理部53と制御部56の機能分担は例示である。オーディオ処理部53のミドルウエアで実行していたものを制御部56で実行してもよいし、その逆であってもよい。   Also, the function sharing between the audio processing unit 53 and the control unit 56 is an example. What was executed by the middleware of the audio processing unit 53 may be executed by the control unit 56, or vice versa.

また、ゲームプログラムは、いわゆるオンラインゲーム用のゲームプログラムとして実装してもよい。ゲームプログラムがオンラインゲーム用である場合には、オーディオ処理部53や制御部56で行っていた処理をそれらに代わってサーバ側で行ってもよいし、サーバ側とクライアント(ゲーム装置5)側とで分担してもよい。   Further, the game program may be implemented as a game program for a so-called online game. When the game program is for an online game, the processing performed by the audio processing unit 53 and the control unit 56 may be performed on the server side instead of the audio processing unit 53 and the control unit 56, or the server side and the client (game device 5) side May be shared.

これらの他の実施形態を採用した場合においても、本発明の作用効果は発揮される。また、本実施形態と他の実施形態、および他の実施形態同士を適宜組み合わせることも可能である。   Even when these other embodiments are adopted, the operation and effect of the present invention are exhibited. Further, the present embodiment, other embodiments, and other embodiments can be appropriately combined with each other.

また、本発明は、ゲーム以外の分野でも利用可能である。例えば、仮想空間をシミュレーションするプログラムに適用したり、映画の音響効果の作成などに利用したりできる。   Further, the present invention can be used in fields other than games. For example, the present invention can be applied to a program for simulating a virtual space or used for creating sound effects of a movie.

5 ゲーム装置(音声生成装置)
53 オーディオ処理部(音声加工手段)
55 記憶部
56 制御部
531 音源手段
532 バス(信号処理手段)
532e 第2音像定位手段(音像定位手段)
561 第1調整手段
562 第2調整手段
563 第3調整手段
565 出力先決定手段
5 Game device (voice generation device)
53 audio processing unit (audio processing means)
55 storage unit 56 control unit 531 sound source means 532 bus (signal processing means)
532e Second sound image localization means (sound image localization means)
561 first adjusting means 562 second adjusting means 563 third adjusting means 565 output destination determining means

Claims (6)

コンピュータを、
仮想空間の音源に対応する音声データを出力する音源手段と、
音声データの加工が可能な信号処理手段を複数有して前記信号処理手段を単独または階層的に繋いで前記音声データを処理する音声加工手段と、
前記音源と仮想の受音点との位置関係から前記音源手段の出力先となる信号処理手段を決定する出力先決定情報に基づいて、前記出力先を決定する出力先決定手段と、
して機能させることを特徴とする仮想空間における音声生成プログラム。
Computer
Sound source means for outputting audio data corresponding to a sound source in a virtual space;
Voice processing means for processing the voice data by connecting a plurality of signal processing means capable of processing voice data and connecting the signal processing means alone or hierarchically;
An output destination determining unit that determines the output destination based on output destination determination information that determines a signal processing unit that is an output destination of the sound source unit from a positional relationship between the sound source and a virtual sound receiving point,
A sound generation program in a virtual space characterized by functioning as a function.
請求項1において、
前記信号処理手段は、加工後の音声データに音像定位を行う音像定位手段を有していることを特徴とする仮想空間における音声生成プログラム。
In claim 1,
A sound generation program in a virtual space, wherein the signal processing means includes a sound image localization means for performing sound image localization on processed sound data.
請求項1または請求項2において、
前記音源から前記受音点に、両者間のオブジェクトを透過して直線的に到達する音の変化を決定するパラメータに基づいて、前記音源手段が出力する音声データの音量を調整する第1調整手段として前記コンピュータを機能させることを特徴とする仮想空間における音声生成プログラム。
In claim 1 or claim 2,
First adjusting means for adjusting the volume of audio data output by the sound source means based on a parameter that determines a change in sound that reaches the sound receiving point from the sound source and reaches the sound receiving point linearly through the object between them; A sound generation program in a virtual space, which causes the computer to function as a computer.
請求項1から請求項3の何れかにおいて、
前記音源から前記受音点に、両者間のオブジェクトを回折して到達する音の変化を決定するパラメータに基づいて、前記信号処理手段が出力する音声データの音量を調整する第2調整手段として前記コンピュータを機能させることを特徴とする仮想空間における音声生成プログラム。
In any one of claims 1 to 3,
The second adjusting means for adjusting the volume of audio data output by the signal processing means based on a parameter for determining a change in sound reaching the sound receiving point from the sound source by diffracting an object between the two. A sound generation program in a virtual space, which causes a computer to function.
請求項1から請求項4の何れかにおいて、
前記音源と前記受音点との間には、ドアを有した壁を示すオブジェクトが配置されており、
前記音源から前記受音点に、前記ドアの開口を通過して到達する音の変化を定めるパラメータに基づいて、前記信号処理手段が出力する音声データの音量を調整する第3調整手段として前記コンピュータを機能させることを特徴とする仮想空間における音声生成プログラム。
In any one of claims 1 to 4,
An object indicating a wall having a door is arranged between the sound source and the sound receiving point,
A third adjusting unit that adjusts a volume of audio data output by the signal processing unit based on a parameter that determines a change in sound reaching the sound receiving point from the sound source through the opening of the door. A sound generation program in a virtual space, characterized by causing a computer to function.
請求項1から請求項5の何れかの仮想空間における音声生成プログラムを記憶した記憶部と、
前記音声生成プログラムを実行する制御部と、
を備えたことを特徴とする音声生成装置。
A storage unit storing a sound generation program in the virtual space according to any one of claims 1 to 5,
A control unit that executes the voice generation program;
A speech generation device comprising:
JP2018154723A 2018-08-21 2018-08-21 Voice generating program and voice generating apparatus in virtual space Pending JP2020031303A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018154723A JP2020031303A (en) 2018-08-21 2018-08-21 Voice generating program and voice generating apparatus in virtual space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018154723A JP2020031303A (en) 2018-08-21 2018-08-21 Voice generating program and voice generating apparatus in virtual space

Publications (1)

Publication Number Publication Date
JP2020031303A true JP2020031303A (en) 2020-02-27

Family

ID=69622853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018154723A Pending JP2020031303A (en) 2018-08-21 2018-08-21 Voice generating program and voice generating apparatus in virtual space

Country Status (1)

Country Link
JP (1) JP2020031303A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021235172A1 (en) * 2020-05-19 2021-11-25 oVice株式会社 Information processing system, information processing device, and program
JP2022007893A (en) * 2020-05-19 2022-01-13 oVice株式会社 Information processing system, information processing device, and program
WO2023083876A3 (en) * 2021-11-09 2023-07-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Renderers, decoders, encoders, methods and bitstreams using spatially extended sound sources
WO2023214515A1 (en) * 2022-05-02 2023-11-09 ソニーグループ株式会社 Sound generation control method, sound production device, and sound generation control program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004085665A (en) * 2002-08-23 2004-03-18 Yamaha Corp Method for creating sound environment prediction data, program for creating sound environment prediction data, and sound environment prediction system
JP2004317911A (en) * 2003-04-18 2004-11-11 Chiba Inst Of Technology Device and method for sound field simulation, computer program, and program recording medium
JP2012054698A (en) * 2010-08-31 2012-03-15 Square Enix Co Ltd Video game processing device and video game processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004085665A (en) * 2002-08-23 2004-03-18 Yamaha Corp Method for creating sound environment prediction data, program for creating sound environment prediction data, and sound environment prediction system
JP2004317911A (en) * 2003-04-18 2004-11-11 Chiba Inst Of Technology Device and method for sound field simulation, computer program, and program recording medium
JP2012054698A (en) * 2010-08-31 2012-03-15 Square Enix Co Ltd Video game processing device and video game processing program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021235172A1 (en) * 2020-05-19 2021-11-25 oVice株式会社 Information processing system, information processing device, and program
JP2022007893A (en) * 2020-05-19 2022-01-13 oVice株式会社 Information processing system, information processing device, and program
JP7160263B2 (en) 2020-05-19 2022-10-25 oVice株式会社 Information processing system, information processing device and program
US11871152B2 (en) 2020-05-19 2024-01-09 Ovice, Inc. Information processing system, information processing apparatus, and program
WO2023083876A3 (en) * 2021-11-09 2023-07-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Renderers, decoders, encoders, methods and bitstreams using spatially extended sound sources
WO2023214515A1 (en) * 2022-05-02 2023-11-09 ソニーグループ株式会社 Sound generation control method, sound production device, and sound generation control program

Similar Documents

Publication Publication Date Title
JP2020031303A (en) Voice generating program and voice generating apparatus in virtual space
JP6461850B2 (en) Simulation system and program
WO2007105689A1 (en) Game sound output device, game sound control method, information recording medium, and program
JP5882403B2 (en) Sound effect processing program and game device
CN108379842B (en) Game audio processing method and device, electronic equipment and storage medium
JP2017176728A (en) Simulation system and program
US11250834B2 (en) Reverberation gain normalization
KR101809617B1 (en) My-concert system
JP2020018620A (en) Voice generation program in virtual space, generation method of quadtree, and voice generation device
JP2012054698A (en) Video game processing device and video game processing program
JP4789145B2 (en) Content reproduction apparatus and content reproduction program
US10841727B2 (en) Low-frequency interchannel coherence control
JP7267096B2 (en) AUDIO EFFECT CONTROL SYSTEM, AUDIO EFFECT CONTROL DEVICE, RECEIVING DEVICE, AUDIO EFFECT CONTROL METHOD, RECEIVER CONTROL METHOD AND PROGRAM
JP6159515B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING CONTROL METHOD
JP6294899B2 (en) Sound effect processing program and game device
JP6740297B2 (en) Game program and game device
JP6737842B2 (en) Game program and game device
JP6817280B2 (en) Voice control program and voice control device
JP2020091438A (en) Voice generation program, and voice generation device
JP2024041372A (en) Game programs and game devices
JP2024041373A (en) Game programs and game devices
JP7478100B2 (en) Reverberation Gain Normalization
JP6046759B2 (en) Sound effect processing program and game device
JP2024041357A (en) Game programs and game devices
JP6286405B2 (en) Sound effect processing program and game device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201002

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210406