JP2020031303A - Voice generating program and voice generating apparatus in virtual space - Google Patents
Voice generating program and voice generating apparatus in virtual space Download PDFInfo
- Publication number
- JP2020031303A JP2020031303A JP2018154723A JP2018154723A JP2020031303A JP 2020031303 A JP2020031303 A JP 2020031303A JP 2018154723 A JP2018154723 A JP 2018154723A JP 2018154723 A JP2018154723 A JP 2018154723A JP 2020031303 A JP2020031303 A JP 2020031303A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- sound source
- virtual space
- signal processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、仮想空間における音声生成プログラム、および音声生成装置に関する。 The present invention relates to a sound generation program and a sound generation device in a virtual space.
近年のゲームプログラムでは、三次元の動画像を用いつつ、より正確な音響表現を試みることで、ユーザに豊かなバーチャル体験を提供している(例えば特許文献1を参照)。特許文献1の例では、より正確な音響表現を行うために、仮想三次元空間内にオブジェクトを配置し、音響シミュレーションをすることで音響信号を生成している。 Recent game programs provide users with rich virtual experiences by trying more accurate sound expression while using three-dimensional moving images (see, for example, Patent Document 1). In the example of Patent Literature 1, in order to perform more accurate acoustic expression, an acoustic signal is generated by arranging an object in a virtual three-dimensional space and performing an acoustic simulation.
しかしながら、特許文献1のようにシミュレーションに基づいて音響信号を生成する方法では、例えば、何らかの音を強調させたいとか、弱めたいとか、或いはなくしたといったプログラム開発者の意図を反映させる余地がない。 However, in the method of generating an acoustic signal based on a simulation as in Patent Document 1, there is no room for reflecting a program developer's intention, for example, to emphasize, weaken, or eliminate some sound.
そこで、本発明は、仮想空間における音声生成に際して、開発者の意図を容易に反映できるようにすることを目的とする。 Therefore, an object of the present invention is to make it possible to easily reflect the intention of a developer when generating sound in a virtual space.
第1の発明は、コンピュータを、仮想空間の音源に対応する音声データを出力する音源手段と、音声データの加工が可能な信号処理手段を複数有して前記信号処理手段を単独または階層的に繋いで前記音声データを処理する音声加工手段と、前記音源と仮想の受音点との位置関係から前記音源手段の出力先となる信号処理手段を決定する出力先決定情報に基づいて、前記出力先を決定する出力先決定手段と、して機能させることを特徴とする仮想空間における音声生成プログラムである。 According to a first aspect of the present invention, a computer includes a sound source unit that outputs sound data corresponding to a sound source in a virtual space, and a plurality of signal processing units capable of processing sound data. Sound processing means for processing the sound data by connecting the sound data, and the output based on output destination determination information for determining signal processing means to be an output destination of the sound source means from a positional relationship between the sound source and a virtual sound receiving point. A sound generation program in a virtual space characterized by functioning as an output destination determining means for determining a destination.
また、第1の発明において、前記信号処理手段は、加工後の音声データに音像定位を行う音像定位手段を設けてもよい。 Further, in the first invention, the signal processing unit may include a sound image localization unit that performs sound image localization on the processed audio data.
また、前記発明において、前記音源から前記受音点に、両者間のオブジェクトを透過して直線的に到達する音の変化を決定するパラメータに基づいて、前記音源手段が出力する音声データの音量を調整する第1調整手段として前記コンピュータを機能させてもよい。 Further, in the above invention, the volume of the sound data output by the sound source means is set based on a parameter that determines a change in sound that reaches the sound receiving point from the sound source and reaches the sound receiving point linearly through the object between the two. The computer may function as first adjusting means for adjusting.
また、前記発明において、前記音源から前記受音点に、両者間のオブジェクトを回折して到達する音の変化を決定するパラメータに基づいて、前記信号処理手段が出力する音声データの音量を調整する第2調整手段として前記コンピュータを機能させてもよい。 Further, in the invention, the volume of the audio data output by the signal processing unit is adjusted based on a parameter that determines a change in sound that reaches the sound receiving point from the sound source by diffracting an object between the two. The computer may function as second adjusting means.
また、前記発明において、前記音源と前記受音点との間には、ドアを有した壁を示すオブジェクトが配置されており、前記音源から前記受音点に、前記ドアの開口を通過して到達する音の変化を定めるパラメータに基づいて、前記信号処理手段が出力する音声データの音量を調整する第3調整手段として前記コンピュータを機能させてもよい。 Further, in the invention, an object indicating a wall having a door is arranged between the sound source and the sound receiving point, and from the sound source to the sound receiving point, passing through an opening of the door. The computer may function as third adjusting means for adjusting the volume of the audio data output by the signal processing means based on a parameter that determines a change in the sound that arrives.
また、第2の発明は、前記仮想空間における音声生成プログラムを記憶した記憶部と、前記音声生成プログラムを実行する制御部と、を備えたことを特徴とする音声生成装置である。 According to a second aspect of the present invention, there is provided a voice generating apparatus including: a storage unit that stores a voice generating program in the virtual space; and a control unit that executes the voice generating program.
本発明によれば、仮想空間における音声生成に際して、開発者の意図を容易に反映できる。 ADVANTAGE OF THE INVENTION According to this invention, when producing | generating audio | voice in a virtual space, the intention of a developer can be reflected easily.
[実施形態]
以下、本発明の実施形態にかかる音声生成プログラム、および音声生成装置について、図面を参照して説明する。なお、本発明の仮想空間における音声生成プログラムは、ゲームプログラムとして実装されている。また、音声生成装置は、ゲーム装置として実現されている。
[Embodiment]
Hereinafter, a speech generation program and a speech generation device according to an embodiment of the present invention will be described with reference to the drawings. The sound generation program in the virtual space according to the present invention is implemented as a game program. Further, the sound generation device is realized as a game device.
本実施形態で説明するゲームプログラムは、例えば、パーソナルコンピュータ、プレイステーション(登録商標)、XBox(登録商標)、PlayStation Vita(登録商標)などのゲーム装置において実行される。 The game program described in the present embodiment is executed on a game device such as a personal computer, a PlayStation (registered trademark), an XBox (registered trademark), and a PlayStation Vita (registered trademark).
このゲームプログラムによるゲームでは、各ユーザの操作を受けて、プレイヤキャラクタを三次元の仮想ゲーム空間(以下、仮想空間VSという)で活動させたり、プレイヤキャラクタ同士でグループを編成して様々なアクションを行わせたりする。より具体的には、このゲームは、プレイヤキャラクタが敵キャラクタを攻撃して倒していく対戦型のアクションゲームである。 In a game according to this game program, a player character is activated in a three-dimensional virtual game space (hereinafter, referred to as a virtual space VS) in response to an operation of each user, or a group of players is formed to perform various actions. Or let them do it. More specifically, this game is a competitive action game in which a player character attacks and defeats an enemy character.
〈ゲーム装置の構成〉
ゲーム装置5は、ユーザの操作に基づいて所定のゲームを実行する。図1は、本実施形態のゲーム装置5の構成を示すブロック図である。ゲーム装置5には、ディスプレイ61、スピーカ62およびコントローラ63が外部接続または内蔵される。ゲーム装置5では、例えば、インストールされたゲームプログラムおよびゲームデータに基づいてゲームが進行する。なお、ゲーム装置5同士も、通信ネットワーク(図示を省略)または近距離無線通信装置(図示せず)を用いて、互いにデータ通信を行うことができる。
<Configuration of game device>
The
ゲーム装置5は、ネットワークインターフェース51、グラフィック処理部52、オーディオ処理部53、操作部54、記憶部55および制御部56を有する。ネットワークインターフェース51、グラフィック処理部52、オーディオ処理部53、操作部54および記憶部55は、バス59を介して制御部56と電気的に接続されている。
The
ネットワークインターフェース51は、例えばゲーム装置5や外部のサーバ装置(図示を省略)との間で各種データを送受信するために、前記通信ネットワークに通信可能に接続される。
The
グラフィック処理部52は、制御部56から出力されるゲーム画像情報に従って、プレイヤキャラクタおよび仮想空間に関する各種オブジェクトを含むゲーム画像を、動画形式で描画する。グラフィック処理部52はディスプレイ61と接続されており、動画形式に描画されたゲーム画像は、ゲーム画面としてディスプレイ61上に表示される。
The
このゲームプログラムの下では、ゲーム画像を構築する際に、グラフィック処理部52は、ユーザの視点として仮想のカメラ(以下、仮想カメラVC)を仮想空間に設定する。グラフィック処理部52は、あたかも、仮想カメラVCで仮想空間内を撮影したかのように、3D(三次元)の映像(動画像)を構成してディスプレイ61に表示する。
Under this game program, when constructing a game image, the
オーディオ処理部53は、制御部56の指示に従ってデジタルのゲーム音声を再生および合成する。オーディオ処理部53は、スピーカ62と接続されており、再生および合成されたゲーム音声は、アナログ信号に変換されたのちにスピーカ62から出力される。
The
操作部54は、コントローラ63と接続され、操作入力に関するデータをコントローラ63との間で送受信する。例えば、ユーザは、コントローラ63に設けられたボタン等の操作子(図示略)を操作することにより、ゲーム装置5に操作信号を入力する。
The
記憶部55は、HDD、RAMおよびROM等で構成される。記憶部55は、ゲームプログラムおよびゲームデータを記憶することができる。また、記憶部55には、他のゲーム装置5から受信した他アカウント情報なども記憶される。
The
制御部56は、CPUおよび半導体メモリを含むマイクロコンピュータで構成され、ゲーム装置5自身の動作を制御する。例えば、制御部56は、前記ゲームプログラムを実行することにより、グラフィック処理部52およびオーディオ処理部53を動作させる。
The
また、制御部56とオーディオ処理部53とは、協働して音響表現を行う。以下、制御部56とオーディオ処理部53の機能について詳述する。
In addition, the
〈オーディオ処理部53の機能的構成〉
既述の通り、オーディオ処理部53は、ゲーム音声の再生および合成を行う。この明細書における、ゲーム音声とは、ゲーム中にスピーカ62から流れる音声であり、例えば、BGM(Back Ground Music)や、ユーザの操作に応じて流れる効果音が上げられる。また、洞窟内の水たまりに天井から落ちてくる水滴の音、洞窟において入口から出口に向かう風の音、町の雑踏の音(通行人の声や付近を通過する自動車の音等)、森や草原に吹く風の音等の環境音もゲーム音声の一例である。
<Functional configuration of
As described above, the
また、このゲームプログラムでは、仮想空間VS内に音源(すなわち仮想の音源)として取り扱われるオブジェクト(以下、音源オブジェクトという)が存在する。音源オブジェクトの例としては、プレイヤキャラクタ、ゲームに登場する敵キャラクタ(モンスターなど)、プレイヤキャラクタの仲間として登場するキャラクタ、プレイヤキャラクタが持っているアイテム(例えば武器など)、仮想空間VSに設置された機械や設備などが挙げられる。 Further, in this game program, an object (hereinafter, referred to as a sound source object) that is handled as a sound source (that is, a virtual sound source) exists in the virtual space VS. Examples of the sound source object include a player character, an enemy character (such as a monster) appearing in a game, a character appearing as a friend of the player character, an item (eg, a weapon) possessed by the player character, and a virtual space VS. Examples include machines and equipment.
オーディオ処理部53は、ゲーム音声の再生や合成の機能を発揮する、いわゆるミドルウエアを含んでいる。このミドルウエアが実行されることで、オーディオ処理部53は、音源手段531、および信号処理手段532(以下ではバスと呼ぶ場合もある)として機能する。
The
音源手段531は、ミドルウエアによって実現された機能であり、音源オブジェクトに対応する音声データを出力する。オーディオ処理部53のミドルウエアでは、音源オブジェクトに対応して、音源手段531を複数設けることができる。図2に、音源手段531の構成例をブロック図で示す。音源手段531は、第1エフェクタ531a、音量調整部531b、第2エフェクタ531cの各モジュールを備えている。
The
第1エフェクタ531aは、入力された音声データに対して、例えば、反響(Reverb)効果を付加する処理、フィルター処理(例えばローパスフィルターによる処理)等の処理を行うことができる。また、音量調整部531bでは、音量の調整を行う。
The
第2エフェクタ531cは、入力された音声データに対して、フィルター処理(ここではローパスフィルターによる処理)と音量調整を行うことができる。第2エフェクタ531cにおける音量値やローパスフィルタのカットオフ周波数は、制御部56によって制御される。
The
また、音源手段531には、複数の出力系統が設けられている。音源手段531は、これらの出力系統を用いて複数のバスに音声データを出力できる。これらの出力系統では、個々にボリューム(以下、説明の便宜のためセンドボリュームという)の調整が可能である。
The
信号処理手段532(バス)は、ミドルウエアによって実現された機能であり、音声データに加工を加える。その加工に際して、信号処理手段532は、必要に応じて、音像定位も行う。そのため、信号処理手段532には、仮想空間VS上の位置が対応づけられる場合がある。以下では、信号処理手段532に仮想空間VS上の位置が対応づけられることを「信号処理手段532(バス)が位置を持つ」と表現する場合がある。
The signal processing unit 532 (bus) is a function realized by middleware and adds processing to audio data. At the time of the processing, the signal processing means 532 also performs sound image localization as necessary. Therefore, a position in the virtual space VS may be associated with the
オーディオ処理部53のミドルウエアでは、信号処理手段532を複数設けることができる。オーディオ処理部53では、信号処理手段532を単独で使用することもできるし、信号処理手段532を階層的に接続することによって、何れかの信号処理手段532で処理された信号を別の信号処理手段532が受け取って、更にその信号に処理を加えるといった使い方もできる。このゲームプログラムでは、信号処理手段532同士の接続は、仮想空間内のオブジェクトの構造によって決定される。
In the middleware of the
各信号処理手段532で作られた音声データは、最終的には、マスターバス(以下、参照符合を付けてマスターバスMBと言う)と呼ばれる信号処理系統に送られる。マスターバスMBでは、送られてきた音声データの合成および音量調整を行う。
The audio data generated by each
そして、オーディオ処理部53は、マスターバスMBで処理された信号を、アナログ信号に変換したのちにスピーカ62に出力する。これにより、スピーカ62からは、ゲーム音声が出力(再生)される。
Then, the
図3は、信号処理手段532の構成を模式的に示すブロック図である。何れの信号処理手段532も同様の構成を有している。各信号処理手段532は、音声データの処理を行うモジュールとして、第1音像定位手段532a、バスエフェクタ532b、バス音量調整部532c、伝搬エフェクタ532d、および第2音像定位手段532eを備えている。
FIG. 3 is a block diagram schematically illustrating a configuration of the
第1音像定位手段532aは、入力された音声データの音像定位を行う。具体的には、第1音像定位手段532aは、入力された音声データがモノラル信号の場合には、出力先のチャンネルを決定してそのチャンネルの音声データとして、次のバスエフェクタ532bに出力する。また、第1音像定位手段532aは、音声データがモノラル信号ではない場合には、そのまま次のバスエフェクタ532bに出力する。
The first sound image localization means 532a performs sound image localization of the input audio data. Specifically, when the input audio data is a monaural signal, the first sound
バスエフェクタ532bは、与えられた音声データに対して、反響(Reverb)効果を付加する処理、フィルター処理(ここではローパスフィルターによる処理)等の処理を行う。バス音量調整部532cは、バスエフェクタ532bの出力の音量調整を行う。
The
伝搬エフェクタ532dは、信号処理手段532(バス)が位置を持つ場合に、バス音量調整部532cよって音量調整された音声データに加工を行う。この例では、伝搬エフェクタ532dが行う加工は、音量調整とローパスフィルタによる処理である。伝搬エフェクタ532dにおける音量値やローパスフィルタのカットオフ周波数は、制御部56によって制御される。
When the signal processing unit 532 (bus) has a position, the
第2音像定位手段532eは、伝搬エフェクタ532dが出力した音声データに対して音像定位を行う。ここでは、信号処理手段532が位置を持っていない場合には、伝搬エフェクタ532dの出力をそのまま出力する。また、信号処理手段532が位置を持っている場合には、一旦、音声信号をモノラルにダウンミックスした後に、信号処理手段532が持つ位置に応じて音像定位を行う。
The second sound
この音像定位の際に、オーディオ処理部53は、仮想空間VSに仮想の受音点(以下、仮想マイクLという)を規定して、音源オブジェクトから発せられた音声を、あたかも仮想マイクLで集音したかのような音響表現で、スピーカ62に出力する。すなわち、仮想マイクLは、仮想の聴取者であり、オーディオ処理部53のミドルウエアにおいては、音像定位の基準点である。
At the time of the sound image localization, the
本実施形態では、仮想マイクLは、仮想カメラVCと同じ位置に設定されている。ユーザは、仮想カメラVC位置にいる感覚でゲームをプレイしているので、ユーザにとって臨場感のある音声が再生されることになる。なお、仮想カメラVCの位置は、プレイヤキャラクタの近傍に設定されている。したがって、プレイヤキャラクタの位置と、仮想マイクLの位置は概ね同じと考えて差し支えない。 In the present embodiment, the virtual microphone L is set at the same position as the virtual camera VC. Since the user plays the game as if he were at the position of the virtual camera VC, a sound with a sense of reality is reproduced for the user. Note that the position of the virtual camera VC is set near the player character. Therefore, the position of the player character and the position of the virtual microphone L may be considered to be substantially the same.
このゲームプログラムでは、仮想マイクLで集音したような音響表現をオーディオ処理部53において行うために、仮想空間VSにおける音声データの伝搬経路に対応してバスを振り分けている。この振り分けは、仮想空間VSの構成(オブジェクトの構造、及び配置)に応じて定められている。以下では、この振り分けについて具体例を用いて説明する。
In this game program, the bus is allocated in accordance with the propagation path of the audio data in the virtual space VS in order for the
−バスの振り分けの例−
このゲームプログラムでは、音響表現を行いたい領域(例えば建物)毎にバスの振り分けが設定されている。図4は、仮想空間に設けられた、建物のオブジェクトの一部を平面的に表している。
-Example of bus distribution-
In this game program, the distribution of buses is set for each area (for example, a building) where sound expression is desired. FIG. 4 is a plan view showing a part of a building object provided in the virtual space.
この建物は、図4に示すように、3つの部屋(領域)R0,R1,R2を有している。部屋R0と部屋R1との間には、ドアD01がある。同様に、部屋R1と部屋R2との間には、ドアD12がある。これらのドアD01,D12は、何れも開いた状態である。これらのドアD01,D12が開いているときは、壁に開口部が形成されていると見ることができる。 This building has three rooms (regions) R0, R1, and R2, as shown in FIG. There is a door D01 between the room R0 and the room R1. Similarly, there is a door D12 between the room R1 and the room R2. These doors D01 and D12 are both open. When these doors D01 and D12 are open, it can be seen that an opening is formed in the wall.
部屋R0には、プレイヤキャラクタが立っている(図示は省略)。プレイヤキャラクタが立っている位置の近傍には、仮想マイクL(受音点)が設定されている。また、部屋R0には、仮想の音源である音源オブジェクトS0も存在する。ここでは、音源オブジェクトS0は、敵のキャラクタ(例えばモンスターなど)である。 A player character stands in the room R0 (not shown). A virtual microphone L (sound receiving point) is set near the position where the player character stands. In the room R0, there is also a sound source object S0 that is a virtual sound source. Here, the sound source object S0 is an enemy character (for example, a monster).
音源オブジェクトS0からは、プレイヤキャラクタ(仮想マイクL)に向かって咆号等の音声が発せられている。同様に、部屋R1には音源オブジェクトS1が存在し、部屋R2には音源オブジェクトS2が存在する。なお、以下では、音源オブジェクトS0に対応する音源を、音源S0と表記する(以下、他の音源オブジェクトについても同様)。 A sound such as a roar is emitted from the sound source object S0 toward the player character (virtual microphone L). Similarly, the sound source object S1 exists in the room R1, and the sound source object S2 exists in the room R2. Hereinafter, the sound source corresponding to the sound source object S0 is referred to as a sound source S0 (the same applies to other sound source objects hereinafter).
例えば、音源S0から仮想マイクLに伝わる音を表現するためは、部屋R0にバスを割り当てればよい。また、他の部屋にも音源がある場合には、音源のある部屋のそれぞれにバスを配置すればよい。 For example, in order to express a sound transmitted from the sound source S0 to the virtual microphone L, a bus may be assigned to the room R0. When a sound source also exists in another room, a bus may be arranged in each room where the sound source exists.
図4に、部屋R1、部屋R2にそれぞれ配置されたバス(バスSR0_0,SR1_0とする)の位置を示す。すなわち、それらのバスは位置を持っている。この例では、ドアD01,D12の開口から漏れ出す音を表現するために、バスSR0_0,SR1_0は、ドアの近傍に配置されている。開口から漏れる音の音源としてこれらバスSR0_0,SR1_0を割り当てれば、開口から漏れる音の音像を、開口の位置に定位させることできる。なお、図4では、実線および破線は、各バスからの音の伝搬経路を示している。 FIG. 4 shows the positions of buses (referred to as buses S R0 — 0 and S R1 — 0 ) arranged in the rooms R1 and R2, respectively. That is, those buses have a location. In this example, the buses S R0 — 0 and S R1 — 0 are arranged near the doors in order to express the sound leaking from the openings of the doors D01 and D12. If these buses S R0 — 0 and S R1 — 0 are assigned as sound sources of the sound leaking from the opening, the sound image of the sound leaking from the opening can be localized at the position of the opening. In FIG. 4, solid lines and broken lines indicate the propagation paths of sound from each bus.
図4の例では、音源S2からの音は、部屋R2、部屋R1を通って部屋R0に至る。すなわち、音源S2からの音の伝搬経路は、複数の領域にまたがっている。音の伝搬経路が複数の領域を通ることを表現するには、バスを階層構造にすればよい。図4のオブジェクト(建物)における音の伝搬経路を表現するためのバスの階層構造を図5に例示する。この例では、マスターバスMBの上流に部屋R0用のバス、部屋R1用のバス(バスSR0_0)、部屋R2用のバス(バスSR1_0)がこの順で直列に接続されている。 In the example of FIG. 4, the sound from the sound source S2 reaches the room R0 through the rooms R2 and R1. That is, the propagation path of the sound from the sound source S2 extends over a plurality of regions. In order to express that the sound propagation path passes through a plurality of regions, the bass may have a hierarchical structure. FIG. 5 illustrates a hierarchical structure of a bus for expressing a sound propagation path in the object (building) in FIG. In this example, a bus for the room R0, a bus for the room R1 (bus S R0_0 ), and a bus for the room R2 (bus S R1_0 ) are connected in series in this order upstream of the master bus MB.
なお、図5におけるS0〜S2は、音源S0,S1,S2に対応する音声データである。図5では、各音声データからバスに延びる実線は、音声データの出力先を示している。この出力先は、音源オブジェクトと仮想マイクLとの位置関係に応じて適宜、動的に決定される。出力先の決定は、制御部56が行う。
Note that S0 to S2 in FIG. 5 are audio data corresponding to the sound sources S0, S1, and S2. In FIG. 5, a solid line extending from each audio data to the bus indicates an output destination of the audio data. This output destination is dynamically determined as appropriate according to the positional relationship between the sound source object and the virtual microphone L. The
〈制御部の機能的構成〉
制御部56は、ゲームプログラムを実行することにより、出力先決定手段565、第1調整手段561、第2調整手段562、第3調整手段563、および第4調整手段564として機能する。
<Functional configuration of control unit>
The
出力先決定手段565は、階層構造化されたバス(信号処理手段532)の何れに音声データを送るかを決定する。この例では、出力先決定手段565は、図6のテーブルに相当するデータを音声データの出力先の決定に用いる。図6のテーブルは、音源の情報(例えば音源がある部屋)と仮想マイクL(受音点)の位置(受音点がある部屋)の情報との組に対して、音声データの出力先を対応づけた対応表(以下、出力先決定情報と命名する)の一部である。
The output
出力先決定手段565は、ゲームプログラムの実行中は、音源や受音点の移動に応じて、このテーブルを用いて、音声データの出力先を逐次決定している。例えば、仮想マイクL(受音点)が部屋R0にある場合には、出力先決定手段565は、部屋R0内の音源S0の音声データを、部屋R0用のバスに送ることを決定する(図5も参照)。同様に、出力先決定手段565は、部屋R1内の音源S1の音声データを、部屋R1用のバス(すなわちバスSR0_0)に送ることを決定する。
During execution of the game program, the output destination determining means 565 uses the table to sequentially determine the output destination of the audio data according to the movement of the sound source and the sound receiving point. For example, when the virtual microphone L (sound receiving point) is in the room R0, the output
第1調整手段561は、音源と仮想マイクLとの間のオブジェクト(例えば壁)を透過して直線的に、音源から仮想マイクLに到達する音(以下、直接音という)の音量(減衰量)や周波数スペクトルを調整する。その際、第1調整手段561は、音源手段531の第2エフェクタ531cを制御する。
The
より詳しくは、第1調整手段561は、以下の式(1)から算出したパラメータrf(ただし、0≦rf≦1)から新たな音量値およびローパスフィルタのカットオフ周波数を求め、rfの大きさに応じて音量や周波数スペクトルを調整する。
More specifically, the
式(1)のdrは、直接音の伝搬経路長であり、音源Sと仮想マイクLとの直線距離である。図7に直接音の伝搬経路を実線で示す。また、図7に破線で示すように、音源S1から仮想マイクLに到達する音には、音源S1と仮想マイクLとの間のオブジェクト(壁など)を回折しつつ仮想マイクLに到達する音(以下、回折音という)がある。 In Expression (1), dr is the propagation path length of the direct sound, and is the linear distance between the sound source S and the virtual microphone L. FIG. 7 shows a direct sound propagation path by a solid line. As shown by a broken line in FIG. 7, sounds reaching the virtual microphone L from the sound source S1 include sounds reaching the virtual microphone L while diffracting an object (such as a wall) between the sound source S1 and the virtual microphone L. (Hereinafter referred to as diffraction sound).
図7のdf0は部屋R1内における回折音の伝搬経路長であり、df1は、部屋R0内における回折音の回折音の伝搬経路長である。したがって、式(1)の右辺におけるΣdfは、回折音の総伝搬経路長(Σdf=df0+df1)であり、式(1)における右辺の第2項の分子は、直接音と回折音の経路差である。 D f0 in FIG. 7 is a propagation path length of the diffracted sound in the room R1, d f1 is a propagation path length of the diffracted sound of diffracted sound in the room R0. Therefore, Shigumadf on the right-hand side of Equation (1) is the total propagation path length of the diffracted sound (Σdf = d f0 + d f1 ), molecules of the second term of the right side in Equation (1) is of the direct sound and diffracted sound Path difference.
式(1)のTfは、ゲームプログラムの開発時に音響表現を担当する開発者(以下、サウンドデザイナという)が設定可能な閾値である。閾値Tfをサウンドデザイナが適宜設定することによって、直接音の聞こえ方を調整できる。例えば、閾値Tfが大きいほど、直接音の音量は大きくなる。 Tf in Expression (1) is a threshold value that can be set by a developer (hereinafter, referred to as a sound designer) responsible for sound expression when developing a game program. By setting the threshold value Tf as appropriate by the sound designer, it is possible to adjust how the direct sound is heard. For example, the volume of the direct sound increases as the threshold value Tf increases.
式(1)からrfが求まると、第1調整手段561によって、音量値やカットオフ周波数が調整される。図7の例では、第1調整手段561は、部屋R1内の音源Sに対応する音源手段531の第2エフェクタ531cにおける音量値およびカットオフ周波数を調整する。すなわち、パラメータrfは、音源から受音点に、両者間のオブジェクトを透過して直線的に到達する音の変化を決定するパラメータである。
When rf is obtained from Expression (1), the volume value and the cutoff frequency are adjusted by the
このとき、音量は、rfが大きいほど、より大きく制御され、カットオフ周波数はより高く調整される。例えば、仮想マイクLがドアD01の付近にある場合は、経路差はほとんどないので、rfはほぼ1である。したがって、第2エフェクタ531cの音量値(直接音の音量値)は、設定可能な最高レベルに調整される。また、第2エフェクタ531cのローパスフィルタは無効化される。
At this time, the sound volume is controlled to be larger as rf is larger, and the cutoff frequency is adjusted to be higher. For example, when the virtual microphone L is near the door D01, there is almost no path difference, so that rf is almost 1. Therefore, the volume value of the
また、仮想マイクLが部屋R0の奥(図7の上方)に移動して行くと徐々に経路差が大きくなってrfが徐々に小さくなる。経路差が閾値Tfを超えると、rfがゼロになって、第2エフェクタ531cの音量値は、設定可能な最低レベルに調整される。また、第2エフェクタのローパスフィルタのカットオフ周波数は、設定可能な最低値に設定される。このような、音量値等の制御の結果、直接音は完全に遮蔽したように表現される。
Further, as the virtual microphone L moves deeper into the room R0 (upward in FIG. 7), the path difference gradually increases, and rf gradually decreases. When the path difference exceeds the threshold value Tf, rf becomes zero, and the volume value of the
第2調整手段562は、回折音の音量(減衰量)を調整する。具体的に第2調整手段562は、音源手段531から信号処理手段532へ送られる過程において、音声データの音量を調整する。より詳しくは、第2調整手段562では、開口に設けられたバス(図7ではバスSR0_0)に音声データを送る過程においてセンドボリュームを調整することによって、回折音の音量調整を実現している。
The
その際、第2調整手段562は、以下の式(2)から算出したパラメータr0(ただし、0≦r0≦1)を用いてセンドボリューム調整用に新たな音量値を求めている。つまり、パラメータr0は、音源から受音点に、両者間のオブジェクトを回折して到達する回折音の変化を決定するパラメータである。
At this time, the
式(2)のrfは、式(1)によって算出されたものである。式(2)から分かるように、r0は、rfが大きくなると小さくなり、rfが小さくなると大きくなる。つまり、Tfをサウンドデザイナが設定することによって、直接音と回折音の音量バランスを調整できる。 Rf in equation (2) is calculated by equation (1). As can be seen from equation (2), r0 decreases as rf increases and increases as rf decreases. That is, by setting Tf by the sound designer, the volume balance between the direct sound and the diffracted sound can be adjusted.
なお、ここでは、R1用のバスSR0_0のように位置を持つバスに音声データを送る場合には、音源手段531が有する第2エフェクタ531cを無効にしている。これは、音源S1から開口(ドアD01の開口)に届く音は、壁を透過しているわけではなく、周波数スペクトル等の調整は不要だからである。
Here, when the audio data is sent to a bus having a position such as the bus S R0_0 for R1, the
第3調整手段563は、音がドアの開口を回折して他の空間(例えば他の部屋)に伝わる場合にドアが音へ及ぼす影響を考慮して、音量や周波数スペクトルの調整を行う。図8は、第3調整手段563の整機能を説明する図である。本実施形態では、ドアを透過して仮想マイクLに伝わる直接音と、ドアを回折して仮想マイクLに伝わる回折音の音量や周波数スペクトルを調整することで、ドアが音へ及ぼす影響を表現する。
The
まず、ドアを透過する直接音は、壁の透過と同様に考えればよい。すなわち、ドアを透過する直接音については、既述の式(1)を用いて音量等を調整すればよい。ここでは、ドアのヒンジ(S’)付近を透過するものとして、音量値およびカットオフ周波数を決定している。 First, the direct sound transmitted through the door can be considered in the same manner as the transmission through the wall. That is, for the direct sound transmitted through the door, the volume and the like may be adjusted using the above-described equation (1). Here, the sound volume value and the cut-off frequency are determined so as to pass through the vicinity of the hinge (S ') of the door.
式(1)から、パラメータrfが求まると、第3調整手段563は、音源Sからドアの開口部(S’とする)’までの音を生成するために、音源Sに対応する音源手段531が有する第2エフェクタ531cに対して、パラメータrfを用いて音量値やカットオフ周波数を指示する。
When the parameter rf is determined from Expression (1), the
一方、ドアを回折する回折音については、ドアの端(S’’)から音が回り込むと考えて減衰量等を決定すればよい。具体的に第3調整手段563は、次の式(3)から算出したパラメータrd(ただし、0≦rd≦1)から新たな音量値やカットオフ周波数を求めている。パラメータrdは、音源から受音点に、ドアの開口を通過して到達する音の変化を定めるパラメータである。
On the other hand, with respect to the diffracted sound diffracting the door, the attenuation amount and the like may be determined on the assumption that the sound goes around from the end (S ″) of the door. More specifically, the
この式(3)は、ドアの開度(φd)が大きいほど音量が大きく、且つカットオフ周波数が高くなることを示している。式(3)のTdは、サウンドデザイナが設定可能な閾値である。閾値Tdをサウンドデザイナが適宜設定することによって、音に対するドアの影響度を調整できる。例えば、φdが閾値Tdを超えると、ドアは全開したものとして音量値とカットオフ周波数が設定される。 This equation (3) indicates that the larger the door opening (φd), the higher the volume and the higher the cutoff frequency. Td in Expression (3) is a threshold that can be set by the sound designer. By appropriately setting the threshold value Td by the sound designer, the degree of influence of the door on the sound can be adjusted. For example, when φd exceeds the threshold value Td, the volume value and the cutoff frequency are set assuming that the door is fully opened.
回折音の生成用に音量値やカットオフ周波数が決まると、第3調整手段563は、開口部S’から仮想マイクLまでの音を生成するために、部屋R1に対応のバスが有する伝搬エフェクタ532dに対して、パラメータrdを用いて音量値やカットオフ周波数を指示する。
When the volume value and the cutoff frequency are determined for the generation of the diffracted sound, the
第4調整手段564は、音源と仮想マイクLとの距離、および両者を結ぶ経路の方向に応じて、音声データの音量と周波数スペクトルの調整を行う。図9は、第4調整手段564の調整機能を説明する図である。第4調整手段564は、音源Sから、ドアの開口部を介した仮想マイクLまでの最短経路(経路長=dsd+ddl)を音の伝搬経路とし、この伝搬経路における減衰と周波数スペクトル変化を音声データに付加する。
The
具体的に、第4調整手段564は、音源Sからドアの開口部S’までの音の表現を行うために、音源Sに対応する音源手段531が有する第2エフェクタ531cに対して、音量値およびローパスフィルタのカットオフ周波数を指示する。また、開口部S’から仮想マイクLまでの音の表現には、第4調整手段564は、部屋R1に対応のバスが有する伝搬エフェクタ532dに対して、音量値およびローパスフィルタのカットオフ周波数を指示する。
Specifically, the
第4調整手段564は、制御の際には、図10に示す特性曲線を用いる。図10では、横軸が経路長であり、縦軸は、左側が音量値の減衰量、右側がローパスフィルタのカットオフ周波数である。また、図10では、実線が左側の目盛(減衰量)に対応し、破線が右の目盛(カットオフ周波数)に対応している。 The fourth adjusting means 564 uses a characteristic curve shown in FIG. 10 at the time of control. In FIG. 10, the horizontal axis indicates the path length, and the vertical axis indicates the attenuation of the sound volume value on the left side, and the cutoff frequency of the low-pass filter on the right side. In FIG. 10, the solid line corresponds to the scale on the left (amount of attenuation), and the broken line corresponds to the scale on the right (cutoff frequency).
また、第4調整手段564は、図11に示す特性曲線も制御に用いる。図11の特性曲線は、音源Sと開口(開口部S’)とを結ぶ線が壁となす角度(φs)や、仮想マイクLと開口(開口部S’)とを結ぶ線が壁の法線となす角度(φL)が、音の減衰や周波数スペクトル変化に及ぼす影響度を調整するものである。
The
図11は、横軸は角度(φs,φL)であり、縦軸は、左側が音量値の減衰量、右側がローパスフィルタのカットオフ周波数である。また、図11でも、実線が左の目盛(減衰量)に対応し、破線が右の目盛(カットオフ周波数)に対応している。このゲームプログラムでは、図10および図11に示した特性曲線は、何れもサウンドデザイナが自由に設定できる。すなわち、サウンドデザイナがデザイン可能な項目である。 11, the horizontal axis represents the angle (φs, φ L), the vertical axis represents the attenuation of the left volume value, a cut-off frequency of the right low-pass filter. Also in FIG. 11, the solid line corresponds to the left scale (attenuation amount), and the broken line corresponds to the right scale (cutoff frequency). In this game program, any of the characteristic curves shown in FIGS. 10 and 11 can be freely set by the sound designer. That is, the item can be designed by the sound designer.
そして、第4調整手段564は、角度(φs)と図11の特性曲線を用いて、音源Sから開口部S’までの伝搬経路における音量値とカットオフ周波数を求め、角度(φL)と図11の特性曲線を用いて、開口部S’から仮想マイクLまでの伝搬経路における音量値とカットオフ周波数を求めている。
Then, the
以上をまとめると、本件発明は、コンピュータ(ゲーム装置5)を、仮想空間の音源に対応する音声データを出力する音源手段と、音声データの加工が可能な信号処理手段を複数有して前記信号処理手段を単独または階層的に繋いで前記音声データを処理する音声加工手段と、前記音源と仮想の受音点との位置関係から前記音源手段の出力先となる信号処理手段を決定する出力先決定情報に基づいて、前記出力先を決定する出力先決定手段として機能させることを特徴とする仮想空間における音声生成プログラムである。 In summary, the present invention provides a computer (game device 5) having a plurality of sound source means for outputting sound data corresponding to a sound source in a virtual space, and a plurality of signal processing means capable of processing sound data. Audio processing means for processing the audio data by connecting processing means alone or hierarchically, and an output destination for determining a signal processing means to be an output destination of the sound source means from a positional relationship between the sound source and a virtual sound receiving point A sound generation program in a virtual space, which functions as an output destination determining unit that determines the output destination based on determination information.
〈本実施形態の効果〉
以上のように、本実施形態では、バスが仮想空間のオブジェクト(建物など)の構造に応じて階層的に接続されており、サウンドデザイナは、出力先決定情報を用いて音声データの出力先(バス)を自由に設定できる。また、サウンドデザイナは、閾値Tfや閾値Tdを調整することで、直接音と回折音のバランスを調整したり、ドアの開度、材質などが音の伝搬に及ぼす影響度を調整したりできる。更に、音源と受音点との距離、方向に応じた減衰も制御できる。
<Effect of this embodiment>
As described above, in the present embodiment, the buses are hierarchically connected according to the structure of the object (such as a building) in the virtual space, and the sound designer uses the output destination determination information to output the audio data ( Bus) can be set freely. In addition, the sound designer can adjust the balance between the direct sound and the diffracted sound and adjust the degree of influence of the door opening, material, and the like on the sound propagation by adjusting the threshold Tf and the threshold Td. Further, the attenuation according to the distance and direction between the sound source and the sound receiving point can be controlled.
すなわち、本実施形態によれば、仮想空間における音声生成に際して、開発者の意図を容易に反映できる。 That is, according to the present embodiment, the intention of the developer can be easily reflected when generating the sound in the virtual space.
[実施形態の変形例]
前記実施形態で説明した出力先決定情報は例示であり、出力先決定情報の内容は、サウンドデザイナが適宜設定することができる。例えば、図4に示した部屋R2内の音源S2の音について、あまり細やかな表現を必要としないとサウンドデザイナが考えたとする。
[Modification of Embodiment]
The output destination determination information described in the above embodiment is an example, and the content of the output destination determination information can be appropriately set by a sound designer. For example, it is assumed that the sound designer considers that the sound of the sound source S2 in the room R2 shown in FIG. 4 does not require a very detailed expression.
その場合には、図12のようにバスの階層構造を構成することが考えられる。この例では、部屋R2に対応するバスは設けられていない。部屋R2内の音源S2の音声データは、部屋R1用のバスに入力されている。 In that case, it is conceivable to configure a hierarchical structure of the bus as shown in FIG. In this example, a bus corresponding to the room R2 is not provided. The audio data of the sound source S2 in the room R2 is input to the bus for the room R1.
図13に、図12の階層構造に対応する出力先決定情報を例示する。この出力先決定情報には、音量の欄が設けられて、音源S2の音量が低下させられている。これは、部屋R2の音源S2の音を、そのままの音量で部屋R1用のバスに入力すると、音源S2の音が想定されるよりも大きな音としてユーザに聞こえて不自然だからである。 FIG. 13 illustrates output destination determination information corresponding to the hierarchical structure in FIG. This output destination determination information is provided with a volume column, and the volume of the sound source S2 is reduced. This is because, if the sound of the sound source S2 in the room R2 is input to the bus for the room R1 at the same volume, the user hears the sound of the sound source S2 as a sound larger than expected and is unnatural.
[その他の実施形態]
なお、第1調整手段561や第3調整手段563は、壁やドアの材質に応じて音声データを減衰させるように構成してもよい。例えば、壁やドアに素材(例えば、木、ガラス、鉄)が設定されている場合には、素材に対応する音量量やカットオフ周波数をテーブルから検索できるようにしておくことでこれを実現できる。このテーブルは、サウンドデザイナが任意に設定できる項目である。すなわち、壁やドアの材質に応じた音の変化もサウンドデザイナがデザイン可能な項目である。
[Other Embodiments]
Note that the
また、第2エフェクタ531cや伝搬エフェクタ532dの構成は例示であり、更に別のエフェクト機能を実装したり、一部の機能を省略したりすることも可能である。
Also, the configurations of the
また、第3調整手段563の処理の適用は、ドア部分には限定されない。例えば、オブジェクトが「窓」を有する場合には、その窓の部分にも適用できる。要は、第3調整手段563における処理は、開口の開度が変化する場所に適用できる処理である。
Further, the application of the processing of the
また、音源手段531から信号処理手段532に送る音声データに対しては、センドボリュームとともにローパスフィルタを作用させてもよい。
A low-pass filter may be applied to the audio data sent from the
また、オーディオ処理部53と制御部56の機能分担は例示である。オーディオ処理部53のミドルウエアで実行していたものを制御部56で実行してもよいし、その逆であってもよい。
Also, the function sharing between the
また、ゲームプログラムは、いわゆるオンラインゲーム用のゲームプログラムとして実装してもよい。ゲームプログラムがオンラインゲーム用である場合には、オーディオ処理部53や制御部56で行っていた処理をそれらに代わってサーバ側で行ってもよいし、サーバ側とクライアント(ゲーム装置5)側とで分担してもよい。
Further, the game program may be implemented as a game program for a so-called online game. When the game program is for an online game, the processing performed by the
これらの他の実施形態を採用した場合においても、本発明の作用効果は発揮される。また、本実施形態と他の実施形態、および他の実施形態同士を適宜組み合わせることも可能である。 Even when these other embodiments are adopted, the operation and effect of the present invention are exhibited. Further, the present embodiment, other embodiments, and other embodiments can be appropriately combined with each other.
また、本発明は、ゲーム以外の分野でも利用可能である。例えば、仮想空間をシミュレーションするプログラムに適用したり、映画の音響効果の作成などに利用したりできる。 Further, the present invention can be used in fields other than games. For example, the present invention can be applied to a program for simulating a virtual space or used for creating sound effects of a movie.
5 ゲーム装置(音声生成装置)
53 オーディオ処理部(音声加工手段)
55 記憶部
56 制御部
531 音源手段
532 バス(信号処理手段)
532e 第2音像定位手段(音像定位手段)
561 第1調整手段
562 第2調整手段
563 第3調整手段
565 出力先決定手段
5 Game device (voice generation device)
53 audio processing unit (audio processing means)
55
532e Second sound image localization means (sound image localization means)
561 first adjusting means 562 second adjusting means 563 third adjusting means 565 output destination determining means
Claims (6)
仮想空間の音源に対応する音声データを出力する音源手段と、
音声データの加工が可能な信号処理手段を複数有して前記信号処理手段を単独または階層的に繋いで前記音声データを処理する音声加工手段と、
前記音源と仮想の受音点との位置関係から前記音源手段の出力先となる信号処理手段を決定する出力先決定情報に基づいて、前記出力先を決定する出力先決定手段と、
して機能させることを特徴とする仮想空間における音声生成プログラム。 Computer
Sound source means for outputting audio data corresponding to a sound source in a virtual space;
Voice processing means for processing the voice data by connecting a plurality of signal processing means capable of processing voice data and connecting the signal processing means alone or hierarchically;
An output destination determining unit that determines the output destination based on output destination determination information that determines a signal processing unit that is an output destination of the sound source unit from a positional relationship between the sound source and a virtual sound receiving point,
A sound generation program in a virtual space characterized by functioning as a function.
前記信号処理手段は、加工後の音声データに音像定位を行う音像定位手段を有していることを特徴とする仮想空間における音声生成プログラム。 In claim 1,
A sound generation program in a virtual space, wherein the signal processing means includes a sound image localization means for performing sound image localization on processed sound data.
前記音源から前記受音点に、両者間のオブジェクトを透過して直線的に到達する音の変化を決定するパラメータに基づいて、前記音源手段が出力する音声データの音量を調整する第1調整手段として前記コンピュータを機能させることを特徴とする仮想空間における音声生成プログラム。 In claim 1 or claim 2,
First adjusting means for adjusting the volume of audio data output by the sound source means based on a parameter that determines a change in sound that reaches the sound receiving point from the sound source and reaches the sound receiving point linearly through the object between them; A sound generation program in a virtual space, which causes the computer to function as a computer.
前記音源から前記受音点に、両者間のオブジェクトを回折して到達する音の変化を決定するパラメータに基づいて、前記信号処理手段が出力する音声データの音量を調整する第2調整手段として前記コンピュータを機能させることを特徴とする仮想空間における音声生成プログラム。 In any one of claims 1 to 3,
The second adjusting means for adjusting the volume of audio data output by the signal processing means based on a parameter for determining a change in sound reaching the sound receiving point from the sound source by diffracting an object between the two. A sound generation program in a virtual space, which causes a computer to function.
前記音源と前記受音点との間には、ドアを有した壁を示すオブジェクトが配置されており、
前記音源から前記受音点に、前記ドアの開口を通過して到達する音の変化を定めるパラメータに基づいて、前記信号処理手段が出力する音声データの音量を調整する第3調整手段として前記コンピュータを機能させることを特徴とする仮想空間における音声生成プログラム。 In any one of claims 1 to 4,
An object indicating a wall having a door is arranged between the sound source and the sound receiving point,
A third adjusting unit that adjusts a volume of audio data output by the signal processing unit based on a parameter that determines a change in sound reaching the sound receiving point from the sound source through the opening of the door. A sound generation program in a virtual space, characterized by causing a computer to function.
前記音声生成プログラムを実行する制御部と、
を備えたことを特徴とする音声生成装置。 A storage unit storing a sound generation program in the virtual space according to any one of claims 1 to 5,
A control unit that executes the voice generation program;
A speech generation device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018154723A JP2020031303A (en) | 2018-08-21 | 2018-08-21 | Voice generating program and voice generating apparatus in virtual space |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018154723A JP2020031303A (en) | 2018-08-21 | 2018-08-21 | Voice generating program and voice generating apparatus in virtual space |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020031303A true JP2020031303A (en) | 2020-02-27 |
Family
ID=69622853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018154723A Pending JP2020031303A (en) | 2018-08-21 | 2018-08-21 | Voice generating program and voice generating apparatus in virtual space |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020031303A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021235172A1 (en) * | 2020-05-19 | 2021-11-25 | oVice株式会社 | Information processing system, information processing device, and program |
JP2022007893A (en) * | 2020-05-19 | 2022-01-13 | oVice株式会社 | Information processing system, information processing device, and program |
WO2023083876A3 (en) * | 2021-11-09 | 2023-07-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Renderers, decoders, encoders, methods and bitstreams using spatially extended sound sources |
WO2023214515A1 (en) * | 2022-05-02 | 2023-11-09 | ソニーグループ株式会社 | Sound generation control method, sound production device, and sound generation control program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004085665A (en) * | 2002-08-23 | 2004-03-18 | Yamaha Corp | Method for creating sound environment prediction data, program for creating sound environment prediction data, and sound environment prediction system |
JP2004317911A (en) * | 2003-04-18 | 2004-11-11 | Chiba Inst Of Technology | Device and method for sound field simulation, computer program, and program recording medium |
JP2012054698A (en) * | 2010-08-31 | 2012-03-15 | Square Enix Co Ltd | Video game processing device and video game processing program |
-
2018
- 2018-08-21 JP JP2018154723A patent/JP2020031303A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004085665A (en) * | 2002-08-23 | 2004-03-18 | Yamaha Corp | Method for creating sound environment prediction data, program for creating sound environment prediction data, and sound environment prediction system |
JP2004317911A (en) * | 2003-04-18 | 2004-11-11 | Chiba Inst Of Technology | Device and method for sound field simulation, computer program, and program recording medium |
JP2012054698A (en) * | 2010-08-31 | 2012-03-15 | Square Enix Co Ltd | Video game processing device and video game processing program |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021235172A1 (en) * | 2020-05-19 | 2021-11-25 | oVice株式会社 | Information processing system, information processing device, and program |
JP2022007893A (en) * | 2020-05-19 | 2022-01-13 | oVice株式会社 | Information processing system, information processing device, and program |
JP7160263B2 (en) | 2020-05-19 | 2022-10-25 | oVice株式会社 | Information processing system, information processing device and program |
US11871152B2 (en) | 2020-05-19 | 2024-01-09 | Ovice, Inc. | Information processing system, information processing apparatus, and program |
WO2023083876A3 (en) * | 2021-11-09 | 2023-07-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Renderers, decoders, encoders, methods and bitstreams using spatially extended sound sources |
WO2023214515A1 (en) * | 2022-05-02 | 2023-11-09 | ソニーグループ株式会社 | Sound generation control method, sound production device, and sound generation control program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020031303A (en) | Voice generating program and voice generating apparatus in virtual space | |
JP6461850B2 (en) | Simulation system and program | |
WO2007105689A1 (en) | Game sound output device, game sound control method, information recording medium, and program | |
JP5882403B2 (en) | Sound effect processing program and game device | |
CN108379842B (en) | Game audio processing method and device, electronic equipment and storage medium | |
JP2017176728A (en) | Simulation system and program | |
US11250834B2 (en) | Reverberation gain normalization | |
KR101809617B1 (en) | My-concert system | |
JP2020018620A (en) | Voice generation program in virtual space, generation method of quadtree, and voice generation device | |
JP2012054698A (en) | Video game processing device and video game processing program | |
JP4789145B2 (en) | Content reproduction apparatus and content reproduction program | |
US10841727B2 (en) | Low-frequency interchannel coherence control | |
JP7267096B2 (en) | AUDIO EFFECT CONTROL SYSTEM, AUDIO EFFECT CONTROL DEVICE, RECEIVING DEVICE, AUDIO EFFECT CONTROL METHOD, RECEIVER CONTROL METHOD AND PROGRAM | |
JP6159515B2 (en) | GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING CONTROL METHOD | |
JP6294899B2 (en) | Sound effect processing program and game device | |
JP6740297B2 (en) | Game program and game device | |
JP6737842B2 (en) | Game program and game device | |
JP6817280B2 (en) | Voice control program and voice control device | |
JP2020091438A (en) | Voice generation program, and voice generation device | |
JP2024041372A (en) | Game programs and game devices | |
JP2024041373A (en) | Game programs and game devices | |
JP7478100B2 (en) | Reverberation Gain Normalization | |
JP6046759B2 (en) | Sound effect processing program and game device | |
JP2024041357A (en) | Game programs and game devices | |
JP6286405B2 (en) | Sound effect processing program and game device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200715 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200818 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201002 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210406 |