JP2025091817A - Program and audio control device - Google Patents
Program and audio control device Download PDFInfo
- Publication number
- JP2025091817A JP2025091817A JP2023207287A JP2023207287A JP2025091817A JP 2025091817 A JP2025091817 A JP 2025091817A JP 2023207287 A JP2023207287 A JP 2023207287A JP 2023207287 A JP2023207287 A JP 2023207287A JP 2025091817 A JP2025091817 A JP 2025091817A
- Authority
- JP
- Japan
- Prior art keywords
- area
- sound
- virtual
- virtual space
- boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Stereophonic System (AREA)
Abstract
Description
本開示は、プログラムおよび音響制御装置に関する。 This disclosure relates to a program and an audio control device.
ゲームプログラムの中には、仮想空間内の音声を再生するものがある。例えば、特許文献1では、シューティングゲームにおいて銃声音などの音声が再生される。 Some game programs play sounds within a virtual space. For example, in Patent Document 1, sounds such as gunshots are played in a shooting game.
仮想空間において種々のサービス(例えばゲーム)が提供される際には、ユーザエクスペリエンスの観点から、その場面に適した音声が再生されることが望ましい。 When various services (e.g. games) are provided in a virtual space, it is desirable to play audio appropriate to the situation from the perspective of user experience.
本開示の目的は、仮想空間において提供されるサービスにおいて、ユーザエクスペリエンスの向上を図ることにある。 The purpose of this disclosure is to improve the user experience in services provided in virtual space.
第1の態様は、1つのコンピュータまたは共働する複数のコンピュータを有するコンピュータシステムを、音響処理部、音響出力部として機能させるプログラムであって、
前記コンピュータシステムは、仮想空間内の音声を出力するためのスピーカとともに利用され、
前記仮想空間には、互いに隣接する第1エリアおよび第2エリアが設けられ、
前記第1エリアおよび前記第2エリアの各々には、前記仮想空間内の音声に付加される音響効果が対応付けられ、
前記第1エリアと前記第2エリアの境界には、仮想の音源である境界音源が配置され、
前記音響処理部は、前記仮想空間内に配置された仮想マイクにより得られる前記境界音源の音声である境界音声に、前記第1エリアおよび前記第2エリアのうち前記境界音源における前記仮想マイクに近い側に位置するエリアに対応付けられた音響効果を付加し、
前記音響出力部は、前記音響処理部により前記音響効果が付加された前記境界音声を前記スピーカに出力させる
プログラムである。
A first aspect is a program for causing a computer system having one computer or a plurality of computers working together to function as an audio processing unit and an audio output unit,
The computer system is used together with a speaker for outputting sound within a virtual space;
The virtual space includes a first area and a second area adjacent to each other,
a sound effect to be added to a sound in the virtual space is associated with each of the first area and the second area;
A boundary sound source that is a virtual sound source is disposed at a boundary between the first area and the second area;
the sound processing unit adds a sound effect associated with an area of the first area and the second area that is located closer to the virtual microphone in the boundary sound source to a boundary sound that is a sound of the boundary sound source obtained by a virtual microphone arranged in the virtual space,
The sound output unit is a program that causes the speaker to output the boundary sound to which the sound effect has been added by the sound processing unit.
第1の態様において、
前記仮想空間には、前記境界音源を基準とする所定範囲の領域であり、前記第1エリアに属する第1領域部と、前記第2エリアに属する第2領域部とを有する判定領域が設定されてもよく、
前記音響処理部は、前記第1領域部および前記第2領域部のうち前記第1領域部が前記仮想マイクに近い場合に、前記第1エリアに対応付けられた音響効果を前記境界音声に付加し、前記第1領域部および前記第2領域部のうち前記第2領域部が前記仮想マイクに近い場合に、前記第2エリアに対応付けられた音響効果を前記境界音声に付加してもよい。
In a first aspect,
A determination area may be set in the virtual space, the determination area being a predetermined range based on the boundary sound source, the determination area having a first area portion belonging to the first area and a second area portion belonging to the second area,
The acoustic processing unit may add an acoustic effect associated with the first area to the boundary sound when the first area of the first area and the second area is closer to the virtual microphone, and may add an acoustic effect associated with the second area to the boundary sound when the second area of the first area and the second area is closer to the virtual microphone.
第1の態様において、
前記コンピュータシステムを、表示処理部として機能させてもよく、
前記コンピュータシステムは、前記仮想空間の画像を表示するためのディスプレイとともに利用されてもよく、
前記表示処理部は、前記仮想空間内に配置された仮想カメラにより得られる前記仮想空間の画像を前記ディスプレイに表示させてもよく、
前記音響処理部は、前記仮想空間内における前記仮想カメラの移動に追従するように前記仮想空間内において前記仮想マイクを移動させてもよい。
In a first aspect,
The computer system may function as a display processing unit,
The computer system may be utilized with a display for displaying an image of the virtual space;
The display processing unit may cause an image of the virtual space acquired by a virtual camera disposed in the virtual space to be displayed on the display,
The acoustic processing unit may move the virtual microphone in the virtual space so as to follow movement of the virtual camera in the virtual space.
第2の態様は、
第1の態様のプログラムを記憶する記憶部と、
前記プログラムを実行する制御部とを備える
音響制御装置である。
The second aspect is
A storage unit that stores the program of the first aspect;
and a control unit for executing the program.
本開示によれば、ユーザエクスペリエンスを向上させることができる。 This disclosure can improve the user experience.
以下、図面を参照して実施の形態を詳しく説明する。なお、図中同一または相当部分には同一の符号を付しその説明は繰り返さない。また、以下では、プログラムをゲームプログラムとして実装し、音響制御装置をゲーム装置として実現した例を説明する。ゲーム装置は、1つのコンピュータまたは共働する複数のコンピュータを有するコンピュータシステムの一例である。 The following describes the embodiment in detail with reference to the drawings. Note that the same or corresponding parts in the drawings are given the same reference numerals and their description will not be repeated. In addition, the following describes an example in which the program is implemented as a game program and the sound control device is realized as a game device. The game device is an example of a computer system having one computer or multiple computers working together.
(ゲームの説明)
以下の説明におけるゲームは、仮想空間内において行われるゲーム(ビデオゲーム)のことである。仮想空間は、三次元のゲーム空間であり、画像としてディスプレイに表示される。仮想空間内には、オブジェクトが配置される。オブジェクトの例としては、プレイヤ(ゲームをプレイするユーザ)により操作されるプレイヤキャラクタ、コンピュータにより操作されるノンプレイヤキャラクタなどが挙げられる。プレイヤは、ユーザの一例である。
(Game Description)
In the following description, a game refers to a game (video game) that is played in a virtual space. The virtual space is a three-dimensional game space, and is displayed as an image on a display. Objects are placed in the virtual space. Examples of objects include a player character operated by a player (a user who plays the game) and a non-player character operated by a computer. A player is an example of a user.
また、オブジェクトには、仮想空間内において仮想の音源となる音源オブジェクトが含まれる。音源オブジェクトの例としては、仮想空間内において動作するオブジェクト、仮想空間内において音の出力のみを行うオブジェクトなどが挙げられる。プレイヤキャラクタおよびノンプレイヤキャラクタは、音源オブジェクトになり得る。そして、以下の説明におけるゲームでは、音が再生される。ゲームにおいて再生される音には、音源オブジェクトから出力される音、BGM(Background Music)、効果音などが含まれる。 The objects also include sound source objects that act as virtual sound sources in the virtual space. Examples of sound source objects include objects that operate in the virtual space and objects that only output sound in the virtual space. Player characters and non-player characters can be sound source objects. In the games described below, sounds are played. Sounds played in the game include sounds output from sound source objects, background music (BGM), sound effects, and the like.
以下では、説明の便宜上、ゲームの例として「プレイヤキャラクタが敵キャラクタを攻撃して倒していく対戦型のアクションゲーム」を挙げる。敵キャラクタは、ノンプレイヤキャラクタの一例である。プレイヤキャラクタおよび敵キャラクタは、音源オブジェクトの一例である。なお、ゲームの種別などには限定はない。 For ease of explanation, the following will use as an example of a game a "battle action game in which a player character attacks and defeats an enemy character." The enemy character is an example of a non-player character. The player character and the enemy character are examples of a sound source object. There are no limitations on the type of game.
(ゲーム装置)
図1は、実施形態のゲーム装置10の構成を例示する。ゲーム装置10は、ユーザによる操作に応じてゲームを実行する。ゲーム装置10には、ディスプレイ21と、スピーカ22と、コントローラ23とが外部接続または内蔵される。ゲーム装置10は、音響制御装置の一例である。
(Gaming device)
1 illustrates an example of a configuration of a game device 10 according to an embodiment. The game device 10 executes a game in response to operations by a user. A display 21, a speaker 22, and a controller 23 are externally connected to or built into the game device 10. The game device 10 is an example of an acoustic control device.
ゲーム装置10には、例えば、パーソナルコンピュータ、プレイステーション(登録商標)、XBox(登録商標)、PlayStation Vita(登録商標)、Nintendo Switch(登録商標)などの、市販の装置を利用できる。 The game device 10 can be, for example, a personal computer, PlayStation (registered trademark), XBox (registered trademark), PlayStation Vita (registered trademark), Nintendo Switch (registered trademark), or other commercially available device.
ゲーム装置10では、インストールされたゲームプログラムおよびゲームデータに基づいてゲームが進行する。ゲーム装置10同士は、通信ネットワーク(図示省略)または近距離無線通信装置(図示を省略)を用いて、互いにデータ通信を行うことができる。 The game progresses on the game device 10 based on the installed game program and game data. Game devices 10 can communicate data with each other using a communication network (not shown) or a short-range wireless communication device (not shown).
〔ゲーム装置のハードウェア構成〕
ゲーム装置10は、ネットワークインターフェース11、グラフィック処理部12、オーディオ処理部13、操作処理部14、記憶部15、制御部16を備える。ネットワークインターフェース11、グラフィック処理部12、オーディオ処理部13、操作処理部14、記憶部15は、バス17を介して制御部16と電気的に接続される。
[Hardware configuration of the game device]
The game device 10 includes a network interface 11, a graphics processing unit 12, an audio processing unit 13, an operation processing unit 14, a storage unit 15, and a control unit 16. The network interface 11, the graphics processing unit 12, the audio processing unit 13, the operation processing unit 14, and the storage unit 15 are electrically connected to the control unit 16 via a bus 17.
ネットワークインターフェース11は、例えば、他のゲーム装置10や外部のサーバ装置(図示を省略)との間で各種データを送受信するために、通信ネットワーク(図示を省略)に通信可能に接続される。 The network interface 11 is communicatively connected to a communication network (not shown) to transmit and receive various data, for example, between other game devices 10 and external server devices (not shown).
グラフィック処理部12は、ディスプレイ21(例えば液晶ディスプレイ)と有線または無線で接続される。グラフィック処理部12は、制御部16から出力されるゲーム画像情報(画像データ)に従って、仮想空間における各種のオブジェクトを含むゲーム画像を動画形式で描画する。動画形式に描画されたゲーム画像(仮想空間内の画像)は、ゲーム画面としてディスプレイ21上に表示される。 The graphics processing unit 12 is connected to the display 21 (e.g., a liquid crystal display) by wire or wirelessly. The graphics processing unit 12 renders game images including various objects in a virtual space in a moving image format according to game image information (image data) output from the control unit 16. The game images rendered in a moving image format (images in the virtual space) are displayed on the display 21 as a game screen.
オーディオ処理部13は、スピーカ22と有線または無線で接続される。オーディオ処理部13は、制御部16の指示に従って、デジタルのゲーム音を再生する。具体的には、オーディオ処理部13は、制御部16が出力した音声データをアナログ信号に変換し、スピーカ22に出力する。 The audio processing unit 13 is connected to the speaker 22 via a wired or wireless connection. The audio processing unit 13 plays digital game sounds according to instructions from the control unit 16. Specifically, the audio processing unit 13 converts the audio data output by the control unit 16 into an analog signal and outputs it to the speaker 22.
オーディオ処理部13は、三次元的な音の再生を行うために、多チャンネルの音声出力をできるように構成される。それに合わせて、ゲーム装置10には、複数のスピーカ22が接続される。これらのスピーカ22は、三次元的な音の再生ができるように、聴取者(例えばゲームのプレイヤ)の左右、前後、上方などに配置される場合がある。 The audio processing unit 13 is configured to be capable of multi-channel audio output in order to reproduce three-dimensional sound. Accordingly, a number of speakers 22 are connected to the game device 10. These speakers 22 may be positioned to the left and right, in front and behind, above, etc., of a listener (e.g., a game player) in order to reproduce three-dimensional sound.
操作処理部14は、コントローラ23と有線または無線で接続される。操作処理部14は、コントローラ23との間で信号を送受信する。ゲームのプレイヤは、コントローラ23のボタンなどの各種操作子を操作することで、ゲーム装置10に信号(命令やデータなど)を入力する。 The operation processing unit 14 is connected to the controller 23 by wire or wirelessly. The operation processing unit 14 transmits and receives signals to and from the controller 23. The game player inputs signals (commands, data, etc.) to the game device 10 by operating various controls such as buttons on the controller 23.
記憶部15は、各種の情報およびデータを記憶する。記憶部15は、HDD、SSD、RAM、ROMなどで構成される。例えば、記憶部15は、ゲームデータ、ゲームプログラムを含む各種のプログラムなどを記憶する。ゲームデータの例としては、ゲーム媒体、ユーザのアカウント情報などが挙げられる。 The storage unit 15 stores various types of information and data. The storage unit 15 is composed of a HDD, SSD, RAM, ROM, etc. For example, the storage unit 15 stores game data, various programs including game programs, etc. Examples of game data include game media, user account information, etc.
また、記憶部15は、予め準備された各種の音声を示す各種の音声データを記憶する。各種の音声データには、音源オブジェクトから出力される音声を示す音声データ、仮想空間内において再生される楽曲(BGM)を示す音声データ、効果音を示す音声データなどが含まれる。 The storage unit 15 also stores various types of audio data indicating various types of sounds that have been prepared in advance. The various types of audio data include audio data indicating sounds output from sound source objects, audio data indicating music (BGM) played in the virtual space, audio data indicating sound effects, and the like.
制御部16は、ゲーム装置10の動作を制御する。制御部16は、各種の情報およびデータを送受信し、各種の情報およびデータを処理する。制御部16は、CPU(マイクロコンピュータ)と半導体メモリと有する。半導体メモリには、CPUを動作させるためのプログラムやデータなどが格納される。 The control unit 16 controls the operation of the game device 10. The control unit 16 transmits and receives various information and data, and processes various information and data. The control unit 16 has a CPU (microcomputer) and a semiconductor memory. The semiconductor memory stores programs and data for operating the CPU.
〔制御部の機能的構成〕
ゲーム装置10の制御部16は、ゲーム進行部100と、表示処理部101と、音響処理部102と、音響出力部103を有する。具体的には、制御部16は、ゲームプログラムを実行することで、ゲーム進行部100、表示処理部101、音響処理部102、音響出力部103として機能する。
[Functional configuration of the control unit]
The control unit 16 of the game device 10 has a game progression unit 100, a display processing unit 101, an audio processing unit 102, and an audio output unit 103. Specifically, the control unit 16 functions as the game progression unit 100, the display processing unit 101, the audio processing unit 102, and the audio output unit 103 by executing a game program.
〈ゲーム進行部(仮想空間制御部)〉
ゲーム進行部100は、仮想空間内において行われるゲームを進行する。ゲーム進行部100は、仮想空間を制御する仮想空間制御部の一例である。
<Game Progression Section (Virtual Space Control Section)>
The game progression unit 100 progresses a game that takes place in a virtual space. The game progression unit 100 is an example of a virtual space control unit that controls the virtual space.
この例では、ゲーム進行部100は、ゲーム装置10を使用するユーザ(すなわちゲームのプレイヤ)の操作に応じて、仮想空間内においてプレイヤキャラクタを動作させることで、ゲームを進行する。また、ゲーム進行部100は、ノンプレイヤキャラクタや所定のオブジェクト(例えば乗り物など)も仮想空間内において動作させる。例えば、ゲーム進行部100は、AI(artificial intelligence)によってノンプレイヤキャラクタや所定のオブジェクトの動作を制御する。そして、ゲーム進行部100は、プレイヤキャラクタやノンプレイヤキャラクタの動作に応じて、ゲームを進行させる。 In this example, the game progression unit 100 progresses the game by moving the player character in a virtual space in response to operations by the user (i.e., the game player) of the game device 10. The game progression unit 100 also moves non-player characters and predetermined objects (e.g., vehicles) in the virtual space. For example, the game progression unit 100 controls the movements of the non-player characters and predetermined objects using AI (artificial intelligence). The game progression unit 100 then progresses the game in response to the movements of the player characters and non-player characters.
例えば、ゲーム進行部100は、コントローラ23に入力された操作が仮想空間に反映されるように、仮想空間を示す三次元データを制御(生成または更新)することで、仮想空間内において行われるゲームを進行(制御)する。 For example, the game progression unit 100 progresses (controls) the game taking place in the virtual space by controlling (generating or updating) three-dimensional data representing the virtual space so that operations input to the controller 23 are reflected in the virtual space.
仮想空間を示す三次元データには、仮想空間内における方向の基準となる座標系(例えばワールド座標系)に関するデータ、仮想空間内に配置された各種のオブジェクトの座標系(例えばローカル座標系)に関するデータ、各種のオブジェクトの形状に関するデータなど、仮想空間を構成するための周知のデータが含まれる。仮想空間を示す三次元データを制御することで、仮想空間内におけるオブジェクトの動きを制御するができる。 The three-dimensional data representing the virtual space includes well-known data for constructing the virtual space, such as data on a coordinate system (e.g., a world coordinate system) that serves as the reference for directions within the virtual space, data on the coordinate systems (e.g., a local coordinate system) of various objects placed within the virtual space, and data on the shapes of various objects. By controlling the three-dimensional data representing the virtual space, it is possible to control the movement of objects within the virtual space.
〈表示処理部〉
表示処理部101は、ゲーム進行部100により制御される仮想空間の画像(この例ではゲーム画像)を生成する。具体的には、表示処理部101は、ゲーム進行部100により制御される三次元データ(仮想空間を示す三次元データ)に基づいて、仮想空間の画像を示す画像データを生成する。三次元データから画像を生成する処理は、周知の処理(座標変換や投影変換など)である。
Display Processing Section
The display processing unit 101 generates an image (a game image in this example) of the virtual space controlled by the game progression unit 100. Specifically, the display processing unit 101 generates image data that represents the image of the virtual space, based on three-dimensional data (three-dimensional data representing the virtual space) controlled by the game progression unit 100. The process of generating an image from three-dimensional data is a well-known process (such as coordinate transformation or projection transformation).
そして、表示処理部101は、上記のように生成された画像をディスプレイ21に再生(表示)させる。この例では、表示処理部101は、上記のように生成された画像データを、グラフィック処理部12に供給する。これにより、画像データに示された仮想空間の画像がディスプレイ21に再生(表示)される。 Then, the display processing unit 101 reproduces (displays) the image generated as described above on the display 21. In this example, the display processing unit 101 supplies the image data generated as described above to the graphics processing unit 12. As a result, the image of the virtual space shown in the image data is reproduced (displayed) on the display 21.
図2に示すように、仮想空間には、仮想カメラ61が配置される。仮想カメラ61は、プレイヤキャラクタC1の近傍に配置される。仮想カメラ61は、仮想の閲覧者(視点)であり、例えば、プレイヤキャラクタC1の視点を再現するための基準点である。表示処理部101は、プレイヤキャラクタC1の向きに追従するように、仮想カメラ61の向きを変化させる。また、表示処理部101は、プレイヤキャラクタC1の移動に追従するように、仮想空間内において仮想カメラ61を移動させる。そして、表示処理部101は、仮想カメラ61により得られる仮想空間の画像をディスプレイ21に表示させる。 As shown in FIG. 2, a virtual camera 61 is placed in the virtual space. The virtual camera 61 is placed near the player character C1. The virtual camera 61 is a virtual viewer (viewpoint), and is, for example, a reference point for reproducing the viewpoint of the player character C1. The display processing unit 101 changes the orientation of the virtual camera 61 so as to follow the orientation of the player character C1. The display processing unit 101 also moves the virtual camera 61 within the virtual space so as to follow the movement of the player character C1. Then, the display processing unit 101 displays an image of the virtual space obtained by the virtual camera 61 on the display 21.
具体的には、表示処理部101は、ディスプレイ21に表示される画像が仮想カメラ61により得られる画像を含む画像となるように、仮想カメラ61の撮影状況(例えば、仮想空間内におけるオブジェクトに対する仮想カメラ61の位置および方向、仮想カメラ61の向き、オブジェクトの向きなど)に応じて上記の画像を示す画像データを生成する。仮想カメラ61により得られる画像(画像データ)は、仮想カメラ61の撮影状況に応じて生成された画像(画像データ)である。 Specifically, the display processing unit 101 generates image data showing the image according to the shooting conditions of the virtual camera 61 (e.g., the position and direction of the virtual camera 61 relative to an object in the virtual space, the orientation of the virtual camera 61, the orientation of the object, etc.) so that the image displayed on the display 21 is an image including an image obtained by the virtual camera 61. The image (image data) obtained by the virtual camera 61 is an image (image data) generated according to the shooting conditions of the virtual camera 61.
〈音響処理部〉
音響処理部102は、ゲーム進行部100により制御される仮想空間の音声(この例ではゲーム音)を生成する。仮想空間の音声は、仮想空間における状況(オブジェクトの動きなど)に応じた音声である。具体的には、音響処理部102は、仮想空間における状況(この例ではゲームの進行状況)に応じて、記憶部15に記憶された音声データ(予め準備された各種の音声データ)の中から再生すべき音声データを選択し、その選択された音声データ(または選択された複数の音声データを合成して得られる新たな音声データ)に基づいて、仮想空間における状況に応じた音声を示す音声データを生成する。
<Audio Processing Section>
The sound processing unit 102 generates sounds (game sounds in this example) in the virtual space controlled by the game progression unit 100. The sounds in the virtual space are sounds corresponding to the situation in the virtual space (such as the movement of objects). Specifically, the sound processing unit 102 selects sound data to be reproduced from the sound data (various types of sound data prepared in advance) stored in the storage unit 15 according to the situation in the virtual space (the progress of the game in this example), and generates sound data indicating sound corresponding to the situation in the virtual space based on the selected sound data (or new sound data obtained by synthesizing the selected multiple sound data).
《音像定位処理》
この例では、音響処理部102は、音像定位処理を行う。音像定位処理は、人間(プレイヤ)が感じる音源の位置を、仮想空間内の所定の仮想位置(例えば音源オブジェクトの位置)に定位させる処理のことである。
Sound image localization processing
In this example, the sound processing unit 102 performs sound image localization processing, which is processing for localizing the position of a sound source as perceived by a human (player) at a predetermined virtual position (e.g., the position of a sound source object) in a virtual space.
図2に示すように、仮想空間には、仮想マイク62が配置される。仮想マイク62は、仮想カメラ61とともに、プレイヤキャラクタC1の近傍に配置される。仮想マイク62は、仮想の聴取者(集音点)であり、音像定位処理における音像定位の基準点である。音響処理部102は、プレイヤキャラクタC1および仮想カメラ61の移動に追従するように、仮想空間内において仮想マイク62を移動させる。そして、音響処理部102は、仮想マイク62により得られた音声をスピーカ22に再生(出力)させる。 As shown in FIG. 2, a virtual microphone 62 is placed in the virtual space. The virtual microphone 62 is placed near the player character C1 together with the virtual camera 61. The virtual microphone 62 is a virtual listener (sound collection point) and is a reference point for sound image localization in the sound image localization process. The sound processing unit 102 moves the virtual microphone 62 in the virtual space so as to follow the movements of the player character C1 and the virtual camera 61. The sound processing unit 102 then reproduces (outputs) the sound obtained by the virtual microphone 62 to the speaker 22.
具体的には、音像定位処理において、音響処理部102は、スピーカ22から再生(出力)される音声が仮想マイク62により得られる音声を含む音声となるように、仮想マイク62の集音状況(例えば、仮想空間内における音源オブジェクトに対する仮想マイク62の位置および方向、音源オブジェクトから出力される音声の音量および方向、仮想マイク62の向き、音源オブジェクトの向きなど)に応じて上記の音声を示す音声データを生成する。仮想マイク62により得られる音声(音声データ)は、仮想マイク62の集音状況に応じて生成された音声(音声データ)である。音源オブジェクトから出力される音声は、音源オブジェクトに関連付けられた音声(予め準備された音声)である。 Specifically, in the sound image localization process, the acoustic processing unit 102 generates audio data indicating the above-mentioned sound according to the sound collection conditions of the virtual microphone 62 (e.g., the position and direction of the virtual microphone 62 relative to the sound source object in the virtual space, the volume and direction of the sound output from the sound source object, the orientation of the virtual microphone 62, the orientation of the sound source object, etc.) so that the sound played (output) from the speaker 22 includes the sound obtained by the virtual microphone 62. The sound (audio data) obtained by the virtual microphone 62 is sound (audio data) generated according to the sound collection conditions of the virtual microphone 62. The sound output from the sound source object is sound associated with the sound source object (sound prepared in advance).
音像定位処理により生成された音声データがオーディオ処理部13により処理されることで、仮想空間内において仮想の音源(音源オブジェクト)から出力された音声が、あたかも仮想マイク62で集音したかのような音響表現で、スピーカ22から出力することが可能となる。 By processing the audio data generated by the sound image localization process by the audio processing unit 13, it becomes possible to output the sound output from the virtual sound source (sound source object) in the virtual space from the speaker 22 with an acoustic representation as if the sound was collected by the virtual microphone 62.
《音響効果付与処理》
また、音響処理部102は、音響効果付与処理を行う。この例では、音響処理部102は、音像定位処理により生成された音声に音響効果を付与する。音響効果の例としては、音量調整、リバーブ(残響音や反射音の付与)などが挙げられる。
<Sound effect processing>
The sound processor 102 also performs sound effect applying processing. In this example, the sound processor 102 applies sound effects to the sound generated by the sound image localization processing. Examples of sound effects include volume adjustment and reverberation (adding reverberation and reflected sound).
図2に示すように、仮想空間には、第1エリア51および第2エリア52を含む複数のエリアが設けられる。第1エリア51および第2エリア52は、互いに隣接する。 As shown in FIG. 2, the virtual space is provided with a plurality of areas including a first area 51 and a second area 52. The first area 51 and the second area 52 are adjacent to each other.
この例では、第1エリア51と第2エリア52との境界部分には、第1エリア51と第2エリア52とを連通させる連通部(例えば開口部)が設けられる。プレイヤキャラクタC1は、第1エリア51と第2エリア52との連通部を経由して第1エリア51と第2エリア52とを移動可能である。例えば、第1エリア51および第2エリア52の各々は、壁などの遮蔽物(オブジェクト)に囲まれたエリア(閉空間)である。 In this example, a communication part (e.g., an opening) that connects the first area 51 and the second area 52 is provided at the boundary between the first area 51 and the second area 52. The player character C1 can move between the first area 51 and the second area 52 via the communication part between the first area 51 and the second area 52. For example, each of the first area 51 and the second area 52 is an area (closed space) surrounded by a shield (object) such as a wall.
なお、第1エリア51と第2エリア52は、移動不可能(往来不可)であってもよい。例えば、第1エリア51と第2エリア52との連通部を閉塞するように窓などのオブジェクトが設けられてもよい。 The first area 51 and the second area 52 may be non-movable (non-trafficable). For example, an object such as a window may be provided to block the communication between the first area 51 and the second area 52.
第1エリア51と第2エリア52の境界には、仮想の音源(音源オブジェクト)である境界音源65が配置される。境界音源65は、第1エリア51と第2エリア52との連通部において、第1エリア51と第2エリア52との境界線上に配置される。例えば、境界音源65は、扉や窓などのオブジェクトである。 A boundary sound source 65, which is a virtual sound source (sound source object), is placed at the boundary between the first area 51 and the second area 52. The boundary sound source 65 is placed on the boundary line between the first area 51 and the second area 52 at the communicating portion between the first area 51 and the second area 52. For example, the boundary sound source 65 is an object such as a door or a window.
第1エリア51および第2エリア52を含む複数のエリアの各々には、仮想空間内の音声に付与される音響効果が対応付けられる。この例では、記憶部15は、複数のエリアの各々に対応付けられた音響効果を示す情報である音響効果情報を記憶する。 Each of the multiple areas, including the first area 51 and the second area 52, is associated with a sound effect that is applied to the sound in the virtual space. In this example, the storage unit 15 stores sound effect information that is information indicating the sound effect associated with each of the multiple areas.
音響効果付与処理において、音響処理部102は、仮想空間内に配置された仮想マイク62により得られる境界音源65の音声である境界音声に、第1エリア51および第2エリア52のうち「境界音源65における仮想マイク62に近い側に位置するエリア」に対応付けられた音響効果を付加する。この例では、音響処理部102は、記憶部15に記憶された音響効果情報の中から「境界音源65における仮想マイク62に近い側に位置するエリア」に対応する音響効果を検出し、その検出された音響効果が境界音声に付与されるように、境界音声を示す音声データに対して音響効果を付与するための処理を行う。 In the sound effect imparting process, the sound processing unit 102 imparts a sound effect corresponding to the "area located closer to the virtual microphone 62 in the boundary sound source 65" of the first area 51 and the second area 52 to the boundary sound, which is the sound of the boundary sound source 65 obtained by the virtual microphone 62 arranged in the virtual space. In this example, the sound processing unit 102 detects a sound effect corresponding to the "area located closer to the virtual microphone 62 in the boundary sound source 65" from the sound effect information stored in the storage unit 15, and performs processing to impart a sound effect to the sound data indicating the boundary sound so that the detected sound effect is imparted to the boundary sound.
なお、この例では、仮想空間には、判定領域55が設定される。判定領域55は、境界音源65を基準とする所定範囲の領域である。判定領域55は、第1エリア51に属する第1領域部56と、第2エリア52に属する第2領域部57とを有する。例えば、判定領域55は、第1エリア51と第2エリア52とに跨がる直方体状の領域である。 In this example, a determination area 55 is set in the virtual space. The determination area 55 is an area of a predetermined range based on the boundary sound source 65. The determination area 55 has a first area portion 56 belonging to the first area 51 and a second area portion 57 belonging to the second area 52. For example, the determination area 55 is a rectangular parallelepiped area that spans the first area 51 and the second area 52.
そして、音響効果付与処理において、音響処理部102は、第1領域部56および第2領域部57のうち第1領域部56が仮想マイク62に近い場合に、第1エリア51に対応付けられた音響効果を境界音声に付加する。また、音響処理部102は、第1領域部56および第2領域部57のうち第2領域部57が仮想マイク62に近い場合に、第2エリア52に対応付けられた音響効果を境界音声に付加する。 In the sound effect applying process, the sound processing unit 102 applies the sound effect associated with the first area 51 to the boundary sound when the first area 56 of the first area 56 and the second area 57 is closer to the virtual microphone 62. In addition, the sound processing unit 102 applies the sound effect associated with the second area 52 to the boundary sound when the second area 57 of the first area 56 and the second area 57 is closer to the virtual microphone 62.
例えば、音響処理部102は、仮想マイク62を基準(始点)としてレイキャストを行うことで、仮想マイク62から第1領域部56(または第2領域部57)までの距離を導出し、第1領域部56および第2領域部57のどちらが仮想マイク62に近いのかを判定する。レイキャストは、始点から直線(仮想の光線)を放射状に延ばし、それらの直線とオブジェクト(第1領域部56および第2領域部57)との交点までの距離に基づいて、仮想マイク62からオブジェクトまでの距離を導出する手法である。 For example, the sound processing unit 102 performs ray casting using the virtual microphone 62 as a reference (starting point) to derive the distance from the virtual microphone 62 to the first area 56 (or the second area 57) and determines whether the first area 56 or the second area 57 is closer to the virtual microphone 62. Ray casting is a technique that extends straight lines (virtual rays) radially from the starting point and derives the distance from the virtual microphone 62 to an object based on the distance to the intersection of these straight lines with the object (the first area 56 and the second area 57).
〈音響出力部〉
音響出力部103は、音響処理部102により処理(生成)された音声をスピーカ22に再生(出力)させる。この例では、音響出力部103は、音響処理部102により生成された音声データを、オーディオ処理部13に供給する。これにより、音声データに示された仮想空間の音声がスピーカ22から再生(出力)される。
<Audio output section>
The audio output unit 103 reproduces (outputs) the audio processed (generated) by the audio processing unit 102 to the speaker 22. In this example, the audio output unit 103 supplies the audio data generated by the audio processing unit 102 to the audio processing unit 13. As a result, the audio of the virtual space indicated by the audio data is reproduced (output) from the speaker 22.
また、音響出力部103は、音響処理部102により音響効果が付加された境界音声をスピーカ22に出力させる。具体的には、音響処理部102により音響効果が付加された境界音声を含む音声を示す音声データ(音響処理部102により生成された音声データ)をオーディオ処理部13に供給することで、音響効果が付加された境界音声を含む音声をスピーカ22に出力させる。 The sound output unit 103 also outputs the boundary sound to which the sound effects have been added by the sound processing unit 102 to the speaker 22. Specifically, the sound output unit 103 supplies the audio processing unit 13 with audio data (audio data generated by the sound processing unit 102) indicating the sound including the boundary sound to which the sound effects have been added by the sound processing unit 102, thereby outputting the sound including the boundary sound to which the sound effects have been added to the speaker 22.
〔実施形態と比較例との対比〕
次に、実施形態と比較例とを対比して説明する。以下では、説明の便宜上、比較例における構成要素の説明において、実施形態における構成要素の符号を使用している。また、以下の説明における比較例は、音響効果付与処理において「第1領域部56および第2領域部57のどちらが仮想マイク62に近いのか」を判定しない点が実施形態と異なる。比較例における他の処理は、実施形態における処理と同様である。
[Comparison between the embodiment and the comparative example]
Next, the embodiment and a comparative example will be compared. In the following, for convenience of explanation, the reference numerals of the components in the comparative example are used in the explanation of the components in the comparative example. Also, the comparative example in the following explanation is different from the embodiment in that the sound effect applying process does not determine "which of the first area 56 and the second area 57 is closer to the virtual microphone 62". Other processes in the comparative example are similar to those in the embodiment.
上記の比較例では、境界音源65が第1エリア51および第2エリア52のどちらに属するのかが不確定であるので、境界音源65から出力される境界音声に音響効果を適切に付与することが困難である。例えば、境界音源65が「扉」であり、境界音声が「扉の開く音」であるとすると、第1エリア51に位置するプレイヤキャラクタC1が「扉」を開けた場合に、「扉」が第2エリア52に属すると判定されると、プレイヤキャラクタC1から見て「扉」の向こう側である第2エリア52において「扉の開く音」が出力されたと判定されてしまう。この場合、プレイヤキャラクタC1とともに第1エリア51に位置する仮想マイク62に、「扉の開く音」が届かなくなる。 In the above comparative example, since it is uncertain whether the boundary sound source 65 belongs to the first area 51 or the second area 52, it is difficult to appropriately impart sound effects to the boundary sound output from the boundary sound source 65. For example, if the boundary sound source 65 is a "door" and the boundary sound is the "sound of a door opening," when the player character C1 located in the first area 51 opens the "door," if it is determined that the "door" belongs to the second area 52, it will be determined that the "sound of a door opening" has been output in the second area 52, which is on the other side of the "door" as seen by the player character C1. In this case, the "sound of a door opening" will not reach the virtual microphone 62 located in the first area 51 together with the player character C1.
一方、実施形態では、第1領域部56および第2領域部57のどちらが仮想マイク62に近いのかを判定することで、境界音源65が第1エリア51および第2エリア52のどちらに属するべきであるのかを適切に決定することができる。例えば、第1エリア51に位置するプレイヤキャラクタC1が「扉」を開けた場合に、「扉」が第1エリア51に属していると決定することができるので、プレイヤキャラクタC1とともに第1エリア51に位置する仮想マイク62に、「扉の開く音」を届けることが可能となる。 On the other hand, in the embodiment, by determining whether the first area 56 or the second area 57 is closer to the virtual microphone 62, it is possible to appropriately determine whether the boundary sound source 65 should belong to the first area 51 or the second area 52. For example, when the player character C1 located in the first area 51 opens a "door", it is possible to determine that the "door" belongs to the first area 51, and therefore it is possible to deliver the "sound of the door opening" to the virtual microphone 62 located in the first area 51 together with the player character C1.
〔実施形態の総括〕
以上をまとめると、実施形態のプログラム(ゲームプログラム)は、1つのコンピュータまたは共働する複数のコンピュータを有するコンピュータシステムを、音響処理部102、音響出力部103として機能させるプログラムである。コンピュータシステムは、仮想空間内の音声を出力するためのスピーカ22とともに利用される。仮想空間には、互いに隣接する第1エリア51および第2エリア52が設けられ、第1エリア51および第2エリア52の各々には、仮想空間内の音声に付加される音響効果が対応付けられる。第1エリア51と第2エリア52の境界には、仮想の音源である境界音源65が配置される。音響処理部102は、仮想空間内に配置された仮想マイク62により得られる境界音源65の音声である境界音声に、第1エリア51および第2エリア52のうち境界音源65における仮想マイク62に近い側に位置するエリアに対応付けられた音響効果を付加する。
音響出力部103は、音響処理部102により音響効果が付加された境界音声をスピーカ22に出力させる。
[Overview of the embodiment]
In summary, the program (game program) of the embodiment is a program that causes a computer system having one computer or a plurality of computers working together to function as an audio processing unit 102 and an audio output unit 103. The computer system is used together with a speaker 22 for outputting audio in a virtual space. A first area 51 and a second area 52 adjacent to each other are provided in the virtual space, and an audio effect to be added to the audio in the virtual space is associated with each of the first area 51 and the second area 52. A boundary sound source 65, which is a virtual sound source, is disposed at the boundary between the first area 51 and the second area 52. The audio processing unit 102 adds an audio effect associated with an area of the first area 51 and the second area 52 located closer to the virtual microphone 62 in the boundary sound source 65 to the boundary audio, which is the audio of the boundary sound source 65 obtained by the virtual microphone 62 disposed in the virtual space.
The audio output unit 103 causes the speaker 22 to output the boundary sound to which the audio effect has been added by the audio processing unit 102 .
実施形態の音響制御装置(ゲーム装置10)は、上記プログラムを記憶する記憶部15と、上記プログラムを実行する制御部16とを備える。 The acoustic control device (game device 10) of the embodiment includes a storage unit 15 that stores the above program, and a control unit 16 that executes the above program.
〔実施形態の効果〕
以上のように、実施形態では、仮想空間内に配置された仮想マイク62により得られる境界音源65の音声である境界音声に、第1エリア51および第2エリア52のうち境界音源65における仮想マイク62に近い側に位置するエリアに対応付けられた音響効果を付加する。これにより、境界音源65が第1エリア51および第2エリア52のどちらに属するべきであるのかを適切に決定することができるので、境界音源65から出力される境界音声に音響効果を適切に付与することができる。その結果、適切な音響効果が付与された境界音声をスピーカ22から再生(出力)することができるので、ユーザエクスペリエンスを向上させることができる。
[Effects of the embodiment]
As described above, in the embodiment, a sound effect associated with the area of the first area 51 or the second area 52 that is closer to the virtual microphone 62 in the boundary sound source 65 is added to the boundary sound, which is the sound of the boundary sound source 65 obtained by the virtual microphone 62 arranged in the virtual space. This makes it possible to appropriately determine whether the boundary sound source 65 should belong to the first area 51 or the second area 52, and therefore makes it possible to appropriately impart sound effects to the boundary sound output from the boundary sound source 65. As a result, the boundary sound to which an appropriate sound effect has been imparted can be reproduced (output) from the speaker 22, thereby improving the user experience.
(その他の実施形態)
以上の説明において、以下のように構成または設定されてもよい。
Other Embodiments
In the above description, the following configuration or setting may be adopted.
判定領域55の形状は、直方体状ではない他の形状であってもよい。 The shape of the judgment region 55 may be other than a rectangular parallelepiped.
第1エリア51および第2エリア52のどちらが「境界音源65における仮想マイク62に近い側に位置するエリア」であるのかを判定するために、仮想マイク62が用いられてもよいし、仮想マイク62の代わりに、仮想マイク62の近傍に配置される仮想カメラ61(またはプレイヤキャラクタC1)が用いられてもよい。例えば、仮想カメラ61(またはプレイヤキャラクタC1)を基準としてレイキャストが行われてもよい。 The virtual microphone 62 may be used to determine whether the first area 51 or the second area 52 is the "area located on the side of the boundary sound source 65 closer to the virtual microphone 62," or a virtual camera 61 (or player character C1) placed near the virtual microphone 62 may be used instead of the virtual microphone 62. For example, a raycast may be performed based on the virtual camera 61 (or player character C1).
ディスプレイ21は、プレイヤに装着されたヘッドマウントディスプレイに設けられたものであってもよい。仮想空間は、「仮想現実(VR:Virtual Reality)を体験することができる仮想現実空間」であってもよい。 The display 21 may be provided on a head-mounted display worn by the player. The virtual space may be a "virtual reality space in which virtual reality (VR) can be experienced."
音声データは、必ずしも予め用意しておく必要はない。例えば、音響処理部102は、何らかのデータ(例えば記憶部15に記憶された音声データ)や情報などに基づいて、その都度、音声データを合成したり生成したりしてもよい。 The audio data does not necessarily need to be prepared in advance. For example, the acoustic processing unit 102 may synthesize or generate audio data each time based on some data (e.g., audio data stored in the memory unit 15) or information.
スピーカ22は、据え置き型のスピーカであってもよいし、イヤホンやヘッドホンなどのウェアラブル型のスピーカであってもよい。 The speaker 22 may be a stationary speaker or a wearable speaker such as an earphone or a headphone.
仮想空間の画像は、一人称視点の画像であってもよいし、三人称視点の画像であってもよい。 The image of the virtual space may be from a first-person perspective or a third-person perspective.
また、ゲームプログラムは、いわゆるオンラインゲーム用のゲームプログラムとして実装されてもよい。この場合、ゲーム装置10の制御部16において行われる処理は、サーバ装置の制御部(図示省略)において行われてもよいし、ゲーム装置10とサーバ装置の制御部とで分担されてもよい。ゲーム装置10は、スマートフォンやタブレットなどの携帯情報端末であってもよい。 The game program may also be implemented as a game program for a so-called online game. In this case, the processing performed in the control unit 16 of the game device 10 may be performed in a control unit of a server device (not shown), or may be shared between the game device 10 and the control unit of the server device. The game device 10 may be a mobile information terminal such as a smartphone or tablet.
また、以上の説明では、仮想空間の例として、ゲームが進行する仮想空間(ゲーム空間)を挙げたが、これに限定されない。例えば、仮想空間は、アバター同士がコミュニケーションをとる仮想空間(メタバース空間)であってもよい。言い換えると、仮想空間において提供されるサービスは、ゲームに限定されない。例えば、仮想空間において提供されるサービスは、商取引の場の提供、コミュニケーションの場の提供などであってもよい。 In the above explanation, a virtual space in which a game progresses (game space) has been given as an example of a virtual space, but this is not limiting. For example, the virtual space may be a virtual space in which avatars communicate with each other (metaverse space). In other words, the services provided in the virtual space are not limited to games. For example, the services provided in the virtual space may be the provision of a place for commercial transactions, the provision of a place for communication, etc.
これらの他の実施形態を採用した場合においても、本発明の作用効果は発揮される。また、本実施形態と他の実施形態、および他の実施形態同士を適宜組み合わせることも可能である。以上の実施形態は、本質的に好ましい例示であって、本発明、その適用物、あるいはその用途の範囲を制限することを意図するものではない。 Even when these other embodiments are adopted, the effects of the present invention are achieved. In addition, this embodiment can be combined with other embodiments, and other embodiments can be combined with each other as appropriate. The above embodiments are essentially preferred examples, and are not intended to limit the scope of the present invention, its applications, or its uses.
10 ゲーム装置(音響装置)
11 ネットワークインターフェース
12 グラフィック処理部
13 オーディオ処理部
14 操作部
15 記憶部
16 制御部
17 バス
21 ディスプレイ
22 スピーカ
23 コントローラ
51 第1エリア
52 第2エリア
55 判定領域
56 第1領域部
57 第2領域部
61 仮想カメラ
62 仮想マイク
65 境界音源
100 ゲーム進行部(仮想空間制御部)
101 表示処理部
102 音響処理部
103 音響出力部
10 Game device (sound device)
11 Network interface 12 Graphics processing unit 13 Audio processing unit 14 Operation unit 15 Memory unit 16 Control unit 17 Bus 21 Display 22 Speaker 23 Controller 51 First area 52 Second area 55 Determination area 56 First area unit 57 Second area unit 61 Virtual camera 62 Virtual microphone 65 Boundary sound source 100 Game progression unit (virtual space control unit)
101 Display processing unit 102 Sound processing unit 103 Sound output unit
Claims (4)
前記コンピュータシステムは、仮想空間内の音声を出力するためのスピーカとともに利用され、
前記仮想空間には、互いに隣接する第1エリアおよび第2エリアが設けられ、
前記第1エリアおよび前記第2エリアの各々には、前記仮想空間内の音声に付加される音響効果が対応付けられ、
前記第1エリアと前記第2エリアの境界には、仮想の音源である境界音源が配置され、
前記音響処理部は、前記仮想空間内に配置された仮想マイクにより得られる前記境界音源の音声である境界音声に、前記第1エリアおよび前記第2エリアのうち前記境界音源における前記仮想マイクに近い側に位置するエリアに対応付けられた音響効果を付加し、
前記音響出力部は、前記音響処理部により前記音響効果が付加された前記境界音声を前記スピーカに出力させる
プログラム。 A program for causing a computer system having one computer or a plurality of computers working together to function as an audio processing unit and an audio output unit,
The computer system is used together with a speaker for outputting sound within a virtual space;
The virtual space includes a first area and a second area adjacent to each other,
a sound effect to be added to a sound in the virtual space is associated with each of the first area and the second area;
A boundary sound source that is a virtual sound source is disposed at a boundary between the first area and the second area;
the sound processing unit adds a sound effect associated with an area of the first area and the second area that is located closer to the virtual microphone in the boundary sound source to a boundary sound that is a sound of the boundary sound source obtained by a virtual microphone arranged in the virtual space,
The sound output unit is a program that causes the speaker to output the boundary sound to which the sound effect has been added by the sound processing unit.
前記仮想空間には、前記境界音源を基準とする所定範囲の領域であり、前記第1エリアに属する第1領域部と、前記第2エリアに属する第2領域部とを有する判定領域が設定され、
前記音響処理部は、前記第1領域部および前記第2領域部のうち前記第1領域部が前記仮想マイクに近い場合に、前記第1エリアに対応付けられた音響効果を前記境界音声に付加し、前記第1領域部および前記第2領域部のうち前記第2領域部が前記仮想マイクに近い場合に、前記第2エリアに対応付けられた音響効果を前記境界音声に付加する
プログラム。 In the program of claim 1,
A determination area is set in the virtual space, the determination area being a predetermined range based on the boundary sound source, the determination area having a first area portion belonging to the first area and a second area portion belonging to the second area,
The sound processing unit is a program that adds sound effects associated with the first area to the boundary sound when the first area of the first area and the second area is closer to the virtual microphone, and adds sound effects associated with the second area to the boundary sound when the second area of the first area and the second area is closer to the virtual microphone.
前記コンピュータシステムを、表示処理部として機能させ、
前記コンピュータシステムは、前記仮想空間の画像を表示するためのディスプレイとともに利用され、
前記表示処理部は、前記仮想空間内に配置された仮想カメラにより得られる前記仮想空間の画像を前記ディスプレイに表示させ、
前記音響処理部は、前記仮想空間内における前記仮想カメラの移動に追従するように前記仮想空間内において前記仮想マイクを移動させる
プログラム。 In the program of claim 1,
The computer system is caused to function as a display processing unit,
the computer system is utilized in conjunction with a display for displaying an image of the virtual space;
the display processing unit causes the display to display an image of the virtual space obtained by a virtual camera disposed in the virtual space;
The sound processing unit is a program that moves the virtual microphone in the virtual space so as to follow the movement of the virtual camera in the virtual space.
前記プログラムを実行する制御部とを備える
音響制御装置。 A storage unit that stores the program according to any one of claims 1 to 3;
and a control unit for executing the program.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023207287A JP2025091817A (en) | 2023-12-07 | 2023-12-07 | Program and audio control device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023207287A JP2025091817A (en) | 2023-12-07 | 2023-12-07 | Program and audio control device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2025091817A true JP2025091817A (en) | 2025-06-19 |
Family
ID=96060208
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023207287A Pending JP2025091817A (en) | 2023-12-07 | 2023-12-07 | Program and audio control device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2025091817A (en) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012045202A (en) * | 2010-08-27 | 2012-03-08 | Square Enix Co Ltd | Video game processing apparatus and video game processing program |
| JP2013057862A (en) * | 2011-09-09 | 2013-03-28 | Copcom Co Ltd | Game program and game device |
| WO2023083876A2 (en) * | 2021-11-09 | 2023-05-19 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Renderers, decoders, encoders, methods and bitstreams using spatially extended sound sources |
| JP2023098633A (en) * | 2022-12-01 | 2023-07-10 | 任天堂株式会社 | GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME PROCESSING METHOD |
-
2023
- 2023-12-07 JP JP2023207287A patent/JP2025091817A/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012045202A (en) * | 2010-08-27 | 2012-03-08 | Square Enix Co Ltd | Video game processing apparatus and video game processing program |
| JP2013057862A (en) * | 2011-09-09 | 2013-03-28 | Copcom Co Ltd | Game program and game device |
| WO2023083876A2 (en) * | 2021-11-09 | 2023-05-19 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Renderers, decoders, encoders, methods and bitstreams using spatially extended sound sources |
| JP2023098633A (en) * | 2022-12-01 | 2023-07-10 | 任天堂株式会社 | GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME PROCESSING METHOD |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6147486B2 (en) | GAME SYSTEM, GAME PROCESSING CONTROL METHOD, GAME DEVICE, AND GAME PROGRAM | |
| JP2002085831A (en) | Game device and information storage medium | |
| JP7832503B2 (en) | Programs, sound control devices, systems | |
| JP2012050791A (en) | Character display device, character display method, and program | |
| JP6740297B2 (en) | Game program and game device | |
| JP2025091817A (en) | Program and audio control device | |
| JP7835989B2 (en) | Programs, sound control devices, systems | |
| JP6737842B2 (en) | Game program and game device | |
| JP4789145B2 (en) | Content reproduction apparatus and content reproduction program | |
| JP3496149B1 (en) | Shooting game apparatus and program | |
| JP7617378B2 (en) | Game program and game device | |
| JP7835988B2 (en) | Program and video/audio control device | |
| JP7572618B2 (en) | Game program and game device | |
| JP7723312B1 (en) | Game program and game system | |
| JP7795109B2 (en) | Game program and game device | |
| JP2025091813A (en) | Program, sound control device, and system | |
| JP7795110B2 (en) | Game program and game device | |
| JP2025091683A (en) | Program and video/audio control device | |
| JP7751200B2 (en) | Game program and game device | |
| JP2025091684A (en) | Program and video/audio control device | |
| JP7751201B2 (en) | Game program and game device | |
| JP7773059B2 (en) | program and sound control device | |
| JP7636663B2 (en) | Game program and game device | |
| JP7783499B2 (en) | Game program and game device | |
| JP2024133800A (en) | Program and Sound Equipment |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A625 | Written request for application examination (by other person) |
Free format text: JAPANESE INTERMEDIATE CODE: A625 Effective date: 20250303 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20251020 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20251118 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20260116 |