JP2025045040A - Program and sound control device - Google Patents

Program and sound control device Download PDF

Info

Publication number
JP2025045040A
JP2025045040A JP2023152921A JP2023152921A JP2025045040A JP 2025045040 A JP2025045040 A JP 2025045040A JP 2023152921 A JP2023152921 A JP 2023152921A JP 2023152921 A JP2023152921 A JP 2023152921A JP 2025045040 A JP2025045040 A JP 2025045040A
Authority
JP
Japan
Prior art keywords
virtual
sound
virtual space
condition
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023152921A
Other languages
Japanese (ja)
Other versions
JP7832502B2 (en
Inventor
貴大 北川
Takahiro Kitagawa
貴奈 宮本
Takana Miyamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2023152921A priority Critical patent/JP7832502B2/en
Publication of JP2025045040A publication Critical patent/JP2025045040A/en
Application granted granted Critical
Publication of JP7832502B2 publication Critical patent/JP7832502B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Circuit For Audible Band Transducer (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To improve user experience.SOLUTION: A sound control device includes: a virtual-space control section that controls a virtual space such that a virtual portion moves in the virtual space in response to a movement of a predetermined portion of a user; an image reproducing section that allows a display to reproduce an image in the virtual space; a sound generating section that, if a condition for reproducing effect sound responsive to a predetermined movement of the virtual portion is established, generates effect sound in response to a moving speed of the predetermined portion; and a sound reproducing section that allows a speaker to reproduce the effect sound generated by the sound generating section.SELECTED DRAWING: Figure 5

Description

本開示は、プログラムおよび音響制御装置に関する。 This disclosure relates to a program and an audio control device.

ゲームプログラムの中に、仮想空間において効果音を再生するものがある。特許文献1の例では、シューティングゲームにおいて銃声音などが再生される。 Some game programs play sound effects in a virtual space. In the example of Patent Document 1, gunshot sounds are played in a shooting game.

特開2014-094160号公報JP 2014-094160 A

仮想空間内において種々のサービス(例えばゲーム)が提供される際には、ユーザエクスペリエンスの観点から、その場面に適した音声が再生されることが望ましい。 When various services (e.g. games) are provided within a virtual space, it is desirable from the perspective of user experience to play audio appropriate to the situation.

本開示の目的は、仮想空間において提供されるサービスにおいて、ユーザエクスペリエンスの向上を図ることにある。 The purpose of this disclosure is to improve the user experience in services provided in virtual space.

第1の態様は、1つのコンピュータまたは共働する複数のコンピュータを有するコンピュータシステムを、仮想空間制御部、画像再生部、音声生成部、音声再生部として機能させるプログラムであって、
前記コンピュータシステムは、ディスプレイ、スピーカ、センサとともに利用され、
前記センサは、ユーザの身体における所定の部位の動きを示す信号を出力し、
前記仮想空間制御部は、前記信号に示された前記所定の部位の動きに応じて仮想空間内において仮想部位が動くように、前記仮想空間を制御し、
前記画像再生部は、前記仮想空間の画像を前記ディスプレイに再生させ、
前記音声生成部は、前記仮想部位の所定の動きに応じた効果音を再生するための条件が成立すると、前記所定の部位の移動速度に応じて前記効果音を生成し、
前記音声再生部は、前記音声生成部により生成された効果音を前記スピーカに再生させる
プログラムである。
A first aspect is a program for causing a computer system having one computer or a plurality of computers working together to function as a virtual space control unit, an image playback unit, an audio generation unit, and an audio playback unit,
The computer system is used with a display, a speaker, and a sensor;
The sensor outputs a signal indicative of a movement of a predetermined part of the user's body;
the virtual space control unit controls the virtual space such that a virtual part moves within the virtual space in response to the movement of the predetermined part indicated by the signal;
The image playback unit plays an image of the virtual space on the display,
the sound generation unit generates a sound effect according to a moving speed of the virtual body part when a condition for playing the sound effect according to a predetermined movement of the virtual body part is satisfied;
The sound reproducing unit is a program that reproduces the sound effects generated by the sound generating unit through the speaker.

第1の態様において、
前記コンピュータシステムは、前記ユーザに装着または把持されて操作されるコントローラとともに利用されてもよく、
前記センサは、前記コントローラに含まれてもよく、
前記仮想空間制御部は、前記センサから出力される信号と前記コントローラに入力された操作とに基づいて、前記仮想空間を制御してもよい。
In a first aspect,
The computer system may be used in conjunction with a controller that is worn or held by the user and operated,
The sensor may be included in the controller;
The virtual space control unit may control the virtual space based on a signal output from the sensor and an operation input to the controller.

第1の態様において、
前記所定の部位は、手であってもよく、
前記仮想部位は、仮想手であってもよい。
In a first aspect,
The predetermined part may be a hand,
The virtual part may be a virtual hand.

第1の態様において、
前記仮想空間内には、前記仮想手により把持可能な仮想オブジェクトが配置されてもよく、
前記仮想空間制御部は、前記仮想空間内において前記仮想手が前記仮想オブジェクトを把持するという把持動作を行うための条件である把持条件が成立すると、前記把持動作が行われるように前記仮想空間を制御してもよく、
前記音声生成部は、前記把持条件が成立すると、前記把持条件の成立時点を始点とする把持開始期間における前記所定の部位の移動速度に応じて、前記把持動作に応じた効果音である把持音を生成してもよい。
In a first aspect,
A virtual object that can be held by the virtual hand may be placed in the virtual space,
The virtual space control unit may control the virtual space such that, when a gripping condition is satisfied, the gripping operation is performed in which the virtual hand grips the virtual object in the virtual space.
When the gripping condition is satisfied, the sound generation unit may generate a gripping sound, which is a sound effect corresponding to the gripping action, depending on the movement speed of the specified part during a gripping start period starting from the time when the gripping condition is satisfied.

第1の態様において、
前記把持条件は、前記仮想空間内において前記仮想オブジェクトの位置を基準とする所定範囲内に前記仮想手を進入させた状態で、前記把持動作を行うための操作が前記コントローラに入力されるという条件であってもよい。
In a first aspect,
The grasping condition may be a condition that an operation for performing the grasping action is input to the controller with the virtual hand entering a predetermined range based on a position of the virtual object in the virtual space.

第1の態様において、
前記仮想オブジェクトは、前記仮想手により把持された状態で持ち運び可能であってもよく、
前記仮想空間制御部は、前記仮想空間内において前記把持条件が成立した後に、前記仮想手が前記仮想オブジェクトを把持した状態で持ち運ぶという持ち運び動作を行うための条件である持ち運び条件が成立すると、前記持ち運び動作が行われるように前記仮想空間を制御してもよく、
前記音声生成部は、前記把持条件が成立した後に前記持ち運び条件が成立すると、前記把持条件の成立時点から前記持ち運び条件の成立時点までの持ち運び開始期間における前記所定の部位の移動速度に応じて、前記持ち運び動作に応じた効果音である持ち運び音を生成してもよい。
In a first aspect,
The virtual object may be portable in a state where it is held by the virtual hand.
The virtual space control unit may control the virtual space such that, when a carrying condition is satisfied, which is a condition for performing a carrying action in which the virtual hand carries the virtual object in a state of holding the virtual object, after the grasping condition is satisfied in the virtual space, the carrying action is performed,
When the carrying condition is met after the holding condition is met, the sound generation unit may generate a carrying sound, which is a sound effect corresponding to the carrying action, depending on the movement speed of the specified part during a carrying start period from the time when the holding condition is met to the time when the carrying condition is met.

第1の態様において、
前記持ち運び条件は、前記仮想空間内において前記仮想手が前記仮想オブジェクトを把持し続けている状態で、前記把持条件の成立後における前記所定の部位の移動距離が所定距離に到達するという条件であってもよい。
In a first aspect,
The carrying condition may be a condition that, while the virtual hand is continuing to grip the virtual object in the virtual space, a movement distance of the specified part after the gripping condition is satisfied reaches a specified distance.

第2の態様は、
第1の態様のプログラムを記憶する記憶部と、
前記プログラムを実行する制御部とを備える
音響制御装置である。
The second aspect is
A storage unit that stores the program of the first aspect;
and a control unit that executes the program.

本開示によれば、ユーザエクスペリエンスを向上させることができる。 This disclosure can improve the user experience.

実施形態のゲーム装置の構成を例示するブロック図である。1 is a block diagram illustrating a configuration of a game device according to an embodiment. ヘッドマウントディスプレイの外観を例示する図である。FIG. 1 is a diagram illustrating an example of the appearance of a head mounted display. ヘッドマウントディスプレイとコントローラとを装着したプレイヤを例示する模式図である。1 is a schematic diagram illustrating a player wearing a head mounted display and a controller. FIG. 把持動作について説明するための模式図である。FIG. 11 is a schematic diagram for explaining a gripping operation. 把持動作に応じた音響処理の流れを例示するフローチャートである。11 is a flowchart illustrating a flow of sound processing in response to a gripping motion. 持ち運び動作について説明するための模式図である。FIG. 11 is a schematic diagram for explaining a carrying operation. 持ち運び動作に応じた音響処理の流れを例示するフローチャートである。11 is a flowchart illustrating a flow of sound processing in response to a carrying operation.

以下、図面を参照して実施の形態を詳しく説明する。なお、図中同一または相当部分には同一の符号を付しその説明は繰り返さない。また、以下では、プログラムをゲームプログラムとして実装し、音響制御装置をゲーム装置として実装した例を説明する。ゲーム装置は、1つのコンピュータまたは共働する複数のコンピュータを有するコンピュータシステムの一例である。 The following describes the embodiment in detail with reference to the drawings. Note that the same or corresponding parts in the drawings are given the same reference numerals and their description will not be repeated. In addition, the following describes an example in which the program is implemented as a game program and the sound control device is implemented as a game device. The game device is an example of a computer system having one computer or multiple computers working together.

(ゲームの説明)
以下の説明におけるゲームは、仮想空間内において行われるゲーム(ビデオゲーム)のことである。仮想空間は、三次元のゲーム空間であり、画像としてディスプレイに表示される。仮想空間内には、オブジェクトが配置される。オブジェクトの例としては、プレイヤ(ゲームをプレイするユーザ)により操作されるプレイヤキャラクタ、コンピュータにより操作されるノンプレイヤキャラクタなどが挙げられる。
(Game Description)
In the following description, a game refers to a game (video game) that is played in a virtual space. The virtual space is a three-dimensional game space, and is displayed as an image on a display. Objects are placed in the virtual space. Examples of objects include a player character operated by a player (a user who plays the game) and a non-player character operated by a computer.

また、オブジェクトには、仮想空間内において仮想の音源となる音源オブジェクトが含まれる。音源オブジェクトの例としては、仮想空間内において動作するオブジェクト、仮想空間内において音の出力のみを行うオブジェクトなどが挙げられる。プレイヤキャラクタおよびノンプレイヤキャラクタは、音源オブジェクトになり得る。そして、以下の説明におけるゲームでは、音が再生される。ゲームにおいて再生される音には、音源オブジェクトから出力される音、BGM(Background Music)、効果音などが含まれる。 The objects also include sound source objects that act as virtual sound sources in the virtual space. Examples of sound source objects include objects that operate in the virtual space and objects that only output sound in the virtual space. Player characters and non-player characters can be sound source objects. In the games described below, sounds are played. Sounds played in the game include sounds output from sound source objects, background music (BGM), sound effects, and the like.

また、以下の説明におけるゲームにおいて、プレイヤキャラクタは、仮想空間に配置された仮想プレイヤ(仮想の人間)であり、現実世界におけるプレイヤの操作および動きに応じて仮想空間内において動く。具体的には、プレイヤの身体における所定の部位の動きに応じて、仮想空間内において仮想部位が動く。仮想部位は、プレイヤの所定の部位に対応する仮想の部位(プレイヤキャラクタの身体における所定の部位)である。例えば、現実世界におけるプレイヤの手の動きに応じて、仮想空間においてプレイヤキャラクタの仮想手(仮想の手)が動く。 In the game described below, the player character is a virtual player (virtual human) placed in a virtual space, and moves in the virtual space in response to the operation and movement of the player in the real world. Specifically, a virtual part moves in the virtual space in response to the movement of a specific part of the player's body. The virtual part is a virtual part (a specific part of the player character's body) that corresponds to a specific part of the player. For example, the player character's virtual hand (virtual hand) moves in the virtual space in response to the movement of the player's hand in the real world.

また、以下の説明における仮想空間内には、仮想手(プレイヤキャラクタの手)により把持可能な仮想オブジェクトが配置される。仮想オブジェクトは、仮想手により把持された状態で持ち運び可能である。仮想オブジェクトの例としては、プレイヤキャラクタに装備される武器が挙げられる。武器の例としては、ハンドガンなどの銃器、ナイフなどが挙げられる。プレイヤキャラクタは、把持動作、持ち運び動作などの種々の動作を行う。把持動作は、仮想空間内において仮想手が仮想オブジェクトを把持するという動作のことである。持ち運び動作は、仮想手が仮想オブジェクトを把持した状態で持ち運ぶという動作のことである。 In the following description, virtual objects that can be grasped by a virtual hand (the hand of the player character) are placed in the virtual space. The virtual objects can be carried while being grasped by the virtual hand. An example of a virtual object is a weapon equipped to the player character. Examples of weapons include firearms such as handguns and knives. The player character performs various actions such as a grasping action and a carrying action. A grasping action is an action in which the virtual hand grasps a virtual object in the virtual space. A carrying action is an action in which the virtual hand grasps and carries a virtual object.

以下では、説明の便宜上、ゲームの例として「プレイヤキャラクタが敵キャラクタを攻撃して倒していく対戦型のアクションゲーム」を挙げる。なお、ゲームの種別などには限定はない。また、仮想空間の例として「仮想現実(VR:Virtual Reality)を体験することができる仮想現実空間」を挙げる。また、一人称視点で仮想空間の画像がディスプレイに表示されてゲームが進行していく場合を例に挙げる。 For ease of explanation, the following will use an example of a game as a "combat action game in which a player character attacks and defeats enemy characters." There are no limitations to the type of game. Additionally, an example of a virtual space will be a "virtual reality space in which virtual reality (VR) can be experienced." Additionally, an example will be given of a game in which an image of the virtual space is displayed on a display from a first-person perspective and the game progresses.

また、以下では、ユーザの身体における所定の部位が「ユーザの右手」であり、所定の部位に対応する仮想部位が「仮想右手(仮想の右手)」であり、仮想手により把持可能な仮想オブジェクトが「ハンドガン」である場合を例に挙げる。プレイヤキャラクタは、ハンドガンを仮想右手に装備し、そのハンドガンで敵キャラクタを攻撃することができる。 In the following, an example will be given in which the predetermined part of the user's body is the "user's right hand", the virtual part corresponding to the predetermined part is the "virtual right hand", and the virtual object that can be held by the virtual hand is a "handgun". The player character can equip the handgun in his virtual right hand and attack enemy characters with the handgun.

(ゲーム装置)
図1は、実施形態のゲーム装置10の構成を例示する。ゲーム装置10は、ユーザによる操作に応じてゲームを実行する。この例では、ゲーム装置10は、ヘッドマウントディスプレイ20、スピーカ30、コントローラ40とともに利用され、これらの機器と有線または無線で接続される。ゲーム装置10は、音響制御装置の一例である。
(Gaming device)
1 illustrates a configuration of a game device 10 according to an embodiment. The game device 10 executes a game in response to operations by a user. In this example, the game device 10 is used together with a head mounted display 20, a speaker 30, and a controller 40, and is connected to these devices by wire or wirelessly. The game device 10 is an example of an acoustic control device.

ゲーム装置10には、例えば、パーソナルコンピュータ、プレイステーション(登録商標)、XBox(登録商標)、PlayStation Vita(登録商標)、Nintendo Switch(登録商標)などの、市販の装置を利用できる。 The game device 10 can be, for example, a personal computer, PlayStation (registered trademark), XBox (registered trademark), PlayStation Vita (registered trademark), Nintendo Switch (registered trademark), or other commercially available device.

ゲーム装置10では、インストールされたゲームプログラムおよびゲームデータに基づいてゲームが進行する。ゲーム装置10同士は、通信ネットワーク(図示省略)または近距離無線通信装置(図示省略)を用いて、互いにデータ通信を行うことができる。 The game progresses on the game device 10 based on the installed game program and game data. Game devices 10 can communicate data with each other using a communication network (not shown) or a short-range wireless communication device (not shown).

〔ヘッドマウントディスプレイ〕
ヘッドマウントディスプレイ20は、ディスプレイ21と、動作センサ22とを含む。
[Head-mounted display]
The head mounted display 20 includes a display 21 and a motion sensor 22 .

ディスプレイ21は、画像を再生(表示)する。例えば、ディスプレイ21は、液晶ディスプレイである。 The display 21 reproduces (displays) images. For example, the display 21 is a liquid crystal display.

動作センサ22は、プレイヤの頭部の動きを示す動作信号を出力する。例えば、動作センサ22は、加速度を検知する加速度センサ、角速度(回転および向きの変化)を検知するジャイロセンサなどを含む。動作センサ22から出力される動作信号は、ゲーム装置10に送信される。 The motion sensor 22 outputs a motion signal that indicates the movement of the player's head. For example, the motion sensor 22 includes an acceleration sensor that detects acceleration, a gyro sensor that detects angular velocity (changes in rotation and orientation), and the like. The motion signal output from the motion sensor 22 is transmitted to the game device 10.

図2に示すように、ヘッドマウントディスプレイ20は、本体部25と、ヘッドバンド26とを有する。図3に示すように、ヘッドマウントディスプレイ20は、本体部25がプレイヤ50の両眼を覆う状態でプレイヤ50の頭部に装着される。また、本体部25の内側(プレイヤ50の両眼と対向する側)には、ディスプレイ21が固定される。ディスプレイ21の表示面は、ヘッドマウントディスプレイ20がプレイヤ50の頭部に装着された状態において、プレイヤ50の両眼と対向する。 As shown in FIG. 2, the head mounted display 20 has a main body 25 and a headband 26. As shown in FIG. 3, the head mounted display 20 is worn on the head of the player 50 with the main body 25 covering both eyes of the player 50. In addition, a display 21 is fixed to the inside of the main body 25 (the side facing the eyes of the player 50). The display surface of the display 21 faces both eyes of the player 50 when the head mounted display 20 is worn on the head of the player 50.

なお、プレイヤ50の頭部の動きと連動して、プレイヤ50の頭部に装着されたヘッドマウントディスプレイ20が動く。したがって、ヘッドマウントディスプレイ20に含まれる動作センサ22から出力される動作信号に基づいて、「プレイヤ50の頭部の位置および向き」と「ヘッドマウントディスプレイ20に含まれるディスプレイ21の位置および向き」を導出することができる。 The head mounted display 20 attached to the head of the player 50 moves in conjunction with the movement of the head of the player 50. Therefore, based on the movement signal output from the movement sensor 22 included in the head mounted display 20, it is possible to derive the "position and orientation of the head of the player 50" and the "position and orientation of the display 21 included in the head mounted display 20."

また、ヘッドマウントディスプレイ20におけるベクトルVdは、一人称視点で表現される仮想空間の画像の基準線である。ベクトルVdは、ディスプレイ21の表示面の法線方向に延びる。ベクトルVdは、ヘッドマウントディスプレイ20に含まれるディスプレイ21の位置および向きから導出することができる。 In addition, vector Vd in the head mounted display 20 is a reference line of the image of the virtual space represented from the first person perspective. Vector Vd extends in the normal direction of the display surface of display 21. Vector Vd can be derived from the position and orientation of display 21 included in the head mounted display 20.

〔スピーカ〕
スピーカ30は、音声(この例ではゲーム音)を再生する。なお、この例では、三次元的な音の再生ができるように、複数のスピーカ30が設けられる。
[Speaker]
The speakers 30 reproduce sound (game sounds in this example). In this example, a plurality of speakers 30 are provided so that three-dimensional sound can be reproduced.

〔コントローラ〕
コントローラ40は、プレイヤ50に把持または装着されて操作される。この例では、コントローラ40は、プレイヤ50の手に把持されて操作される。図1に示すように、コントローラ40は、操作子41と、動作センサ42とを含む。
〔controller〕
The controller 40 is operated while being held or worn by the player 50. In this example, the controller 40 is operated while being held in the hand of the player 50. As shown in FIG 1, the controller 40 includes an operator 41 and a motion sensor 42.

操作子41は、各種のボタンなどにより構成される。コントローラ50は、操作子41に入力された操作(例えばボタンを押下する操作)に応じた操作信号をゲーム装置10に出力する。このような構成により、プレイヤ50は、コントローラ40の操作子41を操作することで、ゲーム装置10に操作信号(命令やデータなどを示す信号)を入力する。 The operator 41 is composed of various buttons and the like. The controller 50 outputs an operation signal to the game device 10 according to an operation input to the operator 41 (e.g., pressing a button). With this configuration, the player 50 operates the operator 41 of the controller 40 to input an operation signal (a signal indicating a command, data, etc.) to the game device 10.

動作センサ42は、プレイヤの手の動きを示す動作信号を出力する。例えば、動作センサ22は、加速度を検知する加速度センサ、角速度(回転および向きの変化)を検知するジャイロセンサなどを含む。動作センサ42から出力される動作信号は、ゲーム装置10に送信される。 The motion sensor 42 outputs a motion signal that indicates the movement of the player's hand. For example, the motion sensor 22 includes an acceleration sensor that detects acceleration, a gyro sensor that detects angular velocity (changes in rotation and orientation), and the like. The motion signal output from the motion sensor 42 is transmitted to the game device 10.

なお、プレイヤ50の手の動きと連動して、プレイヤ50の手に把持(または装着)されたコントローラ40が動く。したがって、コントローラ40に含まれる動作センサ42から出力される動作信号に基づいて、プレイヤ50の手の位置および向きを導出することができる。動作センサ42は、ユーザの身体における所定の部位の動きを示す信号を出力するセンサの一例である。 The controller 40 held (or worn) in the hand of the player 50 moves in conjunction with the movement of the player's 50 hand. Therefore, the position and orientation of the player's 50 hand can be derived based on the movement signal output from the movement sensor 42 included in the controller 40. The movement sensor 42 is an example of a sensor that outputs a signal indicating the movement of a specific part of the user's body.

図3に示すように、この例では、コントローラ40として、第1コントローラ40aと第2コントローラ40bとが設けられる。第1コントローラ40aおよび第2コントローラ40bの各々の構成は、コントローラ40と同様である。 As shown in FIG. 3, in this example, a first controller 40a and a second controller 40b are provided as the controller 40. The configuration of each of the first controller 40a and the second controller 40b is the same as that of the controller 40.

第1コントローラ40aは、プレイヤ50の右手55に把持されて操作され、プレイヤ50の右手55の動きと連動して動く。第2コントローラ40bは、プレイヤ50の左手56には把持されて操作され、プレイヤ50の左手56の動きと連動して動く。したがって、第1コントローラ40aに含まれる動作センサ42から出力される動作信号に基づいて、プレイヤ50の右手55の位置および向きを導出することができる。また、第2コントローラ40bに含まれる動作センサ42から出力される動作信号に基づいて、プレイヤ50の左手56の位置および向きを導出することができる。 The first controller 40a is held and operated by the right hand 55 of the player 50, and moves in conjunction with the movement of the right hand 55 of the player 50. The second controller 40b is held and operated by the left hand 56 of the player 50, and moves in conjunction with the movement of the left hand 56 of the player 50. Therefore, the position and orientation of the right hand 55 of the player 50 can be derived based on the movement signal output from the movement sensor 42 included in the first controller 40a. Also, the position and orientation of the left hand 56 of the player 50 can be derived based on the movement signal output from the movement sensor 42 included in the second controller 40b.

〔ゲーム装置のハードウェア構成〕
図1に示すように、ゲーム装置10は、ネットワークインターフェース11、グラフィック処理部12、オーディオ処理部13、操作処理部14、記憶部15、制御部16を備える。ネットワークインターフェース11、グラフィック処理部12、オーディオ処理部13、操作処理部14、記憶部15は、バス17を介して制御部16と電気的に接続される。
[Hardware configuration of the game device]
1, the game device 10 includes a network interface 11, a graphics processing unit 12, an audio processing unit 13, an operation processing unit 14, a storage unit 15, and a control unit 16. The network interface 11, the graphics processing unit 12, the audio processing unit 13, the operation processing unit 14, and the storage unit 15 are electrically connected to the control unit 16 via a bus 17.

ネットワークインターフェース11は、例えば、他のゲーム装置10や外部のサーバ装置(図示省略)との間で各種データを送受信するために、通信ネットワーク(図示省略)に通信可能に接続される。 The network interface 11 is communicatively connected to a communication network (not shown) to transmit and receive various data between, for example, other game devices 10 and an external server device (not shown).

グラフィック処理部12は、ヘッドマウントディスプレイ20のディスプレイ21と有線または無線で接続される。グラフィック処理部12は、制御部16から出力されるゲーム画像情報(画像データ)に従って、仮想空間における各種のオブジェクトを含むゲーム画像を、動画形式で描画する。動画形式に描画されたゲーム画像(仮想空間の画像)は、ゲーム画面としてディスプレイ21上に表示される。 The graphics processing unit 12 is connected to the display 21 of the head-mounted display 20 by wire or wirelessly. The graphics processing unit 12 renders game images including various objects in a virtual space in a moving image format according to game image information (image data) output from the control unit 16. The game images (images of the virtual space) rendered in a moving image format are displayed on the display 21 as a game screen.

オーディオ処理部13は、スピーカ30と有線または無線で接続される。オーディオ処理部13は、制御部16の指示に従って、デジタルのゲーム音を再生する。具体的には、オーディオ処理部13は、制御部16が出力した音声データをアナログ信号に変換し、スピーカ30に出力する。 The audio processing unit 13 is connected to the speaker 30 via a wired or wireless connection. The audio processing unit 13 plays digital game sounds according to instructions from the control unit 16. Specifically, the audio processing unit 13 converts the audio data output by the control unit 16 into an analog signal and outputs it to the speaker 30.

この例では、オーディオ処理部13は、三次元的な音の再生を行うために、多チャンネルの音声出力をできるように構成される。ゲーム装置10には、複数のスピーカ30が接続される。複数のスピーカ30は、三次元的な音の再生ができるように、聴取者(プレイヤ)の左右、前後、上方などに配置される。 In this example, the audio processing unit 13 is configured to be capable of multi-channel audio output in order to reproduce three-dimensional sound. Multiple speakers 30 are connected to the game device 10. The multiple speakers 30 are positioned to the left and right, front and rear, above, etc. of the listener (player) in order to reproduce three-dimensional sound.

操作処理部14は、ヘッドマウントディスプレイ20およびコントローラ40の各々と有線または無線で接続される。操作処理部14は、ヘッドマウントディスプレイ20およびコントローラ40の各々との間で信号を送受信する。この例では、操作処理部14は、ヘッドマウントディスプレイ20の動作センサ22から出力された動作信号、コントローラ40から送信された操作信号(操作子41に入力された操作に応じた信号)、コントローラ40の動作センサ42から出力された動作信号を、制御部16に送信する。 The operation processing unit 14 is connected to each of the head mounted display 20 and the controller 40 by wire or wirelessly. The operation processing unit 14 transmits and receives signals between each of the head mounted display 20 and the controller 40. In this example, the operation processing unit 14 transmits to the control unit 16 the operation signal output from the motion sensor 22 of the head mounted display 20, the operation signal transmitted from the controller 40 (a signal corresponding to an operation input to the operator 41), and the operation signal output from the motion sensor 42 of the controller 40.

記憶部15は、各種の情報およびデータを記憶する。記憶部15は、HDD、SSD、RAM、ROMなどで構成される。例えば、記憶部15は、ゲームデータ、ゲームプログラムを含む各種のプログラムなどを記憶する。ゲームデータの例としては、ゲーム媒体、ユーザのアカウント情報などが挙げられる。 The storage unit 15 stores various types of information and data. The storage unit 15 is composed of a HDD, SSD, RAM, ROM, etc. For example, the storage unit 15 stores game data, various programs including game programs, etc. Examples of game data include game media, user account information, etc.

また、記憶部15は、予め準備された各種の音声を示す各種の音声データを記憶する。各種の音声データには、音源オブジェクトから出力される音声を示す音声データ、仮想空間内において再生される楽曲(BGM)を示す音声データ、効果音を示す音声データなどが含まれる。 The storage unit 15 also stores various types of audio data indicating various types of sounds that have been prepared in advance. The various types of audio data include audio data indicating sounds output from sound source objects, audio data indicating music (BGM) played in the virtual space, audio data indicating sound effects, and the like.

制御部16は、ゲーム装置10の動作を制御する。制御部16は、各種の情報およびデータを送受信し、各種の情報およびデータを処理する。制御部16は、CPU(マイクロコンピュータ)と半導体メモリと有する。半導体メモリには、CPUを動作させるためのプログラムやデータなどが格納される。 The control unit 16 controls the operation of the game device 10. The control unit 16 transmits and receives various information and data, and processes various information and data. The control unit 16 has a CPU (microcomputer) and a semiconductor memory. The semiconductor memory stores programs and data for operating the CPU.

〔制御部の機能的構成〕
ゲーム装置10の制御部16は、ゲーム進行部100と、画像再生部101と、音声生成部102と、音声再生部103とを有する。具体的には、制御部16は、ゲームプログラムを実行することで、ゲーム進行部100、画像再生部101、音声生成部102、音声再生部103として機能する。
[Functional configuration of the control section]
The control unit 16 of the game device 10 has a game progression unit 100, an image playback unit 101, a sound generation unit 102, and a sound playback unit 103. Specifically, the control unit 16 functions as the game progression unit 100, the image playback unit 101, the sound generation unit 102, and the sound playback unit 103 by executing a game program.

〈ゲーム進行部(仮想空間制御部)〉
ゲーム進行部100は、仮想空間内において行われるゲームを進行する。ゲーム進行部100は、仮想空間を制御する仮想空間制御部の一例である。
<Game Progression Section (Virtual Space Control Section)>
The game progression unit 100 progresses a game that takes place in a virtual space. The game progression unit 100 is an example of a virtual space control unit that controls the virtual space.

この例では、ゲーム進行部100は、動作センサ22から出力された動作信号に示された動き(プレイヤ50の頭部の動き)と、動作センサ42から出力された動作信号に示された動き(プレイヤ50の手の動き)と、コントローラ40から出力される操作信号に示された操作(コントローラ40の操作子41に入力された操作)とに基づいて、これらの動きおよび操作が仮想空間に反映されるように、仮想空間を示す画像データを制御(生成または更新)することで、仮想空間内において行われるゲームを進行する。 In this example, the game progression unit 100 progresses the game that takes place in a virtual space by controlling (generating or updating) image data showing the virtual space based on the movement (movement of the head of the player 50) indicated in the movement signal output from the movement sensor 22, the movement (movement of the hand of the player 50) indicated in the movement signal output from the movement sensor 42, and the operation (operation input to the operator 41 of the controller 40) indicated in the operation signal output from the controller 40 so that these movements and operations are reflected in the virtual space.

具体的には、ゲーム進行部100は、上記の動きと操作に応じて、仮想空間内におけるプレイヤキャラクタの動きを制御する。また、ゲーム進行部100は、ゲームの進行状況に応じて、仮想空間内における他のオブジェクト(ノンプレイヤキャラクタなど)の動きを制御する。例えば、ゲーム進行部100による他のオブジェクトの動きの制御には、AI(artificial intelligence)が利用される。 Specifically, the game progression unit 100 controls the movement of the player character in the virtual space in accordance with the above movements and operations. The game progression unit 100 also controls the movement of other objects (such as non-player characters) in the virtual space in accordance with the progress of the game. For example, AI (artificial intelligence) is used by the game progression unit 100 to control the movement of other objects.

また、図4および図6に示すように、ゲーム進行部100は、動作センサ42から出力された動作信号に示された「プレイヤ50の身体における所定の部位51の動き」に応じて仮想空間内において仮想部位61(プレイヤキャラクタ60の所定の部位)が動くように、仮想空間を制御する。 Also, as shown in Figures 4 and 6, the game progression unit 100 controls the virtual space so that a virtual part 61 (a specified part of the player character 60) moves within the virtual space in response to the "movement of a specified part 51 of the body of the player 50" indicated in the movement signal output from the movement sensor 42.

この例では、ゲーム進行部100は、第1コントローラ40aに含まれる動作センサ42から出力された動作信号に示された「プレイヤ50の右手55の動き」に応じて、仮想空間内において仮想右手65(プレイヤキャラクタ60の右手)が動くように、仮想空間を制御する。また、ゲーム進行部100は、第2コントローラ40bに含まれる動作センサ42から出力された動作信号に示された「プレイヤ50の左手56の動き」に応じて、仮想空間内において仮想左手66(プレイヤキャラクタ60の左手)が動くように、仮想空間を制御する。 In this example, the game progression unit 100 controls the virtual space so that a virtual right hand 65 (the right hand of the player character 60) moves within the virtual space in response to the "movement of the right hand 55 of the player 50" indicated in the movement signal output from the movement sensor 42 included in the first controller 40a. The game progression unit 100 also controls the virtual space so that a virtual left hand 66 (the left hand of the player character 60) moves within the virtual space in response to the "movement of the left hand 56 of the player 50" indicated in the movement signal output from the movement sensor 42 included in the second controller 40b.

〈画像再生部〉
画像再生部101は、ゲーム進行部100により制御される仮想空間の画像をディスプレイ21に再生させる。この例では、画像再生部101は、ゲーム進行部100により制御された画像データ(仮想空間の画像を示す画像データ)を、グラフィック処理部12に供給する。これにより、画像データに示された仮想空間の画像がヘッドマウントディスプレイ20のディスプレイ21に再生(表示)される。
<Image playback section>
The image playback unit 101 plays an image of the virtual space controlled by the game progression unit 100 on the display 21. In this example, the image playback unit 101 supplies image data (image data showing an image of the virtual space) controlled by the game progression unit 100 to the graphics processing unit 12. As a result, the image of the virtual space shown in the image data is played (displayed) on the display 21 of the head mounted display 20.

〈音声生成部〉
音声生成部102は、ゲーム進行部100により制御される仮想空間の音声(ゲーム音)を生成する。この例では、音声生成部102は、仮想空間における状況(オブジェクトの動きなど)に応じた音声を生成する。具体的には、音声生成部102は、仮想空間における状況(この例ではゲームの進行状況)に応じて、記憶部15に記憶された音声データ(予め準備された各種の音声データ)の中から再生すべき音声データを選択し、その選択された音声データ(または選択された複数の音声データを合成して得られる新たな音声データ)に基づいて、仮想空間における状況に応じた音声を示す音声データを生成する。
<Speech Generation Unit>
The sound generation unit 102 generates sounds (game sounds) in the virtual space controlled by the game progression unit 100. In this example, the sound generation unit 102 generates sounds according to the situation in the virtual space (such as the movement of objects). Specifically, the sound generation unit 102 selects sound data to be reproduced from the sound data (various types of sound data prepared in advance) stored in the storage unit 15 according to the situation in the virtual space (the progress of the game in this example), and generates sound data indicating a sound according to the situation in the virtual space based on the selected sound data (or new sound data obtained by synthesizing the selected multiple sound data).

また、この例では、音声生成部102は、音像定位処理を行う。音像定位処理は、人間(プレイヤ)が感じる音源の位置を、仮想空間内の所定の仮想位置(例えば音源オブジェクトの位置)に定位させる処理のことである。 In this example, the sound generation unit 102 also performs sound image localization processing. Sound image localization processing is processing that localizes the position of a sound source as perceived by a human (player) to a predetermined virtual position in the virtual space (e.g., the position of a sound source object).

音像定位処理において、音声生成部102は、仮想空間内に仮想マイク(図示省略)を配置し、仮想マイクにより得られた音声を含む音声データを生成する。仮想マイクは、仮想の聴取者(集音点)であり、音像定位処理における音像定位の基準点である。例えば、仮想マイクは、プレイヤキャラクタの近傍に配置され、プレイヤキャラクタの移動に追従して移動する。 In the sound image localization process, the sound generation unit 102 places a virtual microphone (not shown) in a virtual space and generates sound data including sound obtained by the virtual microphone. The virtual microphone is a virtual listener (sound collection point) and is the reference point for sound image localization in the sound image localization process. For example, the virtual microphone is placed near the player character and moves in accordance with the movement of the player character.

具体的には、音像定位処理において、音声生成部102は、スピーカ30から再生(出力)される音声が仮想マイクにより得られた音声を含む音声となるように、仮想マイクの集音状況(例えば、仮想空間内における音源オブジェクトに対する仮想マイクの位置および方向、音源オブジェクトから出力される音声の音量および方向など)に応じて音声データを生成する。 Specifically, in the sound image localization process, the sound generation unit 102 generates sound data according to the sound collection conditions of the virtual microphone (e.g., the position and direction of the virtual microphone relative to the sound source object in the virtual space, the volume and direction of the sound output from the sound source object, etc.) so that the sound played (output) from the speaker 30 includes sound obtained by the virtual microphone.

音像定位処理により生成された音声データがオーディオ処理部13により処理されることで、仮想空間内において仮想の音源(音源オブジェクト)から出力された音声が、あたかも仮想マイクで集音したかのような音響表現で、スピーカ30から出力することが可能となる。 By processing the audio data generated by the sound image localization process by the audio processing unit 13, it becomes possible to output the sound output from the virtual sound source (sound source object) in the virtual space from the speaker 30 with an acoustic representation as if the sound was collected by a virtual microphone.

また、音声生成部102は、仮想空間における仮想部位(プレイヤキャラクタの所定の部位)の所定の動きに応じた効果音を再生するための条件が成立すると、現実世界におけるユーザの身体における所定の部位の移動速度に応じて効果音を生成する。具体的には、音声生成部102は、上記の条件が成立すると、上記の条件の成立の直前または直後の所定期間(上記の条件の成立時点を始点または終点とする所定期間)内における所定の部位の移動速度に応じて効果音を生成する。音声生成部102による効果音(仮想部位の所定の動きに応じた効果音)の生成については、後で詳しく説明する。 Furthermore, when the conditions for playing sound effects corresponding to a predetermined movement of a virtual part (a predetermined part of the player character) in the virtual space are met, the sound generation unit 102 generates sound effects corresponding to the moving speed of a predetermined part of the user's body in the real world. Specifically, when the above conditions are met, the sound generation unit 102 generates sound effects corresponding to the moving speed of the predetermined part within a predetermined period (a predetermined period starting or ending at the time when the above conditions are met) immediately before or after the above conditions are met. The generation of sound effects (sound effects corresponding to a predetermined movement of a virtual part) by the sound generation unit 102 will be described in detail later.

〈音声再生部〉
音声再生部103は、音声生成部102により生成された音声(仮想部位の所定の動きに応じた効果音を含む音声)をスピーカ30に再生させる。この例では、音声再生部103は、音声生成部102により生成された音声データを、オーディオ処理部13に供給する。これにより、音声データに示された仮想空間の音声(仮想部位の所定の動きに応じた効果音を含む音声)がスピーカ30から再生(出力)される。
<Audio playback section>
The sound reproducing unit 103 reproduces the sound generated by the sound generating unit 102 (sound including sound effects corresponding to the predetermined movement of the virtual body part) on the speaker 30. In this example, the sound reproducing unit 103 supplies the sound data generated by the sound generating unit 102 to the audio processing unit 13. As a result, the sound of the virtual space indicated by the sound data (sound including sound effects corresponding to the predetermined movement of the virtual body part) is reproduced (output) from the speaker 30.

〔把持動作に関連する処理〕
次に、図4を参照して、把持動作に関連する処理について説明する。把持動作は、仮想空間内において仮想右手65(仮想手)がハンドガン71(仮想オブジェクト70)を把持するという動作である。把持動作は、仮想部位61の所定の動きの一例である。
[Processing related to gripping operation]
Next, a process related to a gripping motion will be described with reference to Fig. 4. The gripping motion is a motion in which a virtual right hand 65 (virtual hand) grips a handgun 71 (virtual object 70) in a virtual space. The gripping motion is an example of a predetermined movement of the virtual part 61.

ゲーム進行部100は、把持動作を行うための条件である把持条件が成立すると、把持動作が行われるように、仮想空間を制御する。具体的には、ゲーム進行部100は、把持条件が成立すると、仮想空間内においてプレイヤキャラクタ60の仮想右手65にハンドガン71を把持させる。 When a gripping condition, which is a condition for performing a gripping action, is met, the game progression unit 100 controls the virtual space so that the gripping action is performed. Specifically, when the gripping condition is met, the game progression unit 100 causes the virtual right hand 65 of the player character 60 to grip a handgun 71 in the virtual space.

音声生成部102は、把持条件が成立すると、把持条件の成立時点を始点とする把持開始期間におけるプレイヤ50の右手55(所定の部位51)の移動速度に応じて、把持動作に応じた効果音である把持音を生成する。把持動作に応じた音響処理については、後で詳しく説明する。 When the gripping condition is met, the sound generation unit 102 generates a gripping sound, which is a sound effect corresponding to the gripping action, according to the movement speed of the right hand 55 (predetermined part 51) of the player 50 during the gripping start period starting from the time when the gripping condition is met. The sound processing corresponding to the gripping action will be explained in detail later.

なお、把持条件は、仮想空間内においてハンドガン71(仮想オブジェクト70)の位置Q1を基準とする所定範囲R1内に仮想右手65(仮想手)を進入させた状態で、把持動作を行うための操作がコントローラ40の操作子41に入力されるという条件である。把持条件は、仮想部位61の所定の動きに応じた効果音を再生するための条件の一例である。 The gripping condition is a condition in which an operation to perform a gripping motion is input to the operator 41 of the controller 40 with the virtual right hand 65 (virtual hand) entering a predetermined range R1 based on the position Q1 of the handgun 71 (virtual object 70) in the virtual space. The gripping condition is an example of a condition for playing a sound effect corresponding to a predetermined movement of the virtual part 61.

〔把持音〕
この例では、把持音は、プレイヤキャラクタ60に装着されたホルスタに取り出し可能に収容されたハンドガン71を仮想右手65で掴む音(例えば「ガシッ」という音)である。把持音は、手で物体(この例ではハンドガン)を掴むときに発する音を模した効果音である。
[Gripping sound]
In this example, the gripping sound is the sound (e.g., a "grab" sound) of the imaginary right hand 65 gripping the handgun 71 that is removably housed in a holster attached to the player character 60. The gripping sound is a sound effect that imitates the sound made when gripping an object (a handgun in this example) with a hand.

なお、現実世界において、手で物体を把持するときに発する音は、物体を把持するために物体へ向けて移動する手の移動速度に応じて変化する。例えば、手で物体を把持するときに発する音は、物体へ向けて移動する手の移動速度が高くなるほど、激しく大きな音になる傾向にある。また、物体へ向けて移動する手の移動速度が高くなるほど、その手で物体を把持した直後に余勢(余った勢い)で移動する手の移動速度も高くなる。 In the real world, the sound made when grasping an object with one's hand changes depending on the speed at which the hand moves toward the object to grasp it. For example, the sound made when grasping an object with one's hand tends to become louder and more intense the faster the hand moves toward the object. Also, the faster the hand moves toward the object, the faster the hand moves with momentum (excessive momentum) immediately after grasping the object.

上記の「手で物体を把持するときに発する音」と「物体を把持するために物体へ向けて移動する手の移動速度(所定期間における移動速度)」との関係は、実験およびシミュレーションにより導出することが可能である。同様に、上記の「手で物体を把持するときに発する音」と「手で物体を把持した直後に余勢で移動する手の移動速度(所定期間における移動速度)」との関係は、実験およびシミュレーションにより導出することが可能である。 The relationship between the above "sound produced when grasping an object with the hand" and the "movement speed of the hand moving toward the object in order to grasp the object (movement speed in a specified period of time)" can be derived through experiments and simulations. Similarly, the relationship between the above "sound produced when grasping an object with the hand" and the "movement speed of the hand moving with momentum immediately after grasping an object with the hand (movement speed in a specified period of time)" can be derived through experiments and simulations.

〔把持動作に応じた音響処理〕
次に、図5を参照して、把持動作に応じた音響処理(効果音を生成する処理)について説明する。この例では、仮想オブジェクト70の種類毎および後述する把持開始期間における所定の部位51の移動速度の範囲毎に、その仮想オブジェクト70の把持動作に応じた把持音(複数の把持音)が準備されている。これらの把持音を示す音声データ(複数の音声データ)は、記憶部15に記憶されている。なお、この例では、仮想部位61の移動速度の範囲は、低速範囲(ゼロよりも高い移動速度の範囲)、中速範囲(低速範囲よりも高い移動速度の範囲)、高速範囲(中速範囲よりも高い移動速度の範囲)の3つの範囲である。
[Sound processing according to gripping motion]
Next, with reference to Fig. 5, an acoustic process (a process for generating sound effects) corresponding to a gripping operation will be described. In this example, a gripping sound (a plurality of gripping sounds) corresponding to a gripping operation of the virtual object 70 is prepared for each type of virtual object 70 and for each range of the moving speed of a predetermined part 51 in a gripping start period described later. Sound data (a plurality of sound data) indicating these gripping sounds is stored in the storage unit 15. In this example, the range of the moving speed of the virtual part 61 is three ranges, namely, a low speed range (a range of moving speed higher than zero), a medium speed range (a range of moving speed higher than the low speed range), and a high speed range (a range of moving speed higher than the medium speed range).

〈ステップS10〉
音声生成部102は、仮想オブジェクト70の位置Q1を基準とする所定範囲R1内に仮想部位61が進入しているか否かを判定する。仮想部位61が所定範囲R1内に進入している場合には、ステップS11の処理が行われる。
<Step S10>
The sound generation unit 102 determines whether or not the virtual part 61 is within a predetermined range R1 based on the position Q1 of the virtual object 70. If the virtual part 61 is within the predetermined range R1, the process of step S11 is performed.

図4に示すように、この例では、所定範囲R1は、仮想オブジェクト70の位置Q1であるハンドガン71の位置を中心とする球状の範囲であり、仮想部位61である仮想右手65がハンドガン71を把持可能な位置にあるとみなされる範囲である。音声生成部102は、仮想空間内における仮想右手65の位置(例えば座標)を取得し、仮想右手65の位置が所定範囲R1内に含まれる場合に、仮想右手65が所定範囲R1内に進入していると判定する。 As shown in FIG. 4, in this example, the predetermined range R1 is a spherical range centered on the position of the handgun 71, which is position Q1 of the virtual object 70, and is a range within which the virtual right hand 65, which is the virtual part 61, is deemed to be in a position where it can grip the handgun 71. The sound generation unit 102 acquires the position (e.g., coordinates) of the virtual right hand 65 in the virtual space, and when the position of the virtual right hand 65 is included within the predetermined range R1, it determines that the virtual right hand 65 has entered the predetermined range R1.

〈ステップS11〉
音声生成部102は、仮想オブジェクト70を把持するための操作がコントローラ40に入力されているか否かを判定する。仮想オブジェクト70を把持するための操作がコントローラ40に入力されている場合には、ステップS12の処理が行われ、そうでない場合には、ステップS10の処理が行われる。
<Step S11>
The sound generation unit 102 determines whether or not an operation for gripping the virtual object 70 has been input to the controller 40. If an operation for gripping the virtual object 70 has been input to the controller 40, the process of step S12 is performed, and if not, the process of step S10 is performed.

この例では、仮想オブジェクト70であるハンドガン71を把持するための操作は、コントローラ40の操作子41に含まれる所定のボタンを押下するという操作である。音声生成部102は、コントローラ40から出力される操作信号(操作子41に入力された操作に応じた信号)に基づいて、ハンドガン71を把持するための操作(所定のボタンを押下するという操作)がコントローラ40の操作子41に入力されたか否かを判定する。 In this example, the operation for gripping the handgun 71, which is the virtual object 70, is the operation of pressing a specific button included in the operator 41 of the controller 40. The sound generation unit 102 determines whether or not an operation for gripping the handgun 71 (the operation of pressing a specific button) has been input to the operator 41 of the controller 40, based on an operation signal (a signal corresponding to an operation input to the operator 41) output from the controller 40.

〈ステップS12〉
仮想部位61が所定範囲R1内に進入している場合に仮想オブジェクト70を把持するための操作がコントローラ40に入力されると、把持条件が成立する。なお、把持条件が成立するか否かの判定(ステップS10,S11の処理)は、ゲーム進行部100により行われてもよい。把持条件が成立すると、音声生成部102は、把持動作の対象となる仮想オブジェクト70の種類を特定する。この例では、音声生成部102は、把持動作の対象となる仮想オブジェクト70の種類が「ハンドガン71」であると特定する。
<Step S12>
When an operation to grasp the virtual object 70 is input to the controller 40 while the virtual part 61 is within the predetermined range R1, the grasping condition is met. Note that the determination of whether the grasping condition is met (the processing of steps S10 and S11) may be performed by the game progression unit 100. When the grasping condition is met, the sound generation unit 102 identifies the type of virtual object 70 that is the target of the grasping operation. In this example, the sound generation unit 102 identifies that the type of virtual object 70 that is the target of the grasping operation is a "handgun 71."

〈ステップS13〉
次に、音声生成部102は、把持条件の成立時点を始点とする把持開始期間における「現実世界でのプレイヤ50の身体における所定の部位51の移動速度」を導出する。
<Step S13>
Next, the sound generation unit 102 derives the "movement speed of a predetermined part 51 of the body of the player 50 in the real world" during the gripping start period, which begins at the time when the gripping condition is established.

この例では、音声生成部102は、第1コントローラ40aの動作センサ42から出力された動作信号に基づいて、把持開始期間における「現実世界でのプレイヤ50の右手55の移動速度」を導出する。例えば、音声生成部102は、把持開始期間における「動作センサ42から出力された動作信号に示された加速度」を積分することで、把持開始期間における右手55の移動速度を導出する。 In this example, the sound generation unit 102 derives the "movement speed of the player's 50's right hand 55 in the real world" during the grip start period based on the movement signal output from the movement sensor 42 of the first controller 40a. For example, the sound generation unit 102 derives the movement speed of the right hand 55 during the grip start period by integrating the "acceleration indicated in the movement signal output from the movement sensor 42" during the grip start period.

〈ステップS14〉
次に、音声生成部102は、ステップS13において導出された所定の部位51の移動速度(この例では右手55の移動速度)が予め定められた「低速範囲」と「中速範囲」と「高速範囲」のどれに含まれるのかを判定する。所定の部位51の移動速度が低速範囲に含まれる場合には、ステップS15の処理が行われる。所定の部位51の移動速度が中速範囲に含まれる場合には、ステップS16の処理が行われる。所定の部位51の移動速度が高速範囲に含まれる場合には、ステップS17の処理が行われる。
<Step S14>
Next, the voice generation unit 102 determines whether the moving speed of the predetermined part 51 derived in step S13 (in this example, the moving speed of the right hand 55) falls within a predetermined "low speed range,""medium speed range," or "high speed range." If the moving speed of the predetermined part 51 falls within the low speed range, processing of step S15 is performed. If the moving speed of the predetermined part 51 falls within the medium speed range, processing of step S16 is performed. If the moving speed of the predetermined part 51 falls within the high speed range, processing of step S17 is performed.

〈ステップS15〉
所定の部位51の移動速度(この例では右手55の移動速度)が低速範囲に含まれる場合、音声生成部102は、低速に応じた把持音を生成する。音声再生部103は、音声生成部102により生成された「低速に応じた把持音」をスピーカ30に再生させる。
<Step S15>
When the moving speed of the predetermined part 51 (in this example, the moving speed of the right hand 55) is included in the low speed range, the voice generating unit 102 generates a gripping sound corresponding to the low speed. The voice reproducing unit 103 reproduces the "gripping sound corresponding to the low speed" generated by the voice generating unit 102 on the speaker 30.

この例では、音声生成部102は、記憶部15に記憶された複数の音声データ(把持音を示す音声データ)の中からステップS12において特定された仮想オブジェクト70の種類(この例ではハンドガン71)に対応する複数の音声データを選択する。次に、音声生成部102は、その複数の音声データ(把持開始期間における仮想部位61の移動速度の範囲毎に準備された音声データ)の中から、低速範囲に対応する「低速に応じた把持音」を示す音声データを選択する。そして、音声再生部103は、音声生成部102により選択された「低速に応じた把持音」を示す音声データをオーディオ処理部13に供給することで、低速に応じた把持音をスピーカ30に再生させる。 In this example, the sound generation unit 102 selects a plurality of pieces of sound data corresponding to the type of virtual object 70 identified in step S12 (handgun 71 in this example) from among the plurality of pieces of sound data (sound data indicating gripping sounds) stored in the storage unit 15. Next, the sound generation unit 102 selects sound data indicating a "grip sound corresponding to low speed" corresponding to the low speed range from among the plurality of pieces of sound data (sound data prepared for each range of moving speeds of the virtual part 61 in the grip start period). Then, the sound reproduction unit 103 supplies the sound data indicating the "grip sound corresponding to low speed" selected by the sound generation unit 102 to the audio processing unit 13, thereby causing the speaker 30 to reproduce the grip sound corresponding to low speed.

〈ステップS16〉
所定の部位51の移動速度(この例では右手55の移動速度)が中速範囲に含まれる場合、音声生成部102は、中速に応じた把持音を生成する。音声再生部103は、音声生成部102により生成された「中速に応じた把持音」をスピーカ30に再生させる。例えば、中速に応じた把持音は、低速に応じた把持音よりも激しく大きな音である。
<Step S16>
When the moving speed of the predetermined part 51 (in this example, the moving speed of the right hand 55) is within the medium speed range, the voice generating unit 102 generates a gripping sound corresponding to the medium speed. The voice reproducing unit 103 reproduces the "gripping sound corresponding to the medium speed" generated by the voice generating unit 102 on the speaker 30. For example, the gripping sound corresponding to the medium speed is more intense and louder than the gripping sound corresponding to the low speed.

音声生成部102は、記憶部15に記憶された複数の音声データ(把持音を示す音声データ)の中から、ステップS12において特定された仮想オブジェクト70の種類(この例ではハンドガン71)に対応し且つ中速範囲に対応する「中速に応じた把持音」を示す音声データを選択する。なお、音声生成部102による「中速に応じた把持音」を示す音声データの選択は、音声生成部102による「低速に応じた把持音」を示す音声データの選択と同様である。音声再生部103は、音声生成部102により選択された「中速に応じた把持音」を示す音声データをオーディオ処理部13に供給することで、中速に応じた把持音をスピーカ30に再生させる。 The sound generating unit 102 selects, from among the multiple pieces of sound data (sound data indicating gripping sounds) stored in the storage unit 15, sound data indicating a "gripping sound corresponding to medium speed" that corresponds to the type of virtual object 70 identified in step S12 (handgun 71 in this example) and corresponds to the medium speed range. The selection of sound data indicating a "gripping sound corresponding to medium speed" by the sound generating unit 102 is similar to the selection of sound data indicating a "gripping sound corresponding to low speed" by the sound generating unit 102. The sound reproducing unit 103 supplies the sound data indicating the "gripping sound corresponding to medium speed" selected by the sound generating unit 102 to the audio processing unit 13, thereby reproducing the gripping sound corresponding to medium speed on the speaker 30.

〈ステップS17〉
所定の部位51の移動速度(この例では右手55の移動速度)が高速範囲に含まれる場合、音声生成部102は、高速に応じた把持音を生成する。音声再生部103は、音声生成部102により生成された「高速に応じた把持音」をスピーカ30に再生させる。例えば、高速に応じた把持音は、中速に応じた把持音よりも激しく大きな音である。
<Step S17>
When the moving speed of the predetermined part 51 (in this example, the moving speed of the right hand 55) is included in the high speed range, the voice generating unit 102 generates a gripping sound corresponding to the high speed. The voice reproducing unit 103 reproduces the "gripping sound corresponding to the high speed" generated by the voice generating unit 102 on the speaker 30. For example, the gripping sound corresponding to the high speed is more intense and louder than the gripping sound corresponding to the medium speed.

音声生成部102は、記憶部15に記憶された複数の音声データ(把持音を示す音声データ)の中から、ステップS12において特定された仮想オブジェクト70の種類(この例ではハンドガン71)に対応し且つ高速範囲に対応する「高速に応じた把持音」を示す音声データを選択する。なお、音声生成部102による「高速に応じた把持音」を示す音声データの選択は、音声生成部102による「低速に応じた把持音」を示す音声データの選択と同様である。音声再生部103は、音声生成部102により選択された「高速に応じた把持音」を示す音声データをオーディオ処理部13に供給することで、高速に応じた把持音をスピーカ30に再生させる。 The sound generating unit 102 selects, from among the multiple pieces of sound data (sound data indicating gripping sounds) stored in the memory unit 15, sound data indicating a "grip sound corresponding to high speed" that corresponds to the type of virtual object 70 identified in step S12 (handgun 71 in this example) and corresponds to the high speed range. The selection of sound data indicating a "grip sound corresponding to high speed" by the sound generating unit 102 is similar to the selection of sound data indicating a "grip sound corresponding to low speed" by the sound generating unit 102. The sound reproducing unit 103 supplies the sound data indicating the "grip sound corresponding to high speed" selected by the sound generating unit 102 to the audio processing unit 13, thereby reproducing the grip sound corresponding to high speed on the speaker 30.

〔持ち運び動作に関連する処理〕
次に、図6を参照して、持ち運び動作について説明する。持ち運び動作は、仮想右手65(仮想手)がハンドガン71(仮想オブジェクト70)を把持した状態で持ち運ぶという動作である。持ち運び動作は、仮想部位61の所定の動きの一例である。
[Processing related to carrying operation]
Next, the carrying motion will be described with reference to Fig. 6. The carrying motion is a motion in which the virtual right hand 65 (virtual hand) holds and carries a handgun 71 (virtual object 70). The carrying motion is an example of a predetermined movement of the virtual part 61.

ゲーム進行部100は、仮想空間内において把持条件が成立した後に、持ち運び動作を行うための条件である持ち運び条件が成立すると、持ち運び動作が行われるように仮想空間を制御する。具体的は、ゲーム進行部100は、持ち運び条件が成立すると、プレイヤ50の右手55の動きと連動して、仮想右手65がハンドガン71を把持した状態で持ち運ぶように、仮想右手65の動きを制御する。 After the gripping condition is met in the virtual space, the game progression unit 100 controls the virtual space so that the carrying action is performed when the carrying condition, which is a condition for performing the carrying action, is met. Specifically, when the carrying condition is met, the game progression unit 100 controls the movement of the virtual right hand 65 in conjunction with the movement of the right hand 55 of the player 50 so that the virtual right hand 65 grips and carries the handgun 71.

音声生成部102は、把持条件が成立した後に持ち運び条件が成立すると、把持条件の成立時点から持ち運び条件の成立時点までの持ち運び開始期間における右手55(所定の部位51)の移動速度に応じて、持ち運び動作に応じた効果音である持ち運び音を生成する。持ち運び動作に応じた音響処理については、後で詳しく説明する。 When the carrying condition is satisfied after the holding condition is satisfied, the sound generating unit 102 generates a carrying sound, which is a sound effect corresponding to the carrying action, according to the movement speed of the right hand 55 (predetermined part 51) during the carrying start period from the time when the holding condition is satisfied to the time when the carrying condition is satisfied. The sound processing corresponding to the carrying action will be described in detail later.

なお、持ち運び条件は、仮想空間内において仮想右手65(仮想手)がハンドガン71(仮想オブジェクト70)を把持し続けている状態で、把持条件の成立後における右手55(所定の部位51)の移動距離が所定距離に到達するという条件である。持ち運び条件は、仮想部位61の所定の動きに応じた効果音を再生するための条件の一例である。 The carrying condition is a condition in which the virtual right hand 65 (virtual hand) continues to grip a handgun 71 (virtual object 70) in the virtual space, and the movement distance of the right hand 55 (predetermined part 51) after the gripping condition is met reaches a predetermined distance. The carrying condition is an example of a condition for playing a sound effect corresponding to a predetermined movement of the virtual part 61.

〔持ち運び音〕
この例では、持ち運び音は、プレイヤキャラクタ60に装着されたホルスタに収容されたハンドガン71がホルスタの内面に擦れながらホルスタから取り出される音(例えば「スーッ」という音)である。持ち運び音は、手で物体(この例ではハンドガン)を擦りながら持ち運ぶ(移動させる)ときに発する音を模した効果音である。
[Carrying noise]
In this example, the carrying sound is the sound (e.g., a "whoosh" sound) of handgun 71 housed in a holster attached to player character 60 being removed from the holster while rubbing against the inner surface of the holster. The carrying sound is a sound effect that imitates the sound made when carrying (moving) an object (a handgun in this example) while rubbing it with the hand.

なお、現実世界において、手で物体を擦りながら持ち運ぶときに発する音は、物体を掴んで運ぶ手の移動速度に応じて変化する。例えば、手で物体を擦りながら運ぶときに発する音は、物体を掴んで運ぶ手の移動速度が高くなるほど、激しく大きな音になる傾向にある。上記の「手で物体を擦りながら持ち運ぶときに発する音」と「物体を掴んで運ぶ手の移動速度(所定期間における移動速度)」との関係は、実験およびシミュレーションにより導出することが可能である。 In the real world, the sound made when carrying an object while rubbing it in the hand changes depending on the moving speed of the hand that is holding and carrying the object. For example, the sound made when carrying an object while rubbing it in the hand tends to become louder and more intense the faster the hand that is holding and carrying the object moves. The relationship between the above "sound made when carrying an object while rubbing it in the hand" and "moving speed of the hand that is holding and carrying the object (moving speed in a specified period of time)" can be derived through experiments and simulations.

〔持ち運び動作に応じた音響処理〕
次に、図7を参照して、持ち運び動作に応じた音響処理(効果音を生成する処理)について説明する。この例では、仮想オブジェクト70の種類毎および後述する持ち運び開始期間における所定の部位51の移動速度の範囲毎に、その仮想オブジェクト70の持ち運び動作に応じた持ち運び音(複数の持ち運び音)が準備されている。これらの持ち運び音を示す音声データ(複数の音声データ)は、記憶部15に記憶されている。
[Audio processing in response to carrying movements]
Next, an acoustic process (a process for generating sound effects) corresponding to a carrying action will be described with reference to Fig. 7. In this example, carrying sounds (a plurality of carrying sounds) corresponding to the carrying action of the virtual object 70 are prepared for each type of virtual object 70 and for each range of the moving speed of a predetermined part 51 during a carrying start period described later. Audio data (a plurality of audio data) indicating these carrying sounds is stored in the storage unit 15.

〈ステップS20〉
音声生成部102は、把持条件が成立しているか否かを判定する。把持条件が成立すると、ステップS21の処理が行われる。
<Step S20>
The voice generating unit 102 determines whether or not the gripping condition is satisfied. If the gripping condition is satisfied, the process of step S21 is performed.

〈ステップS21〉
音声生成部102は、仮想オブジェクト70の把持位置(把持動作が開始されたときの位置)からの仮想部位61の移動距離の計測を開始する。次に、ステップS22の処理が行われる。
<Step S21>
The sound generator 102 starts measuring the moving distance of the virtual part 61 from the gripping position (the position when the gripping motion is started) of the virtual object 70. Next, the process of step S22 is performed.

この例では、音声生成部102は、仮想部位61である仮想右手65が仮想オブジェクト70であるハンドガン71を把持する把持動作が開始されたときの仮想右手65の位置(例えば座標)を取得し、その仮想右手65の位置を「移動距離の計測開始位置」に設定する。そして、音声生成部102は、仮想空間内における仮想右手65の位置(例えば座標)を追跡し、仮想右手65の移動の軌跡の距離を「ハンドガン71の把持位置からの仮想右手65の移動距離」として導出する。または、音声生成部102は、仮想空間内における仮想右手65の現在位置と計測開始位置との直線距離を「ハンドガン71の把持位置からの仮想右手65の移動距離」として導出してもよい。 In this example, the voice generation unit 102 acquires the position (e.g., coordinates) of the virtual right hand 65, which is the virtual part 61, when the gripping action of the virtual right hand 65 to grip the handgun 71, which is the virtual object 70, is started, and sets the position of the virtual right hand 65 as the "measurement start position of the movement distance". The voice generation unit 102 then tracks the position (e.g., coordinates) of the virtual right hand 65 in the virtual space, and derives the distance of the trajectory of the movement of the virtual right hand 65 as the "movement distance of the virtual right hand 65 from the grip position of the handgun 71". Alternatively, the voice generation unit 102 may derive the straight-line distance between the current position of the virtual right hand 65 in the virtual space and the measurement start position as the "movement distance of the virtual right hand 65 from the grip position of the handgun 71".

〈ステップS22〉
音声生成部102は、仮想オブジェクト70の把持を解除するための操作がコントローラ40に入力されたか否かを判定する。仮想オブジェクト70の把持を解除するための操作がコントローラ40に入力されていない場合には、ステップS23の処理が行われる。一方、仮想オブジェクト70の把持を解除するための操作がコントローラ40に入力されている場合には、処理が終了する。
<Step S22>
The sound generation unit 102 determines whether or not an operation for releasing the grip of the virtual object 70 has been input to the controller 40. If an operation for releasing the grip of the virtual object 70 has not been input to the controller 40, the process of step S23 is performed. On the other hand, if an operation for releasing the grip of the virtual object 70 has been input to the controller 40, the process ends.

この例では、仮想オブジェクト70であるハンドガン71の把持を解除するための操作は、コントローラ40の操作子41に含まれる所定のボタン(ハンドガン71を把持するために押下されるボタン)の押下を解除するという操作である。音声生成部102は、コントローラ40から出力される操作信号(操作子41に入力された操作に応じた信号)に基づいて、ハンドガン71を把持するための操作(所定のボタンを押下するという操作)が解除されたか否かを判定する。ハンドガン71を把持するための操作が解除されずに継続されている場合には、ステップS23の処理が行われる。一方、ハンドガン71を把持するための操作が解除されると、処理が終了する。 In this example, the operation for releasing the grip of the handgun 71, which is the virtual object 70, is an operation of releasing the press of a specific button (a button pressed to grip the handgun 71) included in the operator 41 of the controller 40. The sound generation unit 102 determines whether or not the operation for gripping the handgun 71 (the operation of pressing the specific button) has been released, based on an operation signal (a signal corresponding to an operation input to the operator 41) output from the controller 40. If the operation for gripping the handgun 71 is continued without being released, the process of step S23 is performed. On the other hand, if the operation for gripping the handgun 71 is released, the process ends.

〈ステップS23〉
次に、音声生成部102は、仮想オブジェクト70(この例ではハンドガン71)の把持位置からの仮想部位61(この例では仮想右手65)の移動距離が所定距離に到達しているか否かを判定する。仮想オブジェクト70の把持位置からの仮想部位61の移動距離が所定距離に到達している場合には、ステップS24の処理が行われ、そうでない場合には、ステップS22の処理が行われる。
<Step S23>
Next, the sound generation unit 102 determines whether or not the movement distance of the virtual part 61 (the virtual right hand 65 in this example) from the grip position of the virtual object 70 (the handgun 71 in this example) has reached a predetermined distance. If the movement distance of the virtual part 61 from the grip position of the virtual object 70 has reached the predetermined distance, the process of step S24 is performed, and if not, the process of step S22 is performed.

〈ステップS24〉
仮想オブジェクト70の把持を解除するための操作がコントローラ40に入力されることなく、仮想オブジェクト70の把持位置からの仮想部位61の移動距離が所定距離に到達すると、持ち運び条件が成立する。なお、持ち運び条件が成立するか否かの判定(ステップS21~S23の処理)は、ゲーム進行部100により行われてもよい。把持条件が成立すると、音声生成部102は、持ち運び動作の対象となる仮想オブジェクト70の種類を特定する。この例では、音声生成部102は、持ち運び動作の対象となる仮想オブジェクト70の種類が「ハンドガン71」であると特定する。
<Step S24>
When the movement distance of the virtual part 61 from the gripping position of the virtual object 70 reaches a predetermined distance without an operation for releasing the grip of the virtual object 70 being input to the controller 40, the carrying condition is met. Note that the determination of whether or not the carrying condition is met (the processing of steps S21 to S23) may be performed by the game progression unit 100. When the gripping condition is met, the sound generation unit 102 identifies the type of virtual object 70 that is the target of the carrying action. In this example, the sound generation unit 102 identifies the type of virtual object 70 that is the target of the carrying action as "handgun 71."

〈ステップS25〉
次に、音声生成部102は、把持条件の成立時点から持ち運び条件の成立時点までの持ち運び開始期間における「現実世界でのプレイヤ50の身体における所定の部位51の移動速度」を導出する。
<Step S25>
Next, the sound generation unit 102 derives the "movement speed of a predetermined part 51 of the body of the player 50 in the real world" during the carrying start period from the point when the gripping condition is met to the point when the carrying condition is met.

この例では、音声生成部102は、第1コントローラ40aの動作センサ42から出力された動作信号に基づいて、持ち運び開始期間における「現実世界でのプレイヤ50の右手55の移動速度」を導出する。例えば、音声生成部102は、持ち運び開始期間における「動作センサ42から出力された動作信号に示された加速度」を積分することで、持ち運び開始期間における右手55の移動速度を導出する。 In this example, the sound generation unit 102 derives the "movement speed of the player's 50's right hand 55 in the real world" during the start of carrying period based on the movement signal output from the movement sensor 42 of the first controller 40a. For example, the sound generation unit 102 derives the movement speed of the right hand 55 during the start of carrying period by integrating the "acceleration indicated in the movement signal output from the movement sensor 42" during the start of carrying period.

〈ステップS26〉
次に、音声生成部102は、ステップS25において導出された所定の部位51の移動速度(この例では右手55の移動速度)が予め定められた「低速範囲」と「中速範囲」と「高速範囲」のどれに含まれるのかを判定する。所定の部位51の移動速度が低速範囲に含まれる場合には、ステップS27の処理が行われる。所定の部位51の移動速度が中速範囲に含まれる場合には、ステップS28の処理が行われる。所定の部位51の移動速度が高速範囲に含まれる場合には、ステップS29の処理が行われる。
<Step S26>
Next, the voice generation unit 102 determines whether the moving speed of the predetermined part 51 derived in step S25 (in this example, the moving speed of the right hand 55) falls within a predetermined "low speed range,""medium speed range," or "high speed range." If the moving speed of the predetermined part 51 falls within the low speed range, processing of step S27 is performed. If the moving speed of the predetermined part 51 falls within the medium speed range, processing of step S28 is performed. If the moving speed of the predetermined part 51 falls within the high speed range, processing of step S29 is performed.

〈ステップS27〉
所定の部位51の移動速度(この例では右手55の移動速度)が低速範囲に含まれる場合、音声生成部102は、低速に応じた持ち運び音を生成する。音声再生部103は、音声生成部102により生成された「低速に応じた持ち運び音」をスピーカ30に再生させる。
<Step S27>
When the moving speed of the predetermined part 51 (in this example, the moving speed of the right hand 55) is included in the low speed range, the sound generating unit 102 generates a carrying sound corresponding to the low speed. The sound reproducing unit 103 causes the speaker 30 to reproduce the "carrying sound corresponding to the low speed" generated by the sound generating unit 102.

この例では、音声生成部102は、記憶部15に記憶された複数の音声データ(持ち運び音を示す音声データ)の中からステップS24において特定された仮想オブジェクト70の種類(この例ではハンドガン71)に対応する複数の音声データを選択する。次に、音声生成部102は、その複数の音声データ(持ち運び開始期間における仮想部位61の移動速度の範囲毎に準備された音声データ)の中から、低速範囲に対応する「低速に応じた持ち運び音」を示す音声データを選択する。そして、音声再生部103は、音声生成部102により選択された「低速に応じた持ち運び音」を示す音声データをオーディオ処理部13に供給することで、低速に応じた持ち運び音をスピーカ30に再生させる。 In this example, the sound generation unit 102 selects a plurality of pieces of sound data corresponding to the type of virtual object 70 identified in step S24 (handgun 71 in this example) from among the plurality of pieces of sound data (sound data indicating the carrying sound) stored in the storage unit 15. Next, the sound generation unit 102 selects sound data indicating a "carrying sound corresponding to low speed" corresponding to the low speed range from among the plurality of pieces of sound data (sound data prepared for each range of the moving speed of the virtual part 61 during the carrying start period). Then, the sound reproduction unit 103 supplies the sound data indicating the "carrying sound corresponding to low speed" selected by the sound generation unit 102 to the audio processing unit 13, thereby causing the speaker 30 to reproduce the carrying sound corresponding to low speed.

〈ステップS28〉
所定の部位51の移動速度(この例では右手55の移動速度)が中速範囲に含まれる場合、音声生成部102は、中速に応じた持ち運び音を生成する。音声再生部103は、音声生成部102により生成された「中速に応じた持ち運び音」をスピーカ30に再生させる。例えば、中速に応じた持ち運び音は、低速に応じた持ち運び音よりも激しく大きな音である。
<Step S28>
When the moving speed of the predetermined part 51 (in this example, the moving speed of the right hand 55) is within the medium speed range, the voice generating unit 102 generates a carrying sound corresponding to the medium speed. The voice reproducing unit 103 causes the speaker 30 to reproduce the "carrying sound corresponding to the medium speed" generated by the voice generating unit 102. For example, the carrying sound corresponding to the medium speed is more intense and louder than the carrying sound corresponding to the low speed.

音声生成部102は、記憶部15に記憶された複数の音声データ(持ち運び音を示す音声データ)の中から、ステップS24において特定された仮想オブジェクト70の種類(この例ではハンドガン71)に対応し且つ中速範囲に対応する「中速に応じた持ち運び音」を示す音声データを選択する。なお、音声生成部102による「中速に応じた持ち運び音」を示す音声データの選択は、音声生成部102による「低速に応じた持ち運び音」を示す音声データの選択と同様である。音声再生部103は、音声生成部102により選択された「中速に応じた持ち運び音」を示す音声データをオーディオ処理部13に供給することで、中速に応じた持ち運び音をスピーカ30に再生させる。 The sound generation unit 102 selects, from among the multiple pieces of sound data (sound data indicating carrying sounds) stored in the storage unit 15, sound data indicating a "carrying sound corresponding to medium speed" that corresponds to the type of virtual object 70 identified in step S24 (handgun 71 in this example) and corresponds to the medium speed range. The selection of sound data indicating a "carrying sound corresponding to medium speed" by the sound generation unit 102 is similar to the selection of sound data indicating a "carrying sound corresponding to low speed" by the sound generation unit 102. The sound reproduction unit 103 supplies the sound data indicating the "carrying sound corresponding to medium speed" selected by the sound generation unit 102 to the audio processing unit 13, thereby causing the speaker 30 to reproduce the carrying sound corresponding to medium speed.

〈ステップS29〉
所定の部位51の移動速度(この例では右手55の移動速度)が高速範囲に含まれる場合、音声生成部102は、高速に応じた持ち運び音を生成する。音声再生部103は、音声生成部102により生成された「高速に応じた持ち運び音」をスピーカ30に再生させる。例えば、高速に応じた持ち運び音は、中速に応じた持ち運び音よりも激しく大きな音である。
<Step S29>
When the moving speed of the predetermined part 51 (in this example, the moving speed of the right hand 55) is included in the high speed range, the voice generating unit 102 generates a carrying sound corresponding to the high speed. The voice reproducing unit 103 causes the speaker 30 to reproduce the "carrying sound corresponding to the high speed" generated by the voice generating unit 102. For example, the carrying sound corresponding to the high speed is more intense and louder than the carrying sound corresponding to the medium speed.

音声生成部102は、記憶部15に記憶された複数の音声データ(持ち運び音を示す音声データ)の中から、ステップS24において特定された仮想オブジェクト70の種類(この例ではハンドガン71)に対応し且つ高速範囲に対応する「高速に応じた持ち運び音」を示す音声データを選択する。なお、音声生成部102による「高速に応じた持ち運び音」を示す音声データの選択は、音声生成部102による「低速に応じた持ち運び音」を示す音声データの選択と同様である。音声再生部103は、音声生成部102により選択された「高速に応じた持ち運び音」を示す音声データをオーディオ処理部13に供給することで、高速に応じた把持音をスピーカ30に再生させる。 The sound generation unit 102 selects, from among the multiple pieces of sound data (sound data indicating carrying sounds) stored in the storage unit 15, sound data indicating a "carrying sound corresponding to high speed" that corresponds to the type of virtual object 70 identified in step S24 (handgun 71 in this example) and corresponds to the high speed range. The selection of sound data indicating a "carrying sound corresponding to high speed" by the sound generation unit 102 is similar to the selection of sound data indicating a "carrying sound corresponding to low speed" by the sound generation unit 102. The sound reproduction unit 103 supplies the sound data indicating the "carrying sound corresponding to high speed" selected by the sound generation unit 102 to the audio processing unit 13, thereby causing the speaker 30 to reproduce a gripping sound corresponding to high speed.

〔実施形態の総括〕
以上をまとめると、実施形態のプログラム(ゲームプログラム)は、1つのコンピュータまたは共働する複数のコンピュータを有するコンピュータシステム(ゲーム装置10)を、仮想空間制御部(ゲーム進行部100)、画像再生部101、音声生成部102、音声再生部103として機能させるプログラムである。コンピュータシステムは、ディスプレイ21、スピーカ30、センサ(動作センサ42)とともに利用される。センサは、ユーザ(プレイヤ50)の身体における所定の部位51の動きを示す信号を出力する。仮想空間制御部は、センサから出力された信号に示された所定の部位51の動きに応じて仮想空間内において仮想部位61が動くように、仮想空間を制御する。画像再生部101は、仮想空間の画像をディスプレイ21に再生させる。音声生成部102は、仮想部位61の所定の動きに応じた効果音を再生するための条件が成立すると、所定の部位51の移動速度に応じて効果音を生成する。音声再生部103は、音声生成部102により生成された効果音をスピーカ30に再生させる。
[Overview of the embodiment]
In summary, the program (game program) of the embodiment is a program that causes a computer system (game device 10) having one computer or multiple computers working together to function as a virtual space control unit (game progression unit 100), an image reproduction unit 101, a sound generation unit 102, and a sound reproduction unit 103. The computer system is used together with a display 21, a speaker 30, and a sensor (motion sensor 42). The sensor outputs a signal indicating the movement of a predetermined part 51 in the body of a user (player 50). The virtual space control unit controls the virtual space so that a virtual part 61 moves in the virtual space according to the movement of the predetermined part 51 indicated by the signal output from the sensor. The image reproduction unit 101 reproduces an image of the virtual space on the display 21. The sound generation unit 102 generates a sound effect according to the moving speed of the predetermined part 51 when a condition for reproducing a sound effect according to the predetermined movement of the virtual part 61 is established. The sound reproduction unit 103 reproduces the sound effect generated by the sound generation unit 102 on the speaker 30.

実施形態の音響制御装置(ゲーム装置10)は、上記プログラムを記憶する記憶部15と、上記プログラムを実行する制御部16とを備える。 The acoustic control device (game device 10) of the embodiment includes a storage unit 15 that stores the above program, and a control unit 16 that executes the above program.

〔実施形態の効果〕
実施形態のゲーム装置10では、仮想空間における仮想部位(プレイヤの身体における所定の部位の動きと連動して動く仮想部位)の所定の動きに応じた効果音を再生するための条件が成立すると、現実世界におけるプレイヤの身体における所定の部位の移動速度に応じて上記の効果音を生成する。これにより、ユーザエクスペリエンスを向上させることができる。例えば、効果音のリアリティを向上させることができるので、興趣性を向上させることができる。
[Effects of the embodiment]
In the game device 10 of the embodiment, when a condition for playing a sound effect corresponding to a predetermined movement of a virtual part in the virtual space (a virtual part that moves in conjunction with the movement of a predetermined part of the player's body) is met, the above sound effect is generated according to the moving speed of the predetermined part of the player's body in the real world. This can improve the user experience. For example, the reality of the sound effect can be improved, thereby improving interest.

また、実施形態のゲーム装置10では、仮想空間内において仮想手が仮想オブジェクトを把持するという把持動作に応じた把持音と、仮想手が仮想オブジェクトを把持した状態で持ち運ぶという持ち運び動作に応じた持ち運び音とが別々に生成される。これにより、ユーザエクスペリエンスをさらに向上させることができる。例えば、把持動作の後に持ち運び動作が行われるという一連の動作に応じた効果音のリアリティを向上させることができるので、興趣性を向上させることができる。 In addition, in the game device 10 of the embodiment, a gripping sound corresponding to a gripping action in which a virtual hand grips a virtual object in a virtual space, and a carrying sound corresponding to a carrying action in which the virtual hand carries the virtual object while gripping it, are generated separately. This can further improve the user experience. For example, the realism of sound effects corresponding to a series of actions, such as a gripping action followed by a carrying action, can be improved, thereby improving interest.

(その他の実施形態)
以上の説明において、以下のように構成または設定されてもよい。
Other Embodiments
In the above description, the following configuration or setting may be adopted.

プレイヤ(ユーザ)の身体における所定の部位は、手に限定されない。例えば、プレイヤの身体における所定の部位は、プレイヤの胴部であってもよいし、プレイヤの脚部であってもよいし、その他の部位であってもよい。 The predetermined part of the player's (user's) body is not limited to the hands. For example, the predetermined part of the player's body may be the player's torso, the player's legs, or some other part.

プレイヤ(ユーザ)の身体における所定の部位の動きを示す信号を出力するセンサは、コントローラ40の動作センサ42に限定されない。例えば、このようなセンサは、プレイヤの身体における所定の部位を撮像するカメラ(画像センサ)と、カメラにより得られた「所定の部位の画像」に基づいて所定の部位の動きを認識する認識処理部との組合せであってもよい。 The sensor that outputs a signal indicating the movement of a specific part of the player's (user's) body is not limited to the motion sensor 42 of the controller 40. For example, such a sensor may be a combination of a camera (image sensor) that captures an image of a specific part of the player's body, and a recognition processing unit that recognizes the movement of the specific part based on the "image of the specific part" obtained by the camera.

仮想手により把持可能な仮想オブジェクトは、ハンドガンなどの銃器に限定されない。例えば、このような仮想オブジェクトは、ナイフなどの他の武器であってもよいし、プレイヤキャラクタに装着される防具であってもよいし、武器や防具ではない他の物体(仮想の物体)であってもよい。 The virtual object that can be held by the virtual hand is not limited to a firearm such as a handgun. For example, such a virtual object may be another weapon such as a knife, may be armor worn by the player character, or may be another object (virtual object) that is not a weapon or armor.

音声データは、必ずしも予め用意しておく必要はない。例えば、音声生成部102は、何らかのデータ(例えば記憶部15に記憶された音声データ)や情報などに基づいて、その都度、音声データを合成したり生成したりしてもよい。 The voice data does not necessarily need to be prepared in advance. For example, the voice generation unit 102 may synthesize or generate voice data each time based on some data (e.g., voice data stored in the storage unit 15) or information.

スピーカ30は、据え置き型のスピーカであってもよいし、イヤホンやヘッドホンなどのウェアラブル型のスピーカであってもよい。 The speaker 30 may be a stationary speaker or a wearable speaker such as an earphone or a headphone.

プレイヤキャラクタは、ディスプレイに表示されてもよいし、非表示であってもよい。言い換えると、ディスプレイに表示(再生)される仮想空間の画像において、プレイヤキャラクタは、含まれてもよいし、含まれなくてもよい。例えば、一人称視点で仮想空間の画像がディスプレイに表示される場合、プレイヤキャラクタの一部である仮想手(仮想部位)のみが表示されてもよいし、仮想手が表示されずに仮想手に把持されたハンドガン(仮想オブジェクト)のみが表示されてもよい。 The player character may or may not be displayed on the display. In other words, the player character may or may not be included in the image of the virtual space that is displayed (played) on the display. For example, when an image of the virtual space is displayed on the display from a first-person perspective, only the virtual hand (virtual body part), which is part of the player character, may be displayed, or the virtual hand may not be displayed and only a handgun (virtual object) held in the virtual hand may be displayed.

仮想空間の画像は、一人称視点の画像であってもよいし、三人称視点の画像であってもよい。 The image of the virtual space may be from a first-person perspective or a third-person perspective.

また、以上の説明において、ゲームプログラムは、いわゆるオンラインゲーム用のゲームプログラムとして実装されてもよい。この場合、ゲーム装置10の制御部16において行われる処理は、サーバ装置の制御部(図示省略)において行われてもよいし、ゲーム装置10とサーバ装置の制御部とで分担されてもよい。ゲーム装置10は、スマートフォンやタブレットなどの携帯情報端末であってもよい。 In the above description, the game program may be implemented as a game program for a so-called online game. In this case, the processing performed in the control unit 16 of the game device 10 may be performed in a control unit of a server device (not shown), or may be shared between the game device 10 and the control unit of the server device. The game device 10 may be a mobile information terminal such as a smartphone or tablet.

また、以上の説明では、仮想空間の例として、ゲームが進行する仮想空間(ゲーム空間)を挙げたが、これに限定されない。例えば、仮想空間は、アバター同士がコミュニケーションをとる仮想空間(メタバース空間)であってもよい。言い換えると、仮想空間において提供されるサービスは、ゲームに限定されない。例えば、仮想空間において提供されるサービスは、商取引の場の提供、コミュニケーションの場の提供などであってもよい。 In the above explanation, a virtual space in which a game progresses (game space) has been given as an example of a virtual space, but this is not limiting. For example, the virtual space may be a virtual space in which avatars communicate with each other (metaverse space). In other words, the services provided in the virtual space are not limited to games. For example, the services provided in the virtual space may be the provision of a place for commercial transactions, the provision of a place for communication, etc.

これらの他の実施形態を採用した場合においても、本発明の作用効果は発揮される。また、本実施形態と他の実施形態、および他の実施形態同士を適宜組み合わせることも可能である。以上の実施形態は、本質的に好ましい例示であって、本発明、その適用物、あるいはその用途の範囲を制限することを意図するものではない。 Even when these other embodiments are adopted, the effects of the present invention are achieved. In addition, this embodiment can be combined with other embodiments, and other embodiments can be combined with each other as appropriate. The above embodiments are essentially preferred examples, and are not intended to limit the scope of the present invention, its applications, or its uses.

10 ゲーム装置(音響制御装置)
11 ネットワークインターフェース
12 グラフィック処理部
13 オーディオ処理部
14 操作処理部
20 ヘッドマウントディスプレイ
21 ディスプレイ
22 動作センサ
25 本体部
26 ヘッドバンド
30 スピーカ
40 コントローラ
40a 第1コントローラ
40b 第2コントローラ
41 操作子
42 動作センサ(センサ)
50 プレイヤ(ユーザ)
51 所定の部位
55 右手(手)
56 左手(手)
60 プレイヤキャラクタ(仮想ユーザ)
61 仮想部位
65 仮想右手(仮想手)
66 仮想左手(仮想手)
70 仮想オブジェクト
71 ハンドガン
100 ゲーム進行部(仮想空間制御部)
101 画像再生部
102 音声生成部
103 音声再生部
10 Game device (sound control device)
11 Network interface 12 Graphics processing unit 13 Audio processing unit 14 Operation processing unit 20 Head mounted display 21 Display 22 Motion sensor 25 Main body unit 26 Headband 30 Speaker 40 Controller 40a First controller 40b Second controller 41 Operator 42 Motion sensor (sensor)
50 Player (user)
51 designated part 55 right hand (hand)
56 Left hand (hand)
60 Player character (virtual user)
61 Virtual part 65 Virtual right hand (virtual hand)
66 Virtual left hand (virtual hand)
70 Virtual object 71 Handgun 100 Game progression unit (virtual space control unit)
101 Image playback unit 102 Audio generation unit 103 Audio playback unit

Claims (8)

1つのコンピュータまたは共働する複数のコンピュータを有するコンピュータシステムを、仮想空間制御部、画像再生部、音声生成部、音声再生部として機能させるプログラムであって、
前記コンピュータシステムは、ディスプレイ、スピーカ、センサとともに利用され、
前記センサは、ユーザの身体における所定の部位の動きを示す信号を出力し、
前記仮想空間制御部は、前記信号に示された前記所定の部位の動きに応じて仮想空間内において仮想部位が動くように、前記仮想空間を制御し、
前記画像再生部は、前記仮想空間の画像を前記ディスプレイに再生させ、
前記音声生成部は、前記仮想部位の所定の動きに応じた効果音を再生するための条件が成立すると、前記所定の部位の移動速度に応じて前記効果音を生成し、
前記音声再生部は、前記音声生成部により生成された効果音を前記スピーカに再生させる
プログラム。
A program for causing a computer system having one computer or a plurality of computers working together to function as a virtual space control unit, an image playback unit, an audio generation unit, and an audio playback unit,
The computer system is used with a display, a speaker, and a sensor;
The sensor outputs a signal indicative of a movement of a predetermined part of the user's body;
the virtual space control unit controls the virtual space such that a virtual part moves within the virtual space in response to the movement of the predetermined part indicated by the signal;
The image playback unit plays an image of the virtual space on the display,
the sound generation unit generates a sound effect according to a moving speed of the virtual body part when a condition for playing the sound effect according to a predetermined movement of the virtual body part is satisfied;
The sound playback unit is a program that causes the speaker to play back the sound effects generated by the sound generation unit.
請求項1のプログラムにおいて、
前記コンピュータシステムは、前記ユーザに装着または把持されて操作されるコントローラとともに利用され、
前記センサは、前記コントローラに含まれ、
前記仮想空間制御部は、前記センサから出力される信号と前記コントローラに入力された操作とに基づいて、前記仮想空間を制御する
プログラム。
In the program of claim 1,
the computer system is used together with a controller that is worn or held by the user and operated;
The sensor is included in the controller;
The virtual space control unit is a program that controls the virtual space based on the signal output from the sensor and the operation input to the controller.
請求項2のプログラムにおいて、
前記所定の部位は、手であり、
前記仮想部位は、仮想手である
プログラム。
In the program of claim 2,
the predetermined part is a hand,
The program, wherein the virtual part is a virtual hand.
請求項3のプログラムにおいて、
前記仮想空間内には、前記仮想手により把持可能な仮想オブジェクトが配置され、
前記仮想空間制御部は、前記仮想空間内において前記仮想手が前記仮想オブジェクトを把持するという把持動作を行うための条件である把持条件が成立すると、前記把持動作が行われるように前記仮想空間を制御し、
前記音声生成部は、前記把持条件が成立すると、前記把持条件の成立時点を始点とする把持開始期間における前記所定の部位の移動速度に応じて、前記把持動作に応じた効果音である把持音を生成する
プログラム。
In the program of claim 3,
a virtual object that can be held by the virtual hand is placed in the virtual space;
the virtual space control unit controls the virtual space such that, when a gripping condition is satisfied, the gripping operation is performed such that the virtual hand grips the virtual object in the virtual space;
The sound generation unit is a program that, when the gripping condition is satisfied, generates a gripping sound, which is a sound effect corresponding to the gripping action, depending on the movement speed of the specified part during a gripping start period starting from the time when the gripping condition is satisfied.
請求項4のプログラムにおいて、
前記把持条件は、前記仮想空間内において前記仮想オブジェクトの位置を基準とする所定範囲内に前記仮想手を進入させた状態で、前記把持動作を行うための操作が前記コントローラに入力されるという条件である
プログラム。
In the program of claim 4,
The program, wherein the grasping condition is a condition that an operation to perform the grasping action is input to the controller with the virtual hand entering a predetermined range based on the position of the virtual object in the virtual space.
請求項4のプログラムにおいて、
前記仮想オブジェクトは、前記仮想手により把持された状態で持ち運び可能であり、
前記仮想空間制御部は、前記仮想空間内において前記把持条件が成立した後に、前記仮想手が前記仮想オブジェクトを把持した状態で持ち運ぶという持ち運び動作を行うための条件である持ち運び条件が成立すると、前記持ち運び動作が行われるように前記仮想空間を制御し、
前記音声生成部は、前記把持条件が成立した後に前記持ち運び条件が成立すると、前記把持条件の成立時点から前記持ち運び条件の成立時点までの持ち運び開始期間における前記所定の部位の移動速度に応じて、前記持ち運び動作に応じた効果音である持ち運び音を生成する
プログラム。
In the program of claim 4,
the virtual object is portable in a state of being held by the virtual hand;
the virtual space control unit, when a carrying condition is satisfied that is a condition for performing a carrying action in which the virtual hand carries the virtual object in a state of holding the virtual object after the grasping condition is satisfied in the virtual space, controls the virtual space so that the carrying action is performed;
The sound generation unit is a program that, when the carrying condition is met after the holding condition is met, generates a carrying sound, which is a sound effect corresponding to the carrying action, depending on the movement speed of the specified part during the carrying start period from the time when the holding condition is met to the time when the carrying condition is met.
請求項6のプログラムにおいて、
前記持ち運び条件は、前記仮想空間内において前記仮想手が前記仮想オブジェクトを把持し続けている状態で、前記把持条件の成立後における前記所定の部位の移動距離が所定距離に到達するという条件である
プログラム。
In the program of claim 6,
The program, wherein the carrying condition is a condition that, while the virtual hand is continuing to grasp the virtual object in the virtual space, a movement distance of the specified part after the grasping condition is satisfied reaches a specified distance.
請求項1~7のいずれか1つのプログラムを記憶する記憶部と、
前記プログラムを実行する制御部とを備える
音響制御装置。
A storage unit that stores the program according to any one of claims 1 to 7;
and a control unit for executing the program.
JP2023152921A 2023-09-20 2023-09-20 Program and sound control device Active JP7832502B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023152921A JP7832502B2 (en) 2023-09-20 2023-09-20 Program and sound control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023152921A JP7832502B2 (en) 2023-09-20 2023-09-20 Program and sound control device

Publications (2)

Publication Number Publication Date
JP2025045040A true JP2025045040A (en) 2025-04-02
JP7832502B2 JP7832502B2 (en) 2026-03-18

Family

ID=95207443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023152921A Active JP7832502B2 (en) 2023-09-20 2023-09-20 Program and sound control device

Country Status (1)

Country Link
JP (1) JP7832502B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003079943A (en) * 2001-09-10 2003-03-18 Namco Ltd Image generation system, program, and information storage medium
JP2008136695A (en) * 2006-12-01 2008-06-19 Namco Bandai Games Inc PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP2010142561A (en) * 2008-12-22 2010-07-01 Nintendo Co Ltd Game apparatus, and game program
JP2018081644A (en) * 2016-11-18 2018-05-24 株式会社バンダイナムコエンターテインメント Simulation system and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003079943A (en) * 2001-09-10 2003-03-18 Namco Ltd Image generation system, program, and information storage medium
JP2008136695A (en) * 2006-12-01 2008-06-19 Namco Bandai Games Inc PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP2010142561A (en) * 2008-12-22 2010-07-01 Nintendo Co Ltd Game apparatus, and game program
JP2018081644A (en) * 2016-11-18 2018-05-24 株式会社バンダイナムコエンターテインメント Simulation system and program

Also Published As

Publication number Publication date
JP7832502B2 (en) 2026-03-18

Similar Documents

Publication Publication Date Title
JP6438869B2 (en) Karaoke device and karaoke program
JP2019017475A (en) GAME SYSTEM, GAME PROGRAM, GAME DEVICE, AND GAME PROCESSING METHOD
Yun et al. Generating real-time, selective, and multimodal haptic effects from sound for gaming experience enhancement
JP6839730B2 (en) Information processing system, information processing method and computer program
US10632371B2 (en) Storage medium having stored therein information processing program, information processing system, information processing apparatus, and information processing method
JP2003208263A (en) Image processing apparatus having control device and attachment body thereof
KR20020062191A (en) Sound control method and device for expressing game presence
JP2019118493A (en) Simulation system and program
JP2018026034A (en) Simulation system
JP6622832B2 (en) Program and game system
JP2019126444A (en) Game program and game device
JP7832503B2 (en) Programs, sound control devices, systems
JP7832502B2 (en) Program and sound control device
JP6465780B2 (en) Karaoke device and karaoke program
JP7572618B2 (en) Game program and game device
JP7835989B2 (en) Programs, sound control devices, systems
JP7260794B2 (en) Game system and game control method
JP2021000243A (en) Program, method and terminal device
JP2025091813A (en) Program, sound control device, and system
JP2025044661A (en) Program and acoustic control device
JP2025044619A (en) Program and acoustic control device
JP2025091472A (en) Program and audio control device
JP2025091470A (en) Program and audio control device
JP2025091471A (en) Program and audio control device
JP7773059B2 (en) program and sound control device

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20250303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20251121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20251125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20260122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20260203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20260216