JP2025091813A - Program, sound control device, and system - Google Patents
Program, sound control device, and system Download PDFInfo
- Publication number
- JP2025091813A JP2025091813A JP2023207281A JP2023207281A JP2025091813A JP 2025091813 A JP2025091813 A JP 2025091813A JP 2023207281 A JP2023207281 A JP 2023207281A JP 2023207281 A JP2023207281 A JP 2023207281A JP 2025091813 A JP2025091813 A JP 2025091813A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- orientation
- virtual space
- display
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザエクスペリエンスを向上させる。【解決手段】検出部は、センサから出力された信号に基づいてユーザP1の向きを検出する。表示処理部は、検出部により検出されたユーザP1の向きに追従するように仮想空間内に配置された仮想カメラ61の向きを変化させ、仮想カメラ61により得られる仮想空間の画像をディスプレイに表示させる。音響処理部は、仮想カメラ61の向きが変化しても、複数のスピーカ30から出力される仮想空間内の音声により形成される音場の向きが変化しないように、複数のスピーカ30に仮想空間内の音声を出力させる。【選択図】図8[Problem] To improve user experience. [Solution] A detection unit detects the orientation of a user P1 based on a signal output from a sensor. A display processing unit changes the orientation of a virtual camera 61 arranged in a virtual space so as to follow the orientation of the user P1 detected by the detection unit, and causes an image of the virtual space obtained by the virtual camera 61 to be displayed on a display. An audio processing unit causes a plurality of speakers 30 to output sounds in the virtual space so that the orientation of a sound field formed by sounds in the virtual space output from the plurality of speakers 30 does not change even if the orientation of the virtual camera 61 changes. [Selected Figure] Figure 8
Description
本開示は、プログラム、音響制御装置、システムに関する。 This disclosure relates to a program, an audio control device, and a system.
ゲームプログラムの中には、仮想空間内の音声を再生するものがある。例えば、特許文献1では、シューティングゲームにおいて銃声音などの音声が再生される。 Some game programs play sounds within a virtual space. For example, in Patent Document 1, sounds such as gunshots are played in a shooting game.
ユーザの向きに追従するディスプレイ(例えばヘッドマウントディスプレイ)とユーザの周囲に配置される複数のスピーカとを備えたシステムを用いて、種々のサービス(例えばゲーム)が提供される仮想空間内の画像および音声をユーザに提供することが考えられる。このようなシステムでは、ユーザエクスペリエンスの観点から、ディスプレイに表示される仮想空間内の画像に応じた仮想空間内の音声が複数のスピーカから適切な定位で再生されることが望ましい。 It is conceivable that a system equipped with a display (e.g., a head-mounted display) that follows the user's orientation and multiple speakers arranged around the user could be used to provide the user with images and sounds from a virtual space in which various services (e.g., games) are offered. From the perspective of user experience, in such a system, it is desirable that sounds from the virtual space corresponding to images in the virtual space displayed on the display are reproduced from multiple speakers in an appropriate position.
本開示の目的は、仮想空間において提供されるサービスにおいて、ユーザエクスペリエンスの向上を図ることにある。 The purpose of this disclosure is to improve the user experience in services provided in virtual space.
第1の態様は、1つまたは共働する複数のコンピュータを有するコンピュータシステムを、検出部、表示処理部、音響処理部として機能させるプログラムであって、
前記コンピュータシステムは、ユーザの向きに追従するディスプレイ、前記ユーザの周囲に配置される複数のスピーカ、前記ユーザの向きの変化を含む前記ユーザの動きを示す信号を出力するセンサとともに用いられ、
前記検出部は、前記センサから出力された信号に基づいて前記ユーザの向きを検出し、
前記表示処理部は、前記検出部により検出された前記ユーザの向きに追従するように仮想空間内に配置された仮想カメラの向きを変化させ、前記仮想カメラにより得られる前記仮想空間の画像を前記ディスプレイに表示させ、
前記音響処理部は、前記仮想カメラの向きが変化しても、前記複数のスピーカから出力される前記仮想空間内の音声により形成される音場の向きが変化しないように、前記複数のスピーカに前記仮想空間内の音声を出力させる
プログラムである。
A first aspect is a program for causing a computer system having one or more computers working together to function as a detection unit, a display processing unit, and an audio processing unit, the program comprising:
The computer system is used with a display that tracks the orientation of a user, a plurality of speakers arranged around the user, and a sensor that outputs a signal indicative of the user's movements, including changes in the user's orientation;
The detection unit detects a direction of the user based on a signal output from the sensor,
the display processing unit changes an orientation of a virtual camera disposed in a virtual space so as to follow the orientation of the user detected by the detection unit, and displays an image of the virtual space obtained by the virtual camera on the display;
The acoustic processing unit is a program that causes the multiple speakers to output audio within the virtual space so that the direction of the sound field formed by the audio within the virtual space output from the multiple speakers does not change even when the direction of the virtual camera changes.
第1の態様において、
前記音響処理部は、前記仮想カメラの移動に追従するように前記仮想空間内に配置された仮想マイクを移動させ、前記仮想マイクにより得られる前記仮想空間内の音声を前記複数のスピーカに出力させてもよく、
前記仮想マイクの向きは、前記仮想空間内における前記仮想マイクの向きの基準となる方向であり、前記検出部により検出された前記ユーザの向きの変化に応じて変化しない仮想基準方向に維持されてもよい。
In a first aspect,
the acoustic processing unit may move a virtual microphone disposed in the virtual space so as to follow movement of the virtual camera, and output sound in the virtual space obtained by the virtual microphone to the plurality of speakers,
The orientation of the virtual microphone may be a reference direction for the orientation of the virtual microphone in the virtual space, and may be maintained in a virtual reference direction that does not change in response to changes in the orientation of the user detected by the detection unit.
第1の態様において、
前記コンピュータシステムは、前記ユーザにより操作されるコントローラとともに利用されてもよく、
前記表示処理部は、前記仮想カメラの向きを前記検出部により検出された前記ユーザの向きに対応する正面方向から変化させるための方向変更操作が前記コントローラに入力されると、前記方向変更操作に応じて前記仮想カメラの向きを前記正面方向から変化させてもよく、
前記音響処理部は、前記方向変更操作に応じて前記仮想カメラの向きが前記正面方向から変化すると、前記仮想カメラの向きに追従するように前記仮想マイクの向きを変化させてもよい。
In a first aspect,
The computer system may be used in conjunction with a user-operated controller;
When a direction change operation for changing a direction of the virtual camera from a front direction corresponding to the direction of the user detected by the detection unit is input to the controller, the display processing unit may change the direction of the virtual camera from the front direction in response to the direction change operation,
When a direction of the virtual camera changes from the front direction in response to the direction change operation, the sound processing unit may change a direction of the virtual microphone to follow the direction of the virtual camera.
第1の態様において、
前記表示処理部は、前記仮想カメラの向きを前記正面方向にリセットするためのリセット操作が前記コントローラに入力されると、前記リセット操作に応じて前記仮想カメラの向きを前記正面方向にリセットしてもよく、
前記音響処理部は、前記リセット操作に応じて前記仮想カメラの向きが前記正面方向にリセットされると、前記仮想マイクの向きを前記仮想基準方向にリセットしてもよい。
In a first aspect,
When a reset operation for resetting an orientation of the virtual camera to the front direction is input to the controller, the display processing unit may reset the orientation of the virtual camera to the front direction in response to the reset operation,
When the orientation of the virtual camera is reset to the front direction in response to the reset operation, the sound processing unit may reset the orientation of the virtual microphone to the virtual reference direction.
第2の態様は、第1の態様のプログラムを記憶する記憶部と、
前記プログラムを実行する制御部とを備える
音響制御装置である。
A second aspect includes a storage unit that stores the program of the first aspect;
and a control unit for executing the program.
第3の態様は、
ユーザの向きに追従するディスプレイと、
前記ユーザの周囲に配置される複数のスピーカと、
前記ユーザの向きの変化を含む前記ユーザの動きを示す信号を出力するセンサと、
制御部とを備え、
前記制御部は、
前記センサから出力された信号に基づいて前記ユーザの向きを検出する検出処理と、
前記検出処理により検出された前記ユーザの向きに追従するように仮想空間内に配置された仮想カメラの向きを変化させ、前記仮想カメラにより得られる前記仮想空間の画像を前記ディスプレイに表示させる表示処理と、
前記仮想カメラの向きが変化しても、前記複数のスピーカから出力される前記仮想空間内の音声により形成される音場の向きが変化しないように、前記複数のスピーカに前記仮想空間内の音声を出力させる音響処理とを行う
システムである。
The third aspect is
A display that follows the user's orientation;
A plurality of speakers arranged around the user;
a sensor that outputs a signal indicative of the user's movement, including a change in the user's orientation;
A control unit.
The control unit is
A detection process for detecting a direction of the user based on a signal output from the sensor;
a display process of changing an orientation of a virtual camera arranged in a virtual space so as to follow the orientation of the user detected by the detection process, and displaying an image of the virtual space obtained by the virtual camera on the display;
The system performs acoustic processing to output sound within the virtual space to the multiple speakers so that the direction of the sound field formed by the sound within the virtual space output from the multiple speakers does not change even when the direction of the virtual camera changes.
本開示によれば、ユーザエクスペリエンスを向上させることができる。 This disclosure can improve the user experience.
以下、図面を参照して実施の形態を詳しく説明する。なお、図中同一または相当部分には同一の符号を付しその説明は繰り返さない。また、以下では、プログラムをゲームプログラムとして実装し、音響制御装置をゲーム装置として実装し、システムをゲームシステムとして実装した例を説明する。ゲーム装置は、1つのコンピュータまたは共働する複数のコンピュータを有するコンピュータシステムの一例である。 The following describes the embodiment in detail with reference to the drawings. Note that the same or corresponding parts in the drawings are given the same reference numerals and their description will not be repeated. In addition, the following describes an example in which the program is implemented as a game program, the sound control device is implemented as a game device, and the system is implemented as a game system. The game device is an example of a computer system having one computer or multiple computers working together.
(ゲームの説明)
以下の説明におけるゲームは、仮想空間内において行われるゲーム(ビデオゲーム)のことである。仮想空間は、三次元のゲーム空間であり、画像としてディスプレイに表示される。仮想空間内には、オブジェクトが配置される。オブジェクトの例としては、プレイヤ(ゲームをプレイするユーザ)により操作されるプレイヤキャラクタ、コンピュータにより操作されるノンプレイヤキャラクタなどが挙げられる。プレイヤは、ユーザの一例である。
(Game Description)
In the following description, a game refers to a game (video game) that is played in a virtual space. The virtual space is a three-dimensional game space, and is displayed as an image on a display. Objects are placed in the virtual space. Examples of objects include a player character operated by a player (a user who plays the game) and a non-player character operated by a computer. A player is an example of a user.
また、オブジェクトには、仮想空間内において仮想の音源となる音源オブジェクトが含まれる。音源オブジェクトの例としては、仮想空間内において動作するオブジェクト、仮想空間内において音の出力のみを行うオブジェクトなどが挙げられる。プレイヤキャラクタおよびノンプレイヤキャラクタは、音源オブジェクトになり得る。そして、以下の説明におけるゲームでは、音が再生される。ゲームにおいて再生される音には、音源オブジェクトから出力される音、BGM(Background Music)、効果音などが含まれる。 The objects also include sound source objects that act as virtual sound sources in the virtual space. Examples of sound source objects include objects that operate in the virtual space and objects that only output sound in the virtual space. Player characters and non-player characters can be sound source objects. In the games described below, sounds are played. Sounds played in the game include sounds output from sound source objects, background music (BGM), sound effects, and the like.
また、以下の説明におけるゲームにおいて、プレイヤキャラクタは、仮想空間に配置された仮想プレイヤ(仮想の人間)であり、現実世界におけるプレイヤの操作および動きに応じて仮想空間内において動く。具体的には、プレイヤの身体における所定の部位の動きに応じて、仮想空間内において仮想部位が動く。仮想部位は、プレイヤの所定の部位に対応する仮想の部位(プレイヤキャラクタの身体における所定の部位)である。例えば、現実世界におけるプレイヤの頭部の動きに応じて、仮想空間においてプレイヤキャラクタの仮想頭部(仮想の頭部)が動く。 In the game described below, the player character is a virtual player (virtual human) placed in a virtual space, and moves in the virtual space in response to the operation and movement of the player in the real world. Specifically, a virtual part moves in the virtual space in response to the movement of a specific part of the player's body. The virtual part is a virtual part (a specific part of the player character's body) that corresponds to a specific part of the player. For example, the virtual head (virtual head) of the player character moves in the virtual space in response to the movement of the player's head in the real world.
以下では、説明の便宜上、ゲームの例として「プレイヤキャラクタが敵キャラクタを攻撃して倒していく対戦型のアクションゲーム」を挙げる。なお、ゲームの種別などには限定はない。また、仮想空間の例として「仮想現実(VR:Virtual Reality)を体験することができる仮想現実空間」を挙げる。また、一人称視点で仮想空間の画像がディスプレイに表示されてゲームが進行していく場合を例に挙げる。 For ease of explanation, the following will use an example of a game as a "combat action game in which a player character attacks and defeats enemy characters." There are no limitations to the type of game. Additionally, an example of a virtual space will be a "virtual reality space in which virtual reality (VR) can be experienced." Additionally, an example will be given of a case in which an image of the virtual space is displayed on a display from a first-person perspective as the game progresses.
(ゲームシステム)
図1は、実施形態のゲームシステム1の構成を例示する。ゲームシステム1は、ゲーム装置10と、ヘッドマウントディスプレイ20と、複数のスピーカ30と、コントローラ40とを備える。
(Game System)
1 illustrates an example of the configuration of a game system 1 according to an embodiment. The game system 1 includes a game device 10, a head-mounted display 20, a plurality of speakers 30, and a controller 40.
〔ゲーム装置〕
ゲーム装置10は、ユーザによる操作に応じてゲームを実行する。この例では、ゲーム装置10は、ヘッドマウントディスプレイ20、複数のスピーカ30、コントローラ40とともに利用され、これらの機器と有線または無線で接続される。ゲーム装置10は、音響制御装置の一例である。
[Game device]
The game device 10 executes a game in response to operations by a user. In this example, the game device 10 is used together with a head mounted display 20, a plurality of speakers 30, and a controller 40, and is connected to these devices by wire or wirelessly. The game device 10 is an example of an acoustic control device.
ゲーム装置10には、例えば、パーソナルコンピュータ、プレイステーション(登録商標)、XBox(登録商標)、PlayStation Vita(登録商標)、Nintendo Switch(登録商標)などの、市販の装置を利用できる。 The game device 10 can be, for example, a personal computer, PlayStation (registered trademark), XBox (registered trademark), PlayStation Vita (registered trademark), Nintendo Switch (registered trademark), or other commercially available device.
ゲーム装置10では、インストールされたゲームプログラムおよびゲームデータに基づいてゲームが進行する。ゲーム装置10同士は、通信ネットワーク(図示省略)または近距離無線通信装置(図示省略)を用いて、互いにデータ通信を行うことができる。 The game progresses on the game device 10 based on the installed game program and game data. Game devices 10 can communicate data with each other using a communication network (not shown) or a short-range wireless communication device (not shown).
〔ヘッドマウントディスプレイ〕
ヘッドマウントディスプレイ20は、ディスプレイ21と、動作センサ22とを含む。
[Head-mounted display]
The head mounted display 20 includes a display 21 and a motion sensor 22 .
ディスプレイ21は、画像を再生(表示)する。例えば、ディスプレイ21は、液晶ディスプレイである。ディスプレイ21は、プレイヤの向きに追従するディスプレイの一例である。 The display 21 plays (displays) images. For example, the display 21 is a liquid crystal display. The display 21 is an example of a display that follows the player's orientation.
動作センサ22は、プレイヤの頭部の動きを示す動作信号を出力する。例えば、動作センサ22は、加速度を検知する加速度センサ、角速度(回転および向きの変化)を検知するジャイロセンサなどを含む。動作センサ22から出力される動作信号は、ゲーム装置10に送信される。 The motion sensor 22 outputs a motion signal that indicates the movement of the player's head. For example, the motion sensor 22 includes an acceleration sensor that detects acceleration, a gyro sensor that detects angular velocity (changes in rotation and orientation), and the like. The motion signal output from the motion sensor 22 is transmitted to the game device 10.
図2に示すように、ヘッドマウントディスプレイ20は、本体部25と、ヘッドバンド26とを有する。図3に示すように、ヘッドマウントディスプレイ20は、本体部25がプレイヤP1の両眼を覆う状態でプレイヤP1の頭部に装着される。また、本体部25の内側(プレイヤP1の両眼と対向する側)には、ディスプレイ21が固定される。ディスプレイ21の表示面は、ヘッドマウントディスプレイ20がプレイヤP1の頭部に装着された状態において、プレイヤP1の両眼と対向する。 As shown in FIG. 2, the head mounted display 20 has a main body 25 and a headband 26. As shown in FIG. 3, the head mounted display 20 is worn on the head of the player P1 with the main body 25 covering both eyes of the player P1. In addition, a display 21 is fixed to the inside of the main body 25 (the side facing the eyes of the player P1). The display surface of the display 21 faces the eyes of the player P1 when the head mounted display 20 is worn on the head of the player P1.
なお、プレイヤP1の頭部の動きと連動して、プレイヤP1の頭部に装着されたヘッドマウントディスプレイ20が動く。したがって、ヘッドマウントディスプレイ20に含まれる動作センサ22から出力される動作信号に基づいて、「プレイヤP1の頭部の位置および向き」と「ヘッドマウントディスプレイ20に含まれるディスプレイ21の位置および向き」を導出することができる。動作センサ22は、プレイヤP1の向きの変化を含むプレイヤP1の動きを示す信号を出力するセンサの一例である。 The head mounted display 20 attached to the head of the player P1 moves in conjunction with the movement of the player P1's head. Therefore, the "position and orientation of the head of the player P1" and the "position and orientation of the display 21 included in the head mounted display 20" can be derived based on the movement signal output from the movement sensor 22 included in the head mounted display 20. The movement sensor 22 is an example of a sensor that outputs a signal indicating the movement of the player P1, including changes in the orientation of the player P1.
また、ヘッドマウントディスプレイ20におけるベクトルVdは、一人称視点で表現される仮想空間の画像の基準線である。ベクトルVdは、ディスプレイ21の表示面の法線方向に延びる。ベクトルVdは、ヘッドマウントディスプレイ20に含まれるディスプレイ21の位置および向きから導出することができる。 In addition, vector Vd in the head mounted display 20 is a reference line of the image of the virtual space represented from the first person perspective. Vector Vd extends in the normal direction of the display surface of display 21. Vector Vd can be derived from the position and orientation of display 21 included in the head mounted display 20.
〔スピーカ〕
複数のスピーカ30は、プレイヤの周囲に配置され、音声(この例ではゲーム音)を再生する。この例では、三次元的な音の再生ができるように、複数のスピーカ30が設けられる。
[Speaker]
The multiple speakers 30 are arranged around the player and play back sounds (game sounds in this example). In this example, the multiple speakers 30 are provided so that sounds can be played back three-dimensionally.
図4に示すように、この例では、複数のスピーカ30は、フロントセンタスピーカ50と、フロントライトスピーカ51と、フロントレフトスピーカ52と、サラウンドライトスピーカ53と、サラウンドレフトスピーカ54と、サラウンドバックライトスピーカ55と、サラウンドバックレフトスピーカ56とにより構成される。 As shown in FIG. 4, in this example, the multiple speakers 30 are composed of a front center speaker 50, a front right speaker 51, a front left speaker 52, a surround right speaker 53, a surround left speaker 54, a surround backright speaker 55, and a surround back left speaker 56.
フロントセンタスピーカ50は、基準点Qの前方に配置される。フロントライトスピーカ51は、基準点Qの右前方に配置される。フロントレフトスピーカ52は、基準点Qの左前方に配置される。サラウンドライトスピーカ53は、基準点Qの右方に配置される。サラウンドレフトスピーカ54は、基準点Qの左方に配置される。サラウンドバックライトスピーカ55は、基準点Qの右後方に配置される。サラウンドバックレフトスピーカ56は、基準点Qの左後方に配置される。 The front center speaker 50 is positioned in front of reference point Q. The front right speaker 51 is positioned to the right of reference point Q. The front left speaker 52 is positioned to the left of reference point Q. The surround right speaker 53 is positioned to the right of reference point Q. The surround left speaker 54 is positioned to the left of reference point Q. The surround backright speaker 55 is positioned to the right of reference point Q. The surround back left speaker 56 is positioned to the left of reference point Q.
基準点Qは、複数のスピーカ30における方向(前後左右)を定めるための基準となる点(位置)である。例えば、基準点Qは、プレイヤの初期位置(基準位置)である。複数のスピーカ30における方向については、後で詳しく説明する。 The reference point Q is a reference point (position) for determining the directions (front, back, left, right) of the multiple speakers 30. For example, the reference point Q is the initial position (reference position) of the player. The directions of the multiple speakers 30 will be explained in detail later.
〔コントローラ〕
コントローラ40は、プレイヤに把持または装着されて操作される。この例では、コントローラ40は、プレイヤの手に把持されて操作される。図1に示すように、コントローラ40は、操作子41と、動作センサ42とを含む。
〔controller〕
The controller 40 is operated while being held or worn by a player. In this example, the controller 40 is operated while being held in the player's hand. As shown in FIG 1, the controller 40 includes an operator 41 and a motion sensor 42.
操作子41は、各種のボタンなどにより構成される。コントローラ40は、操作子41に入力された操作(例えばボタンを押下する操作)に応じた操作信号をゲーム装置10に出力する。このような構成により、プレイヤは、コントローラ40の操作子41を操作することで、ゲーム装置10に操作信号(命令やデータなどを示す信号)を入力する。 The operators 41 are composed of various buttons and the like. The controller 40 outputs an operation signal to the game device 10 according to an operation input to the operators 41 (e.g., pressing a button). With this configuration, the player inputs an operation signal (a signal indicating a command, data, etc.) to the game device 10 by operating the operators 41 of the controller 40.
動作センサ42は、プレイヤの手の動きを示す動作信号を出力する。例えば、動作センサ22は、加速度を検知する加速度センサ、角速度(回転および向きの変化)を検知するジャイロセンサなどを含む。動作センサ42から出力される動作信号は、ゲーム装置10に送信される。 The motion sensor 42 outputs a motion signal that indicates the movement of the player's hand. For example, the motion sensor 22 includes an acceleration sensor that detects acceleration, a gyro sensor that detects angular velocity (changes in rotation and orientation), and the like. The motion signal output from the motion sensor 42 is transmitted to the game device 10.
なお、プレイヤの手の動きと連動して、プレイヤの手に把持(または装着)されたコントローラ40が動く。したがって、コントローラ40に含まれる動作センサ42から出力される動作信号に基づいて、プレイヤの手の位置および向きを導出することができる。 The controller 40 held (or worn) by the player's hand moves in conjunction with the movement of the player's hand. Therefore, the position and orientation of the player's hand can be derived based on the movement signal output from the movement sensor 42 included in the controller 40.
図3に示すように、この例では、コントローラ40として、第1コントローラ40aと第2コントローラ40bとが設けられる。第1コントローラ40aおよび第2コントローラ40bの各々の構成は、コントローラ40と同様である。 As shown in FIG. 3, in this example, a first controller 40a and a second controller 40b are provided as the controller 40. The configuration of each of the first controller 40a and the second controller 40b is the same as that of the controller 40.
第1コントローラ40aは、プレイヤP1の右手に把持されて操作され、プレイヤP1の右手の動きと連動して動く。第2コントローラ40bは、プレイヤP1の左手に把持されて操作され、プレイヤP1の左手の動きと連動して動く。したがって、第1コントローラ40aに含まれる動作センサ42から出力される動作信号に基づいて、プレイヤP1の右手の位置および向きを導出することができる。また、第2コントローラ40bに含まれる動作センサ42から出力される動作信号に基づいて、プレイヤP1の左手の位置および向きを導出することができる。 The first controller 40a is held and operated in the right hand of the player P1, and moves in conjunction with the movement of the player P1's right hand. The second controller 40b is held and operated in the left hand of the player P1, and moves in conjunction with the movement of the player P1's left hand. Therefore, the position and orientation of the player P1's right hand can be derived based on the movement signal output from the movement sensor 42 included in the first controller 40a. Also, the position and orientation of the player P1's left hand can be derived based on the movement signal output from the movement sensor 42 included in the second controller 40b.
〔ゲーム装置のハードウェア構成〕
図1に示すように、ゲーム装置10は、ネットワークインターフェース11、グラフィック処理部12、オーディオ処理部13、操作処理部14、記憶部15、制御部16を備える。ネットワークインターフェース11、グラフィック処理部12、オーディオ処理部13、操作処理部14、記憶部15は、バス17を介して制御部16と電気的に接続される。
[Hardware configuration of the game device]
1, the game device 10 includes a network interface 11, a graphics processing unit 12, an audio processing unit 13, an operation processing unit 14, a storage unit 15, and a control unit 16. The network interface 11, the graphics processing unit 12, the audio processing unit 13, the operation processing unit 14, and the storage unit 15 are electrically connected to the control unit 16 via a bus 17.
ネットワークインターフェース11は、例えば、他のゲーム装置10や外部のサーバ装置(図示省略)との間で各種データを送受信するために、通信ネットワーク(図示省略)に通信可能に接続される。 The network interface 11 is communicatively connected to a communication network (not shown) to transmit and receive various data, for example, between other game devices 10 and external server devices (not shown).
グラフィック処理部12は、ヘッドマウントディスプレイ20のディスプレイ21と有線または無線で接続される。グラフィック処理部12は、制御部16から出力されるゲーム画像情報(画像データ)に従って、仮想空間における各種のオブジェクトを含むゲーム画像を、動画形式で描画する。動画形式に描画されたゲーム画像(仮想空間の画像)は、ゲーム画面としてディスプレイ21上に表示される。 The graphics processing unit 12 is connected to the display 21 of the head-mounted display 20 by wire or wirelessly. The graphics processing unit 12 renders game images including various objects in a virtual space in a moving image format according to game image information (image data) output from the control unit 16. The game images (images of the virtual space) rendered in a moving image format are displayed on the display 21 as a game screen.
オーディオ処理部13は、複数のスピーカ30と有線または無線で接続される。オーディオ処理部13は、制御部16の指示に従って、デジタルのゲーム音を再生する。具体的には、オーディオ処理部13は、制御部16が出力した音声データをアナログ信号に変換し、複数のスピーカ30に出力する。この例では、オーディオ処理部13は、三次元的な音の再生を行うために、多チャンネルの音声出力をできるように構成される。 The audio processing unit 13 is connected to multiple speakers 30 via a wired or wireless connection. The audio processing unit 13 plays digital game sounds according to instructions from the control unit 16. Specifically, the audio processing unit 13 converts the audio data output by the control unit 16 into an analog signal and outputs it to the multiple speakers 30. In this example, the audio processing unit 13 is configured to be able to output multi-channel audio in order to play back three-dimensional sound.
操作処理部14は、ヘッドマウントディスプレイ20およびコントローラ40の各々と有線または無線で接続される。操作処理部14は、ヘッドマウントディスプレイ20およびコントローラ40の各々との間で信号を送受信する。この例では、操作処理部14は、ヘッドマウントディスプレイ20の動作センサ22から出力された動作信号、コントローラ40から送信された操作信号(操作子41に入力された操作に応じた信号)、コントローラ40の動作センサ42から出力された動作信号を、制御部16に送信する。 The operation processing unit 14 is connected to each of the head mounted display 20 and the controller 40 by wire or wirelessly. The operation processing unit 14 transmits and receives signals between each of the head mounted display 20 and the controller 40. In this example, the operation processing unit 14 transmits to the control unit 16 the operation signal output from the motion sensor 22 of the head mounted display 20, the operation signal transmitted from the controller 40 (a signal corresponding to an operation input to the operator 41), and the operation signal output from the motion sensor 42 of the controller 40.
記憶部15は、各種の情報およびデータを記憶する。記憶部15は、HDD、SSD、RAM、ROMなどで構成される。例えば、記憶部15は、ゲームデータ、ゲームプログラムを含む各種のプログラムなどを記憶する。ゲームデータの例としては、ゲーム媒体、ユーザのアカウント情報などが挙げられる。 The storage unit 15 stores various types of information and data. The storage unit 15 is composed of a HDD, SSD, RAM, ROM, etc. For example, the storage unit 15 stores game data, various programs including game programs, etc. Examples of game data include game media, user account information, etc.
また、記憶部15は、予め準備された各種の音声を示す各種の音声データを記憶する。各種の音声データには、音源オブジェクトから出力される音声を示す音声データ、仮想空間内において再生される楽曲(BGM)を示す音声データ、効果音を示す音声データなどが含まれる。 The storage unit 15 also stores various types of audio data indicating various types of sounds that have been prepared in advance. The various types of audio data include audio data indicating sounds output from sound source objects, audio data indicating music (BGM) played in the virtual space, audio data indicating sound effects, and the like.
制御部16は、ゲーム装置10の動作を制御する。制御部16は、各種の情報およびデータを送受信し、各種の情報およびデータを処理する。制御部16は、CPU(マイクロコンピュータ)と半導体メモリと有する。半導体メモリには、CPUを動作させるためのプログラムやデータなどが格納される。 The control unit 16 controls the operation of the game device 10. The control unit 16 transmits and receives various information and data, and processes various information and data. The control unit 16 has a CPU (microcomputer) and a semiconductor memory. The semiconductor memory stores programs and data for operating the CPU.
〔制御部の機能的構成〕
ゲーム装置10の制御部16は、ゲーム進行部100と、検出部101と、表示処理部102と、音響処理部103とを有する。具体的には、制御部16は、ゲームプログラムを実行することで、ゲーム進行部100、検出部101、表示処理部102、音響処理部103として機能する。
[Functional configuration of the control unit]
The control unit 16 of the game device 10 has a game progression unit 100, a detection unit 101, a display processing unit 102, and a sound processing unit 103. Specifically, the control unit 16 functions as the game progression unit 100, the detection unit 101, the display processing unit 102, and the sound processing unit 103 by executing a game program.
言い換えると、制御部16は、ゲーム進行処理(仮想空間制御処理)と、検出処理と、表示処理と、音響処理とを行う。検出部101は、検出処理を行う。ゲーム進行処理は、ゲーム進行部100による処理である。検出処理は、検出部101による処理である。表示処理は、表示処理部102による処理である。音響処理は、音響処理部103による処理である。 In other words, the control unit 16 performs game progression processing (virtual space control processing), detection processing, display processing, and sound processing. The detection unit 101 performs detection processing. The game progression processing is processing by the game progression unit 100. The detection processing is processing by the detection unit 101. The display processing is processing by the display processing unit 102. The sound processing is processing by the sound processing unit 103.
〈ゲーム進行部(仮想空間制御部)〉
ゲーム進行部100は、仮想空間内において行われるゲームを進行する。ゲーム進行部100は、仮想空間を制御する仮想空間制御部の一例である。ゲーム進行処理は、仮想空間制御処理(仮想空間制御部による処理)の一例である。
<Game Progression Section (Virtual Space Control Section)>
The game progression unit 100 progresses a game that takes place in a virtual space. The game progression unit 100 is an example of a virtual space control unit that controls the virtual space. The game progression processing is an example of virtual space control processing (processing by the virtual space control unit).
この例では、ゲーム進行部100は、動作センサ22から出力された動作信号に示された動き(プレイヤの頭部の動き)と、動作センサ42から出力された動作信号に示された動き(プレイヤの手の動き)と、コントローラ40から出力される操作信号に示された操作(コントローラ40の操作子41に入力された操作)とに基づいて、これらの動きおよび操作が仮想空間に反映されるように、仮想空間を示す三次元データを制御(生成または更新)することで、仮想空間内において行われるゲームを進行(制御)する。 In this example, the game progression unit 100 progresses (controls) the game taking place in the virtual space by controlling (generating or updating) the three-dimensional data representing the virtual space based on the movements (movement of the player's head) indicated in the movement signals output from the movement sensor 22, the movements (movement of the player's hands) indicated in the movement signals output from the movement sensor 42, and the operations (operations input to the operators 41 of the controller 40) indicated in the operation signals output from the controller 40 so that these movements and operations are reflected in the virtual space.
仮想空間を示す三次元データには、仮想空間内における方向の基準となる座標系(例えばワールド座標系)に関するデータ、仮想空間内に配置された各種のオブジェクトの座標系(例えばローカル座標系)に関するデータ、各種のオブジェクトの形状に関するデータなど、仮想空間を構成するための周知のデータが含まれる。仮想空間を示す三次元データを制御することで、仮想空間内におけるオブジェクトの動きを制御することができる。 The three-dimensional data representing the virtual space includes well-known data for constructing the virtual space, such as data on a coordinate system (e.g., a world coordinate system) that serves as the reference for directions within the virtual space, data on the coordinate systems (e.g., a local coordinate system) of various objects placed within the virtual space, and data on the shapes of various objects. By controlling the three-dimensional data representing the virtual space, it is possible to control the movement of objects within the virtual space.
例えば、ゲーム進行部100は、上記の動きおよび操作に応じて、仮想空間内におけるプレイヤキャラクタの動きを制御する。また、ゲーム進行部100は、ゲームの進行状況に応じて、仮想空間内における他のオブジェクト(ノンプレイヤキャラクタなど)の動きを制御する。例えば、ゲーム進行部100による他のオブジェクトの動きの制御には、AI(artificial intelligence)が利用される。 For example, the game progression unit 100 controls the movement of the player character in the virtual space in accordance with the above movements and operations. The game progression unit 100 also controls the movement of other objects (such as non-player characters) in the virtual space in accordance with the progress of the game. For example, AI (artificial intelligence) is used to control the movement of other objects by the game progression unit 100.
具体的には、ゲーム進行部100は、動作センサ(動作センサ22または動作センサ42)から出力された動作信号に示された「プレイヤの身体における所定の部位(頭部、右手、左手)の動き」に応じて仮想空間内において仮想部位(プレイヤキャラクタの所定の部位)が動くように、仮想空間を制御する。例えば、ゲーム進行部100は、動作センサ22から出力された動作信号に示された「プレイヤの頭部の動き」に応じて、仮想空間内において仮想頭部(プレイヤキャラクタの頭部)が動くように、仮想空間を制御する。仮想頭部を動かすことで、プレイヤキャラクタの向きを変化させることができる。 Specifically, the game progression unit 100 controls the virtual space so that a virtual part (a specific part of the player character) moves within the virtual space in response to the "movement of a specific part of the player's body (head, right hand, left hand)" indicated in the movement signal output from the movement sensor (movement sensor 22 or movement sensor 42). For example, the game progression unit 100 controls the virtual space so that a virtual head (the head of the player character) moves within the virtual space in response to the "movement of the player's head" indicated in the movement signal output from the movement sensor 22. By moving the virtual head, the orientation of the player character can be changed.
〈検出部〉
検出部101は、動作センサ22から出力された信号に基づいてプレイヤの向きを検出する。プレイヤの向きは、プレイヤの正面(前面)が向く方向である。この例では、プレイヤの向きは、ディスプレイ21の表示面の法線方向に延びるベクトルVdである。例えば、検出部101は、ヘッドマウントディスプレイ20に含まれる動作センサ22から出力される動作信号(加速度および角速度)に基づいてヘッドマウントディスプレイ20に含まれるディスプレイ21の位置および向きを導出し、ディスプレイ21の位置および向きに基づいてベクトルVdを導出する。
<Detection section>
The detection unit 101 detects the orientation of the player based on the signal output from the motion sensor 22. The orientation of the player is the direction in which the front (front face) of the player faces. In this example, the orientation of the player is a vector Vd extending in the normal direction of the display surface of the display 21. For example, the detection unit 101 derives the position and orientation of the display 21 included in the head mounted display 20 based on the motion signal (acceleration and angular velocity) output from the motion sensor 22 included in the head mounted display 20, and derives the vector Vd based on the position and orientation of the display 21.
〈表示処理部〉
表示処理部102は、ゲーム進行部100により制御される仮想空間の画像(この例ではゲーム画像)を生成する。具体的には、表示処理部102は、ゲーム進行部100により制御される三次元データ(仮想空間を示す三次元データ)と、検出部101により検出されたベクトルVd(プレイヤの向きを示すベクトルVd)とに基づいて、ベクトルVdに応じた仮想空間の画像を示す画像データを生成する。三次元データからベクトルVdに応じた画像を生成する処理は、周知の処理(座標変換や投影変換など)である。
Display Processing Section
The display processing unit 102 generates an image (a game image in this example) of the virtual space controlled by the game progression unit 100. Specifically, the display processing unit 102 generates image data showing an image of the virtual space corresponding to the vector Vd (vector Vd indicating the orientation of the player) detected by the detection unit 101, based on the three-dimensional data (three-dimensional data indicating the virtual space) controlled by the game progression unit 100 and the vector Vd (vector Vd indicating the orientation of the player). The process of generating an image corresponding to the vector Vd from the three-dimensional data is a well-known process (such as coordinate transformation or projection transformation).
そして、表示処理部102は、上記のように生成された画像をディスプレイ21に再生(表示)させる。この例では、表示処理部102は、上記のように生成された画像データを、グラフィック処理部12に供給する。これにより、画像データに示された仮想空間の画像がヘッドマウントディスプレイ20のディスプレイ21に再生(表示)される。 Then, the display processing unit 102 reproduces (displays) the image generated as described above on the display 21. In this example, the display processing unit 102 supplies the image data generated as described above to the graphics processing unit 12. As a result, the image of the virtual space shown in the image data is reproduced (displayed) on the display 21 of the head-mounted display 20.
図5に示すように、仮想空間には、仮想カメラ61が配置される。仮想カメラ61は、プレイヤキャラクタC1の近傍に配置される。仮想カメラ61は、仮想の閲覧者(視点)であり、例えば、プレイヤキャラクタの視点(一人称視点)を再現するための基準点である。表示処理部102は、検出部101により検出されたプレイヤの向きに追従するように、仮想カメラ61の向きを変化させる。また、表示処理部102は、プレイヤキャラクタC1の移動に追従するように、仮想カメラ61を移動させる。そして、表示処理部102は、仮想カメラ61により得られる仮想空間の画像をディスプレイ21に表示させる。 As shown in FIG. 5, a virtual camera 61 is placed in the virtual space. The virtual camera 61 is placed near the player character C1. The virtual camera 61 is a virtual viewer (viewpoint), and is, for example, a reference point for reproducing the viewpoint (first-person viewpoint) of the player character. The display processing unit 102 changes the orientation of the virtual camera 61 so as to follow the orientation of the player detected by the detection unit 101. The display processing unit 102 also moves the virtual camera 61 so as to follow the movement of the player character C1. Then, the display processing unit 102 displays an image of the virtual space obtained by the virtual camera 61 on the display 21.
なお、プレイヤの向き(例えばベクトルVd)から仮想カメラ61の向きを導出する処理は、周知の処理(座標変換など)である。プレイヤキャラクタC1の移動は、プレイヤの移動または操作(コントローラ40に入力された操作)に応じて行われる。 The process of deriving the orientation of the virtual camera 61 from the orientation of the player (e.g., vector Vd) is a well-known process (such as coordinate conversion). The movement of the player character C1 is performed in accordance with the movement or operation of the player (operation input to the controller 40).
具体的には、表示処理部102は、ディスプレイ21に表示される画像が仮想カメラ61により得られる画像を含む画像となるように、仮想カメラ61の撮影状況(例えば、仮想空間内におけるオブジェクトに対する仮想カメラ61の位置および方向、仮想カメラ61の向き、オブジェクトの向きなど)に応じて上記の画像を示す画像データを生成する。仮想カメラ61により得られる画像(画像データ)は、仮想カメラ61の撮影状況に応じて生成された画像(画像データ)である。 Specifically, the display processing unit 102 generates image data showing the image according to the shooting conditions of the virtual camera 61 (e.g., the position and direction of the virtual camera 61 relative to the object in the virtual space, the orientation of the virtual camera 61, the orientation of the object, etc.) so that the image displayed on the display 21 is an image including an image obtained by the virtual camera 61. The image (image data) obtained by the virtual camera 61 is an image (image data) generated according to the shooting conditions of the virtual camera 61.
〈音響処理部〉
音響処理部103は、ゲーム進行部100により制御される仮想空間の音声(この例ではゲーム音)を生成する。仮想空間の音声は、仮想空間における状況(オブジェクトの動きなど)に応じた音声である。具体的には、音響処理部103は、仮想空間における状況(この例ではゲームの進行状況)に応じて、記憶部15に記憶された音声データ(予め準備された各種の音声データ)の中から再生すべき音声データを選択し、その選択された音声データ(または選択された複数の音声データを合成して得られる新たな音声データ)に基づいて、仮想空間における状況に応じた音声を示す音声データを生成する。
<Audio Processing Section>
The sound processing unit 103 generates sounds (game sounds in this example) in the virtual space controlled by the game progression unit 100. The sounds in the virtual space are sounds corresponding to the situation in the virtual space (such as the movement of objects). Specifically, the sound processing unit 103 selects sound data to be played from the sound data (various types of sound data prepared in advance) stored in the storage unit 15 according to the situation in the virtual space (the progress of the game in this example), and generates sound data indicating sound corresponding to the situation in the virtual space based on the selected sound data (or new sound data obtained by synthesizing the selected multiple sound data).
そして、音響処理部103は、上記のように生成された音声を複数のスピーカ30に再生(出力)させる。この例では、音響処理部103は、上記のように生成された音声データを、オーディオ処理部13に供給する。これにより、音声データに示された仮想空間の音声が複数のスピーカ30から再生(出力)される。 Then, the acoustic processing unit 103 reproduces (outputs) the audio generated as described above from the multiple speakers 30. In this example, the acoustic processing unit 103 supplies the audio data generated as described above to the audio processing unit 13. As a result, the audio of the virtual space represented in the audio data is reproduced (output) from the multiple speakers 30.
《音場維持処理》
音響処理部103は、音場維持処理を行う。音場維持処理において、音響処理部103は、仮想カメラ61の向きが変化しても、複数のスピーカ30から出力される仮想空間内の音声により形成される音場の向きが変化しないように、複数のスピーカ30に仮想空間内の音声を出力させる。音場維持処理は、音響処理に含まれる。
Sound field maintenance processing
The sound processing unit 103 performs a sound field maintenance process. In the sound field maintenance process, the sound processing unit 103 causes the multiple speakers 30 to output sounds in the virtual space so that the direction of the sound field formed by the sounds in the virtual space output from the multiple speakers 30 does not change even if the direction of the virtual camera 61 changes. The sound field maintenance process is included in the sound processing.
《音像定位処理》
この例では、音響処理部103は、音像定位処理を行う。音像定位処理は、人間(プレイヤ)が感じる音源の位置を、仮想空間内の所定の仮想位置(例えば音源オブジェクトの位置)に定位させる処理のことである。音像定位処理は、音響処理に含まれる。
Sound image localization processing
In this example, the sound processing unit 103 performs sound image localization processing. Sound image localization processing is processing for localizing the position of a sound source as perceived by a human (player) at a predetermined virtual position (e.g., the position of a sound source object) in a virtual space. Sound image localization processing is included in sound processing.
図5に示すように、仮想空間には、仮想マイク62が配置される。仮想マイク62は、仮想カメラ61とともに、プレイヤキャラクタC1の近傍に配置される。仮想マイク62は、仮想の聴取者(集音点)であり、音像定位処理における音像定位の基準点である。音響処理部103は、プレイヤキャラクタC1および仮想カメラ61の移動に追従するように、仮想マイク62を移動させる。そして、音響処理部103は、仮想マイク62により得られた音声を複数のスピーカ30に再生(出力)させる。 As shown in FIG. 5, a virtual microphone 62 is placed in the virtual space. The virtual microphone 62 is placed near the player character C1 together with the virtual camera 61. The virtual microphone 62 is a virtual listener (sound collection point) and is a reference point for sound image localization in the sound image localization process. The sound processing unit 103 moves the virtual microphone 62 so as to follow the movements of the player character C1 and the virtual camera 61. The sound processing unit 103 then reproduces (outputs) the sound obtained by the virtual microphone 62 to the multiple speakers 30.
具体的には、音像定位処理において、音響処理部103は、複数のスピーカ30から再生(出力)される音声が仮想マイク62により得られる音声を含む音声となるように、仮想マイク62の集音状況(例えば、仮想空間内における音源オブジェクトに対する仮想マイク62の位置および方向、音源オブジェクトから出力される音声の音量および方向、仮想マイク62の向き、音源オブジェクトの向きなど)に応じて上記の音声を示す音声データを生成する。仮想マイク62により得られる音声(音声データ)は、仮想マイク62の集音状況に応じて生成された音声(音声データ)である。音源オブジェクトから出力される音声は、音源オブジェクトに関連付けられた音声(予め準備された音声)である。 Specifically, in the sound image localization process, the acoustic processing unit 103 generates audio data indicating the above-mentioned sound according to the sound collection conditions of the virtual microphone 62 (e.g., the position and direction of the virtual microphone 62 relative to the sound source object in the virtual space, the volume and direction of the sound output from the sound source object, the orientation of the virtual microphone 62, the orientation of the sound source object, etc.) so that the sound played (output) from the multiple speakers 30 is sound including the sound obtained by the virtual microphone 62. The sound (audio data) obtained by the virtual microphone 62 is sound (audio data) generated according to the sound collection conditions of the virtual microphone 62. The sound output from the sound source object is sound associated with the sound source object (sound prepared in advance).
音像定位処理により生成された音声データがオーディオ処理部13により処理されることで、仮想空間内において仮想の音源(音源オブジェクト)から出力された音声が、あたかも仮想マイク62で集音したかのような音響表現で、複数のスピーカ30から出力することが可能となる。 By processing the audio data generated by the sound image localization process by the audio processing unit 13, it becomes possible to output the sound output from a virtual sound source (sound source object) in the virtual space from multiple speakers 30 with an acoustic representation as if the sound was collected by a virtual microphone 62.
そして、この例では、音響処理部103は、音像定位処理において、音場維持処理を行う。音場維持処理は、音像定位処理における仮想マイク62の向きを仮想基準方向に維持(固定)する処理である。具体的には、音響処理部103は、仮想カメラ61の移動に追従するように仮想空間内に配置された仮想マイク62を移動させ、仮想マイク62により得られる仮想空間内の音声を複数のスピーカ30に出力させる。なお、仮想マイク62の向きは、予め定められた仮想基準方向に維持(固定)される。言い換えると、音響処理部103は、仮想マイク62の向きを仮想基準方向に維持した状態で、仮想カメラ61の移動に追従するように仮想マイク62を移動させる。 In this example, the acoustic processing unit 103 performs a sound field maintenance process in the sound image localization process. The sound field maintenance process is a process for maintaining (fixing) the orientation of the virtual microphone 62 in the sound image localization process in a virtual reference direction. Specifically, the acoustic processing unit 103 moves the virtual microphone 62 arranged in the virtual space so as to follow the movement of the virtual camera 61, and outputs the sound in the virtual space obtained by the virtual microphone 62 to the multiple speakers 30. The orientation of the virtual microphone 62 is maintained (fixed) in a predetermined virtual reference direction. In other words, the acoustic processing unit 103 moves the virtual microphone 62 so as to follow the movement of the virtual camera 61 while maintaining the orientation of the virtual microphone 62 in the virtual reference direction.
仮想基準方向は、仮想空間内における仮想マイク62の向きの基準となる方向であり、検出部101により検出されたプレイヤの向きの変化に応じて変化しない方向である。仮想基準方向については、後で詳しく説明する。 The virtual reference direction is a reference direction for the orientation of the virtual microphone 62 in the virtual space, and is a direction that does not change according to changes in the orientation of the player detected by the detection unit 101. The virtual reference direction will be explained in detail later.
〔各種の方向〕
図4に示すように、複数のスピーカ30における方向(前後左右)は、複数のスピーカ30に囲まれた基準点Qを基準として定められる。例えば、複数のスピーカ30における「前方」は、基準点Qの前方に対応し、複数のスピーカ30のうち「前方」に位置するスピーカ30は、基準点Qの前方に配置された「フロントセンタスピーカ50」である。
[Various directions]
4 , the directions (front, back, left, right) of the multiple speakers 30 are determined based on a reference point Q surrounded by the multiple speakers 30. For example, the "front" of the multiple speakers 30 corresponds to the front of the reference point Q, and the speaker 30 located "forward" among the multiple speakers 30 is a "front center speaker 50" disposed in front of the reference point Q.
プレイヤP1の向きは、プレイヤP1の正面が向く方向である。図4の例では、プレイヤP1の向きは、複数のスピーカ30における「前方」を向く方向である。 The orientation of player P1 is the direction in which player P1 faces forward. In the example of FIG. 4, player P1 faces the "forward" direction of the multiple speakers 30.
図5に示すように、仮想空間内における方向(前後左右上下)は、予め定められる。例えば、仮想空間内における「前後左右」は、仮想空間内において予め定められた「北南西東」に対応し、仮想空間内における「上下」は、仮想空間内において予め定められた「天地」に対応する。仮想空間内における方向(前後左右上下)は、三次元座標系(例えばワールド座標系)で表現される。 As shown in FIG. 5, directions in the virtual space (front, back, left, right, up, down) are predetermined. For example, "front, back, left, right" in the virtual space correspond to "north, south, west, east" which are predetermined in the virtual space, and "up and down" in the virtual space correspond to "heaven and earth" which are predetermined in the virtual space. Directions in the virtual space (front, back, left, right, up, down) are expressed in a three-dimensional coordinate system (for example, the world coordinate system).
仮想カメラ61の向きは、仮想カメラ61の正面が向く方向である。この例では、仮想カメラ61の向きは、ヘッドマウントディスプレイ20の動作センサ42から出力された信号に基づいて導出されたプレイヤの向き(具体的にはベクトルVd)に対応する向きである。 The orientation of the virtual camera 61 is the direction in which the front of the virtual camera 61 faces. In this example, the orientation of the virtual camera 61 is the orientation corresponding to the player's orientation (specifically, vector Vd) derived based on the signal output from the motion sensor 42 of the head-mounted display 20.
仮想マイク62の向きは、仮想マイク62の正面が向く方向である。仮想マイク62における方向(前後左右)は、複数のスピーカ30における方向(前後左右)に対応する。例えば、仮想マイク62の「前方」から仮想マイク62に向けて出力された音声(仮想空間内の音声)は、複数のスピーカ30における「前方」に対応するフロントセンタスピーカ50(「前方」に位置するスピーカ30)から出力される。 The orientation of the virtual microphone 62 is the direction in which the front of the virtual microphone 62 faces. The directions (front, back, left, right) of the virtual microphone 62 correspond to the directions (front, back, left, right) of the multiple speakers 30. For example, sound output from the "front" of the virtual microphone 62 toward the virtual microphone 62 (sound in the virtual space) is output from the front center speaker 50 (speaker 30 located "in front"), which corresponds to the "front" of the multiple speakers 30.
なお、実施形態では、仮想マイク62の向きは、仮想基準方向に維持(固定)される。仮想基準方向(仮想空間内における仮想マイク62の向きの基準となる方向)は、仮想マイク62における方向と仮想空間における方向との関係が所定の関係となるときの仮想マイク62の向きに設定される。具体的には、仮想基準方向は、仮想マイク62における方向(前後左右)と仮想空間における方向(前後左右)とが一致するときの仮想マイク62の向き(仮想マイク62の正面が向く方向)に設定される。 In the embodiment, the orientation of the virtual microphone 62 is maintained (fixed) in the virtual reference direction. The virtual reference direction (the direction that serves as the reference for the orientation of the virtual microphone 62 in the virtual space) is set to the orientation of the virtual microphone 62 when the relationship between the direction in the virtual microphone 62 and the direction in the virtual space is a predetermined relationship. Specifically, the virtual reference direction is set to the orientation of the virtual microphone 62 (the direction in which the front of the virtual microphone 62 faces) when the direction in the virtual microphone 62 (front, back, left, right) matches the direction in the virtual space (front, back, left, right).
図5の例では、仮想基準方向は、仮想空間における「前方(北)」を向く方向である。仮想マイク62の正面が仮想空間における「前方(北)」を向くときに、仮想マイク62における方向(前後左右)と仮想空間における方向(前後左右)とが一致する。 In the example of FIG. 5, the virtual reference direction is the direction facing "forward (north)" in the virtual space. When the front of the virtual microphone 62 faces "forward (north)" in the virtual space, the directions in the virtual microphone 62 (front/back, left/right) and the directions in the virtual space (front/back, left/right) match.
〔制御部による処理の詳細〕
次に、図6を参照して、制御部16による処理について詳しく説明する。以下では、プレイヤP1がスピーカ30における「前方」を向いている場合を例に挙げて説明する。
[Details of processing by the control unit]
Next, the process performed by the control unit 16 will be described in detail with reference to Fig. 6. In the following, a case where the player P1 faces "forward" of the speaker 30 will be described as an example.
プレイヤP1が複数のスピーカ30における「前方」を向く場合、プレイヤキャラクタC1は、仮想空間内における「前方(北)」を向く。同様に、仮想カメラ61は、仮想空間内における「前方(北)」を向く。これにより、プレイヤP1が装着するヘッドマウントディスプレイ20のディスプレイ21には、仮想空間内においてプレイヤキャラクタC1の「前方(北)」に位置する敵キャラクタC2を含む画像が表示される。敵キャラクタC2は、音源オブジェクトの一例である。 When the player P1 faces "forward" on the multiple speakers 30, the player character C1 faces "forward (north)" in the virtual space. Similarly, the virtual camera 61 faces "forward (north)" in the virtual space. As a result, an image including an enemy character C2 located "forward (north)" of the player character C1 in the virtual space is displayed on the display 21 of the head-mounted display 20 worn by the player P1. The enemy character C2 is an example of a sound source object.
また、仮想マイク62は、仮想空間における「前方(北)」を向く状態に維持されている。これにより、仮想空間内においてプレイヤキャラクタC1の「前方(北)」に位置する敵キャラクタC2から出力されるキャラクタ音声A2は、プレイヤP1の「前方」に配置されたフロントセンタスピーカ50から出力される。 The virtual microphone 62 is also maintained facing "forward (north)" in the virtual space. As a result, the character voice A2 output from the enemy character C2, which is located "forward (north)" of the player character C1 in the virtual space, is output from the front center speaker 50, which is positioned "forward" of the player P1.
以上の処理により、プレイヤP1の向きに応じた仮想空間内の画像がヘッドマウントディスプレイ20のディスプレイ21に表示される。また、仮想空間において仮想マイク62へ向かう音声の方向(仮想空間における音場の向き)と複数のスピーカ30からプレイヤP1へ向かう音声の方向(現実世界における音場の向き)とが一致している。このように、ディスプレイ21に表示された仮想空間内の画像に応じた仮想空間内の音声は、複数のスピーカ30から適切な定位で出力される。 By the above processing, an image in the virtual space corresponding to the orientation of player P1 is displayed on the display 21 of the head-mounted display 20. Furthermore, the direction of the sound heading toward the virtual microphone 62 in the virtual space (the orientation of the sound field in the virtual space) coincides with the direction of the sound heading toward player P1 from the multiple speakers 30 (the orientation of the sound field in the real world). In this way, the sound in the virtual space corresponding to the image in the virtual space displayed on the display 21 is output from the multiple speakers 30 with appropriate positioning.
〔実施形態と比較例との対比〕
次に、実施形態と比較例とを対比して説明する。以下では、説明の便宜上、比較例における構成要素の説明において、実施形態における構成要素の符号を使用している。また、以下の説明における比較例は、仮想カメラ61の向きに追従するように仮想マイク62の向きを変化させる点が実施形態と異なる。比較例における他の処理は、実施形態における処理と同様である。なお、従来のゲームシステム(例えばVRシステム)では、仮想カメラ61の向きに追従するように仮想マイク62の向きを変化させることが一般的である。
[Comparison between the embodiment and the comparative example]
Next, the embodiment and the comparative example will be compared. In the following, for convenience of explanation, the reference numerals of the components in the comparative example are used in the explanation of the components in the comparative example. The comparative example in the following explanation differs from the embodiment in that the orientation of the virtual microphone 62 is changed so as to follow the orientation of the virtual camera 61. Other processes in the comparative example are similar to those in the embodiment. Note that in conventional game systems (e.g., VR systems), it is common to change the orientation of the virtual microphone 62 so as to follow the orientation of the virtual camera 61.
図7に示すように、比較例では、プレイヤP1が複数のスピーカ30における「右方」を向く場合、プレイヤキャラクタC1は、仮想空間内における「右方(東)」を向く。同様に、仮想カメラ61は、仮想空間内における「右方(東)」を向く。これにより、プレイヤP1が装着するヘッドマウントディスプレイ20のディスプレイ21には、仮想空間内においてプレイヤキャラクタC1の「右方(東)」の画像が表示される。敵キャラクタC2は、プレイヤキャラクタC1の「左方(北)」に位置する。 As shown in FIG. 7, in the comparative example, when the player P1 faces "to the right" of the multiple speakers 30, the player character C1 faces "to the right (east)" in the virtual space. Similarly, the virtual camera 61 faces "to the right (east)" in the virtual space. As a result, an image of the player character C1 "to the right (east)" in the virtual space is displayed on the display 21 of the head-mounted display 20 worn by the player P1. The enemy character C2 is located "to the left (north)" of the player character C1.
また、仮想マイク62は、仮想カメラ61と同様に、仮想空間内における「右方(東)」を向く。そのため、仮想空間内においてプレイヤキャラクタC1の「左方(北)」に位置する敵キャラクタC2から出力されるキャラクタ音声A2は、プレイヤP1の「後方」に配置されたサラウンドレフトスピーカ54から出力される。 The virtual microphone 62, like the virtual camera 61, faces "to the right (east)" in the virtual space. Therefore, the character voice A2 output from the enemy character C2 located "to the left (north)" of the player character C1 in the virtual space is output from the surround left speaker 54 located "behind" the player P1.
このように、比較例では、仮想空間において仮想マイク62へ向かう音声の方向(仮想空間における音場の向き)と複数のスピーカ30からプレイヤP1へ向かう音声の方向(現実世界における音場の向き)とが一致していない。そのため、ディスプレイ21に表示された仮想空間内の画像に応じた仮想空間内の音声を、複数のスピーカ30から適切な定位で出力させることができない。図7の例では、キャラクタ音声A2は、本来、プレイヤP1の「左方」からプレイヤP1に向けて出力されるべきであるが、プレイヤP1の「後方」からプレイヤP1に向けて出力されている。 As such, in the comparative example, the direction of the sound in the virtual space toward the virtual microphone 62 (the direction of the sound field in the virtual space) does not match the direction of the sound from the multiple speakers 30 toward the player P1 (the direction of the sound field in the real world). Therefore, the sound in the virtual space corresponding to the image in the virtual space displayed on the display 21 cannot be output from the multiple speakers 30 in an appropriate position. In the example of Figure 7, character sound A2 should originally be output toward player P1 from the "left" of player P1, but is instead output toward player P1 from "behind" player P1.
一方、図8に示すように、実施形態では、仮想マイク62は、仮想空間における「前方(北)」を向く状態に維持されている。そのため、仮想空間内においてプレイヤキャラクタC1の「左方(北)」に位置する敵キャラクタC2から出力されるキャラクタ音声A2は、プレイヤP1の「左方」に配置されたフロントセンタスピーカ50から出力される。 On the other hand, as shown in FIG. 8, in this embodiment, the virtual microphone 62 is maintained facing "forward (north)" in the virtual space. Therefore, the character voice A2 output from the enemy character C2 located "to the left (north)" of the player character C1 in the virtual space is output from the front center speaker 50 located "to the left" of the player P1.
このように、仮想マイク62の向きを仮想基準方向(図8の例では「前方(北)」)に維持することで、仮想空間において仮想マイク62へ向かう音声の方向(仮想空間における音場の向き)と複数のスピーカ30からプレイヤP1へ向かう音声の方向(現実世界における音場の向き)とが一致している状態を維持することができる。このように、ディスプレイ21に表示された仮想空間内の画像に応じた仮想空間内の音声は、複数のスピーカ30から適切な定位で出力される。 In this way, by maintaining the orientation of the virtual microphone 62 in the virtual reference direction ("forward (north)" in the example of Figure 8), it is possible to maintain a state in which the direction of sound heading toward the virtual microphone 62 in the virtual space (the direction of the sound field in the virtual space) matches the direction of sound heading toward player P1 from the multiple speakers 30 (the direction of the sound field in the real world). In this way, sound in the virtual space corresponding to the image in the virtual space displayed on the display 21 is output from the multiple speakers 30 with appropriate positioning.
〔実施形態の総括〕
以上をまとめると、実施形態のプログラム(ゲームプログラム)は、1つまたは共働する複数のコンピュータを有するコンピュータシステムを、検出部101、表示処理部102、音響処理部103として機能させるプログラムである。コンピュータシステムは、ユーザ(プレイヤ)の向きに追従するディスプレイ21、ユーザの周囲に配置される複数のスピーカ30、ユーザの向きの変化を含むユーザの動きを示す信号を出力するセンサ(動作センサ22)とともに用いられる。検出部101は、センサから出力された信号に基づいてユーザの向きを検出する。表示処理部102は、検出部101により検出されたユーザの向きに追従するように仮想空間内に配置された仮想カメラ61の向きを変化させ、仮想カメラ61により得られる仮想空間の画像をディスプレイ21に表示させる。音響処理部103は、仮想カメラ61の向きが変化しても、複数のスピーカ30から出力される仮想空間内の音声により形成される音場の向きが変化しないように、複数のスピーカ30に仮想空間内の音声を出力させる。
[Overview of the embodiment]
To sum up, the program (game program) of the embodiment is a program that causes a computer system having one or a plurality of computers working together to function as a detection unit 101, a display processing unit 102, and an audio processing unit 103. The computer system is used together with a display 21 that follows the orientation of a user (player), a plurality of speakers 30 arranged around the user, and a sensor (motion sensor 22) that outputs a signal indicating the user's movement including a change in the user's orientation. The detection unit 101 detects the orientation of the user based on the signal output from the sensor. The display processing unit 102 changes the orientation of a virtual camera 61 arranged in a virtual space so as to follow the orientation of the user detected by the detection unit 101, and causes the display 21 to display an image of the virtual space obtained by the virtual camera 61. The audio processing unit 103 causes the plurality of speakers 30 to output sounds in the virtual space so that the orientation of the sound field formed by the sounds in the virtual space output from the plurality of speakers 30 does not change even if the orientation of the virtual camera 61 changes.
実施形態の音響制御装置(ゲーム装置10)は、上記プログラムを記憶する記憶部15と、上記プログラムを実行する制御部16とを備える。 The acoustic control device (game device 10) of the embodiment includes a storage unit 15 that stores the above program, and a control unit 16 that executes the above program.
実施形態のシステム(ゲームシステム1)は、ユーザ(プレイヤ)の向きに追従するディスプレイ21と、ユーザの周囲に配置される複数のスピーカ30と、ユーザの向きの変化を含むユーザの動きを示す信号を出力するセンサ(動作センサ22)と、制御部16とを備える。制御部16は、検出処理と表示処理と音響処理とを行う。検出処理において、制御部(検出部101)は、センサから出力された信号に基づいてユーザの向きを検出する。表示処理において、制御部(表示処理部102)は、検出処理により検出されたユーザの向きに追従するように仮想空間内に配置された仮想カメラ61の向きを変化させ、仮想カメラ61により得られる仮想空間の画像をディスプレイ21に表示させる。音響処理において、制御部(音響処理部103)は、仮想カメラ61の向きが変化しても、複数のスピーカ30から出力される仮想空間内の音声により形成される音場の向きが変化しないように、複数のスピーカ30に仮想空間内の音声を出力させる。 The system (game system 1) of the embodiment includes a display 21 that tracks the orientation of a user (player), multiple speakers 30 arranged around the user, a sensor (motion sensor 22) that outputs a signal indicating the user's movement including changes in the user's orientation, and a control unit 16. The control unit 16 performs detection processing, display processing, and acoustic processing. In the detection processing, the control unit (detection unit 101) detects the orientation of the user based on the signal output from the sensor. In the display processing, the control unit (display processing unit 102) changes the orientation of a virtual camera 61 arranged in the virtual space so as to track the orientation of the user detected by the detection processing, and causes the display 21 to display an image of the virtual space obtained by the virtual camera 61. In the acoustic processing, the control unit (acoustic processing unit 103) causes the multiple speakers 30 to output sounds in the virtual space so that the orientation of the sound field formed by the sounds in the virtual space output from the multiple speakers 30 does not change even if the orientation of the virtual camera 61 changes.
〔実施形態の効果〕
以上のように、実施形態では、仮想カメラ61の向きが変化しても、複数のスピーカ30から出力される仮想空間内の音声により形成される音場の向き(以下では「現実世界における音場の向き」と記載)」が変化しないように、複数のスピーカ30に仮想空間内の音声を出力させる。
[Effects of the embodiment]
As described above, in the embodiment, the sound in the virtual space is output to the multiple speakers 30 so that the direction of the sound field formed by the sound in the virtual space output from the multiple speakers 30 (hereinafter referred to as the "direction of the sound field in the real world") does not change even if the orientation of the virtual camera 61 changes.
上記の制御によれば、プレイヤP1の向きの変化に起因して現実世界における音場の向きが変化することを防止することができるので、「現実世界における音場の向き」が「仮想空間内における音場の向き(仮想空間内において音源オブジェクトから出力される音声により形成される音場の向き)」からずれないようにすることができる。これにより、ディスプレイ21に表示される仮想空間内の画像に応じた仮想空間内の音声を複数のスピーカ30から適切な定位で出力させることができ、ユーザエクスペリエンスを向上させることができる。例えば、仮想空間内の音声の聞こえ方におけるリアリティを向上させることができるので、興趣性を向上させることができる。 The above control can prevent the orientation of the sound field in the real world from changing due to a change in the orientation of player P1, so that the "orientation of the sound field in the real world" does not deviate from the "orientation of the sound field in the virtual space (the orientation of the sound field formed by the sound output from the sound source object in the virtual space)". This allows the sound in the virtual space corresponding to the image in the virtual space displayed on the display 21 to be output from the multiple speakers 30 with appropriate positioning, improving the user experience. For example, the realism of how the sound is heard in the virtual space can be improved, thereby improving interest.
(実施形態の変形例)
実施形態の変形例のゲームシステム1は、表示処理部102および音響処理部103による処理が実施形態のゲームシステム1と異なる。実施形態の変形例のゲームシステム1のその他の構成および処理は、実施形態によるゲームシステム1の構成および処理と同様である。
(Modification of the embodiment)
The game system 1 according to the modification of the embodiment differs from the game system 1 according to the embodiment in the processing by the display processing unit 102 and the sound processing unit 103. The other configurations and processing of the game system 1 according to the modification of the embodiment are similar to the configurations and processing of the game system 1 according to the embodiment.
実施形態の変形例において、コントローラ40には、方向変更操作と、リセット操作とが入力される。方向変更操作は、仮想カメラ61の向きを検出部101により検出されたプレイヤの向きに対応する正面方向から別の方向に変化させるための操作である。方向変更操作では、正面方向とは異なる方向(例えば三人称視点となる方向)が指定される。リセット操作は、仮想カメラ61の向きを正面方向にリセットするための操作である。 In a modified embodiment, a direction change operation and a reset operation are input to the controller 40. The direction change operation is an operation for changing the orientation of the virtual camera 61 from the forward direction corresponding to the orientation of the player detected by the detection unit 101 to another direction. In the direction change operation, a direction other than the forward direction (for example, a direction that provides a third-person viewpoint) is specified. The reset operation is an operation for resetting the orientation of the virtual camera 61 to the forward direction.
正面方向は、検出部101により検出されたプレイヤの向きに対応するプレイヤキャラクタC1の向きと一致する方向である。例えば、プレイヤP1が複数のスピーカ30における「前方」を向く場合、プレイヤキャラクタC1が仮想空間内における「前方(北)」を向き、正面方向は、仮想空間内における「前方(北)」となる。 The forward direction is the direction that coincides with the orientation of the player character C1 corresponding to the orientation of the player detected by the detection unit 101. For example, when the player P1 faces "forward" in the multiple speakers 30, the player character C1 faces "forward (north)" in the virtual space, and the forward direction is "forward (north)" in the virtual space.
表示処理部102は、方向変更操作がコントローラ40に入力されると、方向変更操作に応じて仮想カメラ61の向きを正面方向から変化させる。音響処理部103は、方向変更操作に応じて仮想カメラ61の向きが正面方向から変化すると、仮想カメラ61の向きに追従するように仮想マイク62の向きを変化させる。 When a direction change operation is input to the controller 40, the display processing unit 102 changes the orientation of the virtual camera 61 from the front direction in accordance with the direction change operation. When the orientation of the virtual camera 61 changes from the front direction in accordance with the direction change operation, the sound processing unit 103 changes the orientation of the virtual microphone 62 so as to follow the orientation of the virtual camera 61.
表示処理部102は、リセット操作がコントローラ40に入力されると、リセット操作に応じて仮想カメラ61の向きを正面方向にリセットする。音響処理部103は、リセット操作に応じて仮想カメラ61の向きが正面方向にリセットされると、仮想マイク62の向きを仮想基準方向にリセットする。 When a reset operation is input to the controller 40, the display processing unit 102 resets the orientation of the virtual camera 61 to the front direction in response to the reset operation. When the orientation of the virtual camera 61 is reset to the front direction in response to the reset operation, the sound processing unit 103 resets the orientation of the virtual microphone 62 to a virtual reference direction.
この例では、表示処理部102は、第1表示処理と第2表示処理とを選択的に行う。第1表示処理は、検出部101により検出されたプレイヤの向きに追従するように仮想カメラ61の向きを変化させ、仮想カメラ61により得られる仮想空間の画像をディスプレイ21に表示する処理である。第2表示処理は、仮想カメラ61の向きを正面方向とは異なる方向(方向変更操作により指定された方向)に設定し、仮想カメラ61により得られる仮想空間の画像をディスプレイ21に表示する処理である。 In this example, the display processing unit 102 selectively performs a first display process and a second display process. The first display process is a process of changing the orientation of the virtual camera 61 so as to follow the orientation of the player detected by the detection unit 101, and displaying an image of the virtual space obtained by the virtual camera 61 on the display 21. The second display process is a process of setting the orientation of the virtual camera 61 to a direction different from the forward direction (a direction specified by a direction change operation), and displaying an image of the virtual space obtained by the virtual camera 61 on the display 21.
表示処理部102は、方向変更操作がコントローラ40に入力されると、第1表示処理を終了して第2表示処理を開始する。また、表示処理部102は、リセット操作がコントローラ40に入力されると、第2表示処理を終了して第1表示処理を開始する。 When a direction change operation is input to the controller 40, the display processing unit 102 ends the first display process and starts the second display process. Also, when a reset operation is input to the controller 40, the display processing unit 102 ends the second display process and starts the first display process.
また、この例では、音響処理部103は、第1音像定位処理と第2音像定位処理とを選択的に行う。第1音像定位処理は、仮想マイク62の向きを仮想基準方向に維持した状態で仮想カメラ61の移動に追従するように仮想マイク62を移動させ、仮想マイク62により得られる仮想空間内の音声を複数のスピーカ30に出力させる処理である。第2音像定位処理は、仮想カメラ61の向きに追従するように仮想マイク62の向きを変化させるとともに仮想カメラ61の移動に追従するように仮想マイク62を移動させ、仮想マイク62により得られる仮想空間内の音声を複数のスピーカ30に出力させる処理である。 In this example, the acoustic processing unit 103 selectively performs a first sound image localization process and a second sound image localization process. The first sound image localization process is a process in which the virtual microphone 62 is moved to follow the movement of the virtual camera 61 while maintaining the orientation of the virtual microphone 62 in a virtual reference direction, and sound in the virtual space obtained by the virtual microphone 62 is output to the multiple speakers 30. The second sound image localization process is a process in which the orientation of the virtual microphone 62 is changed to follow the orientation of the virtual camera 61, and the virtual microphone 62 is moved to follow the movement of the virtual camera 61, and sound in the virtual space obtained by the virtual microphone 62 is output to the multiple speakers 30.
音響処理部103は、方向変更操作に応じて仮想カメラ61の向きが正面方向から変化すると、第1音像定位処理を終了して第2音像定位処理を開始する。また、音響処理部103は、リセット操作に応じて仮想カメラ61の向きが正面方向にリセットされると、第2音像定位処理を終了して第1音像定位処理を開始する。 When the orientation of the virtual camera 61 changes from the front in response to a direction change operation, the sound processing unit 103 ends the first sound image localization process and starts the second sound image localization process. Also, when the orientation of the virtual camera 61 is reset to the front in response to a reset operation, the sound processing unit 103 ends the second sound image localization process and starts the first sound image localization process.
〔制御部による処理の詳細〕
次に、図9を参照して、実施形態の変形例における制御部16による処理について詳しく説明する。以下では、プレイヤP1がスピーカ30における「前方」を向いている場合を例に挙げて説明する。なお、この例では、方向変更操作に応じて仮想カメラ61の向きが正面方向から別の方向に変化すると、ディスプレイ21に表示される画像が「一人称視点の画像」から「三人称視点の画像」に変化する。
[Details of processing by the control unit]
Next, the process by the control unit 16 in the modified embodiment will be described in detail with reference to Fig. 9. In the following, a case where the player P1 faces "forward" of the speaker 30 will be described as an example. Note that in this example, when the orientation of the virtual camera 61 changes from the front direction to another direction in response to a direction change operation, the image displayed on the display 21 changes from a "first-person perspective image" to a "third-person perspective image."
プレイヤP1が複数のスピーカ30における「前方」を向く場合に、仮想カメラ61の向きを仮想空間内における「前方(北)」(正面方向)から仮想空間内における「左方(西)」に変更するための方向変更操作がコントローラ40に入力されると、仮想カメラ61は、仮想空間内における「左方(西)」を向く。これにより、プレイヤP1が装着するヘッドマウントディスプレイ20のディスプレイ21には、仮想空間内においてプレイヤキャラクタC1を「右方(東)」から見た場合の画像が表示される。 When player P1 faces "forward" on the multiple speakers 30, if a direction change operation is input to the controller 40 to change the orientation of the virtual camera 61 from "forward (north)" (front direction) in the virtual space to "left (west)" in the virtual space, the virtual camera 61 faces "left (west)" in the virtual space. As a result, an image of the player character C1 as seen from the "right (east)" in the virtual space is displayed on the display 21 of the head-mounted display 20 worn by player P1.
ディスプレイ21に表示された画像における左右方向は、仮想空間内における前後方向(南北方向)に対応する。ディスプレイ21に表示された画像において、敵キャラクタC2は、プレイヤキャラクタC1の「右方」に位置する。図9の例では、ディスプレイ21に表示された画像は、プレイヤキャラクタC1と敵キャラクタC2とを含む三人称視点の画像である。表示処理部102は、仮想カメラ61により三人称視点の画像が得られるように、仮想カメラ61の向きを変化させるとともに仮想カメラ61を移動させる。 The left-right direction in the image displayed on the display 21 corresponds to the front-back direction (north-south direction) in the virtual space. In the image displayed on the display 21, the enemy character C2 is located to the "right" of the player character C1. In the example of FIG. 9, the image displayed on the display 21 is a third-person perspective image including the player character C1 and the enemy character C2. The display processing unit 102 changes the orientation of the virtual camera 61 and moves the virtual camera 61 so that a third-person perspective image is obtained by the virtual camera 61.
また、仮想カメラ61の向きに追従するように、仮想マイク62の向きが仮想空間内における「前方(北)」(正面方向)から仮想空間内における「左方(西)」に変化する。これにより、ディスプレイ21に表示された画像においてプレイヤキャラクタC1の右方に位置する敵キャラクタC2から出力されるキャラクタ音声A2は、プレイヤP1の「右方」に配置されたサラウンドライトスピーカ53から出力される。 The orientation of the virtual microphone 62 also changes from "forward (north)" (front direction) in the virtual space to "leftward (westward)" in the virtual space so as to follow the orientation of the virtual camera 61. As a result, the character voice A2 output from the enemy character C2 located to the right of the player character C1 in the image displayed on the display 21 is output from the surround right speaker 53 located to the "right" of the player P1.
以上の処理により、プレイヤP1の向きに対応する正面方向とは異なる方向を向く仮想カメラ61により得られる仮想空間内の画像(三人称視点の画像)がヘッドマウントディスプレイ20のディスプレイ21に表示される。また、ディスプレイ21に表示された画像においてプレイヤキャラクタC1へ向かう音声の方向(仮想空間における音場の向き)と複数のスピーカ30からプレイヤP1へ向かう音声の方向(現実世界における音場の向き)とが一致している。このように、ディスプレイ21に表示された仮想空間内の画像に応じた仮想空間内の音声は、複数のスピーカ30から適切な定位で出力される。 By the above processing, an image (third-person perspective image) of the virtual space obtained by the virtual camera 61 facing in a direction different from the forward direction corresponding to the orientation of the player P1 is displayed on the display 21 of the head-mounted display 20. Furthermore, the direction of the sound directed toward the player character C1 in the image displayed on the display 21 (the direction of the sound field in the virtual space) matches the direction of the sound directed toward the player P1 from the multiple speakers 30 (the direction of the sound field in the real world). In this way, the sound in the virtual space corresponding to the image in the virtual space displayed on the display 21 is output from the multiple speakers 30 with appropriate positioning.
〔実施形態の変形例の効果〕
実施形態の変形例では、実施形態の効果と同様の効果を得ることができる。
[Effects of the Modification of the Embodiment]
In the modified example of the embodiment, the same effects as those of the embodiment can be obtained.
また、実施形態の変形例では、仮想カメラ61の向きを検出部101により検出されたプレイヤの向きに対応する正面方向から別の方向に変化させるための方向変更操作がコントローラ40に入力された場合においても、ディスプレイ21に表示される仮想空間内の画像に応じた仮想空間内の音声を複数のスピーカ30から適切な定位で出力させることができ、ユーザエクスペリエンスを向上させることができる。 In addition, in a modified embodiment, even when a direction change operation is input to the controller 40 to change the orientation of the virtual camera 61 from the forward direction corresponding to the orientation of the player detected by the detection unit 101 to another direction, sounds in the virtual space corresponding to the images in the virtual space displayed on the display 21 can be output from the multiple speakers 30 in an appropriate position, improving the user experience.
(その他の実施形態)
以上の説明において、以下のように構成または設定されてもよい。
Other Embodiments
In the above description, the following configuration or setting may be adopted.
音声データは、必ずしも予め用意しておく必要はない。例えば、音響処理部103は、何らかのデータ(例えば記憶部15に記憶された音声データ)や情報などに基づいて、その都度、音声データを合成したり生成したりしてもよい。 The audio data does not necessarily need to be prepared in advance. For example, the acoustic processing unit 103 may synthesize or generate audio data each time based on some data (e.g., audio data stored in the memory unit 15) or information.
プレイヤキャラクタは、ディスプレイに表示されてもよいし、非表示であってもよい。言い換えると、ディスプレイに表示(再生)される仮想空間の画像において、プレイヤキャラクタは、含まれてもよいし、含まれなくてもよい。例えば、一人称視点で仮想空間の画像がディスプレイに表示される場合、プレイヤキャラクタの一部である仮想手(仮想部位)のみが表示されてもよいし、仮想手が表示されずに仮想手に把持されたハンドガン(仮想オブジェクト)のみが表示されてもよい。 The player character may or may not be displayed on the display. In other words, the player character may or may not be included in the image of the virtual space that is displayed (played) on the display. For example, when an image of the virtual space is displayed on the display from a first-person perspective, only the virtual hand (virtual body part), which is part of the player character, may be displayed, or the virtual hand may not be displayed and only a handgun (virtual object) held in the virtual hand may be displayed.
仮想空間の画像は、一人称視点の画像であってもよいし、三人称視点の画像(例えばプレイヤキャラクタの後方からプレイヤキャラクタを見た場合の画像)であってもよい。 The image of the virtual space may be an image from a first-person perspective, or an image from a third-person perspective (for example, an image of the player character viewed from behind the player character).
複数のスピーカ30は、三次元的な音の再生ができるように、聴取者(プレイヤ)の左右、前後、上方などに配置されてもよい。 Multiple speakers 30 may be positioned to the left and right, in front and behind, above, etc., of the listener (player) to enable three-dimensional sound reproduction.
プレイヤの向きの変化を含むプレイヤの動きを示す信号を出力するセンサは、ヘッドマウントディスプレイ20に含まれる動作センサ22に限定されない。例えば、このようなセンサは、プレイヤの身体における所定部位(例えば頭部)を撮像するカメラ(画像センサ)と、カメラにより得られた「所定部位の画像」に基づいてプレイヤの向きの変化を含むプレイヤの動きを認識する認識処理部との組合せであってもよい。 The sensor that outputs a signal indicating the player's movements, including changes in the player's orientation, is not limited to the motion sensor 22 included in the head-mounted display 20. For example, such a sensor may be a combination of a camera (image sensor) that captures an image of a specific part of the player's body (e.g., the head), and a recognition processing unit that recognizes the player's movements, including changes in the player's orientation, based on the "image of the specific part" obtained by the camera.
ゲームプログラムは、いわゆるオンラインゲーム用のゲームプログラムとして実装されてもよい。この場合、ゲーム装置10の制御部16において行われる処理は、サーバ装置の制御部(図示省略)において行われてもよいし、ゲーム装置10とサーバ装置の制御部とで分担されてもよい。ゲーム装置10は、スマートフォンやタブレットなどの携帯情報端末であってもよい。 The game program may be implemented as a game program for a so-called online game. In this case, the processing performed in the control unit 16 of the game device 10 may be performed in a control unit of a server device (not shown), or may be shared between the game device 10 and the control unit of the server device. The game device 10 may be a mobile information terminal such as a smartphone or tablet.
また、以上の説明では、仮想空間の例として、ゲームが進行する仮想空間(ゲーム空間)を挙げたが、これに限定されない。例えば、仮想空間は、アバター同士がコミュニケーションをとる仮想空間(メタバース空間)であってもよい。言い換えると、仮想空間において提供されるサービスは、ゲームに限定されない。例えば、仮想空間において提供されるサービスは、商取引の場の提供、コミュニケーションの場の提供などであってもよい。 In the above explanation, a virtual space in which a game progresses (game space) has been given as an example of a virtual space, but this is not limiting. For example, the virtual space may be a virtual space in which avatars communicate with each other (metaverse space). In other words, the services provided in the virtual space are not limited to games. For example, the services provided in the virtual space may be the provision of a place for commercial transactions, the provision of a place for communication, etc.
これらの他の実施形態を採用した場合においても、本発明の作用効果は発揮される。また、本実施形態と他の実施形態、および他の実施形態同士を適宜組み合わせることも可能である。以上の実施形態は、本質的に好ましい例示であって、本発明、その適用物、あるいはその用途の範囲を制限することを意図するものではない。 Even when these other embodiments are adopted, the effects of the present invention are achieved. In addition, this embodiment can be combined with other embodiments, and other embodiments can be combined with each other as appropriate. The above embodiments are essentially preferred examples, and are not intended to limit the scope of the present invention, its applications, or its uses.
1 ゲームシステム(システム)
10 ゲーム装置(音響制御装置)
11 ネットワークインターフェース
12 グラフィック処理部
13 オーディオ処理部
14 操作処理部
20 ヘッドマウントディスプレイ
21 ディスプレイ
22 動作センサ
25 本体部
26 ヘッドバンド
30 スピーカ
40 コントローラ
40a 第1コントローラ
40b 第2コントローラ
41 操作子
42 動作センサ(センサ)
50 フロントセンタスピーカ
51 フロントライトスピーカ
52 フロントレフトスピーカ
53 サラウンドライトスピーカ
54 サラウンドレフトスピーカ
55 サラウンドバックライトスピーカ
56 サラウンドバックレフトスピーカ
61 仮想カメラ
62 仮想マイク
100 ゲーム進行部(仮想空間制御部)
101 検出部
102 表示処理部
103 音響処理部
P1 プレイヤ(ユーザ)
C1 プレイヤキャラクタ(ユーザキャラクタ)
C2 敵キャラクタ(音源オブジェクト)
A2 キャラクタ音声(仮想空間内の音声)
1. Game System (System)
10 Game device (sound control device)
11 Network interface 12 Graphics processing unit 13 Audio processing unit 14 Operation processing unit 20 Head mounted display 21 Display 22 Motion sensor 25 Main body unit 26 Headband 30 Speaker 40 Controller 40a First controller 40b Second controller 41 Operator 42 Motion sensor (sensor)
50 Front center speaker 51 Front right speaker 52 Front left speaker 53 Surround right speaker 54 Surround left speaker 55 Surround back right speaker 56 Surround back left speaker 61 Virtual camera 62 Virtual microphone 100 Game progression unit (virtual space control unit)
101 Detection unit 102 Display processing unit 103 Sound processing unit P1 Player (user)
C1 Player character (user character)
C2 Enemy character (sound source object)
A2 Character voice (voice in virtual space)
Claims (6)
前記コンピュータシステムは、ユーザの向きに追従するディスプレイ、前記ユーザの周囲に配置される複数のスピーカ、前記ユーザの向きの変化を含む前記ユーザの動きを示す信号を出力するセンサとともに用いられ、
前記検出部は、前記センサから出力された信号に基づいて前記ユーザの向きを検出し、
前記表示処理部は、前記検出部により検出された前記ユーザの向きに追従するように仮想空間内に配置された仮想カメラの向きを変化させ、前記仮想カメラにより得られる前記仮想空間の画像を前記ディスプレイに表示させ、
前記音響処理部は、前記仮想カメラの向きが変化しても、前記複数のスピーカから出力される前記仮想空間内の音声により形成される音場の向きが変化しないように、前記複数のスピーカに前記仮想空間内の音声を出力させる
プログラム。 A program for causing a computer system having one or more computers working together to function as a detection unit, a display processing unit, and an audio processing unit,
The computer system is used with a display that tracks the orientation of a user, a plurality of speakers arranged around the user, and a sensor that outputs a signal indicative of the user's movements, including changes in the user's orientation;
The detection unit detects a direction of the user based on a signal output from the sensor,
the display processing unit changes an orientation of a virtual camera disposed in a virtual space so as to follow the orientation of the user detected by the detection unit, and displays an image of the virtual space obtained by the virtual camera on the display;
The acoustic processing unit is a program that causes the multiple speakers to output audio within the virtual space so that the direction of the sound field formed by the audio within the virtual space output from the multiple speakers does not change even if the direction of the virtual camera changes.
前記音響処理部は、前記仮想カメラの移動に追従するように前記仮想空間内に配置された仮想マイクを移動させ、前記仮想マイクにより得られる前記仮想空間内の音声を前記複数のスピーカに出力させ、
前記仮想マイクの向きは、前記仮想空間内における前記仮想マイクの向きの基準となる方向であり、前記検出部により検出された前記ユーザの向きの変化に応じて変化しない仮想基準方向に維持される
プログラム。 In the program of claim 1,
the acoustic processing unit moves a virtual microphone disposed in the virtual space so as to follow the movement of the virtual camera, and outputs sound in the virtual space obtained by the virtual microphone to the plurality of speakers;
A program in which the orientation of the virtual microphone is a reference direction for the orientation of the virtual microphone in the virtual space, and is maintained in a virtual reference direction that does not change in response to changes in the orientation of the user detected by the detection unit.
前記コンピュータシステムは、前記ユーザにより操作されるコントローラとともに利用され、
前記表示処理部は、前記仮想カメラの向きを前記検出部により検出された前記ユーザの向きに対応する正面方向から変化させるための方向変更操作が前記コントローラに入力されると、前記方向変更操作に応じて前記仮想カメラの向きを前記正面方向から変化させ、
前記音響処理部は、前記方向変更操作に応じて前記仮想カメラの向きが前記正面方向から変化すると、前記仮想カメラの向きに追従するように前記仮想マイクの向きを変化させる
プログラム。 In the program of claim 2,
the computer system is used in conjunction with a controller operated by the user;
when a direction change operation for changing a direction of the virtual camera from a front direction corresponding to the direction of the user detected by the detection unit is input to the controller, the display processing unit changes the direction of the virtual camera from the front direction in response to the direction change operation;
The sound processing unit is a program that changes the orientation of the virtual microphone to follow the orientation of the virtual camera when the orientation of the virtual camera changes from the front direction in response to the direction change operation.
前記表示処理部は、前記仮想カメラの向きを前記正面方向にリセットするためのリセット操作が前記コントローラに入力されると、前記リセット操作に応じて前記仮想カメラの向きを前記正面方向にリセットし、
前記音響処理部は、前記リセット操作に応じて前記仮想カメラの向きが前記正面方向にリセットされると、前記仮想マイクの向きを前記仮想基準方向にリセットする
プログラム。 In the program of claim 3,
when a reset operation for resetting the orientation of the virtual camera to the front direction is input to the controller, the display processing unit resets the orientation of the virtual camera to the front direction in response to the reset operation;
The sound processing unit is a program that resets the orientation of the virtual microphone to the virtual reference direction when the orientation of the virtual camera is reset to the front direction in response to the reset operation.
前記プログラムを実行する制御部とを備える
音響制御装置。 A storage unit that stores the program according to any one of claims 1 to 4;
and a control unit for executing the program.
前記ユーザの周囲に配置される複数のスピーカと、
前記ユーザの向きの変化を含む前記ユーザの動きを示す信号を出力するセンサと、
制御部とを備え、
前記制御部は、
前記センサから出力された信号に基づいて前記ユーザの向きを検出する検出処理と、
前記検出処理により検出された前記ユーザの向きに追従するように仮想空間内に配置された仮想カメラの向きを変化させ、前記仮想カメラにより得られる前記仮想空間の画像を前記ディスプレイに表示させる表示処理と、
前記仮想カメラの向きが変化しても、前記複数のスピーカから出力される前記仮想空間内の音声により形成される音場の向きが変化しないように、前記複数のスピーカに前記仮想空間内の音声を出力させる音響処理とを行う
システム。 A display that follows the user's orientation;
A plurality of speakers arranged around the user;
a sensor that outputs a signal indicative of the user's movement, including a change in the user's orientation;
A control unit.
The control unit is
A detection process for detecting a direction of the user based on a signal output from the sensor;
a display process of changing an orientation of a virtual camera arranged in a virtual space so as to follow the orientation of the user detected by the detection process, and displaying an image of the virtual space obtained by the virtual camera on the display;
and acoustic processing that causes the multiple speakers to output audio within the virtual space so that the direction of the sound field formed by the audio within the virtual space output from the multiple speakers does not change even when the direction of the virtual camera changes.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023207281A JP7835989B2 (en) | 2023-12-07 | Programs, sound control devices, systems |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023207281A JP7835989B2 (en) | 2023-12-07 | Programs, sound control devices, systems |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2025091813A true JP2025091813A (en) | 2025-06-19 |
| JP7835989B2 JP7835989B2 (en) | 2026-03-26 |
Family
ID=
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014090251A (en) * | 2012-10-29 | 2014-05-15 | Nintendo Co Ltd | Information processing system, information processing program, information processing control method and information processing device |
| JP2017184048A (en) * | 2016-03-30 | 2017-10-05 | 株式会社バンダイナムコエンターテインメント | Program and virtual reality experience provision device |
| JP2017184174A (en) * | 2016-03-31 | 2017-10-05 | 株式会社バンダイナムコエンターテインメント | Simulation system and program |
| JP2019013765A (en) * | 2018-08-09 | 2019-01-31 | 株式会社カプコン | Video / audio processing program and game apparatus |
| JP2023098632A (en) * | 2022-12-01 | 2023-07-10 | 任天堂株式会社 | Speech processing program, information processing system, information processing device, and speech processing method |
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014090251A (en) * | 2012-10-29 | 2014-05-15 | Nintendo Co Ltd | Information processing system, information processing program, information processing control method and information processing device |
| JP2017184048A (en) * | 2016-03-30 | 2017-10-05 | 株式会社バンダイナムコエンターテインメント | Program and virtual reality experience provision device |
| JP2017184174A (en) * | 2016-03-31 | 2017-10-05 | 株式会社バンダイナムコエンターテインメント | Simulation system and program |
| JP2019013765A (en) * | 2018-08-09 | 2019-01-31 | 株式会社カプコン | Video / audio processing program and game apparatus |
| JP2023098632A (en) * | 2022-12-01 | 2023-07-10 | 任天堂株式会社 | Speech processing program, information processing system, information processing device, and speech processing method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3068205B2 (en) | Image processing apparatus, game machine using this processing apparatus, image processing method, and medium | |
| JP6147486B2 (en) | GAME SYSTEM, GAME PROCESSING CONTROL METHOD, GAME DEVICE, AND GAME PROGRAM | |
| US9219961B2 (en) | Information processing system, computer-readable non-transitory storage medium having stored therein information processing program, information processing control method, and information processing apparatus | |
| JP2018081644A (en) | Simulation system and program | |
| JP6055651B2 (en) | Information processing system, information processing program, information processing control method, and information processing apparatus | |
| JP2019076635A (en) | Game program and game system | |
| JP2002085831A (en) | Game device and information storage medium | |
| JP7832503B2 (en) | Programs, sound control devices, systems | |
| JP6263292B1 (en) | Information processing method, computer, and program for causing computer to execute information processing method | |
| JP2018147465A (en) | Information processing method, apparatus, and program for causing computer to execute information processing method | |
| WO2022149496A1 (en) | Entertainment system and robot | |
| JP7835989B2 (en) | Programs, sound control devices, systems | |
| JP2025091813A (en) | Program, sound control device, and system | |
| JP7684330B2 (en) | Information processing device, information processing method, and computer program | |
| JP7832502B2 (en) | Program and sound control device | |
| JP2025091817A (en) | Program and audio control device | |
| JP6737842B2 (en) | Game program and game device | |
| JP7835988B2 (en) | Program and video/audio control device | |
| JP2025044619A (en) | Program and acoustic control device | |
| JP2018147378A (en) | Information processing method, apparatus, and program for implementing that information processing method in computer | |
| JP2026043412A (en) | Programs, systems, methods | |
| JP2025044661A (en) | Program and acoustic control device | |
| JP2025091683A (en) | Program and video/audio control device | |
| JP2020201980A (en) | Simulation system and program | |
| JP2025091470A (en) | Program and audio control device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A625 | Written request for application examination (by other person) |
Free format text: JAPANESE INTERMEDIATE CODE: A625 Effective date: 20250303 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20251027 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20251104 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20251223 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20260210 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20260223 |