JP6461850B2 - Simulation system and program - Google Patents

Simulation system and program Download PDF

Info

Publication number
JP6461850B2
JP6461850B2 JP2016072810A JP2016072810A JP6461850B2 JP 6461850 B2 JP6461850 B2 JP 6461850B2 JP 2016072810 A JP2016072810 A JP 2016072810A JP 2016072810 A JP2016072810 A JP 2016072810A JP 6461850 B2 JP6461850 B2 JP 6461850B2
Authority
JP
Japan
Prior art keywords
virtual
speakers
user
speaker
nth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016072810A
Other languages
Japanese (ja)
Other versions
JP2017184174A (en
Inventor
修一 小笠原
修一 小笠原
義人 矢野
義人 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Bandai Namco Entertainment Inc filed Critical Namco Ltd
Priority to JP2016072810A priority Critical patent/JP6461850B2/en
Priority to CN201710205148.2A priority patent/CN107277736B/en
Publication of JP2017184174A publication Critical patent/JP2017184174A/en
Application granted granted Critical
Publication of JP6461850B2 publication Critical patent/JP6461850B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/005Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo five- or more-channel type, e.g. virtual surround
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication

Description

本発明は、シミュレーションシステム及びプログラム等に関する。   The present invention relates to a simulation system and a program.

従来より、例えば5.1chなどのサラウンド用の複数のスピーカを用いて、現実世界の音場をシミュレートしたリアルな音場を形成し、ゲームや映画鑑賞などを楽しむことができるバーチャルリアルティのシミュレーションシステムが知られている。このようなシミュレーションシステムの従来技術としては、例えば特許文献1に開示される技術がある。   Conventionally, using a plurality of surround speakers such as 5.1ch to create a realistic sound field that simulates the sound field of the real world, you can enjoy games, movies, etc. Simulation systems are known. As a conventional technique of such a simulation system, for example, there is a technique disclosed in Patent Document 1.

特開平8−243256公報JP-A-8-243256

しかしながら、複数のスピーカを用いてサラウンド等を実現する従来のシミュレーションシステムでは、これらの複数のスピーカの配置位置に対して、所定の基準位置に所定の基準方向を向いてユーザが位置するとして、サラウンドの音場を形成していた。従って、ユーザが実空間で移動することで、ユーザの位置や方向が変化すると、適正なサラウンド等の音場を維持できないという課題があった。   However, in a conventional simulation system that realizes surround sound using a plurality of speakers, it is assumed that the user is positioned at a predetermined reference position in a predetermined reference direction with respect to the arrangement positions of the plurality of speakers. The sound field was formed. Therefore, when the user moves in real space and the user's position and direction change, there is a problem that an appropriate sound field such as surround cannot be maintained.

本発明の幾つかの態様によれば、ユーザの位置や方向が変化した場合にも適正な音場を形成できるシミュレーションシステム及びプログラム等を提供できる。   According to some aspects of the present invention, it is possible to provide a simulation system, a program, and the like that can form an appropriate sound field even when the position or direction of a user changes.

本発明の一態様は、第1〜第M(Mは3以上の整数)のスピーカが配置される実空間において移動するユーザの位置、方向の情報を取得する入力処理部と、前記実空間での前記ユーザの位置、方向の変化に伴い、前記ユーザに対応する仮想ユーザの仮想空間での位置、方向が変化した場合にも、前記仮想ユーザに対して所定の相対的位置関係を保って追従する第1〜第N(Nは2以上の整数)の位置に対して、前記第1〜第Mのスピーカの音量バランス調整を行うことで第1〜第Nの仮想スピーカを設定し、前記仮想空間内の仮想音源による音場の形成処理を、前記第1〜第Nの仮想スピーカを用いて行う音処理部と、を含むシミュレーションシステムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   One aspect of the present invention is an input processing unit that acquires information on a position and a direction of a user who moves in a real space in which first to Mth speakers (M is an integer of 3 or more) are arranged; When the position and direction of the virtual user corresponding to the user change as the user's position and direction change, the virtual user follows the virtual user while maintaining a predetermined relative positional relationship. The first to Nth virtual speakers are set by adjusting the volume balance of the first to Mth speakers for the first to Nth positions (N is an integer of 2 or more), and the virtual The present invention relates to a simulation system including a sound processing unit that performs a sound field forming process using a virtual sound source in space using the first to Nth virtual speakers. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、第1〜第Mのスピーカが配置される実空間において移動するユーザの位置、方向の情報が取得される。そしてユーザの位置、方向の変化に伴い、仮想ユーザの位置、方向が変化した場合にも、仮想ユーザに対して所定の相対的位置関係を保って追従する第1〜第Nの位置に対して、第1〜第Nの仮想スピーカが設定される。これらの第1〜第Nの仮想スピーカは、実空間に配置される第1〜第Mのスピーカの音量バランス調整を行うことで設定される。そして、設定された第1〜第Nの仮想スピーカを用いて、仮想空間内の仮想音源による音場の形成処理が行われる。このように本発明の一態様では、ユーザの位置、方向の変化に伴い仮想ユーザの位置、方向が変化した場合にも、第1〜第Nの仮想スピーカは、当該仮想ユーザに対して所定の相対的位置関係を保って追従するようになる。そして仮想空間内の仮想音源による音場は、このように仮想ユーザに対して所定の相対的位置関係を保って追従する第1〜第Nの仮想スピーカを用いて形成される。従って、ユーザの位置や方向が変化した場合にも適正な音場を形成できるシミュレーションシステム等の提供が可能になる。   According to one aspect of the present invention, information on the position and direction of a user who moves in a real space in which the first to Mth speakers are arranged is acquired. With respect to the first to Nth positions that follow the virtual user while maintaining a predetermined relative positional relationship even when the position and direction of the virtual user change with changes in the position and direction of the user. First to Nth virtual speakers are set. These first to Nth virtual speakers are set by adjusting the volume balance of the first to Mth speakers arranged in the real space. And the formation process of the sound field by the virtual sound source in virtual space is performed using the set 1st-Nth virtual speaker. As described above, according to one aspect of the present invention, even when the position and direction of a virtual user change in accordance with the change in the position and direction of the user, the first to Nth virtual speakers are predetermined with respect to the virtual user. Following relative position is maintained. The sound field of the virtual sound source in the virtual space is formed using the first to Nth virtual speakers that follow the virtual user while maintaining a predetermined relative positional relationship. Therefore, it is possible to provide a simulation system or the like that can form an appropriate sound field even when the position or direction of the user changes.

また本発明の一態様では、前記音処理部は、前記第1〜第Mのスピーカのうちの第1のスピーカ群の位置の情報と前記第1〜第Nの位置のうちの第1の位置の情報とに基づいて、前記第1のスピーカ群の音量バランス調整を行うことで、前記第1〜第Nの仮想スピーカのうちの第1の仮想スピーカを設定し、前記第1〜第Mのスピーカのうちの第2のスピーカ群の位置の情報と前記第1〜第Nの位置のうちの第2の位置の情報とに基づいて、前記第2のスピーカ群の音量バランス調整を行うことで、前記第1〜第Nの仮想スピーカのうちの第2の仮想スピーカを設定してもよい。   In the aspect of the invention, the sound processing unit may include information on a position of a first speaker group of the first to Mth speakers and a first position of the first to Nth positions. The first virtual speaker among the first to Nth virtual speakers is set by adjusting the volume balance of the first speaker group based on the information of the first to Mth speakers. By adjusting the volume balance of the second speaker group based on the position information of the second speaker group of the speakers and the information of the second position of the first to Nth positions. A second virtual speaker among the first to Nth virtual speakers may be set.

このようにすれば、各仮想スピーカを、各仮想スピーカに対応するスピーカ群の位置の情報と各仮想スピーカの位置の情報とに基づき、当該スピーカ群の音量バランス調整を行うことで、設定できるようになる。   In this way, each virtual speaker can be set by adjusting the volume balance of the speaker group based on the position information of the speaker group corresponding to each virtual speaker and the position information of each virtual speaker. become.

また本発明の一態様では、前記音処理部は、少なくとも3個のスピーカを含む前記第1のスピーカ群に、第1のチャンネルの音を出力させ、少なくとも3個のスピーカを含む前記第2のスピーカ群に、第2のチャンネルの音を出力させてもよい。   In the aspect of the invention, the sound processing unit causes the first speaker group including at least three speakers to output the sound of the first channel, and includes the second speaker including at least three speakers. The sound of the second channel may be output to the speaker group.

このように、少なくとも3個のスピーカを含むスピーカ群を用いて、各仮想スピーカを設定すれば、任意の位置への仮想スピーカの設定などが可能になる。   Thus, if each virtual speaker is set using a speaker group including at least three speakers, the virtual speaker can be set to an arbitrary position.

また本発明の一態様では、前記音処理部は、前記仮想ユーザの左耳に対応する位置に前記第1の仮想スピーカが設定されるように、前記第1のスピーカ群の音量バランス調整を行い、前記仮想ユーザの右耳に対応する位置に前記第2の仮想スピーカが設定されるように、前記第2のスピーカ群の音量バランス調整を行ってもよい。   In the aspect of the invention, the sound processing unit may adjust the volume balance of the first speaker group so that the first virtual speaker is set at a position corresponding to the left ear of the virtual user. The volume balance of the second speaker group may be adjusted so that the second virtual speaker is set at a position corresponding to the right ear of the virtual user.

このようにすれば、例えば仮想的なヘッドホンを装着しているかのような音響効果を実現できるようになる。   In this way, it is possible to achieve an acoustic effect as if wearing virtual headphones, for example.

また本発明の一態様では、前記音処理部は、前記第1、第2のスピーカ群に、バイノーラル音源による音を出力させてもよい。   In the aspect of the invention, the sound processing unit may cause the first and second speaker groups to output a sound from a binaural sound source.

このように第1、第2のスピーカ群に、バイノーラル音源による音を出力させることで、更にリアルで臨場感のある立体音響の実現が可能になる。   In this way, by making the first and second speaker groups output the sound from the binaural sound source, it is possible to realize more realistic and realistic stereoscopic sound.

また本発明の一態様では、前記音処理部は、前記第1〜第Mのスピーカのうちの第1のスピーカ群の位置の情報と前記第1〜第Nの位置のうちの第1の位置の情報とに基づいて、前記第1のスピーカ群の音量バランス調整を行うことで、前記第1〜第Nの仮想スピーカのうちの第1の仮想スピーカを設定し、前記第1〜第Mのスピーカのうちの第2のスピーカ群の位置の情報と前記第1〜第Nの位置のうちの第2の位置の情報とに基づいて、前記第2のスピーカ群の音量バランス調整を行うことで、前記第1〜第Nの仮想スピーカのうちの第2の仮想スピーカを設定し、前記第1〜第Mのスピーカのうちの第3のスピーカ群の位置の情報と前記第1〜第Nの位置のうちの第3の位置の情報とに基づいて、前記第3のスピーカ群の音量バランス調整を行うことで、前記第1〜第Nの仮想スピーカのうちの第3の仮想スピーカを設定してもよい。   In the aspect of the invention, the sound processing unit may include information on a position of a first speaker group of the first to Mth speakers and a first position of the first to Nth positions. The first virtual speaker among the first to Nth virtual speakers is set by adjusting the volume balance of the first speaker group based on the information of the first to Mth speakers. By adjusting the volume balance of the second speaker group based on the position information of the second speaker group of the speakers and the information of the second position of the first to Nth positions. , Setting a second virtual speaker among the first to Nth virtual speakers, and information on a position of a third speaker group among the first to Mth speakers and the first to Nth virtual speakers. Based on the information of the third position among the positions, the volume balance of the third speaker group By performing an integer, it may be set a third virtual speaker of the virtual speaker of the first to N.

このようにすれば、第1〜第Mのスピーカの第1、第2、第3のスピーカ群の音量バランス調整を行うことで、第1、第2、第3の仮想スピーカを設定できるようになる。そしてユーザの位置、方向の変化に伴い仮想ユーザの位置、方向が変化しても、これらの第1、第2、第3の仮想スピーカは、仮想ユーザと所定の相対的位置関係を保ちながら追従するようになるため、より適正なサラウンド効果等の実現が可能になる。   In this way, the first, second, and third virtual speakers can be set by adjusting the volume balance of the first, second, and third speaker groups of the first to Mth speakers. Become. Even if the position and direction of the virtual user change as the user position and direction change, these first, second, and third virtual speakers follow the virtual user while maintaining a predetermined relative positional relationship. As a result, a more appropriate surround effect or the like can be realized.

また本発明の一態様では、前記音処理部は、前記第1〜第Nの仮想スピーカの前記第1〜第Nの位置の情報と前記仮想音源の位置の情報とに基づいて、前記第1〜第Nの仮想スピーカの音量バランス調整を行うことで、前記仮想音源による前記音場の形成処理を行ってもよい。   In the aspect of the invention, the sound processing unit may be configured based on the first to Nth position information of the first to Nth virtual speakers and the position information of the virtual sound source. The sound field forming process by the virtual sound source may be performed by adjusting the volume balance of the Nth virtual speaker.

このようにすれば、仮想ユーザと所定の相対的位置関係を保ちながら追従する第1〜第Mの仮想スピーカの音量バランス調整を行うことで、仮想空間内の仮想音源による音場を適正に形成することが可能になる。   In this way, the sound field by the virtual sound source in the virtual space is appropriately formed by adjusting the volume balance of the first to Mth virtual speakers that follow the virtual user while maintaining a predetermined relative positional relationship. It becomes possible to do.

また本発明の一態様では、前記実空間の前記ユーザには移動可能範囲が設定されており、前記移動可能範囲に対応する位置に前記第1〜第Mのスピーカが配置されてもよい。   In one aspect of the present invention, a movable range may be set for the user in the real space, and the first to Mth speakers may be arranged at positions corresponding to the movable range.

このようにすれば、実空間に設定された移動可能範囲においてユーザが移動して、その位置や方向が変化した場合にも、その位置や方向の変化に依存しない適正な音場を形成することが可能になる。   In this way, even when the user moves within the movable range set in the real space and the position or direction changes, an appropriate sound field that does not depend on the change in the position or direction can be formed. Is possible.

また本発明の一態様では、前記ユーザに対応する前記仮想ユーザの視点から見える画像の表示処理を行う表示処理部を含んでもよい。   Moreover, in one aspect of the present invention, a display processing unit that performs a display process of an image seen from the viewpoint of the virtual user corresponding to the user may be included.

このようにすれば、ユーザの位置、方向が変化すると、仮想ユーザの位置、方向が変化することで、仮想ユーザの視点から見える画像も変化するようになり、このような変化する画像がユーザに対して表示されるようになる。そして、このように画像が変化した場合にも、仮想スピーカを用いて適正な仮想音源の音場を形成できるため、ユーザの仮想現実感を向上できる。   In this way, when the user's position and direction change, the virtual user's position and direction change, so that the image that can be seen from the virtual user's viewpoint also changes. Will be displayed. Even when the image changes in this way, a sound field of an appropriate virtual sound source can be formed using a virtual speaker, so that the virtual reality of the user can be improved.

また本発明の一態様では、前記表示処理部は、前記仮想ユーザが表示されない一人称視点での画像の表示処理を行ってもよい。   In the aspect of the invention, the display processing unit may perform an image display process from a first-person viewpoint where the virtual user is not displayed.

このようにすれば、ユーザは、あたかも自身が仮想ユーザになったかのような仮想現実感を得ることができる。そして、仮想音源による音場についても、仮想スピーカを用いて適正に形成できるため、当該仮想現実感が損なわれてしまうのを防止できる。   In this way, the user can obtain a virtual reality as if he / she became a virtual user. And since the sound field by a virtual sound source can be appropriately formed using a virtual speaker, it can prevent that the said virtual reality is impaired.

また本発明の一態様では、前記表示処理部は、前記ユーザが装着する頭部装着型表示装置に画像を表示するための処理を行ってもよい。   In the aspect of the invention, the display processing unit may perform processing for displaying an image on the head-mounted display device worn by the user.

このようにすれば頭部装着型表示装置によりユーザの視界が覆われてしまうような場合にも、仮想音源による音場を、仮想スピーカを用いて適正に形成できるため、ユーザの仮想現実感を向上できる。   In this way, even when the user's field of view is covered by the head-mounted display device, the sound field by the virtual sound source can be appropriately formed using the virtual speaker, so that the virtual reality of the user can be improved. It can be improved.

また本発明の一態様では、前記入力処理部は、前記ユーザが頭部装着型表示装置を装着して移動する場合に、前記頭部装着型表示装置に設けられたセンサ部からの情報に基づいて、前記ユーザの位置、方向の情報を取得してもよい。   In one aspect of the present invention, the input processing unit is based on information from a sensor unit provided in the head-mounted display device when the user moves while wearing the head-mounted display device. Then, information on the position and direction of the user may be acquired.

このようにすれば、頭部装着型表示装置に設けられたセンサ部からの情報に基づいて、ユーザの位置、方向の情報を取得して、ユーザの位置、方向の変化に伴い、仮想ユーザの位置、方向を変化させることが可能になる。   If it does in this way, based on the information from the sensor part provided in the head-mounted display device, the information on the user's position and direction is acquired, and the change of the user's position and direction causes the virtual user's position to change. The position and direction can be changed.

また本発明の一態様では、前記表示処理部は、前記仮想空間での前記仮想音源による音の発生状況を再現する画像の表示処理を行ってもよい。   In the aspect of the invention, the display processing unit may perform an image display process for reproducing a sound generation state by the virtual sound source in the virtual space.

このようにすれば、仮想空間での仮想音源による音の発生状況を、ユーザに表示される画像により再現しながら、当該仮想音源による音場を適正に形成することが可能になり、ユーザの仮想現実感を更に向上できる。   In this way, it is possible to appropriately form the sound field of the virtual sound source while reproducing the sound generation state of the virtual sound source in the virtual space with the image displayed to the user, Reality can be further improved.

また本発明の一態様では、前記音処理部は、前記実空間の前記第1〜第Mのスピーカのうちの第iのスピーカ(1≦i<M)への前記ユーザの接近が検出された場合に、前記第iのスピーカから出力される音の音量、高周波成分及び残響の少なくとも1つを調整する処理を行ってもよい。   In one aspect of the present invention, the sound processing unit detects an approach of the user to an i-th speaker (1 ≦ i <M) among the first to M-th speakers in the real space. In this case, a process of adjusting at least one of the volume of the sound output from the i-th speaker, the high frequency component, and the reverberation may be performed.

このようにすれば、ユーザが実世界のスピーカに接近した場合に、当該スピーカの存在がユーザに認識されて、ユーザの仮想現実感が損なわれてしまうのを防止できるようになる。   In this way, when the user approaches a real-world speaker, the presence of the speaker is recognized by the user, and the virtual reality of the user can be prevented from being impaired.

また本発明の一態様では、前記音処理部は、所定状況が発生したと判断した場合に、前記第1〜第Nの仮想スピーカの設定を無効にしてもよい。   In the aspect of the invention, the sound processing unit may invalidate the settings of the first to Nth virtual speakers when it is determined that a predetermined situation has occurred.

このように仮想スピーカの設定を無効にすれば、実空間のスピーカの位置をユーザに把握させることが可能になり、例えば緊急事態の発生などの所定状況の発生に対応できるようになる。   If the virtual speaker setting is invalidated in this way, it becomes possible for the user to grasp the position of the speaker in the real space, and it becomes possible to deal with the occurrence of a predetermined situation such as the occurrence of an emergency.

本実施形態のシミュレーションシステムの構成例を示すブロック図。The block diagram which shows the structural example of the simulation system of this embodiment. 図2(A)、図2(B)は本実施形態に用いられるHMDの一例。FIG. 2A and FIG. 2B are examples of the HMD used in this embodiment. 図3(A)、図3(B)は本実施形態に用いられるHMDの他の例。3A and 3B are other examples of the HMD used in the present embodiment. プレイエリアである個室の説明図。Explanatory drawing of the private room which is a play area. プレイエリアである個室の説明図。Explanatory drawing of the private room which is a play area. 本実施形態により生成されるゲーム画像の例。The example of the game image produced | generated by this embodiment. 本実施形態により生成されるゲーム画像の例。The example of the game image produced | generated by this embodiment. ステージでのユーザ(仮想ユーザ)の移動についての説明図。Explanatory drawing about the movement of the user (virtual user) on a stage. 図9(A)、図9(B)は実空間においてユーザの位置が変化した場合における音場形成の問題点についての説明図。FIG. 9A and FIG. 9B are explanatory diagrams about the problem of sound field formation when the position of the user changes in real space. 実空間においてユーザの方向が変化した場合における音場形成の問題点についての説明図。Explanatory drawing about the problem of sound field formation when a user's direction changes in real space. 図11(A)、図11(B)はステレオ用の仮想スピーカの設定手法についての説明図。FIG. 11A and FIG. 11B are explanatory diagrams of a stereo virtual speaker setting method. 図11(A)、図11(B)の仮想スピーカをスピーカ群の音量バランス調整により設定する手法についての説明図。Explanatory drawing about the method of setting the virtual speaker of FIG. 11 (A) and FIG. 11 (B) by the volume balance adjustment of a speaker group. 図13(A)、図13(B)は仮想ユーザの耳に対応する位置に仮想スピーカを設定する手法についての説明図。FIG. 13A and FIG. 13B are explanatory diagrams of a method for setting a virtual speaker at a position corresponding to the ear of the virtual user. 図13(A)、図13(B)の仮想スピーカをスピーカ群の音量バランス調整により設定する手法についての説明図。Explanatory drawing about the method of setting the virtual speaker of FIG. 13 (A) and FIG. 13 (B) by the volume balance adjustment of a speaker group. 図15(A)、図15(B)はバイノーラル音源を用いる手法の説明図。FIG. 15A and FIG. 15B are explanatory diagrams of a technique using a binaural sound source. 図16(A)、図16(B)はサラウンド用の仮想スピーカを仮想ユーザに追従させる手法の説明図。FIG. 16A and FIG. 16B are explanatory diagrams of a technique for causing a virtual user to follow a surround virtual speaker. 仮想空間内の仮想音源についての説明図。Explanatory drawing about the virtual sound source in virtual space. 仮想音源による音場を仮想スピーカの音量バランス調整により形成する手法の説明図。Explanatory drawing of the method of forming the sound field by a virtual sound source by volume balance adjustment of a virtual speaker. HMDを装着したユーザの移動可能範囲や移動可能範囲に対応して配置されるスピーカについての説明図。Explanatory drawing about the speaker arrange | positioned corresponding to the user's movable range with which HMD was mounted | worn, and the movable range. 仮想音源の具体例の説明図。Explanatory drawing of the specific example of a virtual sound source. 図21(A)、図21(B)は仮想音源の音の発生状況の一例を説明する図。FIG. 21A and FIG. 21B are diagrams for explaining an example of a sound generation state of a virtual sound source. 図22(A)、図22(B)は仮想音源の音の発生状況の他の例を説明する図。22A and 22B are diagrams for explaining another example of the sound generation state of the virtual sound source. ユーザがスピーカに接近した場合に行われる処理の説明図。Explanatory drawing of the process performed when a user approaches a speaker. 本実施形態の詳細な処理例を示すフローチャート。The flowchart which shows the detailed process example of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態のシミュレーションシステム(ゲームシステム、映像表示システム、シミュレーション装置)の構成例を示す。なお、本実施形態のシミュレーションシステムは図1の構成に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Configuration FIG. 1 shows a configuration example of a simulation system (game system, video display system, simulation apparatus) of the present embodiment. Note that the simulation system of the present embodiment is not limited to the configuration shown in FIG. 1, and various modifications such as omitting some of the components (each unit) or adding other components are possible.

入力装置160は、ユーザが種々の入力情報を入力するための装置である。この入力装置160は、音入力装置161、振動デバイス164を含むことができる。また入力装置160は、ユーザがゲームの操作情報を入力するためのゲームコントローラの機能を有していてもよい。ゲームコントローラは、例えば操作ボタン、方向指示キー、ジョイスティック又はレバー等により実現される。この場合にゲームコントローラと音入力装置161は、一体の筐体で実現してもよいし、別体の筐体で実現してもよい。   The input device 160 is a device for the user to input various input information. The input device 160 can include a sound input device 161 and a vibration device 164. The input device 160 may have a game controller function for the user to input game operation information. The game controller is realized by, for example, an operation button, a direction instruction key, a joystick or a lever. In this case, the game controller and the sound input device 161 may be realized by an integral casing or may be realized by a separate casing.

音入力装置161は、ユーザが音情報を入力するための装置である。音入力装置161により、例えばユーザの歌声や呼び声や掛け声などのユーザ音声を入力できる。この音入力装置161は例えば図2(A)で説明するマイク162などにより実現できる。なお音入力装置161の形状は図2(A)のような形状のマイク162には限定されず、例えばヘッドバンドを有するヘッドセット型マイクや小型マイクなどの種々のタイプのものを用いることができる。また音入力装置161は、楽器或いは楽器を模した装置における音の入力装置(ピックアップマイク等)であってもよい。楽器としては、弦楽器(ギター)、打楽器(ドラム、太鼓)、或いは鍵盤楽器(ピアノ、キーボード)などがある。   The sound input device 161 is a device for the user to input sound information. The sound input device 161 can input user voices such as a user's singing voice, calling voice, and shouting voice. The sound input device 161 can be realized by, for example, a microphone 162 described with reference to FIG. Note that the shape of the sound input device 161 is not limited to the microphone 162 having the shape shown in FIG. 2A, and various types of devices such as a headset type microphone having a headband and a small microphone can be used. . The sound input device 161 may be a sound input device (pickup microphone or the like) in a musical instrument or a device imitating a musical instrument. Examples of musical instruments include stringed instruments (guitar), percussion instruments (drums, drums), and keyboard instruments (piano, keyboard).

振動デバイス164(振動発生部)は、警告等のための振動を発生するデバイスであり、例えば振動モータ(バイブレータ)などにより実現される。振動モータは、例えば、偏芯した錘を回転させることで振動を発生する。具体的には駆動軸の両端に偏心した錘を取り付けてモータ自体が揺れるようにする。なお振動デバイス164は、振動モータには限定されず、例えばピエゾ素子などにより実現されるものであってもよい。   The vibration device 164 (vibration generating unit) is a device that generates vibration for warning or the like, and is realized by, for example, a vibration motor (vibrator). For example, the vibration motor generates vibration by rotating an eccentric weight. Specifically, eccentric weights are attached to both ends of the drive shaft so that the motor itself swings. The vibration device 164 is not limited to a vibration motor, and may be realized by, for example, a piezoelectric element.

記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。ゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(ハードディスクドライブ)、SDD、光ディスク装置などにより実現できる。記憶部170は、空間情報記憶部172、楽曲情報記憶部174、音データ記憶部175、パラメータ記憶部176、描画バッファ178を含む。   The storage unit 170 stores various types of information. The storage unit 170 functions as a work area such as the processing unit 100 or the communication unit 196. The game program and game data necessary for executing the game program are held in the storage unit 170. The function of the storage unit 170 can be realized by a semiconductor memory (DRAM, VRAM), HDD (hard disk drive), SDD, optical disk device, or the like. The storage unit 170 includes a spatial information storage unit 172, a music information storage unit 174, a sound data storage unit 175, a parameter storage unit 176, and a drawing buffer 178.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and its function can be realized by an optical disk (DVD, BD, CD), HDD, semiconductor memory (ROM), or the like. . The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an input device, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

頭部装着型表示装置200(HMD)は、ユーザの頭部に装着されて、ユーザの眼前に画像を表示する装置である。HMD200は非透過型であることが望ましいが、透過型であってもよい。またHMD200は、いわゆるメガネタイプのHMDであってもよい。   The head-mounted display device 200 (HMD) is a device that is mounted on the user's head and displays an image in front of the user's eyes. The HMD 200 is preferably a non-transmissive type, but may be a transmissive type. The HMD 200 may be a so-called glasses-type HMD.

HMD200は、センサ部210、表示部220、処理部240を含む。なおHMD200に発光素子を設ける変形実施も可能である。センサ部210は、例えばヘッドトラッキングなどのトラッキング処理を実現するためものである。例えばセンサ部210を用いたトラッキング処理により、HMD200の位置、方向を特定する。HMD200の位置、方向を特定することで、ユーザの位置、方向を特定できる。ユーザの位置、方向により、ユーザ(プレーヤ)に対応する仮想空間の仮想ユーザ(仮想プレーヤ)の位置、方向が特定される。ユーザの位置、方向は例えばユーザの視点位置、視線方向である。仮想ユーザの位置、方向は例えば仮想ユーザの視点位置、視線方向である。   The HMD 200 includes a sensor unit 210, a display unit 220, and a processing unit 240. A modification in which a light emitting element is provided in the HMD 200 is also possible. The sensor unit 210 is for realizing tracking processing such as head tracking, for example. For example, the position and direction of the HMD 200 are specified by tracking processing using the sensor unit 210. By specifying the position and direction of the HMD 200, the position and direction of the user can be specified. The position and direction of the virtual user (virtual player) in the virtual space corresponding to the user (player) are specified by the position and direction of the user. The user's position and direction are, for example, the user's viewpoint position and line-of-sight direction. The position and direction of the virtual user are, for example, the viewpoint position and line-of-sight direction of the virtual user.

トラッキング方式としては種々の方式を採用できる。トラッキング方式の一例である第1のトラッキング方式では、後述の図2(A)、図2(B)で詳細に説明するように、センサ部210として複数の受光素子(フォトダイオード等)を設ける。そして外部に設けられた発光素子(LED等)からの光(レーザー等)をこれらの複数の受光素子により受光することで、現実世界の3次元空間でのHMD200(ユーザの頭部)の位置、方向を特定する、第2のトラッキング方式では、後述の図3(A)、図3(B)で詳細に説明するように、複数の発光素子(LED)をHMD200に設ける。そして、これらの複数の発光素子からの光を、外部に設けられた撮像部で撮像することで、HMD200の位置、方向を特定する。第3のトラッキング方式では、センサ部210としてモーションセンサを設け、このモーションセンサを用いてHMD200の位置、方向を特定する。モーションセンサは例えば加速度センサやジャイロセンサなどにより実現できる。例えば3軸の加速度センサと3軸のジャイロセンサを用いた6軸のモーションセンサを用いることで、現実世界の3次元空間でのHMD200の位置、方向を特定できる。なお、第1のトラッキング方式と第2のトラッキング方式の組合わせ、或いは第1のトラッキング方式と第3のトラッキング方式の組合わせなどにより、HMD200の位置、方向を特定してもよい。   Various methods can be adopted as the tracking method. In the first tracking method, which is an example of the tracking method, a plurality of light receiving elements (photodiodes and the like) are provided as the sensor unit 210, as will be described in detail with reference to FIGS. 2A and 2B described later. Then, by receiving light (laser or the like) from a light emitting element (LED or the like) provided outside by the plurality of light receiving elements, the position of the HMD 200 (user's head) in the real world three-dimensional space, In the second tracking method for specifying the direction, a plurality of light emitting elements (LEDs) are provided in the HMD 200, as will be described in detail with reference to FIGS. 3A and 3B described later. And the position and direction of HMD200 are pinpointed by imaging the light from these light emitting elements with the imaging part provided outside. In the third tracking method, a motion sensor is provided as the sensor unit 210, and the position and direction of the HMD 200 are specified using this motion sensor. The motion sensor can be realized by, for example, an acceleration sensor or a gyro sensor. For example, by using a 6-axis motion sensor using a 3-axis acceleration sensor and a 3-axis gyro sensor, the position and direction of the HMD 200 in a three-dimensional space in the real world can be specified. Note that the position and direction of the HMD 200 may be specified by a combination of the first tracking method and the second tracking method, or a combination of the first tracking method and the third tracking method.

HMD200の表示部220は例えば液晶ディスプレイ(LCD)や有機ELディスプレイなどにより実現できる。例えばHMD200には、表示部220として、ユーザの左目の前に配置される第1のディスプレイと、右目の前に配置される第2のディスプレイが設けられており、例えば立体視表示が可能になっている。立体視表示を行う場合には、例えば視差が異なる左目用画像と右目用画像を生成し、第1のディスプレイに左目用画像を表示し、第2のディスプレイに右目用画像を表示すればよい。   The display unit 220 of the HMD 200 can be realized by, for example, a liquid crystal display (LCD) or an organic EL display. For example, the HMD 200 is provided with a first display arranged in front of the user's left eye and a second display arranged in front of the right eye as the display unit 220. For example, stereoscopic display is possible. ing. When performing stereoscopic display, for example, a left-eye image and a right-eye image with different parallaxes are generated, the left-eye image is displayed on the first display, and the right-eye image is displayed on the second display.

HMD200の処理部240は、HMD200において必要な各種の処理を行う。例えば処理部240は、センサ部210の制御処理や表示部220の表示制御処理などを行う。また処理部240が、3次元音響(立体音響)処理を行って、3次元的な音の方向や距離や広がりの再現を実現してもよい。   The processing unit 240 of the HMD 200 performs various processes necessary for the HMD 200. For example, the processing unit 240 performs control processing of the sensor unit 210, display control processing of the display unit 220, and the like. Further, the processing unit 240 may perform a three-dimensional sound (stereoscopic sound) process to realize reproduction of a three-dimensional sound direction, distance, and spread.

音出力部192は、本実施形態により生成された音を出力するものであり、例えばスピーカ又はヘッドホン等により実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and can be realized by, for example, a speaker or headphones.

I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。   The I / F (interface) unit 194 performs interface processing with the portable information storage medium 195, and the function can be realized by an ASIC for I / F processing or the like. The portable information storage medium 195 is for a user to save various types of information, and is a storage device that retains storage of such information even when power is not supplied. The portable information storage medium 195 can be realized by an IC card (memory card), a USB memory, a magnetic card, or the like.

通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with the outside (another apparatus) via a wired or wireless network, and functions thereof are hardware such as a communication ASIC or communication processor, or communication firmware. Can be realized.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170、補助記憶装置194)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is obtained from an information storage medium of a server (host device) via an information storage medium 180 (or storage unit 170, auxiliary storage) via a network and communication unit 196. May be distributed to the device 194). Use of an information storage medium by such a server (host device) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、入力装置160からの入力情報やHMD200でのトラッキング情報(HMDの位置、方向、或いは視点位置、視線方向)と、プログラムなどに基づいて、ゲーム処理、ゲーム成績演算処理、表示処理、或いは音処理などを行う。   The processing unit 100 (processor) performs game processing, game results calculation processing based on input information from the input device 160, tracking information (HMD position, direction, or viewpoint position, line-of-sight direction) in the HMD 200, a program, and the like. Display processing or sound processing.

処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Processing Unit)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。   Each processing (each function) of this embodiment performed by each unit of the processing unit 100 can be realized by a processor (a processor including hardware). For example, each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory that stores information such as a program. In the processor, for example, the function of each unit may be realized by individual hardware, or the function of each unit may be realized by integrated hardware. The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a GPU (Graphics Processing Unit) or a DSP (Digital Processing Unit) can be used. The processor may be an ASIC hardware circuit. The memory (storage unit 170) may be a semiconductor memory such as SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk device (HDD) or an optical storage device such as an optical disk device. For example, the memory stores instructions that can be read by a computer, and the processing (function) of each unit of the processing unit 100 is realized by executing the instructions by the processor. The instruction here may be an instruction set constituting a program, or an instruction for instructing an operation to the hardware circuit of the processor.

処理部100は、入力処理部102、演算処理部110、出力処理部140を含む。演算処理部110は、ゲーム処理部111、ゲーム成績演算部118、表示処理部120、音処理部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 100 includes an input processing unit 102, an arithmetic processing unit 110, and an output processing unit 140. The arithmetic processing unit 110 includes a game processing unit 111, a game result calculation unit 118, a display processing unit 120, and a sound processing unit 130. As described above, each process of the present embodiment executed by these units can be realized by a processor (or a processor and a memory). Various modifications such as omitting some of these components (each unit) or adding other components are possible.

入力処理部102(入力処理のプログラムモジュール)は、入力情報やトラッキング情報を受け付ける処理や、記憶部170から情報を読み出す処理や、通信部196を介して情報を受信する処理を、入力処理として行う。例えば入力処理部102は、入力装置160を用いてユーザが入力した入力情報やHMD200のセンサ部210等により検出されたトラッキング情報(ユーザの位置、方向又は視線の情報等)を取得する処理や、読み出し命令で指定された情報を、記憶部170から読み出す処理や、外部装置(サーバ等)からネットワークを介して情報を受信する処理を、入力処理として行う。ここで受信処理は、通信部196に情報の受信を指示したり、通信部196が受信した情報を取得して記憶部170に書き込む処理などである。   The input processing unit 102 (input processing program module) performs, as input processing, processing for receiving input information and tracking information, processing for reading information from the storage unit 170, and processing for receiving information via the communication unit 196. . For example, the input processing unit 102 obtains input information input by the user using the input device 160 and tracking information (such as user position, direction, or line-of-sight information) detected by the sensor unit 210 of the HMD 200, A process of reading information specified by the read command from the storage unit 170 and a process of receiving information from an external device (such as a server) via a network are performed as input processes. Here, the reception process includes a process of instructing the communication unit 196 to receive information, a process of acquiring information received by the communication unit 196, and writing the information in the storage unit 170, and the like.

演算処理部110は、各種の演算処理を行う。例えばゲーム処理、ゲーム成績演算処理、表示処理、或いは音処理などの演算処理を行う。   The arithmetic processing unit 110 performs various arithmetic processes. For example, arithmetic processing such as game processing, game results calculation processing, display processing, or sound processing is performed.

ゲーム処理部111(ゲーム処理のプログラムモジュール)はユーザがゲームをプレイするための種々のゲーム処理を行う。ゲーム処理部111は、ゲーム進行処理部112、評価処理部113、キャラクタ処理部114、パラメータ処理部115、オブジェクト空間設定部116、仮想カメラ制御部117を含む。   The game processing unit 111 (game processing program module) performs various game processes for the user to play the game. The game processing unit 111 includes a game progress processing unit 112, an evaluation processing unit 113, a character processing unit 114, a parameter processing unit 115, an object space setting unit 116, and a virtual camera control unit 117.

ゲーム進行処理部112は、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などを行う。評価処理部113は、ユーザのゲームプレイの評価処理を行う。例えば音楽ゲームでのユーザの演奏や、ゲーム操作についての評価処理を行う。音楽ゲームに使用される楽曲情報は楽曲情報記憶部174に記憶される。   The game progress processing unit 112 performs a process of starting a game when the game start condition is satisfied, a process of progressing the game, or a process of ending the game when the game end condition is satisfied. The evaluation processing unit 113 performs an evaluation process for the user's game play. For example, a user's performance in a music game and an evaluation process for game operation are performed. Music information used in the music game is stored in the music information storage unit 174.

キャラクタ処理部114は、キャラクタに関する種々の処理を行う。例えばオブジェクト空間(仮想空間、ゲーム空間)においてキャラクタを移動させる処理や、キャラクタを動作させる処理を行う。例えばキャラクタを動作させる処理は、モーションデータを用いたモーション処理(モーション再生等)により実現できる。パラメータ処理部115は、ゲームに使用される種々のパラメータ(ゲームパラメータ)の演算処理を行う。例えばパラメータの値を増減させる処理を行う。パラメータの情報はパラメータ記憶部176に記憶される。   The character processing unit 114 performs various processes related to the character. For example, a process of moving a character in an object space (virtual space, game space) or a process of moving a character is performed. For example, the process of moving the character can be realized by motion processing (motion reproduction or the like) using motion data. The parameter processing unit 115 performs calculation processing of various parameters (game parameters) used in the game. For example, a process of increasing or decreasing the parameter value is performed. The parameter information is stored in the parameter storage unit 176.

オブジェクト空間設定部116は、複数のオブジェクトが配置されるオブジェクト空間(広義には仮想空間)の設定処理を行う。例えば、キャラクタ(人、動物、ロボット等)、マップ(地形)、建物、観客席、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170の空間情報記憶部172には、オブジェクト空間での複数のオブジェクト(パーツオブジェクト)の位置、回転角度(方向)等の情報が空間情報として記憶される。オブジェクト空間設定部116は、例えば各フレーム毎にこの空間情報を更新する処理などを行う。   The object space setting unit 116 performs processing for setting an object space (a virtual space in a broad sense) in which a plurality of objects are arranged. For example, various objects (polygons, free-form surfaces, subdivision surfaces, etc.) representing display objects such as characters (people, animals, robots, etc.), maps (terrain), buildings, auditoriums, courses (roads), trees, walls, water surfaces, etc. The object is arranged and set in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. Specifically, the spatial information storage unit 172 of the storage unit 170 stores information such as the positions and rotation angles (directions) of a plurality of objects (part objects) in the object space as spatial information. The object space setting unit 116 performs a process of updating the space information for each frame, for example.

仮想カメラ制御部117は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。この仮想カメラはユーザの視点に相当する。立体視表示の場合は、左目用の第1の視点(左目用の第1の仮想カメラ)と、右目用の第2の視点(右目用の第2の仮想カメラ)が設定される。   The virtual camera control unit 117 performs control processing of a virtual camera (viewpoint, reference virtual camera) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do. This virtual camera corresponds to the viewpoint of the user. In the case of stereoscopic display, a first viewpoint for the left eye (first virtual camera for the left eye) and a second viewpoint for the right eye (second virtual camera for the right eye) are set.

ゲーム成績演算部118はユーザのゲーム成績を演算する処理を行う。例えばユーザのゲームプレイにより獲得された得点、ポイントなどのゲーム成績の演算処理を行う。   The game score calculation unit 118 performs processing for calculating the user's game score. For example, calculation processing of game results such as scores and points obtained by the user's game play is performed.

表示処理部120(表示処理のプログラムモジュール)は、ゲーム画像の表示処理を行う。例えば処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、HMD200の表示部220に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点。左目用、右目用の第1、第2の視点)から見える画像が生成される。なお、表示処理部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。   The display processing unit 120 (display processing program module) performs display processing of a game image. For example, a drawing process is performed based on the results of various processes (game process, simulation process) performed by the processing unit 100, thereby generating an image and displaying it on the display unit 220 of the HMD 200. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 178 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. As a result, an image that can be seen from the virtual camera (given viewpoint, left eye and right eye first and second viewpoints) in the object space is generated. Note that the drawing processing performed by the display processing unit 120 can be realized by vertex shader processing, pixel shader processing, or the like.

音処理部130(音処理のプログラムモジュール)は、処理部100で行われる種々の処理の結果に基づいて音処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などのゲーム音を生成し、ゲーム音を音出力部192に出力させる。ゲーム中に出力(再生)される音のデータは音データ記憶部175に記憶される。なお音処理部130の音処理の一部(例えば3次元音響処理)を、HMD200の処理部240により実現してもよい。   The sound processing unit 130 (sound processing program module) performs sound processing based on the results of various processes performed by the processing unit 100. Specifically, game sounds such as music (music, BGM), sound effects, or sounds are generated, and the game sounds are output to the sound output unit 192. Sound data output (reproduced) during the game is stored in the sound data storage unit 175. Note that part of the sound processing of the sound processing unit 130 (for example, three-dimensional sound processing) may be realized by the processing unit 240 of the HMD 200.

出力処理部140は各種の情報の出力処理を行う。例えば出力処理部140は、記憶部170に情報を書き込む処理や、通信部196を介して情報を送信する処理を、出力処理として行う。例えば出力処理部140は、書き込み命令で指定された情報を、記憶部170に書き込む処理や、外部の装置(サーバ等)に対してネットワークを介して情報を送信する処理を行う。送信処理は、通信部196に情報の送信を指示したり、送信する情報を通信部196に指示する処理などである。   The output processing unit 140 performs various types of information output processing. For example, the output processing unit 140 performs processing for writing information in the storage unit 170 and processing for transmitting information via the communication unit 196 as output processing. For example, the output processing unit 140 performs a process of writing information specified by a write command in the storage unit 170 or a process of transmitting information to an external apparatus (server or the like) via a network. The transmission process is a process of instructing the communication unit 196 to transmit information, or instructing the communication unit 196 to transmit information.

例えば本実施形態では、ゲーム処理部111は、複数のオブジェクトが配置される仮想空間(ゲーム空間)において、ユーザがプレイするゲームの処理を行う。例えばオブジェクト空間である仮想空間には、キャラクタ等の複数のオブジェクトが配置されており、ゲーム処理部111は、この仮想空間でのゲームを実現するための種々のゲーム処理(ゲーム進行処理、キャラクタ処理、オブジェクト空間設定処理、或いは仮想カメラ制御処理等)を実行する。そして表示処理部120は、仮想空間において所与の視点(左目用、右目用の第1、第2の視点)から見えるゲーム画像を、HMD200の表示部220(第1、第2のディスプレイ)に表示する処理を行う。即ち、仮想空間であるオブジェクト空間において、仮想ユーザ(ユーザ)の視点(仮想カメラ)から見えるゲーム画像を表示する処理を行う。   For example, in the present embodiment, the game processing unit 111 performs processing of a game played by the user in a virtual space (game space) where a plurality of objects are arranged. For example, a plurality of objects such as characters are arranged in a virtual space that is an object space, and the game processing unit 111 performs various game processes (game progress process, character process) for realizing a game in the virtual space. , An object space setting process, or a virtual camera control process). Then, the display processing unit 120 displays the game image seen from a given viewpoint (first and second viewpoints for left eye and right eye) in the virtual space on the display unit 220 (first and second displays) of the HMD 200. Process to display. That is, in the object space that is a virtual space, a process of displaying a game image that can be seen from the viewpoint (virtual camera) of the virtual user (user) is performed.

例えばHMD200を装着した現実世界のユーザが、後述の図4、図5の個室のプレイエリアにおいて移動したり、移動方向が変化したり、首を振ったり、しゃがんだりして、その位置、方向が変化すると、ユーザに対応する仮想空間の仮想ユーザの位置、方向も変化する。現実世界でのユーザの位置、方向は、HMD200のトラッキング処理により特定できるため、仮想空間での仮想ユーザの位置、方向も特定できる。ユーザ、仮想ユーザの位置、方向は、例えばユーザ、仮想ユーザの視点位置、視線方向でもある。仮想ユーザがキャラクタとして表示されない場合には、HMD200の表示画像は一人称視点の画像となり、仮想ユーザがキャラクタとして表示される場合には表示画像は三人称視点の画像になる。   For example, when a user in the real world wearing the HMD 200 moves in the play area of the private room shown in FIGS. 4 and 5 described later, the movement direction changes, the head is shaken, and the squat is crouched. When it changes, the position and direction of the virtual user in the virtual space corresponding to the user also change. Since the position and direction of the user in the real world can be specified by the tracking process of the HMD 200, the position and direction of the virtual user in the virtual space can also be specified. The position and direction of the user and the virtual user are, for example, the viewpoint position and the line-of-sight direction of the user and the virtual user. When the virtual user is not displayed as a character, the display image of the HMD 200 is a first-person viewpoint image, and when the virtual user is displayed as a character, the display image is a third-person viewpoint image.

なお、プレイエリア(行動エリア)は、例えばユーザが移動可能な範囲として設定されるエリアであり、例えばユーザがゲームプレイ等の行動を行うエリア(フィールド、スペース)として予め規定されているエリアである。このプレイエリア(広義には移動可能範囲)は、例えばユーザの位置情報等のトラッキングが可能な範囲を内包するエリアである。プレイエリアは、例えば周囲が壁で囲まれたエリアであってもよいが、オープンスペースのエリアであってもよい。   The play area (action area) is an area that is set as a range in which the user can move, for example, and is an area that is defined in advance as an area (field, space) in which the user performs an action such as game play. . This play area (movable range in a broad sense) is an area including a range in which, for example, user position information can be tracked. The play area may be, for example, an area surrounded by walls, but may be an open space area.

そして本実施形態では入力処理部102は、実空間において移動するユーザの位置、方向の情報を取得する。例えばHMD200のトラッキング処理等により特定されるユーザの位置(視点位置)や方向(視線方向、移動方向)の情報を取得する。実空間(ユーザが移動可能な範囲)には第1〜第M(Mは3以上の整数)のスピーカ(実スピーカ)が配置されている。例えばユーザの周囲を囲むように3個以上のスピーカが配置されている。これらのスピーカは、プレイエリアである個室の壁や天井に設置されるスピーカであってもよいし、オープンエリアのプレイエリアにおいてスタンドにより支持されて設置されるスピーカであってもよい。   In this embodiment, the input processing unit 102 acquires information on the position and direction of the user who moves in the real space. For example, information on the position (viewpoint position) and direction (line-of-sight direction, movement direction) of the user specified by the tracking process of the HMD 200 is acquired. First to Mth speakers (M is an integer of 3 or more) speakers (real speakers) are arranged in the real space (the range in which the user can move). For example, three or more speakers are arranged so as to surround the user. These speakers may be speakers installed on a wall or ceiling of a private room that is a play area, or may be speakers that are supported by a stand in an open area play area.

そして音処理部130は、仮想スピーカの設定処理を行い、設定された仮想スピーカを用いて仮想空間での音場形成処理を行う。仮想スピーカの設定処理は仮想スピーカ設定部132が行い、音場形成処理は音場形成処理部134が行う。具体的には、音処理部130(仮想スピーカ設定部)は、実空間(プレイエリア、行動エリア)でのユーザの位置、方向(視点位置、視線方向)の変化に伴い、ユーザに対応する仮想ユーザの仮想空間(オブジェクト空間)での位置、方向(視点位置、視線方向)が変化した場合にも、仮想ユーザに対して所定の相対的位置関係を保って追従する第1〜第N(Nは2以上の整数)の位置に対して、第1〜第Nの仮想スピーカを設定する処理を行う。例えば実空間に配置された第1〜第Mのスピーカの音量バランス調整などを行うことで、第1〜第Nの仮想スピーカを設定する。そして音処理部130(音場形成処理部)は、仮想空間内の仮想音源による音場の形成処理を、これらの第1〜第Nの仮想スピーカを用いて行う。例えば、設定された第1〜第Nの仮想スピーカの音量バランス調整を行って、これらの第1〜第Nの仮想スピーカから仮想的な音を出力することで、仮想空間の任意の位置に設定される仮想音源による音場の形成処理を行う。例えば仮想音源の位置に仮想音源による音が定位するような音場形成処理を行う。   The sound processing unit 130 performs a virtual speaker setting process, and performs a sound field forming process in a virtual space using the set virtual speaker. The virtual speaker setting process is performed by the virtual speaker setting unit 132, and the sound field forming process is performed by the sound field forming process unit 134. Specifically, the sound processing unit 130 (virtual speaker setting unit) is a virtual corresponding to the user in accordance with a change in the position and direction (viewpoint position, line-of-sight direction) of the user in the real space (play area, action area). Even when the position and direction (viewpoint position, line-of-sight direction) of the user in the virtual space (object space) change, the first to Nth (N Is a process of setting the first to Nth virtual speakers for a position of 2 or more. For example, the first to Nth virtual speakers are set by adjusting the volume balance of the first to Mth speakers arranged in the real space. The sound processing unit 130 (sound field forming processing unit) performs sound field forming processing using a virtual sound source in the virtual space using the first to Nth virtual speakers. For example, by adjusting the volume balance of the set first to Nth virtual speakers and outputting virtual sounds from these first to Nth virtual speakers, it is set at an arbitrary position in the virtual space The sound field is formed by the virtual sound source. For example, a sound field forming process is performed such that the sound from the virtual sound source is localized at the position of the virtual sound source.

仮想スピーカは、現実に存在するスピーカではなく、コンピュータ演算処理により、仮想空間に設定される仮想的なスピーカである。仮想スピーカは、実空間(現実世界)の複数のスピーカの音量バランス調整などにより実現される。本実施形態では、仮想スピーカと仮想ユーザとの相対的な位置関係が例えば予め決められている。この相対的位置関係は、仮想ユーザの位置及び方向(視線位置及び視線方向)の少なくとも一方と仮想スピーカの位置等との相対的な関係である。例えばステレオの場合には、仮想ユーザの左耳と右耳を結ぶ線上に2つの仮想スピーカが設定される。サラウンドの場合には、仮想ユーザの周囲の複数の所定位置に、所定数の仮想スピーカの各仮想スピーカが配置される。例えば仮想ユーザの左斜め前方向、右斜め前方向、左斜め後ろ方向、右斜め後ろ方向などに仮想スピーカが設定される。或いはこれらに加えて、仮想ユーザの正面方向や真後ろの方向に仮想スピーカが設定される。仮想スピーカは、コンピュータ演算処理により実現されるものであるため、その設定個数は2以上の任意の個数であり、その設定位置も任意である。   The virtual speaker is not a speaker that actually exists, but a virtual speaker that is set in a virtual space by computer calculation processing. The virtual speaker is realized by adjusting the volume balance of a plurality of speakers in the real space (real world). In the present embodiment, the relative positional relationship between the virtual speaker and the virtual user is determined in advance, for example. This relative positional relationship is a relative relationship between at least one of the position and direction (line-of-sight position and line-of-sight direction) of the virtual user and the position of the virtual speaker. For example, in the case of stereo, two virtual speakers are set on the line connecting the left and right ears of the virtual user. In the case of surround, each virtual speaker of a predetermined number of virtual speakers is arranged at a plurality of predetermined positions around the virtual user. For example, virtual speakers are set in a virtual user's left diagonal forward direction, right diagonal forward direction, left diagonal rear direction, right diagonal rear direction, and the like. Alternatively, in addition to these, a virtual speaker is set in the front direction or directly behind the virtual user. Since the virtual speakers are realized by computer arithmetic processing, the set number is an arbitrary number of 2 or more, and the set position is also arbitrary.

仮想音源は、例えば仮想空間における音の発生源としてコンピュータ演算処理により実現される仮想的な音源である。仮想音源の音は、例えば仮想空間に登場するオブジェクトを発生源とする音などである。例えば仮想音源の音は、仮想空間(ゲーム空間、オブジェクト空間)に登場するキャラクタの音声(声援、掛け声、歌声)や演奏音(ギター、ドラム又はピアノ等の楽器の演奏音)などである。また仮想音源の音は、仮想空間に登場する車、飛行機又はロボット等の移動体から聞こえる動作音などであってもよいし、仮想空間での爆発物による爆発音などの効果音であってもよい。本実施形態では、これらの仮想音源がコンピュータ演算処理によりシミュレートされる。そして、仮想音源による音場が、仮想スピーカにより形成される。例えば複数の仮想スピーカの音量バランス調整等を行うことにより、仮想音源による音場が形成される。なお仮想音源の位置や方向の情報は空間情報記憶部172に記憶される。   The virtual sound source is a virtual sound source realized by computer arithmetic processing as a sound generation source in a virtual space, for example. The sound of the virtual sound source is, for example, a sound generated from an object appearing in the virtual space. For example, the sound of the virtual sound source is voice (chance, shout, singing voice) or performance sound (performance sound of an instrument such as a guitar, drum, or piano) appearing in a virtual space (game space, object space). The sound of the virtual sound source may be an operation sound that can be heard from a moving object such as a car, an airplane, or a robot appearing in the virtual space, or may be a sound effect such as an explosive sound generated by an explosive in the virtual space. Good. In this embodiment, these virtual sound sources are simulated by computer arithmetic processing. And the sound field by a virtual sound source is formed of a virtual speaker. For example, by adjusting the volume balance of a plurality of virtual speakers, a sound field by a virtual sound source is formed. Information on the position and direction of the virtual sound source is stored in the spatial information storage unit 172.

また音処理部130は、第1〜第Mのスピーカのうちの第1のスピーカ群の位置の情報と第1〜第Nの位置のうちの第1の位置の情報とに基づいて、当該第1のスピーカ群の音量バランス調整を行うことで、第1〜第Nの仮想スピーカのうちの第1の仮想スピーカを設定(構成)する。また第1〜第Mのスピーカのうちの第2のスピーカ群の位置の情報と第1〜第Nの位置のうちの第2の位置の情報とに基づいて、当該第2のスピーカ群の音量バランス調整を行うことで、第1〜第Nの仮想スピーカのうちの第2の仮想スピーカを設定(構成)する。   In addition, the sound processing unit 130 is based on the information on the position of the first speaker group among the first to Mth speakers and the information on the first position among the first to Nth positions. By adjusting the volume balance of one speaker group, the first virtual speaker among the first to Nth virtual speakers is set (configured). The volume of the second speaker group based on the position information of the second speaker group of the first to Mth speakers and the information of the second position of the first to Nth positions. By performing the balance adjustment, the second virtual speaker among the first to Nth virtual speakers is set (configured).

ここで、第1のスピーカ群、第2のスピーカ群の各々は、第1〜第Mのスピーカのうちの複数のスピーカにより構成される。第1のスピーカ群を構成する複数のスピーカと、第2のスピーカ群を構成する複数のスピーカの間には、重複するスピーカがあってもよい。   Here, each of the first speaker group and the second speaker group includes a plurality of speakers among the first to Mth speakers. There may be overlapping speakers between the plurality of speakers constituting the first speaker group and the plurality of speakers constituting the second speaker group.

そして第1の仮想スピーカは、第1のスピーカ群の音量バランス調整により実現される。例えば第1のスピーカ群のうちの第mのスピーカの音量を大きくすれば、第1の仮想スピーカは、第mのスピーカに対応する位置に近づき、第nのスピーカの音量を大きくすれば、第1の仮想スピーカは、第nのスピーカに対応する位置に近づく。そして第1のスピーカ群の各スピーカの音量バランスをどのように調整するかは、第1のスピーカ群の各スピーカの位置の情報と、第1の仮想スピーカが設定される第1の位置の情報とに基づいて、決定される。   The first virtual speaker is realized by adjusting the volume balance of the first speaker group. For example, if the volume of the m-th speaker in the first speaker group is increased, the first virtual speaker approaches the position corresponding to the m-th speaker, and if the volume of the n-th speaker is increased, the first virtual speaker is increased. The 1 virtual speaker approaches a position corresponding to the nth speaker. Then, how to adjust the volume balance of each speaker of the first speaker group is determined by information on the position of each speaker in the first speaker group and information on the first position where the first virtual speaker is set. Based on the above.

同様に、第2の仮想スピーカは、第2のスピーカ群の音量バランス調整により実現される。そして第2のスピーカ群の各スピーカの音量バランスをどのように調整するかは、第2のスピーカ群の各スピーカの位置の情報と、第2の仮想スピーカが設定される第2の位置の情報とに基づいて、決定される。   Similarly, the second virtual speaker is realized by adjusting the volume balance of the second speaker group. Then, how to adjust the volume balance of each speaker of the second speaker group depends on the information on the position of each speaker in the second speaker group and the information on the second position where the second virtual speaker is set. Based on the above.

また音処理部130は、少なくとも3個のスピーカを含む第1のスピーカ群に、第1のチャンネルの音を出力させ、少なくとも3個のスピーカを含む第2のスピーカ群に、第2のチャンネルの音を出力させる。第1のチャンネルの音は例えば左チャンネルの音であり、第2のチャンネルの音は例えば右チャンネルの音である。このようにすれば、第1のスピーカ群の音量バランス調整により設定される第1の仮想スピーカから第1のチャンネルの音が仮想的に出力され、第2のスピーカ群の音量バランス調整により設定される第2の仮想スピーカから第2のチャンネルの音が仮想的に出力されるようになる。そして、各々が少なくとも3個のスピーカを含む第1、第2のスピーカ群を用いることで、任意の位置への第1、第2の仮想スピーカの設定が可能になる。例えば第1のチャンネルが左チャンネルであり、第2のチャンネルが右チャンネルである場合には、仮想ユーザの左耳に対応する位置と右耳に対応する位置とを結ぶ線上の任意の位置に、第1、第2の仮想スピーカを設定することが可能になる。なお第1、第2のチャンネルは、例えばサラウンドにおける任意のチャンネルであってもよい。   The sound processing unit 130 causes the first speaker group including at least three speakers to output the sound of the first channel, and causes the second speaker group including at least three speakers to output the second channel. Output sound. The sound of the first channel is, for example, the sound of the left channel, and the sound of the second channel is, for example, the sound of the right channel. In this way, the sound of the first channel is virtually output from the first virtual speaker set by the volume balance adjustment of the first speaker group, and is set by the volume balance adjustment of the second speaker group. The second channel sound is virtually output from the second virtual speaker. Then, by using the first and second speaker groups each including at least three speakers, the first and second virtual speakers can be set at arbitrary positions. For example, when the first channel is the left channel and the second channel is the right channel, at an arbitrary position on the line connecting the position corresponding to the left ear of the virtual user and the position corresponding to the right ear, It becomes possible to set the first and second virtual speakers. The first and second channels may be arbitrary channels in surround, for example.

音処理部130は、例えば仮想ユーザの左耳に対応する位置に第1の仮想スピーカが設定されるように、第1のスピーカ群の音量バランス調整を行い、仮想ユーザの右耳に対応する位置に第2の仮想スピーカが設定されるように、第2のスピーカ群の音量バランス調整を行ってもよい。このようにすれば、あたかもヘッドホンを装着しているかのような音をユーザに聴かせることが可能になる。   For example, the sound processing unit 130 adjusts the volume balance of the first speaker group so that the first virtual speaker is set at a position corresponding to the left ear of the virtual user, and a position corresponding to the right ear of the virtual user. The volume balance of the second speaker group may be adjusted so that the second virtual speaker is set at the same time. In this way, it is possible to make the user listen to the sound as if wearing headphones.

また音処理部130は、第1、第2のスピーカ群に、バイノーラル音源による音を出力させてもよい。このようにすれば、耳の鼓膜に届く状態での音が、左右の第1、第2の仮想スピーカから仮想的に出力されるようになるため、あたかもその場に居合わせたかのような臨場感のある音を聴かせることが可能になる。バイノーラル音源による音は、バイノーラル音源の音をコンピュータ演算処理により仮想的にシミュレートした音であってもよいし、バイノーラル録音による音を含む音であってもよい。例えば仮想音源から左耳、右耳に直接に届く音波に加えて、耳たぶや体の各部によって複雑に回折、反射する音波が重ね合わさるような音のシミュレーション処理を行って、仮想スピーカから出力させる。   Further, the sound processing unit 130 may cause the first and second speaker groups to output a sound from a binaural sound source. In this way, the sound that reaches the eardrum of the ear is virtually output from the first and second virtual speakers on the left and right, so that you can feel as if you were there. A certain sound can be heard. The sound produced by the binaural sound source may be a sound virtually simulated by the computer arithmetic processing of the sound of the binaural sound source, or may be a sound including a sound obtained by binaural recording. For example, in addition to the sound waves that directly reach the left and right ears from the virtual sound source, a sound simulation process is performed in which sound waves that are complicatedly diffracted and reflected by each part of the earlobe and body are superimposed and output from the virtual speaker.

また音処理部130は、上述のように第1のスピーカ群の位置の情報と第1の位置の情報とに基づいて、第1のスピーカ群の音量バランス調整を行うことで、第1の仮想スピーカを設定し、第2のスピーカ群の位置の情報と第2の位置の情報とに基づいて、第2のスピーカ群の音量バランス調整を行うことで、第2の仮想スピーカを設定すると共に、第1〜第Mのスピーカのうちの第3のスピーカ群の位置の情報と第1〜第Nの位置のうちの第3の位置の情報とに基づいて、第3のスピーカ群の音量バランス調整を行うことで、第1〜第Nの仮想スピーカのうちの第3の仮想スピーカを設定してもよい。このようにすれば、仮想空間内に第1、第2、第3の仮想スピーカというように少なくとも3個の仮想スピーカを設定できるようになり、サラウンド効果を実現できる。   In addition, the sound processing unit 130 adjusts the volume balance of the first speaker group based on the position information of the first speaker group and the information of the first position as described above, so that the first virtual group is adjusted. While setting a speaker and adjusting the volume balance of the second speaker group based on the information on the position of the second speaker group and the information on the second position, the second virtual speaker is set, Volume balance adjustment of the third speaker group based on the position information of the third speaker group of the first to Mth speakers and the information of the third position of the first to Nth positions. By performing the above, a third virtual speaker among the first to Nth virtual speakers may be set. In this way, at least three virtual speakers such as the first, second, and third virtual speakers can be set in the virtual space, and a surround effect can be realized.

なお仮想スピーカの設定数は4個以上であってもよい。例えば5個の仮想スピーカを設定する場合には、仮想ユーザの左斜め前、右斜め前に第1、第2の仮想スピーカを設定し、仮想ユーザの正面に第3の仮想スピーカを設定し、仮想ユーザの左斜め後ろ、右斜め後ろに第4、第5の仮想スピーカを設定すればよい。この場合に実空間においてユーザの位置、方向が変化し、仮想空間において仮想ユーザの位置、変化が変化した場合にも、仮想ユーザに対する第1〜第5の仮想スピーカの相対的位置関係が維持されたままになる。従って、ユーザ(仮想ユーザ)の位置や方向の変化に追従するサラウンドスピーカ(仮想サラウンドスピーカ)の実現が可能になる。   Note that the number of virtual speakers set may be four or more. For example, when five virtual speakers are set, the first and second virtual speakers are set to the left front of the virtual user and the right front of the virtual user, and the third virtual speaker is set to the front of the virtual user. What is necessary is just to set the 4th, 5th virtual speaker behind the virtual user diagonally to the left and diagonally behind the right. In this case, even when the position and direction of the user change in the real space and the position and change of the virtual user change in the virtual space, the relative positional relationship of the first to fifth virtual speakers with respect to the virtual user is maintained. Will remain. Therefore, it is possible to realize a surround speaker (virtual surround speaker) that follows changes in the position and direction of the user (virtual user).

また音処理部130は、第1〜第Nの仮想スピーカの第1〜第Nの位置の情報と仮想音源の位置の情報とに基づいて、第1〜第Nの仮想スピーカの音量バランス調整を行うことで、仮想音源による音場の形成処理を行う。   The sound processing unit 130 adjusts the volume balance of the first to Nth virtual speakers based on the information on the first to Nth positions of the first to Nth virtual speakers and the information of the position of the virtual sound source. By doing so, the sound field is formed by the virtual sound source.

例えば第1〜第Nの仮想スピーカのうちの第1の仮想スピーカ群の位置の情報と、第1の仮想音源の位置の情報とに基づいて、第1の仮想スピーカ群の音量バランス調整を行うことで、第1の仮想音源による音場の形成処理を行う。また第1〜第Nの仮想スピーカのうちの第2の仮想スピーカ群の位置の情報と、第2の仮想音源の位置の情報とに基づいて、第2の仮想スピーカ群の音量バランス調整を行うことで、第2の仮想音源による音場の形成処理を行う。第1、第2の仮想スピーカ群の各々は少なくとも3個の仮想スピーカを含む。これらの3個の仮想スピーカの位置と仮想音源との相対的な位置関係に基づいて、これらの3個の仮想スピーカの音量バランス調整を行うことで、あたかも仮想音源の位置から音が発生しているかのように聞こえる音場を形成する。   For example, the volume balance adjustment of the first virtual speaker group is performed based on the position information of the first virtual speaker group among the first to Nth virtual speakers and the position information of the first virtual sound source. Thus, the sound field forming process is performed by the first virtual sound source. Further, the volume balance of the second virtual speaker group is adjusted based on the position information of the second virtual speaker group among the first to Nth virtual speakers and the position information of the second virtual sound source. Thus, the sound field forming process is performed by the second virtual sound source. Each of the first and second virtual speaker groups includes at least three virtual speakers. By adjusting the volume balance of these three virtual speakers based on the relative positional relationship between the positions of these three virtual speakers and the virtual sound source, sound is generated as if from the position of the virtual sound source. Create a sound field that sounds like it is.

また本実施形態では、実空間のユーザには移動可能範囲が設定されており、移動可能範囲に対応する位置に第1〜第Mのスピーカが配置される。例えば移動可能範囲の周囲に第〜第Mのスピーカを配置したり、その一部を移動可能範囲内に配置する。ユーザの移動可能範囲は、例えばユーザのプレイエリアであり、プレイエリアは、周囲が壁で囲まれたエリアであってもよいし、オープンスペースのエリアであってもよい。   In the present embodiment, a movable range is set for the user in the real space, and the first to Mth speakers are arranged at positions corresponding to the movable range. For example, the first to Mth speakers are arranged around the movable range, or a part thereof is arranged within the movable range. The user's movable range is, for example, a user's play area, and the play area may be an area surrounded by a wall or an open space area.

また表示処理部120は、ユーザに対応する仮想ユーザの視点から見える画像の表示処理を行う。例えば仮想空間であるオブジェクト空間において、当該視点から見える画像の表示処理を行う。この画像は、仮想ユーザの視点位置において、その視線方向に見える画像である。この画像はいわゆる立体視画像であることが望ましい。   The display processing unit 120 performs display processing of an image that can be seen from the viewpoint of the virtual user corresponding to the user. For example, in an object space that is a virtual space, display processing of an image seen from the viewpoint is performed. This image is an image that can be seen in the viewing direction at the viewpoint of the virtual user. This image is preferably a so-called stereoscopic image.

また表示処理部120は、仮想ユーザが表示されない一人称視点での画像の表示処理を行う。即ち、仮想ユーザに対応するキャラクタが仮想空間には登場せず、仮想ユーザの視点位置、視線方向での画像を表示する。   In addition, the display processing unit 120 performs an image display process from a first-person viewpoint where a virtual user is not displayed. That is, the character corresponding to the virtual user does not appear in the virtual space, and an image in the virtual user's viewpoint position and line-of-sight direction is displayed.

また表示処理部120は、ユーザが装着するHMD200(頭部装着型表示装置)に画像を表示するための処理を行う。このようにHMD200を装着してその視界が覆われると、ユーザは、自身の周囲に配置される複数のスピーカの位置を把握できなくなる。この場合にも本実施形態では、これらの複数のスピーカの音量バランス調整で実現される複数の仮想スピーカが、ユーザに対応する仮想ユーザに対して所定の相対的位置関係を保って設定されるようになる。即ち、ユーザの位置や方向が変化して、仮想ユーザの位置や方向が変化した場合にも、当該相対的位置関係は維持される。従って、HMD200を装着するユーザの位置や方向が変化した場合にも、適正(正確)な音場を形成することが可能になる。   The display processing unit 120 performs processing for displaying an image on the HMD 200 (head-mounted display device) worn by the user. When the HMD 200 is thus mounted and the field of view is covered, the user cannot grasp the positions of the plurality of speakers arranged around the user. Also in this case, in the present embodiment, a plurality of virtual speakers realized by volume balance adjustment of the plurality of speakers is set with a predetermined relative positional relationship with respect to the virtual user corresponding to the user. become. That is, the relative positional relationship is maintained even when the position or direction of the user changes and the position or direction of the virtual user changes. Therefore, it is possible to form an appropriate (accurate) sound field even when the position or direction of the user wearing the HMD 200 changes.

また入力処理部102は、ユーザがHMD200を装着して移動する場合に、HMD200に設けられたセンサ部210からの情報に基づいて、ユーザの位置、方向の情報を取得する。例えば後述する図2(A)〜図3(B)のようなトラッキング手法により、ユーザの位置、方向の情報を取得する。そして、取得されたユーザの位置、方向の情報に基づいて、ユーザに対応する仮想ユーザの位置、方向を特定し、当該仮想ユーザに追従する複数の仮想スピーカを設定し、仮想音源による音場を形成する。   Further, when the user moves while wearing the HMD 200, the input processing unit 102 acquires information on the position and direction of the user based on information from the sensor unit 210 provided in the HMD 200. For example, information on the position and direction of the user is acquired by a tracking method as shown in FIGS. Then, based on the acquired position and direction information of the user, the position and direction of the virtual user corresponding to the user are specified, a plurality of virtual speakers following the virtual user are set, and the sound field by the virtual sound source is set. Form.

また表示処理部130は、仮想空間での仮想音源による音の発生状況を再現する画像の表示処理を行う。例えば仮想空間に登場する観客が仮想音源である場合には、この観客が歓声や掛け声や拍手をすることで音が発生する状況の再現画像を表示する。仮想空間に登場するギタリストなどの演奏者が仮想音源である場合には、演奏者が例えば移動しながら演奏して演奏音(ギターの音等)が発生する状況の再現画像を表示する。また爆発物が仮想音源である場合には、爆発物が投下されて爆発による爆発音が発生する状況を再現する画像を表示する。こうすることで、仮想スピーカを用いた仮想音源の音場と、仮想音源による音の発生状況の画像とがリンクするようになり、ユーザの仮想現実感を更に向上できるようになる。   In addition, the display processing unit 130 performs an image display process for reproducing the sound generation state by the virtual sound source in the virtual space. For example, when a spectator appearing in the virtual space is a virtual sound source, a reproduction image of a situation in which sound is generated when the spectator shouts, shouts, or claps is displayed. When a player such as a guitarist appearing in the virtual space is a virtual sound source, a reproduction image of a situation in which the player performs while moving, for example, and a performance sound (guitar sound, etc.) is generated is displayed. When the explosive is a virtual sound source, an image that reproduces the situation where the explosive is dropped and an explosion sound is generated by the explosion is displayed. By doing so, the sound field of the virtual sound source using the virtual speaker and the image of the sound generation status by the virtual sound source are linked, and the virtual reality of the user can be further improved.

また音処理部130は、実空間の第1〜第Mのスピーカのうちの第iのスピーカ(1≦i<M)へのユーザの接近が検出された場合に、第iのスピーカから出力される音の音量、高周波成分及び残響の少なくとも1つを調整する処理を行う。例えば第iのスピーカの音の音量を下げたり、第iのスピーカの音の高周波成分を低減したり、第iのスピーカの音の残響(エコー)を大きくすることで、第iのスピーカの存在を隠すための処理を行う。このようにすれば、ユーザが第iのスピーカに接近した場合に、第iのスピーカの存在を、ユーザが認識できないようにすることが可能になる。これにより、仮想スピーカがこれらの実空間のスピーカにより形成されたものであることを、ユーザが感じにくくすることが可能になる。   The sound processing unit 130 is output from the i-th speaker when the user's approach to the i-th speaker (1 ≦ i <M) among the first to M-th speakers in the real space is detected. The process of adjusting at least one of the volume of the sound, the high frequency component, and the reverberation is performed. For example, the presence of the i-th speaker is achieved by lowering the volume of the sound of the i-th speaker, reducing the high frequency component of the sound of the i-th speaker, or increasing the reverberation (echo) of the sound of the i-th speaker. Process to hide. In this way, when the user approaches the i-th speaker, it is possible to prevent the user from recognizing the presence of the i-th speaker. This makes it difficult for the user to feel that the virtual speaker is formed by these real space speakers.

また音処理部130は、所定状況が発生したと判断した場合に、第1〜第Nの仮想スピーカの設定を無効にする。例えば緊急事態の発生などの所定状況が発生したと判断した場合に、第1〜第Nの仮想スピーカの設定を無効にして、仮想スピーカによる仮想音の出力を無効にする。第1〜第Nの仮想スピーカの設定を無効にする処理は、実空間の第1〜第Mのスピーカが、仮想スピーカの設定のための音量バランス調整を行わないようにすることで実現できる。例えば第1〜第Nの仮想スピーカの各仮想スピーカが、各仮想スピーカに対応する各スピーカ群の音量バランス調整により設定される場合に、その各スピーカ群の音量バランス調整を行わないようにすることで、各仮想スピーカの設定を無効にできる。   Further, when the sound processing unit 130 determines that a predetermined situation has occurred, the sound processing unit 130 invalidates the settings of the first to Nth virtual speakers. For example, when it is determined that a predetermined situation such as the occurrence of an emergency has occurred, the settings of the first to Nth virtual speakers are invalidated and the virtual sound output by the virtual speakers is invalidated. The process of invalidating the settings of the first to Nth virtual speakers can be realized by preventing the first to Mth speakers in the real space from performing volume balance adjustment for setting the virtual speakers. For example, when each virtual speaker of the first to Nth virtual speakers is set by volume balance adjustment of each speaker group corresponding to each virtual speaker, the volume balance adjustment of each speaker group is not performed. Thus, the setting of each virtual speaker can be invalidated.

2.本実施形態の手法
次に本実施形態の手法について具体的に説明する。なお、以下では本実施形態の手法が適用されるゲームが、歌の演奏を行う音楽ゲーム(ライブステージのゲーム、カラオケゲーム等)である場合を主に例にとり説明する。しかしながら、本実施形態の手法が適用されるゲームは、これに限定されず、例えば弦楽器(ギター等)、打楽器(ドラム、太鼓等)、或いは鍵盤楽器(キーボード、ピアノ)等の楽器を演奏する音楽ゲーム(リズムや演奏の上手さを競うゲーム)などであってもよい。また本実施形態の手法は、異性キャラクタ等とのコミュニケーションゲーム(人間関係シミュレーションゲーム)、トークバトルなどを行う会話ゲーム(法廷闘争ゲーム、掛け合い漫才ゲーム)、戦闘ゲーム、RPGゲーム、ロボットゲーム、カードゲーム、スポーツゲーム、或いはアクションゲーム等の種々のゲームや、映像コンテンツや音楽コンテンツの再生にも適用可能である。
2. Next, the method of this embodiment will be described in detail. In the following description, a case where the game to which the method of the present embodiment is applied is a music game (live stage game, karaoke game, etc.) for performing a song will be mainly described as an example. However, the game to which the method of the present embodiment is applied is not limited to this, for example, music that plays an instrument such as a stringed instrument (guitar, etc.), a percussion instrument (drum, drum, etc.), or a keyboard instrument (keyboard, piano). It may be a game (game that competes for rhythm and skill). In addition, the method of the present embodiment includes a communication game (human relationship simulation game) with a heterosexual character, a conversation game (forensic battle game, cross game), a battle game, an RPG game, a robot game, and a card game. It can also be applied to various games such as sports games or action games, and playback of video content and music content.

2.1 HMD、プレイエリア
図2(A)に本実施形態のシミュレーションシステムに用いられるHMD200の一例を示す。図2(A)に示すようにHMD200には複数の受光素子201、202、203(フォトダイオード)が設けられている。受光素子201、202はHMD200の前面側に設けられ、受光素子203はHMD200の右側面に設けられている。またHMDの左側面、上面等にも不図示の受光素子が設けられている。
2.1 HMD and Play Area FIG. 2A shows an example of the HMD 200 used in the simulation system of this embodiment. As shown in FIG. 2A, the HMD 200 is provided with a plurality of light receiving elements 201, 202, and 203 (photodiodes). The light receiving elements 201 and 202 are provided on the front side of the HMD 200, and the light receiving element 203 is provided on the right side of the HMD 200. In addition, a light receiving element (not shown) is also provided on the left side, upper surface, and the like of the HMD.

またユーザPLは、左手、右手で入力装置160−1、160−2を持っている。入力装置160−1、160−2には、HMD200と同様に複数の受光素子(不図示)が設けられている。また入力装置160−1にはマイク162(広義には音入力装置)が設けられており、ユーザPLは歌の演奏ゲームにおいてマイク162に口を向けて歌うことになる。また入力装置160−1、160−2はゲームコントローラとしても機能し、不図示の操作ボタン、方向指示キー等が設けられている。なおユーザが持つ入力装置160の個数は1個であってもよい。   The user PL has the input devices 160-1 and 160-2 with the left hand and the right hand. Similar to the HMD 200, the input devices 160-1 and 160-2 are provided with a plurality of light receiving elements (not shown). The input device 160-1 is provided with a microphone 162 (a sound input device in a broad sense), and the user PL sings with the mouth toward the microphone 162 in a song playing game. The input devices 160-1 and 160-2 also function as game controllers, and are provided with operation buttons, direction instruction keys, and the like (not shown). Note that the number of input devices 160 held by the user may be one.

またHMD200には、ヘッドバンド260等が設けられており、ユーザPLは、より良い装着感で安定的に頭部にHMD200を装着できるようになっている。そしてユーザPLは、ゲームコントローラとして機能する入力装置160−1、160−2を操作したり、頭部の頷き動作や首振り動作を行うことで、操作情報を入力し、ゲームプレイを楽しむ。頷き動作や首振り動作は、HMD200のセンサ部210等により検出できる。   Further, the HMD 200 is provided with a headband 260 and the like so that the user PL can stably wear the HMD 200 on the head with a better wearing feeling. Then, the user PL operates the input devices 160-1 and 160-2 functioning as a game controller, performs a head movement operation and a head swing operation, and inputs operation information to enjoy game play. The whirling motion and the swing motion can be detected by the sensor unit 210 of the HMD 200 or the like.

図2(B)に示すように、ユーザPLのプレイエリアにはベースステーション280、284が設置されている。ベースステーション280には発光素子281、282が設けられ、ベースステーション284には発光素子285、286が設けられている。発光素子281、282、285、286は、例えばレーザー(赤外線レーザー等)を出射するLEDにより実現される。ベースステーション280、284は、これら発光素子281、282、285、286を用いて、例えばレーザーを放射状に出射する。そして図2(A)のHMD200に設けられた受光素子201〜203等が、ベースステーション280、284からのレーザーを受光することで、HMD200のトラッキングが実現され、ユーザPLの頭の位置や向く方向(広義にはユーザの位置や方向)を検出できるようになる。また入力装置160−1、160−2に設けられた不図示の受光素子が、ベースステーション280、284からのレーザーを受光することで、入力装置160−1、160−2のトラッキングが実現され、入力装置160−1、160−2の位置や方向を検出できるようになる。これにより、例えばゲーム画像に、入力装置160−1に対応するマイクの画像等を表示することが可能になる。   As shown in FIG. 2B, base stations 280 and 284 are installed in the play area of the user PL. The base station 280 is provided with light emitting elements 281 and 282, and the base station 284 is provided with light emitting elements 285 and 286. The light emitting elements 281, 282, 285, and 286 are realized by LEDs that emit laser (infrared laser or the like), for example. The base stations 280 and 284 use these light emitting elements 281, 282, 285, and 286 to emit, for example, a laser beam radially. The light receiving elements 201 to 203 and the like provided in the HMD 200 in FIG. 2A receive the lasers from the base stations 280 and 284, whereby the tracking of the HMD 200 is realized, and the position of the head of the user PL and the direction in which the user PL faces. (The position and direction of the user in a broad sense) can be detected. The light receiving elements (not shown) provided in the input devices 160-1 and 160-2 receive lasers from the base stations 280 and 284, thereby realizing tracking of the input devices 160-1 and 160-2. The positions and directions of the input devices 160-1 and 160-2 can be detected. Thereby, for example, an image of a microphone corresponding to the input device 160-1 can be displayed on the game image.

図3(A)にHMD200の他の例を示す。図3(A)では、HMD200に対して複数の発光素子231〜236が設けられている。これらの発光素子231〜236は例えばLEDなどにより実現される。発光素子231〜234は、HMD200の前面側に設けられ、発光素子235や不図示の発光素子236は、背面側に設けられる。これらの発光素子231〜236は、例えば可視光の帯域の光を出射(発光)する。具体的には発光素子231〜236は、互いに異なる色の光を出射する。そして図3(B)に示す撮像部150をユーザPLの前方側に設置し、この撮像部150により、これらの発光素子231〜236の光を撮像する。即ち、撮像部150の撮像画像には、これらの発光素子231〜236のスポット光が映る。そして、この撮像画像の画像処理を行うことで、ユーザPLの頭部(HMD)のトラッキングを実現する。即ちユーザPLの頭部の3次元位置や向く方向(ユーザの位置、方向)を検出する。   FIG. 3A shows another example of the HMD 200. In FIG. 3A, a plurality of light emitting elements 231 to 236 are provided for the HMD 200. These light emitting elements 231 to 236 are realized by, for example, LEDs. The light emitting elements 231 to 234 are provided on the front side of the HMD 200, and the light emitting element 235 and the light emitting element 236 (not shown) are provided on the back side. These light emitting elements 231 to 236 emit (emit) light in a visible light band, for example. Specifically, the light emitting elements 231 to 236 emit light of different colors. 3B is installed on the front side of the user PL, and the light of the light emitting elements 231 to 236 is imaged by the imaging unit 150. That is, the spot light of these light emitting elements 231 to 236 is reflected in the captured image of the imaging unit 150. And the tracking of the user's PL head (HMD) is implement | achieved by performing the image process of this captured image. That is, the three-dimensional position of the head of the user PL and the facing direction (user position and direction) are detected.

例えば図3(B)に示すように撮像部150には第1、第2のカメラ151、152が設けられており、これらの第1、第2のカメラ151、152の第1、第2の撮像画像を用いることで、ユーザPLの頭部の奥行き方向での位置等が検出可能になる。またHMD200に設けられたモーションセンサのモーション検出情報に基づいて、ユーザPLの頭部の回転角度(視線)も検出可能になっている。従って、このようなHMD200を用いることで、ユーザPLが、周囲の360度の全方向うちのどの方向を向いた場合にも、それに対応する仮想空間(仮想3次元空間)での画像(ユーザの視点に対応する仮想カメラから見える画像)を、HMD200の表示部220に表示することが可能になる。なお、発光素子231〜236として、可視光ではなく赤外線のLEDを用いてもよい。また、例えばデプスカメラ等を用いるなどの他の手法で、ユーザの頭部の位置や動き等を検出するようにしてもよい。   For example, as illustrated in FIG. 3B, the imaging unit 150 includes first and second cameras 151 and 152, and the first and second cameras 151 and 152 of the first and second cameras 151 and 152 are provided. By using the captured image, it is possible to detect the position and the like of the head of the user PL in the depth direction. Further, based on the motion detection information of the motion sensor provided in the HMD 200, the rotation angle (line of sight) of the head of the user PL can also be detected. Therefore, by using such an HMD 200, when the user PL is directed in any direction of all 360 degrees around the user, an image (a user's virtual space) is displayed in the corresponding virtual space (virtual three-dimensional space). Image viewed from a virtual camera corresponding to the viewpoint) can be displayed on the display unit 220 of the HMD 200. Note that instead of visible light, infrared LEDs may be used as the light emitting elements 231 to 236. Further, the position or movement of the user's head may be detected by another method such as using a depth camera.

なお、ユーザの視点位置、視線方向(ユーザの位置、方向)を検出するトラッキング処理の手法は、図2(A)〜図3(B)で説明した手法には限定されない。例えばHMD200に設けられたモーションセンサ等を用いて、HMD200の単体でトラッキング処理を実現してもよい。即ち、図2(B)のベースステーション280、284、図3(B)の撮像部150などの外部装置を設けることなく、トラッキング処理を実現する。或いは、公知のアイトラッキング、フェイストラッキング又はヘッドトラッキングなどの種々の視点トラッキング手法により、ユーザの視点位置、視線方向などの視点情報等を検出してもよい。   Note that the tracking processing method for detecting the user's viewpoint position and line-of-sight direction (user's position and direction) is not limited to the method described with reference to FIGS. For example, the tracking process may be realized by a single unit of the HMD 200 using a motion sensor or the like provided in the HMD 200. That is, tracking processing is realized without providing external devices such as the base stations 280 and 284 in FIG. 2B and the imaging unit 150 in FIG. Or you may detect viewpoint information, such as a user's viewpoint position and a gaze direction, by various viewpoint tracking methods, such as well-known eye tracking, face tracking, or head tracking.

図4、図5に本実施形態のゲームが実現されるプレイエリアの一例を示す。このプレイエリアは、ボックス状の防音の個室により実現される。図4、図5に示すようにボックスの個室は、壁301、302、303、304、天井305、ドア306を有する。壁301、302、303、304、天井305の内側にはクッション材としても機能する防音材311、312、313、314、315が設けられている。また天井305には前述のベースステーション280、284や照明器具290、292が設置されている。   FIG. 4 and FIG. 5 show examples of play areas where the game of this embodiment is realized. This play area is realized by a box-shaped soundproof private room. As shown in FIGS. 4 and 5, the box private room has walls 301, 302, 303, 304, a ceiling 305, and a door 306. Sound insulating materials 311, 312, 313, 314, and 315 that also function as cushioning materials are provided inside the walls 301, 302, 303, and 304 and the ceiling 305. The base stations 280 and 284 and the lighting fixtures 290 and 292 are installed on the ceiling 305.

ユーザPLの前側にはフロントスピーカ330、331、センタースピーカ332が設置され、後ろ側にはリアスピーカ333、334、ウーハー335が設置される。これらのスピーカによりサラウンド音響が実現される。そしてウーハー335が収容されている収容ボックス内に、巻き取り装置50が収容されている。この巻き取り装置50は回転リール62を有しており、ケーブル20は、収容ボックス(棚)に設けられたケーブル通過口52を通って、回転リール62により巻き取られる。   Front speakers 330 and 331 and a center speaker 332 are installed on the front side of the user PL, and rear speakers 333 and 334 and a woofer 335 are installed on the rear side. Surround sound is realized by these speakers. And the winding device 50 is accommodated in the accommodation box in which the woofer 335 is accommodated. The winding device 50 includes a rotating reel 62, and the cable 20 is wound around the rotating reel 62 through a cable passage port 52 provided in a storage box (shelf).

ユーザPLは図5のドア306を開けて個室内に入り、ゲームをプレイする。この個室内の空間がユーザPLのプレイエリア(プレイ空間、実空間)になる。そして図5に示すように、ボックスの個室のプレイエリアには、ユーザPLの移動範囲(移動可能範囲)として想定されるエリアARが設定される。このエリアAR内では、ステーション280、284等を用いたユーザPLの位置、方向(視点位置、視線方向)のトラッキングが可能になっている。一方、エリアARの境界BDを越えた位置では、確実なトラッキングを実現できない。またユーザPLがエリアARの境界BDを越えると、壁301、302、303、304にぶつかるおそれがあり、安全面の上で望ましくない。エリアARの設定は、例えばゲーム装置のイニシャライズ設定などにより、その範囲を設定可能になっている。   The user PL opens the door 306 in FIG. 5 and enters the private room to play a game. This space in the private room becomes the play area (play space, real space) of the user PL. And as shown in FIG. 5, the area AR assumed as a movement range (movable range) of the user PL is set in the play area of the private room of the box. Within this area AR, it is possible to track the position and direction (viewpoint position, line-of-sight direction) of the user PL using the stations 280, 284 and the like. On the other hand, reliable tracking cannot be realized at a position beyond the boundary BD of the area AR. Further, when the user PL exceeds the boundary BD of the area AR, there is a possibility that the user PL will hit the walls 301, 302, 303, 304, which is not desirable in terms of safety. The area AR can be set, for example, by the initialization setting of the game device.

そして図4、図5に示すように、ユーザPLは腰ベルト30を装着している。腰ベルト30には収容部32が取り付けられており、この収容部32内にケーブル20の中継点RPが設けられる。ケーブル20は、HMD200から中継点RPを経由して巻き取り装置50により巻き取られる。ケーブル部分21とケーブル部分22の間のポイントが中継点RPになる。なおケーブル20には、ユーザPLが基準位置に立っている際にケーブル20を弛ませるためのストッパー26が設けられている。   As shown in FIGS. 4 and 5, the user PL is wearing the waist belt 30. A housing portion 32 is attached to the waist belt 30, and a relay point RP of the cable 20 is provided in the housing portion 32. The cable 20 is wound up by the winding device 50 from the HMD 200 via the relay point RP. A point between the cable portion 21 and the cable portion 22 becomes a relay point RP. The cable 20 is provided with a stopper 26 for loosening the cable 20 when the user PL is standing at the reference position.

2.2 ゲームの概要
次に、本実施形態の手法により実現されるゲームの概要について説明する。本実施形態により実現されるゲームは、本物のライブステージのような臨場感の中、バンドのボーカルになりきって、ボーカル演奏を行う音楽ゲームである。ユーザは、大観衆を目前にして歌うという、かつてない高揚感を感じつつ、自分のファンからの歓声を全身に浴びる強烈な快感を得ることができる。HMDと大出力のサラウンドスピーカーにより、まるで本物のライブステージに出演し、自分のファンに囲まれて歌っているかのような、臨場感を得ることができる。
2.2 Outline of Game Next, an outline of the game realized by the method of the present embodiment will be described. The game realized by the present embodiment is a music game in which a vocal performance is achieved by becoming a vocal of a band in a sense of reality like a real live stage. The user can obtain a strong feeling of cheering from his fans all over the body while feeling an unprecedented sense of singing in front of a large audience. With HMD and high-power surround speakers, you can feel as if you are performing on a live stage and singing with your fans.

ステージの周りの観客は、ユーザのボーカル演奏やステージアクションに反応して、派手な声援や様々なアクションをインタラクティブに返してくる。HMDによる、まるでその場に立っているかのような臨場感のライブステージの上で、表情まで見える最前列のファンをはじめ、会場を埋める満員の観客の前で、バンドメンバーの演奏と共に、自分の歌とライブパフォーマンスを行って、観客の期待に応える。   The audience around the stage responds to the user's vocal performance and stage action and interactively returns flashy cheering and various actions. On the live stage as if standing on the spot by HMD, in front of the crowd in front of the crowd that fills the venue, including the fans in the front row who can see the expression, Meet the audience's expectations by singing and performing live.

ユーザは共有スペースに設けられた受け付けスペースで、入室時間の予約やプレイ設定を行い、図4、図5に示すようにクッション材(防音材)が貼られた安全な個室内で、ライブ出演体験を楽しむ。   Users can make reservations and play settings for entry times in the reception space provided in the common space, and experience live appearance in a secure private room with cushioning material (soundproofing material) as shown in Figs. Enjoy.

ユーザは、ステージ出演前のプレイ設定において、コンサート出演モードを選択する。その後、歌う曲の選択を行い、出演ステージを選択する。そして図2(A)、図2(B)等で説明したHMD200、入力装置160−1、160−2などのデバイスや、腰ベルト30を装着する。店舗のオペレータが、注意事項等を説明し、ユーザのデバイス等の装着や調整を補助する。プレイエリアである個室空間のキャリブレーション(イニシャライズ)は、オペレータが事前に行う。   The user selects the concert appearance mode in the play setting before the stage appearance. After that, the song to be sung is selected and the appearance stage is selected. Then, the devices such as the HMD 200 and the input devices 160-1 and 160-2 described in FIG. 2A and FIG. The store operator explains the precautions and assists the user in mounting and adjusting the device. The operator calibrates (initializes) the private room space, which is the play area, in advance.

図2(A)の入力装置160−1は、マイク&ゲームコントローラになっている。VR(バーチャルリアリティ)空間内では、ユーザ(仮想ユーザ)の腕や手は描画されないが、ユーザが手で持っている入力装置160−1等の位置がセンシングされ、同じ位置にマイク画像が描画され、ユーザの動きに応じてマイク画像が動くようになる。   The input device 160-1 in FIG. 2A is a microphone and game controller. In the VR (virtual reality) space, the arms and hands of the user (virtual user) are not drawn, but the position of the input device 160-1 etc. held by the user is sensed, and a microphone image is drawn at the same position. The microphone image moves according to the user's movement.

ユーザは、VR空間のスタンバイルームで、ボーカルのキー調整を行う。スタンバイルームは、ステージの下の待機スペースである。VR空間においてユーザが立っているスペースは大きなリフトになっていて、本番時にはステージ上にせり上がる。   The user performs vocal key adjustment in the standby room of the VR space. The standby room is a waiting space below the stage. The space where the user stands in the VR space is a large lift, and rises on the stage during the performance.

リフトが上昇しステージが近づいて来るのに合わせて、遠くから聞こえていたホールの歓声や掛け声が徐々に大きくなり、迫力を増し、且つ、生々しく変化する。ステージ上にユーザが出現すると、ユーザに向けて前方から逆光のスポットライトが当てられ、ユーザの登場で最高潮に達した大歓声が起こる。   As the lift rises and the stage approaches, the cheers and shouts of the hall that were heard from a distance gradually increase, increasing the force and changing vividly. When a user appears on the stage, a spotlight of backlighting is applied from the front toward the user, and a loud cheer occurs that has reached its peak.

ライブの本番ではユーザは、思う存分、ステージでの熱唱を楽しむ。図6、図7は、ステージ上のユーザのHMD200に表示されるゲーム画像(VR空間での画像)の例である。図6、図7に示すようにユーザの目の前には満員の観客が映し出される。図6はユーザが正面を向いた場合のゲーム画像であり、図7は、ユーザが右方向を向いた場合のゲーム画像である。   In the live performance, users enjoy singing on stage as much as they want. 6 and 7 are examples of game images (images in the VR space) displayed on the user's HMD 200 on the stage. As shown in FIGS. 6 and 7, a full audience is projected in front of the user. FIG. 6 is a game image when the user is facing the front, and FIG. 7 is a game image when the user is facing the right.

図6、図7に示すように、HMD200を用いる本実施形態のゲーム装置では、ユーザの全周囲の方向に亘って、仮想空間であるVR空間の世界が広がる。例えばHMD200を装着したユーザが前方向を向けば、図6のゲーム画像がHMD200に表示され、右方向を向けば、図7のゲーム画像が表示される。後ろ方向を向けば、演奏バンドなどの画像が表示される。従って、多数の観客が歓声を上げる巨大なコンサートホールにおいて、ボーカル演奏しているかのような仮想現実感をユーザに与えることができ、ゲームへの没入度等を格段に向上できる。   As shown in FIGS. 6 and 7, in the game device of this embodiment using the HMD 200, the world of the VR space, which is a virtual space, extends across the entire direction of the user. For example, when the user wearing the HMD 200 faces forward, the game image of FIG. 6 is displayed on the HMD 200, and when the user wears the right direction, the game image of FIG. 7 is displayed. If you look back, you can see an image of a performance band. Therefore, in a huge concert hall where a large number of spectators cheer, it is possible to give the user a virtual reality feeling as if they are performing vocals, and the degree of immersion in the game can be greatly improved.

また本実施形態では、曲の抑揚に合わせて観客の動き(アクション)や歓声が変化する。またユーザのアクションに応じるように、観客の動きや歓声が変化する。例えば図6において、ユーザが立つステージの近くの観客AD1〜AD7は、例えば多数のポリゴンで構成されるポリゴンモデルのオブジェクトにより表現されている。図7の観客AD8〜AD11も同様である。一方、ステージから遠い位置にいる観客は、ユーザの視線に正対するビルボードポリゴンに描かれた画像により表現されている。   In the present embodiment, the movement or cheering of the audience changes in accordance with the inflection of the song. In addition, the movement and cheer of the audience change according to the user's action. For example, in FIG. 6, spectators AD1 to AD7 near the stage where the user stands are represented by polygon model objects composed of a large number of polygons, for example. The same applies to the audiences AD8 to AD11 in FIG. On the other hand, the audience at a position far from the stage is represented by an image drawn on a billboard polygon facing the user's line of sight.

ポリゴンモデルの観客(AD1〜AD11)は、例えばモーションデータによるモーション再生によりその動きが表現されている。これらの観客は、曲のリズムにのって基本アクション(基本モーション)を行う。観客は、ユーザの声や動きに応じも、インタラクティブにリアクションする。ユーザが、例えば「特定の方向を向いて歌う」、「手を振る」といったアクションを行うことで、その方向の観客のテンションが上がり、基本アクションが、1段階、派手になったり、或いは曲のリズムとは関係ない突発的な盛り上がりアクションを行うようになる。   The movement of the polygon model audience (AD1 to AD11) is expressed by, for example, motion reproduction using motion data. These spectators perform basic actions (basic motion) according to the rhythm of the song. The audience reacts interactively according to the voice and movement of the user. When the user performs actions such as “singing in a specific direction” or “waving hands”, the tension of the audience in that direction increases, and the basic action becomes one stage, flashy, or Suddenly exciting action that has nothing to do with rhythm.

図8は、VR空間においてユーザPL(仮想ユーザ)が立つステージSGを、上方から俯瞰した様子を示す図である。ステージSGは境界BDSにより区画されており、ステージSGの周りの観客席SE1、SE2、SE3には、図6、図7に示すようにアクションする観客が配置されている。このステージSGの境界BDSは、例えば図5の現実世界のプレイエリアのエリアARの境界BDに対応している。一例としては、図5の現実世界のエリアARの境界BDから例えば所定距離だけ内側に対応する位置に、VR空間でのステージSGの境界BDSが設定されている。   FIG. 8 is a diagram illustrating a state where the stage SG where the user PL (virtual user) stands in the VR space is seen from above. The stage SG is divided by the boundary BDS, and spectators acting as shown in FIGS. 6 and 7 are arranged in the audience seats SE1, SE2, and SE3 around the stage SG. The boundary BDS of the stage SG corresponds to, for example, the boundary BD of the area AR of the real world play area in FIG. As an example, the boundary BDS of the stage SG in the VR space is set at a position corresponding to, for example, a predetermined distance from the boundary BD of the real world area AR in FIG.

本実施形態ではユーザは、観客を盛り上げるためのパフォーマンスを行うことができる。ユーザに向けて何らかのアピールのアクションをしてくる観客が、当該パフォーマンスのターゲットになる。例えば図6では、観客AD4が、右手を高く上げてユーザに対してアピールのアクションを行っており、この観客AD4がターゲットになる。また図7ではアピールのアクションを行っている観客AD10がターゲットになる。   In this embodiment, the user can perform a performance for exciting the audience. A spectator who performs some appealing action toward the user becomes the target of the performance. For example, in FIG. 6, the audience AD 4 raises his right hand to perform an appealing action to the user, and this audience AD 4 is the target. In FIG. 7, the audience AD10 who is performing an appealing action is the target.

これらのアピールする観客に対して、ユーザがアクションを行うことで、これらの観客の熱狂度パラメータ(熱狂度ゲージ)の値が上昇する。そして熱狂度パラメータが最大値になると、これらの観客が、大喜びを表現する熱狂アクションを行うようになる。   When the user performs an action on these appealing spectators, the value of the enthusiastic parameter (enthusiasm gauge) of these spectators increases. When the enthusiasm parameter reaches the maximum value, these spectators will perform an enthusiasm action that expresses delight.

アピールする観客に対してユーザが行う第1のアクションは、そのターゲットの観客の方に視線を向けて歌うアクションである。この第1のアクションが行われるのは、楽曲の歌唱パートと間奏パートのうち、歌唱パートにおいてである。   The first action that the user performs on the appealing audience is an action of singing with a line of sight toward the target audience. This first action is performed in the singing part among the singing part and the interlude part of the music.

アピールする観客に対してユーザが行う第2のアクションは、観客に対して呼びかけなどの発声を行うアクションである。ユーザの呼びかけの発声に対して、観客は声援や掛け声や拍手などで応答する。ユーザは、観客からの声援や掛け声や拍手に合わせて、腕を上げるアクションなどを行う。   The second action performed by the user for the appealing audience is an action for making a call to the audience. The audience responds to the user's call with cheering, cheering, or applause. The user performs an action of raising an arm in accordance with cheering, cheering, and applause from the audience.

これらの第1、第2のアクションのターゲットとなる観客は、例えばランダムにコンサートホール内で発生する。ユーザの1曲の演奏におけるターゲットの数は所定数に決まっている。ターゲットとなる所定数の全ての観客について、熱狂度パラメータが最大値になり盛り上げに成功すると、全クリアになる。例えばターゲットとなる観客の数が10人である場合に、これらの10人の全ての観客の熱狂度パラメータが最大値に達すると、ターゲットの全クリアになる。この場合に、ターゲットのクリア数に応じて、最後のステージエフェクトの種類が変化する。例えば10人のターゲットの全てをクリアした場合には、最後のステージにおいて最も派手なエフェクトが発生する。また例えば8人のターゲットをクリアした場合には、5人のターゲットをクリアした場合に比べて、より派手なエフェクトが発生する。   Audiences that are targets of these first and second actions occur, for example, randomly in the concert hall. The number of targets in the performance of one song by the user is determined to be a predetermined number. For all target audiences of the predetermined number, when the enthusiasm parameter reaches the maximum value and the excitement is successful, it is all cleared. For example, if the number of target audiences is 10, and all of these 10 audiences have reached the maximum value, the target is completely cleared. In this case, the type of the last stage effect changes according to the number of target clears. For example, when all 10 targets are cleared, the most flashy effect occurs in the last stage. For example, when eight targets are cleared, a more flashy effect occurs than when five targets are cleared.

また本実施形態ではユーザの歌唱力が評価される。即ち、ユーザの歌の音程とリズムが検知されて評価される。具体的には、リズムに合わせた発声が出来たかを評価する。例えば、ベース又はドラムの演奏の指定タイミングに合わせて、ユーザが発声できると、ポイントが加算される。また、ロングトーンの上手さや、休符についての正確性なども評価される。また音程の正確性も評価する。即ち、ユーザの歌の音程判定を行い、正解な音程で歌った音程をグラフ的に表示する。なお、ユーザの音量がゼロの状態が一定時間、継続すると、観客の多くは待機モーションに移行し、その間はユーザはポイント加算を得ることができない。   In this embodiment, the user's singing ability is evaluated. That is, the pitch and rhythm of the user's song is detected and evaluated. Specifically, it is evaluated whether or not the utterance can be adapted to the rhythm. For example, when the user can speak in accordance with the designated timing of playing the bass or drum, points are added. In addition, the skill of long tone and the accuracy of rest are evaluated. Also evaluate the accuracy of the pitch. In other words, the pitch of the user's song is determined, and the pitch of the song sung with the correct pitch is displayed graphically. Note that if the user's volume level is zero for a certain period of time, most of the audience will shift to a standby motion, during which time the user will not be able to earn points.

ユーザの演奏が終了し、ライブステージを通してのユーザの評価結果が一定基準を満たすと、観客はアンコールを求めて来る。そのアンコールに応えることで、ユーザは更に1曲、追加で演奏できるようになる。そしてライブステージの終了時には、フェードアウトする歓声の中で、照明はさらに暗くなり、ブラックアウトして終了する。その後、「お疲れ様でした、HMDを外してください」といった表示及びガイド音声が流れる。そしてユーザは装備を外して個室から退室し、ゲームプレイの終了となる。   When the user's performance is completed and the user's evaluation result through the live stage satisfies a certain standard, the audience asks for an encore. By responding to the encore, the user can play one more song. Then, at the end of the live stage, the lights become darker in the cheering that fades out, and it ends with a blackout. After that, a message such as “Thank you very much, please remove the HMD” and a guide voice are played. Then, the user removes the equipment and leaves the private room, and the game play ends.

2.3 仮想スピーカ
図9(A)では、ユーザPLは、移動可能範囲であるプレイエリアで移動可能になっており、プレイエリア(移動可能範囲)の周囲に5つのスピーカFL、FR、FC、RL、RRが配置されている。FL、FRはフロントスピーカであり、FCはセンタースピーカであり、RL、RRはリアスピーカである。このようなスピーカFL、FR、FC、RL、RRを配置することで、いわゆるサラウンド音響を実現でき、奥行き感や広がり感が表現された臨場感のある音響をユーザPLに提供できる。
2.3 Virtual Speaker In FIG. 9A, the user PL is movable in a play area that is a movable range, and there are five speakers FL, FR, FC, around the play area (movable range). RL and RR are arranged. FL and FR are front speakers, FC is a center speaker, and RL and RR are rear speakers. By arranging such speakers FL, FR, FC, RL, and RR, so-called surround sound can be realized, and realistic sound in which a sense of depth and a sense of breadth are expressed can be provided to the user PL.

しかしながら、これらのスピーカFL、FR、FC、RL、RRによるサラウンドは、図9(A)のようにユーザPLがプレイエリアの中央(基準位置)に位置し、正面方向(基準方向)を向いている場合に最適になるように、仮想空間の音場が形成されている。このため、図9(B)のようにユーザPLが移動して、ユーザPLの位置PPLがプレイエリアの中央から離れた場所に変化したり、図10に示すようにユーザPLの向く方向DPLが変化した場合には、不適正(不正確)な音場になってしまう。ここでユーザPLの位置PPLは例えばユーザの視点位置であり、ユーザPLの方向DPLは例えばユーザPLの視線方向である。なおユーザPLの移動方向がユーザの視線方向に一致するものと想定するようにしてもよい。   However, the surround by these speakers FL, FR, FC, RL, and RR is such that the user PL is located at the center (reference position) of the play area and faces the front direction (reference direction) as shown in FIG. The sound field of the virtual space is formed so as to be optimal in the case of Therefore, the user PL moves as shown in FIG. 9B, and the position PPL of the user PL changes to a place away from the center of the play area, or the direction DPL toward the user PL as shown in FIG. If it changes, the sound field will be incorrect (inaccurate). Here, the position PPL of the user PL is, for example, the viewpoint position of the user, and the direction DPL of the user PL is, for example, the line-of-sight direction of the user PL. Note that it may be assumed that the moving direction of the user PL matches the line of sight of the user.

例えばユーザPLは、図9(A)では真後ろにあった仮想空間での仮想音源(例えばバンドの演奏者)の位置が、図9(B)では右斜めの位置に存在するように感じてしまう。またユーザPLは、図9(A)では真正面にあった仮想音源(例えば観客)の位置が、図10では、左斜め後ろに存在するように感じてしまう。このため、ユーザPLの仮想現実感が損なわれたり、方向感を失ってしまうなどの問題が生じるおそれがある。特にユーザPLがHMD200を装着している場合には、その視界がHMD200により覆われており、実世界の状況を見ることができないため、方向感等を失ってしまう可能性が高い。   For example, the user PL feels that the position of the virtual sound source (for example, a band player) in the virtual space immediately behind in FIG. 9 (A) exists at an oblique right position in FIG. 9 (B). . In addition, the user PL feels that the position of the virtual sound source (for example, the spectator) that is directly in front in FIG. 9A exists diagonally to the left in FIG. For this reason, there exists a possibility that problems, such as the virtual reality of user PL being impaired, or losing a sense of direction, may arise. In particular, when the user PL is wearing the HMD 200, the field of view is covered by the HMD 200, and the real world situation cannot be seen, so there is a high possibility of losing a sense of direction or the like.

そこで本実施形態では、ユーザPLの位置PPL、方向DPLが変化しても、正確な音場環境(例えばサラウンド環境)の維持を可能にする手法を採用している。具体的には実空間の複数のスピーカの音量バランス調整により、仮想空間に複数の仮想スピーカを設定し、これらの複数の仮想スピーカを用いて、仮想空間内の仮想音源を表現する。   Therefore, in the present embodiment, a technique is adopted that enables an accurate sound field environment (for example, a surround environment) to be maintained even if the position PPL and the direction DPL of the user PL change. Specifically, a plurality of virtual speakers are set in the virtual space by adjusting the volume balance of the plurality of speakers in the real space, and a virtual sound source in the virtual space is expressed using the plurality of virtual speakers.

まず図11(A)、図11(B)を用いて、ステレオ用の仮想スピーカの設定手法について説明する。例えば図11(A)、図11(B)において、スピーカSP1、SP2の音量バランスを調整することで、左チャンネル用の仮想スピーカVS1を設定(構成)する。またスピーカSP3、SP4の音量バランスを調整することで、右チャンネル用の仮想スピーカVS2を設定(構成)する。そして仮想スピーカVS1から、ステレオ再生における左チャンネルの音を出力する。また仮想スピーカVS2から、ステレオ再生における右チャンネルの音を出力する。これによりユーザに対して正しい向きでのステレオ効果を与えることができる。   First, a stereo virtual speaker setting method will be described with reference to FIGS. 11A and 11B. For example, in FIGS. 11A and 11B, the left-channel virtual speaker VS1 is set (configured) by adjusting the volume balance of the speakers SP1 and SP2. In addition, the right channel virtual speaker VS2 is set (configured) by adjusting the volume balance of the speakers SP3 and SP4. And the sound of the left channel in stereo reproduction | regeneration is output from virtual speaker VS1. Further, the right channel sound in stereo reproduction is output from the virtual speaker VS2. As a result, a stereo effect in the correct orientation can be given to the user.

ここで、図11(A)、図11(B)のスピーカSP1、SP2、SP3、SP4は、実空間に配置されるスピーカであり、図9(A)のように、ユーザPLの移動可能範囲に対応して設置されるスピーカFL、FR、FC、RL、RRに相当する。そしてP1、P2、P3、P4はスピーカSP1、SP2、SP3、SP4の位置である。PS1、PS2は、仮想スピーカVS1、VS2(第1、第2の仮想スピーカ)の位置(第1、第2の位置)である。   Here, the speakers SP1, SP2, SP3, and SP4 in FIGS. 11A and 11B are speakers arranged in the real space, and the movable range of the user PL as shown in FIG. 9A. Corresponds to the speakers FL, FR, FC, RL, RR installed corresponding to. P1, P2, P3, and P4 are the positions of the speakers SP1, SP2, SP3, and SP4. PS1 and PS2 are the positions (first and second positions) of the virtual speakers VS1 and VS2 (first and second virtual speakers).

また図11(A)、図11(B)の仮想ユーザPV(仮想プレーヤ)は、図9(A)のユーザPL(プレーヤ)に相当するものであり、実空間のユーザPLの位置PPL、DPLが変化すると、それに応じて仮想空間の仮想ユーザPVの位置PP、方向DPも変化する。位置PPは仮想ユーザPVの例えば視点位置であり、方向DPは仮想ユーザPVの例えば視線方向である。   Further, the virtual user PV (virtual player) in FIGS. 11A and 11B corresponds to the user PL (player) in FIG. 9A, and the positions PPL and DPL of the user PL in the real space. Changes, the position PP and the direction DP of the virtual user PV in the virtual space also change accordingly. The position PP is, for example, the viewpoint position of the virtual user PV, and the direction DP is, for example, the visual line direction of the virtual user PV.

例えばユーザPLがHMD200を装着している場合には、HMD200の位置、方向を検出することでユーザPLの位置、方向(視点位置、視線方向)を特定し、これにより仮想ユーザPVの位置、方向(視点位置、視線方向)が特定される。従って図9(A)〜図10のようにユーザPLの位置PPL、方向DPLが変化した場合に、それに応じて仮想空間の仮想ユーザPVの位置PP、方向DPを変化させることができる。なおユーザPLがHMD200を装着しないようなシステムにおいても、各種のセンサを用いることでユーザPLの位置PPL、方向DPLを特定し、それに応じて仮想ユーザPVの位置PP、方向DPを変化させることが可能である。例えば画像センサ(RGBセンサ)やデプスセンサなどのセンサを用いて、ユーザPLのスケルトン情報や位置情報を取得して、ユーザPLの位置PPL、方向DPLを特定してもよい。   For example, when the user PL is wearing the HMD 200, the position and direction (viewpoint position, line-of-sight direction) of the user PL are specified by detecting the position and direction of the HMD 200, and thereby the position and direction of the virtual user PV. (Viewpoint position, line-of-sight direction) is identified. Therefore, when the position PPL and the direction DPL of the user PL change as shown in FIGS. 9A to 10, the position PP and the direction DP of the virtual user PV in the virtual space can be changed accordingly. Even in a system in which the user PL does not wear the HMD 200, the position PPL and the direction DPL of the user PL can be specified by using various sensors, and the position PP and the direction DP of the virtual user PV can be changed accordingly. Is possible. For example, by using a sensor such as an image sensor (RGB sensor) or a depth sensor, the skeleton information and position information of the user PL may be acquired to specify the position PPL and the direction DPL of the user PL.

そして本実施形態では、ユーザPLの位置PPL、方向DPLの変化に伴い、仮想ユーザPVの位置PP、方向DPが変化した場合にも、仮想スピーカVS1、VS2は仮想ユーザPVに対して所定の相対的位置関係を保って追従する。具体的には、図11(A)、図11(B)では、仮想ユーザPVに対して相対的位置関係を保って追従する位置PS1、PS2(第1、第2の位置)に、仮想スピーカVS1、VS2(第1、第2の仮想スピーカ)が設定される。例えば仮想ユーザPVの左耳ELの位置と右耳ERの位置を結ぶ線上に、仮想スピーカVS1、VS2の位置PS1、PS2が設定されるという相対的位置関係が保たれる。例えば図11(A)と図11(B)とでは、仮想ユーザPVの位置PP、方向DPは異なっているが、仮想ユーザPVに対する仮想スピーカVS1、VS2の相対的位置関係は保たれている。即ち、仮想ユーザPVの左耳ELと右耳ERを結ぶ線上に位置PS1、PS2が設定されるように、仮想スピーカVS1、VS2が仮想ユーザPVに追従する。   In the present embodiment, even when the position PP and the direction DP of the virtual user PV change in accordance with the change in the position PPL and the direction DPL of the user PL, the virtual speakers VS1 and VS2 have a predetermined relative relation to the virtual user PV. Follow the target position. Specifically, in FIGS. 11A and 11B, virtual speakers are positioned at positions PS1 and PS2 (first and second positions) that follow the virtual user PV while maintaining a relative positional relationship. VS1 and VS2 (first and second virtual speakers) are set. For example, the relative positional relationship that the positions PS1 and PS2 of the virtual speakers VS1 and VS2 are set on the line connecting the position of the left ear EL and the position of the right ear ER of the virtual user PV is maintained. For example, in FIG. 11A and FIG. 11B, the position PP and the direction DP of the virtual user PV are different, but the relative positional relationship of the virtual speakers VS1 and VS2 with respect to the virtual user PV is maintained. That is, the virtual speakers VS1 and VS2 follow the virtual user PV so that the positions PS1 and PS2 are set on the line connecting the left ear EL and the right ear ER of the virtual user PV.

そして仮想空間内の仮想音源(例えば後述する観客、演奏者等)による音場形成を、これらの仮想スピーカVS1、VS2を用いて行う。例えば当該仮想音源の位置に当該仮想音源による音が定位するように、仮想スピーカVS1、VS2の音量バランス調整等が行われる。このようにすれば、ユーザPLの位置PPL、方向DPLが変化して、仮想ユーザPVの位置PP、方向DPが変化した場合にも、これらの変化に依存しない適正な音場を形成できるようになる。   Then, a sound field is formed by a virtual sound source (for example, a spectator or a player described later) in the virtual space using these virtual speakers VS1 and VS2. For example, volume balance adjustment of the virtual speakers VS1 and VS2 is performed so that the sound from the virtual sound source is localized at the position of the virtual sound source. In this way, even when the position PPL and the direction DPL of the user PL change and the position PP and the direction DP of the virtual user PV change, an appropriate sound field that does not depend on these changes can be formed. Become.

また図11(A)、図11(B)では、スピーカSP1、SP2の音量バランス調整を行うことで、位置PS1に仮想スピーカVS1を設定し、スピーカSP3、SP4の音量バランス調整を行うことで、位置PS2に仮想スピーカVS2を設定している。   11A and 11B, by adjusting the volume balance of the speakers SP1 and SP2, the virtual speaker VS1 is set at the position PS1, and the volume balance of the speakers SP3 and SP4 is adjusted. A virtual speaker VS2 is set at the position PS2.

図12は、図11(A)、図11(B)の仮想スピーカVS1、VS2をスピーカSP1〜SP4の音量バランス調整により設定する手法の説明図である。   FIG. 12 is an explanatory diagram of a method for setting the virtual speakers VS1 and VS2 of FIGS. 11A and 11B by adjusting the volume balance of the speakers SP1 to SP4.

図12では、スピーカSP1〜SP4(広義には第1〜第Mのスピーカ)のうちの第1のスピーカ群であるスピーカSP1、SP2の位置P1、P2の情報と、位置PS1(第1の位置)の情報とに基づいて、スピーカSP1、SP2の音量バランス調整を行うことで、仮想スピーカVS1(第1の仮想スピーカ)を設定している。またスピーカSP1〜SP4のうちの第2のスピーカ群であるスピーカSP3、SP4の位置P3、P4の情報と、位置PS2(第2の位置)の情報とに基づいて、スピーカSP3、SP4の音量バランス調整を行うことで、仮想スピーカVS2(第2の仮想スピーカ)を設定している。   In FIG. 12, information on the positions P1 and P2 of the speakers SP1 and SP2, which are the first speaker group among the speakers SP1 to SP4 (first to Mth speakers in a broad sense), and the position PS1 (first position). ), The virtual speaker VS1 (first virtual speaker) is set by adjusting the volume balance of the speakers SP1 and SP2. Further, based on the information on the positions P3 and P4 of the speakers SP3 and SP4, which are the second speaker group of the speakers SP1 to SP4, and the information on the position PS2 (second position), the volume balance of the speakers SP3 and SP4. By performing the adjustment, the virtual speaker VS2 (second virtual speaker) is set.

例えば図11(A)、図11(B)で説明したように、位置PS1、PS2は、仮想ユーザPVの位置PP、方向DPに対して相対的位置関係を保つ位置に設定されており、例えば図12に示すように左耳ELと右耳ERを結ぶ線LLR上の位置に設定されている。具体的には位置PS1は、線LLRと、位置P1、P2を結ぶ線L12との交点の位置になる。位置PS2は、線LLRと、位置P3、P4を結ぶ線L34との交点の位置になる。   For example, as described in FIGS. 11A and 11B, the positions PS1 and PS2 are set to positions that maintain a relative positional relationship with respect to the position PP and the direction DP of the virtual user PV. As shown in FIG. 12, the position is set on a line LLR connecting the left ear EL and the right ear ER. Specifically, the position PS1 is the position of the intersection of the line LLR and the line L12 connecting the positions P1 and P2. The position PS2 is the position of the intersection of the line LLR and the line L34 connecting the positions P3 and P4.

そして位置PS1に仮想スピーカVS1が設定されるように、位置P1、P2のスピーカSP1、SP2(第1のスピーカ群)の音量バランスを調整する。例えば位置P1とPS1の距離をD1とし、位置P2とPS1の距離をD2とする。この場合にD1が長くなり、D2が短くなるほど、スピーカSP1の音量を小さくし、スピーカSP2の音量を大きくする。一方、D1が短くなり、D2が長くなるほど、スピーカSP1の音量を大きくし、スピーカSP2の音量を小さくする。   Then, the volume balance of the speakers SP1 and SP2 (first speaker group) at the positions P1 and P2 is adjusted so that the virtual speaker VS1 is set at the position PS1. For example, the distance between the positions P1 and PS1 is D1, and the distance between the positions P2 and PS1 is D2. In this case, as D1 becomes longer and D2 becomes shorter, the volume of the speaker SP1 is reduced and the volume of the speaker SP2 is increased. On the other hand, as D1 becomes shorter and D2 becomes longer, the volume of speaker SP1 is increased and the volume of speaker SP2 is decreased.

また位置PS2に仮想スピーカVS2が設定されるように、位置P3、P4のスピーカSP1、SP2(第2のスピーカ群)の音量バランスを調整する。例えば位置P3とPS2の距離をD3とし、位置P4とPS2の距離をD4とする。この場合にD3が長くなり、D4が短くなるほど、スピーカSP3の音量を小さくし、スピーカSP4の音量を大きくする。一方、D3が短くなり、D4が長くなるほど、スピーカSP3の音量を大きくし、スピーカSP4の音量を小さくする。こうすることで位置PS1、PS2に仮想スピーカVS1、VS2を定位させることができる。   Further, the volume balance of the speakers SP1 and SP2 (second speaker group) at the positions P3 and P4 is adjusted so that the virtual speaker VS2 is set at the position PS2. For example, the distance between the positions P3 and PS2 is D3, and the distance between the positions P4 and PS2 is D4. In this case, the volume of the speaker SP3 is decreased and the volume of the speaker SP4 is increased as D3 becomes longer and D4 becomes shorter. On the other hand, as D3 becomes shorter and D4 becomes longer, the volume of speaker SP3 is increased and the volume of speaker SP4 is decreased. By doing so, the virtual speakers VS1 and VS2 can be localized at the positions PS1 and PS2.

2.4 3個以上のスピーカによる仮想スピーカの設定
さて、図11(A)〜図12の手法では、各仮想スピーカを設定するスピーカ群として2個のスピーカしか使用していないため、任意の位置に仮想スピーカを設定することができない。このため、厳密に正しいステレオ効果を実現することが難しいという問題点がある。例えば図11(A)において、仮想ユーザPVの位置PPが左側に移動すると、仮想スピーカVS1と左耳ELとの距離が短くなり、仮想スピーカVS2と右耳ERとの距離が長くなってしまう。また仮想ユーザPVの位置PPが右側に移動すると、仮想スピーカVS1と左耳ELとの距離が長くなり、仮想スピーカVS2と右耳ERとの距離が短くなってしまう。従って、正しいステレオ効果を実現することが難しい。
2.4 Setting of Virtual Speaker by Three or More Speakers In the method of FIGS. 11A to 12, only two speakers are used as a speaker group for setting each virtual speaker. Cannot set a virtual speaker. For this reason, there is a problem that it is difficult to realize a strictly correct stereo effect. For example, in FIG. 11A, when the position PP of the virtual user PV moves to the left side, the distance between the virtual speaker VS1 and the left ear EL becomes short, and the distance between the virtual speaker VS2 and the right ear ER becomes long. Further, when the position PP of the virtual user PV moves to the right side, the distance between the virtual speaker VS1 and the left ear EL increases, and the distance between the virtual speaker VS2 and the right ear ER decreases. Therefore, it is difficult to realize a correct stereo effect.

この点、本実施形態では、図13(A)〜図14で説明するように、各仮想スピーカを設定するスピーカ群として3個以上のスピーカを用いており、これにより任意の位置への仮想スピーカの設定を可能にしている。   In this regard, in the present embodiment, as described with reference to FIGS. 13A to 14, three or more speakers are used as a speaker group for setting each virtual speaker, whereby the virtual speaker at an arbitrary position is used. It is possible to set.

例えば図13(A)、図13(B)では、少なくとも3個のスピーカSP1、SP2、SP3を含む第1のスピーカ群により、仮想スピーカVS1を設定している。また少なくとも3個のスピーカSP2、SP3、SP4を含む第2のスピーカ群により、仮想スピーカVS2を設定している。   For example, in FIGS. 13A and 13B, the virtual speaker VS1 is set by the first speaker group including at least three speakers SP1, SP2, and SP3. The virtual speaker VS2 is set by a second speaker group including at least three speakers SP2, SP3, SP4.

このようにすることで図13(A)、図13(B)では、仮想ユーザPVの左耳ELに対応する位置に仮想スピーカVS1を設定し、右耳ERに対応する位置に仮想スピーカVS2を設定できる。ここで、左耳ELに対応する位置は、例えば仮想ユーザPVが装着する仮想的なヘッドホンの左スピーカの位置であり、右耳ERに対応する位置は、例えば仮想的なヘッドホンの右スピーカの位置である。このようにすることで、ヘッドホンを装着している状態に近い効果を作り出すことができるため、例えばバイノーラル音源の再生も可能になるという利点がある。また、仮想スピーカVS1、VS2の位置PS1、PS2を自由に設定できるため、ユーザPL(仮想ユーザPV)の位置に依存せずに、正しいステレオ効果を実現できるという利点がある。   In this way, in FIGS. 13A and 13B, the virtual speaker VS1 is set at a position corresponding to the left ear EL of the virtual user PV, and the virtual speaker VS2 is set at a position corresponding to the right ear ER. Can be set. Here, the position corresponding to the left ear EL is, for example, the position of the left speaker of the virtual headphone worn by the virtual user PV, and the position corresponding to the right ear ER is, for example, the position of the right speaker of the virtual headphone. It is. By doing so, an effect close to the state in which headphones are worn can be created, and there is an advantage that binaural sound sources can be reproduced, for example. Further, since the positions PS1 and PS2 of the virtual speakers VS1 and VS2 can be set freely, there is an advantage that a correct stereo effect can be realized without depending on the position of the user PL (virtual user PV).

図14は、図13(A)、図13(B)の仮想スピーカVS1、VS2をスピーカSP1〜SP4の音量バランス調整により設定する手法の説明図である。   FIG. 14 is an explanatory diagram of a method for setting the virtual speakers VS1 and VS2 of FIGS. 13A and 13B by adjusting the volume balance of the speakers SP1 to SP4.

図14では、スピーカSP1〜SP4(第1〜第Mのスピーカ)のうちの第1のスピーカ群であるスピーカSP1、SP2、SP3の位置P1、P2、P3の情報と、位置PS1の情報とに基づいて、スピーカSP1、SP2、SP3の音量バランス調整を行うことで、仮想スピーカVS1を設定している。またスピーカSP1〜SP4のうちの第2のスピーカ群であるスピーカSP2、SP3、SP4の位置P2、P3、P4の情報と、位置PS2の情報とに基づいて、スピーカSP2、SP3、SP4の音量バランス調整を行うことで、仮想スピーカVS2を設定している。つまり、少なくとも3個以上のスピーカを含むスピーカ群の音量バランス調整を行うことで、各仮想スピーカを設定している。   In FIG. 14, the information of the positions P1, P2, and P3 of the speakers SP1, SP2, and SP3, which are the first speaker group among the speakers SP1 to SP4 (first to Mth speakers), and the information of the position PS1. Based on this, the virtual speaker VS1 is set by adjusting the volume balance of the speakers SP1, SP2, and SP3. Further, based on the information on the positions P2, P3, and P4 of the speakers SP2, SP3, and SP4 which are the second speaker group among the speakers SP1 to SP4, the volume balance of the speakers SP2, SP3, and SP4 is based on the information on the position PS2. By performing the adjustment, the virtual speaker VS2 is set. That is, each virtual speaker is set by adjusting the volume balance of a speaker group including at least three speakers.

例えば図13(A)、図13(B)に示すように、位置PS1、PS2は、仮想ユーザPVの位置PP、方向DPに対して相対的位置関係を保つ位置に設定されている。具体的には図14に示すように、左耳ELと右耳ERを結ぶ線LLR上の位置において、位置PPから同一の距離DEの位置にPS1、PS2が設定されている。線LLRは例えば仮想ユーザPVの方向DPに直交する。   For example, as shown in FIGS. 13A and 13B, the positions PS1 and PS2 are set to positions that maintain a relative positional relationship with respect to the position PP and the direction DP of the virtual user PV. Specifically, as shown in FIG. 14, PS1 and PS2 are set at the same distance DE from the position PP at a position on the line LLR connecting the left ear EL and the right ear ER. For example, the line LLR is orthogonal to the direction DP of the virtual user PV.

そして本実施形態では、位置PS1に仮想スピーカVS1が設定されるように、位置P1、P2、P3のスピーカSP1、SP2、SP3(第1のスピーカ群)の音量バランスを調整する。   In this embodiment, the volume balance of the speakers SP1, SP2, and SP3 (first speaker group) at the positions P1, P2, and P3 is adjusted so that the virtual speaker VS1 is set at the position PS1.

例えば図14において、スピーカSP1、SP2の位置P1、P2を結ぶ線をL12とし、仮想スピーカVS1の位置PS1から線L12に下ろした垂線との交点をPS1Yとする。そして位置P1と交点PS1Yとの距離をY1とし、位置P2と交点PS1Yとの距離をY2とする。またスピーカSP2、SP3の位置P2、P3を結ぶ線をL23とし、仮想スピーカVS1の位置PS1から線L23に下ろした垂線との交点をPS1Xとする。そして位置P2と交点PS1Xとの距離をX2とし、位置P3と交点PS1Xとの距離をX3とする。   For example, in FIG. 14, a line connecting the positions P1 and P2 of the speakers SP1 and SP2 is L12, and an intersection with a perpendicular line from the position PS1 of the virtual speaker VS1 to the line L12 is PS1Y. The distance between the position P1 and the intersection PS1Y is Y1, and the distance between the position P2 and the intersection PS1Y is Y2. Further, a line connecting the positions P2 and P3 of the speakers SP2 and SP3 is L23, and an intersection with a perpendicular line from the position PS1 of the virtual speaker VS1 to the line L23 is PS1X. The distance between the position P2 and the intersection PS1X is X2, and the distance between the position P3 and the intersection PS1X is X3.

この場合に、距離Y1、Y2に基づいてスピーカSP1、SP2の音量バランスを調整し、距離X2、X3に基づいてスピーカSP2、SP3の音量バランスを調整する。例えばY1が長くなり、Y2が短くなるほど、スピーカSP1の音量を小さくし、スピーカSP2の音量を大きくする。一方、Y1が短くなり、Y2が長くなるほど、スピーカSP1の音量を大きくし、スピーカSP2の音量を小さくする。またX2が長くなり、X3が短くなるほど、スピーカSP2の音量を小さくし、スピーカSP3の音量を大きくする。一方、X2が短くなり、X3が長くなるほど、スピーカSP2の音量を大きくし、スピーカSP3の音量を小さくする。   In this case, the volume balance of the speakers SP1 and SP2 is adjusted based on the distances Y1 and Y2, and the volume balance of the speakers SP2 and SP3 is adjusted based on the distances X2 and X3. For example, as Y1 becomes longer and Y2 becomes shorter, the volume of the speaker SP1 is reduced and the volume of the speaker SP2 is increased. On the other hand, as Y1 becomes shorter and Y2 becomes longer, the volume of speaker SP1 is increased and the volume of speaker SP2 is decreased. Further, as X2 becomes longer and X3 becomes shorter, the volume of the speaker SP2 is reduced and the volume of the speaker SP3 is increased. On the other hand, as X2 becomes shorter and X3 becomes longer, the volume of speaker SP2 is increased and the volume of speaker SP3 is decreased.

また本実施形態では、位置PS2に仮想スピーカVS2が設定されるように、位置P3、P3、P4のスピーカSP2、SP3、SP4(第2のスピーカ群)の音量バランスを調整する。   In the present embodiment, the volume balance of the speakers SP2, SP3, SP4 (second speaker group) at the positions P3, P3, P4 is adjusted so that the virtual speaker VS2 is set at the position PS2.

例えば図14において、スピーカSP3、SP4の位置P3、P4を結ぶ線をL34とし、仮想スピーカVS2の位置PS2から線L34に下ろした垂線との交点をPS2Yとする。そして位置P3と交点PS2Yとの距離をY3とし、位置P4と交点PS2Yとの距離をY4とする。またスピーカSP4、SP1の位置P4、P1を結ぶ線をL41とし、仮想スピーカVS2の位置PS2から線L41に下ろした垂線との交点をPS2Xとする。そして位置P4と交点PS2Xとの距離をX4とし、位置P1と交点PS2Xとの距離をX1とする。   For example, in FIG. 14, a line connecting the positions P3 and P4 of the speakers SP3 and SP4 is L34, and an intersection with a perpendicular line from the position PS2 of the virtual speaker VS2 to the line L34 is PS2Y. The distance between the position P3 and the intersection PS2Y is Y3, and the distance between the position P4 and the intersection PS2Y is Y4. Further, a line connecting the positions P4 and P1 of the speakers SP4 and SP1 is L41, and an intersection with a perpendicular line from the position PS2 of the virtual speaker VS2 to the line L41 is PS2X. The distance between the position P4 and the intersection PS2X is X4, and the distance between the position P1 and the intersection PS2X is X1.

この場合に、距離Y3、Y4に基づいてスピーカSP3、SP4の音量バランスを調整し、距離X4、X1に基づいてスピーカSP4、SP1の音量バランスを調整する。例えばY3が長くなり、Y4が短くなるほど、スピーカSP3の音量を小さくし、スピーカSP4の音量を大きくする。一方、Y3が短くなり、Y4が長くなるほど、スピーカSP3の音量を大きくし、スピーカSP4の音量を小さくする。またX4が長くなり、X1が短くなるほど、スピーカSP4の音量を小さくし、スピーカSP1の音量を大きくする。一方、X4が短くなり、X1が長くなるほど、スピーカSP4の音量を大きくし、スピーカSP1の音量を小さくする。以上のようにすることで、位置PS1、PS2に仮想スピーカVS1、VS2を定位させることができる。   In this case, the volume balance of the speakers SP3 and SP4 is adjusted based on the distances Y3 and Y4, and the volume balance of the speakers SP4 and SP1 is adjusted based on the distances X4 and X1. For example, as Y3 becomes longer and Y4 becomes shorter, the volume of the speaker SP3 is decreased and the volume of the speaker SP4 is increased. On the other hand, as Y3 becomes shorter and Y4 becomes longer, the volume of speaker SP3 is increased and the volume of speaker SP4 is decreased. Further, as X4 becomes longer and X1 becomes shorter, the volume of speaker SP4 is decreased and the volume of speaker SP1 is increased. On the other hand, as X4 becomes shorter and X1 becomes longer, the volume of speaker SP4 is increased and the volume of speaker SP1 is decreased. As described above, the virtual speakers VS1 and VS2 can be localized at the positions PS1 and PS2.

図15(A)、図15(B)はバイノーラル録音についての説明図である。図15(A)に示すように、例えば人間の頭部の音響効果を再現するダミーヘッドDMHが用意され、ダミーヘッドDMHの周囲に複数の音源が配置される。またダミーヘッドDMHの左耳、右耳の位置にマイクMCL、MCRが設置される。そして、これらの複数の音源からの音をマイクMCL、MCRを用いて録音する。このようにして録音された音を、図15(B)に示すようにヘッドホンHDPの左スピーカHDL、右スピーカHDRから出力することで、その場に居合わせたかのような臨場感のある音を再現できる。このようなバイノーラル録音に対応する音を、コンピュータ演算処理によりシミュレートする。例えばダミーヘッドDMHに対応するモデル(モデルオブジェクト)を用意する。そして仮想空間内の仮想音源から、当該モデルの左耳、右耳に届く音波に加えて、モデルの耳たぶや体の各部によって回折、反射する音波を重ね合わせる音のシミュレーション処理を行って、バイノーラル音源の音を生成する。そして、バイノーラル音源による左チャンネルの音を、図13(A)の仮想スピーカVS1から出力させ、バイノーラル音源による右チャンネルの音を仮想スピーカVS2から出力させる。具体的には上述のような音量バランス調整を行った上で、仮想スピーカVS1に対応する第1のスピーカ群から、バイノーラル音源による左チャンネルの音を出力させ、仮想スピーカVS2に対応する第2のスピーカ群から、バイノーラル音源による右チャンネルの音を出力させる。こうすることで、現実世界に非常に近いリアルで臨場感のある音場の生成が可能になる。   FIGS. 15A and 15B are explanatory diagrams of binaural recording. As shown in FIG. 15A, for example, a dummy head DMH that reproduces the acoustic effect of a human head is prepared, and a plurality of sound sources are arranged around the dummy head DMH. Microphones MCL and MCR are installed at the positions of the left and right ears of the dummy head DMH. And the sound from these several sound sources is recorded using microphone MCL and MCR. The sound recorded in this way is output from the left speaker HDL and the right speaker HDR of the headphone HDP as shown in FIG. 15B, so that a sound with a sense of presence can be reproduced as if it were present. . Sound corresponding to such binaural recording is simulated by computer calculation processing. For example, a model (model object) corresponding to the dummy head DMH is prepared. Then, in addition to the sound waves that reach the left and right ears of the model from the virtual sound source in the virtual space, a simulation process of the sound that superimposes the sound waves that are diffracted and reflected by each part of the model's earlobe and body is performed to obtain a binaural sound source Generate sound. Then, the left channel sound from the binaural sound source is output from the virtual speaker VS1 in FIG. 13A, and the right channel sound from the binaural sound source is output from the virtual speaker VS2. Specifically, after performing the volume balance adjustment as described above, the left channel sound by the binaural sound source is output from the first speaker group corresponding to the virtual speaker VS1, and the second speaker corresponding to the virtual speaker VS2 is output. The right channel sound from the binaural sound source is output from the speaker group. By doing so, it is possible to generate a realistic and realistic sound field that is very close to the real world.

2.5 サラウンド
図16(A)、図16(B)は、仮想スピーカの個数を増やして、仮想ユーザPV(ユーザ)の移動に追従するサラウンド音響を実現する手法の説明図である。
2.5 Surround FIGS. 16A and 16B are explanatory diagrams of a technique for realizing surround sound that increases the number of virtual speakers and follows the movement of the virtual user PV (user).

図16(A)、図16(B)では、仮想ユーザPVの周囲を囲むように例えば4個の仮想スピーカVS1、VS2、VS3、VS4が設定されている。そして図16(A)、図16(B)に示すように、仮想ユーザPVの位置PP、方向DPが変化しても、仮想ユーザPVに対して所定の相対的位置関係を保って追従する位置PS1、PS2、PS3、PS4(第1〜第Nの位置)に対して、仮想スピーカVS1、VS2、VS3、VS4(第1〜第Nの仮想スピーカ)が設定されている。例えば仮想スピーカVS1は、第1のスピーカ群(SP4、SP1、SP2)の音量バランス調整により設定され、仮想スピーカVS2は、第2のスピーカ群(SP1、SP2、SP3)の音量バランス調整により設定される。仮想スピーカVS3は、第3のスピーカ群(SP2、SP3、SP4)の音量バランス調整により設定され、仮想スピーカVS4は、第4のスピーカ群(SP3、SP4、SP1)の音量バランス調整により設定される。   In FIG. 16A and FIG. 16B, for example, four virtual speakers VS1, VS2, VS3, and VS4 are set to surround the virtual user PV. As shown in FIGS. 16A and 16B, even if the position PP and the direction DP of the virtual user PV change, the position that follows the virtual user PV while maintaining a predetermined relative positional relationship. Virtual speakers VS1, VS2, VS3, and VS4 (first to Nth virtual speakers) are set for PS1, PS2, PS3, and PS4 (first to Nth positions). For example, the virtual speaker VS1 is set by adjusting the volume balance of the first speaker group (SP4, SP1, SP2), and the virtual speaker VS2 is set by adjusting the volume balance of the second speaker group (SP1, SP2, SP3). The The virtual speaker VS3 is set by adjusting the volume balance of the third speaker group (SP2, SP3, SP4), and the virtual speaker VS4 is set by adjusting the volume balance of the fourth speaker group (SP3, SP4, SP1). .

なお、各仮想スピーカを設定する各スピーカ群は、仮想ユーザPVの位置PP等に基づいて変化させることができる。また図16(A)、図16(B)では、サラウンド音響の実現のために、4個の仮想スピーカを設定しているが、本実施形態はこれに限定されない。サラウンド音響の実現には、少なくとも3個以上の仮想スピーカを設定すればよく、仮想スピーカの個数は任意である。例えば2個のフロントの仮想スピーカと1個のセンターの仮想スピーカというように、合計で3個の仮想スピーカで実現してもよいし、これらの3個の仮想スピーカに対して、2個のリアの仮想スピーカを加えて、合計で5個の仮想スピーカで実現してもよい。また仮想ユーザPVに対して任意の位置に仮想スピーカを設定できることは、図14から明らかであるため、図16(A)、図16(B)の仮想スピーカVS1〜VS4の設定の詳細な説明については省略する。   In addition, each speaker group which sets each virtual speaker can be changed based on position PP etc. of virtual user PV. In FIG. 16A and FIG. 16B, four virtual speakers are set in order to realize surround sound, but this embodiment is not limited to this. In order to realize surround sound, at least three or more virtual speakers may be set, and the number of virtual speakers is arbitrary. For example, a total of three virtual speakers, such as two front virtual speakers and one center virtual speaker, may be realized, or two rear speakers may be provided for these three virtual speakers. These virtual speakers may be added to realize a total of five virtual speakers. Since it is clear from FIG. 14 that a virtual speaker can be set at an arbitrary position for the virtual user PV, a detailed description of the setting of the virtual speakers VS1 to VS4 in FIGS. 16A and 16B is provided. Is omitted.

図16(A)、図16(B)の手法によれば、例えば図9(A)〜図10のようにユーザPLの位置PPL、方向DPLが変化し、これに応じて仮想ユーザPVの位置PP、方向DPが変化しても、その変化に追従するようにサラウンド用の仮想スピーカVS1〜VS4が設定される。即ち、サラウンド用の仮想スピーカVS1〜VS4は、仮想ユーザPVの位置PP、方向DPが変化した場合にも、仮想ユーザPVに対して所定の相対的位置関係を保って追従する。例えば図16(A)、図16(B)では、仮想ユーザPVに対して、仮想スピーカVS1、VS2、VS3、VS4は、各々、左斜め前、左斜め後ろ、右斜め後ろ、右斜め前の位置に固定される。従って、常に正しい向きの適正な音場のサラウンド音響を実現できるようになる。   16A and 16B, for example, the position PPL and the direction DPL of the user PL change as shown in FIGS. 9A to 10, and the position of the virtual user PV is changed accordingly. Even if the PP and the direction DP change, the surround virtual speakers VS1 to VS4 are set so as to follow the change. That is, the surround virtual speakers VS1 to VS4 follow the virtual user PV while maintaining a predetermined relative positional relationship even when the position PP and the direction DP of the virtual user PV change. For example, in FIG. 16A and FIG. 16B, the virtual speakers VS1, VS2, VS3, and VS4 are respectively left diagonally forward, diagonally left backward, diagonally right backward, and diagonally forward right for the virtual user PV. Fixed in position. Therefore, it is possible to realize surround sound with an appropriate sound field always in the correct direction.

2.6 仮想音源による音場形成
本実施形態では、仮想スピーカの位置の情報と仮想音源の位置の情報とに基づいて、仮想スピーカの音量バランス調整を行うことで、仮想音源による音場の形成処理を行っている。図17、図18は、このような仮想スピーカによる仮想音源の音場形成手法について説明する図である。
2.6 Sound Field Formation by Virtual Sound Source In this embodiment, the sound field is formed by the virtual sound source by adjusting the volume balance of the virtual speaker based on the position information of the virtual speaker and the position information of the virtual sound source. Processing is in progress. FIGS. 17 and 18 are diagrams for explaining a method of forming a sound field of a virtual sound source using such a virtual speaker.

図17では、仮想空間内の位置PR1、PR2に仮想音源SR1、SR2が設定されている。これらの仮想音源SR1、R2は、例えば後述するような仮想空間内の観客、演奏者等による音の発生源である。本実施形態では、これらの仮想音源SR1、SR2による音場を、仮想スピーカVS1〜VS4を用いて形成する。これらの仮想スピーカVS1〜VS4は、図16(A)、図16(B)に示すように、仮想ユーザPVの位置PP、方向DPが変化した場合にも、仮想ユーザPVに対して所定の相対的位置関係を保って追従する。   In FIG. 17, virtual sound sources SR1 and SR2 are set at positions PR1 and PR2 in the virtual space. These virtual sound sources SR1 and R2 are sources of sound generated by, for example, a spectator, a player, etc. in a virtual space as will be described later. In this embodiment, the sound field by these virtual sound sources SR1 and SR2 is formed using the virtual speakers VS1 to VS4. As shown in FIGS. 16A and 16B, these virtual speakers VS1 to VS4 have a predetermined relative relation to the virtual user PV even when the position PP and the direction DP of the virtual user PV change. Follow the target position.

例えば本実施形態では、仮想音源SR1による音場形成を、仮想スピーカVS1、VS2、VS3の音量バランス調整により実現している。   For example, in the present embodiment, sound field formation by the virtual sound source SR1 is realized by adjusting the volume balance of the virtual speakers VS1, VS2, and VS3.

例えば図18において、仮想スピーカVS1、VS2の位置PS1、PS2を結ぶ線をLS12とし、仮想音源SR1の位置PR1から線LS12に下ろした垂線との交点をPR1Yとする。そして位置PS1と交点PR1Yとの距離をY1Rとし、位置PS2と交点PR1Yとの距離をY2Rとする。また仮想スピーカVS2、VS3の位置PS2、PS3を結ぶ線をLS23とし、仮想音源SR1の位置PR1から線LS23に下ろした垂線との交点をPR1Xとする。そして位置PS2と交点PR1Xとの距離をX2Rとし、位置PS3と交点PR1Xとの距離をX3Rとする。   For example, in FIG. 18, a line connecting the positions PS1 and PS2 of the virtual speakers VS1 and VS2 is LS12, and an intersection with a perpendicular line from the position PR1 of the virtual sound source SR1 to the line LS12 is PR1Y. The distance between the position PS1 and the intersection PR1Y is Y1R, and the distance between the position PS2 and the intersection PR1Y is Y2R. Also, a line connecting the positions PS2 and PS3 of the virtual speakers VS2 and VS3 is LS23, and an intersection with a perpendicular line from the position PR1 of the virtual sound source SR1 to the line LS23 is PR1X. The distance between the position PS2 and the intersection PR1X is X2R, and the distance between the position PS3 and the intersection PR1X is X3R.

この場合に本実施形態では、距離Y1R、Y2Rに基づいて仮想スピーカVS1、VS2の音量バランスを調整し、距離X2R、X3Rに基づいて仮想スピーカVS2、VS3の音量バランスを調整することで、仮想音源SR1を位置PR1に定位させる。例えばY1Rが長くなり、Y2Rが短くなるほど、仮想スピーカVS1の音量を小さくし、仮想スピーカVS2の音量を大きくする。一方、Y1Rが短くなり、Y2Rが長くなるほど、仮想スピーカVS1の音量を大きくし、仮想スピーカVS2の音量を小さくする。またX2Rが長くなり、X3Rが短くなるほど、仮想スピーカVS2の音量を小さくし、仮想スピーカVS3の音量を大きくする。一方、X2Rが短くなり、X3Rが長くなるほど、仮想スピーカVS2の音量を大きくし、仮想スピーカVS3の音量を小さくする。このようにして仮想音源SR1が位置PR1に定位した音場を形成できる。   In this case, in the present embodiment, the volume balance of the virtual speakers VS1 and VS2 is adjusted based on the distances Y1R and Y2R, and the volume balance of the virtual speakers VS2 and VS3 is adjusted based on the distances X2R and X3R. SR1 is localized at position PR1. For example, as Y1R becomes longer and Y2R becomes shorter, the volume of the virtual speaker VS1 is decreased and the volume of the virtual speaker VS2 is increased. On the other hand, as Y1R becomes shorter and Y2R becomes longer, the volume of the virtual speaker VS1 is increased and the volume of the virtual speaker VS2 is decreased. As X2R becomes longer and X3R becomes shorter, the volume of the virtual speaker VS2 is reduced and the volume of the virtual speaker VS3 is increased. On the other hand, as X2R becomes shorter and X3R becomes longer, the volume of the virtual speaker VS2 is increased and the volume of the virtual speaker VS3 is decreased. In this way, a sound field in which the virtual sound source SR1 is localized at the position PR1 can be formed.

また仮想音源SR2による音場形成は、例えば仮想スピーカVS3、VS4、VS1の音量バランス調整により実現できる。この場合に仮想音源SR2を位置PR2に定位させる音場形成は、仮想音源SR1の場合と同様の手法により実現できるため、詳細な説明は省略する。なお各仮想音源を設定する各仮想スピーカ群は、各仮想音源の位置等に基づいて変化させることができる。   The sound field formation by the virtual sound source SR2 can be realized by adjusting the volume balance of the virtual speakers VS3, VS4, and VS1, for example. In this case, the sound field formation for locating the virtual sound source SR2 to the position PR2 can be realized by the same method as in the case of the virtual sound source SR1, and thus detailed description thereof is omitted. Each virtual speaker group for setting each virtual sound source can be changed based on the position of each virtual sound source.

以上のように本実施形態では、スピーカSP1〜SP4(第1〜第Mのスピーカ)が配置される実空間において移動するユーザPLの位置PPL、方向DPLの情報を取得する。そして図9(A)〜図10のような実空間でのユーザPLの位置PPL、方向DPLの変化に伴い、ユーザPLに対応する仮想ユーザPVの仮想空間での位置PP、方向DPが変化したとする。この場合に、例えば図16(A)、図16(B)や図13(A)〜図14等で説明したように、仮想ユーザPVに対して所定の相対的位置関係を保って追従する位置PS1〜PS4(第1〜第Nの位置)に対して、仮想スピーカVS1〜VS4(第1〜第Nの仮想スピーカ)を設定する。これらの仮想スピーカVS1〜VS4は、スピーカSP1〜SP4の音量バランス調整を行うことで設定される。そして図17に示す仮想空間内の仮想音源SR1、SR2による音場の形成処理を、仮想スピーカVS1〜VS4を用いて行う。具体的には図18で説明したように、仮想スピーカVS1〜VS4の位置PS1〜PS4の情報と仮想音源SR1、SR2の位置PR1、PR2の情報とに基づいて、仮想スピーカVS1〜VS4の音量バランス調整を行うことで、仮想音源SR1、SR2による音場の形成処理を行う。   As described above, in the present embodiment, information on the position PPL and the direction DPL of the user PL moving in the real space where the speakers SP1 to SP4 (first to Mth speakers) are arranged is acquired. Then, the position PP and the direction DP in the virtual space of the virtual user PV corresponding to the user PL are changed along with the change in the position PPL and the direction DPL of the user PL in the real space as shown in FIGS. And In this case, for example, as described in FIG. 16A, FIG. 16B, FIG. 13A to FIG. 14, etc., a position that follows the virtual user PV while maintaining a predetermined relative positional relationship. Virtual speakers VS1 to VS4 (first to Nth virtual speakers) are set for PS1 to PS4 (first to Nth positions). These virtual speakers VS1 to VS4 are set by adjusting the volume balance of the speakers SP1 to SP4. Then, sound field formation processing by the virtual sound sources SR1 and SR2 in the virtual space shown in FIG. 17 is performed using the virtual speakers VS1 to VS4. Specifically, as described in FIG. 18, the volume balance of the virtual speakers VS1 to VS4 is based on the information on the positions PS1 to PS4 of the virtual speakers VS1 to VS4 and the information on the positions PR1 and PR2 of the virtual sound sources SR1 and SR2. By performing the adjustment, a sound field forming process is performed by the virtual sound sources SR1 and SR2.

このように本実施形態では、仮想空間内に単に仮想スピーカを定位させるのではなく、仮想ユーザに対して所定の相対的位置関係を保って追従する位置(PS1〜PS4)に仮想スピーカ(VS1〜VS4)を設定している。即ちユーザの位置、方向が変化して、仮想ユーザの位置、方向が変化しても、当該相対的位置関係については維持されるように、仮想スピーカを追従させる。そして、このように仮想ユーザに対して追従する複数の仮想スピーカを用いて、仮想空間に登場する仮想音源の音場を形成する。このようにすることで、例えばゲームなどにおいて様々な位置に様々な態様で出現する仮想音源(観客、演奏者、爆発等)についての音場を、ユーザの位置や方向の変化に依存せずに、正確に形成することが可能になる。即ち、ユーザの位置や方向が変化した場合にも、仮想音源についての適正(正確)な音場を形成することが可能になり、これまでにないシミュレーションシステムの実現が可能になる。   As described above, in this embodiment, the virtual speakers are not simply localized in the virtual space, but the virtual speakers (VS1 to VS1) are positioned at positions (PS1 to PS4) that follow the virtual user while maintaining a predetermined relative positional relationship. VS4) is set. That is, even if the position and direction of the user change and the position and direction of the virtual user change, the virtual speaker is caused to follow so that the relative positional relationship is maintained. And the sound field of the virtual sound source which appears in virtual space is formed using a plurality of virtual speakers which follow a virtual user in this way. In this way, for example, the sound field of a virtual sound source (audience, performer, explosion, etc.) appearing in various forms at various positions in a game or the like can be made independent of changes in the position and direction of the user. It becomes possible to form accurately. That is, even when the position or direction of the user changes, it is possible to form an appropriate (accurate) sound field for the virtual sound source, and an unprecedented simulation system can be realized.

また本実施形態では、図13(A)〜図14で説明したように、少なくとも3個のスピーカ(SP1、SP2、SP3)を含む第1のスピーカ群に、左チャンネル(広義には第1のチャンネル)の音を出力させ、少なくとも3個のスピーカ(SP2、SP3、SP4)を含む第2のスピーカ群に、右チャンネル(広義には第2のチャンネル)の音を出力させている。そして仮想ユーザPVの左耳ELの位置に仮想スピーカVS1が設定されるように、第1のスピーカ群の音量バランス調整を行う。また仮想ユーザPVの右耳ERの位置に仮想スピーカVS2が設定されるように、第2のスピーカ群の音量バランス調整を行う。こうすることで、仮想的なヘッドホンの左スピーカから左チャンネルの音を出力し、仮想的なヘッドホンの右スピーカから右チャンネルの音を出力するようなステレオ効果を実現できる。そして、これらの第1、第2のスピーカ群に、バイノーラル音源による音を出力させることで、更にリアルで臨場感のある立体音響の実現が可能になる。   In this embodiment, as described with reference to FIGS. 13A to 14, the first speaker group including at least three speakers (SP1, SP2, SP3) is connected to the left channel (first in a broad sense). (Channel) sound is output, and the right channel (second channel in a broad sense) sound is output to the second speaker group including at least three speakers (SP2, SP3, SP4). Then, the volume balance of the first speaker group is adjusted so that the virtual speaker VS1 is set at the position of the left ear EL of the virtual user PV. Further, the volume balance of the second speaker group is adjusted so that the virtual speaker VS2 is set at the position of the right ear ER of the virtual user PV. By doing so, it is possible to realize a stereo effect in which the left channel sound is output from the left speaker of the virtual headphone and the right channel sound is output from the right speaker of the virtual headphone. Then, by making the first and second speaker groups output sound from a binaural sound source, it is possible to realize more realistic and realistic three-dimensional sound.

また本実施形態では図19に示すように、実空間のユーザPLには移動可能範囲ARMが設定されている。ユーザPLは、この移動可能範囲ARMにおいて自由に移動しながら、シミュレーションシステムにより生成される音や画像を観て楽しむことができる。そして、この移動可能範囲ARMに対応する位置に、仮想スピーカを実現するためのスピーカSP1〜SP4(第1〜第Mのスピーカ)が配置されている。例えば図19では、移動可能範囲ARMの周囲にスピーカSP1〜SP4が配置されている。即ち、ユーザPLの周囲を囲むようにスピーカSP1〜SP4が配置されている。なお移動可能範囲ARMの中にこれらのスピーカの一部を配置することも可能である。   In the present embodiment, as shown in FIG. 19, a movable range ARM is set for the user PL in the real space. The user PL can watch and enjoy the sounds and images generated by the simulation system while freely moving in the movable range ARM. And speaker SP1-SP4 (1st-Mth speaker) for implement | achieving a virtual speaker is arrange | positioned in the position corresponding to this movable range ARM. For example, in FIG. 19, speakers SP1 to SP4 are arranged around the movable range ARM. That is, speakers SP1 to SP4 are arranged so as to surround the user PL. A part of these speakers can be arranged in the movable range ARM.

本実施形態では、このように設定された移動可能範囲ARMにおいてユーザPLが自由に移動して、その位置や方向が変化した場合にも、その位置や方向の変化に依存せずに、適正(正確)な音場を形成することが可能になる。例えばユーザPLに対応する仮想ユーザが移動する仮想空間において発生する種々の仮想音源の音場を、リアルに正確に再現できるようになり、これまでにないシミュレーションシステムの実現が可能になる。   In the present embodiment, even when the user PL freely moves in the movable range ARM set in this way and changes its position and direction, it does not depend on the change of the position and direction. (Accurate) sound field can be formed. For example, the sound field of various virtual sound sources generated in a virtual space in which a virtual user corresponding to the user PL moves can be accurately and accurately reproduced, and an unprecedented simulation system can be realized.

また本実施形態では、ユーザに対応する仮想ユーザの視点から見える画像の表示処理が行われる。具体的には、図6、図7に示すように当該仮想ユーザが表示されない一人称視点での画像の表示処理が行われる。このような一人称視点の画像を表示することで、ユーザは、あたかも仮想空間の中に入り込んだかのような仮想現実を感じながら、ゲーム等をプレイすることになる。例えば本実施形態では、実世界でのユーザが移動するなどして、その位置、方向が変化すると、仮想空間の仮想ユーザの位置、方向が変化するため、その仮想ユーザがあたかも自分自身であるかのような感覚になる。そしてこの場合に本実施形態では、この仮想ユーザの位置、方向の変化に対して所定の相対的位置関係を保って仮想スピーカが追従し、当該仮想スピーカにより、仮想空間内の仮想音源の音場形成の処理が行われる。従って、ユーザは、図19のような実空間でのスピーカSP1〜SP4の存在を感じることなく、正確に形成された音場で、VRの世界に没入することが可能になる。   Further, in the present embodiment, an image display process that is visible from the viewpoint of the virtual user corresponding to the user is performed. Specifically, as shown in FIGS. 6 and 7, an image display process is performed from a first-person viewpoint in which the virtual user is not displayed. By displaying such an image of the first person viewpoint, the user plays a game or the like while feeling the virtual reality as if entering the virtual space. For example, in the present embodiment, when the user in the real world moves and changes its position and direction, the position and direction of the virtual user in the virtual space changes. It feels like In this case, in this embodiment, the virtual speaker follows a change in the position and direction of the virtual user while maintaining a predetermined relative positional relationship, and the sound field of the virtual sound source in the virtual space is detected by the virtual speaker. A forming process is performed. Therefore, the user can immerse in the VR world with an accurately formed sound field without feeling the presence of the speakers SP1 to SP4 in the real space as shown in FIG.

また本実施形態では図19に示すように、ユーザPLが装着するHMDに画像を表示するための処理が行われる。このように視界を覆うHMDをユーザPLが装着するシミュレーションシステムにおいては、実世界のスピーカSP1〜SP4の存在感が消えて、仮想スピーカによる正確な音場が形成できる本実施形態の手法は、特に有効になる。そしてこのようにユーザPLがHMDを装着して移動する場合には、HMDに設けられたセンサ部からの情報に基づいて、ユーザの位置、方向の情報を取得できる。そして、取得されたユーザの位置、方向に基づき仮想ユーザの位置、方向を特定し、当該仮想ユーザに追従する仮想スピーカを設定して、リアルな音場が形成できるようになる。   Further, in the present embodiment, as shown in FIG. 19, a process for displaying an image on the HMD worn by the user PL is performed. In the simulation system in which the user PL wears the HMD that covers the field of vision in this way, the presence of the real-world speakers SP1 to SP4 disappears, and the method of the present embodiment that can form an accurate sound field by the virtual speaker is particularly validate. When the user PL moves while wearing the HMD as described above, information on the position and direction of the user can be acquired based on information from a sensor unit provided in the HMD. Then, based on the acquired position and direction of the user, the position and direction of the virtual user are specified, a virtual speaker that follows the virtual user is set, and a realistic sound field can be formed.

また本実施形態では、仮想空間での仮想音源による音の発生状況を再現する画像の表示処理を行う。   In the present embodiment, an image display process for reproducing the sound generation state by the virtual sound source in the virtual space is performed.

例えば図20では、仮想ユーザPV(ユーザ)が、仮想空間内の観客ADA、ADB、ADCに対して呼びかけを行っている。例えばその視線VLPを観客ADA、ADB、ADCに向けて呼びかけを行っている。これは、例えばユーザが観客ADA、ADB、ADCの方に視線VLPを向けて、図2(A)のマイク162に呼びかけの音声を入力することで実現される。このように呼びかけの音声が入力されると、これに対応して観客ADA、ADB、ADCが歓声や拍手などを行う。即ち応答音声や応答音が発生する。この場合に、観客ADA、ADB、ADCが仮想空間での仮想音源に相当し、歓声や拍手などの応答音声や応答音が、仮想音源から発生する音になる。このように本実施形態では、観客である仮想音源から音が発生する状況を再現する画像が表示される。   For example, in FIG. 20, the virtual user PV (user) is calling on the audience ADA, ADB, and ADC in the virtual space. For example, the line of sight VLP is called toward the audience ADA, ADB, and ADC. This is realized, for example, when the user directs the line of sight VLP toward the audience ADA, ADB, and ADC and inputs the calling voice to the microphone 162 in FIG. When the call voice is input in this way, the audience ADA, ADB, ADC perform cheers or applause in response to the input. That is, a response voice or a response sound is generated. In this case, the audience ADA, ADB, and ADC correspond to virtual sound sources in the virtual space, and response sounds and response sounds such as cheers and applause are sounds generated from the virtual sound sources. As described above, in this embodiment, an image that reproduces a situation in which sound is generated from the virtual sound source that is the audience is displayed.

そして例えば図21(A)では、仮想ユーザPV(ユーザ)が、正面の観客ADA〜ADCの方に視線VLPを向けて呼びかけを行っており、これに対応して正面の観客ADA〜ADCが歓声や拍手などを行っている。一方、図21(B)では、仮想ユーザPVが、右側の観客ADD〜ADFの方に視線VLPを向けて呼びかけを行っており、これに対応して右側の観客ADD〜ADFが歓声や拍手などを行っている。このように本実施形態では、仮想ユーザPVの視線VLPの向きに対応する場所の仮想音源から音が発生しており、仮想音源による音の発生状況がリアルタイムに変化している。   For example, in FIG. 21 (A), the virtual user PV (user) makes a call with the line of sight VLP toward the front audience ADA to ADC, and the front audience ADA to ADC responds to this. And doing applause. On the other hand, in FIG. 21B, the virtual user PV is calling with the line of sight VLP toward the audience ADD to DF on the right side, and the audience ADD to DF on the right side is cheering or applauding in response to this. It is carried out. As described above, in the present embodiment, sound is generated from the virtual sound source at the location corresponding to the direction of the line of sight VLP of the virtual user PV, and the sound generation state by the virtual sound source is changed in real time.

また図22(A)では、仮想ユーザPVがステージSGに立って、歌の演奏を行っている。観客席SE1には図21(A)で説明したような観客ADA〜ADCが配置され、観客席SE2には図21(B)で説明したような観客ADD〜ADFが配置されている。そして仮想ユーザPVの後ろには、バンドの演奏用のステージSGBが設定されており、ギタリストGTやドラマーDRが、ギター演奏やドラム演奏を行っている。この場合に、観客ADA〜ADC、ADD〜ADFに加えて、ギタリストGTやドラマーDRも、仮想空間内の仮想音源になり、本実施形態では、これらの仮想音源による音の発生状況を再現する画像が生成される。具体的には例えば図22(A)、図22(B)のように、演奏ステージSGB上でギタリストGTが移動すると、この移動の様子を示す画像が表示される。またギタリストGTの移動に伴い、対応するギター演奏の仮想音源も移動する。   In FIG. 22A, the virtual user PV stands on the stage SG and performs a song. The spectators ADA to ADC as described in FIG. 21A are arranged in the spectator seat SE1, and the spectators ADD to ADF as described in FIG. 21B are arranged in the spectator seat SE2. A band performance stage SGB is set behind the virtual user PV, and a guitarist GT and a drummer DR perform a guitar performance and a drum performance. In this case, in addition to the audiences ADA to ADC and ADD to ADF, the guitarist GT and the drummer DR also become virtual sound sources in the virtual space, and in this embodiment, an image that reproduces the sound generation state by these virtual sound sources. Is generated. Specifically, for example, as shown in FIGS. 22A and 22B, when the guitarist GT moves on the performance stage SGB, an image showing the movement is displayed. As the guitarist GT moves, the corresponding virtual sound source for playing the guitar also moves.

この場合に本実施形態では、図22(A)のように仮想ユーザPVが正面の観客席SE1の方に向いていた場合には、その左後ろ方向からギター演奏が聞こえるような正確な音場を形成することができる。また図22(B)のように仮想ユーザPVが右側の観客席SE2の方を向いており、ギタリストGTが移動した場合にも、その右側方向からギター演奏が聞こえるような正確な音場を形成することができる。従って、より仮想現実感の高いVR世界の構築が可能になり、VR世界へのユーザの没入度を向上できるようになる。   In this case, in this embodiment, when the virtual user PV is facing the front audience seat SE1 as shown in FIG. 22A, an accurate sound field where the guitar performance can be heard from the left rear direction. Can be formed. Further, as shown in FIG. 22B, when the virtual user PV faces the audience seat SE2 on the right side and the guitarist GT moves, an accurate sound field is formed so that the guitar performance can be heard from the right side. can do. Therefore, it is possible to construct a VR world with higher virtual reality and improve the user's immersiveness into the VR world.

なお図23に示すように、ユーザPLがHMDを装着している場合に、HMDがその視界を覆っているため、ユーザPLがスピーカSP1に接近してしまう事態が生じる。このような事態が生じると、大音量の音がスピーカSP1から聞こえることで、スピーカSP1の存在がユーザPLに知られてしまう。即ち本実施形態では、仮想スピーカを設定することで、実世界のスピーカSP1〜SP4の存在感を消すことができる効果があるが、図23のように特定のスピーカSP1にユーザPLが接近してしまうと、当該効果が低減してしまう。   As shown in FIG. 23, when the user PL is wearing the HMD, the HMD covers the field of view, and thus a situation occurs in which the user PL approaches the speaker SP1. When such a situation occurs, the presence of the speaker SP1 is known to the user PL by hearing a loud sound from the speaker SP1. That is, in this embodiment, setting a virtual speaker has an effect of eliminating the presence of the real-world speakers SP1 to SP4, but the user PL approaches the specific speaker SP1 as shown in FIG. If it does, the said effect will reduce.

そこで本実施形態では、このように例えばスピーカSP1(第1〜第Mのスピーカのうちの第iのスピーカ)へのユーザPLの接近が検出された場合に、スピーカSP1から出力される音の音量、高周波成分及び残響の少なくとも1つを調整する処理を行う。例えばスピーカSPの音の音量を低くしたり、当該音の高周波成分を低減したり(ローパスフィルタ処理)、或いは当該音の残響(エコー成分)を大きくする処理を行って、スピーカSP1の存在感を無くす処理を行う。こうすることで、ユーザPLがスピーカSP1(或いはSP2、SP3、SP4)に接近した場合にも、その存在感を極力無くすことができる。従って、スピーカSP1の存在をユーザPLが感じることで仮想現実感が損なわれてしまうような事態の発生を防止できる。なお、スピーカへのユーザの接近の判断処理は、例えば40cmの接近、60cmの接近というように多段階に分けて行ってもよい。   Therefore, in the present embodiment, for example, when the approach of the user PL to the speaker SP1 (i-th speaker among the first to Mth speakers) is detected in this way, the volume of the sound output from the speaker SP1. Then, processing for adjusting at least one of the high-frequency component and reverberation is performed. For example, by reducing the volume of the sound of the speaker SP, reducing the high frequency component of the sound (low-pass filter processing), or increasing the reverberation (echo component) of the sound, the presence of the speaker SP1 is increased. Perform the process of elimination. By doing so, even when the user PL approaches the speaker SP1 (or SP2, SP3, SP4), the presence can be eliminated as much as possible. Therefore, it is possible to prevent the occurrence of a situation in which the virtual reality is impaired by the user PL perceiving the presence of the speaker SP1. Note that the determination process of the user's approach to the speaker may be performed in multiple stages, for example, 40 cm approach or 60 cm approach.

また本実施形態では、所定状況が発生したと判断した場合に、例えば図16(A)、図16(B)の仮想スピーカVS1〜VS4(第1〜第Nの仮想スピーカ)の設定を無効にするようにしてもよい。例えば緊急事態の発生などの所定状況が発生したと判断した場合に、仮想スピーカVS1〜VS4の設定を無効にして、仮想スピーカから仮想音が出力されないようにする。図16(A)、図16(B)を例にとれば、第1のスピーカ群(SP4、SP1、SP2)の音量バランス調整を行わないようにすることで、仮想スピーカVS1の設定を無効にできる。また第2のスピーカ群(SP1、SP2、SP3)の音量バランス調整を行わないようにすることで、仮想スピーカVS2の設定を無効にできる。同様に、第3のスピーカ群(SP2、SP3、SP4)、第4のスピーカ群(SP3、SP4、SP1)による音量バランス調整を行わないようにすることで、仮想スピーカVS3、VS4の設定を無効にできる。   In this embodiment, when it is determined that a predetermined situation has occurred, for example, the settings of the virtual speakers VS1 to VS4 (first to Nth virtual speakers) in FIGS. 16A and 16B are invalidated. You may make it do. For example, when it is determined that a predetermined situation such as the occurrence of an emergency has occurred, the settings of the virtual speakers VS1 to VS4 are invalidated so that virtual sounds are not output from the virtual speakers. Taking FIG. 16A and FIG. 16B as an example, the setting of the virtual speaker VS1 is invalidated by not adjusting the volume balance of the first speaker group (SP4, SP1, SP2). it can. Further, the setting of the virtual speaker VS2 can be invalidated by not performing the volume balance adjustment of the second speaker group (SP1, SP2, SP3). Similarly, the settings of the virtual speakers VS3 and VS4 are disabled by not performing the volume balance adjustment by the third speaker group (SP2, SP3, SP4) and the fourth speaker group (SP3, SP4, SP1). Can be.

本実施形態では、前述のように、仮想スピーカを設定することで、実空間のスピーカの存在感を無くすことが可能になる。そして仮想スピーカが設定されると、ユーザは、実世界のスピーカの位置を認識することが難しくなる。   In the present embodiment, as described above, by setting a virtual speaker, it is possible to eliminate the presence of the speaker in the real space. When the virtual speaker is set, it becomes difficult for the user to recognize the position of the speaker in the real world.

しかしながら、場合によっては、このような仮想スピーカの設定が行われない方が良いケースもあり得る。そこで本実施形態では、例えば緊急事態等の所定状況が発生した場合には、仮想スピーカの設定を無効にする。こうすることで、例えば緊急事態の発生時に、仮想スピーカの設定を無効にし、例えばドアの近くのスピーカを用いて、緊急避難時の案内を行うことが可能になる。即ち、仮想スピーカの設定が無効になっており、ドアの近くにあるスピーカの音は、そのドアの方から聞こえてくるようになる。従って、ユーザがHMDを装着したままの状態であっても、そのスピーカからの緊急避難用の案内音声を手がかりに、ドアの方に移動して退避することが可能になる。なお、仮想スピーカを無効にする所定状況は、このような緊急事態には限定されない。例えばゲームの進行上、仮想スピーカを無効にした方が良い状況が発生した場合にも、仮想スピーカの設定を無効にする処理を行うようにしてもよい。   However, in some cases, it may be better not to perform such virtual speaker settings. Therefore, in this embodiment, for example, when a predetermined situation such as an emergency situation occurs, the setting of the virtual speaker is invalidated. By doing so, for example, when an emergency situation occurs, the setting of the virtual speaker is invalidated, and it is possible to provide guidance during emergency evacuation using, for example, a speaker near the door. That is, the setting of the virtual speaker is invalid, and the sound of the speaker near the door can be heard from the door. Therefore, even when the user is wearing the HMD, the user can move to the door and evacuate using the emergency evacuation guidance voice from the speaker as a clue. Note that the predetermined situation in which the virtual speaker is disabled is not limited to such an emergency situation. For example, even when a situation in which it is better to disable the virtual speaker occurs in the course of the game, processing for invalidating the setting of the virtual speaker may be performed.

3.詳細な処理
次に本実施形態の詳細な処理例について図24のフローチャートを用いて説明する。
3. Detailed Processing Next, a detailed processing example of the present embodiment will be described with reference to the flowchart of FIG.

まずユーザの位置、方向を取得する(ステップS1)。例えばユーザが装着するHMDの位置、方向等を検出することで、ユーザの位置、方向を取得する。次に、ユーザの位置、方向に対応する各仮想スピーカを設定するためのスピーカの音量バランス調整を実行する(ステップS2)。例えば図13(A)、図13(B)、図14、図16(A)、図16(B)等で説明したような音量バランス調整を行う。そして、設定された仮想スピーカを用いて、仮想空間内の仮想音源の音場の形成処理を実行する(ステップS3)。例えば図17、図18で説明したような音場の形成処理を行って、図20〜図22(B)で説明した仮想音源による音の発生をシミュレートする。   First, the position and direction of the user are acquired (step S1). For example, the position and direction of the user are acquired by detecting the position and direction of the HMD worn by the user. Next, speaker volume balance adjustment for setting each virtual speaker corresponding to the position and direction of the user is executed (step S2). For example, the volume balance adjustment as described in FIGS. 13A, 13B, 14, 16A, 16B, and the like is performed. And the formation process of the sound field of the virtual sound source in virtual space is performed using the set virtual speaker (step S3). For example, the sound field forming process described with reference to FIGS. 17 and 18 is performed to simulate the generation of sound by the virtual sound source described with reference to FIGS.

次に、ユーザがスピーカに接近したか否かの判断を行う(ステップS4)。そして接近したと判断した場合(所定距離よりも近づいたと判断した場合)には、当該スピーカの音量、高周波成分、又は残響の調整処理を実行する(ステップS5)。即ち、図23で説明したように、当該スピーカの存在感を無くすための調整処理を実行する。   Next, it is determined whether or not the user has approached the speaker (step S4). When it is determined that the speaker is approaching (when it is determined that the speaker is closer than the predetermined distance), the volume, high-frequency component, or reverberation adjustment processing of the speaker is executed (step S5). That is, as described with reference to FIG. 23, an adjustment process for eliminating the presence of the speaker is executed.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(音入力装置、移動可能範囲、第1のチャンネル、第2のチャンネル等)と共に記載された用語(マイク、プレイエリア、左チャンネル、右チャンネル等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また仮想スピーカの設定手法、仮想音源の音場形成手法、音量バランスの調整手法、画像の表示手法や、シミュレーションシステムの構成等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲーム装置、家庭用ゲーム装置、又は多数のユーザが参加する大型アトラクションシステム等の種々のシミュレーションシステムに適用できる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, in the specification or drawings, terms (microphone, play area, left) described at least once together with different terms (sound input device, movable range, first channel, second channel, etc.) having a broader meaning or the same meaning Channel, right channel, etc.) may be replaced by their different terms anywhere in the specification or drawings. The virtual speaker setting method, virtual sound source sound field forming method, volume balance adjustment method, image display method, simulation system configuration, and the like are not limited to those described in this embodiment, and are equivalent to these. Techniques, processing, and configurations are also included in the scope of the present invention. The present invention can be applied to various games. Further, the present invention can be applied to various simulation systems such as a business game device, a home game device, or a large attraction system in which a large number of users participate.

PL ユーザ、PV 仮想ユーザ、PPL、PP 位置、DPL、DP 方向、
SP1〜SP4 スピーカ(第1〜第Mのスピーカ)、P1〜P4 位置、
VS1〜VS4 仮想スピーカ(第1〜第Nの仮想スピーカ)、
PS1〜PS4 位置(第1〜第Nの位置)、RP 中継点、AR エリア、BD 境界、
100 処理部、102 入力処理部、110 演算処理部、111 ゲーム処理部、
112 ゲーム進行処理部、113 評価処理部、114 キャラクタ処理部、
115 パラメータ処理部、116 オブジェクト空間設定部、
117 仮想カメラ制御部、118 ゲーム成績演算部、120 表示処理部、
130 音処理部、132 仮想スピーカ設定部、134 音場形成処理部、
140 出力処理部、150 撮像部、151、152 カメラ、
160(160−1、160−2) 入力装置、161 音入力装置、
162 マイク、170 記憶部、172 空間情報記憶部、174 楽曲情報記憶部、
175 音データ記憶部、176 パラメータ記憶部、178 描画バッファ、
180 情報記憶媒体、192 音出力部、194 I/F部、
195 携帯型情報記憶媒体、196 通信部、
200 HMD(頭部装着型表示装置)、201〜203 受光素子、210 センサ部、
220 表示部、231〜236 発光素子、240 処理部、260 ヘッドバンド、
280、284 ステーション、281、282、285、286 発光素子、
290、292照明器具、301〜304 壁、305 天井、306 ドア、
311〜315 防音材、330、331 フロントスピーカ、332 リアスピーカ、
333、334、リアスピーカ、335 ウーハー、
PL user, PV virtual user, PPL, PP position, DPL, DP direction,
SP1 to SP4 speakers (first to Mth speakers), P1 to P4 positions,
VS1 to VS4 virtual speakers (first to Nth virtual speakers),
PS1 to PS4 position (1st to Nth position), RP relay point, AR area, BD boundary,
100 processing units, 102 input processing units, 110 arithmetic processing units, 111 game processing units,
112 game progress processing unit, 113 evaluation processing unit, 114 character processing unit,
115 parameter processing unit, 116 object space setting unit,
117 virtual camera control unit, 118 game result calculation unit, 120 display processing unit,
130 sound processing unit, 132 virtual speaker setting unit, 134 sound field formation processing unit,
140 output processing unit, 150 imaging unit, 151, 152 camera,
160 (160-1, 160-2) input device, 161 sound input device,
162 microphone, 170 storage unit, 172 spatial information storage unit, 174 music information storage unit,
175 sound data storage unit, 176 parameter storage unit, 178 drawing buffer,
180 Information storage medium, 192 sound output unit, 194 I / F unit,
195 portable information storage medium, 196 communication unit,
200 HMD (head-mounted display device), 201-203 light receiving element, 210 sensor unit,
220 display unit, 231 to 236 light emitting element, 240 processing unit, 260 headband,
280, 284 stations, 281, 282, 285, 286 light emitting elements,
290, 292 lighting fixtures, 301-304 walls, 305 ceiling, 306 doors,
311 to 315 Soundproof material, 330, 331 Front speaker, 332 Rear speaker,
333, 334, rear speaker, 335 woofer,

Claims (17)

第1〜第M(Mは3以上の整数)のスピーカが配置される実空間において移動するユーザの位置、方向の情報を取得する入力処理部と、
前記実空間での前記ユーザの位置、方向の変化に伴い、前記ユーザに対応する仮想ユーザの仮想空間での位置、方向が変化した場合にも、前記仮想ユーザに対して所定の相対的位置関係を保って追従する第1〜第N(Nは2以上の整数)の位置に対して、前記第1〜第Mのスピーカの音量バランス調整を行うことで第1〜第Nの仮想スピーカを設定し、前記仮想空間内の仮想音源による音場の形成処理を、前記第1〜第Nの仮想スピーカを用いて行う音処理部と、
を含み、
前記音処理部は、
所定状況が発生したと判断した場合に、前記第1〜第Nの仮想スピーカの設定を無効にすることを特徴とするシミュレーションシステム。
An input processing unit for acquiring information on the position and direction of the user moving in the real space in which the first to Mth speakers (M is an integer of 3 or more) are arranged;
A predetermined relative positional relationship with respect to the virtual user even when the position and direction of the virtual user corresponding to the user change in accordance with the change of the position and direction of the user in the real space. The first to Nth virtual speakers are set by adjusting the volume balance of the first to Mth speakers with respect to the first to Nth (N is an integer of 2 or more) positions that follow the A sound processing unit that performs a sound field formation process using a virtual sound source in the virtual space using the first to Nth virtual speakers;
Only including,
The sound processing unit
A simulation system characterized by invalidating the settings of the first to Nth virtual speakers when it is determined that a predetermined situation has occurred .
第1〜第M(Mは3以上の整数)のスピーカが配置される実空間において移動するユーザの位置、方向の情報を取得する入力処理部と、
前記実空間での前記ユーザの位置、方向の変化に伴い、前記ユーザに対応する仮想ユーザの仮想空間での位置、方向が変化した場合にも、前記仮想ユーザに対して所定の相対的位置関係を保って追従する第1〜第N(Nは2以上の整数)の位置に対して、前記第1〜第Mのスピーカの音量バランス調整を行うことで第1〜第Nの仮想スピーカを設定し、前記仮想空間内の仮想音源による音場の形成処理を、前記第1〜第Nの仮想スピーカを用いて行う音処理部と、
を含み、
前記音処理部は、
前記第1〜第Nの仮想スピーカの前記第1〜第Nの位置の情報と前記仮想音源の位置の情報とに基づいて、前記第1〜第Nの仮想スピーカの音量バランス調整を行うことで、前記仮想音源による前記音場の形成処理を行うことを特徴とするシミュレーションシステム。
An input processing unit for acquiring information on the position and direction of the user moving in the real space in which the first to Mth speakers (M is an integer of 3 or more) are arranged;
A predetermined relative positional relationship with respect to the virtual user even when the position and direction of the virtual user corresponding to the user change in accordance with the change of the position and direction of the user in the real space. The first to Nth virtual speakers are set by adjusting the volume balance of the first to Mth speakers with respect to the first to Nth (N is an integer of 2 or more) positions that follow the A sound processing unit that performs a sound field formation process using a virtual sound source in the virtual space using the first to Nth virtual speakers;
Only including,
The sound processing unit
By adjusting the volume balance of the first to Nth virtual speakers based on the information of the first to Nth positions of the first to Nth virtual speakers and the information of the position of the virtual sound source. A simulation system characterized in that the sound field is formed by the virtual sound source .
第1〜第M(Mは3以上の整数)のスピーカが配置される実空間において移動するユーザの位置、方向の情報を取得する入力処理部と、
前記実空間での前記ユーザの位置、方向の変化に伴い、前記ユーザに対応する仮想ユーザの仮想空間での位置、方向が変化した場合にも、前記仮想ユーザに対して所定の相対的位置関係を保って追従する第1〜第N(Nは2以上の整数)の位置に対して、前記第1〜第Mのスピーカの音量バランス調整を行うことで第1〜第Nの仮想スピーカを設定し、前記仮想空間内の仮想音源による音場の形成処理を、前記第1〜第Nの仮想スピーカを用いて行う音処理部と、
を含み、
前記音処理部は、
前記第1〜第Mのスピーカのうちの第1のスピーカ群の位置の情報と、前記第1〜第Nの位置のうちの第1の仮想スピーカの第1の位置の情報とに基づいて、前記第1のスピーカ群の音量バランス調整を行うことで、前記第1〜第Nの仮想スピーカのうちの前記第1の仮想スピーカを設定し、
前記第1〜第Mのスピーカのうちの第2のスピーカ群の位置の情報と、前記第1〜第Nの位置のうちの第2の仮想スピーカの第2の位置の情報とに基づいて、前記第2のスピーカ群の音量バランス調整を行うことで、前記第1〜第Nの仮想スピーカのうちの前記第2の仮想スピーカを設定することを特徴とするシミュレーションシステム。
An input processing unit for acquiring information on the position and direction of the user moving in the real space in which the first to Mth speakers (M is an integer of 3 or more) are arranged;
A predetermined relative positional relationship with respect to the virtual user even when the position and direction of the virtual user corresponding to the user change in accordance with the change of the position and direction of the user in the real space. The first to Nth virtual speakers are set by adjusting the volume balance of the first to Mth speakers with respect to the first to Nth (N is an integer of 2 or more) positions that follow the A sound processing unit that performs a sound field formation process using a virtual sound source in the virtual space using the first to Nth virtual speakers;
Only including,
The sound processing unit
Based on the information on the position of the first speaker group among the first to Mth speakers and the information on the first position of the first virtual speaker among the first to Nth positions, By adjusting the volume balance of the first speaker group, the first virtual speaker among the first to Nth virtual speakers is set,
Based on the information on the position of the second speaker group among the first to Mth speakers and the information on the second position of the second virtual speaker among the first to Nth positions, The simulation system , wherein the second virtual speaker among the first to Nth virtual speakers is set by adjusting a volume balance of the second speaker group .
請求項において、
前記音処理部は、
少なくとも3個のスピーカを含む前記第1のスピーカ群に、第1のチャンネルの音を出力させ、少なくとも3個のスピーカを含む前記第2のスピーカ群に、第2のチャンネルの音を出力させることを特徴とするシミュレーションシステム。
In claim 3 ,
The sound processing unit
Causing the first speaker group including at least three speakers to output the sound of the first channel, and causing the second speaker group including at least three speakers to output the sound of the second channel. A simulation system characterized by
請求項において、
前記音処理部は、
前記仮想ユーザの左耳に対応する位置に前記第1の仮想スピーカが設定されるように、前記第1のスピーカ群の音量バランス調整を行い、前記仮想ユーザの右耳に対応する位置に前記第2の仮想スピーカが設定されるように、前記第2のスピーカ群の音量バランス調整を行うことを特徴とするシミュレーションシステム。
In claim 4 ,
The sound processing unit
The volume balance of the first speaker group is adjusted so that the first virtual speaker is set at a position corresponding to the left ear of the virtual user, and the first speaker is set at a position corresponding to the right ear of the virtual user. A simulation system, wherein volume balance adjustment of the second speaker group is performed so that two virtual speakers are set.
請求項4又は5において、
前記音処理部は、
前記第1、第2のスピーカ群に、バイノーラル音源による音を出力させることを特徴とするシミュレーションシステム。
In claim 4 or 5 ,
The sound processing unit
A simulation system characterized by causing the first and second speaker groups to output a sound from a binaural sound source.
第1〜第M(Mは3以上の整数)のスピーカが配置される実空間において移動するユーザの位置、方向の情報を取得する入力処理部と、
前記実空間での前記ユーザの位置、方向の変化に伴い、前記ユーザに対応する仮想ユーザの仮想空間での位置、方向が変化した場合にも、前記仮想ユーザに対して所定の相対的位置関係を保って追従する第1〜第N(Nは2以上の整数)の位置に対して、前記第1〜第Mのスピーカの音量バランス調整を行うことで第1〜第Nの仮想スピーカを設定し、前記仮想空間内の仮想音源による音場の形成処理を、前記第1〜第Nの仮想スピーカを用いて行う音処理部と、
を含み、
前記音処理部は、
前記第1〜第Mのスピーカのうちの第1のスピーカ群の位置の情報と、前記第1〜第Nの位置のうちの第1の仮想スピーカの第1の位置の情報とに基づいて、前記第1のスピーカ群の音量バランス調整を行うことで、前記第1〜第Nの仮想スピーカのうちの前記第1の仮想スピーカを設定し、
前記第1〜第Mのスピーカのうちの第2のスピーカ群の位置の情報と、前記第1〜第Nの位置のうちの第2の仮想スピーカの第2の位置の情報とに基づいて、前記第2のスピーカ群の音量バランス調整を行うことで、前記第1〜第Nの仮想スピーカのうちの前記第2の仮想スピーカを設定し、
前記第1〜第Mのスピーカのうちの第3のスピーカ群の位置の情報と、前記第1〜第Nの位置のうちの第3の仮想スピーカの第3の位置の情報とに基づいて、前記第3のスピーカ群の音量バランス調整を行うことで、前記第1〜第Nの仮想スピーカのうちの前記第3の仮想スピーカを設定することを特徴とするシミュレーションシステム。
An input processing unit for acquiring information on the position and direction of the user moving in the real space in which the first to Mth speakers (M is an integer of 3 or more) are arranged;
A predetermined relative positional relationship with respect to the virtual user even when the position and direction of the virtual user corresponding to the user change in accordance with the change of the position and direction of the user in the real space. The first to Nth virtual speakers are set by adjusting the volume balance of the first to Mth speakers with respect to the first to Nth (N is an integer of 2 or more) positions that follow the A sound processing unit that performs a sound field formation process using a virtual sound source in the virtual space using the first to Nth virtual speakers;
Only including,
The sound processing unit
Based on the information on the position of the first speaker group among the first to Mth speakers and the information on the first position of the first virtual speaker among the first to Nth positions, By adjusting the volume balance of the first speaker group, the first virtual speaker among the first to Nth virtual speakers is set,
Based on the information on the position of the second speaker group among the first to Mth speakers and the information on the second position of the second virtual speaker among the first to Nth positions, By adjusting the volume balance of the second speaker group, the second virtual speaker among the first to Nth virtual speakers is set,
Based on the information on the position of the third speaker group among the first to Mth speakers and the information on the third position of the third virtual speaker among the first to Nth positions, The simulation system , wherein the third virtual speaker among the first to Nth virtual speakers is set by adjusting a volume balance of the third speaker group .
請求項3乃至7のいずれかにおいて、
前記音処理部は、
前記第1〜第Nの仮想スピーカの前記第1〜第Nの位置の情報と前記仮想音源の位置の情報とに基づいて、前記第1〜第Nの仮想スピーカの音量バランス調整を行うことで、前記仮想音源による前記音場の形成処理を行うことを特徴とするシミュレーションシステム。
In any of claims 3 to 7 ,
The sound processing unit
By adjusting the volume balance of the first to Nth virtual speakers based on the information of the first to Nth positions of the first to Nth virtual speakers and the information of the position of the virtual sound source. A simulation system characterized in that the sound field is formed by the virtual sound source.
請求項1乃至のいずれかにおいて、
前記実空間の前記ユーザには移動可能範囲が設定されており、前記移動可能範囲に対応する位置に前記第1〜第Mのスピーカが配置されることを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 8 .
A simulation system, wherein a movable range is set for the user in the real space, and the first to Mth speakers are arranged at positions corresponding to the movable range.
請求項1乃至のいずれかにおいて、
前記ユーザに対応する前記仮想ユーザの視点から見える画像の表示処理を行う表示処理部を含むことを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 9 ,
The simulation system characterized by including the display process part which performs the display process of the image seen from the viewpoint of the said virtual user corresponding to the said user.
請求項10において、
前記表示処理部は、
前記ユーザが装着する頭部装着型表示装置に画像を表示するための処理を行うことを特徴とするシミュレーションシステム。
In claim 10 ,
The display processing unit
A simulation system for performing processing for displaying an image on a head-mounted display device worn by the user.
請求項10又は11において、
前記表示処理部は、
前記仮想空間での前記仮想音源による音の発生状況を再現する画像の表示処理を行うことを特徴とするシミュレーションシステム。
In claim 10 or 11 ,
The display processing unit
The simulation system characterized by performing the display process of the image which reproduces the sound generation condition by the said virtual sound source in the said virtual space.
請求項1乃至12のいずれかにおいて、
前記音処理部は、
前記実空間の前記第1〜第Mのスピーカのうちの第iのスピーカ(1≦i<M)への前記ユーザの接近が検出された場合に、前記第iのスピーカから出力される音の音量、高周波成分及び残響の少なくとも1つを調整する処理を行うことを特徴とするシミュレーションシステム。
In any one of Claims 1 to 12 ,
The sound processing unit
The sound output from the i-th speaker is detected when the user's approach to the i-th speaker (1 ≦ i <M) of the first to M-th speakers in the real space is detected. A simulation system characterized by performing a process of adjusting at least one of volume, high frequency component, and reverberation.
第1〜第M(Mは3以上の整数)のスピーカが配置される実空間において移動するユーザの位置、方向の情報を取得する入力処理部と、
前記実空間での前記ユーザの位置、方向の変化に伴い、前記ユーザに対応する仮想ユーザの仮想空間での位置、方向が変化した場合にも、前記仮想ユーザに対して所定の相対的位置関係を保って追従する第1〜第N(Nは2以上の整数)の位置に対して、前記第1〜第Mのスピーカの音量バランス調整を行うことで第1〜第Nの仮想スピーカを設定し、前記仮想空間内の仮想音源による音場の形成処理を、前記第1〜第Nの仮想スピーカを用いて行う音処理部として、
コンピュータを機能させ
前記音処理部は、
所定状況が発生したと判断した場合に、前記第1〜第Nの仮想スピーカの設定を無効にすることを特徴とするプログラム。
An input processing unit for acquiring information on the position and direction of the user moving in the real space in which the first to Mth speakers (M is an integer of 3 or more) are arranged;
A predetermined relative positional relationship with respect to the virtual user even when the position and direction of the virtual user corresponding to the user change in accordance with the change of the position and direction of the user in the real space. The first to Nth virtual speakers are set by adjusting the volume balance of the first to Mth speakers with respect to the first to Nth (N is an integer of 2 or more) positions that follow the As a sound processing unit that performs sound field formation processing using a virtual sound source in the virtual space using the first to Nth virtual speakers,
Make the computer work ,
The sound processing unit
A program for invalidating the settings of the first to Nth virtual speakers when it is determined that a predetermined situation has occurred .
第1〜第M(Mは3以上の整数)のスピーカが配置される実空間において移動するユーザの位置、方向の情報を取得する入力処理部と、
前記実空間での前記ユーザの位置、方向の変化に伴い、前記ユーザに対応する仮想ユーザの仮想空間での位置、方向が変化した場合にも、前記仮想ユーザに対して所定の相対的位置関係を保って追従する第1〜第N(Nは2以上の整数)の位置に対して、前記第1〜第Mのスピーカの音量バランス調整を行うことで第1〜第Nの仮想スピーカを設定し、前記仮想空間内の仮想音源による音場の形成処理を、前記第1〜第Nの仮想スピーカを用いて行う音処理部として、
コンピュータを機能させ
前記音処理部は、
前記第1〜第Nの仮想スピーカの前記第1〜第Nの位置の情報と前記仮想音源の位置の情報とに基づいて、前記第1〜第Nの仮想スピーカの音量バランス調整を行うことで、前記仮想音源による前記音場の形成処理を行うことを特徴とするプログラム。
An input processing unit for acquiring information on the position and direction of the user moving in the real space in which the first to Mth speakers (M is an integer of 3 or more) are arranged;
A predetermined relative positional relationship with respect to the virtual user even when the position and direction of the virtual user corresponding to the user change in accordance with the change of the position and direction of the user in the real space. The first to Nth virtual speakers are set by adjusting the volume balance of the first to Mth speakers with respect to the first to Nth (N is an integer of 2 or more) positions that follow the As a sound processing unit that performs sound field formation processing using a virtual sound source in the virtual space using the first to Nth virtual speakers,
Make the computer work ,
The sound processing unit
By adjusting the volume balance of the first to Nth virtual speakers based on the information of the first to Nth positions of the first to Nth virtual speakers and the information of the position of the virtual sound source. A program for performing the process of forming the sound field by the virtual sound source .
第1〜第M(Mは3以上の整数)のスピーカが配置される実空間において移動するユーザの位置、方向の情報を取得する入力処理部と、
前記実空間での前記ユーザの位置、方向の変化に伴い、前記ユーザに対応する仮想ユーザの仮想空間での位置、方向が変化した場合にも、前記仮想ユーザに対して所定の相対的位置関係を保って追従する第1〜第N(Nは2以上の整数)の位置に対して、前記第1〜第Mのスピーカの音量バランス調整を行うことで第1〜第Nの仮想スピーカを設定し、前記仮想空間内の仮想音源による音場の形成処理を、前記第1〜第Nの仮想スピーカを用いて行う音処理部として、
コンピュータを機能させ
前記音処理部は、
前記第1〜第Mのスピーカのうちの第1のスピーカ群の位置の情報と、前記第1〜第Nの位置のうちの第1の仮想スピーカの第1の位置の情報とに基づいて、前記第1のスピーカ群の音量バランス調整を行うことで、前記第1〜第Nの仮想スピーカのうちの前記第1の仮想スピーカを設定し、
前記第1〜第Mのスピーカのうちの第2のスピーカ群の位置の情報と、前記第1〜第Nの位置のうちの第2の仮想スピーカの第2の位置の情報とに基づいて、前記第2のスピーカ群の音量バランス調整を行うことで、前記第1〜第Nの仮想スピーカのうちの前記第2の仮想スピーカを設定することを特徴とするプログラム。
An input processing unit for acquiring information on the position and direction of the user moving in the real space in which the first to Mth speakers (M is an integer of 3 or more) are arranged;
A predetermined relative positional relationship with respect to the virtual user even when the position and direction of the virtual user corresponding to the user change in accordance with the change of the position and direction of the user in the real space. The first to Nth virtual speakers are set by adjusting the volume balance of the first to Mth speakers with respect to the first to Nth (N is an integer of 2 or more) positions that follow the As a sound processing unit that performs sound field formation processing using a virtual sound source in the virtual space using the first to Nth virtual speakers,
Make the computer work ,
The sound processing unit
Based on the information on the position of the first speaker group among the first to Mth speakers and the information on the first position of the first virtual speaker among the first to Nth positions, By adjusting the volume balance of the first speaker group, the first virtual speaker among the first to Nth virtual speakers is set,
Based on the information on the position of the second speaker group among the first to Mth speakers and the information on the second position of the second virtual speaker among the first to Nth positions, A program characterized in that the second virtual speaker among the first to Nth virtual speakers is set by adjusting the volume balance of the second speaker group .
第1〜第M(Mは3以上の整数)のスピーカが配置される実空間において移動するユーザの位置、方向の情報を取得する入力処理部と、
前記実空間での前記ユーザの位置、方向の変化に伴い、前記ユーザに対応する仮想ユーザの仮想空間での位置、方向が変化した場合にも、前記仮想ユーザに対して所定の相対的位置関係を保って追従する第1〜第N(Nは2以上の整数)の位置に対して、前記第1〜第Mのスピーカの音量バランス調整を行うことで第1〜第Nの仮想スピーカを設定し、前記仮想空間内の仮想音源による音場の形成処理を、前記第1〜第Nの仮想スピーカを用いて行う音処理部として、
コンピュータを機能させ
前記音処理部は、
前記第1〜第Mのスピーカのうちの第1のスピーカ群の位置の情報と、前記第1〜第Nの位置のうちの第1の仮想スピーカの第1の位置の情報とに基づいて、前記第1のスピーカ群の音量バランス調整を行うことで、前記第1〜第Nの仮想スピーカのうちの前記第1の仮想スピーカを設定し、
前記第1〜第Mのスピーカのうちの第2のスピーカ群の位置の情報と、前記第1〜第Nの位置のうちの第2の仮想スピーカの第2の位置の情報とに基づいて、前記第2のスピーカ群の音量バランス調整を行うことで、前記第1〜第Nの仮想スピーカのうちの前記第2の仮想スピーカを設定し、
前記第1〜第Mのスピーカのうちの第3のスピーカ群の位置の情報と、前記第1〜第Nの位置のうちの第3の仮想スピーカの第3の位置の情報とに基づいて、前記第3のスピーカ群の音量バランス調整を行うことで、前記第1〜第Nの仮想スピーカのうちの前記第3の仮想スピーカを設定することを特徴とするプログラム。
An input processing unit for acquiring information on the position and direction of the user moving in the real space in which the first to Mth speakers (M is an integer of 3 or more) are arranged;
A predetermined relative positional relationship with respect to the virtual user even when the position and direction of the virtual user corresponding to the user change in accordance with the change of the position and direction of the user in the real space. The first to Nth virtual speakers are set by adjusting the volume balance of the first to Mth speakers with respect to the first to Nth (N is an integer of 2 or more) positions that follow the As a sound processing unit that performs sound field formation processing using a virtual sound source in the virtual space using the first to Nth virtual speakers,
Make the computer work ,
The sound processing unit
Based on the information on the position of the first speaker group among the first to Mth speakers and the information on the first position of the first virtual speaker among the first to Nth positions, By adjusting the volume balance of the first speaker group, the first virtual speaker among the first to Nth virtual speakers is set,
Based on the information on the position of the second speaker group among the first to Mth speakers and the information on the second position of the second virtual speaker among the first to Nth positions, By adjusting the volume balance of the second speaker group, the second virtual speaker among the first to Nth virtual speakers is set,
Based on the information on the position of the third speaker group among the first to Mth speakers and the information on the third position of the third virtual speaker among the first to Nth positions, A program that sets the third virtual speaker among the first to Nth virtual speakers by adjusting a volume balance of the third speaker group .
JP2016072810A 2016-03-31 2016-03-31 Simulation system and program Active JP6461850B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016072810A JP6461850B2 (en) 2016-03-31 2016-03-31 Simulation system and program
CN201710205148.2A CN107277736B (en) 2016-03-31 2017-03-30 Simulation system, sound processing method, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016072810A JP6461850B2 (en) 2016-03-31 2016-03-31 Simulation system and program

Publications (2)

Publication Number Publication Date
JP2017184174A JP2017184174A (en) 2017-10-05
JP6461850B2 true JP6461850B2 (en) 2019-01-30

Family

ID=60007249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016072810A Active JP6461850B2 (en) 2016-03-31 2016-03-31 Simulation system and program

Country Status (2)

Country Link
JP (1) JP6461850B2 (en)
CN (1) CN107277736B (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109752951B (en) * 2017-11-03 2022-02-08 腾讯科技(深圳)有限公司 Control system processing method and device, storage medium and electronic device
US11356789B2 (en) 2018-04-24 2022-06-07 Sony Corporation Signal processing device, channel setting method, and speaker system
JP6756777B2 (en) 2018-05-30 2020-09-16 株式会社ソニー・インタラクティブエンタテインメント Information processing device and sound generation method
CN112601592A (en) * 2018-08-30 2021-04-02 Groove X 株式会社 Robot and sound generation program
CN109922411A (en) * 2019-01-29 2019-06-21 惠州市华智航科技有限公司 Sound field control method and sound field control system
WO2021187147A1 (en) * 2020-03-16 2021-09-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Acoustic reproduction method, program, and acoustic reproduction system
JP2022045553A (en) * 2020-09-09 2022-03-22 ヤマハ株式会社 Sound signal processing method and sound signal processor
JP2022144499A (en) 2021-03-19 2022-10-03 ヤマハ株式会社 Sound field support method and sound field support device
CN113923512A (en) * 2021-10-13 2022-01-11 咪咕文化科技有限公司 Method and device for processing event video of non-live audience and computing equipment
CN114893035B (en) * 2022-05-23 2023-07-25 广州高达尚电子科技有限公司 Theatre arrangement method, stage sound control system and theatre
CN117334207A (en) * 2022-06-24 2024-01-02 华为技术有限公司 Sound processing method and electronic equipment

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3363921B2 (en) * 1992-09-01 2003-01-08 富士通株式会社 Sound image localization device
JPH10174199A (en) * 1996-12-11 1998-06-26 Fujitsu Ltd Speaker sound image controller
JP4361042B2 (en) * 2005-09-08 2009-11-11 シャープ株式会社 Sound output device, sound output method, sound output program, and computer-readable recording medium recording the sound output program
JP4946305B2 (en) * 2006-09-22 2012-06-06 ソニー株式会社 Sound reproduction system, sound reproduction apparatus, and sound reproduction method
JP2012104871A (en) * 2010-11-05 2012-05-31 Sony Corp Acoustic control device and acoustic control method
US9154877B2 (en) * 2012-11-28 2015-10-06 Qualcomm Incorporated Collaborative sound system
WO2015024881A1 (en) * 2013-08-20 2015-02-26 Bang & Olufsen A/S A system for and a method of generating sound
WO2015087490A1 (en) * 2013-12-12 2015-06-18 株式会社ソシオネクスト Audio playback device and game device
CN104915979A (en) * 2014-03-10 2015-09-16 苏州天魂网络科技有限公司 System capable of realizing immersive virtual reality across mobile platforms
GB201404732D0 (en) * 2014-03-17 2014-04-30 Sony Comp Entertainment Europe Virtual Reality
JP6242262B2 (en) * 2014-03-27 2017-12-06 フォスター電機株式会社 Sound playback device
US20170153866A1 (en) * 2014-07-03 2017-06-01 Imagine Mobile Augmented Reality Ltd. Audiovisual Surround Augmented Reality (ASAR)
CN104615243A (en) * 2015-01-15 2015-05-13 深圳市掌网立体时代视讯技术有限公司 Head-wearable type multi-channel interaction system and multi-channel interaction method
CN105392102B (en) * 2015-11-30 2017-07-25 武汉大学 Three-dimensional sound signal generation method and system for aspherical loudspeaker array

Also Published As

Publication number Publication date
CN107277736A (en) 2017-10-20
CN107277736B (en) 2021-03-19
JP2017184174A (en) 2017-10-05

Similar Documents

Publication Publication Date Title
JP6461850B2 (en) Simulation system and program
CN106924966B (en) Game device and processing method
JP6727807B2 (en) Game device and program
JP7406602B2 (en) Head pose mixing of audio files
KR102609668B1 (en) Virtual, Augmented, and Mixed Reality
US20240015352A1 (en) Mixed reality virtual reverberation
JP2017119032A (en) Game device and program
JP6306442B2 (en) Program and game system
US11736888B2 (en) Dual listener positions for mixed reality
JP6515057B2 (en) Simulation system, simulation apparatus and program
JP6147486B2 (en) GAME SYSTEM, GAME PROCESSING CONTROL METHOD, GAME DEVICE, AND GAME PROGRAM
JP2014094160A (en) Game system,game processing control method, game apparatus, and game program
JP2023076543A (en) Mixed reality musical instrument
JP2018109835A (en) Simulation system and its program
JP2019175323A (en) Simulation system and program
JP2014090251A (en) Information processing system, information processing program, information processing control method and information processing device
JP2023168544A (en) Low-frequency interchannel coherence control
US11778410B2 (en) Delayed audio following
JP6622832B2 (en) Program and game system
KR20170131059A (en) My-concert system
JP4789145B2 (en) Content reproduction apparatus and content reproduction program
JP6325016B2 (en) Simulation system and program
JP2017178612A (en) Take-up device and simulation system
JP6401200B2 (en) Simulation system
JP2023132236A (en) Information processing device, sound reproduction device, information processing system, information processing method, and virtual sound source generation device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181226

R150 Certificate of patent or registration of utility model

Ref document number: 6461850

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250