JP6515057B2 - Simulation system, simulation apparatus and program - Google Patents
Simulation system, simulation apparatus and program Download PDFInfo
- Publication number
- JP6515057B2 JP6515057B2 JP2016072840A JP2016072840A JP6515057B2 JP 6515057 B2 JP6515057 B2 JP 6515057B2 JP 2016072840 A JP2016072840 A JP 2016072840A JP 2016072840 A JP2016072840 A JP 2016072840A JP 6515057 B2 JP6515057 B2 JP 6515057B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- sound
- response
- voice
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004088 simulation Methods 0.000 title claims description 34
- 230000004044 response Effects 0.000 claims description 513
- 238000012545 processing Methods 0.000 claims description 312
- 238000000034 method Methods 0.000 claims description 106
- 230000008569 process Effects 0.000 claims description 70
- 238000005259 measurement Methods 0.000 claims description 49
- 238000011156 evaluation Methods 0.000 claims description 26
- 238000004458 analytical method Methods 0.000 claims description 22
- 230000008859 change Effects 0.000 claims description 19
- 238000013500 data storage Methods 0.000 claims description 17
- 230000003796 beauty Effects 0.000 claims 2
- 230000009471 action Effects 0.000 description 28
- 230000033001 locomotion Effects 0.000 description 27
- 239000011295 pitch Substances 0.000 description 19
- 210000003128 head Anatomy 0.000 description 17
- 230000006870 function Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 15
- 238000012854 evaluation process Methods 0.000 description 12
- 230000033764 rhythmic process Effects 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 9
- 230000001755 vocal effect Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000009118 appropriate response Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 229940082150 encore Drugs 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000002411 adverse Effects 0.000 description 3
- 230000003111 delayed effect Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 238000004804 winding Methods 0.000 description 3
- 101100150346 Arabidopsis thaliana RS31 gene Proteins 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 238000009527 percussion Methods 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 206010001497 Agitation Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000005281 excited state Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000000423 heterosexual effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013215 result calculation Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Landscapes
- Circuit For Audible Band Transducer (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、シミュレーションシステム、シミュレーション装置及びプログラム等に関する。 The present invention relates to a simulation system , a simulation apparatus, a program and the like.
従来より、サッカーゲームや野球ゲームにおいて観客を登場させ、当該観客により、チームに対して声援を行わせるようなゲームシステムが知られている。このようなゲームシステムの従来技術としては、例えば特許文献1に開示される技術がある。また音声入力部を設け、音声入力部により入力された音声を認識することで、キャラクタの動作を指示して、ゲームを進行させるようなゲームシステムが知られている。このようなゲームシステムの従来技術としては、例えば特許文献2に開示される技術がある。
BACKGROUND ART Conventionally, a game system is known in which a spectator is made to appear in a soccer game or a baseball game, and the spectator cheers a team. As a prior art of such a game system, there exists a technique disclosed by
しかしながら特許文献1の従来技術では、ゲーム画像において観客席に観客の画像が表示されるだけであり、ユーザが入力したユーザ音声に対して当該観客が応答するようなシステムについては提案されていない。また特許文献2の従来技術では、ユーザが入力したユーザ音声に基づいてキャラクタの動作を指示できるだけであり、当該キャラクタが、ユーザ音声に対して、応答音声や応答音などで応答することはなかった。
However, in the prior art of
本発明の幾つかの態様によれば、ユーザ音声の入力に対して適切な応答音声又は応答音を出力できるシミュレーションシステム及びプログラム等を提供できる。 According to some aspects of the present invention, it is possible to provide a simulation system, a program and the like capable of outputting a response voice or response sound appropriate for the input of user voice.
本発明の一態様は、ユーザが音入力装置を用いて入力したユーザ音声の情報を取得する入力処理部と、前記ユーザ音声の測定処理を行う測定処理部と、前記ユーザ音声の入力に対して、前記ユーザ音声とは異なる応答音声又は応答音の出力処理を行う音処理部と、を含み、前記測定処理部は、前記ユーザ音声の音量及び長さの測定処理を行い、前記音処理部は、前記ユーザ音声の音量及び長さの測定処理の結果に基づく前記応答音声又は前記応答音の出力処理を行うシミュレーションシステムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。 According to one aspect of the present invention, an input processing unit for acquiring information of user voice input by a user using a sound input device, a measurement processing unit for performing measurement processing of the user voice, and input of the user voice A sound processing unit that performs an output process of a response voice or a response sound different from the user voice, the measurement processing unit performs a measurement process of the volume and the length of the user voice, and the sound processing unit The present invention relates to a simulation system that performs output processing of the response sound or the response sound based on a result of measurement processing of volume and length of the user voice. The present invention also relates to a program that causes a computer to function as the above-described sections or a computer-readable information storage medium storing the program.
本発明の一態様によれば、ユーザが音入力装置を用いてユーザ音声を入力すると、当該ユーザ音声の入力に対して、ユーザ音声とは異なる応答音声又は応答音が出力される。即ち、ユーザ音声の入力に応答して、応答音声又は応答音が出力される。この場合に本発明の一態様では、入力されたユーザ音声の音量及び長さの測定処理が行われ、測定処理の結果に基づく応答音声又は応答音が出力されるようになる。このようにすれば、ユーザ音声の入力に対応して出力される応答音声又は応答音に、当該ユーザ音声の音量及び長さの測定処理の結果を反映させることができる。従って、ユーザ音声の入力に対して適切な応答音声又は応答音を出力できるシミュレーションシステム等の提供が可能になる。 According to one aspect of the present invention, when the user inputs a user voice using the sound input device, a response voice or response sound different from the user voice is output in response to the input of the user voice. That is, in response to the input of the user voice, the response voice or the response tone is output. In this case, in one aspect of the present invention, measurement processing of the volume and length of the input user voice is performed, and a response voice or response sound based on the result of the measurement processing is output. In this way, it is possible to reflect the result of the measurement processing of the volume and the length of the user voice on the response voice or the response voice outputted corresponding to the input of the user voice. Therefore, it is possible to provide a simulation system or the like capable of outputting an appropriate response voice or response sound to the input of the user voice.
また本発明の一態様では、前記音処理部は、前記ユーザ音声の音量及び長さに応じて、前記応答音声又は前記応答音を異ならせる処理を行ってもよい。 Further, in one aspect of the present invention, the sound processing unit may perform processing to make the response sound or the response sound different according to the volume and the length of the user sound.
このようにすれば、ユーザ音声の音量や長さに応じて、応答音声又は応答音が異なる音になり、ユーザ音声に対応した、より適切な応答音声又は応答音を出力できるようになる。 In this way, the response voice or the response tone becomes different depending on the volume and the length of the user voice, and it becomes possible to output a more appropriate response voice or response voice corresponding to the user voice.
また本発明の一態様では、前記測定処理部は、前記ユーザ音声の音量が、前記第1〜第Nの音量レベルのうちの第iの音量レベル(1≦i≦N)を越えたタイミングから、前記第iの音量レベルを下回ったタイミングまでの長さを測定し、前記音処理部は、測定された前記長さに応じて、前記応答音声又は前記応答音を異ならせる処理を行ってもよい。 Further, in one aspect of the present invention, the measurement processing unit is configured such that the volume of the user's voice exceeds the i-th volume level (1 ≦ i ≦ N) of the first to Nth volume levels. And measuring the length up to the timing at which the sound volume level falls below the i-th sound level, and the sound processing unit performs processing to make the response sound or the response sound different according to the measured length. Good.
このようにすれば、ユーザ音声の音量や長さを、負荷の少ない処理で測定できるようになるため、処理負荷の軽減化を図れる。 In this way, the volume and the length of the user's voice can be measured by a process with a small load, so that the processing load can be reduced.
また本発明の一態様では、前記音処理部は、前記ユーザ音声の音量が、前記第iの音量レベルを越えた場合と、前記第1〜第Nの音量レベルのうちの第j(1≦i<j≦N)の音量レベルを越えた場合とで、前記応答音声又は前記応答音を異ならせる処理を行ってもよい。 Further, in one aspect of the present invention, the sound processing unit is configured to set a case where the volume of the user voice exceeds the i-th volume level, and the j-th (1 ≦ 1) of the first to N-th volume levels. The processing for differentiating the response sound or the response sound may be performed when the volume level of i <j ≦ N is exceeded.
このようにすれば、ユーザ音声の音量が第iの音量レベルを越えた場合と第jの音量レベルを越えた場合とで、出力される応答音声又は応答音を異ならせることが可能になり、負荷の少ない処理で、適切な応答音声又は応答音を出力できるようになる。 In this way, it is possible to make the output response voice or response sound different when the volume of the user voice exceeds the i-th volume level and the j-th volume level. It becomes possible to output an appropriate response voice or response tone by low-load processing.
また本発明の一態様では、前記音処理部は、前記応答音声又は前記応答音を、ゲームにおける前記ユーザのターゲットの音声又は音として出力する処理を行ってもよい。 In one aspect of the present invention, the sound processing unit may perform processing for outputting the response sound or the response sound as sound or sound of a target of the user in a game.
このようにすれば、ユーザが音入力装置を用いてユーザ音声を入力すると、そのユーザ音声の入力に対する応答音声又は応答音を、ゲームにおけるユーザのターゲットの音声又は音として出力できるようになる。 In this way, when the user inputs a user voice using the sound input device, a response voice or response sound to the input of the user voice can be output as the voice or sound of the user's target in the game.
また本発明の一態様では、前記ターゲットは、ゲームに登場する観客のキャラクタであってもよい。 In one aspect of the present invention, the target may be a character of a spectator appearing in a game.
このようにすれば、ゲームに登場する観客の歓声等を応答音声又は応答音として出力できるようになる。 In this way, the cheers and the like of the spectators appearing in the game can be output as a response sound or a response sound.
また本発明の一態様では、前記音処理部は、前記ターゲットの種類、前記ターゲットと前記ユーザとの位置関係、及び前記ターゲットに対する前記ユーザの視線方向の少なくとも1つに応じて、前記応答音声又は前記応答音を変化させる処理を行ってもよい。 Further, in one aspect of the present invention, the sound processing unit may perform the response voice or the response voice according to at least one of a type of the target, a positional relationship between the target and the user, and a gaze direction of the user with respect to the target. A process of changing the response sound may be performed.
このようにすれば、ターゲットの種類やターゲットとの位置関係やターゲットに対するユーザの視線方向に応じて、応答音声又は応答音が変化するようになり、ユーザ音声の入力に対して、より適切な応答音声又は応答音を出力できるようになる。 In this way, the response voice or the response sound changes according to the type of the target, the positional relationship with the target, and the direction of the user's line of sight with respect to the target, and a more appropriate response to user voice input. It becomes possible to output voice or response sound.
また本発明の一態様では、前記測定処理部は、前記ユーザ音声の特徴量の解析処理を行い、前記音処理部は、前記ユーザ音声の前記特徴量の解析処理の結果に応じて、前記応答音声又は前記応答音を変化させる処理を行ってもよい。 In one aspect of the present invention, the measurement processing unit performs analysis processing of the feature amount of the user voice, and the sound processing unit performs the response according to a result of analysis processing of the feature amount of the user voice. A process of changing voice or the response sound may be performed.
このようにすれば、ユーザ音声の入力に対して、ユーザ音声の特徴を反映させた応答音声又は応答音を出力できるようになる。 In this way, it is possible to output a response voice or response sound reflecting the feature of the user voice in response to the input of the user voice.
また本発明の一態様では、前記音処理部は、前記ユーザが手に持つ前記音入力装置の位置、方向、前記手の位置、方向、前記ユーザが装着する頭部装着型表示装置の位置、方向、前記ユーザの姿勢、及び前記ユーザの視線の少なくとも1つに応じて、前記応答音声又は前記応答音を変化させる処理、或いは前記応答音声又は前記応答音を出力する処理、或いは前記応答音声又は前記応答音を出力させるための前記ユーザ音声の入力を受け付ける処理を行ってもよい。 Further, in one aspect of the present invention, the sound processing unit is a position and a direction of the sound input device held by the user, a position and a direction of the hand, and a position of a head mounted display worn by the user. Processing to change the response voice or the response sound according to at least one of the direction, the posture of the user, and the line of sight of the user, or the process of outputting the response voice or the response sound, or the response voice or A process of receiving the input of the user voice for outputting the response sound may be performed.
このようにすれば、音入力装置の位置や方向、手の位置や方向、頭部装着型表示装置の位置や方向、ユーザの姿勢、或いはユーザの視線などに応じて、応答音声又は応答音を様々に変化させたり、応答音声又は応答音の出力タイミング等を制御したり、ユーザ音声の入力を受け付けるか否かの判断を行ったりすることなどが可能になる。 In this way, the response voice or the response sound is selected according to the position and orientation of the sound input device, the position and orientation of the hand, the position and orientation of the head-mounted display device, the posture of the user, or the line of sight of the user. It is possible to make various changes, control the output timing of the response sound or the response sound, etc., and determine whether or not to receive the input of the user sound.
また本発明の一態様では、前記音処理部は、前記ユーザの過去のプレイ履歴情報に基づいて、前記応答音声又は前記応答音を変化させる処理を行ってもよい。 In one aspect of the present invention, the sound processing unit may perform the process of changing the response sound or the response sound based on past play history information of the user.
このようにすれば、プレーヤの過去のプレイ履歴を反映させた応答音声又は応答音を出力できるようになる。 In this way, it is possible to output a response sound or response sound reflecting the player's past play history.
また本発明の一態様では、音データを記憶する音データ記憶部を含み、前記音処理部は、前記音データ記憶部に記憶される複数の音データの中から使用する音データを選択する処理、或いは複数の音データを組み合わせる処理を行うことで、前記応答音声又は前記応答音の出力処理を行ってもよい。 In one aspect of the present invention, the sound processing unit further includes a sound data storage unit for storing sound data, and the sound processing unit selects sound data to be used from a plurality of sound data stored in the sound data storage unit. Alternatively, output processing of the response voice or the response sound may be performed by performing processing of combining a plurality of sound data.
このようにすれば、複数の音データの中からの音データの選択処理や、音データを組み合わせる処理により、適切な応答音声又は応答音を出力できるようになる。 In this way, it is possible to output an appropriate response voice or response sound by selecting sound data from a plurality of sound data and combining sound data.
また本発明の一態様では、前記入力処理部は、前記ユーザ音声に対する評価処理が行われる評価期間以外の期間において、前記応答音声又は前記応答音を出力させるための前記ユーザ音声の入力を受け付けてもよい。 In one aspect of the present invention, the input processing unit receives an input of the response voice or the user voice for causing the response sound to be output in a period other than an evaluation period in which an evaluation process on the user voice is performed. It is also good.
このようにすれば、応答音声又は応答音を出力させるユーザ音声の入力が、ユーザ音声に対する評価処理に対して悪影響を及ぼす事態等を防止することが可能になる。 In this way, it is possible to prevent the response voice or the input of the user voice for outputting the response voice from adversely affecting the evaluation process for the user voice.
また本発明の他の態様は、ユーザが音入力装置を用いて入力したユーザ音声の情報を取得する入力処理部と、前記ユーザ音声の入力に対して、前記ユーザ音声とは異なる応答音声又は応答音の出力処理を行う音処理部と、を含み、前記入力処理部は、前記ユーザ音声に対する評価処理が行われる評価期間以外の期間において、前記応答音声又は前記応答音を出力させるための前記ユーザ音声の入力を受け付けるシミュレーションシステムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。 Further, according to another aspect of the present invention, there is provided an input processing unit for acquiring information of a user voice input by a user using a sound input device, and a response voice or response different from the user voice with respect to the user voice input. A sound processing unit that performs sound output processing, and the input processing unit is configured to output the response voice or the response sound in a period other than an evaluation period in which evaluation processing on the user voice is performed. It relates to a simulation system that accepts voice input. The present invention also relates to a program that causes a computer to function as the above-described sections or a computer-readable information storage medium storing the program.
本発明の他の態様によれば、ユーザが音入力装置を用いてユーザ音声を入力すると、当該ユーザ音声の入力に対して、ユーザ音声とは異なる応答音声又は応答音が出力される。この場合に本発明の一態様では、ユーザ音声に対する評価処理が行われる評価期間以外の期間で、このような応答音声又は応答音を出力させるユーザ音声の入力が受け付けられる。従って、当該ユーザ音声の入力が、ユーザ音声に対する評価処理に対して悪影響を及ぼす事態等を防止できるようになる。 According to another aspect of the present invention, when the user inputs a user voice using the sound input device, a response voice or response sound different from the user voice is output in response to the input of the user voice. In this case, in one aspect of the present invention, the input of the user voice that causes such a response voice or the response sound to be output is accepted in a period other than the evaluation period in which the evaluation process on the user voice is performed. Therefore, it is possible to prevent a situation in which the input of the user voice adversely affects the evaluation process on the user voice.
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, the present embodiment will be described. Note that the embodiments described below do not unduly limit the contents of the present invention described in the claims. Further, not all of the configurations described in the present embodiment are necessarily essential configuration requirements of the present invention.
1.構成
図1に本実施形態のシミュレーションシステム(ゲームシステム、映像表示システム、シミュレーション装置)の構成例を示す。なお、本実施形態のシミュレーションシステムは図1の構成に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Configuration FIG. 1 shows a configuration example of a simulation system (game system, video display system, simulation apparatus) of the present embodiment. Note that the simulation system of the present embodiment is not limited to the configuration of FIG. 1, and various modifications may be made such as omitting some of the components (each part) or adding other components.
入力装置160は、ユーザが種々の入力情報を入力するための装置である。この入力装置160は、音入力装置161、振動デバイス164を含むことができる。また入力装置160は、ユーザがゲームの操作情報を入力するためのゲームコントローラの機能を有していてもよい。ゲームコントローラは、例えば操作ボタン、方向指示キー、ジョイスティック又はレバー等により実現される。この場合にゲームコントローラと音入力装置161は、一体の筐体で実現してもよいし、別体の筐体で実現してもよい。
The
音入力装置161は、ユーザが音情報を入力するための装置である。音入力装置161により、例えばユーザの歌声や呼び声や掛け声などのユーザ音声を入力できる。この音入力装置161は例えば図2(A)で説明するマイク162などにより実現できる。なお音入力装置161の形状は図2(A)のような形状のマイク162には限定されず、例えばヘッドバンドを有するヘッドセット型マイクや小型マイクなどの種々のタイプのものを用いることができる。また音入力装置161は、楽器或いは楽器を模した装置における音の入力装置(ピックアップマイク等)であってもよい。楽器としては、弦楽器(ギター)、打楽器(ドラム、太鼓)、或いは鍵盤楽器(ピアノ、キーボード)などがある。
The
振動デバイス164(振動発生部)は、警告等のための振動を発生するデバイスであり、例えば振動モータ(バイブレータ)などにより実現される。振動モータは、例えば、偏芯した錘を回転させることで振動を発生する。具体的には駆動軸の両端に偏心した錘を取り付けてモータ自体が揺れるようにする。なお振動デバイス164は、振動モータには限定されず、例えばピエゾ素子などにより実現されるものであってもよい。
The vibrating device 164 (vibration generating unit) is a device that generates vibration for warning or the like, and is realized by, for example, a vibrating motor (vibrator) or the like. The vibration motor generates vibration, for example, by rotating an eccentric weight. Specifically, eccentric weights are attached to both ends of the drive shaft so that the motor itself swings. The vibrating
記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。ゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(ハードディスクドライブ)、SDD、光ディスク装置などにより実現できる。記憶部170は、空間情報記憶部172、楽曲情報記憶部174、音データ記憶部175、パラメータ記憶部176、描画バッファ178を含む。
The
情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
An information storage medium 180 (a computer readable medium) stores programs, data, etc., and its function can be realized by an optical disc (DVD, BD, CD), HDD, semiconductor memory (ROM), etc. . The
頭部装着型表示装置200(HMD)は、ユーザの頭部に装着されて、ユーザの眼前に画像を表示する装置である。HMD200は非透過型であることが望ましいが、透過型であってもよい。またHMD200は、いわゆるメガネタイプのHMDであってもよい。
The head mounted display 200 (HMD) is a device that is mounted on the head of the user and displays an image in front of the user's eyes. The
HMD200は、センサ部210、表示部220、処理部240を含む。なおHMD200に発光素子を設ける変形実施も可能である。センサ部210は、例えばヘッドトラッキングなどのトラッキング処理を実現するためものである。例えばセンサ部210を用いたトラッキング処理により、HMD200の位置、方向を特定する。HMD200の位置、方向を特定することで、ユーザの位置、方向を特定できる。ユーザの位置、方向により、ユーザ(プレーヤ)に対応する仮想空間の仮想ユーザ(仮想プレーヤ)の位置、方向が特定される。ユーザの位置、方向は例えばユーザの視点位置、視線方向である。仮想ユーザの位置、方向は例えば仮想ユーザの視点位置、視線方向である。
The
トラッキング方式としては種々の方式を採用できる。トラッキング方式の一例である第1のトラッキング方式では、後述の図2(A)、図2(B)で詳細に説明するように、センサ部210として複数の受光素子(フォトダイオード等)を設ける。そして外部に設けられた発光素子(LED等)からの光(レーザー等)をこれらの複数の受光素子により受光することで、現実世界の3次元空間でのHMD200(ユーザの頭部)の位置、方向を特定する、第2のトラッキング方式では、後述の図3(A)、図3(B)で詳細に説明するように、複数の発光素子(LED)をHMD200に設ける。そして、これらの複数の発光素子からの光を、外部に設けられた撮像部で撮像することで、HMD200の位置、方向を特定する。第3のトラッキング方式では、センサ部210としてモーションセンサを設け、このモーションセンサを用いてHMD200の位置、方向を特定する。モーションセンサは例えば加速度センサやジャイロセンサなどにより実現できる。例えば3軸の加速度センサと3軸のジャイロセンサを用いた6軸のモーションセンサを用いることで、現実世界の3次元空間でのHMD200の位置、方向を特定できる。なお、第1のトラッキング方式と第2のトラッキング方式の組合わせ、或いは第1のトラッキング方式と第3のトラッキング方式の組合わせなどにより、HMD200の位置、方向を特定してもよい。
Various methods can be employed as the tracking method. In the first tracking method, which is an example of the tracking method, as will be described in detail with reference to FIGS. 2A and 2B described later, a plurality of light receiving elements (photodiodes or the like) are provided as the
HMD200の表示部220は例えば液晶ディスプレイ(LCD)や有機ELディスプレイなどにより実現できる。例えばHMD200には、表示部220として、ユーザの左目の前に配置される第1のディスプレイと、右目の前に配置される第2のディスプレイが設けられており、例えば立体視表示が可能になっている。立体視表示を行う場合には、例えば視差が異なる左目用画像と右目用画像を生成し、第1のディスプレイに左目用画像を表示し、第2のディスプレイに右目用画像を表示すればよい。
The
HMD200の処理部240は、HMD200において必要な各種の処理を行う。例えば処理部240は、センサ部210の制御処理や表示部220の表示制御処理などを行う。また処理部240が、3次元音響(立体音響)処理を行って、3次元的な音の方向や距離や広がりの再現を実現してもよい。
The
音出力部192は、本実施形態により生成された音を出力するものであり、例えばスピーカ又はヘッドホン等により実現できる。
The
I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。
An I / F (interface)
通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。
The
なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170、補助記憶装置194)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。
The program (data) for causing the computer to function as each part of the present embodiment is from the information storage medium possessed by the server (host device) via the network and
処理部100(プロセッサ)は、入力装置160からの入力情報やHMD200でのトラッキング情報(HMDの位置、方向、或いは視点位置、視線方向)と、プログラムなどに基づいて、ゲーム処理、ゲーム成績演算処理、表示処理、或いは音処理などを行う。
The processing unit 100 (processor) performs game processing and game score calculation processing based on input information from the
処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Processing Unit)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。
Each process (each function) of this embodiment which each part of processing
処理部100は、入力処理部102、演算処理部110、出力処理部140を含む。演算処理部110は、ゲーム処理部111、ゲーム成績演算部118、測定処理部119、表示処理部120、音処理部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
The
入力処理部102(入力処理のプログラムモジュール)は、入力情報やトラッキング情報を受け付ける処理や、記憶部170から情報を読み出す処理や、通信部196を介して情報を受信する処理を、入力処理として行う。例えば入力処理部102は、入力装置160を用いてユーザが入力した入力情報やHMD200のセンサ部210等により検出されたトラッキング情報(ユーザの位置、方向又は視線の情報等)を取得する処理や、読み出し命令で指定された情報を、記憶部170から読み出す処理や、外部装置(サーバ等)からネットワークを介して情報を受信する処理を、入力処理として行う。ここで受信処理は、通信部196に情報の受信を指示したり、通信部196が受信した情報を取得して記憶部170に書き込む処理などである。
The input processing unit 102 (program module for input processing) performs processing for receiving input information and tracking information, processing for reading information from the
演算処理部110は、各種の演算処理を行う。例えばゲーム処理、ゲーム成績演算処理、表示処理、或いは音処理などの演算処理を行う。
The
ゲーム処理部111(ゲーム処理のプログラムモジュール)はユーザがゲームをプレイするための種々のゲーム処理を行う。ゲーム処理部111は、ゲーム進行処理部112、評価処理部113、キャラクタ処理部114、パラメータ処理部115、オブジェクト空間設定部116、仮想カメラ制御部117を含む。
The game processing unit 111 (program module for game processing) performs various game processing for the user to play a game. The
ゲーム進行処理部112は、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などを行う。評価処理部113は、ユーザのゲームプレイの評価処理を行う。例えば音楽ゲームでのユーザの演奏や、ゲーム操作についての評価処理を行う。音楽ゲームに使用される楽曲情報は楽曲情報記憶部174に記憶される。
The game
キャラクタ処理部114は、キャラクタに関する種々の処理を行う。例えばオブジェクト空間(仮想空間、ゲーム空間)においてキャラクタを移動させる処理や、キャラクタを動作させる処理を行う。例えばキャラクタを動作させる処理は、モーションデータを用いたモーション処理(モーション再生等)により実現できる。パラメータ処理部115は、ゲームに使用される種々のパラメータ(ゲームパラメータ)の演算処理を行う。例えばパラメータの値を増減させる処理を行う。パラメータの情報はパラメータ記憶部176に記憶される。
The
オブジェクト空間設定部116は、複数のオブジェクトが配置されるオブジェクト空間(広義には仮想空間)の設定処理を行う。例えば、キャラクタ(人、動物、ロボット等)、マップ(地形)、建物、観客席、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170の空間情報記憶部172には、オブジェクト空間での複数のオブジェクト(パーツオブジェクト)の位置、回転角度(方向)等の情報が空間情報として記憶される。オブジェクト空間設定部116は、例えば各フレーム毎にこの空間情報を更新する処理などを行う。
The object
仮想カメラ制御部117は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。この仮想カメラはユーザの視点に相当する。立体視表示の場合は、左目用の第1の視点(左目用の第1の仮想カメラ)と、右目用の第2の視点(右目用の第2の仮想カメラ)が設定される。
The virtual
ゲーム成績演算部118はユーザのゲーム成績を演算する処理を行う。例えばユーザのゲームプレイにより獲得された得点、ポイントなどのゲーム成績の演算処理を行う。
The game
測定処理部119は音に関する種々の測定処理を行う。例えば音入力装置161により入力されたユーザ音声の測定処理を行う。
The
表示処理部120(表示処理のプログラムモジュール)は、ゲーム画像の表示処理を行う。例えば処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、HMD200の表示部220に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点。左目用、右目用の第1、第2の視点)から見える画像が生成される。なお、表示処理部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。
The display processing unit 120 (program module for display processing) performs display processing of a game image. For example, drawing processing is performed based on the results of various processing (game processing, simulation processing) performed by the
音処理部130(音処理のプログラムモジュール)は、処理部100で行われる種々の処理の結果に基づいて音処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などのゲーム音を生成し、ゲーム音を音出力部192に出力させる。ゲーム中に出力(再生)される音のデータは音データ記憶部175に記憶される。なお音処理部130の音処理の一部(例えば3次元音響処理)を、HMD200の処理部240により実現してもよい。
The sound processing unit 130 (program module for sound processing) performs sound processing based on the results of various processing performed by the
出力処理部140は各種の情報の出力処理を行う。例えば出力処理部140は、記憶部170に情報を書き込む処理や、通信部196を介して情報を送信する処理を、出力処理として行う。例えば出力処理部140は、書き込み命令で指定された情報を、記憶部170に書き込む処理や、外部の装置(サーバ等)に対してネットワークを介して情報を送信する処理を行う。送信処理は、通信部196に情報の送信を指示したり、送信する情報を通信部196に指示する処理などである。
The
例えば本実施形態では、ゲーム処理部111は、複数のオブジェクトが配置される仮想空間(ゲーム空間)において、ユーザがプレイするゲームの処理を行う。例えばオブジェクト空間である仮想空間には、キャラクタ等の複数のオブジェクトが配置されており、ゲーム処理部111は、この仮想空間でのゲームを実現するための種々のゲーム処理(ゲーム進行処理、キャラクタ処理、オブジェクト空間設定処理、或いは仮想カメラ制御処理等)を実行する。そして表示処理部120は、仮想空間において所与の視点(左目用、右目用の第1、第2の視点)から見えるゲーム画像を、HMD200の表示部220(第1、第2のディスプレイ)に表示する処理を行う。即ち、仮想空間であるオブジェクト空間において、仮想ユーザ(ユーザ)の視点(仮想カメラ)から見えるゲーム画像を表示する処理を行う。
For example, in the present embodiment, the
例えばHMD200を装着した現実世界のユーザが、後述の図4、図5の個室のプレイエリアにおいて移動したり、移動方向が変化したり、首を振ったり、しゃがんだりして、その位置、方向が変化すると、ユーザに対応する仮想空間の仮想ユーザの位置、方向も変化する。現実世界でのユーザの位置、方向は、HMD200のトラッキング処理により特定できるため、仮想空間での仮想ユーザの位置、方向も特定できる。ユーザ、仮想ユーザの位置、方向は、例えばユーザ、仮想ユーザの視点位置、視線方向でもある。仮想ユーザがキャラクタとして表示されない場合には、HMD200の表示画像は一人称視点の画像となり、仮想ユーザがキャラクタとして表示される場合には表示画像は三人称視点の画像になる。
For example, a user in the real world wearing the
なお、プレイエリア(行動エリア)は、例えばユーザが移動可能な範囲として設定されるエリアであり、例えばユーザがゲームプレイ等の行動を行うエリア(フィールド、スペース)として予め規定されているエリアである。このプレイエリア(広義には移動可能範囲)は、例えばユーザの位置情報等のトラッキングが可能な範囲を内包するエリアである。プレイエリアは、例えば周囲が壁で囲まれたエリアであってもよいが、オープンスペースのエリアであってもよい。 The play area (action area) is, for example, an area set as a range in which the user can move, and is an area defined in advance as an area (field, space) in which the user performs an action such as game play, for example. . The play area (a movable range in a broad sense) is an area including a range in which tracking of position information of the user, for example, is possible. The play area may be, for example, an area surrounded by a wall, but may be an open space area.
そして本実施形態では入力処理部102は、ユーザが音入力装置161を用いて入力したユーザ音声の情報を取得する。一例としては、音入力装置161により入力されたアナログの音声信号に対して、A/D変換を行い、デジタルのユーザ音声の情報として取得する。
Then, in the present embodiment, the
測定処理部119は、取得されたユーザ音声の測定処理を行う。例えばユーザ音声の波形に対して各種の測定処理を行う。また音処理部130は、ユーザ音声の入力に対して、ユーザ音声とは異なる応答音声又は応答音の出力処理を行う。例えば音データ記憶部175に記憶される複数の音データ(音データファイル)からの音データの選択処理や、音データの組合わせ処理などを行って、ユーザ音声とは異なる応答音声又は応答音を生成(合成)し、音出力部192(スピーカ等)により出力させる。
The
そして本実施形態ではユーザ音声の音量及び長さの測定処理を行う。例えばユーザ音声の信号波形が所定の音量レベル(音圧)を越えたか否かを測定することで、ユーザ音声の音量を測定する。またユーザ音声の信号波形が所定の音量レベルを越えた長さを測定することで、ユーザ音声の長さ(音声の尺)を測定する。そして音処理部130は、ユーザ音声の音量及び長さの測定処理の結果に基づく応答音声又は応答音の出力処理を行う。この応答音声又は応答音の出力処理や変化処理等は応答音処理部132が行う。
And in this embodiment, the measurement process of the volume and length of a user's voice is performed. For example, the volume of the user voice is measured by measuring whether or not the signal waveform of the user voice exceeds a predetermined volume level (sound pressure). Further, by measuring the length at which the signal waveform of the user voice exceeds a predetermined volume level, the length of the user voice (sound measure) is measured. Then, the
例えば音処理部130は、ユーザ音声の音量及び長さの測定処理の結果が第1の測定結果である場合には、当該ユーザ音声の入力に対応して、第1の応答音声又は第1の応答音を音出力部192に出力させる。一方、ユーザ音声の音量及び長さの測定処理の結果が第2の測定結果である場合には、当該ユーザ音声の入力に対応して、第2の応答音声又は第2の応答音を音出力部192に出力させる。同様にユーザ音声の音量及び長さの測定処理の結果が第K(Kは2以上の整数)の測定結果である場合には、当該ユーザ音声の入力に対応して、第Kの応答音声又は第Kの応答音を音出力部192に出力させる。
For example, when the result of the measurement process of the volume and the length of the user voice is the first measurement result, the
例えば音処理部130は、ユーザ音声の音量及び長さに応じて、応答音声又は応答音を異ならせる処理を行う。即ち、ユーザ音声の入力に対して出力する応答音声又は応答音を、当該ユーザ音声の音量や長さに応じて異ならせる。例えばユーザ音声の音量をLV(m)とし、ユーザ音声の長さをTL(n)とする(m、nは2以上の整数)。この場合に、例えばRS(m,n)=RS(LV(m),TL(n))と表されるような応答音声又は応答音を出力する。例えば音量、長さがLV(1)、TL(1)である場合には、応答音声又は応答音としてRS(1,1)を出力し、音量、長さがLV(2)、TL(1)である場合には、応答音声又は応答音としてRS(2,1)を出力する。そしてRS(1,1)とRS(2,1)は、異なる応答音声又は応答音となっている。また音量、長さがLV(1)、TL(2)である場合には、応答音声又は応答音としてRS(1,2)を出力し、音量、長さがLV(2)、TL(2)である場合には、応答音声又は応答音としてRS(2,2)を出力する。そしてRS(1,2)とRS(2,2)は異なる応答音声又は応答音となっている。またRS(1,1)、RS(2,1)、RS(1,2)、RS(2,2)も、各々、互いに異なる応答音声又は応答音となっている。
For example, the
なお応答音声又は応答音が異なるとは、例えば応答音声又は応答音の種類(音データ、波形、属性等)、音量(強さ)、高さ(ピッチ)、或いは音色等が異なることである。 The response sound or response sound being different means that, for example, the type of response sound or response sound (sound data, waveform, attribute, etc.), volume (intensity), height (pitch), timbre, etc. are different.
より具体的には測定処理部119は、ユーザ音声の音量が、第1〜第Nの音量レベルのうちの第iの音量レベル(1≦i≦N)を越えたタイミングから、第iの音量レベルを下回ったタイミングまでの長さを測定する。例えばユーザ音声の信号波形において音量が上昇し、第iの音量レベルを越えたタイミングをTM1とする。その後、ユーザ音声の信号波形において音量が減少し、第iの音量レベルを下回ったタイミングをTM2とする。この場合にTM2−TM1を、ユーザ音声の長さT=TM2−TM1として測定する。そして音処理部130は、測定された長さT=TM2−TM1に応じて、応答音声又は応答音を異ならせる処理を行う。即ち、測定された長さがT=T1である場合とT=T2(T1とT2は異なる長さ)とで、応答音声又は応答音を異ならせる。
More specifically, the
また音処理部130は、ユーザ音声の音量が、第iの音量レベルを越えた場合と、第1〜第Nの音量レベルのうちの第j(1≦i<j≦N)の音量レベルを越えた場合とで、応答音声又は応答音を異ならせる処理を行う。例えばユーザ音声の音量が第iの音量を超えた場合に、第1の応答音声又は第1の応答音が出力されたとする。この場合にユーザ音声の音量が更に大きくなって第jの音量レベルを越えた場合には、第1の応答音声又は第1の応答音とは異なる第2の応答音声又は第2の応答音を出力する。この場合に第1の応答音声又は第1の応答音と、第2の応答音声又は第2の応答音の両方を出力してもよいし、第2の応答音声又は第2の応答音だけを出力してもよい。また応答音声又は応答音が歓声、掛け声又は拍手などである場合に、第2の応答音声又は第2の応答音は、第1の応答音声又は第1の応答音に比べて、より盛り上がって熱狂度が増したような歓声、掛け声又は拍手になる。
Further, the
また音処理部130は、応答音声又は応答音を、ゲームにおけるユーザのターゲットの音声又は音として出力する処理を行う。ここでターゲットは、ユーザのゲームプレイの対象となるものであり、例えばゲームに登場するキャラクタなどである。この場合、応答音声は、キャラクタが発声する音声であり、応答音はキャラクタの動作により生じる動作音などである。なおターゲットは、ゲームに登場するキャラクタ以外の物体(動かない物体)などであってもよい。
Further, the
例えばターゲットは、ゲームに登場する観客のキャラクタである。例えば音楽ゲーム、演奏ゲーム又はスポーツゲームなどにおける観客のキャラクタである。この場合、応答音声は歓声、掛け声、呼び声などの音声であり、応答音は拍手、口笛、足踏み音などである。或いは、ターゲットであるキャラクタは、対戦ゲームにおける対戦相手キャラクタや、ユーザの協力キャラクタなどであってもよい。 For example, the target is a character of a spectator appearing in the game. For example, it is a character of a spectator in a music game, a performance game or a sports game. In this case, the response voice is a voice such as cheers, screams and calls, and the response tone is a clap, a whistling, a stepping tone and the like. Alternatively, the target character may be an opponent character in a match game, a cooperative character of the user, or the like.
また音処理部130は、ターゲットの種類、ターゲットとユーザとの位置関係、及びターゲットに対するユーザの視線方向の少なくとも1つに応じて、応答音声又は応答音を変化させる処理を行う。例えばユーザ音声の入力に対して、ターゲットの応答音声又は応答音が出力される場合に、当該ターゲットの種類に応じて応答音声又は応答音を異ならせる。ターゲットの種類は、例えば性別(男、女)、年齢層(子供、大人等)、性格(熱狂タイプ、冷静タイプ等)、又は属性(火、土、水等)などに応じたターゲット(キャラクタ)の分類の違いである。ターゲットとユーザとの位置関係は、例えばターゲットの位置及び方向の少なくとも一方とユーザの位置及び方向の少なくとも一方の関係を表すものである。ターゲットに対するユーザの視線方向は、例えばターゲットの位置に対してユーザの視線方向がどのような方向になっているかである。
Further, the
なお、ターゲットは、仮想空間(オブジェクト空間)における場所(例えば観客席における席)を表すものであってもよい。この場合には、仮想空間の各場所(ターゲット)に関連づけて属性データ(制御データ)を記憶しておき、ユーザの視線方向が、その場所(ターゲット)の方を向いていると判断した場合には、当該場所に関連づけられた属性データ(場所の属性を表すデータ)を用いて、応答音声又は応答音を変化させる処理を行う。この属性データは例えば空間情報記憶部172に記憶しておくことができる。
The target may represent a place in a virtual space (object space) (for example, a seat in a spectator seat). In this case, attribute data (control data) is stored in association with each place (target) in the virtual space, and it is determined that the user's gaze direction is directed to the place (target). The process of changing the response voice or the response sound is performed using the attribute data (data representing the attribute of the place) associated with the place. This attribute data can be stored, for example, in the space
また応答音声又は応答音を変化させる処理は、例えば応答音声又は応答音にエフェクトをかけるなどして加工する処理、応答音声又は応答音に対して異なる音声又は音を合成する処理、或いは応答音声又は応答音を生成する音データの組合わせや種類や数を変更する処理などである。 Further, the process of changing the response voice or the response sound is, for example, a process of processing the response voice or the response sound by applying an effect, a process of synthesizing a different voice or sound for the response voice or the response voice, or a response voice or It is a process of changing the combination, type, and number of sound data for generating a response sound.
また測定処理部119は、ユーザ音声の特徴量の解析処理を行う。そして音処理部130は、ユーザ音声の特徴量の解析処理の結果に応じて、応答音声又は応答音を変化させる処理を行う。ユーザ音声の特徴量は、例えばユーザ音声の音の大きさ、高さ、音色又は種類に関する特徴量である。ユーザ音声の特徴量の解析処理は、例えば周波数解析処理などにより実現できる。例えばユーザ音声のデータに対して所定区間(数十ms)ごとに周波数分析を行い、音声の周波数成分情報である音響スペクトルを求め、この音響スペクトルを手がかりとしてユーザ音声の特徴量の解析処理を行う。そして解析処理の結果に応じて、応答音声又は応答音を変化させる。例えばユーザ音声の特徴量の解析処理の結果から、ユーザの性別や年齢層が判別された場合には、判別された性別や年齢層に応じて、応答音声又は応答音を変化させる。例えばユーザが男性である場合には、男性用の応答音声又は応答音を出力し、ユーザが女性である場合には、女性用の応答音声又は応答音を出力する。ユーザが大人である場合には、大人用の応答音声又は応答音を出力し、ユーザが子供である場合には、子供用の応答音声又は応答音を出力する。
The
また音処理部130は、ユーザが手に持つ音入力装置161の位置、方向(或いは手の位置、方向)、ユーザが装着するHMD200の位置、方向、ユーザの姿勢、及びユーザの視線の少なくとも1つに応じて、応答音声又は応答音を変化させる処理、或いは応答音声又は応答音を出力する処理、或いは応答音声又は応答音を出力させるためのユーザ音声の入力を受け付ける処理を行う。例えば音処理部130は、音入力装置161(又はそれを持つ手)がどのような位置にあり、或いはどのような方向を向いているかに応じて、応答音声又は応答音を変化させたり、応答音声又は応答音の出力制御(出力タイミングの制御等)を行ったり、ユーザ音声の入力を受け付けるか否かを判断する。またHMD200がどのような位置にあり、或いはどのような方向を向いているかに応じて、応答音声又は応答音を変化させたり、応答音声又は応答音の出力制御を行ったり、ユーザ音声の入力を受け付けるか否かを判断する。或いはユーザの姿勢や視線の状態を検出し、その検出結果に応じて、応答音声又は応答音を変化させたり、応答音声又は応答音の出力制御を行ったり、ユーザ音声の入力を受け付けるか否かを判断する。
Further, the
また音処理部130は、ユーザの過去のプレイ履歴情報に基づいて、応答音声又は応答音を変化させる処理を行う。例えばユーザの過去のプレイ履歴の情報を記憶部170に記憶しておく。そして、ユーザが音入力装置161によりユーザ音声を入力した場合に、このプレイ履歴の情報を記憶部170から読み出し、プレイ履歴の情報に応じて、応答音声又は応答音を変化させる。例えば頻繁にゲームプレイを行っているユーザがユーザ音声を入力した場合と、希にしかゲームプレイを行っていないユーザがユーザ音声を入力した場合とで、出力される応答音声又は応答音を異ならせる。
Further, the
また本実施形態のシミュレーションシステムは、図1に示すように音データを記憶する音データ記憶部175を含む。この音データ記憶部175には、応答音声又は応答音を出力するための複数の音データ(音データファイル)が記憶されている。この場合に音処理部130は、音データ記憶部175に記憶される複数の音データの中から使用する音データを選択する処理、或いは複数の音データを組み合わせる処理を行うことで、応答音声又は応答音の出力処理を行う。例えば応答音声又は応答音を異ならせる処理(変化させる処理)を、複数の音データの中から選択する音データを異なることで実現したり、音データ組合わせを異ならせることで実現する。
The simulation system of the present embodiment also includes a sound
また入力処理部102は、ユーザ音声に対する評価処理が行われる評価期間以外の期間において、応答音声又は応答音を出力させるためのユーザ音声の入力を受け付ける。ユーザ音声に対する評価処理は、ユーザ音声が歌声である場合に、歌唱力に対する評価処理である。そして、歌唱力に対する評価処理が行われる評価期間は、例えば歌唱中の期間であり、評価期間以外の期間は、例えば前奏の期間や間奏の期間などである。ユーザの歌唱中に、その歌声に反応して、応答音声又は応答音が出力されてしまうのは望ましくない。このため、歌唱中の期間では、当該応答音声又は応答音の出力は行わず、歌唱中の期間以外の前奏期間や間奏期間などにおいて、当該応答音声又は応答音の出力を行うようにする。
Further, the
2.本実施形態の手法
次に本実施形態の手法について具体的に説明する。なお、以下では本実施形態の手法が適用されるゲームが、歌の演奏を行う音楽ゲーム(ライブステージのゲーム、カラオケゲーム等)である場合を主に例にとり説明する。しかしながら、本実施形態の手法が適用されるゲームは、これに限定されず、例えば弦楽器(ギター等)、打楽器(ドラム、太鼓等)、或いは鍵盤楽器(キーボード、ピアノ)等の楽器を演奏する音楽ゲーム(リズムや演奏の上手さを競うゲーム)などであってもよい。また本実施形態の手法は、異性キャラクタ等とのコミュニケーションゲーム(人間関係シミュレーションゲーム)、トークバトルなどを行う会話ゲーム(法廷闘争ゲーム、掛け合い漫才ゲーム)、戦闘ゲーム、RPGゲーム、ロボットゲーム、カードゲーム、スポーツゲーム、或いはアクションゲーム等の種々のゲームや、映像コンテンツや音楽コンテンツの再生にも適用可能である。
2. Method of this Embodiment Next, the method of this embodiment will be specifically described. In the following, the case where the game to which the method of the present embodiment is applied is a music game (a game on a live stage, a karaoke game, etc.) for playing a song will be mainly described as an example. However, the game to which the method of this embodiment is applied is not limited to this, and music playing an instrument such as a stringed instrument (guitar etc.), percussion instrument (drum, drum etc.) or keyboard instrument (keyboard, piano) etc. It may be a game (a game in which the player competes in rhythm and performance). In addition, the method according to the present embodiment includes a communication game with a heterosexual character (human relationship simulation game), a conversational game (talk battle game, interplay game), a battle game, an RPG game, a robot game, a card game, etc. The present invention is also applicable to various games such as sports games and action games, and reproduction of video content and music content.
2.1 HMD、プレイエリア
図2(A)に本実施形態のシミュレーションシステムに用いられるHMD200の一例を示す。図2(A)に示すようにHMD200には複数の受光素子201、202、203(フォトダイオード)が設けられている。受光素子201、202はHMD200の前面側に設けられ、受光素子203はHMD200の右側面に設けられている。またHMDの左側面、上面等にも不図示の受光素子が設けられている。
2.1 HMD, Play Area FIG. 2A shows an example of the
またユーザPLは、左手、右手で入力装置160−1、160−2を持っている。入力装置160−1、160−2には、HMD200と同様に複数の受光素子(不図示)が設けられている。また入力装置160−1にはマイク162(広義には音入力装置)が設けられており、ユーザPLは歌の演奏ゲームにおいてマイク162に口を向けて歌うことになる。また入力装置160−1、160−2はゲームコントローラとしても機能し、不図示の操作ボタン、方向指示キー等が設けられている。なおユーザが持つ入力装置160の個数は1個であってもよい。
The user PL also has input devices 160-1 and 160-2 with the left hand and the right hand. Similar to the
またHMD200には、ヘッドバンド260等が設けられており、ユーザPLは、より良い装着感で安定的に頭部にHMD200を装着できるようになっている。そしてユーザPLは、ゲームコントローラとして機能する入力装置160−1、160−2を操作したり、頭部の頷き動作や首振り動作を行うことで、操作情報を入力し、ゲームプレイを楽しむ。頷き動作や首振り動作は、HMD200のセンサ部210等により検出できる。
Further, the
図2(B)に示すように、ユーザPLのプレイエリアにはベースステーション280、284が設置されている。ベースステーション280には発光素子281、282が設けられ、ベースステーション284には発光素子285、286が設けられている。発光素子281、282、285、286は、例えばレーザー(赤外線レーザー等)を出射するLEDにより実現される。ベースステーション280、284は、これら発光素子281、282、285、286を用いて、例えばレーザーを放射状に出射する。そして図2(A)のHMD200に設けられた受光素子201〜203等が、ベースステーション280、284からのレーザーを受光することで、HMD200のトラッキングが実現され、ユーザPLの頭の位置や向く方向(広義にはユーザの位置や方向)を検出できるようになる。また入力装置160−1、160−2に設けられた不図示の受光素子が、ベースステーション280、284からのレーザーを受光することで、入力装置160−1、160−2のトラッキングが実現され、入力装置160−1、160−2の位置や方向を検出できるようになる。これにより、例えばゲーム画像に、入力装置160−1に対応するマイクの画像等を表示することが可能になる。
As shown in FIG. 2 (B),
図3(A)にHMD200の他の例を示す。図3(A)では、HMD200に対して複数の発光素子231〜236が設けられている。これらの発光素子231〜236は例えばLEDなどにより実現される。発光素子231〜234は、HMD200の前面側に設けられ、発光素子235や不図示の発光素子236は、背面側に設けられる。これらの発光素子231〜236は、例えば可視光の帯域の光を出射(発光)する。具体的には発光素子231〜236は、互いに異なる色の光を出射する。そして図3(B)に示す撮像部150をユーザPLの前方側に設置し、この撮像部150により、これらの発光素子231〜236の光を撮像する。即ち、撮像部150の撮像画像には、これらの発光素子231〜236のスポット光が映る。そして、この撮像画像の画像処理を行うことで、ユーザPLの頭部(HMD)のトラッキングを実現する。即ちユーザPLの頭部の3次元位置や向く方向(ユーザの位置、方向)を検出する。
Another example of the
例えば図3(B)に示すように撮像部150には第1、第2のカメラ151、152が設けられており、これらの第1、第2のカメラ151、152の第1、第2の撮像画像を用いることで、ユーザPLの頭部の奥行き方向での位置等が検出可能になる。またHMD200に設けられたモーションセンサのモーション検出情報に基づいて、ユーザPLの頭部の回転角度(視線)も検出可能になっている。従って、このようなHMD200を用いることで、ユーザPLが、周囲の360度の全方向うちのどの方向を向いた場合にも、それに対応する仮想空間(仮想3次元空間)での画像(ユーザの視点に対応する仮想カメラから見える画像)を、HMD200の表示部220に表示することが可能になる。なお、発光素子231〜236として、可視光ではなく赤外線のLEDを用いてもよい。また、例えばデプスカメラ等を用いるなどの他の手法で、ユーザの頭部の位置や動き等を検出するようにしてもよい。
For example, as shown in FIG. 3B, the
なお、ユーザの視点位置、視線方向(ユーザの位置、方向)を検出するトラッキング処理の手法は、図2(A)〜図3(B)で説明した手法には限定されない。例えばHMD200に設けられたモーションセンサ等を用いて、HMD200の単体でトラッキング処理を実現してもよい。即ち、図2(B)のベースステーション280、284、図3(B)の撮像部150などの外部装置を設けることなく、トラッキング処理を実現する。或いは、公知のアイトラッキング、フェイストラッキング又はヘッドトラッキングなどの種々の視点トラッキング手法により、ユーザの視点位置、視線方向などの視点情報等を検出してもよい。
Note that the method of tracking processing for detecting the viewpoint position of the user and the gaze direction (the position and direction of the user) is not limited to the method described in FIGS. 2 (A) to 3 (B). For example, a tracking process may be realized with the
図4、図5に本実施形態のゲームが実現されるプレイエリアの一例を示す。このプレイエリアは、ボックス状の防音の個室により実現される。図4、図5に示すようにボックスの個室は、壁301、302、303、304、天井305、ドア306を有する。壁301、302、303、304、天井305の内側にはクッション材としても機能する防音材311、312、313、314、315が設けられている。また天井305には前述のベースステーション280、284や照明器具290、292が設置されている。
4 and 5 show an example of a play area in which the game of the present embodiment is realized. This play area is realized by a box-like soundproof private room. As shown in FIGS. 4 and 5, the box compartment has
ユーザPLの前側にはフロントスピーカ330、331、センタースピーカ332が設置され、後ろ側にはリアスピーカ333、334、ウーハー335が設置される。これらのスピーカによりサラウンド音響が実現される。そしてウーハー335が収容されている収容ボックス内に、巻き取り装置50が収容されている。この巻き取り装置50は回転リール62を有しており、ケーブル20は、収容ボックス(棚)に設けられたケーブル通過口52を通って、回転リール62により巻き取られる。
ユーザPLは図5のドア306を開けて個室内に入り、ゲームをプレイする。この個室内の空間がユーザPLのプレイエリア(プレイ空間、実空間)になる。そして図5に示すように、ボックスの個室のプレイエリアには、ユーザPLの移動範囲(移動可能範囲)として想定されるエリアARが設定される。このエリアAR内では、ステーション280、284等を用いたユーザPLの位置、方向(視点位置、視線方向)のトラッキングが可能になっている。一方、エリアARの境界BDを越えた位置では、確実なトラッキングを実現できない。またユーザPLがエリアARの境界BDを越えると、壁301、302、303、304にぶつかるおそれがあり、安全面の上で望ましくない。エリアARの設定は、例えばゲーム装置のイニシャライズ設定などにより、その範囲を設定可能になっている。
The user PL opens the
そして図4、図5に示すように、ユーザPLは腰ベルト30を装着している。腰ベルト30には収容部32が取り付けられており、この収容部32内にケーブル20の中継点RPが設けられる。ケーブル20は、HMD200から中継点RPを経由して巻き取り装置50により巻き取られる。ケーブル部分21とケーブル部分22の間のポイントが中継点RPになる。なおケーブル20には、ユーザPLが基準位置に立っている際にケーブル20を弛ませるためのストッパー26が設けられている。
Then, as shown in FIG. 4 and FIG. 5, the user PL wears the
2.2 ゲームの概要
次に、本実施形態の手法により実現されるゲームの概要について説明する。本実施形態により実現されるゲームは、本物のライブステージのような臨場感の中、バンドのボーカルになりきって、ボーカル演奏を行う音楽ゲームである。ユーザは、大観衆を目前にして歌うという、かつてない高揚感を感じつつ、自分のファンからの歓声を全身に浴びる強烈な快感を得ることができる。HMDと大出力のサラウンドスピーカーにより、まるで本物のライブステージに出演し、自分のファンに囲まれて歌っているかのような、臨場感を得ることができる。
2.2 Outline of Game Next, an outline of a game realized by the method of the present embodiment will be described. The game realized by the present embodiment is a music game in which a vocal performance is performed while becoming a vocal of a band in the presence like a real live stage. The user can obtain an intense feeling of exhilarating sensation from his fans while feeling the sensation of exhilaration that he sings in front of a large audience. The HMD and high-output surround speakers give you a sense of presence, as if you were singing on a real live stage and being surrounded by your fans.
ステージの周りの観客は、ユーザのボーカル演奏やステージアクションに反応して、派手な声援や様々なアクションをインタラクティブに返してくる。HMDによる、まるでその場に立っているかのような臨場感のライブステージの上で、表情まで見える最前列のファンをはじめ、会場を埋める満員の観客の前で、バンドメンバーの演奏と共に、自分の歌とライブパフォーマンスを行って、観客の期待に応える。 The audience around the stage interactively returns loud cheers and various actions in response to the user's vocal performance and stage actions. In front of a crowd of spectators who fill the hall, including the front row fans who can see facial expressions on a live stage with a sense of realism, such as standing on the spot by HMD, with their band members playing their own Meet the audience's expectations by singing and performing live performances.
ユーザは共有スペースに設けられた受け付けスペースで、入室時間の予約やプレイ設定を行い、図4、図5に示すようにクッション材(防音材)が貼られた安全な個室内で、ライブ出演体験を楽しむ。 Users make room reservation and play settings in the reception space provided in the common space, and as shown in Fig. 4 and Fig. 5, they can experience live appearances in a safe private room with a cushioning material (soundproofing material) affixed. Enjoy.
ユーザは、ステージ出演前のプレイ設定において、コンサート出演モードを選択する。その後、歌う曲の選択を行い、出演ステージを選択する。そして図2(A)、図2(B)等で説明したHMD200、入力装置160−1、160−2などのデバイスや、腰ベルト30を装着する。店舗のオペレータが、注意事項等を説明し、ユーザのデバイス等の装着や調整を補助する。プレイエリアである個室空間のキャリブレーション(イニシャライズ)は、オペレータが事前に行う。
The user selects the concert appearance mode in the play setting before stage appearance. Then, select the song to sing, and select the appearance stage. Then, the devices such as the
図2(A)の入力装置160−1は、マイク&ゲームコントローラになっている。VR(バーチャルリアリティ)空間内では、ユーザ(仮想ユーザ)の腕や手は描画されないが、ユーザが手で持っている入力装置160−1等の位置がセンシングされ、同じ位置にマイク画像が描画され、ユーザの動きに応じてマイク画像が動くようになる。 The input device 160-1 in FIG. 2A is a microphone & game controller. In the VR (Virtual Reality) space, although the user's (virtual user) 's arms and hands are not drawn, the position of the input device 160-1 etc. held by the user is sensed and a microphone image is drawn at the same position. The microphone image moves according to the movement of the user.
ユーザは、VR空間のスタンバイルームで、ボーカルのキー調整を行う。スタンバイルームは、ステージの下の待機スペースである。VR空間においてユーザが立っているスペースは大きなリフトになっていて、本番時にはステージ上にせり上がる。 The user performs vocal key adjustment in the standby room of the VR space. The standby room is a standby space below the stage. The space where the user stands in the VR space is a large lift, and during production, it rises on the stage.
リフトが上昇しステージが近づいて来るのに合わせて、遠くから聞こえていたホールの歓声や掛け声が徐々に大きくなり、迫力を増し、且つ、生々しく変化する。ステージ上にユーザが出現すると、ユーザに向けて前方から逆光のスポットライトが当てられ、ユーザの登場で最高潮に達した大歓声が起こる。 As the lift goes up and the stage approaches, the cheers and screeches of the hall that were heard from a distance gradually increase, becoming more powerful and vibrantly changing. When the user appears on the stage, the backlight is backlit from the front toward the user, and a loud cheer that reaches the climax occurs when the user appears.
ライブの本番ではユーザは、思う存分、ステージでの熱唱を楽しむ。図6、図7は、ステージ上のユーザのHMD200に表示されるゲーム画像(VR空間での画像)の例である。図6、図7に示すようにユーザの目の前には満員の観客が映し出される。図6はユーザが正面を向いた場合のゲーム画像であり、図7は、ユーザが右方向を向いた場合のゲーム画像である。
In live performances, the user enjoys the most enjoyable on stage performance. 6 and 7 show examples of game images (images in the VR space) displayed on the
図6、図7に示すように、HMD200を用いる本実施形態のゲーム装置では、ユーザの全周囲の方向に亘って、仮想空間であるVR空間の世界が広がる。例えばHMD200を装着したユーザが前方向を向けば、図6のゲーム画像がHMD200に表示され、右方向を向けば、図7のゲーム画像が表示される。後ろ方向を向けば、演奏バンドなどの画像が表示される。従って、多数の観客が歓声を上げる巨大なコンサートホールにおいて、ボーカル演奏しているかのような仮想現実感をユーザに与えることができ、ゲームへの没入度等を格段に向上できる。
As shown in FIGS. 6 and 7, in the game device of the present embodiment using the
また本実施形態では、曲の抑揚に合わせて観客の動き(アクション)や歓声が変化する。またユーザのアクションに応じるように、観客の動きや歓声が変化する。例えば図6において、ユーザが立つステージの近くの観客AD1〜AD7は、例えば多数のポリゴンで構成されるポリゴンモデルのオブジェクトにより表現されている。図7の観客AD8〜AD11も同様である。一方、ステージから遠い位置にいる観客は、ユーザの視線に正対するビルボードポリゴンに描かれた画像により表現されている。 Further, in the present embodiment, the movement (action) and cheers of the audience change in accordance with the tonation of the song. Also, the movements and cheers of the audience change so as to respond to the user's action. For example, in FIG. 6, the spectators AD1 to AD7 near the stage on which the user stands are represented by objects of a polygon model configured of, for example, a large number of polygons. The same applies to the audiences AD8 to AD11 in FIG. On the other hand, a spectator at a position far from the stage is represented by an image drawn on a billboard polygon facing the user's gaze.
ポリゴンモデルの観客(AD1〜AD11)は、例えばモーションデータによるモーション再生によりその動きが表現されている。これらの観客は、曲のリズムにのって基本アクション(基本モーション)を行う。観客は、ユーザの声や動きに応じも、インタラクティブにリアクションする。ユーザが、例えば「特定の方向を向いて歌う」、「手を振る」といったアクションを行うことで、その方向の観客のテンションが上がり、基本アクションが、1段階、派手になったり、或いは曲のリズムとは関係ない突発的な盛り上がりアクションを行うようになる。 The movement of the spectators (AD1 to AD11) of the polygon model is represented by motion reproduction using motion data, for example. These spectators perform basic actions (basic motions) according to the rhythm of the song. The audience reacts interactively according to the voice and movement of the user. For example, when the user performs an action such as "sing to a specific direction" or "swing", the audience's tension in that direction is increased, and the basic action becomes one step, becomes brighter, or It will perform a sudden upsurge action that has nothing to do with the rhythm.
図8は、VR空間においてユーザPL(仮想ユーザ)が立つステージSGを、上方から俯瞰した様子を示す図である。ステージSGは境界BDSにより区画されており、ステージSGの周りの観客席SE1、SE2、SE3には、図6、図7に示すようにアクションする観客が配置されている。このステージSGの境界BDSは、例えば図5の現実世界のプレイエリアのエリアARの境界BDに対応している。一例としては、図5の現実世界のエリアARの境界BDから例えば所定距離だけ内側に対応する位置に、VR空間でのステージSGの境界BDSが設定されている。 FIG. 8 is a view showing the stage SG where the user PL (virtual user) stands in the VR space as viewed from above. The stage SG is divided by the boundary BDS, and in the audience seats SE1, SE2, SE3 around the stage SG, spectators who perform actions as shown in FIGS. 6 and 7 are arranged. The boundary BDS of the stage SG corresponds to, for example, the boundary BD of the area AR of the real-world play area shown in FIG. As an example, the boundary BDS of the stage SG in the VR space is set at a position corresponding to, for example, a predetermined distance inward from the boundary BD of the area AR of the real world in FIG.
本実施形態ではユーザは、観客を盛り上げるためのパフォーマンスを行うことができる。ユーザに向けて何らかのアピールのアクションをしてくる観客が、当該パフォーマンスのターゲットになる。例えば図6では、観客AD4が、右手を高く上げてユーザに対してアピールのアクションを行っており、この観客AD4がターゲットになる。また図7ではアピールのアクションを行っている観客AD10がターゲットになる。 In the present embodiment, the user can perform a performance to boost the audience. A spectator who makes some appealing action towards the user is the target of the performance. For example, in FIG. 6, the spectator AD 4 raises the right hand to perform an appealing action to the user, and the spectator AD 4 becomes a target. Further, in FIG. 7, a spectator AD 10 performing an action of appeal is a target.
これらのアピールする観客に対して、ユーザがアクションを行うことで、これらの観客の熱狂度パラメータ(熱狂度ゲージ)の値が上昇する。そして熱狂度パラメータが最大値になると、これらの観客が、大喜びを表現する熱狂アクションを行うようになる。 As the user performs an action on these appealing spectators, the value of the enthusiasticness parameter (the enthusiasticity gauge) of these spectators increases. And when the enthusiasm parameter reaches its maximum value, these spectators will perform enthusiasm actions that express joy.
アピールする観客に対してユーザが行う第1のアクションは、そのターゲットの観客の方に視線を向けて歌うアクションである。この第1のアクションが行われるのは、楽曲の歌唱パートと間奏パートのうち、歌唱パートにおいてである。 The first action performed by the user on the appealing audience is an action of singing and aiming at the target audience. The first action is performed in the singing part of the singing part and the interlude part of the music.
アピールする観客に対してユーザが行う第2のアクションは、観客に対して呼びかけなどの発声を行うアクションである。ユーザの呼びかけの発声に対して、観客は声援や掛け声や拍手などで応答する。ユーザは、観客からの声援や掛け声や拍手に合わせて、腕を上げるアクションなどを行う。 The second action performed by the user on the appealing audience is an action for vocalizing the audience or the like. The audience responds to the user's vocalization by cheering, cheering, applause, etc. The user performs an action such as raising an arm in accordance with cheers, screams and applause from the audience.
これらの第1、第2のアクションのターゲットとなる観客は、例えばランダムにコンサートホール内で発生する。ユーザの1曲の演奏におけるターゲットの数は所定数に決まっている。ターゲットとなる所定数の全ての観客について、熱狂度パラメータが最大値になり盛り上げに成功すると、全クリアになる。例えばターゲットとなる観客の数が10人である場合に、これらの10人の全ての観客の熱狂度パラメータが最大値に達すると、ターゲットの全クリアになる。この場合に、ターゲットのクリア数に応じて、最後のステージエフェクトの種類が変化する。例えば10人のターゲットの全てをクリアした場合には、最後のステージにおいて最も派手なエフェクトが発生する。また例えば8人のターゲットをクリアした場合には、5人のターゲットをクリアした場合に比べて、より派手なエフェクトが発生する。 Audiences targeted by these first and second actions occur, for example, randomly in the concert hall. The number of targets in one song played by the user is fixed to a predetermined number. If the enthusiasm parameter reaches its maximum value for all the predetermined number of target audiences to be targeted and if the enthusiasm is successful, then all will clear. For example, in the case where the number of target audiences is 10, when the enthusiasm parameter of all the 10 audiences reaches the maximum value, the target becomes completely clear. In this case, the type of the last stage effect changes in accordance with the number of cleared targets. For example, if all 10 targets are cleared, the most spectacular effect occurs on the last stage. Further, for example, when eight targets are cleared, a more flashy effect occurs than when five targets are cleared.
また本実施形態ではユーザの歌唱力が評価される。即ち、ユーザの歌の音程とリズムが検知されて評価される。具体的には、リズムに合わせた発声が出来たかを評価する。例えば、ベース又はドラムの演奏の指定タイミングに合わせて、ユーザが発声できると、ポイントが加算される。また、ロングトーンの上手さや、休符についての正確性なども評価される。また音程の正確性も評価する。即ち、ユーザの歌の音程判定を行い、正解な音程で歌った音程をグラフ的に表示する。なお、ユーザの音量がゼロの状態が一定時間、継続すると、観客の多くは待機モーションに移行し、その間はユーザはポイント加算を得ることができない。 In the present embodiment, the user's singing ability is evaluated. That is, the pitch and rhythm of the user's song are detected and evaluated. Specifically, it is evaluated whether a voice matched to the rhythm has been achieved. For example, points can be added when the user can utter at the designated timing of the bass or drum performance. In addition, the accuracy of the long tone, the accuracy of the rest, etc. are also evaluated. Also assess the accuracy of the pitch. That is, it determines the pitch of the user's song, and graphically displays the pitches sang at the correct pitch. It should be noted that when the user's volume continues to be zero for a certain period of time, most of the spectators shift to the standby motion, during which the user can not obtain point addition.
ユーザの演奏が終了し、ライブステージを通してのユーザの評価結果が一定基準を満たすと、観客はアンコールを求めて来る。そのアンコールに応えることで、ユーザは更に1曲、追加で演奏できるようになる。そしてライブステージの終了時には、フェードアウトする歓声の中で、照明はさらに暗くなり、ブラックアウトして終了する。その後、「お疲れ様でした、HMDを外してください」といった表示及びガイド音声が流れる。そしてユーザは装備を外して個室から退室し、ゲームプレイの終了となる。 When the user's performance is finished and the evaluation result of the user through the live stage satisfies a certain standard, the spectator comes for encore. Responding to the encore allows the user to play one more song additionally. And at the end of the live stage, in the faded out cheers, the lights get darker, black out and finished. After that, a message such as "Thank you for your kindness, please remove the HMD" and a guide sound are heard. Then, the user removes the equipment and leaves the room, and the game play ends.
2.3 ユーザ音声入力に対する応答
本実施形態ではユーザの音声入力に対して、応答音声、応答音を出力して応答する手法を採用している。例えば図6、図7の観客(広義にはターゲット)に対して、ユーザがマイク162に音声を入力して呼びかけ(コール)を行うと、観客からの歓声、掛け声、拍手、足踏み音又は口笛などの応答(レスポンス)が返ってくる。即ち、これらの歓声、掛け声、拍手、足踏み音又は口笛などの応答音声、応答音が、図4、図5のスピーカ330〜334から出力される。なお、以下では、音入力装置161が、図2(A)に示すようなハンドマイク形状のマイク162である場合を例にとり説明する。
2.3 Response to User Voice Input In this embodiment, a method of outputting a response voice and a response tone to respond to the user's voice input is adopted. For example, when the user makes a call to the audience (in a broad sense, the target in FIG. 6 or FIG. 7) by inputting a voice to the
例えば図9では、ユーザPLは、観客ADA、ADB、ADCの方に視線VLPを向けて、「イェーイ」という呼びかけを行っている。即ち、マイク162に「イェーイ」というユーザ音声を入力している。このようなユーザ音声の入力が行われると、所与の時間経過後に、図9に示すように観客ADA、ADB、ADCが歓声、拍手、口笛などで応答する。このようなコール&レスポンス(C&R)の手法を採用することで、ユーザは、仮想空間の観客を、あたかも本物の人間の観客のように感じることが可能になり、ユーザの仮想現実感を大幅に向上できる。
For example, in FIG. 9, the user PL turns the line of sight VLP toward the audience ADA, ADB, and ADC, and makes a call "Yay." That is, the user voice "Yay" is input to the
この場合に、ユーザからの呼びかけ(コール)に対する観客の応答(レスポンス)が、ワンパターンでバラエティー度のない応答になってしまうと、ユーザは、あたかもロボットを相手に呼びかけを行っているかのような感覚を持ってしまい、仮想現実感が損なわれてしまう。 In this case, if the audience's response to the user's call (call) is a one-pattern non-variate response, the user is as if it were calling to the robot. It has a sense and virtual reality is lost.
一方、ユーザ音声の音声認識処理などを行って、複雑なアルゴリズムの処理により、観客の応答音声や応答音を生成しようとすると、処理負荷が過大になってしまい、シミュレーションシステムが行う他の処理(画像生成処理等)に悪影響を与えてしまう。 On the other hand, if it is attempted to generate a response voice or a response sound of a spectator by processing of a complex algorithm by performing voice recognition processing of user voice, etc., the processing load becomes excessive, and other processing performed by the simulation system ( It adversely affects the image generation processing etc.).
そこで本実施形態では、マイク162(広義には音入力装置)により入力されたユーザ音声の音量や長さの測定処理を行う。そして、ユーザ音声の音量や長さの測定処理の結果に基づく応答音声、応答音を出力する手法を採用している。 So, in this embodiment, the measurement process of the volume and length of the user's voice inputted by microphone 162 (sound input device in a broad sense) is performed. And the method of outputting the response sound and the response sound based on the result of the measurement process of the volume and length of the user voice is adopted.
図9を例にとれば、ユーザPLがマイク162を用いて呼びかけの音声(「イェーイ」)を入力すると、この呼びかけの音声の音量や長さが測定される。そして、呼びかけの音声の音量に応じて、観客ADA〜ADCの歓声、拍手等の応答音声、応答音を異ならせる。また呼びかけの音声の長さに応じて、観客ADA〜ADCの歓声、拍手等の応答音声、応答音を異ならせる。例えば応答音声、応答音の種類、音量(強さ)、音の高さ又は音色などを異ならせる。例えば図1の音データ記憶部175の複数の音データの中から選択される音データや、音データの組合わせを、呼びかけの音声の音量や長さに応じて異ならせる。例えば呼びかけ音声の音量に応じて、異なる音データを選択したり、異なる組合わせの音データを使用する。また呼びかけ音声の長さに応じて、異なる音データを選択したり、異なる組合わせの音データを使用する。
In the example of FIG. 9, when the user PL inputs the voice of the call ("Yay") using the
図10は、ユーザ音声の音量、長さに応じて、応答音声、応答音を異ならせる手法について説明する図である。なお図10のRS11〜RS35の各応答音声、応答音は、音データ記憶部175の複数の音データから選択された音データ、或いは音データの組合わせにより実現される。
FIG. 10 is a view for explaining a method of making the response sound and the response sound different according to the volume and the length of the user sound. The response sounds and response sounds of RS11 to RS35 in FIG. 10 are realized by sound data selected from a plurality of sound data in the sound
例えばマイク162に入力されたユーザ音声の音量がLV1である場合(LV1を越えた場合又は0〜LV1である場合)には、ユーザ音声の長さ(尺)に応じて、RS11、RS12、RS13、RS14、RS15のいずかの応答音声、応答音(音データ又は音データの組合わせ)が選択されて出力される。例えばユーザ音声の長さがT1である場合(T1を越えた場合又は0〜T1である場合)には、RS11の応答音声、応答音が出力される。ユーザ音声の長さがT2である場合(T2を越えた場合又はT1〜T2である場合)には、RS12の応答音声、応答音が出力される。同様にユーザ音声の長さがT3、T4、T5である場合には、各々、RS13、RS14、RS15の応答音声、応答音が出力される。
For example, when the volume of the user voice input to the
またマイク162に入力されたユーザ音声の音量がLV2である場合(LV2を越えた場合又はLV1〜LV2である場合)には、ユーザ音声の長さに応じて、RS21、RS22、RS23、RS24、RS25のいずかの応答音声、応答音が選択されて出力される。例えばユーザ音声の長さがT1、T2、T3、T4、T5である場合には、各々、RS21、RS22、RS23、RS24、RS25の応答音声、応答音が出力される。
When the volume of the user's voice input to the
またマイク162に入力されたユーザ音声の音量がLV3である場合(LV3を越えた場合又はLV2〜LV3である場合)には、ユーザ音声の長さに応じて、RS31、RS32、RS33、RS34、RS35のいずかの応答音声、応答音が選択されて出力される。例えばユーザ音声の長さがT1、T2、T3、T4、T5である場合には、各々、RS31、RS32、RS33、RS34、RS35の応答音声、応答音が出力される。
When the volume of the user's voice input to the
このような手法を採用すれば、例えば図9において、ユーザPLが入力した呼びかけの音声の音量、長さが異なると、それに応じて観客ADA〜ADCの歓声、掛け声、拍手、口笛等が異なった音になる。 If such a method is adopted, for example, if the volume and length of the voice of the call inputted by the user PL differ in FIG. 9, for example, the cheers, screams, applauses, and whistles of the audience ADA to ADC differ accordingly. It becomes a sound.
例えば呼びかけの音声の音量が小さい場合には、歓声、掛け声が低い音声になったり、歓声、掛け声の音量が小さくなる。また拍手や口笛が混ざる割合も少なくなる。一方、呼びかけの音声の音量が大きい場合には、歓声、掛け声が高い音声(高周波成分が入った音)になったり、歓声、掛け声の音量が大きくなる。また拍手や口笛が混ざる割合も多くなる。 For example, when the volume of the voice of the call is small, the cheers and squeals become low voices, and the volume of the cheers and squeaks become smaller. Also, the ratio of clapping and whistling is reduced. On the other hand, when the volume of the calling voice is large, the cheering voice becomes a high voice (sound containing high frequency components) or the volume of the cheering voice or the cheering voice becomes large. In addition, the ratio of clapping and whistling also increases.
また呼びかけの音声の長さが短い場合には、歓声、掛け声の長さも短くなる。また拍手や口笛は混ざらなかったり、後半に少しだけ拍手や口笛の音がする。一方、呼びかけの音声の長さが長い場合には、歓声、掛け声の長さも長くなる。また歓声、掛け声の音の高さを上げたり、音量を上げてもよい。また呼びかけの音声の長さが長い場合には、多くの拍手や口笛が混ざるようになり、これに加えて足踏み音が混ざったり、アンコールの声などが混ざるようになる。 In addition, when the length of the voice of the call is short, the length of the cheers and the hail also becomes short. In addition, clapping and whistling do not mix, and in the second half, only a little clapping and whistling sounds. On the other hand, when the length of the voice of the call is long, the length of the cheers and the hail also becomes long. You may also want to raise the pitch of the cheers and urges, or raise the volume. In addition, when the length of the voice of the call is long, many applauses and whistles will be mixed, and in addition to this, footsteps will be mixed and an encore voice will be mixed.
このように本実施形態では、ユーザ音声の音量、長さに応じて、応答音声、応答音が異なった音になる。従って、あたかも本物の人間の観客が、歓声や拍手などを行っているかのような感覚を、ユーザに与えることができ、ユーザの仮想現実感を向上できる。即ち、観客の歓声や拍手による応答が、ワンパターンではなく、多様で変化に満ちているため、ロボットを相手にしているような感覚をユーザに与えることがなく、バーチャルリアリティへのユーザの没入度を増すことができる。 As described above, in the present embodiment, the response sound and the response sound have different sounds according to the volume and the length of the user voice. Therefore, it is possible to give the user a feeling as if a real human spectator is cheering or applauding, and the virtual reality of the user can be improved. That is, since the response from the spectators' cheers and applause is not one pattern, but varied and full of change, it does not give the user a sense of being opposed to the robot, and the user's degree of immersion in virtual reality Can be increased.
図11(A)、図11(B)は、ユーザ音声の音量、長さに応じて、応答音声、応答音を異ならせ処理の具体例を示す図である。 FIGS. 11A and 11B are diagrams showing a specific example of the process of making the response sound and the response sound different according to the volume and length of the user voice.
図11(A)において、A1はユーザ音声の波形である。そして図11(A)では、ユーザ音声の音量が、音量レベルLV1(第1〜第Nの音量レベルのうちの第iの音量レベル)を越えたタイミングから、音量レベルLV1を下回ったタイミングまでの長さTL1を測定する。そして測定された長さTL1に応じて、応答音声、応答音を異ならせる。例えば長さTL1が長い場合と、短い場合とで、応答音声、応答音を異ならせる。 In FIG. 11A, A1 is a waveform of user voice. Then, in FIG. 11A, from the timing when the volume of the user's voice exceeds the volume level LV1 (the i'th volume level among the first to Nth volume levels), to the timing when the volume falls below the volume level LV1. Measure the length TL1. Then, the response sound and the response sound are made different according to the measured length TL1. For example, the response sound and the response sound are made different depending on whether the length TL1 is long or short.
またユーザ音声の音量が、音量レベルLV2(第1〜第Nの音量レベルのうちの第jの音量レベル)を越えたタイミングから、音量レベルLV2を下回ったタイミングまでの長さTL2を測定する。そして測定された長さTL2に応じて、応答音声、応答音を異ならせる。例えば長さTL2が長い場合と、短い場合とで、応答音声、応答音を異ならせる。この場合にユーザ音声の音量が、音量レベルLV1(第iの音量レベル)を越えた場合と、音量レベルLV2(第jの音量レベル)を越えた場合とで、応答音声、応答音を異ならせる。 Further, the length TL2 from the timing when the volume of the user's voice exceeds the volume level LV2 (the jth volume level of the first to Nth volume levels) to the timing when the volume falls below the volume level LV2 is measured. Then, the response sound and the response sound are made different according to the measured length TL2. For example, the response sound and the response sound are made different between when the length TL2 is long and when the length TL2 is short. In this case, the response sound and the response sound are differentiated depending on whether the volume of the user voice exceeds the volume level LV1 (i-th volume level) and the volume level LV2 (j-th volume level). .
またユーザ音声の音量が、音量レベルLV3を越えたタイミングから、音量レベルLV3を下回ったタイミングまでの長さTL3を測定する。そして測定された長さTL3に応じて、応答音声、応答音を異ならせる。例えば長さTL3が長い場合と、短い場合とで、応答音声、応答音を異ならせる。この場合にユーザ音声の音量が、音量レベルLV1、LV2を越えた場合と、音量レベルLV3を越えた場合とで、応答音声、応答音を異ならせる。 Also, the length TL3 from the timing when the volume of the user voice exceeds the volume level LV3 to the timing when the volume falls below the volume level LV3 is measured. Then, the response sound and the response sound are made different according to the measured length TL3. For example, the response sound and the response sound are made different between when the length TL3 is long and when the length TL3 is short. In this case, the response sound and the response sound are made different depending on whether the volume of the user's voice exceeds the volume levels LV1 and LV2 or LV3.
図11(B)では、図11(A)とはユーザ音声の信号波形が異なっている。例えば音量レベルLV1、LV2、LV3での音声の長さTL1、TL2、TL3が、図11(A)と図11(B)とでは異なっている。例えば図11(B)では、音量レベルLV3での長さTL3が図11(A)よりもかなり短くなっている。従って、出力される応答音声、応答音も異なった音になる。図11(B)のように後ろ盛り上がりタイプのユーザ音声が入力されると、その音量が音量レベルLV3に到達するまでの時間が遅れるため、それに対応する応答音声、応答音も遅れるようになる。 In FIG. 11B, the signal waveform of the user voice is different from that of FIG. For example, the sound lengths TL1, TL2, and TL3 at the volume levels LV1, LV2, and LV3 are different between FIG. 11 (A) and FIG. 11 (B). For example, in FIG. 11 (B), the length TL3 at the volume level LV3 is considerably shorter than that of FIG. 11 (A). Therefore, the response sound and the response sound to be output also have different sounds. As shown in FIG. 11 (B), when a back rising type user voice is input, the time for the volume to reach the volume level LV3 is delayed, so that the corresponding response voice and response voice are also delayed.
例えば図11(A)、図11(B)において、ユーザ音声の音量が音量レベルLV1の場合には、歓声、掛け声は低い声となり、歓声、掛け声の音量も比較的小さくなる。そして長さTL1が長くなると、例えば後半に拍手等が混ざるようになる。 For example, in FIGS. 11 (A) and 11 (B), when the volume of the user's voice is the volume level LV1, the cheering and screeching become low, and the volume of the cheering and screeching becomes relatively small. When the length TL1 is increased, for example, applause etc. will be mixed in the second half.
またユーザ音声の音量が音量レベルLV2の場合には、歓声、掛け声は、音量レベルLV1の場合に比べて、比較的高い音(高周波成分が混ざった音)になると共に音量も大きくなる。そして長さTL2が長くなると、例えば後半に拍手に加えて口笛などが混ざるようになる。 Further, when the volume of the user's voice is the volume level LV2, cheers and cheers become relatively high sounds (sounds in which high frequency components are mixed) and the volume becomes larger as compared with the case of the volume level LV1. Then, when the length TL2 becomes longer, for example, in the second half, in addition to the applause, the whistling becomes mixed.
またユーザ音声の音量が音量レベルLV3の場合には、歓声、掛け声は、音量レベルLV1、LV2の場合に比べて、更に高い音(高周波成分が更に混ざった音)になると共に、音量も更に大きくなる。そして長さTL3が長くなると、例えば後半に拍手、口笛に加えて、足踏み音やアンコールの声が混ざるようになる。 In the case where the volume of the user's voice is the volume level LV3, the cheers and cheers become a higher sound (a sound in which high frequency components are further mixed) and the volume is even larger than in the case of the volume levels LV1 and LV2. Become. When the length TL3 is increased, for example, in the second half, in addition to clapping and whistling, footsteps and encore voices become mixed.
例えばユーザ音声の音量が大きい場合には、ボーカルであるユーザは、観客を盛り上げるために大きな声で呼びかけており、観客の歓声等もその熱意に応えるように、より高周波成分の混ざった音になったり、音量も大きくなる。またユーザ音声の音の長さが長い場合には、ボーカルであるユーザが、何らかのメッセージを伝えようとしていると考えられ、それに応えるように観客が拍手をしたり、口笛を吹いたり、足踏みを行う。こうすることで、ユーザと観客との間で、声によるやり取りや駆け引きが生まれ、あたかも本物の人間の観客を相手に演奏を行っているかのような仮想現実感を、ユーザに与えることが可能になる。 For example, when the volume of the user's voice is large, the user who is the vocal is calling out with a loud voice to excite the audience, and the cheers of the audience also become a mixed sound of high frequency components so as to respond to the enthusiasm. The volume also increases. Also, if the length of the voice of the user voice is long, it is considered that the user who is vocal is trying to transmit some kind of message, and the audience applauds, whistling or stepping in response to it. . In this way, voice communication and bargaining are created between the user and the audience, and it is possible to give the user a virtual reality as if they were playing against the real human audience. Become.
なお音量レベルLV2を越えた場合には、音量レベルLV1用、LV2用の応答音声、応答音の両方を出力するようにしてもよい。同様に音量レベルLV3を越えた場合には、音量レベルLV1、LV2、LV3用の応答音声、応答音の全てを出力するようにしてもよい。 When the sound volume level LV2 is exceeded, both the response sound for the sound volume level LV1 and the response sound for the LV2 may be output. Similarly, when the volume level LV3 is exceeded, all of the response sounds for the volume levels LV1, LV2, LV3 and the response sound may be output.
図12は応答音声、応答音の出力タイミングについて説明する図である。例えば図12ではユーザ音声の音量が音量レベルLV1を越えている。この場合には所与の時間TD1を経過後に、音量レベルLV1及び長さTL1に応じた応答音声、応答音であるRS=RS(LV1、TL1)を出力する。時間TD1は例えば1秒程度の時間である。 FIG. 12 is a diagram for explaining the output timing of the response sound and the response sound. For example, in FIG. 12, the volume of the user's voice exceeds the volume level LV1. In this case, after a given time TD1, a response sound according to the volume level LV1 and the length TL1, RS = RS (LV1, TL1) which is a response sound, is output. The time TD1 is, for example, about one second.
即ち、ユーザからの呼びかけに対して、観客が直ぐに歓声等の応答音声、応答音を返してしまうと、あたかもロボットが歓声等を行っているように聞こえてしまう。そこで図12のように、ユーザからの呼びかけから遅延時間であるTD1の経過後に、観客が応答するようにしている。このように、応答に間を持たせることで、あたかも本物の人間の観客が応答しているかのような感覚を、ユーザに与えることができ、仮想現実感の向上を図れる。 That is, when the spectator immediately returns a response voice such as cheers or a response sound in response to a call from the user, it sounds as if the robot is cheering or the like. Therefore, as shown in FIG. 12, the audience responds after the lapse of time TD1, which is the delay time, from the user's call. In this way, by giving a response to the response, it is possible to give the user a feeling as if a real human audience is responding, and virtual reality can be improved.
なお、ユーザ音声の音量、長さに応じて、応答音声、応答音を異ならせる処理としては種々の変形実施が可能である。 It should be noted that various modifications can be made as processing for differentiating the response sound and the response sound according to the volume and length of the user voice.
例えば図11(A)においてユーザ音声の音量が音量レベルLV1である場合には、この音量レベルLV1に対応する音データのファイルを選択する。そして、この音データの再生時間を、図11(A)の長さTL1に応じて変化させてもよい。例えば音データによる再生音を、長さTL1に応じた時間が経過したタイミングで、フェイドアウトする。例えば長さTL1が短い場合には、音データの再生音がフェイドアウトするタイミングを早くし、長さTL1が長い場合には、フェイドアウトするタイミングを遅くする。同様に、ユーザ音声の音量が音量レベルLV2、LV3である場合にも、音量レベルLV2、LV3に対応する音データのファイルを選択し、長さTL2、TL3に応じて、当該音データのファイルの再生時間を変化させる。即ち、長さTL2、TL3に応じた長さでフェイドアウトするようにする。 For example, when the volume of the user's voice is the volume level LV1 in FIG. 11A, the file of sound data corresponding to the volume level LV1 is selected. Then, the reproduction time of this sound data may be changed according to the length TL1 of FIG. For example, the reproduction sound based on the sound data is faded out at a timing when a time corresponding to the length TL1 has elapsed. For example, when the length TL1 is short, the timing at which the reproduced sound of the sound data is faded out is advanced, and when the length TL1 is long, the timing at which the faded out is delayed. Similarly, even when the volume of the user's voice is at the volume levels LV2 and LV3, the file of sound data corresponding to the volume levels LV2 and LV3 is selected, and the files of the sound data are selected according to the lengths TL2 and TL3. Change playback time. That is, it fades out at a length corresponding to the lengths TL2 and TL3.
或いは、ユーザ音声の長さ(TL1、TL2、TL3)に基づいて、マイク162を使って喋っているユーザの話の内容を推測し、それに応じた応答音声、応答音の音データのファイルを差し替えるようにしてもよい。例えばユーザ音声の長さに応じた複数個(例えば5個)の音データのファイルを用意しておき、ユーザ音声の長さに応じて、使用する音データのファイルを差し替える。
Alternatively, based on the length of the user voice (TL1, TL2, TL3), use the
例えばユーザ音声の長さが極めて短い場合(例えば0.1秒程度)には、ユーザが、あまり意味のない呼びかけ(掛け声)を行っていると推測し、観客の応答もそれに対応する応答にする。例えば観客が短い歓声で応えるだけにする。一方、ユーザ音声の長さが長い場合(例えば1秒〜2秒以上)には、ユーザが、何か意味のある言葉を観客に話しかけていると推測する。そして観客の応答に笑い声を混ぜたり、ユーザの話しかけに賛同するような声を混ぜる。例えばユーザが静かな口調で長い時間、話している場合(ユーザ音声の音量が小さく長い音である場合)には、例えば「次のアルバムが出ます」などの話をしていると推測し、観客に喜んでいる感じの応答を行わせる。このようにすることで、より人間味の溢れる観客の応答が可能になる。 For example, if the length of the user's voice is very short (for example, about 0.1 second), it is presumed that the user is making a meaningful call (a hail) and the audience response is also a corresponding response. . For example, the audience only responds with short cheers. On the other hand, when the length of the user's voice is long (for example, 1 to 2 seconds or more), it is inferred that the user speaks a meaningful word to the audience. Then, laughter is mixed with the audience response, and a voice that agrees with the user's speech is mixed. For example, if the user is speaking in a quiet tone for a long time (when the volume of the user's voice is small and long), it is inferred that, for example, "the next album comes out" Make the audience respond with a happy feeling. By doing this, it is possible to respond to a more human-like audience.
また本実施形態では、ユーザ音声の入力に対する応答音声、応答音は、ゲームにおけるユーザのターゲットの音声、音として出力される。具体的にはゲームに登場する観客のキャラクタの音声、音として出力される。この場合に本実施形態では、観客(ターゲット)の種類、観客とユーザとの位置関係、或いは観客に対するユーザの視線方向に応じて、応答音声、応答音を変化させる。 Further, in the present embodiment, the response voice to the input of the user voice and the response tone are output as the target voice and sound of the user in the game. Specifically, it is output as the voice and sound of the spectator character appearing in the game. In this case, in the present embodiment, the response voice and the response sound are changed according to the type of audience (target), the positional relationship between the audience and the user, or the direction of the user's line of sight with respect to the audience.
例えば図13(A)では、ユーザPLは、男性の観客ADXに対して呼びかけを行っている。この場合に観客ADXの応答音声、応答音は、男性の観客用の応答音声、応答音になる。例えば男性が通常に使用する種類の歓声(例えば「オー」)が、男性の声で返ってくる。一方、図13(B)では、ユーザPLは、女性の観客ADYに対して呼びかけを行っている。この場合に観客ADYの応答音声、応答音は、女性の観客用の応答音声、応答音になる。例えば女性が通常に使用する種類の歓声(例えば「キャー」)が、女性の声で返ってくる。 For example, in FIG. 13A, the user PL is calling for a male audience ADX. In this case, the response sound of the audience ADX, the response sound becomes the response sound for the male audience, the response sound. For example, the kind of cheering that men normally use (for example, "O") comes back in male voice. On the other hand, in FIG. 13 (B), the user PL has made a call to the female audience ADY. In this case, the response voice of the audience ADY and the response tone become the response voice and response tone for the female audience. For example, the kind of cheering that women normally use (for example, "Kah") comes back in the female voice.
このように本実施形態では、観客(ターゲット)の種類に応じて、応答音声、応答音が変化する。例えば観客が男性であるか女性であるかに応じて、応答音声、応答音が変化する。この場合に観客(ターゲット)の種類としては種々のものを想定でき、例えば観客が大人であるか子供であるかに応じて、応答音声、応答音が変化させてもよい。 As described above, in the present embodiment, the response sound and the response sound change in accordance with the type of audience (target). For example, depending on whether the audience is male or female, the response sound and the response sound change. In this case, various types of audiences (targets) can be assumed. For example, the response sound and the response sound may be changed according to whether the audience is an adult or a child.
また図14(A)では、ユーザPL(仮想ユーザ)と観客ADA〜ADCとの距離が遠い。この場合には観客ADA〜ADCの歓声、拍手等の応答音声、応答音の音量を小さくする。一方、図14(B)では、ユーザPLと観客ADA〜ADCとの距離が近い。この場合には観客ADA〜ADCの歓声、拍手等の応答音声、応答音の音量を大きくする。 Further, in FIG. 14A, the distance between the user PL (virtual user) and the audiences ADA to ADC is long. In this case, the volume of the response sound of the cheers of the audience ADA to ADC, the applause, etc., and the response sound is reduced. On the other hand, in FIG. 14B, the distance between the user PL and the audience ADA to ADC is short. In this case, the loudness of response sounds such as cheers and applauses of the audience ADA to ADC and the response sound is increased.
このように本実施形態では、観客(ターゲット)とユーザとの位置関係に応じて、応答音声、応答音を変化させている。即ち、図14(A)での観客ADA〜ADCとユーザPLの位置関係と、図14(B)での観客ADA〜ADCとユーザPLの位置関係は異なるため、応答音声、応答音の音量が変化している。この場合に応答音声、応答音の音の種類、音の高さ又は音色等を、位置関係に応じて変化させてもよい。 As described above, in the present embodiment, the response sound and the response sound are changed according to the positional relationship between the audience (target) and the user. That is, since the positional relationship between the audience ADA to ADC and the user PL in FIG. 14A and the positional relationship between the audience ADA to ADC and the user PL in FIG. 14B are different, the volume of the response sound and the response sound is different. It is changing. In this case, the response sound, the type of the sound of the response sound, the pitch or timbre of the sound may be changed according to the positional relationship.
また図15では、ユーザPLの視線VLPが、正面側の観客ADA〜ADCの方を向いており、右側の観客ADD〜ADFの方には向いていない。このような状態で、ユーザPLが呼びかけの音声を入力すると、ユーザPLが視線VLPを向けている観客ADA〜ADCの応答音声、応答音の音量は大きくなる。一方、ユーザPLが視線VLPを向けていない観客ADD〜ADFの応答音声、応答音の音量は小さくなる。 Further, in FIG. 15, the line of sight VLP of the user PL is directed to the audience ADA to ADC on the front side, and is not directed to the audience ADD to ADF on the right. In such a state, when the user PL inputs the voice of the call, the volume of the response sound and the response sound of the audience ADA to ADC to which the user PL points the sight line VLP becomes large. On the other hand, the volume of the response sound and the response sound of the spectators ADD to ADF in which the user PL is not pointing the line of sight VLP is reduced.
このように本実施形態では、観客(ターゲット)に対するユーザの視線方向に応じて、応答音声、応答音を変化させている。 As described above, in the present embodiment, the response sound and the response sound are changed according to the direction of the user's line of sight with respect to the audience (target).
なお、図15では、観客に対するユーザの視線方向に応じて、応答音声、応答音の音量を変化させているが、応答音声、応答音の音の種類、音の高さ又は音色等を変化させてもよい。 In FIG. 15, the response sound and the volume of the response sound are changed according to the direction of the user's line of sight with respect to the audience, but the response sound, the type of the sound of the response sound, and the pitch or timbre of the sound are changed. May be
またターゲットは、仮想空間(オブジェクト空間)における場所を表すものであってもよい。例えばターゲットは、音楽ゲームやスポーツゲームにおける観客席の各席などの場所(スポット)であってもよい。この場合には、例えば席などの場所に関連づけて属性データ(制御データ)を記憶しておく。そして、熱狂的なファンの席(例えば最前列の席)に対しては第1の属性データ、ティーンエージャーなどの若者でノリが良い客の席(例えば二階席)には第2の属性データ、業界関係者用で殆ど反応が期待できない席には第3の属性データを関連づけておく。そして、ユーザの視線方向が、これらの各席の方を向いていると判断した場合には、その席に関連づけられた属性データに基づいて、応答音声、応答音を変化させて出力する。例えば、熱狂的なファンの席(第1の属性データ)の方にユーザの視線方向が向いていた場合には、熱狂的な歓声、拍手等の応答音声、応答音を出力する。ノリが良い客の席(第2の属性データ)の方に視線方向が向いていた場合には、ノリの良い歓声、拍手等の応答音声、応答音を出力する。 The target may also represent a place in a virtual space (object space). For example, the target may be a spot such as each seat of a spectator seat in a music game or a sports game. In this case, attribute data (control data) is stored in association with, for example, a place such as a seat. The first attribute data is for enthusiastic fan seats (for example, the front row seats), and the second attribute data is for the seats of young people such as teenagers (for example, the second floor seats), The third attribute data is associated with the seat for parties concerned that can hardly expect any reaction. Then, when it is determined that the user's gaze direction is directed to these seats, the response voice and the response sound are changed and output based on the attribute data associated with the seat. For example, when the gaze direction of the user is directed toward the enthusiastic fan's seat (first attribute data), response voices such as enthusiastic cheers and applause, and response sounds are output. When the line of sight is directed to the seat (second attribute data) of the customer who has a good loin, a response voice such as a good cheer or applause and a response sound are output.
また図16(A)では、マイク162に入力されたユーザ音声の特徴量の解析処理が行われている。即ち、ユーザ音声の特徴を検出している。そして本実施形態では、ユーザ音声の特徴量の解析処理の結果に応じて応答音声、応答音を変化させる。即ち、ユーザ音声の特徴(性別、年齢層等)に応じて、応答音声、応答音を変化させる。特徴量の解析処理は、ユーザ音声の音の大きさ、高さ、音色又は種類に関する特徴量を抽出して解析する処理である。これは、例えば周波数解析処理により音響スペクトルなどを求めることで実現される。
Further, in FIG. 16A, analysis processing of the feature amount of the user's voice input to the
そして例えば図16(A)の特徴量解析により、ユーザの性別が男性であると判別されたとする。この場合には図16(B)に示すように、男性の歓声の比率がRAとなり、女性の歓声の比率がRCとなるように、男性の声と女性の声が混ざった歓声を、観客の応答音声、応答音として出力する。ユーザの性別が男性であるため、例えば男性の歓声の比率RAを低くし、女性の歓声の比率RCを高くする。 Then, for example, it is assumed that the gender of the user is determined to be male by the feature amount analysis of FIG. 16 (A). In this case, as shown in FIG. 16 (B), the spectators' cheers are a mixture of male and female voices such that the ratio of males' cheers is RA and the ratio of females' cheers is RC. Response voice, output as response tone Since the gender of the user is male, for example, the ratio RA of male cheers is lowered and the ratio RC of female cheers is increased.
また図16(A)の特徴量解析により、ユーザの性別が女性であると判別されたとする。この場合には図16(B)に示すように、男性の歓声の比率がRBとなり、女性の歓声の比率がRDとなるように、男性の声と女性の声が混ざった歓声を、観客の応答音声、応答音として出力する。ユーザの性別が女性であるため、例えば男性の歓声の比率RBを高くし、女性の歓声の比率RDを低くする。 Further, it is assumed that the gender of the user is determined to be female by the feature amount analysis of FIG. In this case, as shown in FIG. 16 (B), the spectators' cheers are a mixture of male and female voices such that the ratio of males' cheers is RB and the ratio of females' cheers is RD. Response voice, output as response tone Since the gender of the user is female, for example, the ratio RB of male cheers is increased, and the ratio RD of female cheers is decreased.
例えば図16(A)の特徴量解析により、ユーザの年齢層を判別してもよい。そしてユーザの年齢層が若年層である場合には、若年層用の歓声を、観客の応答音声、応答音として出力する。一方、ユーザの年齢層が高齢層である場合には、高齢層用の歓声を、観客の応答音声、応答音として出力する。 For example, the age group of the user may be determined by the feature amount analysis of FIG. Then, when the age group of the user is a young group, the cheers for the young group are output as the response sound and the response sound of the audience. On the other hand, when the user's age group is the elderly, the cheers for the elderly are output as the audience's response sound and response sound.
このようにユーザの音声の特徴を解析し、それに応じた応答音声、応答音を出力すれば、観客の歓声等に、ユーザの性別、年齢層等の特徴が反映されるようになるため、ユーザの仮想現実感を更に向上できる。なお、ユーザ音声の特徴を抽出し、その特徴に応じた加工処理を応答音声、応答音に施すようにしてもよい。例えばユーザ音声における母音の並びだけを抽出し、その母音の並びと同じような母音の並びとなるように、歓声等の応答音声、応答音を加工する。即ち、いわゆるボコーダー(vocoder)のような加工処理を行う。このようにすれば、ユーザ音声の特徴を、より直接的に歓声等に反映させることが可能になる。 In this way, analyzing the characteristics of the user's voice and outputting the response voice and the response sound according to it analyzes the characteristics of the user's gender, age group, etc. in the cheers of the audience, etc. The virtual reality of can be further improved. Note that the feature of the user voice may be extracted, and the processing corresponding to the feature may be applied to the response voice and the response tone. For example, only the sequence of vowels in the user's voice is extracted, and response voices such as cheers and response sounds are processed so as to be a sequence of vowels similar to the sequence of vowels. That is, processing such as a so-called vocoder is performed. In this way, it is possible to more directly reflect the characteristics of the user's voice on cheers and the like.
また本実施形態では、ユーザが手に持つマイク162の位置、方向(或いは手の位置、方向)、ユーザが装着するHMD200の位置、方向、ユーザの姿勢、或いはユーザの視線などに応じて、応答音声、応答音を変化させる処理を行ったり、或いは応答音声、応答音を出力する処理を行ったり、或いは応答音声、応答音を出力させるためのユーザ音声の入力を受け付ける処理を行うようにしてもよい。
Further, in the present embodiment, the response is made according to the position and direction (or the position and direction of the hand) of the
例えば本実施形態のゲームでは、図6、図7で説明したように、ユーザPLが観客に対して様々なアクションを行い、そのアクションの結果が評価される。例えば図17ではユーザPLは、視線VLPを観客ADの方に向けると共に、マイク162を観客ADの方に向けるアクションを行っている。そしてマイク162に向かって歓声や掛け声を出すように促している。ユーザPLがこのようなアクションを行うことで、観客ADの熱狂度パラメータ(盛り上がり度パラメータ)が上昇して、ユーザPLのパフォーマンスが高く評価されるようになる。
For example, in the game according to the present embodiment, as described with reference to FIGS. 6 and 7, the user PL performs various actions on the audience, and the result of the action is evaluated. For example, in FIG. 17, the user PL performs an action of directing the line of sight VLP toward the audience AD and directing the
例えば図17において、マイク162、HMD200の位置、方向(位置及び方向の少なくとも一方)は、図2(A)、図2(B)等で説明したマイク162、HMD200のトラッキング処理等により検出できる。例えば図2(A)において入力装置160−1の位置、方向を検出することで、マイク162の位置、方向を検出できる。なおマイク162を持つユーザPLの手の位置、方向を検出して、マイク162の位置、方向を検出してもよい。またHMD200の位置、方向を検出することで、図17の視線VLPの方向や、ユーザの視線VLPの注視対象などを検出できる。
For example, in FIG. 17, the position and direction (at least one of position and direction) of the
ユーザPLの姿勢は、図2(A)のHMD200の第1の位置と、入力装置160−1の第2の位置と、入力装置の160−2の第3の位置に基づいて検出できる。即ち、これらの第1、第2、第3の位置に基づいて、ユーザの概略的な姿勢の状態を検出できる。なお、ユーザの姿勢を検出するモーションセンサを設けて、当該モーションセンサに基づいてユーザの姿勢を検出してもよい。例えばモーションセンサである撮像センサ(カラー画像センサ、デプスセンサ等)により取得されたカラー画像とデプス情報に基づいて、ユーザのスケルトンの形状を推定して、ユーザの姿勢を検出してもよい。
The posture of the user PL can be detected based on the first position of the
そして図17において、ユーザPLが視線VLP(HMD200の視線)を観客ADに向けて注視しているか否かに応じて、観客ADの歓声、拍手等の応答音声、応答音を変化させる。またユーザPLが、マイク162の方向(指向方向)を観客ADに向けているか否かに応じて、観客ADの歓声、拍手等の応答音声、応答音を変化させる。或いは、図17に示すユーザPLのしゃがみ姿勢などのパフォーマンスのための姿勢をとったか否かに応じて、観客ADの歓声、拍手等の応答音声、応答音を変化させる。
Then, in FIG. 17, depending on whether or not the user PL is gazing toward the spectator AD with respect to the eye gaze VLP (the line of sight of the HMD 200), the response sound such as cheers and applause of the spectator AD is changed. Further, depending on whether or not the user PL directs the direction (directed direction) of the
例えば、ユーザPLが呼びかけなどの音声をマイク162に入力した後に、視線VLPを観客ADの方に向けたり、マイク162を観客ADの方に向けたり、パフォーマンスのための姿勢をとった場合には、観客ADの歓声、掛け声、足踏み音又は拍手等の応答音声、応答音を、より熱狂的に盛り上がった状態を表す応答音声、応答音に変化させる。このようにすれば、ユーザPLの視線VLPの方向や、マイク162を向けた方向や、姿勢などに応じて、観客の応答音声、応答音がインタラクティブに変化するようになるため、ユーザPLの仮想現実感を更に向上できるようになる。
For example, if the user PL inputs a voice such as a call to the
また例えば図12では、ユーザ音声の音量が音量レベルLV1を越えてから所与の時間TD1の経過後に、応答音声、応答音を出力する制御について説明したが、本実施形態はこれに限定されない。例えば応答音声、応答音の出力制御(出力タイミング制御等)を、マイク162やHMD200の位置や方向、ユーザの姿勢、或いはユーザの視線に基づいて行うようにしてもよい。例えば図17においてユーザPLが呼びかけなどの音声をマイク162に入力した後、マイク162を観客ADの方に向けたり、HMD200の方向(ユーザの視線)を観客ADの方に向けたり、或いはユーザが所定の姿勢をとった場合に、観客ADによる歓声、拍手等の応答音声、応答音を出力するようにしてもよい。
Further, for example, although FIG. 12 illustrates control of outputting a response sound and a response sound after a given time TD1 has passed since the volume of the user voice exceeds the volume level LV1, this embodiment is not limited to this. For example, response control of the response sound or the response sound (output timing control or the like) may be performed based on the position or direction of the
或いは、ユーザ音声の入力を受け付けるか否かを、マイク162、HMD200の位置や方向、ユーザの姿勢、或いはユーザの視線などに基づいて判断してもよい。
Alternatively, it may be determined based on the position and direction of the
例えば図2(A)において、HMD200の位置は、ユーザPLの頭部(口)の位置に対応していると考えることができる。従って、マイク162とHMD200(頭部、口)の距離が近いと判断されたり、マイク162の方向(指向方向)がHMD200(頭部、口)の方を向いていると判断された場合には、ユーザPLがマイク162に対して呼びかけなどの音声を入力しようとしていると判断できる。従って、この場合には、ユーザ音声の入力を受け付ける。即ちマイク入力(マイクの入力チャンネル)をオンにする。一方、マイク162とHMD200の距離が遠い場合や、マイク162の方向(指向方向)がHMD200の方を向いていない場合には、ユーザPLには、呼びかけなどの音声を入力する意思が無いと判断できる。従って、この場合には、ユーザ音声の入力を受け付けず、マイク入力をオフにする。こうようにマイク入力をオフにすることで、マイク162の方向(指向方向)が実世界のスピーカの方に向いてしまい、ハウリングなどが発生するのも防止できるようになる
また本実施形態では、ユーザの過去のプレイ履歴の情報に基づいて、応答音声、応答音を変化させてもよい。例えば図18(A)にプレイ履歴の情報の一例を示す。このプレイ履歴では、ユーザが図6、図7のゲームをプレイした年月日及び時間が記録されている。このプレイ履歴の情報は、図1の記憶部170に保存した後、ネットワークを介してサーバシステムに送信することが望ましい。
For example, in FIG. 2A, the position of the
そしてユーザが、例えばユーザ情報等が記憶されたICカード(図1の携帯情報記憶媒体195)を所持して、シミュレーションシステムのカードリーダなどにタッチ操作すると、ユーザのプレイ履歴の情報がサーバシステムから転送され、図1の記憶部170に記憶される。そして、このプレイ履歴の情報を記憶部170から読み出し、読み出されたプレイ履歴の情報に基づいて、応答音声、応答音を変化させる処理を行う。
Then, when the user carries, for example, an IC card (portable
例えばユーザが、当該シミュレーションシステムでのゲームを、長らくプレイしていないと、プレイ履歴の情報に基づき判断された場合には、図18(B)のような応答音声ファイルを選択する。そして観客の歓声の中に、「久しぶり」、「待ってたよ」などの音声がミックスされるように、応答音声、応答音の加工処理を行う。このようにすれば、ユーザの過去のプレイ履歴に応じて、観客の応答音声、応答音が様々に変化するようになり、より人間身が感じられる応答音声、応答音を出力できるようになる。 For example, if it is judged based on the information of the play history that the user has not played the game in the simulation system for a long time, the response voice file as shown in FIG. 18B is selected. Then, the processing of the response sound and the response sound is performed so that the voices such as "After a long time" and "I waited" are mixed in the cheers of the audience. In this way, the response sound of the spectator and the response sound change in various ways according to the user's past play history, and it is possible to output the response sound and the response sound that make the human body feel more.
図19(A)は音データ記憶部175についての説明図である。図19(A)に示すように音データ記憶部175は、複数の音データSD1、SD2、SD3、SD4・・・を記憶している。そして本実施形態では、音データ記憶部175に記憶される複数の音データ(音データファイル)の中から使用する音データを選択する処理を行うことで、応答音声又は応答音の出力処理を実現している。例えばユーザ音声の測定結果に基づいて、複数の音データの中から、測定結果に対応する音データを選択する。例えばユーザ音声の音量や長さが測定された場合に、それに応じた音データを選択し、選択された音データに基づく再生処理を行って、応答音声、応答音として出力する。或いは、観客等のターゲットの種類、ターゲットとユーザとの位置関係、ターゲットに対するユーザの視線方向、ユーザ音声の特徴量の解析結果、マイク162の位置、方向、ユーザの姿勢、或いはユーザの視線などに応じて、選択する音データを異ならせてもよい。
FIG. 19A is an explanatory diagram of the sound
また本実施形態では、図19(B)に示すように、音データ記憶部175から読み出された複数の音データを組み合わせる処理を行うことで、応答音声、応答音を出力する。例えば複数の音データを組み合わせるミキシング処理を行って、応答音声、応答音として出力する。この場合に、ユーザ音声の測定結果に基づいて、音データの組合わせを変化させて、応答音声、応答音として出力する。例えばユーザ音声の音量や長さが測定された場合に、それに応じた音データの組合わせ処理(ミキシング処理)を行って、応答音声、応答音として出力する。或いは、観客等のターゲットの種類、ターゲットとユーザとの位置関係、ターゲットに対するユーザの視線方向、ユーザ音声の特徴量の解析結果、マイク162の位置、方向、ユーザの姿勢、或いはユーザの視線などに応じて、音データの組合わせを変化させて、応答音声、応答音として出力してもよい。
Further, in the present embodiment, as shown in FIG. 19B, a response voice and a response sound are output by performing a process of combining a plurality of sound data read from the sound
2.4 ユーザ音声の受け付けタイミング
さて、ユーザにより入力されたユーザ音声に対して、応答音声、応答音を出力する場合、当該ユーザ音声の受け付けタイミングについても考慮する必要がある。
2.4 Reception Timing of User Voice When outputting a response voice and a response sound to a user voice input by a user, it is also necessary to consider the reception timing of the user voice.
例えば本実施形態では、マイク162により入力されたユーザ音声に対する評価処理を行っている。具体的には、ユーザがマイク162を使って歌を唄った場合に、その歌の評価処理(採点処理)を行う。
For example, in the present embodiment, evaluation processing is performed on the user's voice input by the
例えば図20(A)に示すように、歌詞や歌の音程表示がユーザに映し出される。この音程表示は、評価処理の基準(お手本)となる音程を、ユーザが視覚的に把握するためのものである。また、この音程表示により、評価処理の基準(お手本)となるリズムについても、ユーザは把握できる。なお、このような音程表示については行わずに、歌詞だけを表示するようにしてもよい。 For example, as shown in FIG. 20 (A), a pitch display of lyrics or a song is shown to the user. This pitch display is for the user to visually grasp the pitch which becomes the reference (model) of the evaluation processing. In addition, the user can grasp the rhythm which is the standard (model) of the evaluation process by this pitch display. Note that only the lyrics may be displayed without performing such pitch display.
そしてユーザが歌を唄った場合に、図20(B)に示すような音程、リズムの基準データとの比較処理が行われる。即ち、ユーザがマイク162を用いて入力した歌声の情報から、ユーザの歌の音程、リズムのデータを抽出する処理を行う。そして、抽出されたユーザの音程、リズムのデータと、音程、リズムの基準データとの比較処理を行うことで、ユーザの歌(ボーカル演奏)の評価処理を行う。このようにすれば、ユーザの歌の上手さを適正に評価できるようになる。なお、音程、リズムの基準データに加えて、音量の基準データを用意し、ユーザのボーカル音量のコントロールの上手さ(抑揚)についても評価するようにしてもよい。
Then, when the user sings a song, comparison processing with reference data of pitches and rhythms as shown in FIG. 20 (B) is performed. That is, processing of extracting the data of the user's song's song and rhythm from the information of the singing voice input by using the
そして本実施形態では、このようなユーザの歌声等のユーザ音声に対する評価処理が行われる期間では、応答音声、応答音を出力させるためのユーザ音声の入力、即ち、コール&レスポンス用のユーザ音声の入力を受け付けないようにする。具体的には図21に示すように、ユーザが歌唱中であり、ユーザの歌を評価している期間では、C&R用(コール&レスポンス用)のユーザ音声の入力を受け付けないようにする。そして、このような歌の評価期間以外の期間において、C&R用のユーザ音声の入力を受け付ける。具体的には図21に示すように、前奏期間や間奏期間において、C&R用のユーザ音声の入力を受け付ける。そして、このようなユーザ音声の入力に対して、図9〜図19(B)で説明した手法により、その応答音声、応答音を出力するようにする。 In this embodiment, during a period in which evaluation processing is performed on user voice such as the user's singing voice, response voice, user voice input for outputting the response voice, that is, user voice for call & response Do not accept input. Specifically, as shown in FIG. 21, while the user is singing and the user's song is being evaluated, the user voice input for C & R (for call & response) is not accepted. Then, in a period other than such a song evaluation period, the input of the user voice for C & R is accepted. Specifically, as shown in FIG. 21, the input of the user's voice for C & R is accepted in the prelude period and the interlude period. Then, in response to such user voice input, the response voice and the response sound are output by the method described in FIGS. 9 to 19B.
例えばユーザが歌唱中である歌の評価期間においては、ユーザは、その歌の歌詞を構成する言葉を、マイク162に入力することになる。そして、この言葉の音声に反応して、図9等のような歓声等の応答音声、応答音が出力されてしまうと、歌の評価処理の妨げになったり、ユーザの不自然感を招くという問題がある。
For example, in the evaluation period of a song in which the user is singing, the user will input into the
この点、図21では、ユーザが歌唱中である歌の評価期間では、C&R用のユーザ音声の入力は受け付けられず、それに対応する応答音声、応答音は出力されない。そして、このような評価期間以外の期間においてだけ、C&R用のユーザ音声の入力が受け付けられて、応答音声、応答音が出力される。従って、上記のように応答音声や応答音が歌の評価処理の妨げになったり、ユーザの不自然感を招くという問題の発生を防止できる。 In this respect, in FIG. 21, in the evaluation period of the song in which the user is singing, the input of the user voice for C & R is not accepted, and the corresponding response voice and response sound are not output. Then, the input of the user voice for C & R is accepted only in a period other than such an evaluation period, and the response voice and the response sound are output. Therefore, as described above, it is possible to prevent the occurrence of the problem that the response voice or the response tone interferes with the evaluation process of the song, or the user feels unnatural.
3.詳細な処理
次に本実施形態の詳細な処理例について図22のフローチャートを用いて説明する。
3. Detailed Processing Next, a detailed processing example of the present embodiment will be described using the flowchart of FIG.
まずC&R用(コール&レスポンス用)のユーザ音声入力の受け付け期間か否かを判断する(ステップS1)。そして図21で説明したように、受付期間(前奏期間、間奏期間等)ではない場合には、C&R用のユーザ音声入力を受け付けない。一方、受け付け期間である場合には、当該ユーザ音声入力を受け付けて、ユーザ音声の音量及び長さの測定処理を行う(ステップS2)。そして測定処理の結果に基づいて、応答音声又は応答音の音データを選択する処理を行う(ステップS3)。即ち、図10〜図12で説明したように、ユーザ音声の音量及び長さに応じて、応答音声又は応答音を異ならせる処理を行う。 First, it is determined whether it is a reception period of user voice input for C & R (for call & response) (step S1). Then, as described in FIG. 21, when it is not the reception period (prelude period, interlude period, etc.), the user voice input for C & R is not received. On the other hand, in the case of the reception period, the user voice input is received, and measurement processing of the volume and length of the user voice is performed (step S2). And based on the result of a measurement process, the process which selects the sound data of response voice or a response sound is performed (step S3). That is, as described with reference to FIGS. 10 to 12, processing for varying the response sound or the response sound is performed according to the volume and the length of the user sound.
次に、観客等のターゲットの情報(位置関係等)、ユーザ音声の特徴量(性別、年齢層等)、マイク162やHMD200の位置、ユーザの姿勢、ユーザの視線、ユーザのプレイ履歴等に基づいて、応答音声又は応答音の変化処理(加工処理)を実行する(ステップS4)。即ち図13(A)〜図17で説明したような応答音声又は応答音の変化処理を実行する。そして変化処理後(加工処理後)の応答音声又は応答音を出力する(ステップS5)。
Next, based on target information (positional relationship etc.) of audience etc., feature amount (sex, age group etc.) of user voice, position of
なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(音入力装置、ターゲット、移動可能範囲等)と共に記載された用語(マイク、観客、プレイエリア等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。またユーザ音声の取得処理、ユーザ音声の測定処理、応答音声、応答音の出力処理、応答音声、応答音の変化処理、ユーザ音声入力の受け付け処理や、シミュレーションシステムの構成等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲーム装置、家庭用ゲーム装置、又は多数のユーザが参加する大型アトラクションシステム等の種々のシミュレーションシステムに適用できる。 It should be understood by those skilled in the art that although the present embodiment has been described in detail as described above, many modifications can be made without departing substantially from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included within the scope of the present invention. For example, the terms (microphone, audience, play area, etc.) described together with different terms (sound input device, target, movable range, etc.) more broadly or synonymously at least once in the specification or figures are the specification or drawings In any part of, the different terms can be substituted. Also, in this embodiment, user voice acquisition processing, user voice measurement processing, response voice, response sound output processing, response voice, response sound change processing, user voice input acceptance processing, simulation system configuration, etc. The present invention is not limited to the above-described ones, and equivalent methods, processes and configurations are also included in the scope of the present invention. The present invention is also applicable to various games. Further, the present invention can be applied to various simulation systems such as a arcade game machine, a home game machine, or a large attraction system in which a large number of users participate.
100 処理部、102 入力処理部、110 演算処理部、111 ゲーム処理部、
112 ゲーム進行処理部、113 評価処理部、114 キャラクタ処理部、
115 パラメータ処理部、116 オブジェクト空間設定部、
117 仮想カメラ制御部、118 ゲーム成績演算部、119 測定処理部、
120 表示処理部、130 音処理部、132 応答音処理部、
140 出力処理部、150 撮像部、151、152 カメラ、
160(160−1、160−2) 入力装置、161 音入力装置、
162 マイク、170 記憶部、172 空間情報記憶部、174 楽曲情報記憶部、
175 音データ記憶部、176 パラメータ記憶部、178 描画バッファ、
180 情報記憶媒体、192 音出力部、194 I/F部、
195 携帯型情報記憶媒体、196 通信部、
200 HMD(頭部装着型表示装置)、201〜203 受光素子、210 センサ部、
220 表示部、231〜236 発光素子、240 処理部、260 ヘッドバンド、
280、284 ステーション、281、282、285、286 発光素子、
290、292照明器具、301〜304 壁、305 天井、306 ドア、
311〜315 防音材、330、331 フロントスピーカ、332 リアスピーカ、
333、334、リアスピーカ、335 ウーハー、
100 processing unit, 102 input processing unit, 110 arithmetic processing unit, 111 game processing unit,
112 game progress processing unit, 113 evaluation processing unit, 114 character processing unit,
115
117 virtual camera control unit, 118 game result calculation unit, 119 measurement processing unit,
120 display processing unit, 130 sound processing unit, 132 response sound processing unit,
140 output processing unit, 150 imaging unit, 151, 152 cameras,
160 (160-1, 160-2) input device, 161 sound input device,
162 microphone, 170 storage unit, 172 space information storage unit, 174 music information storage unit,
175 sound data storage unit, 176 parameter storage unit, 178 drawing buffer,
180 information storage medium, 192 sound output unit, 194 I / F unit,
195 portable information storage medium, 196 communication unit,
200 HMD (head mounted display), 201 to 203 light receiving elements, 210 sensor unit,
220 display unit, 231 to 236 light emitting elements, 240 processing unit, 260 head band,
280, 284 stations, 281, 282, 285, 286 light emitting elements,
290, 292 lighting fixtures, 301-304 walls, 305 ceilings, 306 doors,
311 to 315 soundproofing materials, 330, 331 front speakers, 332 rear speakers,
333, 334, rear speakers, 335 woofer,
Claims (15)
前記ユーザ音声の測定処理を行う測定処理部と、
前記ユーザ音声の入力に対して、前記ユーザ音声とは異なる応答音声又は応答音の出力処理を行う音処理部と、
前記仮想空間の設定処理を行う仮想空間設定部と、
前記仮想空間において前記仮想ユーザの視点から見える画像を生成して、前記ユーザが装着する頭部装着型表示装置の表示部に表示する処理を行う表示処理部と、
を含み、
前記測定処理部は、
前記ユーザ音声の音量及び長さの測定処理を行い、
前記音処理部は、
前記ユーザ音声の音量及び長さの測定処理の結果に基づく前記応答音声又は前記応答音を、前記仮想空間における前記ユーザのターゲットの音声又は音として出力する処理を行い、
前記音処理部は、
前記仮想空間において前記仮想ユーザが視線方向を向けた前記ターゲットの種類、及び前記仮想空間での前記ターゲットに対する前記仮想ユーザの視線方向の少なくとも1つに応じて、前記応答音声又は前記応答音を変化させる処理を行うことを特徴とするシミュレーションシステム。 An input processing unit that acquires information on user voice input by a user using a sound input device, and information on a viewpoint position and a gaze direction of a virtual user in a virtual space corresponding to the user;
A measurement processing unit that performs measurement processing of the user voice;
A sound processing unit that performs an output process of a response voice or a response sound different from the user voice in response to the input of the user voice;
A virtual space setting unit that performs setting processing of the virtual space;
A display processing unit that generates an image viewed from the viewpoint of the virtual user in the virtual space and displays the image on a display unit of a head mounted display worn by the user;
Including
The measurement processing unit
Perform measurement processing of the volume and length of the user voice;
The sound processing unit
The response voice or the response tone based on the result of the measurement process of the volume and length of the user voice is output as the voice or sound of the target of the user in the virtual space,
The sound processing unit
Type of the target the virtual user directs the gaze direction in the virtual space in response to the at least one virtual user's gaze direction relative to the target in 及 beauty the virtual space, the response voice or the response sound A simulation system characterized by performing processing to change.
前記音処理部は、
前記ユーザ音声の入力を受け付けるか否かを、前記音入力装置と前記頭部装着型表示装置との距離、或いは前記音入力装置が前記頭部装着型表示装置の方を向いているか否かに応じて判断することを特徴とするシミュレーションシステム。 In claim 1,
The sound processing unit
The distance between the sound input device and the head-mounted display device, or whether the sound input device faces the head-mounted display device, whether the user's voice input is accepted or not The simulation system characterized by judging according to.
前記音処理部は、
前記仮想空間において前記仮想ユーザが視線方向を前記ターゲットに向けて注視しているか否かに応じて、前記応答音声又は前記応答音を変化させる処理を行うことを特徴とするシミュレーションシステム。 In claim 1 or 2,
The sound processing unit
A simulation system characterized by performing processing of changing the response voice or the response sound according to whether or not the virtual user gazes at a gaze direction toward the target in the virtual space.
前記音処理部は、
前記頭部装着型表示装置の位置と前記音声入力装置の位置に基づいて前記ユーザの姿勢を検出し、検出された前記ユーザの姿勢に応じて、前記応答音声又は前記応答音を変化させる処理を行うことを特徴とするシミュレーションシステム。 In any one of claims 1 to 3,
The sound processing unit
Processing for detecting the posture of the user based on the position of the head-mounted display device and the position of the voice input device, and changing the response voice or the response sound according to the detected posture of the user A simulation system characterized by performing.
前記音処理部は、
前記ユーザ音声の音量及び長さに応じて、前記応答音声又は前記応答音を異ならせる処理を行うことを特徴とするシミュレーションシステム。 In any one of claims 1 to 4,
The sound processing unit
A simulation system characterized in that the response voice or the response tone is differentiated according to the volume and length of the user voice.
前記測定処理部は、
前記ユーザ音声の音量が、前記第1〜第Nの音量レベルのうちの第iの音量レベル(1≦i≦N)を越えたタイミングから、前記第iの音量レベルを下回ったタイミングまでの長さを測定し、
前記音処理部は、
測定された前記長さに応じて、前記応答音声又は前記応答音を異ならせる処理を行うことを特徴とするシミュレーションシステム。 In any one of claims 1 to 5,
The measurement processing unit
The length from the timing at which the volume of the user voice exceeds the i-th volume level (1 ≦ i ≦ N) of the first to N-th volume levels to the timing at which the volume falls below the i-th volume level Measure the
The sound processing unit
A simulation system characterized by performing processing to make the response voice or the response sound different according to the measured length.
前記音処理部は、
前記ユーザ音声の音量が、前記第iの音量レベルを越えた場合と、前記第1〜第Nの音量レベルのうちの第j(1≦i<j≦N)の音量レベルを越えた場合とで、前記応答音声又は前記応答音を異ならせる処理を行うことを特徴とするシミュレーションシステム。 In claim 6,
The sound processing unit
When the volume of the user voice exceeds the i-th volume level and when the j-th (1 ≦ i <j ≦ N) volume level of the first to N-th volume levels is exceeded Processing the response voice or the response sound differently.
前記ターゲットは、ゲームに登場する観客のキャラクタであることを特徴とするシミュレーションシステム。 In any one of claims 1 to 7,
The simulation system characterized in that the target is a character of a spectator appearing in a game.
前記測定処理部は、
前記ユーザ音声の特徴量の解析処理を行い、前記音処理部は、前記ユーザ音声の前記特徴量の解析処理の結果に応じて、前記応答音声又は前記応答音を変化させる処理を行うことを特徴とするシミュレーションシステム。 In any one of claims 1 to 8,
The measurement processing unit
The analysis process of the feature amount of the user voice is performed, and the sound processing unit is configured to perform the process of changing the response voice or the response sound according to the result of the analysis process of the feature amount of the user voice. Simulation system.
前記音処理部は、
前記ユーザが手に持つ前記音入力装置の位置、方向、前記手の位置、方向、前記ユーザが装着する前記頭部装着型表示装置の位置、方向、前記ユーザの姿勢、及び前記ユーザの視線の少なくとも1つに応じて、前記応答音声又は前記応答音を変化させる処理、或いは前記応答音声又は前記応答音を出力する処理、或いは前記応答音声又は前記応答音を出力させるための前記ユーザ音声の入力を受け付ける処理を行うことを特徴とするシミュレーションシステム。 In any one of claims 1 to 9,
The sound processing unit
The position and the direction of the sound input device held by the user, the position and the direction of the hand, the position and the direction of the head mounted display worn by the user, the posture of the user, and the line of sight of the user According to at least one, processing to change the response sound or the response sound, or processing to output the response sound or the response sound, or input of the user voice for outputting the response sound or the response sound A simulation system characterized by performing processing to receive
前記音処理部は、
前記ユーザの過去のプレイ履歴情報に基づいて、前記応答音声又は前記応答音を変化させる処理を行うことを特徴とするシミュレーションシステム。 In any one of claims 1 to 10,
The sound processing unit
A simulation system characterized by performing processing to change said response sound or said response sound based on past play history information of said user.
音データを記憶する音データ記憶部を含み、
前記音処理部は、
前記音データ記憶部に記憶される複数の音データの中から使用する音データを選択する処理、或いは複数の音データを組み合わせる処理を行うことで、前記応答音声又は前記応答音の出力処理を行うことを特徴とするシミュレーションシステム。 In any one of claims 1 to 11,
A sound data storage unit for storing sound data;
The sound processing unit
The response sound or the response sound is output by performing processing of selecting sound data to be used from a plurality of sound data stored in the sound data storage unit or processing of combining a plurality of sound data. Simulation system characterized by
前記入力処理部は、
前記ユーザ音声に対する評価処理が行われる評価期間においては、前記応答音声又は前記応答音を出力させるための前記ユーザ音声の入力を受け付けず、前記評価期間以外の期間において、前記応答音声又は前記応答音を出力させるための前記ユーザ音声の入力を受け付けることを特徴とするシミュレーションシステム。 In any one of claims 1 to 12,
The input processing unit
In an evaluation period in which evaluation processing is performed on the user voice, the response voice or the input of the user voice for outputting the response sound is not received, and the response voice or the response sound is received in a period other than the evaluation period. Receiving the input of the user's voice for outputting
前記音入力装置と、
前記頭部装着型表示装置と、
を含むことを特徴とするシミュレーション装置。 The simulation system according to any one of claims 1 to 13.
The sound input device;
The head mounted display;
Simulation apparatus characterized by including.
前記ユーザ音声の測定処理を行う測定処理部と、
前記ユーザ音声の入力に対して、前記ユーザ音声とは異なる応答音声又は応答音の出力処理を行う音処理部と、
前記仮想空間の設定処理を行う仮想空間設定部と、
前記仮想空間において前記仮想ユーザの視点から見える画像を生成して、前記ユーザが装着する頭部装着型表示装置の表示部に表示する処理を行う表示処理部として、
コンピュータを機能させ、
前記測定処理部は、
前記ユーザ音声の音量及び長さの測定処理を行い、
前記音処理部は、
前記ユーザ音声の音量及び長さの測定処理の結果に基づく前記応答音声又は前記応答音を、前記仮想空間における前記ユーザのターゲットの音声又は音として出力する処理を行い、
前記音処理部は、
前記仮想空間において前記仮想ユーザが視線方向を向けた前記ターゲットの種類、及び前記仮想空間での前記ターゲットに対する前記仮想ユーザの視線方向の少なくとも1つに応じて、前記応答音声又は前記応答音を変化させる処理を行うことを特徴とするプログラム。 An input processing unit that acquires information on user voice input by a user using a sound input device, and information on a viewpoint position and a gaze direction of a virtual user in a virtual space corresponding to the user;
A measurement processing unit that performs measurement processing of the user voice;
A sound processing unit that performs an output process of a response voice or a response sound different from the user voice in response to the input of the user voice;
A virtual space setting unit that performs setting processing of the virtual space;
A display processing unit that generates an image viewed from the viewpoint of the virtual user in the virtual space and displays the image on a display unit of a head mounted display worn by the user.
Make the computer work
The measurement processing unit
Perform measurement processing of the volume and length of the user voice;
The sound processing unit
The response voice or the response tone based on the result of the measurement process of the volume and length of the user voice is output as the voice or sound of the target of the user in the virtual space,
The sound processing unit
Type of the target the virtual user directs the gaze direction in the virtual space in response to the at least one virtual user's gaze direction relative to the target in 及 beauty the virtual space, the response voice or the response sound A program characterized by performing a process of changing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016072840A JP6515057B2 (en) | 2016-03-31 | 2016-03-31 | Simulation system, simulation apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016072840A JP6515057B2 (en) | 2016-03-31 | 2016-03-31 | Simulation system, simulation apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017176728A JP2017176728A (en) | 2017-10-05 |
JP6515057B2 true JP6515057B2 (en) | 2019-05-15 |
Family
ID=60004730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016072840A Active JP6515057B2 (en) | 2016-03-31 | 2016-03-31 | Simulation system, simulation apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6515057B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109690450B (en) * | 2017-11-17 | 2020-09-29 | 腾讯科技(深圳)有限公司 | Role simulation method in VR scene and terminal equipment |
JP2019126416A (en) * | 2018-01-22 | 2019-08-01 | 株式会社カプコン | Game program and game machine |
JP6603734B2 (en) * | 2018-01-23 | 2019-11-06 | 株式会社カプコン | GAME PROGRAM AND GAME DEVICE |
JP6876639B2 (en) * | 2018-02-05 | 2021-05-26 | Kddi株式会社 | Display control device, display control method and program |
JP6580748B1 (en) * | 2018-04-27 | 2019-09-25 | 株式会社コロプラ | Program, information processing apparatus, and method |
US10713834B2 (en) | 2018-04-27 | 2020-07-14 | Colopl, Inc. | information processing apparatus and method |
JP6514397B1 (en) * | 2018-06-29 | 2019-05-15 | 株式会社コロプラ | SYSTEM, PROGRAM, METHOD, AND INFORMATION PROCESSING APPARATUS |
CN109147800A (en) | 2018-08-30 | 2019-01-04 | 百度在线网络技术(北京)有限公司 | Answer method and device |
CN112023391B (en) * | 2020-09-02 | 2024-01-16 | 杭州瞳阳科技有限公司 | Control system and method for game VR |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3419754B2 (en) * | 2000-10-30 | 2003-06-23 | 株式会社ソニー・コンピュータエンタテインメント | Entertainment apparatus, method and storage medium for reflecting input voice on character's movement |
JP2002351489A (en) * | 2001-05-29 | 2002-12-06 | Namco Ltd | Game information, information storage medium, and game machine |
JP2004267433A (en) * | 2003-03-07 | 2004-09-30 | Namco Ltd | Information processor, server, program, recording medium for providing voice chat function |
JP2004333577A (en) * | 2003-04-30 | 2004-11-25 | Daiichikosho Co Ltd | Karaoke video system |
JP2011221101A (en) * | 2010-04-05 | 2011-11-04 | Ai:Kk | Communication device |
WO2012053371A1 (en) * | 2010-10-20 | 2012-04-26 | 株式会社メガチップス | Amusement system |
JP6306442B2 (en) * | 2014-06-09 | 2018-04-04 | 株式会社バンダイナムコエンターテインメント | Program and game system |
US9904055B2 (en) * | 2014-07-25 | 2018-02-27 | Microsoft Technology Licensing, Llc | Smart placement of virtual objects to stay in the field of view of a head mounted display |
-
2016
- 2016-03-31 JP JP2016072840A patent/JP6515057B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017176728A (en) | 2017-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6515057B2 (en) | Simulation system, simulation apparatus and program | |
CN106924966B (en) | Game device and processing method | |
JP6727807B2 (en) | Game device and program | |
JP6461850B2 (en) | Simulation system and program | |
JP6306442B2 (en) | Program and game system | |
US11657585B2 (en) | Mixed reality musical instrument | |
US10290291B2 (en) | Information processing apparatus, method, and program for controlling output of a processing pattern in association with reproduced content | |
JP2017119032A (en) | Game device and program | |
KR20200003022A (en) | Role play simulation method and terminal device in VR scenario | |
JP2002351489A (en) | Game information, information storage medium, and game machine | |
KR20020062598A (en) | Audio signal outputting method and bgm gerneration method | |
WO2012053371A1 (en) | Amusement system | |
JP6622832B2 (en) | Program and game system | |
JP6538112B2 (en) | Game program and game apparatus | |
Hugill et al. | Audio only computer games–Papa Sangre | |
KR20170131059A (en) | My-concert system | |
JP2017178612A (en) | Take-up device and simulation system | |
JP6817281B2 (en) | Voice generator and voice generator | |
JP6325016B2 (en) | Simulation system and program | |
JP2021140065A (en) | Processing system, sound system and program | |
JP2018201247A (en) | Simulation system | |
JP7492104B2 (en) | Audio playback program, audio playback device, and audio generation method | |
JP2019126444A (en) | Game program and game device | |
JP6401200B2 (en) | Simulation system | |
JP2019126416A (en) | Game program and game machine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180320 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180911 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6515057 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |