JP6207691B1 - 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム - Google Patents
情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム Download PDFInfo
- Publication number
- JP6207691B1 JP6207691B1 JP2016158721A JP2016158721A JP6207691B1 JP 6207691 B1 JP6207691 B1 JP 6207691B1 JP 2016158721 A JP2016158721 A JP 2016158721A JP 2016158721 A JP2016158721 A JP 2016158721A JP 6207691 B1 JP6207691 B1 JP 6207691B1
- Authority
- JP
- Japan
- Prior art keywords
- sound
- information processing
- processing method
- hmd
- virtual space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】没入感を損なわずに、周囲から作用を受けたことを容易に認識させることができる方法を提供する。【解決手段】方法はHMDと音声出力部とを備え、以下のステップを含む。仮想カメラ300と、対象オブジェクトECと、対象オブジェクトECに関連付けられた音声データを生成する音源オブジェクトMCと、音声データを収集する集音オブジェクトTCとを含む仮想空間を定義する仮想空間データを生成する。仮想カメラ300の視野および仮想空間データに基づいてHMDに視野画像を表示させる。対象オブジェクトECと集音オブジェクトTCとの間の相対位置関係および距離を特定する。特定された相対位置関係に基づいて、音源オブジェクトMCの位置を決定する。特定された距離に基づいて、音声データの音量を調整する。集音オブジェクトTCにより収集された音声データに対応する音声を出力させる。【選択図】図9
Description
本開示は、情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラムに関する。
特許文献1には、FPSゲーム(First Person Shooter)において、プレイヤキャラクタが相手キャラクタから攻撃を受けた際に、プレイヤキャラクタの周囲に、攻撃を受けた方向を示すダメージマークを表示させる方法が開示されている。
近年、ヘッドマウントディスプレイ(HMD:Head‐Mounted Display)を装着して仮想現実(VR:Virtual Reality)空間に没入できるゲーム(以下、VRゲームと称することがある)が知られている。
しかしながら、特許文献1の方法をVRゲームに採用した場合、ダメージマークの表示態様が現実離れしているため、VR空間へのユーザの没入体験を損なう恐れがある。
しかしながら、特許文献1の方法をVRゲームに採用した場合、ダメージマークの表示態様が現実離れしているため、VR空間へのユーザの没入体験を損なう恐れがある。
本開示は、ユーザの没入感を損なうことなく、周囲から何らかの作用を受けたことをユーザに容易に認識させることができる情報処理方法を提供することを目的とする。また、本開示は、当該情報処理方法をコンピュータに実行させるためのプログラムを提供することを目的とする。
本開示が示す一態様によれば、ヘッドマウントディスプレイと音声出力部とを備えたシステムにおける情報処理方法であって、
当該情報処理方法は、
(a)仮想カメラと、対象オブジェクトと、前記対象オブジェクトに関連付けられた音声データを生成する音源オブジェクトと、前記音声データを収集する集音オブジェクトとを含む仮想空間を定義する仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(c)前記対象オブジェクトと前記集音オブジェクトとの間の相対位置関係および距離を特定するステップと、
(d)前記特定された相対位置関係に基づいて、前記音源オブジェクトの位置を決定するステップと、
(e)前記特定された距離に基づいて、前記音声データの音量を調整するステップと、
(f)前記集音オブジェクトにより収集された前記音声データに対応する音声を前記音声出力部に出力させるステップと、
を含む。
当該情報処理方法は、
(a)仮想カメラと、対象オブジェクトと、前記対象オブジェクトに関連付けられた音声データを生成する音源オブジェクトと、前記音声データを収集する集音オブジェクトとを含む仮想空間を定義する仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(c)前記対象オブジェクトと前記集音オブジェクトとの間の相対位置関係および距離を特定するステップと、
(d)前記特定された相対位置関係に基づいて、前記音源オブジェクトの位置を決定するステップと、
(e)前記特定された距離に基づいて、前記音声データの音量を調整するステップと、
(f)前記集音オブジェクトにより収集された前記音声データに対応する音声を前記音声出力部に出力させるステップと、
を含む。
本開示によれば、ユーザの没入感を損なうことなく、周囲から何らかの作用を受けたことをユーザに容易に認識させることができる情報処理方法を提供することができる。
[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)ヘッドマウントディスプレイと音声出力部とを備えたシステムにおける情報処理方法であって、
当該情報処理方法は、
(a)仮想カメラと、対象オブジェクトと、前記対象オブジェクトに関連付けられた音声データを生成する音源オブジェクトと、前記音声データを収集する集音オブジェクトとを含む仮想空間を定義する仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(c)前記対象オブジェクトと前記集音オブジェクトとの間の相対位置関係および距離を特定するステップと、
(d)前記特定された相対位置関係に基づいて、前記音源オブジェクトの位置を決定するステップと、
(e)前記特定された距離に基づいて、前記音声データの音量を調整するステップと、
(f)前記集音オブジェクトにより収集された前記音声データに対応する音声を前記音声出力部に出力させるステップと、
を含む。
本開示が示す実施形態の概要を説明する。
(1)ヘッドマウントディスプレイと音声出力部とを備えたシステムにおける情報処理方法であって、
当該情報処理方法は、
(a)仮想カメラと、対象オブジェクトと、前記対象オブジェクトに関連付けられた音声データを生成する音源オブジェクトと、前記音声データを収集する集音オブジェクトとを含む仮想空間を定義する仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(c)前記対象オブジェクトと前記集音オブジェクトとの間の相対位置関係および距離を特定するステップと、
(d)前記特定された相対位置関係に基づいて、前記音源オブジェクトの位置を決定するステップと、
(e)前記特定された距離に基づいて、前記音声データの音量を調整するステップと、
(f)前記集音オブジェクトにより収集された前記音声データに対応する音声を前記音声出力部に出力させるステップと、
を含む。
上記方法によれば、ユーザの没入感を損なうことなく、周囲から何らかの作用を受けたことをユーザに容易に認識させることができる。
(2)前記ステップ(e)では、前記距離が小さいほど前記音量を大きくし、前記距離が大きいほど前記音量を小さくしても良い。
上記方法によれば、音量の大小によって、ユーザは対象オブジェクトとの距離を容易に把握することができる。
(3)前記ステップ(d)では、前記音源オブジェクトを、前記集音オブジェクトから前記対象オブジェクトへの位置ベクトル上において前記集音オブジェクトから一定距離の位置に配置しても良い。
上記方法によれば、集音オブジェクトと対象オブジェクトとの相対位置関係が変化した場合でも、音源オブジェクトと集音オブジェクトとの距離が一定であるため、音声データ生成時等の情報処理量を抑制することができる。
(4)前記集音オブジェクトは、前記仮想カメラと一体的に構成されていても良い。
上記方法によれば、特に一人称視点の場合に、よりリアルな音声を提供することができる。
(5)前記仮想空間は、前記ヘッドマウントディスプレイのユーザに関連付けられたアバターオブジェクトをさらに含み、
前記集音オブジェクトは、前記アバターオブジェクトと一体的に構成されていても良い。
前記集音オブジェクトは、前記アバターオブジェクトと一体的に構成されていても良い。
上記方法によれば、ユーザの感覚により近い音声を提供することができ、直感的にユーザが状況を把握することができる。
(6)上記(1)から(5)のいずれかに記載の情報処理方法をコンピュータに実行させるためのプログラムである。
この構成によれば、ユーザの没入感を損なうことなく、周囲から何らかの作用を受けたことをユーザに容易に認識させることができるプログラムを提供することができる。
[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。なお、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
以下、本開示が示す実施形態について図面を参照しながら説明する。なお、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
図1は、本開示が示す実施形態(以下、単に本実施形態という。)に係る情報処理方法を実現するヘッドマウントディスプレイ(以下、単にHMDという。)システム1を示す概略図である。図1に示すように、HMDシステム1は、ユーザUの頭部に装着されたHMD110と、位置センサ130と、制御装置120と、外部コントローラ320とを備える。
HMD110は、表示部112と、HMDセンサ114と、ヘッドホン116(音声出力部の一例)とを備えている。
表示部112は、HMD110を装着したユーザUの視界(視野)を覆うように構成された非透過型の表示装置を備えている。HMD110は、透過型表示装置を備えており、当該透過型表示装置の透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。これにより、ユーザUは、表示部112に表示された視野画像のみを見ることで仮想空間に没入することができる。なお、表示部112は、ユーザUの左眼に投影される左眼用の表示部とユーザUの右眼に投影される右眼用の表示部とから構成されてもよい。
HMDセンサ114は、HMD110の表示部112の近傍に搭載される。HMDセンサ114は、地磁気センサ、加速度センサ、傾きセンサ(角速度センサやジャイロセンサ等)のうちの少なくとも1つを含み、ユーザUの頭部に装着されたHMD110の各種動きを検出することができる。
ヘッドホン116は、ユーザUの左耳と右耳にそれぞれ装着されている。ヘッドホン116は、制御装置120から音声データ(電気信号)を受信し、当該受信した音声データに基づいて音声を出力するように構成されている。ヘッドホン116の右耳用のスピーカに出力される音声は、ヘッドホン116の左耳用のスピーカに出力される音声と異なってもよい。例えば、制御装置120は、頭部伝達関数に基づいて、右耳用スピーカに入力される音声データと、左耳用スピーカに入力される音声データを取得し、当該異なる2つの音声データをヘッドホン116の左耳用スピーカと右耳用スピーカのそれぞれに出力してもよい。なお、HMD110にヘッドホン116を設けずに、HMD110とは独立したスピーカ(例えば、2つの据置型スピーカ)やイヤホンを設けてもよい。
位置センサ130は、例えば、ポジション・トラッキング・カメラにより構成され、HMD110の位置を検出するように構成されている。位置センサ130は、制御装置120に無線または有線により通信可能に接続されており、HMD110に設けられた図示しない複数の検知点の位置、傾きまたは発光強度に関する情報を検出するように構成されている。また、位置センサ130は、赤外線センサや複数の光学カメラを含んでもよい。
制御装置120は、位置センサ130から取得された情報に基づいて、HMD110の位置情報を取得し、当該取得された位置情報に基づいて、仮想空間における仮想カメラの位置と、現実空間におけるHMD110を装着したユーザUの位置を正確に対応付けることができる。
次に、図2を参照して、HMD110の位置や傾きに関する情報を取得する方法について説明する。図2は、HMD110を装着したユーザUの頭部を示す図である。HMD110を装着したユーザUの頭部の動きに連動したHMD110の位置や傾きに関する情報は、位置センサ130および/またはHMD110に搭載されたHMDセンサ114により検出可能である。図2に示すように、HMD110を装着したユーザUの頭部を中心として、3次元座標(uvw座標)が規定される。ユーザUが直立する垂直方向をv軸として規定し、v軸と直交し表示部112の中心とユーザUとを結ぶ方向をw軸として規定し、v軸およびw軸と直交する方向をu軸として規定する。位置センサ130および/またはHMDセンサ114は、各uvw軸回りの角度(すなわち、v軸を中心とする回転を示すヨー角、u軸を中心とした回転を示すピッチ角、w軸を中心とした回転を示すロール角で決定される傾き)を検出する。制御装置120は、検出された各uvw軸回りの角度変化に基づいて、視野情報を定義する仮想カメラの視軸を制御するための角度情報を決定する。
次に、図3を参照して、制御装置120のハードウェア構成について説明する。図3に示すように、制御装置120は、制御部121と、記憶部123と、I/O(入出力)インターフェース124と、通信インターフェース125と、バス126とを備える。制御部121と、記憶部123と、I/Oインターフェース124と、通信インターフェース125とは、バス126を介して互いに通信可能に接続されている。
制御装置120は、HMD110とは別体に、パーソナルコンピュータ、タブレットまたはウェアラブルデバイスとして構成されてもよいし、HMD110の内部に搭載されていてもよい。また、制御装置120の一部の機能がHMD110に搭載されると共に、制御装置120の残りの機能がHMD110とは別体の他の装置に搭載されてもよい。
制御部121は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)および/またはGPU(Graphics Processing Unit)であって、ROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。
特に、プロセッサが本実施形態に係る情報処理方法をコンピュータに実行させるための情報処理プログラム(後述する)をRAM上に展開し、RAMとの協働で当該プログラムを実行することで、制御部121は、制御装置120の各種動作を制御してもよい。制御部121は、メモリや記憶部123に格納された所定のアプリケーション(ゲームプログラム)を実行することで、HMD110の表示部112に仮想空間(視野画像)を提供する。これにより、ユーザUは、表示部112に提供された仮想空間に没入することができる。
記憶部(ストレージ)123は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USBフラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。記憶部123には、情報処理プログラムが組み込まれてもよい。また、ユーザの認証プログラムや各種画像やオブジェクトに関するデータを含むゲームプログラム等が格納されてもよい。さらに、記憶部123には、各種データを管理するためのテーブルを含むデータベースが構築されてもよい。
I/Oインターフェース124は、位置センサ130と、HMD110と、ヘッドホン116と、外部コントローラ320と、をそれぞれ制御装置120に通信可能に接続するように構成されており、例えば、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High―Definition Multimedia Interface)端子等により構成されている。なお、制御装置120は、位置センサ130と、HMD110と、ヘッドホン116と、外部コントローラ320とのそれぞれと無線接続されていてもよい。
通信インターフェース125は、制御装置120をLAN(Local Area Network)、WAN(Wide Area Network)またはインターネット等の通信ネットワーク3に接続させるように構成されている。通信インターフェース125は、通信ネットワーク3を介して外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク3を介して通信するための通信規格に適合するように構成されている。
次に、図4から図6を参照することで視野画像をHMD110に表示するための処理について説明する。図4は、視野画像をHMD110に表示するための処理を示すフローチャートである。図5は、仮想空間200の一例を示すxyz空間図を示す。図6(a)は、図5に示す仮想空間200のyx平面図であって、図6(b)は、図5に示す仮想空間200のzx平面図である。
図4に示すように、ステップS1において、制御部121(図3参照)は、仮想カメラ300を含む仮想空間200を定義する仮想空間データを生成する。図5および図6に示すように、仮想空間200は、中心位置21を中心とした全天球として規定される(図5および図6では、上半分の天球のみが図示されている)。また、仮想空間200には、中心位置21を原点とするxyz座標系が設定されている。HMDシステム1の初期状態では、仮想カメラ300が仮想空間200の中心位置21に配置されている。
仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、HMD110を装着したユーザUの現実空間における移動に連動して、仮想カメラ300を仮想空間200内で移動させてもよい。
仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、HMD110を装着したユーザUの現実空間における移動に連動して、仮想カメラ300を仮想空間200内で移動させてもよい。
次に、ステップS2において、制御部121は、仮想カメラ300の視野CV(図6参照)を特定する。具体的には、制御部121は、位置センサ130および/またはHMDセンサ114から送信されたHMD110の状態を示すデータに基づいて、HMD110の位置や傾きに関する情報を取得する。次に、制御部121は、HMD110の位置や傾きに関する情報に基づいて、仮想空間200内における仮想カメラ300の位置や向きを決定する。次に、制御部121は、仮想カメラ300の位置や向きから仮想カメラ300の視軸に相当する基準視線Lを決定し、決定された基準視線Lから仮想カメラ300の視野CVを特定する。ここで、仮想カメラ300の視野CVは、HMD110を装着したユーザUが視認可能な仮想空間200の一部の領域と一致する。換言すれば、視野CVは、HMD110に表示される仮想空間200の一部の領域に一致する。また、視野CVは、図6(a)に示すxy平面において、基準視線Lを中心とした極角θαの角度範囲として設定される第1領域CVaと、図6(b)に示すxz平面において、基準視線Lを中心とした方位角θβの角度範囲として設定される第2領域CVbとを有する。
このように、制御部121は、位置センサ130および/またはHMDセンサ114からのデータに基づいて、仮想カメラ300の視野CVを特定することができる。ここで、HMD110を装着したユーザUが動くと、制御部121は、位置センサ130および/またはHMDセンサ114から送信されたHMD110の動きを示すデータに基づいて、仮想カメラ300の視野CVを特定することができる。つまり、制御部121は、HMD110の動きに応じて、視野CVを移動させることができる。
次に、ステップS3において、制御部121は、HMD110の表示部112に表示される視野画像を示す視野画像データを生成する。具体的には、制御部121は、仮想空間200を規定する仮想空間データと、仮想カメラ300の視野CVとに基づいて、視野画像データを生成する。すなわち、仮想カメラ300の視野CVにより、仮想空間データのうち視野画像データとして描画される範囲が定まる。
次に、ステップS4において、制御部121は、視野画像データに基づいて、HMD110の表示部112に視野画像を表示する。このように、HMD110を装着しているユーザUの動きに応じて、仮想カメラ300の視野CVが変化し、HMD110に表示される視野画像Vが変化するので、ユーザUは仮想空間200に没入することができる。
次に、本実施形態に係る情報処理方法について図7から図9を参照して説明する。図7は、本実施形態に係る情報処理方法を説明するためのフローチャートである。図8は、本実施形態に係る情報処理方法を説明するための模式図である。図9は、本実施形態に係る情報処理方法の具体的構成を示す図である。
最初に、図8に示すように、仮想空間200は、仮想カメラ300と、自己アバターオブジェクトSCと、相手アバターオブジェクトECと、を含む。制御部121は、これらのオブジェクトを含む仮想空間200を規定する仮想空間データを生成している。
仮想カメラ300は、ユーザUが操作するHMDシステム1に関連付けられている。すなわち、ユーザUが装着するHMD110の動きに応じて仮想カメラ300の位置や向き(すなわち、仮想カメラ300の視野CV)が変更される。
自己アバターオブジェクトSCは、ユーザUが操作するHMDシステム1に関連付けられている。すなわち、自己アバターオブジェクトSCは、ユーザUに関連付けられたアバターオブジェクトであって、ユーザUの操作により制御される。本実施形態では、自己アバターオブジェクトSCは、仮想カメラ300と一体的に構成されている。図9に示すように、仮想カメラ300は、例えば、自己アバターオブジェクトSCの頭部の位置に配置されていることが好ましい。
相手アバターオブジェクトECは、ユーザ同士の対戦型ゲームの場合にはユーザUとは異なる他のユーザにより制御され、ユーザ対コンピュータの対戦型ゲームの場合には制御装置120(制御部121)により制御される。
図9に示すように、仮想空間200は、さらに、音源オブジェクトMCと、集音オブジェクトTCとを含む。
音源オブジェクトMCは、相手アバターオブジェクトECの動作に起因する所定の作用に関連付けられた音声の音源として規定されている。例えば、相手アバターオブジェクトECから攻撃を受けた場合や、相手アバターオブジェクトECが声を発した場合などに、音源オブジェクトMCは、所定の音声データを生成する。図9に示すように、集音オブジェクトTCの周囲には、音源オブジェクトMCが配置される範囲である経路400が規定されている。経路400は、例えば、集音オブジェクトTCを中心に所定径を有する球形から構成されている。なお、音源オブジェクトMCや経路400は、透明な要素であって、視野画像V内には表示されない。また、音源オブジェクトMCは、常に仮想空間200に置かれていて、音を鳴らすときに経路400上の規定の位置に移動する場合のほか、必要な時にのみに経路400上に生成される場合もある。
音源オブジェクトMCは、相手アバターオブジェクトECの動作に起因する所定の作用に関連付けられた音声の音源として規定されている。例えば、相手アバターオブジェクトECから攻撃を受けた場合や、相手アバターオブジェクトECが声を発した場合などに、音源オブジェクトMCは、所定の音声データを生成する。図9に示すように、集音オブジェクトTCの周囲には、音源オブジェクトMCが配置される範囲である経路400が規定されている。経路400は、例えば、集音オブジェクトTCを中心に所定径を有する球形から構成されている。なお、音源オブジェクトMCや経路400は、透明な要素であって、視野画像V内には表示されない。また、音源オブジェクトMCは、常に仮想空間200に置かれていて、音を鳴らすときに経路400上の規定の位置に移動する場合のほか、必要な時にのみに経路400上に生成される場合もある。
集音オブジェクトTCは、仮想空間200上を伝搬する音声、例えば音源オブジェクトMCが生成する音声データを収集する集音器として機能する。集音オブジェクトTCは、仮想カメラ300に付随するオブジェクトである。集音オブジェクトTCは、仮想カメラ300と一体的に構成され、例えば、仮想カメラ300の略中心位置に配置されている。
次に、自己アバターオブジェクトSCが相手アバターオブジェクトECから所定の作用を受けた場合に、相手アバターオブジェクトECに関連付けられた音声がどのようにユーザUのヘッドホン116から出力されるかについて図7を参照して説明する。
まず、図7に示すように、制御部121は、仮想カメラ300と一体的に構成されている集音オブジェクトTCと、相手アバターオブジェクトECとの間の相対位置関係を特定する(ステップS10)。すなわち、制御部121は、集音オブジェクトSCに対して、相手アバターオブジェクトECが仮想空間200内のどの方向に位置しているかを特定する。
次に、制御部121は、ステップS10で特定された相対位置関係に基づいて、音源オブジェクトMCの位置を決定する(ステップS12)。ここでは、制御部121は、音源オブジェクトMCを、集音オブジェクトTCから相手アバターオブジェクトECへ向かう位置ベクトルV上において集音オブジェクトTCから一定距離の位置に配置する。具体的には、図9に示すように、音源オブジェクトMCは、位置ベクトルVと、経路400との交点Pに配置される。
次に、制御部121は、音源オブジェクトMCに、相手アバターオブジェクトECに関連付けられた音声データを生成させる(ステップS14)。すなわち、音源オブジェクトMCは、相手アバターオブジェクトECの動作に起因する何らかの作用に関連付けられた音声データを生成する。例えば、音源オブジェクトMCは、相手アバターオブジェクトECが自己アバターオブジェクトSCを攻撃したときの攻撃音や、相手アバターオブジェクトECが発する声に相当する音声データを生成する。
次に、制御部121は、集音オブジェクトTCに、音源オブジェクトMCで生成された音声データを収集させる(ステップS16)。そして、集音オブジェクトTCは、収集した音声データを制御部121に送信する(ステップS18)。
次に、制御部121は、集音オブジェクトTCと相手アバターオブジェクトECとの間の距離(例えば、最短距離)を特定する(ステップS20)。本実施形態では、仮想カメラ300と集音オブジェクトTCとが一体的に構成されているため、集音オブジェクトTCと相手アバターオブジェクトECとの間の距離は、仮想カメラ300と相手アバターオブジェクトECとの間の距離に相当する。
次に、ステップS20で特定された距離に基づいて、制御部121は、集音オブジェクトTCから取得した音声データの音量を調整する(ステップS22)。制御部121は、集音オブジェクトTCと相手アバターオブジェクトECとの間の距離が小さいほど音量を大きくし、この距離が大きいほど音量を小さくするように音声データを加工する。具体的には、音声データの音量Lは、以下の式(1)に基づいて決定され得る。
L=α/D・・・(1)
D:集音オブジェクトTCと相手アバターオブジェクトECとの間の距離
L:距離Dにおける音声データの音量
α:比例係数
なお、式(1)はあくまでも一例であって、他の式を用いて音声データの音量Lを決定しても良い。例えば、既知の距離減衰式等を用いて音量Lを決定しても良い。
L=α/D・・・(1)
D:集音オブジェクトTCと相手アバターオブジェクトECとの間の距離
L:距離Dにおける音声データの音量
α:比例係数
なお、式(1)はあくまでも一例であって、他の式を用いて音声データの音量Lを決定しても良い。例えば、既知の距離減衰式等を用いて音量Lを決定しても良い。
次に、制御部121は、仮想カメラ300の向きを特定する(ステップS24)。そして、制御部121は、ステップS24で特定された仮想カメラ300の向きに基づいて、仮想カメラ300に対する音源オブジェクトMCの方向を特定する(ステップS26)。最後に、制御部121は、集音オブジェクトTCから取得して音量Lが調整された音声データに対応する音声を、ステップS26で特定された方向に基づいて、HMDシステム1のヘッドホン116から出力させる(ステップS28)。
以上説明したように、本実施形態によれば、制御部121は、相手アバターオブジェクトECと集音オブジェクトTCとの間の相対位置関係および距離を特定し、特定された相対位置関係に基づいて、音源オブジェクトMCの位置を決定するとともに、特定された距離に基づいて、音源オブジェクトMCに関連付けられた音声データの音量を調整する。そして、制御部121は、集音オブジェクトTCにより収集された当該音声データに対応する音声をヘッドホン116に出力させる。これにより、例えば、ユーザUは、ヘッドホン116から出力される音声の方向に基づいて相手アバターオブジェクトECから受けた作用(攻撃)の方向を直感的に認識することができるとともに、ヘッドホン116から出力される音声の音量により相手アバターオブジェクトECとの距離感を直感的に認識することができる。このように、本実施形態の構成によれば、ユーザUの没入感を損なうことなく、相手アバターオブジェクトECから攻撃等の何らかの作用を受けたことをユーザUに容易に認識させることができる。
また、ステップS12で説明したように、制御部121は、音源オブジェクトMCを、集音オブジェクトTCから相手アバターオブジェクトECへの位置ベクトルV上において集音オブジェクトTCから一定距離の位置に配置する(すなわち、経路400上に配置する)。これにより、集音オブジェクトTCと相手アバターオブジェクトECとの相対位置関係が変化した場合でも、音源オブジェクトMCと集音オブジェクトTCとの距離は一定範囲内となるため、音声データを生成したり取得する際の情報処理量を抑制することができる。
また、集音オブジェクトTCは、仮想カメラ300と一体的に構成されている。そのため、ユーザUに、よりリアルな音声を提供することができる。
(変形例1)
図10は、上記実施形態の変形例1に係る情報処理方法を説明するための模式図である。変形例1では、集音オブジェクトTCは、自己アバターオブジェクトSCと一体的に構成されている。また、音源オブジェクトMCの配置可能範囲である経路450が、自己アバターオブジェクトSCの全体を囲む楕円体状に規定されている。経路450は、相手アバターオブジェクトECから受ける作用(攻撃等)と自己アバターオブジェクトSCとのコリジョン判定(当たり判定)に供されるコリジョンエリアに相当する。なお、自己アバターオブジェクトSCと一体的に構成される集音オブジェクトTCの位置は任意であるが、本例では、自己アバターオブジェクトSC全体を取り囲む経路450の中心に配置されている。
図10は、上記実施形態の変形例1に係る情報処理方法を説明するための模式図である。変形例1では、集音オブジェクトTCは、自己アバターオブジェクトSCと一体的に構成されている。また、音源オブジェクトMCの配置可能範囲である経路450が、自己アバターオブジェクトSCの全体を囲む楕円体状に規定されている。経路450は、相手アバターオブジェクトECから受ける作用(攻撃等)と自己アバターオブジェクトSCとのコリジョン判定(当たり判定)に供されるコリジョンエリアに相当する。なお、自己アバターオブジェクトSCと一体的に構成される集音オブジェクトTCの位置は任意であるが、本例では、自己アバターオブジェクトSC全体を取り囲む経路450の中心に配置されている。
次に、変形例1に係る情報処理方法について図7を参照して説明する。以下では、既に説明した上記実施形態に係る情報処理方法と変形例1に係る情報処理方法との間の相違点についてのみ詳細に説明する。
変形例1に係る情報処理方法では、ステップS10において、制御部121は、自己アバターオブジェクトSCと一体的に構成されている集音オブジェクトTCと相手アバターオブジェクトECとの間の相対位置関係を特定する。そして、ステップS12において、制御部121は、ステップS10で特定された相対位置関係に基づいて、音源オブジェクトMCを、集音オブジェクトTCから相手アバターオブジェクトECへ向かう位置ベクトルVと経路450との交点Qに配置する。上記実施の形態においては、仮想空間200内において相手アバターオブジェクトECが自己アバターオブジェクトSCの下方に位置するような場合には、音源オブジェクトMCは、自己アバターオブジェクトSCの頭部の下方側の経路450上に配置される。一方、変形例1においては、相手アバターオブジェクトECが自己アバターオブジェクトSCの下方に位置する場合には、図10に示すように、音源オブジェクトMCは、自己アバターオブジェクトSCの足元側の経路450上に配置されることとなる。
次いで、制御部121は、上記実施形態と同様に、図7に示すステップS14からS28の処理を実行し、経路450上の所定位置に配置された音源オブジェクトMCから取得した音声データに基づきヘッドホン116から音声を出力する。
変形例1に係る情報処理方法では、ステップS10において、制御部121は、自己アバターオブジェクトSCと一体的に構成されている集音オブジェクトTCと相手アバターオブジェクトECとの間の相対位置関係を特定する。そして、ステップS12において、制御部121は、ステップS10で特定された相対位置関係に基づいて、音源オブジェクトMCを、集音オブジェクトTCから相手アバターオブジェクトECへ向かう位置ベクトルVと経路450との交点Qに配置する。上記実施の形態においては、仮想空間200内において相手アバターオブジェクトECが自己アバターオブジェクトSCの下方に位置するような場合には、音源オブジェクトMCは、自己アバターオブジェクトSCの頭部の下方側の経路450上に配置される。一方、変形例1においては、相手アバターオブジェクトECが自己アバターオブジェクトSCの下方に位置する場合には、図10に示すように、音源オブジェクトMCは、自己アバターオブジェクトSCの足元側の経路450上に配置されることとなる。
次いで、制御部121は、上記実施形態と同様に、図7に示すステップS14からS28の処理を実行し、経路450上の所定位置に配置された音源オブジェクトMCから取得した音声データに基づきヘッドホン116から音声を出力する。
このように、変形例1によれば、制御部121は、音源オブジェクトMCを、自己アバターオブジェクトSCと一体的に構成される集音オブジェクトTCから相手アバターオブジェクトECへの位置ベクトルVと、自己アバターオブジェクトSC全体を取り囲む経路450との交点Qに配置する。そして、経路450上の音源オブジェクトMCから音声データが生成され、当該音声データは、集音オブジェクトSCと相手アバターオブジェクトECとの距離に応じて音量が調整される。この方法によれば、ユーザUの感覚により近い音声を提供することができ、ユーザUがより直感的に状況を把握することができる。
(変形例2)
図11は、本実施形態の変形例2に係る情報処理方法を説明するための模式図である。
変形例2では、仮想カメラ300と自己アバターオブジェクトSCとが離隔して配置される。すなわち、仮想空間200は、仮想カメラ300の視野画像内に自己アバターオブジェクトSCが表示される三人称視点用の空間として構成されている。この場合、自己アバターオブジェクトSCは、仮想カメラ300の動きと連動して制御されても良く、仮想カメラ300と連動せずに制御されても良い。
図11は、本実施形態の変形例2に係る情報処理方法を説明するための模式図である。
変形例2では、仮想カメラ300と自己アバターオブジェクトSCとが離隔して配置される。すなわち、仮想空間200は、仮想カメラ300の視野画像内に自己アバターオブジェクトSCが表示される三人称視点用の空間として構成されている。この場合、自己アバターオブジェクトSCは、仮想カメラ300の動きと連動して制御されても良く、仮想カメラ300と連動せずに制御されても良い。
本例では、変形例1と同様に、集音オブジェクトTCが自己アバターオブジェクトSCと一体的に構成され、音源オブジェクトMCの配置可能範囲である経路450が、自己アバターオブジェクトSCの全体を囲むように規定されている。そして、音源オブジェクトMCは、集音オブジェクトTCから相手アバターオブジェクトECへ向かう位置ベクトルVと、自己アバターオブジェクトSC全体を取り囲む経路450との交点Qに配置される。
変形例2によれば、仮想カメラ300と離隔して配置された集音オブジェクトSCと相手アバターオブジェクトECとの相対位置関係に基づいて経路450上に配置された音源オブジェクトMCから音声データが生成され、当該音声データは、集音オブジェクトSCと相手アバターオブジェクトECとの距離に応じて音量が調整される。これにより、三人称視点の場合であっても、ユーザUの感覚に近い音声を提供することができる。なお、制御部121は、仮想カメラ300と自己アバターオブジェクトSCとの間の相対位置関係から所定の頭部伝達関数を決定し、決定された頭部伝達関数と音声データとに基づいて、音声データをさらに加工してもよい。
以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲およびその均等の範囲に基づいて定められるべきである。
制御部121によって実行される各種処理をソフトウェアによって実現するために、本実施形態に係る情報処理方法をコンピュータ(プロセッサ)に実行させるための情報処理プログラムが記憶部123またはROMに予め組み込まれていてもよい。または、情報処理プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−rayディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体が制御装置120に接続されることで、当該記憶媒体に格納されたプログラムが、記憶部123に組み込まれる。そして、記憶部123に組み込まれた情報処理プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部121は本実施形態に係る情報処理方法を実行する。
また、情報処理プログラムは、通信ネットワーク3上のコンピュータから通信インターフェース125を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該プログラムが記憶部123に組み込まれる。
1:HMDシステム
3:通信ネットワーク
21:中心位置
110:ヘッドマウントディスプレイ(HMD)
112:表示部
114:HMDセンサ
116:ヘッドホン
120:制御装置
121:制御部
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
200:仮想空間
300:仮想カメラ
400,450:経路
CV:視野
U:ユーザ
SC:自己アバターオブジェクト
EC:相手アバターオブジェクト(対象オブジェクト)
MC:音源オブジェクト
TC:集音オブジェクト
3:通信ネットワーク
21:中心位置
110:ヘッドマウントディスプレイ(HMD)
112:表示部
114:HMDセンサ
116:ヘッドホン
120:制御装置
121:制御部
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
200:仮想空間
300:仮想カメラ
400,450:経路
CV:視野
U:ユーザ
SC:自己アバターオブジェクト
EC:相手アバターオブジェクト(対象オブジェクト)
MC:音源オブジェクト
TC:集音オブジェクト
Claims (4)
- 非透過型ヘッドマウントディスプレイと音声出力部と制御部とを備えたシステムにおける情報処理方法であって、
(a)仮想カメラと、前記非透過型ヘッドマウントディスプレイを装着したユーザとは異なる他ユーザあるいは前記制御部により前記ユーザに対して所定の作用を与えるべく動作されるよう制御される対象オブジェクトと、前記所定の作用に関連付けられた音声データを生成する音源オブジェクトと、前記音声データを収集する集音オブジェクトとを含む仮想空間を定義する仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて前記非透過型ヘッドマウントディスプレイに視野画像を表示させるステップと、
(c)前記対象オブジェクトと前記集音オブジェクトとの間の相対位置関係および距離を特定するステップと、
(d)前記特定された相対位置関係に基づいて、前記音源オブジェクトの位置を決定するステップと、
(e)前記特定された距離に基づいて、前記音声データの音量を調整するステップと、
(f)前記集音オブジェクトにより収集された前記音声データに対応する音声を前記音声出力部に出力させるステップと、
を含み、
前記仮想空間は、前記非透過型ヘッドマウントディスプレイを装着した前記ユーザに関連付けられたアバターオブジェクトをさらに含み、
前記集音オブジェクトは、前記アバターオブジェクトと一体的に構成されており、
前記ステップ(d)では、前記音源オブジェクトを、前記アバターオブジェクトの全体を囲むように規定されている経路上に配置し、
前記経路は、前記対象オブジェクトから受ける前記所定の作用と前記アバターオブジェクトとの当たり判定に供されるコリジョンエリアに基づいて特定され、
前記対象オブジェクトから前記アバターオブジェクトへ向かう位置ベクトルにおける前記経路上に、前記音源オブジェクトを配置する、情報処理方法。 - 前記ステップ(e)では、前記距離が小さいほど前記音量を大きくし、前記距離が大きいほど前記音量を小さくする、請求項1に記載の情報処理方法。
- 前記集音オブジェクトは、前記仮想カメラと一体的に構成されている、請求項1または2に記載の情報処理方法。
- 請求項1から3のいずれか一項に記載の情報処理方法をコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016158721A JP6207691B1 (ja) | 2016-08-12 | 2016-08-12 | 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016158721A JP6207691B1 (ja) | 2016-08-12 | 2016-08-12 | 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6207691B1 true JP6207691B1 (ja) | 2017-10-04 |
JP2018026048A JP2018026048A (ja) | 2018-02-15 |
Family
ID=59997776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016158721A Active JP6207691B1 (ja) | 2016-08-12 | 2016-08-12 | 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6207691B1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109752951A (zh) * | 2017-11-03 | 2019-05-14 | 腾讯科技(深圳)有限公司 | 控制系统的处理方法、装置、存储介质和电子装置 |
JP2019101468A (ja) * | 2017-11-28 | 2019-06-24 | 株式会社コロプラ | 仮想体験を提供するためのプログラム、情報処理装置、及び情報処理方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019081747A1 (en) * | 2017-10-26 | 2019-05-02 | Sony Semiconductor Solutions Corporation | CAP DETERMINATION DEVICE AND METHOD, DEVICE, AND RENDERING METHOD |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11347250A (ja) * | 1998-06-04 | 1999-12-21 | Enix Corp | ビデオゲーム装置およびプログラムを格納した記録媒体 |
JP2003257162A (ja) * | 2002-02-27 | 2003-09-12 | Yamaha Corp | 音制御装置、音制御方法、プログラムおよび記録媒体 |
JP2013005021A (ja) * | 2011-06-13 | 2013-01-07 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
JP2013102842A (ja) * | 2011-11-11 | 2013-05-30 | Nintendo Co Ltd | 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 |
JP2013162285A (ja) * | 2012-02-03 | 2013-08-19 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
JP2014083205A (ja) * | 2012-10-23 | 2014-05-12 | Nintendo Co Ltd | 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置 |
JP2014090251A (ja) * | 2012-10-29 | 2014-05-15 | Nintendo Co Ltd | 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置 |
JP2014090910A (ja) * | 2012-11-05 | 2014-05-19 | Nintendo Co Ltd | ゲームシステム、ゲーム処理制御方法、ゲーム装置、および、ゲームプログラム |
JP2014094160A (ja) * | 2012-11-09 | 2014-05-22 | Nintendo Co Ltd | ゲームシステム、ゲーム処理制御方法、ゲーム装置、および、ゲームプログラム |
-
2016
- 2016-08-12 JP JP2016158721A patent/JP6207691B1/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11347250A (ja) * | 1998-06-04 | 1999-12-21 | Enix Corp | ビデオゲーム装置およびプログラムを格納した記録媒体 |
JP2003257162A (ja) * | 2002-02-27 | 2003-09-12 | Yamaha Corp | 音制御装置、音制御方法、プログラムおよび記録媒体 |
JP2013005021A (ja) * | 2011-06-13 | 2013-01-07 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
JP2013102842A (ja) * | 2011-11-11 | 2013-05-30 | Nintendo Co Ltd | 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 |
JP2013162285A (ja) * | 2012-02-03 | 2013-08-19 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
JP2014083205A (ja) * | 2012-10-23 | 2014-05-12 | Nintendo Co Ltd | 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置 |
JP2014090251A (ja) * | 2012-10-29 | 2014-05-15 | Nintendo Co Ltd | 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置 |
JP2014090910A (ja) * | 2012-11-05 | 2014-05-19 | Nintendo Co Ltd | ゲームシステム、ゲーム処理制御方法、ゲーム装置、および、ゲームプログラム |
JP2014094160A (ja) * | 2012-11-09 | 2014-05-22 | Nintendo Co Ltd | ゲームシステム、ゲーム処理制御方法、ゲーム装置、および、ゲームプログラム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109752951A (zh) * | 2017-11-03 | 2019-05-14 | 腾讯科技(深圳)有限公司 | 控制系统的处理方法、装置、存储介质和电子装置 |
CN109752951B (zh) * | 2017-11-03 | 2022-02-08 | 腾讯科技(深圳)有限公司 | 控制系统的处理方法、装置、存储介质和电子装置 |
US11275239B2 (en) | 2017-11-03 | 2022-03-15 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for operating control system, storage medium, and electronic apparatus |
JP2019101468A (ja) * | 2017-11-28 | 2019-06-24 | 株式会社コロプラ | 仮想体験を提供するためのプログラム、情報処理装置、及び情報処理方法 |
JP7064265B2 (ja) | 2017-11-28 | 2022-05-10 | 株式会社コロプラ | 仮想体験を提供するためのプログラム、情報処理装置、及び情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2018026048A (ja) | 2018-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6058855B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
WO2017115635A1 (ja) | 情報処理方法及び情報処理プログラム | |
JP6223533B1 (ja) | 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6228640B1 (ja) | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム | |
JP6207691B1 (ja) | 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6190497B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6298874B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018171455A (ja) | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム | |
JP6207685B1 (ja) | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム | |
JP6342448B2 (ja) | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム | |
JP6113337B1 (ja) | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム | |
JP6266823B1 (ja) | 情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置 | |
JP6289703B1 (ja) | 情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置 | |
JP6535699B2 (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 | |
JP2018109940A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018007227A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6275809B1 (ja) | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム | |
JP6403843B1 (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 | |
JP2018089351A (ja) | 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018011193A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018092656A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6205047B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6332658B1 (ja) | 表示制御装置、及びプログラム | |
JP2018106723A (ja) | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム | |
JP2019021331A (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170808 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170905 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6207691 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |