JP2018045299A - 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム - Google Patents
情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム Download PDFInfo
- Publication number
- JP2018045299A JP2018045299A JP2016177690A JP2016177690A JP2018045299A JP 2018045299 A JP2018045299 A JP 2018045299A JP 2016177690 A JP2016177690 A JP 2016177690A JP 2016177690 A JP2016177690 A JP 2016177690A JP 2018045299 A JP2018045299 A JP 2018045299A
- Authority
- JP
- Japan
- Prior art keywords
- virtual camera
- eye
- sub
- visual field
- field image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
Description
当該情報処理方法は、
(a)メイン仮想カメラと、サブ仮想カメラと、反射面を有する反射オブジェクトとを含む仮想空間を規定する仮想空間データを生成するステップと、
(b)前記ヘッドマウントデバイスの動きに応じて、前記メイン仮想カメラの視野を更新するステップと、
(c)前記メイン仮想カメラの視野と前記仮想空間データに基づいて、第1の左目用視野画像データと第1の右目用視野画像データとを生成するステップと、
(d)前記メイン仮想カメラと前記反射オブジェクトとの間の相対位置関係に基づいて、前記サブ仮想カメラの位置と向きを特定するステップと、
(e)前記サブ仮想カメラの視野と前記仮想空間データに基づいて、第2の左目用視野画像データと第2の右目用視野画像データとを生成するステップと、
(f)前記第1及び第2の左目用視野画像データに基づいて、第2の左目用視野画像が前記反射オブジェクトの反射面上に重畳されるように、第1の左目用視野画像及び前記第2の左目用視野画像を前記左目用表示部に表示するステップと、
(g)前記第1及び第2の右目用視野画像データに基づいて、第2の右目用視野画像が前記反射オブジェクトの反射面上に重畳されるように、第1の右目用視野画像及び前記第2の右目用視野画像を前記右目用表示部に表示するステップと、
を含む。
本開示が示す実施形態の概要を説明する。
(1)ユーザの左目に対応する左目用表示部と、当該ユーザの右目に対応する右目用表示部とを備えるヘッドマウントデバイスを制御するコンピュータのプロセッサによって実行される情報処理方法であって、
(a)メイン仮想カメラと、サブ仮想カメラと、反射面を有する反射オブジェクトとを含む仮想空間を規定する仮想空間データを生成するステップと、
(b)前記ヘッドマウントデバイスの動きに応じて、前記メイン仮想カメラの視野を更新するステップと、
(c)前記メイン仮想カメラの視野と前記仮想空間データに基づいて、第1の左目用視野画像データと第1の右目用視野画像データとを生成するステップと、
(d)前記メイン仮想カメラと前記反射オブジェクトとの間の相対位置関係に基づいて、前記サブ仮想カメラの位置と向きを特定するステップと、
(e)前記サブ仮想カメラの視野と前記仮想空間データに基づいて、第2の左目用視野画像データと第2の右目用視野画像データとを生成するステップと、
(f)前記第1及び第2の左目用視野画像データに基づいて、第2の左目用視野画像が前記反射オブジェクトの反射面上に重畳されるように、第1の左目用視野画像及び前記第2の左目用視野画像を前記左目用表示部に表示するステップと、
(g)前記第1及び第2の右目用視野画像データに基づいて、第2の右目用視野画像が前記反射オブジェクトの反射面上に重畳されるように、第1の右目用視野画像及び前記第2の右目用視野画像を前記右目用表示部に表示するステップと、
を含む、情報処理方法。
前記反射オブジェクトの反射面上の所定の位置における法線ベクトルを特定するステップと、
前記メイン仮想カメラと前記所定の位置を通る入射軸を特定するステップと、
前記法線ベクトルと前記入射軸とによって形成される入射角度を特定するステップと、
前記所定の位置を通る反射軸と前記法線ベクトルとによって形成される反射角度が前記入射角度と同一となるように、前記反射軸を特定するステップと、
前記反射軸に基づいて、前記サブ仮想カメラの位置と向きを特定するステップと、
を含む、項目(1)に記載の情報処理方法。
前記サブ仮想カメラは、左サブ仮想カメラと、右サブ仮想カメラを備え、
前記ステップ(b)は、
前記ヘッドマウントディスプレイの動きに応じて、前記左メイン仮想カメラの視野と前記右メイン仮想カメラの視野を更新するステップを含み、
前記ステップ(c)は、
前記左メイン仮想カメラの視野と前記仮想空間データに基づいて、前記第1の左目用視野画像データを生成するステップと、
前記右メイン仮想カメラの視野と前記仮想空間データに基づいて、前記第1の右目用視野画像データを生成するステップと、
を含み、
前記ステップ(d)は、
前記左メイン仮想カメラと前記反射オブジェクトとの間の相対位置関係に基づいて、前記左サブ仮想カメラの位置と向きを特定するステップと、
前記右メイン仮想カメラと前記反射オブジェクトとの間の相対位置関係に基づいて、前記右サブ仮想カメラの位置と向きを特定するステップと、
を含み、
前記ステップ(e)は、
前記左サブ仮想カメラの視野と前記仮想空間データに基づいて、前記第2の左目用視野画像データを生成するステップと、
前記右サブ仮想カメラの視野と前記仮想空間データに基づいて、前記第2の右目用視野画像データを生成するステップと、
を含む、項目(1)から(3)のうちいずれか一項に記載の情報処理方法。
前記反射オブジェクトの反射面上の所定の位置における法線ベクトルを特定するステップと、
前記左メイン仮想カメラと前記所定の位置を通る左入射軸を特定するステップと、
前記法線ベクトルと前記左入射軸とによって形成される入射角度を特定するステップと、
前記所定の位置を通る左反射軸と前記法線ベクトルとによって形成される反射角度が前記入射角度と同一となるように、前記左反射軸を特定するステップと、
前記左反射軸に基づいて、前記左サブ仮想カメラの位置と向きを特定するステップと、
を含み、
前記右サブ仮想カメラの位置と向きを特定するステップは、
前記反射オブジェクトの反射面上の所定の位置における法線ベクトルを特定するステップと、
前記右メイン仮想カメラと前記所定の位置を通る右入射軸を特定するステップと、
前記法線ベクトルと前記右入射軸とによって形成される入射角度を特定するステップと、
前記所定の位置を通る右反射軸と前記法線ベクトルとによって形成される反射角度が前記入射角度と同一となるように、前記右反射軸を特定するステップと、
前記右反射軸に基づいて、前記右サブ仮想カメラの位置と向きを特定するステップと、
を含む、項目(4)に記載の情報処理方法。
前記サブ仮想カメラは、単一のサブ仮想カメラのみから構成され、
前記ステップ(b)は、
前記ヘッドマウントディスプレイの動きに応じて、前記左メイン仮想カメラの視野と前記右メイン仮想カメラの視野を更新するステップを含み、
前記ステップ(c)は、
前記左メイン仮想カメラの視野と前記仮想空間データに基づいて、前記第1の左目用視野画像データを生成するステップと、
前記右メイン仮想カメラの視野と前記仮想空間データに基づいて、前記第1の右目用視野画像データを生成するステップと、
を含み、
前記ステップ(d)は、
前記左メイン仮想カメラ及び前記右メイン仮想カメラのうちの少なくとも一方と前記反射オブジェクトとの間の相対位置関係に基づいて、前記サブ仮想カメラの位置と向きを特定するステップを含み、
前記第2の左目用視野画像は、前記第2の右目用視野画像と同一である、
項目(1)から(3)のうちいずれか一項に記載の情報処理方法。
前記サブ仮想カメラは、単一のサブ仮想カメラのみから構成される、項目(1)から(3)のうちいずれか一項に記載の情報処理方法。
以下、本開示が示す実施形態について図面を参照しながら説明する。尚、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
次に、図8及び図9を参照することで第1実施形態に係る情報処理方法について説明する。図8は、左メイン仮想カメラ300Lと、右メイン仮想カメラ300Rと、左サブ仮想カメラ400Lと、右サブ仮想カメラ400Rと、反射オブジェクト500と、アバターオブジェクト600(所定のオブジェクト)とを含む仮想空間200を示す図である。図9は、第1実施形態に係る情報処理方法を説明するためのフローチャートである。
次に、図15から図17を参照することで第2実施形態に係る情報処理方法について説明する。図15は、左メイン仮想カメラ300Lと、右メイン仮想カメラ300Rと、単一のサブ仮想カメラ400と、反射オブジェクト500と、アバターオブジェクト600(所定のオブジェクト)とを含む仮想空間200Aを示す図である。図16は、第2実施形態に係る情報処理方法を説明するためのフローチャートである。図17は、単一のサブ仮想カメラ400の位置と向きを特定するための方法を説明するためのフローチャートである。
次に、図18から図20を参照することで第3実施形態に係る情報処理方法について説明する。図16は、単一のメイン仮想カメラ300Xと、単一のサブ仮想カメラ400と、反射オブジェクト500と、アバターオブジェクト600とを含む仮想空間200Bを示す図である。図19は、第3実施形態に係る情報処理方法を説明するためのフローチャートである。図20は、単一のサブ仮想カメラの位置と向きを特定するための方法を説明するためのフローチャートである。
3:通信ネットワーク
21:中心位置
112:表示部
112L:左目用表示部
112R:右目用表示部
114:HMDセンサ
120:制御装置
121:制御部
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
140:注視センサ
200,200A,200B:仮想空間
300:仮想カメラ
300X:メイン仮想カメラ
300L:左メイン仮想カメラ
300R:右メイン仮想カメラ
320:外部コントローラ
320L:左手用外部コントローラ(コントローラ)
320R:右手用外部コントローラ(コントローラ)
350:入射軸
350L:左入射軸
350R:右入射軸
360:反射軸
360L:左反射軸
360R:右反射軸
400:サブ仮想カメラ
400L:左サブ仮想カメラ
400R:右サブ仮想カメラ
500:反射オブジェクト
520:反射面
600:アバターオブジェクト(所定のオブジェクト)
CV:視野
CVa:第1領域
CVb:第2領域
L:視軸
NV:法線ベクトル
Claims (9)
- ユーザの左目に対応する左目用表示部と、当該ユーザの右目に対応する右目用表示部とを備えるヘッドマウントデバイスを制御するコンピュータのプロセッサによって実行される情報処理方法であって、
(a)メイン仮想カメラと、サブ仮想カメラと、反射面を有する反射オブジェクトとを含む仮想空間を規定する仮想空間データを生成するステップと、
(b)前記ヘッドマウントデバイスの動きに応じて、前記メイン仮想カメラの視野を更新するステップと、
(c)前記メイン仮想カメラの視野と前記仮想空間データに基づいて、第1の左目用視野画像データと第1の右目用視野画像データとを生成するステップと、
(d)前記メイン仮想カメラと前記反射オブジェクトとの間の相対位置関係に基づいて、前記サブ仮想カメラの位置と向きを特定するステップと、
(e)前記サブ仮想カメラの視野と前記仮想空間データに基づいて、第2の左目用視野画像データと第2の右目用視野画像データとを生成するステップと、
(f)前記第1及び第2の左目用視野画像データに基づいて、第2の左目用視野画像が前記反射オブジェクトの反射面上に重畳されるように、第1の左目用視野画像及び前記第2の左目用視野画像を前記左目用表示部に表示するステップと、
(g)前記第1及び第2の右目用視野画像データに基づいて、第2の右目用視野画像が前記反射オブジェクトの反射面上に重畳されるように、第1の右目用視野画像及び前記第2の右目用視野画像を前記右目用表示部に表示するステップと、
を含む、情報処理方法。 - 前記ステップ(d)は、
前記反射オブジェクトの反射面上の所定の位置における法線ベクトルを特定するステップと、
前記メイン仮想カメラと前記所定の位置を通る入射軸を特定するステップと、
前記法線ベクトルと前記入射軸とによって形成される入射角度を特定するステップと、
前記所定の位置を通る反射軸と前記法線ベクトルとによって形成される反射角度が前記入射角度と同一となるように、前記反射軸を特定するステップと、
前記反射軸に基づいて、前記サブ仮想カメラの位置と向きを特定するステップと、
を含む、請求項1に記載の情報処理方法。 - 前記第1の左目用視野画像に表示された反射オブジェクトと前記第1の右目用視野画像に表示された反射オブジェクトとの間の視差は、前記反射オブジェクトの反射面上に重畳された前記第2の左目用視野画像に表示された所定のオブジェクトと前記反射オブジェクトの反射面上に重畳された前記第2の右目用視野画像に表示された所定のオブジェクトとの間の視差よりも大きい、請求項1又は2に記載の情報処理方法。
- 前記メイン仮想カメラは、左メイン仮想カメラと、右メイン仮想カメラを備え、
前記サブ仮想カメラは、左サブ仮想カメラと、右サブ仮想カメラを備え、
前記ステップ(b)は、
前記ヘッドマウントディスプレイの動きに応じて、前記左メイン仮想カメラの視野と前記右メイン仮想カメラの視野を更新するステップを含み、
前記ステップ(c)は、
前記左メイン仮想カメラの視野と前記仮想空間データに基づいて、前記第1の左目用視野画像データを生成するステップと、
前記右メイン仮想カメラの視野と前記仮想空間データに基づいて、前記第1の右目用視野画像データを生成するステップと、
を含み、
前記ステップ(d)は、
前記左メイン仮想カメラと前記反射オブジェクトとの間の相対位置関係に基づいて、前記左サブ仮想カメラの位置と向きを特定するステップと、
前記右メイン仮想カメラと前記反射オブジェクトとの間の相対位置関係に基づいて、前記右サブ仮想カメラの位置と向きを特定するステップと、
を含み、
前記ステップ(e)は、
前記左サブ仮想カメラの視野と前記仮想空間データに基づいて、前記第2の左目用視野画像データを生成するステップと、
前記右サブ仮想カメラの視野と前記仮想空間データに基づいて、前記第2の右目用視野画像データを生成するステップと、
を含む、請求項1から3のうちいずれか一項に記載の情報処理方法。 - 前記左サブ仮想カメラの位置と向きを特定するステップは、
前記反射オブジェクトの反射面上の所定の位置における法線ベクトルを特定するステップと、
前記左メイン仮想カメラと前記所定の位置を通る左入射軸を特定するステップと、
前記法線ベクトルと前記左入射軸とによって形成される入射角度を特定するステップと、
前記所定の位置を通る左反射軸と前記法線ベクトルとによって形成される反射角度が前記入射角度と同一となるように、前記左反射軸を特定するステップと、
前記左反射軸に基づいて、前記左サブ仮想カメラの位置と向きを特定するステップと、
を含み、
前記右サブ仮想カメラの位置と向きを特定するステップは、
前記反射オブジェクトの反射面上の所定の位置における法線ベクトルを特定するステップと、
前記右メイン仮想カメラと前記所定の位置を通る右入射軸を特定するステップと、
前記法線ベクトルと前記右入射軸とによって形成される入射角度を特定するステップと、
前記所定の位置を通る右反射軸と前記法線ベクトルとによって形成される反射角度が前記入射角度と同一となるように、前記右反射軸を特定するステップと、
前記右反射軸に基づいて、前記右サブ仮想カメラの位置と向きを特定するステップと、
を含む、請求項4に記載の情報処理方法。 - 前記反射オブジェクトの反射面に対する前記左メイン仮想カメラと前記右メイン仮想カメラとの間の輻輳角は、前記左サブ仮想カメラ及び前記右サブ仮想カメラの視野内に存在する所定のオブジェクトに対する前記左サブ仮想カメラと前記右サブ仮想カメラとの間の輻輳角よりも大きい、請求項4又は5に記載の情報処理方法。
- 前記メイン仮想カメラは、左メイン仮想カメラと、右メイン仮想カメラを備え、
前記サブ仮想カメラは、単一のサブ仮想カメラのみから構成され、
前記ステップ(b)は、
前記ヘッドマウントディスプレイの動きに応じて、前記左メイン仮想カメラの視野と前記右メイン仮想カメラの視野を更新するステップを含み、
前記ステップ(c)は、
前記左メイン仮想カメラの視野と前記仮想空間データに基づいて、前記第1の左目用視野画像データを生成するステップと、
前記右メイン仮想カメラの視野と前記仮想空間データに基づいて、前記第1の右目用視野画像データを生成するステップと、
を含み、
前記ステップ(d)は、
前記左メイン仮想カメラ及び前記右メイン仮想カメラのうちの少なくとも一方と前記反射オブジェクトとの間の相対位置関係に基づいて、前記サブ仮想カメラの位置と向きを特定するステップを含み、
前記第2の左目用視野画像は、前記第2の右目用視野画像と同一である、
請求項1から3のうちいずれか一項に記載の情報処理方法。 - 前記メイン仮想カメラは、単一のメイン仮想カメラのみから構成され、
前記サブ仮想カメラは、単一のサブ仮想カメラのみから構成される、請求項1から3のうちいずれか一項に記載の情報処理方法。 - 請求項1から8のうちいずれか一項に記載の情報処理方法をコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016177690A JP6216851B1 (ja) | 2016-09-12 | 2016-09-12 | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016177690A JP6216851B1 (ja) | 2016-09-12 | 2016-09-12 | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6216851B1 JP6216851B1 (ja) | 2017-10-18 |
JP2018045299A true JP2018045299A (ja) | 2018-03-22 |
Family
ID=60107318
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016177690A Active JP6216851B1 (ja) | 2016-09-12 | 2016-09-12 | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6216851B1 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07200870A (ja) * | 1993-12-28 | 1995-08-04 | Sharp Corp | 立体視用3次元画像生成装置 |
JPH1094678A (ja) * | 1996-07-31 | 1998-04-14 | Konami Co Ltd | ドライビングゲーム機及びドライビングゲームプログラムが格納された記録媒体 |
JP2000210468A (ja) * | 1999-01-20 | 2000-08-02 | Namco Ltd | ゲ―ム装置 |
WO2007129476A1 (ja) * | 2006-05-09 | 2007-11-15 | Sega Corporation | 画像処理プログラムおよび画像処理装置 |
JP2016525917A (ja) * | 2013-06-07 | 2016-09-01 | 株式会社ソニー・インタラクティブエンタテインメント | ヘッドマウンテッドディスプレイ上でのゲームプレイの移行 |
JP2016162033A (ja) * | 2015-02-27 | 2016-09-05 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成システム、画像生成方法、プログラム及び情報記憶媒体 |
-
2016
- 2016-09-12 JP JP2016177690A patent/JP6216851B1/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07200870A (ja) * | 1993-12-28 | 1995-08-04 | Sharp Corp | 立体視用3次元画像生成装置 |
JPH1094678A (ja) * | 1996-07-31 | 1998-04-14 | Konami Co Ltd | ドライビングゲーム機及びドライビングゲームプログラムが格納された記録媒体 |
JP2000210468A (ja) * | 1999-01-20 | 2000-08-02 | Namco Ltd | ゲ―ム装置 |
WO2007129476A1 (ja) * | 2006-05-09 | 2007-11-15 | Sega Corporation | 画像処理プログラムおよび画像処理装置 |
JP2016525917A (ja) * | 2013-06-07 | 2016-09-01 | 株式会社ソニー・インタラクティブエンタテインメント | ヘッドマウンテッドディスプレイ上でのゲームプレイの移行 |
JP2016162033A (ja) * | 2015-02-27 | 2016-09-05 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成システム、画像生成方法、プログラム及び情報記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP6216851B1 (ja) | 2017-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5996814B1 (ja) | 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム | |
JP6266814B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6002286B1 (ja) | ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム | |
JP6117414B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6095830B1 (ja) | 視野情報収集方法および当該視野情報収集方法をコンピュータに実行させるためのプログラム | |
JP2017021824A (ja) | ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム | |
JP6212666B1 (ja) | 情報処理方法、プログラム、仮想空間配信システム及び装置 | |
JP6298874B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6113337B1 (ja) | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム | |
JP6118444B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6266823B1 (ja) | 情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置 | |
JP6535699B2 (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 | |
JP2017211912A (ja) | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム | |
JP2018109940A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6216851B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018120583A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018171455A (ja) | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム | |
JP6449922B2 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6403843B1 (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 | |
JP2018092656A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6205047B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6275809B1 (ja) | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム | |
JP6941130B2 (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 | |
JP2017142769A (ja) | 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム | |
JP2017033465A (ja) | 方法、および、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170418 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20170814 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170925 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6216851 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |