JP6862569B2 - 仮想光線追跡方法および光照射野の動的リフォーカス表示システム - Google Patents
仮想光線追跡方法および光照射野の動的リフォーカス表示システム Download PDFInfo
- Publication number
- JP6862569B2 JP6862569B2 JP2019544763A JP2019544763A JP6862569B2 JP 6862569 B2 JP6862569 B2 JP 6862569B2 JP 2019544763 A JP2019544763 A JP 2019544763A JP 2019544763 A JP2019544763 A JP 2019544763A JP 6862569 B2 JP6862569 B2 JP 6862569B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual reality
- virtual
- refocus
- intersection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 26
- 210000001508 eye Anatomy 0.000 claims description 60
- 238000005070 sampling Methods 0.000 claims description 26
- 210000005252 bulbus oculi Anatomy 0.000 claims description 14
- 230000003287 optical effect Effects 0.000 claims description 11
- 238000003384 imaging method Methods 0.000 claims description 10
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 230000004438 eyesight Effects 0.000 claims description 2
- 230000002093 peripheral effect Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 6
- 239000003086 colorant Substances 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 230000009021 linear effect Effects 0.000 description 4
- 230000011514 reflex Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 3
- 210000003205 muscle Anatomy 0.000 description 3
- 238000005316 response function Methods 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 230000001886 ciliary effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005669 field effect Effects 0.000 description 2
- 206010021703 Indifference Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000004418 eye rotation Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009022 nonlinear effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/34—Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Processing (AREA)
Description
k=s×R×((1/z)−(1/z1)) (2)
である。
全焦点画像およびその深度情報を得るステップと、
全焦点画像における画素をランダムに検索することにより光線のサンプリング数を低減させる、および/または、物体表面が滑らかであると仮定して交差点の検索を簡略化させることによって光線情報を収集するステップと、
上記光線情報に基づいて混色を行い、最終表示結果を得るステップと、
を含む。
仮想現実表示内容プロセッサと、
仮想現実表示装置と、
眼球回転方向を得ることができる眼球追跡装置と、
眼球追跡情報プロセッサと、
光照射野の動的リフォーカス処理機能を有する光照射野リフォーカスプロセッサと、
を含み、
仮想現実表示内容プロセッサは表示内容を取得し、仮想現実表示装置、眼球追跡装置、眼球追跡情報プロセッサおよび光照射野リフォーカスプロセッサとこの順にデータ線によって接続されている。
本実施例は従来の光線追跡アルゴリズムと異なって、一枚の全焦点写真およびそれに対応する被写界深度図だけで同じ効果を実現することができ、計算が大幅に簡略化される。下記の説明においては、事前確率(prior probability)を統計するランダム検索アルゴリズムを示すことにより、最終的には一眼レフカメラに匹敵する効果を生成することができる仮想光線追跡方法を完全に説明する。
lpq=s×r×((1/zf)−(1/zq)) (3)
を満たす。ここで、zqの大きさは深度図から抽出することができる。
lpq=(r/R)×K×(df−dq) (4)
に簡略化することができる。ここで、df=1/zf、dq=1/zqである。式(4)の左右両側はいずれも深度情報によって算出することができ、画像空間における光線追跡はシーンの三次元モデルを再構築することが避けられる。
|lpq−(r/R)×K×(df−dq)|≦1 (5)
まで制約を緩和している。
第2ステップであって、各格子において1つの画素をランダムにサンプリングする。
I’(p)=(1/w)×ΣqεkpwqI(q)、wq=exp(−(I(q)max−255)2/2σ2) (6)
を用いて混色を行う。
200 仮想現実表示装置、
110 眼球追跡装置、
120 眼球方向情報プロセッサ、
130 光照射野のリフォーカスプロセッサ、
1101 カメラ、
1102 マイクロLEDランプ、
2201 光学レンズ、
310 人間の目、
2101 結像ディスプレイ、
2202 人間の目の領域画像、
5101 左目の画像、
5102 右目の画像。
Claims (5)
- 仮想光線追跡方法であって、
全焦点画像、および人間の目の視線と表示される画像との交差点の位置を決定して当該交差点が位置するフォーカス平面の位置から得られる深度情報を得るステップと、
絞りを複数の等分領域に分割し、各前記等分領域内において1つの画素を収集するといった振動サンプリングによって全焦点画像における画素をランダムに検索することにより光線のサンプリング数を低減させる、および/または、物体表面が滑らかであると仮定して前記交差点の検索を簡略化させることによってリフォーカスするための光線情報を収集するステップと、
上記深度情報及び光線情報に基づいてリフォーカスを行い、最終表示結果を得るステップと、
を含む、ことを特徴とする仮想光線追跡方法。 - 前記交差点の検索を簡略化させることは、lpq=(r/R)×K×(df−dq)および固定のdqによってlpqを直接計算し、半径r内の光線をサンプリングし、lpq0画素のオフセットとして1つのdt qを初期化し、lt pq画素の変位がlt pqに等しい場合、交差点の位置を決定でき、そうでない場合、そのlt pq画素の変位をd(t+1) qに設定して、結果が|lpq−(r/R)×K×(df−dq)|≦1の式を満たすまで反復計算し、反復計算終了の際の画素の色をリターンする、
ここで、Rは、仮想の薄レンズの直径、rは、仮想の薄レンズの中心からの距離、Kは、錯乱円の最大半径、l pq は、中心画素pと投影点qの距離、d f は、仮想の薄レンズの焦点距離fの深度、d q は、投影点qの深度、l t pq は、t回反復計算したl pq 、d t q は、t回反復計算したd q 、l pq0 は、オフセットとしてd t q を初期化するl pq 、である、
ことを特徴とする請求項1に記載の仮想光線追跡方法。 - 請求項1〜2のいずれか一項に記載の仮想光線追跡方法を採用する仮想現実光照射野の動的リフォーカス表示システムであって、
左右の目に対して表示する画像を取得する仮想現実表示内容プロセッサと、
前記左右の目に対して表示する画像を表示する仮想現実表示装置と、
眼球の回転方向を検出する眼球追跡装置と、
前記眼球の回転方向から眼球の回転方向情報を取得する眼球追跡情報プロセッサと、
前記眼球の回転方向情報に基づいて、人間の目の視線と表示される画像との交差点の位置を決定して当該交差点が位置するフォーカス平面の位置から得られる深度情報を得て、光照射野の動的リフォーカス処理機能を有する光照射野リフォーカスプロセッサと、
を含み、
仮想現実表示内容プロセッサ、仮想現実表示装置、眼球追跡装置、眼球追跡情報プロセッサおよび光照射野リフォーカスプロセッサとこの順にデータ線によって接続されている、ことを特徴とする仮想現実光照射野の動的リフォーカス表示システム。 - 前記仮想現実表示装置は、左右の目に対応する結像ディスプレイ、拡大機能を有する光学レンズおよび位置決めセンサを含み、前記仮想現実表示内容プロセッサの処理によって得られる両目の三次元画像を表示する、ことを特徴とする請求項3に記載の仮想現実光照射野の動的リフォーカス表示システム。
- 前記仮想現実表示装置において、光学レンズの周縁にはマイクロLEDランプが設けられており、光学レンズの上方には人間の目の画像を収集するカメラが設けられている、ことを特徴とする請求項3に記載の仮想現実光照射野の動的リフォーカス表示システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710137526.8 | 2017-03-09 | ||
CN201710137526.8A CN107452031B (zh) | 2017-03-09 | 2017-03-09 | 虚拟光线跟踪方法及光场动态重聚焦显示系统 |
PCT/CN2018/078098 WO2018161883A1 (zh) | 2017-03-09 | 2018-03-06 | 虚拟光线跟踪方法及光场动态重聚焦显示系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020504984A JP2020504984A (ja) | 2020-02-13 |
JP6862569B2 true JP6862569B2 (ja) | 2021-04-21 |
Family
ID=60486245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019544763A Active JP6862569B2 (ja) | 2017-03-09 | 2018-03-06 | 仮想光線追跡方法および光照射野の動的リフォーカス表示システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10852821B2 (ja) |
JP (1) | JP6862569B2 (ja) |
KR (1) | KR102219624B1 (ja) |
CN (1) | CN107452031B (ja) |
WO (1) | WO2018161883A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107452031B (zh) * | 2017-03-09 | 2020-06-26 | 叠境数字科技(上海)有限公司 | 虚拟光线跟踪方法及光场动态重聚焦显示系统 |
CN109242900B (zh) * | 2018-08-01 | 2021-09-21 | 曜科智能科技(上海)有限公司 | 焦平面定位方法、处理装置、焦平面定位系统及存储介质 |
CN109360235B (zh) * | 2018-09-29 | 2022-07-19 | 中国航空工业集团公司上海航空测控技术研究所 | 一种基于光场数据的混合深度估计方法 |
CN110365965B (zh) * | 2019-06-26 | 2020-11-06 | 北京邮电大学 | 三维光场图像生成方法及装置 |
CN110689498B (zh) * | 2019-09-27 | 2024-03-12 | 西北大学 | 一种基于对非关注点部分分级模糊的高清视频优化方法 |
CN111650754B (zh) * | 2020-07-17 | 2022-08-12 | 北京耐德佳显示技术有限公司 | 一种平视显示设备 |
KR20220067950A (ko) | 2020-11-18 | 2022-05-25 | 삼성전자주식회사 | 디스플레이 장치 및 그의 제어 방법 |
CN112967370B (zh) * | 2021-03-03 | 2022-06-21 | 北京邮电大学 | 三维光场重建方法、装置及存储介质 |
CN113256783A (zh) * | 2021-03-29 | 2021-08-13 | 北京航空航天大学 | 基于眼动跟踪的立即辐射度渲染方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020013573A1 (en) * | 1995-10-27 | 2002-01-31 | William B. Telfair | Apparatus and method for tracking and compensating for eye movements |
US6028606A (en) * | 1996-08-02 | 2000-02-22 | The Board Of Trustees Of The Leland Stanford Junior University | Camera simulation system |
JP3629243B2 (ja) * | 2002-02-13 | 2005-03-16 | Necマイクロシステム株式会社 | モデリング時の距離成分を用いてレンダリング陰影処理を行う画像処理装置とその方法 |
US20100110069A1 (en) * | 2008-10-31 | 2010-05-06 | Sharp Laboratories Of America, Inc. | System for rendering virtual see-through scenes |
US8493383B1 (en) * | 2009-12-10 | 2013-07-23 | Pixar | Adaptive depth of field sampling |
US8493432B2 (en) * | 2010-06-29 | 2013-07-23 | Mitsubishi Electric Research Laboratories, Inc. | Digital refocusing for wide-angle images using axial-cone cameras |
KR101931406B1 (ko) * | 2012-01-24 | 2018-12-20 | 더 아리조나 보드 오브 리전츠 온 비핼프 오브 더 유니버시티 오브 아리조나 | 컴팩트한 시선추적 기능의 헤드 탑재형 디스플레이 |
US9171394B2 (en) * | 2012-07-19 | 2015-10-27 | Nvidia Corporation | Light transport consistent scene simplification within graphics display system |
US10062210B2 (en) * | 2013-04-24 | 2018-08-28 | Qualcomm Incorporated | Apparatus and method for radiance transfer sampling for augmented reality |
CN107329259B (zh) * | 2013-11-27 | 2019-10-11 | 奇跃公司 | 虚拟和增强现实系统与方法 |
US9905041B2 (en) * | 2014-11-24 | 2018-02-27 | Adobe Systems Incorporated | Depth of field synthesis using ray tracing approximation |
US10284839B2 (en) * | 2015-01-21 | 2019-05-07 | Chengdu Idealsee Technology Co., Ltd. | Binocular see-through AR head-mounted display device and information display method therefor |
CN106408643A (zh) * | 2016-08-31 | 2017-02-15 | 上海交通大学 | 一种基于图像空间的图像景深模拟方法 |
CN107452031B (zh) * | 2017-03-09 | 2020-06-26 | 叠境数字科技(上海)有限公司 | 虚拟光线跟踪方法及光场动态重聚焦显示系统 |
-
2017
- 2017-03-09 CN CN201710137526.8A patent/CN107452031B/zh active Active
-
2018
- 2018-03-06 KR KR1020197009180A patent/KR102219624B1/ko active IP Right Grant
- 2018-03-06 WO PCT/CN2018/078098 patent/WO2018161883A1/zh active Application Filing
- 2018-03-06 JP JP2019544763A patent/JP6862569B2/ja active Active
- 2018-03-06 US US16/346,942 patent/US10852821B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20200057492A1 (en) | 2020-02-20 |
JP2020504984A (ja) | 2020-02-13 |
CN107452031A (zh) | 2017-12-08 |
KR20190043590A (ko) | 2019-04-26 |
CN107452031B (zh) | 2020-06-26 |
US10852821B2 (en) | 2020-12-01 |
KR102219624B1 (ko) | 2021-02-23 |
WO2018161883A1 (zh) | 2018-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6862569B2 (ja) | 仮想光線追跡方法および光照射野の動的リフォーカス表示システム | |
KR101893047B1 (ko) | 이미지 처리 방법 및 이미지 처리 장치 | |
WO2018019282A1 (zh) | 双目全景图像获取方法,装置及存储介质 | |
EP3134868B1 (en) | Generation and use of a 3d radon image | |
Fuhl et al. | Fast camera focus estimation for gaze-based focus control | |
US20130335535A1 (en) | Digital 3d camera using periodic illumination | |
JP2023515669A (ja) | マルチビューステレオのための疎点の三角測量および緻密化を学習することによる深度推定のためのシステムおよび方法 | |
US20140009570A1 (en) | Systems and methods for capture and display of flex-focus panoramas | |
CN110213491B (zh) | 一种对焦方法、装置及存储介质 | |
CN107534731B (zh) | 图像处理装置和图像处理方法 | |
US20140009503A1 (en) | Systems and Methods for Tracking User Postures to Control Display of Panoramas | |
WO2019104670A1 (zh) | 深度值确定方法和装置 | |
JP5809607B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
US20230334806A1 (en) | Scaling neural representations for multi-view reconstruction of scenes | |
Martel et al. | Real-time depth from focus on a programmable focal plane processor | |
CN109084679B (zh) | 一种基于空间光调制器的3d测量及获取装置 | |
Corke et al. | Image Formation | |
CN105488780A (zh) | 一种用于工业生产线的单目视觉测距追踪装置及其追踪方法 | |
CN107659772B (zh) | 3d图像生成方法、装置及电子设备 | |
WO2023200936A1 (en) | Scaling neural representations for multi-view reconstruction of scenes | |
CN109661817B (zh) | 一种用于生成像素光束的数据表示的装置和方法 | |
CN109565583B (zh) | 用于生成表示像素束的数据的方法和装置 | |
Corke et al. | Image Formation | |
JP7320400B2 (ja) | 映像演出処理装置及びそのプログラム | |
US11570368B1 (en) | Method and apparatus for imaging on a double curved display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200623 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200923 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20201109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210330 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210331 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6862569 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |