JP2020504984A - 仮想光線追跡方法および光照射野の動的リフォーカス表示システム - Google Patents
仮想光線追跡方法および光照射野の動的リフォーカス表示システム Download PDFInfo
- Publication number
- JP2020504984A JP2020504984A JP2019544763A JP2019544763A JP2020504984A JP 2020504984 A JP2020504984 A JP 2020504984A JP 2019544763 A JP2019544763 A JP 2019544763A JP 2019544763 A JP2019544763 A JP 2019544763A JP 2020504984 A JP2020504984 A JP 2020504984A
- Authority
- JP
- Japan
- Prior art keywords
- virtual reality
- refocus
- image
- processor
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000005070 sampling Methods 0.000 claims abstract description 31
- 210000001508 eye Anatomy 0.000 claims description 55
- 210000005252 bulbus oculi Anatomy 0.000 claims description 11
- 230000003287 optical effect Effects 0.000 claims description 11
- 238000003384 imaging method Methods 0.000 claims description 9
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 abstract description 13
- 230000000694 effects Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000009877 rendering Methods 0.000 description 5
- 230000009021 linear effect Effects 0.000 description 4
- 230000011514 reflex Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 3
- 210000003205 muscle Anatomy 0.000 description 3
- 238000005316 response function Methods 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000001886 ciliary effect Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000005669 field effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009022 nonlinear effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 210000003699 striated muscle Anatomy 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/34—Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
k=s×R×((1/z)−(1/z1)) (2)
である。
全焦点画像およびその深度情報を得るステップと、
全焦点画像における画素をランダムに検索することにより光線のサンプリング数を低減させる、および/または、物体表面が滑らかであると仮定して交差点の検索を簡略化させることによって光線情報を収集するステップと、
上記光線情報に基づいて混色を行い、最終表示結果を得るステップと、
を含む。
仮想現実表示内容プロセッサと、
仮想現実表示装置と、
眼球回転方向を得ることができる眼球追跡装置と、
眼球追跡情報プロセッサと、
光照射野の動的リフォーカス処理機能を有する光照射野リフォーカスプロセッサと、
を含み、
仮想現実表示内容プロセッサは表示内容を取得し、仮想現実表示装置、眼球追跡装置、眼球追跡情報プロセッサおよび光照射野リフォーカスプロセッサとこの順にデータ線によって接続されている。
本実施例は従来の光線追跡アルゴリズムと異なって、一枚の全焦点写真およびそれに対応する被写界深度図だけで同じ効果を実現することができ、計算が大幅に簡略化される。下記の説明においては、事前確率(prior probability)を統計するランダム検索アルゴリズムを示すことにより、最終的には一眼レフカメラに匹敵する効果を生成することができる仮想光線追跡方法を完全に説明する。
lpq=s×r×((1/zf)−(1/zq)) (3)
を満たす。ここで、zqの大きさは深度図から抽出することができる。
lpq=(r/R)×K×(df−dq) (4)
に簡略化することができる。ここで、df=1/zf、dq=1/zqである。式(4)の左右両側はいずれも深度情報によって算出することができ、画像空間における光線追跡はシーンの三次元モデルを再構築することが避けられる。
|lpq−(r/R)×K×(df−dq)|≦1 (5)
まで制約を緩和している。
第2ステップであって、各格子において1つの画素をランダムにサンプリングする。
I’(p)=(1/w)×ΣqεkpwqI(q)、wq=exp(−(I(q)max−255)2/2σ2) (6)
を用いて混色を行う。
200 仮想現実表示装置、
110 眼球追跡装置、
120 眼球方向情報プロセッサ、
130 光照射野のリフォーカスプロセッサ、
1101 カメラ、
1102 マイクロLEDランプ、
2201 光学レンズ、
310 人間の目、
2101 結像ディスプレイ、
2202 人間の目の領域画像、
5101 左目の画像、
5102 右目の画像。
Claims (6)
- 仮想光線追跡方法であって、
全焦点画像およびその深度情報を得るステップと、
全焦点画像における画素をランダムに検索することにより光線のサンプリング数を低減させる、および/または、物体表面が滑らかであると仮定して交差点の検索を簡略化させることによって光線情報を収集するステップと、
上記光線情報に基づいて混色を行い、最終表示結果を得るステップと、
を含む、ことを特徴とする仮想光線追跡方法。 - 光線の収集は、絞りを複数の等分領域に分割し、各前記等分領域内において1つの画素を収集するといった振動サンプリングにより行われる、ことを特徴とする請求項1に記載の仮想光線追跡方法。
- 前記交差点の検索を簡略化させることは、lpq=(r/R)×K×(df−dq)および固定のdqによってlpqを直接計算し、半径r内の光線をサンプリングし、lpq0画素のオフセットとして1つのdt qを初期化し、lt pq画素の変位がlt pqに等しい場合、交差点の位置を決定でき、そうでない場合、そのlt pq画素の変位をd(t+1) qに設定して、結果が|lpq−(r/R)×K×(df−dq)|≦1の式を満たすまで反復計算し、反復計算終了の際の画素の色をリターンする、ことを特徴とする請求項1に記載の仮想光線追跡方法。
- 請求項1〜3のいずれか一項に記載の仮想光線追跡方法を採用する仮想現実光照射野の動的リフォーカス表示システムであって、
仮想現実表示内容プロセッサと、
仮想現実表示装置と、
眼球回転方向を得ることができる眼球追跡装置と、
眼球追跡情報プロセッサと、
光照射野の動的リフォーカス処理機能を有する光照射野リフォーカスプロセッサと、
を含み、
仮想現実表示内容プロセッサは表示内容を取得し、仮想現実表示装置、眼球追跡装置、眼球追跡情報プロセッサおよび光照射野リフォーカスプロセッサとこの順にデータ線によって接続されている、ことを特徴とする仮想現実光照射野の動的リフォーカス表示システム。 - 仮想現実表示装置は、左右の目に対応する結像ディスプレイ、拡大機能を有する光学レンズおよび位置決めセンサを含み、仮想現実表示内容プロセッサの処理によって得られる両目の三次元画像を表示する、ことを特徴とする請求項4に記載の仮想現実光照射野の動的リフォーカス表示システム。
- 前記仮想現実表示装置において、光学レンズの周縁にはマイクロLEDランプが設けられており、光学レンズの上方には人間の目の画像を収集するカメラが設けられている、ことを特徴とする請求項4に記載の仮想現実光照射野の動的リフォーカス表示システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710137526.8A CN107452031B (zh) | 2017-03-09 | 2017-03-09 | 虚拟光线跟踪方法及光场动态重聚焦显示系统 |
CN201710137526.8 | 2017-03-09 | ||
PCT/CN2018/078098 WO2018161883A1 (zh) | 2017-03-09 | 2018-03-06 | 虚拟光线跟踪方法及光场动态重聚焦显示系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020504984A true JP2020504984A (ja) | 2020-02-13 |
JP6862569B2 JP6862569B2 (ja) | 2021-04-21 |
Family
ID=60486245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019544763A Active JP6862569B2 (ja) | 2017-03-09 | 2018-03-06 | 仮想光線追跡方法および光照射野の動的リフォーカス表示システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10852821B2 (ja) |
JP (1) | JP6862569B2 (ja) |
KR (1) | KR102219624B1 (ja) |
CN (1) | CN107452031B (ja) |
WO (1) | WO2018161883A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107452031B (zh) * | 2017-03-09 | 2020-06-26 | 叠境数字科技(上海)有限公司 | 虚拟光线跟踪方法及光场动态重聚焦显示系统 |
CN109242900B (zh) * | 2018-08-01 | 2021-09-21 | 曜科智能科技(上海)有限公司 | 焦平面定位方法、处理装置、焦平面定位系统及存储介质 |
CN109360235B (zh) * | 2018-09-29 | 2022-07-19 | 中国航空工业集团公司上海航空测控技术研究所 | 一种基于光场数据的混合深度估计方法 |
CN110365965B (zh) * | 2019-06-26 | 2020-11-06 | 北京邮电大学 | 三维光场图像生成方法及装置 |
CN110689498B (zh) * | 2019-09-27 | 2024-03-12 | 西北大学 | 一种基于对非关注点部分分级模糊的高清视频优化方法 |
CN111650754B (zh) * | 2020-07-17 | 2022-08-12 | 北京耐德佳显示技术有限公司 | 一种平视显示设备 |
KR20220067950A (ko) | 2020-11-18 | 2022-05-25 | 삼성전자주식회사 | 디스플레이 장치 및 그의 제어 방법 |
CN112967370B (zh) * | 2021-03-03 | 2022-06-21 | 北京邮电大学 | 三维光场重建方法、装置及存储介质 |
CN113256783A (zh) * | 2021-03-29 | 2021-08-13 | 北京航空航天大学 | 基于眼动跟踪的立即辐射度渲染方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6028606A (en) * | 1996-08-02 | 2000-02-22 | The Board Of Trustees Of The Leland Stanford Junior University | Camera simulation system |
US8493383B1 (en) * | 2009-12-10 | 2013-07-23 | Pixar | Adaptive depth of field sampling |
US20160148415A1 (en) * | 2014-11-24 | 2016-05-26 | Adobe Systems Incorporated | Depth of field synthesis using ray tracing approximation |
JP2016520908A (ja) * | 2013-04-24 | 2016-07-14 | クアルコム,インコーポレイテッド | 拡張現実用のラジアンス伝達サンプリングのための装置および方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020013573A1 (en) * | 1995-10-27 | 2002-01-31 | William B. Telfair | Apparatus and method for tracking and compensating for eye movements |
JP3629243B2 (ja) * | 2002-02-13 | 2005-03-16 | Necマイクロシステム株式会社 | モデリング時の距離成分を用いてレンダリング陰影処理を行う画像処理装置とその方法 |
US20100110069A1 (en) * | 2008-10-31 | 2010-05-06 | Sharp Laboratories Of America, Inc. | System for rendering virtual see-through scenes |
US8493432B2 (en) * | 2010-06-29 | 2013-07-23 | Mitsubishi Electric Research Laboratories, Inc. | Digital refocusing for wide-angle images using axial-cone cameras |
JP6141584B2 (ja) * | 2012-01-24 | 2017-06-07 | アリゾナ ボード オブ リージェンツ オン ビハーフ オブ ザ ユニバーシティ オブ アリゾナ | 小型視線追従型ヘッドマウントディスプレイ |
US9171394B2 (en) * | 2012-07-19 | 2015-10-27 | Nvidia Corporation | Light transport consistent scene simplification within graphics display system |
CA2931776A1 (en) * | 2013-11-27 | 2015-06-04 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
WO2016115872A1 (zh) | 2015-01-21 | 2016-07-28 | 成都理想境界科技有限公司 | 双目ar头戴显示设备及其信息显示方法 |
CN106408643A (zh) * | 2016-08-31 | 2017-02-15 | 上海交通大学 | 一种基于图像空间的图像景深模拟方法 |
CN107452031B (zh) * | 2017-03-09 | 2020-06-26 | 叠境数字科技(上海)有限公司 | 虚拟光线跟踪方法及光场动态重聚焦显示系统 |
-
2017
- 2017-03-09 CN CN201710137526.8A patent/CN107452031B/zh active Active
-
2018
- 2018-03-06 JP JP2019544763A patent/JP6862569B2/ja active Active
- 2018-03-06 KR KR1020197009180A patent/KR102219624B1/ko active IP Right Grant
- 2018-03-06 WO PCT/CN2018/078098 patent/WO2018161883A1/zh active Application Filing
- 2018-03-06 US US16/346,942 patent/US10852821B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6028606A (en) * | 1996-08-02 | 2000-02-22 | The Board Of Trustees Of The Leland Stanford Junior University | Camera simulation system |
US8493383B1 (en) * | 2009-12-10 | 2013-07-23 | Pixar | Adaptive depth of field sampling |
JP2016520908A (ja) * | 2013-04-24 | 2016-07-14 | クアルコム,インコーポレイテッド | 拡張現実用のラジアンス伝達サンプリングのための装置および方法 |
US20160148415A1 (en) * | 2014-11-24 | 2016-05-26 | Adobe Systems Incorporated | Depth of field synthesis using ray tracing approximation |
Also Published As
Publication number | Publication date |
---|---|
US10852821B2 (en) | 2020-12-01 |
WO2018161883A1 (zh) | 2018-09-13 |
KR20190043590A (ko) | 2019-04-26 |
KR102219624B1 (ko) | 2021-02-23 |
JP6862569B2 (ja) | 2021-04-21 |
US20200057492A1 (en) | 2020-02-20 |
CN107452031B (zh) | 2020-06-26 |
CN107452031A (zh) | 2017-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6862569B2 (ja) | 仮想光線追跡方法および光照射野の動的リフォーカス表示システム | |
EP3101624B1 (en) | Image processing method and image processing device | |
WO2018019282A1 (zh) | 双目全景图像获取方法,装置及存储介质 | |
US20130335535A1 (en) | Digital 3d camera using periodic illumination | |
US10657664B2 (en) | Method and system for image-based image rendering using a multi-camera and depth camera array | |
JP2021503133A (ja) | カメラおよび回折光学要素の外因性較正のためのシステムおよび方法 | |
CN107534731B (zh) | 图像处理装置和图像处理方法 | |
CN110213491B (zh) | 一种对焦方法、装置及存储介质 | |
JP5809607B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
WO2019104670A1 (zh) | 深度值确定方法和装置 | |
JP2010176325A (ja) | 任意視点画像生成装置及び任意視点画像生成方法 | |
KR20140041012A (ko) | 다중 패턴 빔을 이용하는 3차원 촬영 장치 및 방법 | |
WO2016175043A1 (ja) | 画像処理装置及び画像処理方法 | |
US10496238B2 (en) | 3D display ray principles and methods, zooming, and real-time demonstration | |
US20230334806A1 (en) | Scaling neural representations for multi-view reconstruction of scenes | |
WO2016175045A1 (ja) | 画像処理装置及び画像処理方法 | |
JP6684454B2 (ja) | 画像処理装置及び画像処理方法 | |
KR20190026014A (ko) | 픽셀 빔을 나타내는 데이터를 생성하기 위한 장치 및 방법 | |
Sevcik et al. | Crime scene testimony in virtual reality applicability assessment | |
KR102402432B1 (ko) | 픽셀 빔을 표현하는 데이터를 생성하기 위한 장치 및 방법 | |
Mardanbegi et al. | An investigation of the distribution of gaze estimation errors in head mounted gaze trackers using polynomial functions | |
Zhang et al. | [Poster] an accurate calibration method for optical see-through head-mounted displays based on actual eye-observation model | |
Corke et al. | Image Formation | |
Corke et al. | Image Formation | |
TW202338749A (zh) | 用於判定雙眼凝視點的方法和主機 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200623 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200923 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20201109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210330 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210331 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6862569 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |