JP6913326B2 - 適応基準を用いた頭部追跡 - Google Patents
適応基準を用いた頭部追跡 Download PDFInfo
- Publication number
- JP6913326B2 JP6913326B2 JP2019510496A JP2019510496A JP6913326B2 JP 6913326 B2 JP6913326 B2 JP 6913326B2 JP 2019510496 A JP2019510496 A JP 2019510496A JP 2019510496 A JP2019510496 A JP 2019510496A JP 6913326 B2 JP6913326 B2 JP 6913326B2
- Authority
- JP
- Japan
- Prior art keywords
- head
- data
- reference direction
- user
- adjustment amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
- H04S7/304—For headphones
Description
本出願は、2016年5月2日に出願された米国仮特許出願第62/330,267号に基づく優先権を主張するものであり、その全体が参照により本明細書に組み入れられる。
本開示の主題は、頭部追跡に関連し、より具体的には、非静的環境における頭部追跡に関連する。
頭部追跡の多くの場合において、ユーザの基準フレームもまた、例えばユーザの直線運動の方向における変化に応答して、変化を受ける。例えば、飛行機内で映画を見るためのVRシステムにおいて、スクリーンおよびスピーカーを備えたシネマルームがあり、そこにユーザが座っているとシミュレートする。飛行機が回転したときに映画がユーザの目の前にとどまるように、シミュレートされたシネマは地球の「北」に対して安定した状態であるよりも、ユーザに対して安定したままの状態であることが望ましい。他の例では、歩行中および/または走行中にヘッドフォンを超えて仮想化されたスピーカーを用いて音楽を聴いている。この例において、仮想化されたスピーカーの位置は、ユーザが道の角を曲がるときであってもリスナーの目の前にとどまることが望ましい。
(i)量が、前記第二のデータの統計的性質の変化に少なくとも部分的に従って変化する。
(ii)適応基準方向は、前記適応基準方向と前記第一の頭部方向との間を補間することにより調整量に従って適応基準方向を回転させることで適応される。補間は四元数球面線形補間(”Slerp”)演算を用いて実行されることができる。
(iii)第二のデータは、第二のデータに従って一つまたは複数の測定値を算出すること、および一つまたは複数の測定値を調整量に変換することによって、調整量を算出するためまたは導き出すために用いられることができる。
(iv)一つまたは複数の測定値は、一つまたは複数の測定値のうち一つまたは複数と、一つまたは複数の各閾値とを比較することによって調整量に変換されることができる。
(v)一つまたは複数の測定値は、相対安定性、相対偏差、および/または絶対偏差のうち一つまたは複数を含むことができる。
(vi)調整量は、平滑化のためにさらに処理されることができる。
(viii)調整量は、調整量の上昇時間、ホールド時間、および衰退時間のうち一つまたは複数を制御するためにさらに処理されることができる。
(ix)第二のデータは、適応基準方向の変更が必要であることを示すデータを含む。
(x)第二のデータは、三次元座標系の少なくとも一次元内のユーザに関連付けられた場所、動作、方向、速度および加速度のうち少なくとも一つを示すデータを含む。
(xi)バイノーラルオーディオは、第二の頭部方向に従ってレンダリングされることができ、またユーザが装着するヘッドフォンに伝達されることができる。
(xii)仮想現実(VR)ビデオおよび/または拡張現実(AR)ビデオのうち少なくとも一つが、第二の頭部方向に従ってレンダリングされることができる。
この方法は、現在の短時間サンプル分散とそれより前の長期サンプル分散を比較し、分散における相対的増加の指標を返す。n−Nおよびnの間のサンプルにわたる(軸毎の)各センサの分散Sを、等式3を用いて示す。
この方法は、二つの隣接した時間範囲の間の平均基準方向を比較する。一組の四次元四元数の幾何平均四元数を算出することは、前述の’Slerp’演算を用いることによって達成されることができる。この演算は、二つの四元数の間の補間が最短経路(すなわち大円)を介して行われることを裏付ける。TCの期間にわたる平均を算出するために、Slerp演算は等式7で示されるような再帰法において用いられることができる。
この方法は、上記で詳細に説明された相対安定性および相対偏差の測定値を組み合わせることによって算出される。これらの測定値は、例えば等式12に示されるように二乗平均平方根を用いて組み合わせることができる。
この方法は、前述の二つの例では捉えることのできなかったスローモーションが発生する状況に対処することを目的としている。この(角度単位において提供された)方法は第二のセンサの方向の平均といくつかの基準アンカーとを比較するが、ここでアンカーはいくつかの過去の方向である。アンカーからの偏差が閾値を超えるとき、アンカーは、等式13に示されるように現在の第二のセンサの方向に設定される。
上記で詳細に説明されたように、調整量は測定値の一つ、または二つ以上の測定値の組み合わせから導き出されることができる。例えば、上記で詳細に説明された相対安定性、相対偏差および絶対偏差の測定値の例を参照すると、調整量は等式14のように計算されることができる。
Claims (33)
- プロセッシングユニットによって実行される、適応基準方向に対する頭部方向を提供するための方法であって、
頭部センサから頭部データを受信し、前記頭部データはユーザに関連付けられた第一の頭部方向を示すことと、
第二のセンサから第二のデータを受信することと、
前記第二のデータに少なくとも部分的に従って変化する量だけ前記適応基準方向を少なくとも部分的に前記第一の頭部方向に向かって動かすことによって前記適応基準方向を適応させ、それにより新しい適応基準方向を生成することと、
前記第一の頭部方向および前記新しい適応基準方向に従って、前記新しい適応基準方向に対する前記第一の頭部方向としてユーザに関連付けられた第二の頭部方向を生成することと、
を含む、方法。 - 前記量が、前記第二のデータの統計的性質の変化に少なくとも部分的に従って変化する、請求項1に記載の方法。
- 前記適応基準方向が、調整量に従って前記適応基準方向を回転させることにより適応される、請求項1に記載の方法。
- 第二のデータが、前記調整量を算出するために用いられる、請求項3に記載の方法。
- 前記回転させることが、前記適応基準方向と前記第一の頭部方向との間を補間することによって実行される、請求項3に記載の方法。
- 前記補間することが、四元数球面線形補間(”Slerp”)演算を用いて実行される、請求項5に記載の方法。
- 前記調整量が、前記第二のデータから導き出される、請求項4に記載の方法。
- 導き出すことが、一つまたは複数の測定値を算出すること、および前記一つまたは複数の測定値を前記調整量に変換することによって実行される、請求項7に記載の方法。
- 前記調整量が、平滑化、および前記調整量の上昇時間、ホールド時間、および衰退時間のうち一つまたは複数を制御することのうち少なくとも一つのためにさらに処理される、請求項8に記載の方法。
- 前記一つまたは複数の測定値が、相対安定性、相対偏差、および絶対偏差のうち一つまたは複数を含む、請求項8に記載の方法。
- 前記一つまたは複数の測定値が、前記一つまたは複数の測定値のうちの一つまたは複数と一つまたは複数の各閾値を比較することによって前記調整量に変換される、請求項8に記載の方法。
- 前記第二のデータが、前記適応基準方向の変更が必要であることを示すデータを含む、請求項1に記載の方法。
- 前記第二のデータが、三次元座標系の少なくとも一次元内のユーザに関連付けられた場所、動作、方向、速度および加速度のうち少なくとも一つを示すデータを含む、請求項1に記載の方法。
- 前記第二の頭部方向に従ったバイノーラルオーディオのレンダリングをさらに含む、請求項1に記載の方法。
- レンダリングされたバイノーラルオーディオをユーザが装着するヘッドフォンに伝達することをさらに含む、請求項14に記載の方法。
- 前記第二の頭部方向に従って仮想現実(VR)ビデオおよび拡張現実(AR)ビデオのうち一つをレンダリングすることをさらに含む、請求項1に記載の方法。
- 適応基準方向に対する頭部方向を提供するシステムであって、
ユーザに関連付けられた第一の頭部方向を示す頭部データを提供するように構成された頭部センサと、
第二のデータを提供するように構成された一つまたは複数の第二のセンサと、
頭部センサおよび一つまたは複数の第二のセンサに動作可能なように接続されたプロセッシングユニットであって、
頭部センサから頭部データを受信し、
一つまたは複数の第二のセンサから第二のデータを受信し、
前記第二のデータに少なくとも部分的に従って変化する量だけ前記適応基準方向を少なくとも部分的に前記第一の頭部方向に向かって動かすことによって前記適応基準方向を適応させ、それにより新しい適応基準方向を生成し、
前記第一の頭部方向および前記新しい適応基準方向に従って、前記新しい適応基準方向に対する前記第一の頭部方向としてユーザに関連付けられた第二の頭部方向を生成する、
ように構成されたプロセッシングユニットと、
を含む、システム。 - 前記量が、前記第二のデータの統計的性質の変化に少なくとも部分的に従って変化する、請求項17に記載のシステム。
- 前記適応基準方向が、調整量に従って前記適応基準方向を回転させることにより適応される、請求項17に記載のシステム。
- 第二のデータが、前記調整量を算出するために用いられる、請求項19に記載のシステム。
- 前記回転させることが、前記適応基準方向と前記第一の頭部方向との間を補間することによって実行される、請求項19に記載のシステム。
- 前記補間することが、四元数球面線形補間(”Slerp”)演算を用いて実行される、請求項21に記載のシステム。
- 前記調整量が、前記第二のデータから導き出される、請求項19に記載のシステム。
- 導き出すことが、一つまたは複数の測定値を算出すること、および前記一つまたは複数の測定値を前記調整量に変換することによって実行される、請求項23に記載のシステム。
- 前記調整量が、平滑化、および前記調整量の上昇時間、ホールド時間、および衰退時間のうち一つまたは複数を制御することのうち少なくとも一つのためにさらに処理される、請求項24に記載のシステム。
- 前記一つまたは複数の測定値が、相対安定性、相対偏差、および絶対偏差のうち一つまたは複数を含む、請求項24に記載のシステム。
- 前記一つまたは複数の測定値が、前記一つまたは複数の測定値のうち一つまたは複数と一つまたは複数の各閾値を比較することによって前記調整量に変換される、請求項24に記載のシステム。
- 前記第二のデータが、前記適応基準方向の変更が必要であることを示すデータを含む、請求項17に記載のシステム。
- 前記第二のデータが、三次元座標系の少なくとも一次元内のユーザに関連付けられた場所、動作、方向、速度および加速度のうち少なくとも一つを示すデータを含む、請求項17に記載のシステム。
- 前記第二の頭部方向に従ったバイノーラルオーディオのレンダリングをさらに含む、請求項17に記載のシステム。
- レンダリングされたバイノーラルオーディオをユーザが装着するヘッドフォンに伝達することをさらに含む、請求項30に記載のシステム。
- 前記第二の頭部方向に従って仮想現実(VR)ビデオおよび拡張現実(AR)ビデオのうち一つをレンダリングすることをさらに含む、請求項17に記載のシステム。
- 適応基準方向に対する頭部方向を提供するための方法を実行するためのコンピュータによって実行可能な命令のプログラムを有形的に実施する非一過性のコンピュータ読み取り可能なメモリであって、その方法が、
頭部センサから頭部データを受信し、前記頭部データがユーザに関連付けられた第一の頭部方向を示すことと、
第二のセンサから第二のデータを受信することと、
前記第二のデータに少なくとも部分的に従って変化する量だけ前記適応基準方向を少なくとも部分的に前記第一の頭部方向に向かって動かすことによって前記適応基準方向を適応させ、それにより新しい適応基準方向を生成することと、
前記第一の頭部方向および前記新しい適応基準方向に従って、前記新しい適応基準方向に対する前記第一の頭部方向としてユーザに関連付けられた第二の頭部方向を生成することと、
を含む、非一過性のコンピュータ読み取り可能なメモリ。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662330267P | 2016-05-02 | 2016-05-02 | |
US62/330,267 | 2016-05-02 | ||
PCT/IL2017/050484 WO2017191631A1 (en) | 2016-05-02 | 2017-05-01 | Head tracking with adaptive reference |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019523510A JP2019523510A (ja) | 2019-08-22 |
JP6913326B2 true JP6913326B2 (ja) | 2021-08-04 |
Family
ID=60202864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019510496A Active JP6913326B2 (ja) | 2016-05-02 | 2017-05-01 | 適応基準を用いた頭部追跡 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10705338B2 (ja) |
EP (1) | EP3452891B1 (ja) |
JP (1) | JP6913326B2 (ja) |
CN (1) | CN109643205B (ja) |
WO (1) | WO2017191631A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7274724B2 (ja) | 2016-12-31 | 2023-05-17 | ルムス エルティーディー. | 導光光学素子を介したレチナールイメージングに基づく目の追跡具 |
DE102017208365A1 (de) * | 2017-05-18 | 2018-11-22 | Robert Bosch Gmbh | Verfahren zur Orientierungsschätzung eines tragbaren Gerätes |
US11303814B2 (en) * | 2017-11-09 | 2022-04-12 | Qualcomm Incorporated | Systems and methods for controlling a field of view |
WO2019206827A1 (en) | 2018-04-24 | 2019-10-31 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for rendering an audio signal for a playback to a user |
WO2021081035A1 (en) * | 2019-10-22 | 2021-04-29 | Google Llc | Spatial audio for wearable devices |
JP2024510870A (ja) | 2021-03-01 | 2024-03-12 | ルムス エルティーディー. | プロジェクタから導波路へのコンパクトな結合を有する光学システム |
EP4232868A4 (en) | 2021-05-19 | 2024-04-17 | Lumus Ltd | ACTIVE OPTICAL ENGINE |
US11886008B2 (en) | 2021-08-23 | 2024-01-30 | Lumus Ltd. | Methods of fabrication of compound light-guide optical elements having embedded coupling-in reflectors |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2671329B2 (ja) * | 1987-11-05 | 1997-10-29 | ソニー株式会社 | オーディオ再生装置 |
US5742264A (en) | 1995-01-24 | 1998-04-21 | Matsushita Electric Industrial Co., Ltd. | Head-mounted display |
JP3796776B2 (ja) | 1995-09-28 | 2006-07-12 | ソニー株式会社 | 映像音声再生装置 |
US6009210A (en) * | 1997-03-05 | 1999-12-28 | Digital Equipment Corporation | Hands-free interface to a virtual reality environment using head tracking |
JP2001208529A (ja) * | 2000-01-26 | 2001-08-03 | Mixed Reality Systems Laboratory Inc | 計測装置及びその制御方法並びに記憶媒体 |
US6474159B1 (en) | 2000-04-21 | 2002-11-05 | Intersense, Inc. | Motion-tracking |
GB0419346D0 (en) * | 2004-09-01 | 2004-09-29 | Smyth Stephen M F | Method and apparatus for improved headphone virtualisation |
ATE484761T1 (de) | 2007-01-16 | 2010-10-15 | Harman Becker Automotive Sys | Vorrichtung und verfahren zum verfolgen von surround kopfhörern unter verwendung von audiosignalen unterhalb der maskierten hörschwelle |
EP2012170B1 (en) | 2007-07-06 | 2017-02-15 | Harman Becker Automotive Systems GmbH | Head-tracking system and operating method thereof |
EP2031418B1 (en) | 2007-08-27 | 2017-11-01 | Harman Becker Automotive Systems GmbH | Tracking system using RFID (radio frequency identification) technology |
US20090189830A1 (en) * | 2008-01-23 | 2009-07-30 | Deering Michael F | Eye Mounted Displays |
US20090219224A1 (en) * | 2008-02-28 | 2009-09-03 | Johannes Elg | Head tracking for enhanced 3d experience using face detection |
US8860764B2 (en) | 2008-06-19 | 2014-10-14 | University Of Utah Research Foundation | Implementing and interpolating rotations from a computing input device |
KR101588040B1 (ko) * | 2009-02-13 | 2016-01-25 | 코닌클리케 필립스 엔.브이. | 이동 애플리케이션을 위한 헤드 트래킹 |
EP2428813B1 (en) * | 2010-09-08 | 2014-02-26 | Harman Becker Automotive Systems GmbH | Head Tracking System with Improved Detection of Head Rotation |
US8885877B2 (en) * | 2011-05-20 | 2014-11-11 | Eyefluence, Inc. | Systems and methods for identifying gaze tracking scene reference locations |
KR101315303B1 (ko) | 2011-07-11 | 2013-10-14 | 한국과학기술연구원 | 착용형 디스플레이 장치 및 컨텐츠 디스플레이 방법 |
US8831255B2 (en) * | 2012-03-08 | 2014-09-09 | Disney Enterprises, Inc. | Augmented reality (AR) audio with position and action triggered virtual sound effects |
US9271103B2 (en) | 2012-03-29 | 2016-02-23 | Intel Corporation | Audio control based on orientation |
US9268136B1 (en) * | 2012-09-28 | 2016-02-23 | Google Inc. | Use of comparative sensor data to determine orientation of head relative to body |
US9063330B2 (en) | 2013-05-30 | 2015-06-23 | Oculus Vr, Llc | Perception based predictive tracking for head mounted displays |
US10310595B2 (en) | 2014-06-30 | 2019-06-04 | Sony Corporation | Information processing apparatus, information processing method, computer program, and image processing system |
US10095306B2 (en) | 2015-06-15 | 2018-10-09 | Harman International Industries, Incorporated | Passive magnetic head tracker |
US9821920B2 (en) * | 2015-08-18 | 2017-11-21 | Nextvr Inc. | Methods and apparatus for compensating for vehicular motion |
US10503245B2 (en) | 2016-09-21 | 2019-12-10 | Apple Inc. | Relative intertial measurement system |
-
2017
- 2017-05-01 US US16/096,986 patent/US10705338B2/en active Active
- 2017-05-01 JP JP2019510496A patent/JP6913326B2/ja active Active
- 2017-05-01 WO PCT/IL2017/050484 patent/WO2017191631A1/en active Search and Examination
- 2017-05-01 EP EP17792604.5A patent/EP3452891B1/en active Active
- 2017-05-01 CN CN201780040301.9A patent/CN109643205B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US10705338B2 (en) | 2020-07-07 |
WO2017191631A1 (en) | 2017-11-09 |
CN109643205B (zh) | 2022-03-25 |
EP3452891A4 (en) | 2019-12-18 |
EP3452891B1 (en) | 2024-04-10 |
CN109643205A (zh) | 2019-04-16 |
US20190064519A1 (en) | 2019-02-28 |
EP3452891A1 (en) | 2019-03-13 |
JP2019523510A (ja) | 2019-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6913326B2 (ja) | 適応基準を用いた頭部追跡 | |
US10095306B2 (en) | Passive magnetic head tracker | |
CN105263075B (zh) | 一种带方位传感器耳机及其3d声场还原方法 | |
JP2019517049A5 (ja) | ||
US10268882B2 (en) | Apparatus for recognizing posture based on distributed fusion filter and method for using the same | |
CN107690110B (zh) | 用于操作可穿戴式扬声器设备的系统和方法 | |
US11302023B2 (en) | Planar surface detection | |
KR101916663B1 (ko) | 이용자의 시선 방향 또는 중력 방향 중 적어도 하나를 이용하여 3차원 영상을 표시하는 3차원 디스플레이 장치 | |
US11651762B2 (en) | Reverberation gain normalization | |
JP2017049238A (ja) | デジタルヒューマンモデルのためのビジョン測定量を求めるための方法およびシステム | |
US20220051450A1 (en) | Head tracking with adaptive reference | |
CN111527465A (zh) | 预测对象运动的方法、校准运动模型的方法、获得预定义量的方法和生成虚拟现实视图的方法 | |
US20190025941A1 (en) | Mapped variable smoothing evolution method and device | |
WO2019116689A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2022061342A2 (en) | Methods and systems for determining position and orientation of a device using acoustic beacons | |
JP5620516B2 (ja) | 安定化方法、及びコンピュータ・システム | |
KR101956087B1 (ko) | 이용자의 시선 방향 또는 중력 방향 중 적어도 하나를 이용하여 3차원 영상을 표시하는 3차원 디스플레이 장치 | |
JP7168207B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Nogalski et al. | Curvature gains in redirected walking: A closer look | |
EP4309377A1 (en) | Sensor data prediction | |
WO2023122282A1 (en) | Determination of movement direction | |
TW202403509A (zh) | 用於擴增實境裝置之平滑物件校正 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210311 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210310 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210528 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210617 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210701 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6913326 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |