JP7197003B2 - 深度推定装置、深度推定方法、及び深度推定プログラム - Google Patents
深度推定装置、深度推定方法、及び深度推定プログラム Download PDFInfo
- Publication number
- JP7197003B2 JP7197003B2 JP2021519958A JP2021519958A JP7197003B2 JP 7197003 B2 JP7197003 B2 JP 7197003B2 JP 2021519958 A JP2021519958 A JP 2021519958A JP 2021519958 A JP2021519958 A JP 2021519958A JP 7197003 B2 JP7197003 B2 JP 7197003B2
- Authority
- JP
- Japan
- Prior art keywords
- depth
- learning
- depth map
- estimator
- frequency information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/02—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
- G01S15/06—Systems determining the position data of a target
- G01S15/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/02—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
- G01S15/06—Systems determining the position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/02—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
- G01S15/06—Systems determining the position data of a target
- G01S15/08—Systems for measuring distance only
- G01S15/32—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/539—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Description
以下、本実施形態の構成について説明する。なお、作用の説明において第1実施形態と第2実施形態とに分けて説明するが、構成は同一である。
本実施形態における深度推定装置100が実行する処理の詳細について説明する。本実施形態における深度推定に関する処理は、大別して、入力音響信号を基に推定深度マップを求める推定処理と、深度推定器を学習する学習処理との2つの異なる処理がある。以下の説明では、深度推定装置100(100B)が上記図3の構成により学習処理を行い、学習された深度推定器を用いて推定処理を行うことを前提として説明する。
第1実施形態の作用について説明する。まず、学習処理及び推定処理に共通する前処理である音響信号の収音処理について説明する。その後、学習処理及び推定処理について、実施形態の作用について詳細に述べる。
まずは音響信号の収音処理について説明する。収音に利用する誘引音は、任意の公知のものを利用することができるが、好ましくは広範な周波数特性を解析するのに適した信号を用いることが好ましい。具体例としては、参考文献1に記載のTime-Stretched-Pulse(TSP)信号が挙げられる。
図5は、第1実施形態の深度推定装置100による学習処理の流れを示すフローチャートである。CPU11がROM12又はストレージ14からプログラムを読み出して、RAM13に展開して実行することにより、学習処理が行なわれる。
深度推定部112により実行される特徴抽出処理の一例を説明する。特徴抽出処理では入力となる音響信号Aiから、当該音響信号の時間周波数情報を表す特徴Siを抽出する。当該処理は公知のスペクトル解析手法を用いることができる。本開示を利用する上ではどのようなスペクトル解析手法を用いても構わないが、例えば短時間フーリエ変換を適用し、時間周波数スペクトルを得ればよい。あるいは、メルケプストラムやメル周波数ケプストラム係数(MFCC)などを用いても構わない。
深度推定部112は、特徴Siに対して深度推定器fを適用し、推定深度マップDi=f(Si)を求める。
学習部140は、音響信号Aiに対応する正解深度マップTi、及び、深度推定器fにより推定された推定深度マップDiに基づいて、第1損失値を求める。
続いて、本実施形態の一例における深度推定方法の推定処理について説明する。
次に、第2実施形態の作用について説明する。第2実施形態は、学習用の推定深度マップの深度の変化の度合いを表すエッジと正解深度マップの深度の変化の度合いを表すエッジとの間の誤差が小さくなるように、深度推定器fを学習させる点が、第1実施形態と異なる。
ステップS401~S405の処理によって得られた深度推定器の出力する推定深度マップは、特に畳み込みニューラルネットワークを深度推定器として用いた場合、過度に滑らかであり、全体的にぼけている場合がある。このようなぼけた推定深度マップは、深度が急峻に変化するエッジ部分、例えば、壁の境目又は物体の際の深度を正確に反映していないという欠点がある。そこで、第2実施形態では、深度を改善するために、第2損失値l2を導入し、これを最小化するようにさらに深度推定器のパラメータを更新する。
学習部140は、ステップS408で求めた第2損失値を小さくするように深度推定器のパラメータを更新する。
メモリと、
前記メモリに接続された少なくとも1つのプロセッサと、
を含み、
前記プロセッサは、
計測対象空間で所定の誘引音を発し、
発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音し、
前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、
一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する、
ように構成されている深度推定装置。
計測対象空間で所定の誘引音を発し、
発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音し、
前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、
一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する、
ことをコンピュータに実行させる深度推定プログラムを記憶した非一時的記憶媒体。
101 発信部
102 収音部
103 深度計測部
110 推定部
111 制御部
112 深度推定部
120 記憶部
140 学習部
150 外部記憶部
Claims (6)
- 計測対象空間で所定の誘引音を発する発信部と、
発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音する収音部と、
前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、
一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する推定部と、
学習部とを含み、
前記深度推定器は、
前記推定部により、収音した学習用の音響信号を周波数解析して時間周波数情報を表す特徴を抽出し、当該時間周波数情報に対して深度推定器を適用させて、学習用の推定深度マップを生成し、
前記学習部により、生成された前記学習用の推定深度マップと、前記学習用の推定深度マップに対する正解深度マップとの誤差から求めた第1損失値に基づいて更新された前記深度推定器に対して、前記計測対象空間で検出されたエッジを前記誤差に反映した第2損失値に基づいて前記深度推定器のパラメータを更新することで学習されている、
深度推定装置。 - 計測対象空間で所定の誘引音を発する発信部と、
発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音する収音部と、
前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、
一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する推定部と、
学習部とを含み、
前記深度推定器は、
前記推定部により、収音した学習用の音響信号を周波数解析して時間周波数情報を表す特徴を抽出し、当該時間周波数情報に対して深度推定器を適用させて、学習用の推定深度マップを生成し、
前記学習部により、生成された前記学習用の推定深度マップと、前記学習用の推定深度マップに対する正解深度マップとの誤差から、以下(1)式の損失関数を用いて求めた第1損失値に基づいて前記深度推定器のパラメータを更新することで学習されている、
深度推定装置。
・・・(1)
ここで、当該損失関数による前記第1損失値は、誤差|e i (x,y)|が閾値c以下である場合には、当該誤差の絶対値|e i (x,y)|の増加に対して線形に増加する第1損失値となり、誤差|e i (x,y)|が閾値cより大きい場合には、当該誤差|e i (x,y)|の累乗根に応じて変化する。 - 計測対象空間で所定の誘引音を発し、
発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音し、
前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、
一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する、
ことを含む処理をコンピュータが実行することを特徴とする深度推定方法であって、
前記深度推定器は、
収音した学習用の音響信号を周波数解析して時間周波数情報を表す特徴を抽出し、当該時間周波数情報に対して深度推定器を適用させて、学習用の推定深度マップを生成し、
生成された前記学習用の推定深度マップと、前記学習用の推定深度マップに対する正解深度マップとの誤差から求めた第1損失値に基づいて更新された前記深度推定器に対して、前記計測対象空間で検出されたエッジを前記誤差に反映した第2損失値に基づいて前記深度推定器のパラメータを更新することで学習されている、
深度推定方法。 - 計測対象空間で所定の誘引音を発し、
発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音し、
前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、
一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する、
ことを含む処理をコンピュータが実行することを特徴とする深度推定方法であって、
前記深度推定器は、
収音した学習用の音響信号を周波数解析して時間周波数情報を表す特徴を抽出し、当該時間周波数情報に対して深度推定器を適用させて、学習用の推定深度マップを生成し、
生成された前記学習用の推定深度マップと、前記学習用の推定深度マップに対する正解深度マップとの誤差から、以下(2)式の損失関数を用いて求めた第1損失値に基づいて前記深度推定器のパラメータを更新することで学習されている、
深度推定方法。
・・・(2)
ここで、当該損失関数による前記第1損失値は、誤差|e i (x,y)|が閾値c以下である場合には、当該誤差の絶対値|e i (x,y)|の増加に対して線形に増加する第1損失値となり、誤差|e i (x,y)|が閾値cより大きい場合には、当該誤差|e i (x,y)|の累乗根に応じて変化する。 - 計測対象空間で所定の誘引音を発し、
発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音し、
前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、
一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する、
ことをコンピュータに実行させる深度推定プログラムであって、
前記深度推定器は、
収音した学習用の音響信号を周波数解析して時間周波数情報を表す特徴を抽出し、当該時間周波数情報に対して深度推定器を適用させて、学習用の推定深度マップを生成し、
生成された前記学習用の推定深度マップと、前記学習用の推定深度マップに対する正解深度マップとの誤差から求めた第1損失値に基づいて更新された前記深度推定器に対して、前記計測対象空間で検出されたエッジを前記誤差に反映した第2損失値に基づいて前記深度推定器のパラメータを更新することで学習されている、
深度推定プログラム。 - 計測対象空間で所定の誘引音を発し、
発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音し、
前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、
一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する、
ことをコンピュータに実行させる深度推定プログラムであって、
前記深度推定器は、
収音した学習用の音響信号を周波数解析して時間周波数情報を表す特徴を抽出し、当該時間周波数情報に対して深度推定器を適用させて、学習用の推定深度マップを生成し、
生成された前記学習用の推定深度マップと、前記学習用の推定深度マップに対する正解深度マップとの誤差から、以下(3)式の損失関数を用いて求めた第1損失値に基づいて前記深度推定器のパラメータを更新することで学習されている、
深度推定プログラム。
・・・(3)
ここで、当該損失関数による前記第1損失値は、誤差|e i (x,y)|が閾値c以下である場合には、当該誤差の絶対値|e i (x,y)|の増加に対して線形に増加する第1損失値となり、誤差|e i (x,y)|が閾値cより大きい場合には、当該誤差|e i (x,y)|の累乗根に応じて変化する。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/020172 WO2020235022A1 (ja) | 2019-05-21 | 2019-05-21 | 深度推定装置、深度推定方法、及び深度推定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020235022A1 JPWO2020235022A1 (ja) | 2020-11-26 |
JP7197003B2 true JP7197003B2 (ja) | 2022-12-27 |
Family
ID=73459299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021519958A Active JP7197003B2 (ja) | 2019-05-21 | 2019-05-21 | 深度推定装置、深度推定方法、及び深度推定プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220221581A1 (ja) |
JP (1) | JP7197003B2 (ja) |
WO (1) | WO2020235022A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2023089892A1 (ja) * | 2021-11-16 | 2023-05-25 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000098031A (ja) | 1998-09-22 | 2000-04-07 | Hitachi Ltd | インパルスソーナー |
US20040165478A1 (en) | 2000-07-08 | 2004-08-26 | Harmon John B. | Biomimetic sonar system and method |
JP2019015598A (ja) | 2017-07-06 | 2019-01-31 | 株式会社東芝 | 計測装置および方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5181254A (en) * | 1990-12-14 | 1993-01-19 | Westinghouse Electric Corp. | Method for automatically identifying targets in sonar images |
JP2969202B2 (ja) * | 1991-05-08 | 1999-11-02 | 日本電信電話株式会社 | ニューラルネットワークによる3次元物体の認識方法 |
US10585409B2 (en) * | 2016-09-08 | 2020-03-10 | Mentor Graphics Corporation | Vehicle localization with map-matched sensor measurements |
US20180136332A1 (en) * | 2016-11-15 | 2018-05-17 | Wheego Electric Cars, Inc. | Method and system to annotate objects and determine distances to objects in an image |
US10422648B2 (en) * | 2017-10-17 | 2019-09-24 | AI Incorporated | Methods for finding the perimeter of a place using observed coordinates |
EP3518001B1 (en) * | 2018-01-25 | 2020-09-16 | Aptiv Technologies Limited | Method for increasing the reliability of determining the position of a vehicle on the basis of a plurality of detection points |
EP3517996B1 (en) * | 2018-01-25 | 2022-09-07 | Aptiv Technologies Limited | Method for determining the position of a vehicle |
-
2019
- 2019-05-21 US US17/613,044 patent/US20220221581A1/en active Pending
- 2019-05-21 JP JP2021519958A patent/JP7197003B2/ja active Active
- 2019-05-21 WO PCT/JP2019/020172 patent/WO2020235022A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000098031A (ja) | 1998-09-22 | 2000-04-07 | Hitachi Ltd | インパルスソーナー |
US20040165478A1 (en) | 2000-07-08 | 2004-08-26 | Harmon John B. | Biomimetic sonar system and method |
JP2019015598A (ja) | 2017-07-06 | 2019-01-31 | 株式会社東芝 | 計測装置および方法 |
Non-Patent Citations (3)
Title |
---|
DOKMANIC, Ivan et al.,"Acoustic echoes reveal room shape",Proceedings of the National Academy of Sciences of the United States of America (PNAS),2013年07月23日,Vol.110, No,30,pp.12186-12191,DOI: 10.1073/pnas.1221464110 |
DROR, Itiel E. et al.,"Three-Dimensional Target Recognition via Sonar: A Neural Network Model",Neural Networks,1995年,Vol.8, No.1,pp.149-160,DOI: 10.1016/0893-6080(94)00057-S |
LAINA, Iro et al.,"Deeper Depth Prediction with Fully Convolutional Residual Networks",2016 Fourth International Conference on 3D Vision (3DV),2016年10月,pp.239-248,DOI: 10.1109/3DV.2016.32 |
Also Published As
Publication number | Publication date |
---|---|
US20220221581A1 (en) | 2022-07-14 |
JPWO2020235022A1 (ja) | 2020-11-26 |
WO2020235022A1 (ja) | 2020-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3343502B1 (en) | Depth sensor noise | |
Christensen et al. | Batvision: Learning to see 3d spatial layout with two ears | |
EP3435029B1 (en) | Resolution adaptive mesh for performing 3-d metrology of an object | |
Pham et al. | Real‐Time Obstacle Detection System in Indoor Environment for the Visually Impaired Using Microsoft Kinect Sensor | |
US11810376B2 (en) | Method, apparatus and storage medium for detecting small obstacles | |
CN107392965B (zh) | 一种基于深度学习和双目立体视觉相结合的测距方法 | |
CN103454288B (zh) | 用于识别对象材料的方法和设备 | |
CN109313810A (zh) | 用于对环境进行测绘的系统和方法 | |
JP6239594B2 (ja) | 3d情報処理装置及び方法 | |
US10354444B2 (en) | Resolution adaptive mesh that is generated using an intermediate implicit representation of a point cloud | |
JP7272428B2 (ja) | 深度推定装置、深度推定モデル学習装置、深度推定方法、深度推定モデル学習方法、及び深度推定プログラム | |
US9552647B2 (en) | Method and arrangement for analysing the behaviour of a moving object | |
WO2020159650A1 (en) | Calibrating cameras using human skeleton | |
WO2012175888A1 (fr) | Génération de données de carte | |
CN111401180B (zh) | 神经网络识别模型训练方法、装置、服务器及存储介质 | |
US20180252815A1 (en) | 3D Depth Map | |
Sun et al. | Large-scale building height estimation from single VHR SAR image using fully convolutional network and GIS building footprints | |
JP7197003B2 (ja) | 深度推定装置、深度推定方法、及び深度推定プログラム | |
US20220406013A1 (en) | Three-dimensional scene recreation using depth fusion | |
US10375501B2 (en) | Method and device for quickly determining location-dependent pulse responses in signal transmission from or into a spatial volume | |
US20220317293A1 (en) | Information processing apparatus, information processing method, and information processing program | |
CN110363863B (zh) | 一种神经网络的输入数据生成方法和系统 | |
CN117716257A (zh) | 声学深度图 | |
CN115131756A (zh) | 一种目标检测方法及装置 | |
WO2019010679A1 (zh) | 一种基于降维稀疏表示的主动式场景三维信息获取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220912 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221128 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7197003 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |