JP7254938B2 - 音響源用の結合音源定位及び分離方法 - Google Patents
音響源用の結合音源定位及び分離方法 Download PDFInfo
- Publication number
- JP7254938B2 JP7254938B2 JP2021539331A JP2021539331A JP7254938B2 JP 7254938 B2 JP7254938 B2 JP 7254938B2 JP 2021539331 A JP2021539331 A JP 2021539331A JP 2021539331 A JP2021539331 A JP 2021539331A JP 7254938 B2 JP7254938 B2 JP 7254938B2
- Authority
- JP
- Japan
- Prior art keywords
- dictionary atoms
- dictionary
- function
- time
- atoms
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000926 separation method Methods 0.000 title claims description 12
- 230000004807 localization Effects 0.000 title description 6
- 230000006870 function Effects 0.000 claims description 43
- 238000000034 method Methods 0.000 claims description 34
- 238000000354 decomposition reaction Methods 0.000 claims description 22
- 238000009826 distribution Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 7
- 239000000203 mixture Substances 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 230000001419 dependent effect Effects 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims 3
- 238000005316 response function Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 101100006960 Caenorhabditis elegans let-2 gene Proteins 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000012732 spatial analysis Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/028—Voice signal separating using properties of sound source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02166—Microphone arrays; Beamforming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/20—Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Circuit For Audible Band Transducer (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
Description
本発明は、音源の音の到来方向の推定及び音源分離を可能にする方法に関するものであり、この方法は、特定数の方向について球面調和分解係数から計算したステアード(指向)応答関数の辞書ベース表現の空間的重み付けによるものであり、これらの球面調和分解係数は、音場のマイクロホンアレイ録音から、あるいは他の手段を用いることによって、のいずれかで得られる。
複数のマイクロホンから成るマイクロホンアレイを用いて、音響源を録音して、音場の空間的特徴が抽出される。単一のマイクロホンを用いる代わりに複数のマイクロホンを用いることの基本的利点は、音源の音の到来方向を推定する能力、及び音場をフィルタ処理して音場の空間分析を実行する能力にある。時間-周波数領域内でオーバーラップ(重複)する複数の音響信号の到来方向の推定及び分離は、リアルタイムの動作に悪影響を与える重大な技術的困難性を含む。さらに、利用可能な方法は、高レベルの反響音を有する閉鎖環境では良好に機能しない。機械学習を用いる既存の方法の一部では、速度及び異なるマイクロホンアレイへの適応といった問題が生じる。
複数の音源が動作する環境内でマイクロホンを用いて録音された音響信号を、これらの音源の混合音と称する。本発明の主目的は、音源の混合音からの音源の分離を可能にすることにあり、この分離は、有限個の方向について、球面調和分解係数を用いて計算したステアード応答関数の辞書ベース表現の空間的重み付けにより、これらの球面調和分解係数は、音場のマイクロホンアレイ録音から、あるいは他の方法を用いる(例えば、合成する)ことによって、のいずれかで得られる。辞書中に存在し、上記辞書ベース表現において用いられるテンプレート・ベクトルを原子(アトム)と称する。本発明中に開示するアルゴリズムは、平面波を表現する空間的な帯域制限関数の有限個の点で取得したサンプルをその要素として含む(即ち、線形代数的な意味での)ベクトルの使用に基づく。これらの関数は、(球面のような)分析面上の所定位置において計算する。
この詳細な説明では、本発明の好適な実施形態を説明し、これらの実施形態は、限定的効果を何ら有さず、主題をさらに説明するために提供する。
(外1)
は次式のように定義される:
(外2)
、j’ n(・)、及び
(外3)
は球ベッセル関数及び球ハンケル(Hankel)関数であり、その一次微分γaは球状マイクロホンの半径であり、周波数等価関数は次式のように与えられる:
1.最大指向係数のビームを指向させて、分析する時間-周波数ビンについて、球面全体をカバーする異なる方向におけるステアード応答関数を計算して、この所定の時間-周波数ビンについての音場の方向マップを生じさせる。
2.これらの値で形成されるベクトルに、辞書原子から成る行列を乗算して、結果的なベクトル中の最高値に対応する原子を選択する。
3.この原子を用いて得られる近似値を上記ベクトルから減算して、残差ベクトルを形成する。
4.この残差ベクトルに辞書原子から成る行列を乗算して、結果的なベクトル内の最高値に対応する原子を選択する。
5.残差ベクトルのノルムが所定閾値を下回るまで、第3及び第4ステップを反復する。
6.原子の線形結合から成る近似の係数を、最小二乗アルゴリズムを用いることによって得る。
Claims (9)
- コンピュータによって実行され、1つ以上の音源からの音の到来方向の推定、及び該音源の混合体からの分離を可能にする方法であって、前記推定及び分離は、球面調和分解を用いて所定数の方向について計算したステアード・ビーム形成関数の辞書ベース表現の空間的重み付けにより行う方法において、
複数のマイクロホンまたはセンサから取得した、あるいはインタフェースから入力することができる音場から取得した1つ以上のデジタル音響信号データの球面調和分解を実行することによって、1つ以上のデジタル音響信号データの球面調和分解係数を得るステップと、
前記球面調和分解係数の各々を変換することによって、複数の時間-周波数ビンを生成するステップと、
前記時間-周波数ビン毎に、前記球面調和係数を得た原点から放射状に外向きの所定数の方向に、最大の指向係数のビームを指向させることによって、ステアード・ビーム形成関数を計算するステップと、
前記ステアード・ビーム形成関数を球面上で有限個の方向においてサンプリングすることによって、複数の辞書原子を生成するステップと、
対応する前記時間-周波数ビンにおける前記ステアード・ビーム形成関数を表現するために必要な前記辞書原子の最小数を決定するステップと、
所定の時間範囲において前記ステアード・ビーム形成関数を表現するために用いる前記辞書原子の統計的分布を形成するステップと、
前記辞書原子の前記統計的分布のピーク点を計算するステップと、
前記計算したピークに対応する前記辞書原子間の隣接関係を用いることによって、前記音の到来方向を推定するステップと、
前記推定した音の到来方向に依存する関数を用いて、前記ステアード・ビーム形成関数を表現するために用いる前記辞書原子に重み付けをするステップと、
前記重み付けした辞書原子の、当該辞書原子の隣接関係に応じた和を求めて、前記音源の各々の時間-周波数表現を得るステップと、
時間-周波数逆変換を実行することによって、分離された音源を特定して、該分離された音源を得るステップと
を含む方法。 - コンピュータによって実行され、2つ以上の音源の混合体からの音源の分離を可能にする方法であって、
複数のマイクロホンまたはセンサから取得した、あるいはインタフェースから入力することができる音場から取得した1つ以上のデジタル音響信号データの球面調和分解を実行することによって、1つ以上のデジタル音響信号データの球面調和分解係数を得るステップと、
前記球面調和分解係数の各々を変換することによって、複数の時間-周波数ビンを生成するステップと、
前記時間-周波数ビン毎に、前記球面調和係数を得た原点から放射状に外向きの所定数の方向に、最大の指向係数のビームを指向させることによって、ステアード・ビーム形成関数を計算するステップと、
前記ステアード・ビーム形成関数を球面上で有限個の方向においてサンプリングすることによって、複数の辞書原子を生成するステップと、
対応する前記時間-周波数ビンにおける前記ステアード・ビーム形成関数を表現するために必要な前記辞書原子の最小数を決定するステップと、
関数を用いて、前記ステアード・ビーム形成関数を表現するために用いる前記辞書原子に重み付けをするステップと、
前記重み付けした辞書原子の、当該辞書原子の隣接関係に応じた和を求めて、前記音源の各々の時間-周波数表現を得るステップと、
時間-周波数逆変換を実行することによって、分離された音源を特定して、該分離された音源を得るステップと
を含む方法。 - コンピュータによって実行され、1つ以上の音源の音の到来方向の推定を可能にする方法であって、
複数のマイクロホンまたはセンサから取得した、あるいはインタフェースから入力することができる音場から取得した1つ以上のデジタル音響信号データの球面調和分解を実行することによって、1つ以上のデジタル音響信号データの球面調和分解係数を得るステップと、
前記球面調和分解係数の各々を変換することによって、複数の時間-周波数ビンを生成するステップと、
前記時間-周波数ビン毎に、前記球面調和係数を得た原点から放射状に外向きの所定数の方向に、最大の指向係数のビームを指向させることによって、ステアード・ビーム形成関数を計算するステップと、
前記ステアード・ビーム形成関数を球面上で有限個の方向においてサンプリングすることによって、複数の辞書原子を生成するステップと、
対応する前記時間-周波数ビンにおける前記ステアード・ビーム形成関数を表現するために必要な前記辞書原子の最小数を決定するステップと、
所定の時間範囲において前記ステアード・ビーム形成関数を表現するために用いる前記辞書原子の統計的分布を形成するステップと、
前記辞書原子の前記統計的分布のピーク点を計算するステップと、
前記計算したピークに対応する前記辞書原子間の隣接関係を用いることによって、前記音の到来方向を推定するステップと、
を含む方法。 - ルジャンドル・インパルス関数を前記球面上でサンプリングして、複数の前記辞書原子を生成する、請求項1~3のいずれかに記載の方法。
- 前記対応する時間-周波数ビンにおける前記ステアード・ビーム形成関数を表現するために必要な辞書原子の選択が、
前記計算したステアード・ビーム形成関数の値で形成されるベクトルに、前記辞書原子から成る行列を乗算して、結果的なベクトル中の最高値に対応する前記辞書原子を選択するステップと、
前記辞書原子を用いて得られる近似値を前記ベクトルから減算することによって、残差ベクトルを形成するステップと、
前記辞書原子から成る前記行列を前記残差ベクトルに乗算して、結果的なベクトル中の最高値に対応する前記辞書原子を選択するステップと、
前記残差ベクトルのノルムが所定閾値を下回るまで、前記残差ベクトルを形成するステップ及び前記最高値に対応する前記辞書原子を選択するステップを反復するステップと、
前記辞書原子の線形結合から成る近似の係数を、最小二乗アルゴリズムを用いることによって得るステップと
を含む、請求項1~4のいずれかに記載の方法。 - 前記辞書原子を重み付けするための値を、単一の全域的最大値を有する方向関数から例示する、請求項1または2に記載の方法。
- 前記辞書原子から成る前記ベクトル及び/または前記辞書原子から成る前記行列が、帯域制限関数で形成される、請求項5に記載の方法。
- 前記辞書原子から成る前記ベクトル及び/または前記辞書原子から成る前記行列が、方向定位関数から例示される、請求項5または7に記載の方法。
- 前記辞書原子から成る前記ベクトル及び/または前記辞書原子から成る前記行列が、実数値関数から例示される、請求項5、7、8のいずれかに記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TR201813344 | 2018-09-17 | ||
TR2018/13344 | 2018-09-17 | ||
PCT/TR2019/050763 WO2020060519A2 (en) | 2018-09-17 | 2019-09-16 | Joint source localization and separation method for acoustic sources |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022500710A JP2022500710A (ja) | 2022-01-04 |
JP7254938B2 true JP7254938B2 (ja) | 2023-04-10 |
Family
ID=69888810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021539331A Active JP7254938B2 (ja) | 2018-09-17 | 2019-09-16 | 音響源用の結合音源定位及び分離方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11482239B2 (ja) |
EP (1) | EP3853628A4 (ja) |
JP (1) | JP7254938B2 (ja) |
WO (1) | WO2020060519A2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115061089B (zh) * | 2022-05-12 | 2024-02-23 | 苏州清听声学科技有限公司 | 一种声源定位方法、系统、介质、设备及装置 |
CN116008911B (zh) * | 2022-12-02 | 2023-08-22 | 南昌工程学院 | 一种基于新型原子匹配准则的正交匹配追踪声源识别方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016152511A1 (ja) | 2015-03-23 | 2016-09-29 | ソニー株式会社 | 音源分離装置および方法、並びにプログラム |
JP2018063200A (ja) | 2016-10-14 | 2018-04-19 | 日本電信電話株式会社 | 音源位置推定装置、音源位置推定方法、及びプログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5706782B2 (ja) * | 2010-08-17 | 2015-04-22 | 本田技研工業株式会社 | 音源分離装置及び音源分離方法 |
US9558762B1 (en) * | 2011-07-03 | 2017-01-31 | Reality Analytics, Inc. | System and method for distinguishing source from unconstrained acoustic signals emitted thereby in context agnostic manner |
JP5791081B2 (ja) | 2012-07-19 | 2015-10-07 | 日本電信電話株式会社 | 音源分離定位装置、方法、及びプログラム |
US9706298B2 (en) * | 2013-01-08 | 2017-07-11 | Stmicroelectronics S.R.L. | Method and apparatus for localization of an acoustic source and acoustic beamforming |
US9460732B2 (en) * | 2013-02-13 | 2016-10-04 | Analog Devices, Inc. | Signal source separation |
WO2015013058A1 (en) * | 2013-07-24 | 2015-01-29 | Mh Acoustics, Llc | Adaptive beamforming for eigenbeamforming microphone arrays |
TW201543472A (zh) * | 2014-05-15 | 2015-11-16 | 湯姆生特許公司 | 即時音源分離之方法及系統 |
EP3007467B1 (en) * | 2014-10-06 | 2017-08-30 | Oticon A/s | A hearing device comprising a low-latency sound source separation unit |
WO2016100460A1 (en) | 2014-12-18 | 2016-06-23 | Analog Devices, Inc. | Systems and methods for source localization and separation |
JP6543843B2 (ja) | 2015-06-18 | 2019-07-17 | 本田技研工業株式会社 | 音源分離装置、および音源分離方法 |
WO2017218399A1 (en) * | 2016-06-15 | 2017-12-21 | Mh Acoustics, Llc | Spatial encoding directional microphone array |
JP6703460B2 (ja) | 2016-08-25 | 2020-06-03 | 本田技研工業株式会社 | 音声処理装置、音声処理方法及び音声処理プログラム |
-
2019
- 2019-09-16 WO PCT/TR2019/050763 patent/WO2020060519A2/en unknown
- 2019-09-16 JP JP2021539331A patent/JP7254938B2/ja active Active
- 2019-09-16 EP EP19861705.2A patent/EP3853628A4/en active Pending
- 2019-09-16 US US17/270,075 patent/US11482239B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016152511A1 (ja) | 2015-03-23 | 2016-09-29 | ソニー株式会社 | 音源分離装置および方法、並びにプログラム |
JP2018063200A (ja) | 2016-10-14 | 2018-04-19 | 日本電信電話株式会社 | 音源位置推定装置、音源位置推定方法、及びプログラム |
Non-Patent Citations (2)
Title |
---|
Mert Burkay Coteli et al.,"Multiple Sound Source Localization With Steered Response Power Density and Hierarchical Grid Refinement",IEEE/ACM Transactions on Audio, and Speech, and Language Processing,2018年07月24日,Vol.26, No.11,pp.2215-2229 |
上山了介 他,"球面マイクロホンアレイのビームフォーマ出力を利用したポストフィルタの設計とドローンへの応用",日本音響学会2018年秋季研究発表会講演論文集CD-ROM,2018年09月14日,pp.283-284 |
Also Published As
Publication number | Publication date |
---|---|
JP2022500710A (ja) | 2022-01-04 |
EP3853628A2 (en) | 2021-07-28 |
EP3853628A4 (en) | 2022-03-16 |
WO2020060519A3 (en) | 2020-06-04 |
US20210225386A1 (en) | 2021-07-22 |
US11482239B2 (en) | 2022-10-25 |
WO2020060519A2 (en) | 2020-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4195267B2 (ja) | 音声認識装置、その音声認識方法及びプログラム | |
JP7434393B2 (ja) | 音場記述を生成する装置、方法、及びコンピュータプログラム | |
Herzog et al. | Eigenbeam-ESPRIT for DOA-vector estimation | |
JP6987075B2 (ja) | オーディオ源分離 | |
CN109616138B (zh) | 基于分段频点选择的语音信号盲分离方法和双耳助听系统 | |
US20060188111A1 (en) | Microphone apparatus | |
JP2008145610A (ja) | 音源分離定位方法 | |
JP7254938B2 (ja) | 音響源用の結合音源定位及び分離方法 | |
Epain et al. | Super-resolution sound field imaging with sub-space pre-processing | |
JP6763332B2 (ja) | 収音装置、プログラム及び方法 | |
CN114089279A (zh) | 一种基于均匀同心圆麦克风阵列的声目标定位方法 | |
JP6815956B2 (ja) | フィルタ係数算出装置、その方法、及びプログラム | |
Hu et al. | Acoustic Signal Enhancement Using Relative Harmonic Coefficients: Spherical Harmonics Domain Approach. | |
JP5387442B2 (ja) | 信号処理装置 | |
JP4738284B2 (ja) | ブラインド信号抽出装置、その方法、そのプログラム、及びそのプログラムを記録した記録媒体 | |
Çöteli et al. | Multiple sound source localization with rigid spherical microphone arrays via residual energy test | |
Antonello et al. | Joint source localization and dereverberation by sound field interpolation using sparse regularization | |
CN109074811B (zh) | 音频源分离 | |
JP2018191255A (ja) | 収音装置、その方法、及びプログラム | |
Jiang et al. | A Complex Neural Network Adaptive Beamforming for Multi-channel Speech Enhancement in Time Domain | |
Baraniuk et al. | Applications of adaptive time-frequency representations to underwater acoustic signal processing | |
Olgun et al. | Data-driven threshold selection for direct path dominance test | |
Zhang et al. | Fast Blind Source Separation Algorithm Based on Mutual Information Frequency Bin Screening and Time-domain Non-causal Components Truncation | |
Sharma et al. | Development of a speech separation system using frequency domain blind source separation technique | |
Vincent et al. | Audio applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210511 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220621 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7254938 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |