JP6912780B2 - 音源強調装置、音源強調学習装置、音源強調方法、プログラム - Google Patents
音源強調装置、音源強調学習装置、音源強調方法、プログラム Download PDFInfo
- Publication number
- JP6912780B2 JP6912780B2 JP2018157085A JP2018157085A JP6912780B2 JP 6912780 B2 JP6912780 B2 JP 6912780B2 JP 2018157085 A JP2018157085 A JP 2018157085A JP 2018157085 A JP2018157085 A JP 2018157085A JP 6912780 B2 JP6912780 B2 JP 6912780B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- vector
- output sound
- window function
- long
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 34
- 230000006870 function Effects 0.000 claims description 133
- 239000013598 vector Substances 0.000 claims description 92
- 239000011159 matrix material Substances 0.000 claims description 36
- 238000013528 artificial neural network Methods 0.000 claims description 32
- 238000006243 chemical reaction Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000001831 conversion spectrum Methods 0.000 claims description 10
- 230000007704 transition Effects 0.000 claims description 9
- 238000013135 deep learning Methods 0.000 description 23
- 238000001228 spectrum Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000010183 spectrum analysis Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Landscapes
- Complex Calculations (AREA)
Description
_(アンダースコア)は下付き添字を表す。例えば、xy_zはyzがxに対する上付き添字であり、xy_zはyzがxに対する下付き添字であることを表す。
MDCTには、動的に分析長を変化させることができるウィンドウスイッチング(window switching)という特性がある。本発明の実施形態は、この特性を利用する。具体的には、ウィンドウスイッチングにおける分析長を変化させるか否かの判定を行うDNNを構成し、このDNNと長い分析長に対応する時間周波数マスクを推定するDNNと短い分析長に対応する時間周波数マスクを推定するDNNを用いてMDCT領域のDL音源強調技術を構成する。
時間領域において、目的音をσk、雑音をνkとおき、観測信号χkを以下のように表現する。
DL音源強調では、時間フレームtの時間周波数マスクを縦に並べたベクトルGt:=(Gt,1, …, Gt,F)T(ただし、右肩のTは転置を表す)を以下のように推定する。
(参考非特許文献1:H. Erdogan, J. R. Hershey, S. Watanabe, J. L. Roux, “Phase-sensitive and recognition-boosted speech separation using deep recurrent neural networks”, in Proc. ICASSP 2015, 2015.)
実数の周波数変換には、離散サイン変換など様々なものがあるが、ここでは、MDCTを利用した方法について説明する。
本発明の実施形態は、MDCT領域のDL音源強調にウィンドウスイッチングを用いることに特徴がある。
(参考非特許文献2:T. Mochizuki, “Perfect Reconstruction Conditions for Adaptive Blocksize MDCT”, IEICE Trans. on Fund. of Elect., Comm. and Computer Sciences, Vol.E77-A, No.5, pp.894-899, 1994.)
(参考非特許文献3:V. Britanak, et al., “Cosine-/Sine- Modulated Filter Banks”, Springer, 2018.)
まず、ウィンドウスイッチングについて説明する。ウィンドウスイッチングは、完全再構成条件を保ちつつ時間周波数分解能のトレードフを解決するために開発された手法である。代表的な実装では、ロング(Long)、スタート(Start)、ショート(Short)、ストップ(Stop)の4種類の窓関数を利用する。ロング、ショートは、それぞれ長さがLlong、Lshortの窓関数であり(ただし、Llong>Lshort)、サイン窓などで実装される。母音などの周期的な音を解析するためにロングが利用され、子音などの時間的な変化が速い音を解析するためにショートが利用される。しかし、ロングを利用したフレームと隣接するフレームでショートを利用すると、その切り替え箇所でプリンセン−ブラッドレイ条件を満たさなくなるため、完全再構成条件を満足することができない(すなわち、切り替え箇所において2つの窓関数が滑らかにつながらない)。そこで、ロングからショートへの切り替えを滑らかにする窓関数(スタート)とショートからロングへの切り替えを滑らかにする窓関数(ストップ)を利用する。このため、窓関数の切り替えには完全な自由度があるわけではない。具体的には、図1に示す状態遷移により制約される。図1は4つの窓関数の切り替えの状態遷移を示すものである。MPEG-1 Layer III(MP3)における窓関数の切り替えでは、聴覚心理モデルに基づくアタック判定の結果に基づいて、図1に示す状態遷移ルールに従い決定論的に窓関数を切り替える。
DL音源強調において、信号の性質に合わせて適応的にMDCTの分析長を変化させるために、ウィンドウスイッチングを導入することを考える。そのため、アタック判定を行い、目的音の復元精度を最大化するようなDNNを構成、つまり学習することを考える。しかし、このようなDNNの学習を実現するためには、以下の2つの問題を解決しなくてはならない。
DL音源強調の多くでは、式(17)のように、時間フレームtごとに計算される出力音の推定精度を用いて定義される目的関数を利用してDNNの学習を行う。しかし、分析長が異なる窓を制約なく利用すると、ロングを利用した場合とショートを利用した場合で、フレームの同期がとれなくなり、その結果、目的関数が定義できなくなる。例えば、Llong=512、Lshort=128とした場合、ショートはLlong/Lshort=4の倍数回で利用しないと、Llongを利用した場合とフレーム同期をとることができなくなる。フレーム同期をとれない場合、式(17)のようなフレーム単位で定義された目的関数を用いて、アタック判定を行うDNNと時間周波数マスクを推定するDNNを同時に最適化することができなくなる。したがって、DL音源強調でウィンドウスイッチングを行うためには、窓関数の切り替えに対して制約を設けなくてはならない。
DNNを学習するためには、目的関数をDNNのパラメータで微分可能な形で記述する必要がある。窓関数の切り替えは、アタック/非アタック(attack/non-attack)の二値判定結果をもとに、窓関数の決定論的な遷移で実現される(図1参照)。これを単純にプログラムとして実装する場合にはif分岐やswitch分岐を利用する必要があるが、プログラムによる決定論的な分岐は、DNNのパラメータで微分できない。したがって、アタック判定を行うDNNを学習するためには、これらの決定論的な分岐を、DNNのパラメータで微分可能な数式で記述する必要がある。
(1)フレームの同期問題
プリンセン−ブラッドレイ条件を満たし、同期がとれるような窓関数に対応する分析行列を定義することにより解決する。
アタック判定を行うDNNは、時間フレームtがアタックである確率を表す2次元ベクトルp(at)とし(式(28)参照)、ガンベル−ソフトマックス(Gumbel-softmax)を用いてベクトルp(at)から時間フレームtがアタックであるか否かを示す2次元ベクトルatを出力する(式(31)参照)。この出力ベクトルatから状態遷移行列Qi,k,j(式(35)参照)を用いて再帰的に時間フレームtの窓関数を選択し、各分析窓を利用して音源強調した結果の線形和として出力音s^tを求める(式(36)参照)。上記の演算は、決定論的な窓関数の切り替えとほぼ同等の動作をすること及びDNNのパラメータで微分可能な演算であることから、アタック判定を行うDNNを学習できるようになる。なお、ガンベル−ソフトマックス(Gumbel-softmax)は、例えば、参考非特許文献4に記載されている。
(参考非特許文献4:E. Jang, S. Gu, B. Poole, “Categorical reparameterization with gumbel-softmax”, arXiv preprint arXiv:1611.01144, 2016.)
ここでは、<技術的背景>で説明したDL音源強調を学習する音源強調学習装置100について説明する。
ここでは、第1実施形態の音源強調学習装置100が生成したパラメータを用いて音源強調を行う音源強調装置200について説明する。
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD−ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
Claims (7)
- Tを2以上の整数、Llongを1以上の整数、xt(1≦t≦T)を時間領域の観測信号を重なりのないT個の、長さLlong/2のブロックへ分割して得られるt番目のブロックの観測信号、φt(1≦t≦T)を前記観測信号xtから抽出して得られるt番目のブロックの音響特徴量とし、
前記音響特徴量φt(1≦t≦T)から、t番目のブロックがアタックであるか否かの判定結果を示すベクトルであるアタック判定ベクトルat(1≦t≦T)を生成するアタック判定ベクトル生成部と、
前記アタック判定ベクトルat(1≦t≦T)から、窓関数ベクトルzt(1≦t≦T)を生成する窓関数ベクトル生成部と、
j=1, …, J(Jを1以上の整数)とし、
第j窓関数に対応する計算ユニットを用いて、前記観測信号xt(1≦t≦T)と前記音響特徴量φt(1≦t≦T)から、第j出力音s^j,t C(1≦t≦T)を生成する第j出力音生成部と、
前記第j出力音s^j,t C(1≦t≦T)(j=1, …, J)と前記窓関数ベクトルzt(1≦t≦T)から、前記観測信号xt(1≦t≦T)に含まれる目的音を強調した出力音s^t(1≦t≦T)を生成する出力音生成部と
を含む音源強調装置。 - 請求項1に記載の音源強調装置であって、
前記アタック判定ベクトル生成部は、ニューラルネットワークMAを用いて、前記アタック判定ベクトルat(1≦t≦T)を生成し、
J=4とし、
前記第j窓関数に対応する計算ユニットは、第j窓関数に対応するニューラルネットワークMjであり、
前記第j出力音生成部は、
実数で定義された周波数変換を用いて、前記観測信号xt(1≦t≦T)から、第j観測信号周波数変換スペクトルXj,t C(1≦t≦T)を生成する第j周波数変換部と、
前記ニューラルネットワークMjを用いて、前記音響特徴量φt(1≦t≦T)から、第j時間周波数マスクG^j,t C(1≦t≦T)を推定する第j時間周波数マスク推定部と、
前記第j時間周波数マスクG^j,t C(1≦t≦T)と前記第j観測信号周波数変換スペクトルXj,t C(1≦t≦T)から、第j出力音周波数変換スペクトルS^j,t C(1≦t≦T)を生成する第j時間周波数マスク処理部と、
実数で定義された逆周波数変換を用いて、前記第j出力音周波数変換スペクトルS^j,t C(1≦t≦T)から、前記第j出力音s^j,t C(1≦t≦T)を生成する第j逆周波数変換部とを含む
ことを特徴とする音源強調装置。 - 請求項2に記載の音源強調装置であって、
LshortをLshort=Llong/2m(mは1以上の整数)を満たす1以上の整数とし、
前記実数で定義された周波数変換及び前記実数で定義された逆周波数変換は、第j窓関数に対応する分析行列Aj(以下、第j分析行列という)により定義されるものであり、
前記第j観測信号周波数変換スペクトルXj,k Cは、次式により計算され、
(ただし、第j分析行列Ajは、それぞれ次式で定義される。
ここで、ClongとCshortはそれぞれ分析長がLlongであるMDCT行列と分析長がLshortであるMDCT行列、wlとwsはそれぞれ第1窓関数のためのLlong次元サイン窓ベクトルと第3窓関数のためのLshort次元サイン窓ベクトル、wl 1st=(wl 0, …, wl (L_long)/2-1)T, wl 2nd=(wl (L_long)/2, …, wl (L_long)-1)T, ws 1st=(ws 0, …, ws (L_short)/2-1)T, ws 2nd=(ws (L_short)/2, …, ws (L_short)-1)T, 1L_long/4-L_short/4と0L_long/4-L_short/4はそれぞれ要素が1であるLlong/4-Lshort/4次元ベクトルと要素が0であるLlong/4-Lshort/4次元ベクトル、IC(n)とIR(n) (n∈{0, 1, …, Llong/Lshort-1})はそれぞれ次式で表される行列のインデックスである。
)
前記第j出力音s^j,t Cは、次式により計算される
ことを特徴とする音源強調装置。 - Tを2以上の整数、Llongを1以上の整数、xt(1≦t≦T)を時間領域の観測信号を重なりのないT個の、長さLlong/2のブロックへ分割して得られるt番目のブロックの観測信号、st(1≦t≦T)を前記時間領域の観測信号に含まれる目的音を重なりのないT個の、長さLlong/2のブロックへ分割して得られるt番目のブロックの目的音、φt(1≦t≦T)を前記観測信号xtから抽出して得られるt番目のブロックの音響特徴量とし、
ニューラルネットワークMAを用いて、前記音響特徴量φt(1≦t≦T)から、t番目のブロックがアタックであるか否かの判定結果を示すベクトルであるアタック判定ベクトルat(1≦t≦T)を生成するアタック判定ベクトル生成部と、
前記アタック判定ベクトルat(1≦t≦T)から、窓関数ベクトルzt(1≦t≦T)を生成する窓関数ベクトル生成部と、
窓関数ロング(以下、第1窓関数という)に対応するニューラルネットワークM1を用いて、前記観測信号xt(1≦t≦T)と前記音響特徴量φt(1≦t≦T)から、第1出力音s^1,t C(1≦t≦T)を生成する第1出力音生成部と、
窓関数スタート(以下、第2窓関数という)に対応するニューラルネットワークM2を用いて、前記観測信号xt(1≦t≦T)と前記音響特徴量φt(1≦t≦T)から、第2出力音s^2,t C(1≦t≦T)を生成する第2出力音生成部と、
窓関数ショート(以下、第3窓関数という)に対応するニューラルネットワークM3を用いて、前記観測信号xt(1≦t≦T)と前記音響特徴量φt(1≦t≦T)から、第3出力音s^3,t C(1≦t≦T)を生成する第3出力音生成部と、
窓関数ストップ(以下、第4窓関数という)に対応するニューラルネットワークM4を用いて、前記観測信号xt(1≦t≦T)と前記音響特徴量φt(1≦t≦T)から、第4出力音s^4,t C(1≦t≦T)を生成する第4出力音生成部と、
前記第1出力音s^1,t C(1≦t≦T)と前記第2出力音s^2,t C(1≦t≦T)と前記第3出力音s^3,t C(1≦t≦T)と前記第4出力音s^4,t C(1≦t≦T)と前記窓関数ベクトルzt(1≦t≦T)から、前記観測信号xt(1≦t≦T)に含まれる目的音を強調した出力音s^t(1≦t≦T)を生成する出力音生成部と、
前記出力音s^t(1≦t≦T)と前記目的音st(1≦t≦T)から、出力音の推定誤差を示す目的関数T(ΘA, Θ1, Θ2, Θ3, Θ4)(ただし、ΘA, Θ1, Θ2, Θ3, Θ4はそれぞれ前記ニューラルネットワークMA, M1, M2, M3, M4のパラメータである)の値を計算する目的関数計算部と、
前記目的関数T(ΘA, Θ1, Θ2, Θ3, Θ4)の値を最適化するように前記パラメータΘA, Θ1, Θ2, Θ3, Θ4を更新するパラメータ更新部と、
所定の収束条件が満たされた場合に前記パラメータΘA, Θ1, Θ2, Θ3, Θ4を出力する収束判定部と
を含む音源強調学習装置であって、
前記目的関数T(ΘA, Θ1, Θ2, Θ3, Θ4)は、ブロック単位での出力音の推定誤差E(st, s^t)を用いて定義される関数である
音源強調学習装置。 - Tを2以上の整数、Llongを1以上の整数、xt(1≦t≦T)を時間領域の観測信号を重なりのないT個の、長さLlong/2のブロックへ分割して得られるt番目のブロックの観測信号、φt(1≦t≦T)を前記観測信号xtから抽出して得られるt番目のブロックの音響特徴量とし、
音源強調装置が、前記音響特徴量φt(1≦t≦T)から、t番目のブロックがアタックであるか否かの判定結果を示すベクトルであるアタック判定ベクトルat(1≦t≦T)を生成するアタック判定ベクトル生成ステップと、
前記音源強調装置が、前記アタック判定ベクトルat(1≦t≦T)から、窓関数ベクトルzt(1≦t≦T)を生成する窓関数ベクトル生成ステップと、
j=1, …, J(Jを1以上の整数)とし、
前記音源強調装置が、第j窓関数に対応する計算ユニットを用いて、前記観測信号xt(1≦t≦T)と前記音響特徴量φt(1≦t≦T)から、第j出力音s^j,t C(1≦t≦T)を生成する第j出力音生成ステップと、
前記音源強調装置が、前記第j出力音s^j,t C(1≦t≦T)(j=1, …, J)と前記窓関数ベクトルzt(1≦t≦T)から、前記観測信号xt(1≦t≦T)に含まれる目的音を強調した出力音s^t(1≦t≦T)を生成する出力音生成ステップと
を含む音源強調方法。 - 請求項1ないし4のいずれか1項に記載の音源強調装置または請求項5に記載の音源強調学習装置としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018157085A JP6912780B2 (ja) | 2018-08-24 | 2018-08-24 | 音源強調装置、音源強調学習装置、音源強調方法、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018157085A JP6912780B2 (ja) | 2018-08-24 | 2018-08-24 | 音源強調装置、音源強調学習装置、音源強調方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020030373A JP2020030373A (ja) | 2020-02-27 |
JP6912780B2 true JP6912780B2 (ja) | 2021-08-04 |
Family
ID=69622440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018157085A Active JP6912780B2 (ja) | 2018-08-24 | 2018-08-24 | 音源強調装置、音源強調学習装置、音源強調方法、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6912780B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2023148955A1 (ja) * | 2022-02-07 | 2023-08-10 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3849679B2 (ja) * | 2003-09-25 | 2006-11-22 | ヤマハ株式会社 | 雑音除去方法、雑音除去装置およびプログラム |
JP5898534B2 (ja) * | 2012-03-12 | 2016-04-06 | クラリオン株式会社 | 音響信号処理装置および音響信号処理方法 |
JP5958378B2 (ja) * | 2013-02-14 | 2016-07-27 | オンキヨー株式会社 | 音声信号処理装置、音声信号処理装置の制御方法およびプログラム |
JP6623376B2 (ja) * | 2016-08-26 | 2019-12-25 | 日本電信電話株式会社 | 音源強調装置、その方法、及びプログラム |
-
2018
- 2018-08-24 JP JP2018157085A patent/JP6912780B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020030373A (ja) | 2020-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Erdogan et al. | Deep recurrent networks for separation and recognition of single-channel speech in nonstationary background audio | |
JP2008145610A (ja) | 音源分離定位方法 | |
CN113284507B (zh) | 语音增强模型的训练方法和装置及语音增强方法和装置 | |
Li et al. | Deep neural network‐based linear predictive parameter estimations for speech enhancement | |
JP5881454B2 (ja) | 音源ごとに信号のスペクトル形状特徴量を推定する装置、方法、目的信号のスペクトル特徴量を推定する装置、方法、プログラム | |
Sharma et al. | Fast Griffin Lim based waveform generation strategy for text-to-speech synthesis | |
JP6912780B2 (ja) | 音源強調装置、音源強調学習装置、音源強調方法、プログラム | |
JP2023545820A (ja) | フィルタバンク領域でオーディオサンプルを処理するための生成ニューラルネットワークモデル | |
Koizumi et al. | Trainable adaptive window switching for speech enhancement | |
JP6721165B2 (ja) | 入力音マスク処理学習装置、入力データ処理関数学習装置、入力音マスク処理学習方法、入力データ処理関数学習方法、プログラム | |
JP6567478B2 (ja) | 音源強調学習装置、音源強調装置、音源強調学習方法、プログラム、信号処理学習装置 | |
Lee et al. | High-order hidden Markov model for piecewise linear processes and applications to speech recognition | |
Kashani et al. | Image to image translation based on convolutional neural network approach for speech declipping | |
Salhi et al. | Robustness of auditory teager energy cepstrum coefficients for classification of pathological and normal voices in noisy environments | |
JP6827908B2 (ja) | 音源強調装置、音源強調学習装置、音源強調方法、プログラム | |
Wang et al. | Speech Enhancement Control Design Algorithm for Dual‐Microphone Systems Using β‐NMF in a Complex Environment | |
WO2020121860A1 (ja) | 音響信号処理装置、その方法、およびプログラム | |
US11297418B2 (en) | Acoustic signal separation apparatus, learning apparatus, method, and program thereof | |
JP7120573B2 (ja) | 推定装置、その方法、およびプログラム | |
Wang et al. | Multi‐stage attention network for monaural speech enhancement | |
Li et al. | Robust Non‐negative matrix factorization with β‐divergence for speech separation | |
JP7072165B2 (ja) | モード分解装置、モード分解方法、プログラム | |
Pokharel et al. | ARMAS: Active reconstruction of missing audio segments | |
CN112820267B (zh) | 波形生成方法以及相关模型的训练方法和相关设备、装置 | |
WO2021100215A1 (ja) | 音源信号推定装置、音源信号推定方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180824 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210624 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210629 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210630 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6912780 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |