JP2017009691A - 言語モデル生成装置およびそのプログラム - Google Patents
言語モデル生成装置およびそのプログラム Download PDFInfo
- Publication number
- JP2017009691A JP2017009691A JP2015122789A JP2015122789A JP2017009691A JP 2017009691 A JP2017009691 A JP 2017009691A JP 2015122789 A JP2015122789 A JP 2015122789A JP 2015122789 A JP2015122789 A JP 2015122789A JP 2017009691 A JP2017009691 A JP 2017009691A
- Authority
- JP
- Japan
- Prior art keywords
- language model
- evaluation
- weight
- sentence
- mixed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000011156 evaluation Methods 0.000 claims abstract description 204
- 238000002156 mixing Methods 0.000 claims abstract description 59
- 239000000203 mixture Substances 0.000 claims abstract description 57
- 230000001419 dependent effect Effects 0.000 claims abstract description 43
- 230000006870 function Effects 0.000 claims description 4
- 238000007476 Maximum Likelihood Methods 0.000 claims description 3
- 238000013518 transcription Methods 0.000 description 21
- 230000035897 transcription Effects 0.000 description 21
- 238000000034 method Methods 0.000 description 12
- 238000007796 conventional method Methods 0.000 description 10
- 238000004519 manufacturing process Methods 0.000 description 10
- 101100345673 Xenopus laevis mix-b gene Proteins 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Abstract
Description
この手法は、音声認識対象(発話内容等)と類似した評価用文章を用いて、評価用文章の生成確率が最大となるように線形補間係数(混合重み)を求め、あるいは、線形補間係数をベイズ学習法により求めて、各言語モデルを線形和補間するものである。
図6に示すように、ここでは、2つの言語モデル(グローバル言語モデル20、話題依存言語モデル40)を混合することとする。なお、グローバル言語モデル20は、大規模学習データ(大規模コーパス200)から予め学習し生成したものである。また、話題依存言語モデル40は、音声認識対象の話題(トピック)に依存した小規模学習データ(話題依存小規模コーパス400)から予め学習し生成したものである。
このように生成された混合言語モデル80を用いて、音声認識装置100が音声認識を行うことで、グローバル言語モデル20のみを用いる場合に比べ、特定の話題に対する音声認識精度を高めることができる。
ここで、過学習とは、コーパス内に評価用文章が存在していた場合に、その文章(学習データ)に強く言語モデルの出現確率が依存し、他の文章(未知データ)において期待される出現確率が得られない状態となることをいう。
しかし、コーパスが大規模であればあるほど、コーパス内に存在している文章を除いて、評価用文章を選定することは現実的に困難である。すなわち、従来手法では、評価用文章としてコーパス内の文章を用いる場合があり、評価用文章により過学習が発生してしまうという問題がある。
さらに、言語モデル生成装置は、評価重み生成手段によって、グローバル言語モデルに対して、評価用文章を予め定めた分類により区分した区分文章を用いて、区分文章ごとの評価値を個別評価値として算出する。
このように、区分単位で評価用文章を評価することで、言語モデル生成装置は、評価用文章の区分単位ごとに過学習の度合いを評価することが可能になる。
このように、第1混合重み生成手段は、言語モデルを線形和補間する割合として評価重みを加味することで、過学習の発生を抑えるとともに、評価用文章における区分文章の生成確率を高める方向に作用する混合重みを生成することができる。
このように、第2混合重み生成手段は、言語モデルを線形和補間する割合として評価重みを加味することで、過学習の発生を抑えるとともに、評価用文章における区分文章の生成確率を高める方向に作用する混合重みを生成することができる。
さらに、言語モデル生成装置は、評価重み生成手段によって、グローバル言語モデルに対して、評価用文章を予め定めた分類により区分した区分文章を用いて、区分文章ごとの評価値を個別評価値として算出する。
このように、区分単位で評価用文章を評価することで、言語モデル生成装置は、評価用文章の区分単位ごとに過学習の度合いを評価することが可能になる。
このように、混合重み生成手段は、言語モデルを線形和補間する割合として評価重みを加味することで、過学習の発生を抑えるとともに、評価用文章における区分文章の生成確率を高める方向に作用する混合重みを生成することができる。
これによって、言語モデル生成装置は、既存のグローバル言語モデルと、音声認識対象の小規模の話題依存言語モデルとを混合する際に、過学習を抑えて音声認識対象に適した言語モデルを生成することができる。
なお、言語モデル生成装置は、コンピュータを、前記した各手段として機能させるための言語モデル生成プログラムで動作させることができる。
本発明によれば、混合する言語モデルにおいて、評価用文章の予め区分した文章ごとに、過学習となるか否かを評価して評価重みを生成し、その評価重みを用いて、言語モデルを混合するための混合重みを計算する。そのため、本発明は、過学習を抑えて言語モデルを生成することができる。また、本発明により生成された過学習が抑えられた言語モデルを音声認識に用いることで、従来よりも認識精度の高い音声認識を行うことが可能になる。
第1実施形態は、大規模コーパスを構成する元の素材ごとに学習した複数の言語モデルを音声認識対象の言語に適するように混合し、さらに、小規模コーパスから学習した音声認識対象の話題(トピック)に依存した言語モデルを混合する形態である。
第2実施形態は、第1実施形態を簡略化し、大規模コーパスから学習した1つの言語モデルと、小規模コーパスとなる音声認識対象の話題(トピック)に依存した言語モデルとを混合する形態である。
〔言語モデル生成装置の構成〕
まず、図1を参照して、本発明の第1実施形態に係る言語モデル生成装置1の構成について説明する。
また、図1中、混合グローバル言語モデル21は、言語モデル生成装置1が、原稿言語モデル30と、字幕言語モデル31と、書き起こし言語モデル32とを混合して生成する途中段階の言語モデルである。
なお、言語モデルの学習とは、学習コーパスから前記式(1)の確率を、最尤推定法等の一般的な手法によって求めるものであり、ここでは、詳細な説明を省略する。
図2(a)に示すように、グローバル言語モデル20は、大規模コーパス200に含まれる「原稿」、「字幕」、「書き起こし」のそれぞれの学習データ(個別学習コーパス)から予め学習された言語モデルである。「原稿」は、例えば、ニュース等の放送番組の原稿データである。また、「字幕」は、放送番組に付与した字幕データである。また、「書き起こし」は、放送番組が実際に放送された音声を人手で書き起こした書き起こしデータである。この大規模コーパス200は、これらのデータ(学習データ)を、例えば、数年分蓄積したデータである。
また、図2(a)に示すように、原稿言語モデル30は、大規模コーパス200に含まれる「原稿」から予め学習された言語モデルである。字幕言語モデル31は、大規模コーパス200に含まれる「字幕」から予め学習された言語モデルである。書き起こし言語モデル32は、大規模コーパス200に含まれる「書き起こし」から予め学習された言語モデルである。
図1に戻って、言語モデル生成装置1の構成について詳細に説明する。
ここで、評価用文章Hは、音声認識対象のトピック(話題)に関連(類似)した内容の文章として選定された文章である。例えば、音声認識対象を、ある情報を提供する放送番組(情報番組)とした場合、評価用文章Hとして、過去の同じ情報番組の書き起こしを用いればよい。ここでは、評価重み生成手段10に入力される評価用文章をH={h1,…,hc,…}とし、各hcは、1以上の文章で構成されるものとする。例えば、各hcを、情報番組の番組内の各コーナーの書き起こしとすればよい。すなわち、評価用文章Hは、予め定めた単位、例えば、1文章ごと、あるいは、予め定めた分類で区分された1以上の文章(区分文章)ごとに分類されているものとする。
例えば、評価重み生成手段10は、以下の式(3)に示すように、PPC>PPallであれば、文章{hc}に対する評価重みαcを“1”、PPC≦PPallであれば、区分文章{hc}に対する評価重みαcを“0”とする。
この第1混合重み生成手段11Aは、前記式(4)を最大化する混合重みλ(λgenko,λjimaku,λkakiokoshi)を、EMアルゴリズム等により生成(算出)することができる。
この第1混合重み生成手段11Aは、生成した混合重みλ(λgenko,λjimaku,λkakiokoshi)を、第1線形和補間手段12Aに出力する。
この第1線形和補間手段12Aは、生成した混合グローバル言語モデル21を、図示を省略した記憶手段に書き込み記憶する。また、この混合グローバル言語モデル21は、後記する第2混合重み生成手段11Bおよび第2線形和補間手段12Bによって参照される。
この第2混合重み生成手段11Bにおける混合重みの生成手法は、混合する言語モデルが異なるだけで、第1混合重み生成手段11Aと同じである。
この第2混合重み生成手段11Bは、生成した混合重みλ(λmix,λwadai)を、第2線形和補間手段12Bに出力する。
この第2線形和補間手段12Bにおける混合手法は、混合する言語モデルが異なるだけで、第1線形和補間手段12Aと同じである。
なお、言語モデル生成装置1が生成する混合言語モデル50は、一般的な音声認識装置において使用することができる。その場合、例えば、図3に示すように、音声認識装置100は、言語モデル生成装置1が生成する混合言語モデル50と、既存の発音辞書60および音響モデル70とにより、音声を音声認識し認識結果を出力する。
また、言語モデル生成装置1は、混合グローバル言語モデル21において、音声認識対象の表現に対する条件付き確率が高められているため、後記する第2実施形態(図5)のように、グローバル言語モデル20に話題依存言語モデル40を直接混合する場合に比べ、音声認識対象の表現に対する条件付き確率をさらに高めることができる。
次に、図4を参照(構成については適宜図1参照)して、本発明の第1実施形態に係る言語モデル生成装置1の動作について説明する。
まず、言語モデル生成装置1は、評価重み生成手段10によって、大規模コーパスを用いて学習したグローバル言語モデル20から、評価用文章Hの評価重みを生成する(ステップS1)。
具体的には、評価重み生成手段10は、評価用文章Hの文章全体{h1,…,hc,…}を用いてパープレキシティPP(全体パープレキシティPPall)を計算し、評価用文章Hの個別の文章{hc}ごとにパープレキシティPP(個別パープレキシティPPc)を計算する(前記式(2)参照)。そして、評価重み生成手段10は、全体パープレキシティPPallよりも個別パープレキシティPPcの方が大きければ、対応する個別の文章{hc}の評価用文章としての重みを大きくし、それ以外であれば、個別の文章{hc}の評価用文章としての重みを小さくするように、評価重みを生成する(前記式(3)参照)。
具体的には、第1混合重み生成手段11Aは、評価用文章の対数尤度が最大となるように原稿言語モデル30、字幕言語モデル31および書き起こし言語モデル32の混合重みを算出する(前記式(4)参照)。
具体的には、第1線形和補間手段12Aは、ステップS2で算出された原稿言語モデル30、字幕言語モデル31および書き起こし言語モデル32の混合重みλ(λgenko,λjimaku,λkakiokoshi)を用いて、Nグラム確率を重み付き加算(線形和補間)することで、混合グローバル言語モデル21を生成する(前記式(5)参照)。
具体的には、第2混合重み生成手段11Bは、評価用文章の対数尤度が最大となるように混合グローバル言語モデル21および話題依存言語モデル40の混合重みを算出する(前記式(6)参照)。
具体的には、第2線形和補間手段12Bは、ステップS4で算出された混合グローバル言語モデル21および話題依存言語モデル40の混合重みλ(λmix,λwadai)を用いて、Nグラム確率を重み付き加算(線形和補間)することで、混合言語モデル50を生成する(前記式(7)参照)。
以上の動作によって、言語モデル生成装置1は、過学習を抑え、音声認識対象の認識精度を高めた言語モデルを生成することができる。
次に、言語モデル生成装置1を評価した評価結果について説明する。
この評価に用いた大規模コーパス200(図2参照)を構成するコーパス(原稿、字幕、書き起こし)、および、話題依存小規模コーパス400は、過去の放送番組で用いられたデータであって、以下の〔表1〕で示したコーパスサイズである。
以下の〔表2〕には、大規模コーパスを単純に学習して生成したグローバル言語モデル20(Pglobal(w|h))と、評価重みを用いず、前記式(4)で評価重みαcを常に“1”にして生成した言語モデル(Pmixtest(w|h))と、本発明の評価重みを用いて生成した混合グローバル言語モデル21(Pmix(w|h))とのそれぞれのパープレキシティの値を示している。
以下の〔表3〕には、本発明の評価重みを用いて生成した混合言語モデル50(Pmix2(w|h))を用いて音声認識したときの単語誤り率と、評価重みを用いず、前記式(4)で評価重みαcを常に“1”にして生成した言語モデル(Pmix2test(w|h))を用いて音声認識したときの単語誤り率とを示している。
次に、図5を参照して、本発明の第2実施形態に係る言語モデル生成装置1Bの構成について説明する。
なお、対数尤度により混合重みを算出する手法は、図1で説明した第1混合重み生成手段11Aや第2混合重み生成手段11Bの手法と同様であるため、ここでは説明を省略する。
この混合重み生成手段11は、生成した混合重みλ(λglobal,λwadai)を、線形和補間手段12に出力する。
なお、この混合重みを用いて言語モデルを混合する手法は、図1で説明した第1線形和補間手段12Aや第2線形和補間手段12Bの手法と同様であるため、ここでは説明を省略する。
≪その他の変形例≫
ここでは、評価重み生成手段10が生成する評価重みαcを、前記式(3)に示すように、2値(“0”,“1”)とした。
しかし、評価重み生成手段10は、評価重みαcを、評価用文章Hの文章全体の全体パープレキシティPPallと、各文章の個別パープレキシティPPcとの差等を基に、“0”以上“1”以下の範囲の値としてもよい。例えば、文章全体の全体パープレキシティPPallから、各文章の個別パープレキシティPPcを減算した差が最大となる文章に対する評価重みを“1”、最小となる文章に対する評価重みを“0”とし、他の文章に対する評価重みについては、その差の大きさの割合に応じて値を付与すればよい。
しかし、評価重み生成手段10は、言語モデルを数値評価できる指標であれば、必ずしもパープレキシティを用いる必要はない。例えば、エントロピー(前記式(2)のE)、対数尤度(前記式(2)のΣ以降)を用いても構わない。
10 評価重み生成手段
11 混合重み生成手段
11A 第1混合重み生成手段
11B 第2混合重み生成手段
12 線形和補間手段
12A 第1線形和補間手段
12B 第2線形和補間手段
20 グローバル言語モデル
21 混合グローバル言語モデル
30 原稿言語モデル(個別言語モデル)
31 字幕言語モデル(個別言語モデル)
32 書き起こし言語モデル(個別言語モデル)
40 話題依存言語モデル
50,50B 混合言語モデル
Claims (5)
- 音声認識対象の話題に関連する学習コーパスから予め学習した話題依存言語モデルと、前記学習コーパスよりもデータ量の多い学習コーパスで予め学習したグローバル言語モデルとを混合し、前記音声認識対象の混合言語モデルを生成する言語モデル生成装置であって、
前記話題に関連する予め選定された評価用文章の全体を用いて前記グローバル言語モデルを評価した全体評価値と、前記評価用文章を予め定めた分類により区分した区分文章を用いて前記グローバル言語モデルを評価した前記区分文章ごとの個別評価値とを算出し、前記区分文章ごとに前記評価用文章としての適否の度合いを評価重みとして生成する評価重み生成手段と、
前記グローバル言語モデルを学習するために用いた学習コーパスを構成する複数の個別学習コーパスから予め学習した複数の個別言語モデルを、前記区分文章ごとに前記評価重みの割合で線形和補間したときの対数尤度が最大となる混合重みを生成する第1混合重み生成手段と、
この第1混合重み生成手段で生成された混合重みの割合で、前記複数の個別言語モデルを線形和補間して混合グローバル言語モデルを生成する第1線形和補間手段と、
前記区分文章ごとに前記評価重みの割合で前記混合グローバル言語モデルと前記話題依存言語モデルとを線形和補間したときの対数尤度が最大となる混合重みを生成する第2混合重み生成手段と、
この第2混合重み生成手段で生成された混合重みの割合で、前記混合グローバル言語モデルおよび前記話題依存言語モデルを線形和補間し、前記音声認識対象の混合言語モデルを生成する第2線形和補間手段と、
を備えることを特徴とする言語モデル生成装置。 - 音声認識対象の話題に関連する学習コーパスから予め学習した話題依存言語モデルと、前記学習コーパスよりもデータ量の多い学習コーパスで予め学習したグローバル言語モデルとを混合し、前記音声認識対象の混合言語モデルを生成する言語モデル生成装置であって、
前記話題に関連する予め選定された評価用文章の全体を用いて前記グローバル言語モデルを評価した全体評価値と、前記評価用文章を予め定めた分類により区分した区分文章を用いて前記グローバル言語モデルを評価した前記区分文章ごとの個別評価値とを算出し、前記区分文章ごとに前記評価用文章としての適否の度合いを評価重みとして生成する評価重み生成手段と、
前記区分文章ごとに前記評価重みの割合で前記グローバル言語モデルと前記話題依存言語モデルとを線形和補間したときの対数尤度が最大となる混合重みを生成する混合重み生成手段と、
前記混合重みの割合で、前記グローバル言語モデルおよび前記話題依存言語モデルを線形和補間し、前記音声認識対象の混合言語モデルを生成する線形和補間手段と、
を備えることを特徴とする言語モデル生成装置。 - 前記評価重み生成手段は、前記全体評価値および前記個別評価値として、前記グローバル言語モデルのパープレキシティを計算し、前記全体評価値よりも前記個別評価値の方が大きい前記区分文章に対して、前記評価重みを大きく設定することを特徴とする請求項1または請求項2に記載の言語モデル生成装置。
- 前記評価重み生成手段は、前記全体評価値および前記個別評価値として、前記グローバル言語モデルのパープレキシティを計算し、前記全体評価値よりも前記個別評価値の方が大きい前記区分文章に対して、前記評価重みを“1”、それ以外の区分文章に対して、前記評価重みを“0”に設定することを特徴とする請求項1または請求項2に記載の言語モデル生成装置。
- コンピュータを、請求項1から請求項4のいずれか一項に記載の言語モデル生成装置として機能させるための言語モデル生成プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015122789A JP6518142B2 (ja) | 2015-06-18 | 2015-06-18 | 言語モデル生成装置およびそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015122789A JP6518142B2 (ja) | 2015-06-18 | 2015-06-18 | 言語モデル生成装置およびそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017009691A true JP2017009691A (ja) | 2017-01-12 |
JP6518142B2 JP6518142B2 (ja) | 2019-05-22 |
Family
ID=57761502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015122789A Active JP6518142B2 (ja) | 2015-06-18 | 2015-06-18 | 言語モデル生成装置およびそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6518142B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945792A (zh) * | 2017-11-06 | 2018-04-20 | 百度在线网络技术(北京)有限公司 | 语音处理方法和装置 |
CN111292728A (zh) * | 2018-11-21 | 2020-06-16 | 三星电子株式会社 | 语音识别方法和设备 |
CN111292728B (zh) * | 2018-11-21 | 2024-05-28 | 三星电子株式会社 | 语音识别方法和设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005084179A (ja) * | 2003-09-05 | 2005-03-31 | Nippon Telegr & Teleph Corp <Ntt> | 言語モデル作成方法およびその装置 |
US20140324434A1 (en) * | 2013-04-25 | 2014-10-30 | Nuance Communications, Inc. | Systems and methods for providing metadata-dependent language models |
-
2015
- 2015-06-18 JP JP2015122789A patent/JP6518142B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005084179A (ja) * | 2003-09-05 | 2005-03-31 | Nippon Telegr & Teleph Corp <Ntt> | 言語モデル作成方法およびその装置 |
US20140324434A1 (en) * | 2013-04-25 | 2014-10-30 | Nuance Communications, Inc. | Systems and methods for providing metadata-dependent language models |
Non-Patent Citations (1)
Title |
---|
緒方 淳、外1名: "PodCastle:動的トピック混合に基づく教師なし言語モデル適応", 日本音響学会 2011年 春季研究発表会講演論文集CD−ROM, JPN6019009757, 2 March 2011 (2011-03-02), JP, pages 69 - 72 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945792A (zh) * | 2017-11-06 | 2018-04-20 | 百度在线网络技术(北京)有限公司 | 语音处理方法和装置 |
CN107945792B (zh) * | 2017-11-06 | 2021-05-28 | 百度在线网络技术(北京)有限公司 | 语音处理方法和装置 |
CN111292728A (zh) * | 2018-11-21 | 2020-06-16 | 三星电子株式会社 | 语音识别方法和设备 |
US11935516B2 (en) | 2018-11-21 | 2024-03-19 | Samsung Electronics Co., Ltd. | Speech recognition method and appratus using weighted scores |
CN111292728B (zh) * | 2018-11-21 | 2024-05-28 | 三星电子株式会社 | 语音识别方法和设备 |
Also Published As
Publication number | Publication date |
---|---|
JP6518142B2 (ja) | 2019-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7280382B2 (ja) | 数字列のエンドツーエンド自動音声認識 | |
US11210475B2 (en) | Enhanced attention mechanisms | |
JP6222821B2 (ja) | 誤り修正モデル学習装置、及びプログラム | |
US8019594B2 (en) | Method and apparatus for progressively selecting features from a large feature space in statistical modeling | |
JP5932869B2 (ja) | N−gram言語モデルの教師無し学習方法、学習装置、および学習プログラム | |
CN104021784A (zh) | 基于大语料库的语音合成方法和装置 | |
CN107146604B (zh) | 一种语言模型优化方法及装置 | |
US8019593B2 (en) | Method and apparatus for generating features through logical and functional operations | |
Aksënova et al. | How might we create better benchmarks for speech recognition? | |
JP2023547847A (ja) | 簡略化されたストリーミングおよび非ストリーミングasr用のカスケードエンコーダ | |
JP6810580B2 (ja) | 言語モデル学習装置およびそのプログラム | |
JP2012018201A (ja) | テキスト補正方法及び認識方法 | |
JP2024511198A (ja) | シーケンスにわたって対照損失を用いる教師ありトレーニングおよび教師なしトレーニング | |
CN117099157A (zh) | 用于端到端自动语音识别置信度和删除估计的多任务学习 | |
Granell et al. | Multimodality, interactivity, and crowdsourcing for document transcription | |
JP6518142B2 (ja) | 言語モデル生成装置およびそのプログラム | |
JP2024510817A (ja) | 効率的なストリーミング非リカレントオンデバイスエンドツーエンドモデル | |
CN112559725A (zh) | 文本匹配方法、装置、终端和存储介质 | |
US20220122586A1 (en) | Fast Emit Low-latency Streaming ASR with Sequence-level Emission Regularization | |
EP4367663A1 (en) | Improving speech recognition with speech synthesis-based model adaption | |
US20230107695A1 (en) | Fusion of Acoustic and Text Representations in RNN-T | |
Sethy et al. | Joint training of interpolated exponential n-gram models | |
US20240013777A1 (en) | Unsupervised Data Selection via Discrete Speech Representation for Automatic Speech Recognition | |
JP2005091518A (ja) | 音声認識装置及び音声認識プログラム | |
US20220310081A1 (en) | Multilingual Re-Scoring Models for Automatic Speech Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180502 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6518142 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |