JP6353408B2 - 言語モデル適応装置、言語モデル適応方法、プログラム - Google Patents

言語モデル適応装置、言語モデル適応方法、プログラム Download PDF

Info

Publication number
JP6353408B2
JP6353408B2 JP2015118370A JP2015118370A JP6353408B2 JP 6353408 B2 JP6353408 B2 JP 6353408B2 JP 2015118370 A JP2015118370 A JP 2015118370A JP 2015118370 A JP2015118370 A JP 2015118370A JP 6353408 B2 JP6353408 B2 JP 6353408B2
Authority
JP
Japan
Prior art keywords
topic
language model
probability
word
general
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015118370A
Other languages
English (en)
Other versions
JP2017003812A (ja
Inventor
浩和 政瀧
浩和 政瀧
亮 増村
亮 増村
中村 孝
孝 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015118370A priority Critical patent/JP6353408B2/ja
Publication of JP2017003812A publication Critical patent/JP2017003812A/ja
Application granted granted Critical
Publication of JP6353408B2 publication Critical patent/JP6353408B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Description

本発明は、話題に応じた言語モデルを構築する言語モデル適応装置、言語モデル適応方法、プログラムに関する。
近年の連続音声認識の分野では、数万〜数十万語程度の語彙が登録された大語彙の辞書と、登録された語彙間の接続関係を表す言語モデルを用いて認識精度を向上させる方法が主流である。しかし、語彙が増えるにつれて同音異義語や発音の類似した語彙も多くなるため、誤認識も増える可能性がある。
近年盛んに用いられている言語モデルはN−gramと呼ばれるモデルである。これは、直前のN−1単語からその次の単語の遷移確率を予測するものである。N−gramは非常にシンプルなアイデアであるが、音声認識において極めて有効であることが知られている。しかし、通常Nは3もしくは4程度であり、3〜4単語程度のわずかな単語間の接続関係しか表現できない。これに対し、近年では長い範囲の単語の関係も表現できるリカレント・ニューラルネットワークなる言語モデルも盛んに研究されている。
ところで、発声「せいど」については、一般的な話題では「制度」と認識するのが適切である場合が多い。しかしながら、技術者の間での話題であれば「精度」と認識するのが適切である場合が多い。このように、同音異義語や発音の類似した語彙を正しく判別するためには、話題に応じて言語モデルを構築して使用する必要があり、数単語間の接続関係のみに着目しても、誤認識を回避できない場合が多々ある。前述のリカレント・ニューラルネットワークについても、話題に応じて単語の出現確率を切り替える動作はなされておらず、上述の問題点を解決できていない。
話題に応じて言語モデルを構築する方法として、特許文献1では、一般的な大量のテキストデータから構築した言語モデルをベースとして、特定の話題について収集したテキストから構築した言語モデルを混合する方法が記載されている。
また、非特許文献1では、複数のトピックモデルを事前に用意しておき、認識結果に応じてそれらを適切な重みで混合する方法が記載されている。
特許第3628245号公報
中村明、外4名、「複数モデルの統合によるLDAトピックモデルの高精度化」、言語処理学会第14回年次大会発表論文集、言語処理学会、平成20年3月、pp305-308.
特許文献1の技術では、話題毎にある程度のテキストを収集する必要があり、モデル構築にコストがかかる。また、構築される言語モデルはベースのモデルよりも大きくなるため、音声対話のように話題が頻繁に切り替わるような場合にはシステムの負荷が大きくなる。
非特許文献1の技術では、一度音声認識を実行した後にその結果を用いてモデル混合の処理を行い、再度音声認識を実行する必要があるため、リアルタイムでの音声認識は困難である。また、モデルのトピック数は事前に決定されており、きめ細かいトピックに対応することはできない。
そこで本発明では、目的とする話題のテキストを特別な方法で収集する必要が無く、各話題に応じた言語モデルをコンパクトに構築して、音声認識システムの負荷を減らすことができ、リアルタイムでの音声認識を可能とする言語モデル適応装置を提供することを目的とする。
本発明の言語モデル適応装置は、一般言語モデル構築部と、話題別単語出現確率計算部と、話題補正情報生成部と、言語モデル補正部を含む。
一般言語モデル構築部は、複数の話題を含むテキストデータを用いてN−gram言語モデルである一般言語モデルを構築する。話題別単語出現確率計算部は、特定の話題についての文書を指定する情報である話題指定情報に基づいてテキストデータ内の文書を指定し、指定された文書の中に出現する各単語のUnigram確率である話題別単語出現確率を計算する。話題補正情報生成部は、話題別単語出現確率と、一般言語モデルに格納される各単語のUnigram確率である一般単語出現確率に基づいて、一般単語出現確率を話題別単語出現確率に補正する値である話題補正情報を各単語について生成する。言語モデル補正部は、Nを2以上の整数とし、一般言語モデルの各N−gram確率において、N番目の単語に対応する話題補正情報を取得して、取得した話題補正情報を元のN−gram確率に乗算して新たなN−gram確率とし、計算した確率の集合を話題適応言語モデルとして出力する。
本発明の言語モデル適応装置は、目的とする話題のテキストを特別な方法で収集する必要が無く、各話題に応じた言語モデルをコンパクトに構築して、音声認識システムの負荷を減らすことができ、リアルタイムでの音声認識を可能とする。
実施例1の言語モデル適応装置の構成を示すブロック図。 実施例1の言語モデル適応装置の動作を示すフローチャート。 実施例1の話題統計推定部の構成を示すブロック図。 実施例1の話題統計推定部の動作を示すフローチャート。
以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
以下、図1から図4を参照して実施例1の言語モデル適応装置について説明する。図1に示すように、本実施例の言語モデル適応装置10は、テキストデータ記憶部101と、一般言語モデル構築部102と、一般言語モデル記憶部103と、話題指定情報記憶部104と、話題統計推定部105と、話題補正情報記憶部106と、言語モデル補正部107と、話題適応言語モデル記憶部108を含む。
[テキストデータ記憶部101]
以下、テキストデータ記憶部101の説明で使用する用語の定義を行う。
<文書>
「文書」は、1つの文またはひとつながりの2以上の文からなるものとする。一つの「文書」につき、1つまたは2つ以上の「話題」が存在するものとする。
<話題>
「話題」は、主題、題目のことであって、文によって陳述される中心的対象を指し、通常の意味で用いられる。
<テキストデータ>
「テキストデータ」は「文書」を少なくとも2以上含む、「文書」の集合であるものとする。
テキストデータ記憶部101には、様々な話題の文書を大量に含むテキストデータが記憶されている。従ってテキストデータには少なくとも複数の話題が含まれる。テキストデータに含まれる文書として、新聞記事等のまとまった文書や、Webからダウンロードして取得した文書等が利用可能である。
[一般言語モデル構築部102、一般言語モデル記憶部103]
一般言語モデル構築部102は、複数の話題を含むテキストデータを用いて、通常のN−gram言語モデルの構築処理を行い、N−gram言語モデルである一般言語モデルを構築する(S102)。一般言語モデルは、特定の用途向けに作成されたモデルではなく幅広い話題に対応できるモデルであって、その語彙サイズは数万〜数十万語程度とすれば好適である。一般言語モデル構築部102は、構築した一般言語モデルを一般言語モデル記憶部103に記憶する。
[話題指定情報記憶部104]
以下、話題指定情報記憶部104の説明で使用する用語の定義を行う。
<話題指定情報>
「話題指定情報」は、特定の話題についての文書を指定する情報である。話題指定情報として、例えば、その話題によく使われる単語そのもの、またはその話題によく使われる単語をリスト化した情報や、あるいはその話題について書かれた文書を指定する情報であって、ユーザが予め付与した情報などが考えられる。文書を指定する情報としては、例えば文書のID(識別番号)などであってもよい。例えば、話題指定情報として「音声認識」という単語が指定されたとする。この場合の話題指定情報が指定する文書とは、「音声認識」が出現する文書を意味する。
[話題統計推定部105]
図3に示すように、話題統計推定部105は、話題別単語出現確率計算部1051と、話題補正情報生成部1052を含む。
《話題別単語出現確率計算部1051》
話題別単語出現確率計算部1051は、話題指定情報に基づいてテキストデータ内の文書を指定し、指定された文書の中に出現する各単語のUnigram確率(話題別単語出現確率という)を計算する(S1051)。
《話題補正情報生成部1052》
話題補正情報生成部1052は、話題別単語出現確率と、一般言語モデルに格納される各単語のUnigram確率(一般単語出現確率という)に基づいて、一般単語出現確率を話題別単語出現確率に補正する値(話題補正情報という)を各単語について生成する(S1052)。話題補正情報生成部1052は、生成した話題補正情報を話題補正情報記憶部106に記憶する。
以下、ステップS105(S1051、S1052)の処理を具体例を参照して詳説する。例えば、話題指定情報で「音声認識」という単語が指定されたとする。この場合、テキストデータ中の「音声認識」が出現する文書について、当該文書に出現する各単語の話題別単語出現確率を求める。この例では、「音声認識」が出現する文書について、単語「制度」の話題別単語出現確率は1.0×10-3、単語「精度」の話題別単語出現確率は1.0×10-1であったものとする。
ステップS102で構築された一般言語モデルには、各単語の一般単語出現確率が格納されている。例えば、単語「制度」の一般単語出現確率は1.0×10-3、単語「精度」の一般単語出現確率は1.0×10-4であったものとする。
前述したように、話題補正情報(補正値ともいう)は、一般言語モデルの各単語の単語出現確率を、話題条件での単語出現確率に補正する値である。すなわち、各単語について、(話題別単語出現確率)/(一般単語出現確率)の値を求め、この値を話題補正情報としてもよい。
従って、話題補正情報生成部1052は、
単語「制度」の補正値=(1.0×10-3)/(1.0×10-3)=1.0
単語「精度」の補正値=(1.0×10-1)/(1.0×10-4)=1.0×103
を生成する(S1052)。
<言語モデル補正部107>
言語モデル補正部107は、Nを2以上の整数とし、一般言語モデルの各N−gram確率において、N番目の単語に対応する話題補正情報を取得して、取得した話題補正情報を元のN−gram確率に乗算して新たなN−gram確率とし、計算した確率の集合を話題適応言語モデルとして出力し、当該話題適応言語モデルを話題適応言語モデル記憶部108に記憶する(S107)。ステップS107で生成される話題適応言語モデルは、一般言語モデルの各遷移確率を、指定された話題に応じた遷移確率に変換することができる。上述の例では、「精度」に関するN−gramは、一般言語モデルの遷移確率よりも1.0×103倍大きな確率となり、「音声認識」という話題に適した言語モデルに補正される。
なお、話題指定情報は、キーワードや、少量の文書でよいため、特許文献1のような従来手法と比較して、非常に簡単に話題に適したモデルを作成することができる。また、話題補正情報記憶部106は、語彙サイズ分の確率情報を記憶できる容量があればよく、N−gram言語モデル全体の情報サイズと比較すると格段に小さく、また少量の演算量で実現できるため、オンラインで構築し、メモリ上に保持することも可能である。これにより、話題が頻繁に切り替わるような場合、大規模なサイズのN−gram言語モデルを多数用意しておく必要がなく、ディスク領域、モデルのロード時間を節約することができる。
なお、上記の説明では、N−gramを例として説明したが、リカレント・ニューラルネットワーク等の別のモデルにおいても、単語出現確率であるUnigram確率の情報さえ別途計算してモデルに付随して格納しておけば、容易に指定された話題への補正を行った言語モデルを構築することができる。
また、補正値(話題補正情報)は、上記説明では単純な出現頻度による値としているが、潜在意味解析(LSA: Latent Semantic Analysais)等の方法を応用してもよい。
また、言語モデル補正部107は、各N−gram確率に対してまとめて補正値をかけて話題適応言語モデルを構築するのではなく、各N−gram値が必要になったタイミングで、直接補正値を乗算しても良い。これにより、話題適応言語モデルを構築するオーバーヘッドの時間を削減することができる。
<本発明のポイント>
本発明では、人間が指定する単純なキーワード等の情報より目的の話題の言語モデルを構築した。
これを実現するために、元の一般的な言語モデルを構築するのに使用したテキストデータを用い、指定されたキーワードが出現する文書において、辞書に登録されている各単語の出現する確率を計算する。ここで得られる情報は、各キーワード、すなわちその話題を前提とした場合のUnigram確率である。
元の言語モデルの各N−gramの確率を、各単語毎の元のUnigram確率と上記処理で得られるUnigram確率とで補正をかけることにより、その話題に適応したN−gramを構築することができる。なお、適応のために必要な情報は、各単語のUnigramの補正値のみであり、元の言語モデルのサイズと比較すれば極めて小さく、システムの負荷は小さい。
<補記>
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD−ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
ハードウェアエンティティの外部記憶装置には、上述の機能を実現するために必要となるプログラムおよびこのプログラムの処理において必要となるデータなどが記憶されている(外部記憶装置に限らず、例えばプログラムを読み出し専用記憶装置であるROMに記憶させておくこととしてもよい)。また、これらのプログラムの処理によって得られるデータなどは、RAMや外部記憶装置などに適宜に記憶される。
ハードウェアエンティティでは、外部記憶装置(あるいはROMなど)に記憶された各プログラムとこの各プログラムの処理に必要なデータが必要に応じてメモリに読み込まれて、適宜にCPUで解釈実行・処理される。その結果、CPUが所定の機能(上記、…部、…手段などと表した各構成要件)を実現する。
本発明は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。また、上記実施形態において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。
既述のように、上記実施形態において説明したハードウェアエンティティ(本発明の装置)における処理機能をコンピュータによって実現する場合、ハードウェアエンティティが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記ハードウェアエンティティにおける処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、ハードウェアエンティティを構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。


Claims (3)

  1. 複数の話題を含むテキストデータを用いてN−gram言語モデルである一般言語モデルを構築する一般言語モデル構築部と、
    特定の話題についての文書を指定する情報である話題指定情報に基づいて前記テキストデータ内の文書を指定し、指定された文書の中に出現する各単語のUnigram確率である話題別単語出現確率を計算する話題別単語出現確率計算部と、
    前記話題別単語出現確率と、前記一般言語モデルに格納される各単語のUnigram確率である一般単語出現確率に基づいて、前記一般単語出現確率を前記話題別単語出現確率に補正する値である話題補正情報を各単語について生成する話題補正情報生成部と、
    Nを2以上の整数とし、前記一般言語モデルの各N−gram確率において、N番目の単語に対応する話題補正情報を取得して、取得した話題補正情報を元のN−gram確率に乗算して新たなN−gram確率とし、計算した確率の集合を話題適応言語モデルとして出力する言語モデル補正部と、
    を含む言語モデル適応装置。
  2. 言語モデル適応装置が実行する言語モデル適応方法であって、
    複数の話題を含むテキストデータを用いてN−gram言語モデルである一般言語モデルを構築するステップと、
    特定の話題についての文書を指定する情報である話題指定情報に基づいて前記テキストデータ内の文書を指定し、指定された文書の中に出現する各単語のUnigram確率である話題別単語出現確率を計算するステップと、
    前記話題別単語出現確率と、前記一般言語モデルに格納される各単語のUnigram確率である一般単語出現確率に基づいて、前記一般単語出現確率を前記話題別単語出現確率に補正する値である話題補正情報を各単語について生成するステップと、
    Nを2以上の整数とし、前記一般言語モデルの各N−gram確率において、N番目の単語に対応する話題補正情報を取得して、取得した話題補正情報を元のN−gram確率に乗算して新たなN−gram確率とし、計算した確率の集合を話題適応言語モデルとして出力するステップを、
    を含む言語モデル適応方法。
  3. コンピュータを請求項1に記載の言語モデル適応装置として機能させるプログラム。
JP2015118370A 2015-06-11 2015-06-11 言語モデル適応装置、言語モデル適応方法、プログラム Active JP6353408B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015118370A JP6353408B2 (ja) 2015-06-11 2015-06-11 言語モデル適応装置、言語モデル適応方法、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015118370A JP6353408B2 (ja) 2015-06-11 2015-06-11 言語モデル適応装置、言語モデル適応方法、プログラム

Publications (2)

Publication Number Publication Date
JP2017003812A JP2017003812A (ja) 2017-01-05
JP6353408B2 true JP6353408B2 (ja) 2018-07-04

Family

ID=57754121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015118370A Active JP6353408B2 (ja) 2015-06-11 2015-06-11 言語モデル適応装置、言語モデル適応方法、プログラム

Country Status (1)

Country Link
JP (1) JP6353408B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI718042B (zh) 2019-05-27 2021-02-01 日商Ckd股份有限公司 檢查裝置、包裝薄片製造裝置及包裝薄片製造方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110349568B (zh) * 2019-06-06 2024-05-31 平安科技(深圳)有限公司 语音检索方法、装置、计算机设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5914054B2 (ja) * 2012-03-05 2016-05-11 日本放送協会 言語モデル作成装置、音声認識装置、およびそのプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI718042B (zh) 2019-05-27 2021-02-01 日商Ckd股份有限公司 檢查裝置、包裝薄片製造裝置及包裝薄片製造方法

Also Published As

Publication number Publication date
JP2017003812A (ja) 2017-01-05

Similar Documents

Publication Publication Date Title
US20210256390A1 (en) Computationally efficient neural network architecture search
US9818409B2 (en) Context-dependent modeling of phonemes
JP7129137B2 (ja) 異なる言語にわたる書記素・音素間の変換のための方法、コンピュータ・システム及びコンピュータ・プログラム
CN104573099B (zh) 题目的搜索方法及装置
JP6812381B2 (ja) 音声認識精度劣化要因推定装置、音声認識精度劣化要因推定方法、プログラム
CN107480196B (zh) 一种基于动态融合机制的多模态词汇表示方法
US11748393B2 (en) Creating compact example sets for intent classification
TWI757357B (zh) 加權有限狀態變換器解碼系統及語音辨識系統
US20130138441A1 (en) Method and system for generating search network for voice recognition
JPWO2019163718A1 (ja) 学習装置、音声認識順位推定装置、それらの方法、およびプログラム
CN116686045A (zh) 在没有完整转录本的情况下的端到端口语理解
US11270085B2 (en) Generating method, generating device, and recording medium
JP6353408B2 (ja) 言語モデル適応装置、言語モデル適応方法、プログラム
US9318106B2 (en) Joint sound model generation techniques
US11797769B1 (en) Artificial intelligence system using hybrid technique for task-oriented dialog management
JP6259377B2 (ja) 対話システム評価方法、対話システム評価装置及びプログラム
JP6082657B2 (ja) ポーズ付与モデル選択装置とポーズ付与装置とそれらの方法とプログラム
JP6486789B2 (ja) 音声認識装置、音声認識方法、プログラム
JP6633556B2 (ja) 音響モデル学習装置、音声認識装置、音響モデル学習方法、音声認識方法、およびプログラム
US12026632B2 (en) Response phrase selection device and method
JP6852167B2 (ja) コンフュージョンネットワーク分散表現生成装置、コンフュージョンネットワーク分類装置、コンフュージョンネットワーク分散表現生成方法、コンフュージョンネットワーク分類方法、プログラム
JP5881157B2 (ja) 情報処理装置、およびプログラム
JP2007249050A (ja) 言語モデル作成装置、言語モデル作成方法、そのプログラムおよびその記録媒体
JP6441177B2 (ja) ポーズ長決定装置、ポーズ長決定方法、およびプログラム
JP5980143B2 (ja) ポーズ付与モデル生成装置、ポーズ付与モデル生成方法、ポーズ付与装置、ポーズ付与方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180608

R150 Certificate of patent or registration of utility model

Ref document number: 6353408

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150