JP5294086B2 - 重み係数学習システム及び音声認識システム - Google Patents

重み係数学習システム及び音声認識システム Download PDF

Info

Publication number
JP5294086B2
JP5294086B2 JP2009501184A JP2009501184A JP5294086B2 JP 5294086 B2 JP5294086 B2 JP 5294086B2 JP 2009501184 A JP2009501184 A JP 2009501184A JP 2009501184 A JP2009501184 A JP 2009501184A JP 5294086 B2 JP5294086 B2 JP 5294086B2
Authority
JP
Japan
Prior art keywords
score
weighting factor
weighting
updated
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009501184A
Other languages
English (en)
Other versions
JPWO2008105263A1 (ja
Inventor
正 江森
祥史 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2009501184A priority Critical patent/JP5294086B2/ja
Publication of JPWO2008105263A1 publication Critical patent/JPWO2008105263A1/ja
Application granted granted Critical
Publication of JP5294086B2 publication Critical patent/JP5294086B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training

Description

本発明は、音声認識で用いる音響モデルと言語モデルとから得られるスコアの重み係数を学習する重み係数学習システムと、これにより学習された重み係数を用いて音声認識を行う音声認識システムと、これらの方法及びプログラムとに関する。
大語彙連続音声認識は、音響モデルと、言語モデルとを用いて実現されている。音響モデルは、音声と単語の発音に対する音響的な類似度を表すスコア(以後、「音響スコア」と呼ぶ)を計算するためのものである。言語モデルは、単語の繋がりやすさの程度を表すスコア(以後、「言語スコア」と呼ぶ)を計算するためのものである。理想的な場合、これら音響スコアと言語スコアとの比率は、1:1である。
しかし、音響モデルで得られる値は、非特許文献1の93ページに示されるように、正規分布のような確率密度分布で近似され、そこから得られる値を用いて近似されている。また、言語モデルは、非特許文献1の192ページに示されるように、先行N−1単語を条件にしたNグラムで近似されている。
このように、音響モデルと言語モデルとは、共に近似されたモデルを用いていることから、音響スコアと言語スコアとの偏りの整合を取るため、それぞれのスコアに重み係数をかけて実現されている。ここで偏りとは、近似により本来の値よりも大きな値になるなどの現象を指す。音声認識の分野において、これらの重み係数はいくつかの値を用意しておき、テスト用の音声データの認識率を観察しながら、選ぶ方法が取られてきた。このような方法は、音響モデルや言語モデルが1組の場合は問題ないと考えられるが、複数の音響モデルと言語モデルの組や新たなスコアを組み合わせる場合、用意すべきパラメータ数がべき乗のオーダーで大きくなり、計算は不可能であると考える。
このような問題に対し、非特許文献2で示されるように、統計的な機械翻訳の分野において、異なる確率モデルから得られるスコアに対し、最大エントロピー法(以後、「ME法」と称する)を用いて重み係数を調整する方法が知られている。
ME法は、非特許文献3の155〜174ページで述べられているように、制約条件下でエントロピーを最大にする方法であり、未知データに対し一様な分布関数を推定する学習方式である。この方式では、制約条件として最尤推定を用いた場合、推定される分布関数は式(1)で表されるロジスティック関数になることが知られている。

ここで、kはモデルの数(番号)を表す自然数、w、oは出力系列と入力系列であり、非特許文献2では、wを英語の単語系列、oをフランス語の単語系列としている。fk(w,o)は各モデルを用いて計算されるスコアであり、非特許文献2ではf1(w,o)はフランス語の単語から英語の単語が出現する生成確率の対数値、f2(w,o)は英語の単語列の出現する確率値の対数値が用いられている。λkはそれぞれの確率モデルを用いて計算されるスコアの重み係数を表し、正解のwとoの組み合わせにおいて、事後確率P(w|o)が一番大きくなるように最適化される。
ここで、式(1)の分母は、出力系列wの全ての組み合わせについて足し合わせることを示している。しかし、出力系列wを構成する要素数(非特許文献2の場合、英語の単語の語彙数)が大きくなると、それらの組み合わせは大きくなり、式(1)の分母は計算することができない。非特許文献2のような統計的な機械翻訳の分野では、事前知識として連続して出現しない単語の情報を活用することにより、単語列の組み合わせ数を有限に絞るなどの工夫を行うことで対処している。
S. Young(ヤング)、他10名著、「The HTK Book for HTK version 3.3(エイチティーケーブック バージョン3.3)」、Cambridge University Engineering Department、April 2005、pp.1-345 F. J. Och(オーク)、他1名、「Discriminative Training and Maximum Entropy Models for Statistical Machine Translation(統計機械翻訳に対する識別学習と最大エントロピー法)」、Proc. ACL、July 2002、pp.295-302 北著、「言語モデルと計算4:確率的言語モデル」、東京大学出版会、1999年 Lafferty他2著、「Conditional Random Fields: Probabilistic Models for Segmenting and Labeling Sequence Data」In Proc. of ICML, pp. 282-289, 2001
大語彙連続音声認識にME法を適用する場合、式(1)の分母の計算のために全ての単語の組み合わせを計算する場合、語彙数が大きいことに加え、入力系列oに対応する音声の観測時系列の連続量であることから、全ての単語は発声された区間のあらゆる場所に出現することが可能である。このため、同じ単語であっても少しでも出現時刻が違うと同じスコアとはならず、違う単語の組み合わせとして扱うことになるため、その組み合わせは膨大になる。また、膨大な候補から単純に候補を絞った場合、絞られた環境(方法)に依存した重み係数λkが推定されてしまい、本来求めたい重み係数λkに到達しない恐れがある。
本発明の目的は、音響モデルと言語モデルとを用いて計算されるスコアにかかる重み係数を、予め範囲などの事前知識が無くても自動的かつ高速に推定することができ、その重み係数を用いた高精度な音声認識をおこなうシステムを提供することにある。
上記目的を達成するため、本発明に係る重み係数学習システムは、学習音声データを認識しその認識結果を出力する音声認識手段と、音声認識で用いる音響モデルから得られる音響スコアと言語モデルから得られる言語スコアに対し、前記学習音声データの正解テキストを用いて計算される正解のスコアと、前記音声認識手段により出力される認識結果のスコアとの差が大きくなるように前記音響スコア及び前記言語スコアにかかる重み係数をそれぞれ更新する重み係数更新手段と、重み係数が更新された後のスコアを用いて、前記重み係数更新手段に戻り前記重み係数を再更新するか否かを判断する収束判断手段と、前記更新された後のスコアを用いて、前記音声認識手段まで戻りその処理をやり直して前記重み係数更新手段により前記重み係数を更新するか否かを判断する重み係数収束判断手段と、を備えることを特徴とする。
本発明に係る重み係数学習方法は、学習音声データを認識しその認識結果を出力する音声認識ステップと、音声認識で用いる音響モデルから得られる音響スコアと言語モデルから得られる言語スコアに対し、前記学習音声データの正解テキストを用いて計算される正解のスコアと、前記音声認識ステップにより出力される認識結果のスコアとの差が大きくなるように前記音響スコア及び前記言語スコアにかかる重み係数をそれぞれ更新する重み係数更新ステップと、重み係数が更新された後のスコアを用いて、前記重み係数更新ステップに戻り前記重み係数を再更新するか否かを判断する収束判断ステップと、前記更新された後のスコアを用いて、前記音声認識ステップまで戻りその処理をやり直して前記重み係数更新ステップにより前記重み係数を更新するか否かを判断する重み係数収束判断ステップと、を備えることを特徴とする。
本発明に係る重み係数学習プログラムは、コンピュータに、学習音声データを認識しその認識結果を出力する音声認識処理と、音声認識で用いる音響モデルから得られる音響スコアと言語モデルから得られる言語スコアに対し、前記学習音声データの正解テキストを用いて計算される正解のスコアと、前記音声認識処理により出力される認識結果のスコアとの差が大きくなるように前記音響スコア及び前記言語スコアにかかる重み係数をそれぞれ更新する重み係数更新処理と、重み係数が更新された後のスコアを用いて、前記重み係数更新処理に戻り前記重み係数を再更新するか否かを判断する収束判断処理と、前記更新された後のスコアを用いて、前記音声認識処理まで戻りその処理をやり直して前記重み係数更新処理により前記重み係数を更新するか否かを判断する重み係数収束判断処理と、を実行させるためのものである。
本発明に係る音声認識システムは、上記の重み係数学習システムにより更新された重み係数を用いて音声認識を行うことを特徴とする。
本発明に係る音声認識方法は、上記の重み係数学習方法により更新された重み係数を用いて音声認識を行うことを特徴とする。
本発明に係る音声認識方法は、コンピュータに、上記の重み係数学習プログラムにより更新された重み係数を用いて音声認識を行う音声認識処理を実行させるためのものである。
本発明によれば、音声認識のための音響モデルと言語モデルとを用いて計算されるスコアにかかる重み係数を、予め範囲などの事前知識が無くても自動的かつ高速に推定することができる。そして、その重み係数を用いた高精度な音声認識をおこなうことができる。
本発明の第1の実施形態に係る重み係数学習システムの構成を示すブロック図である。 音声認識手段の認識結果として出力される単語グラフを説明するための図である。 候補絞込み手段が単語グラフから候補を絞り込むためのアルゴリズムであるA*サーチを説明するための図である。 本発明の第1の実施形態に係る重み係数学習システムの動作を説明するフローチャートである。 本発明の第2の実施形態に係る音声認識システムの構成を示すブロック図である。
符号の説明
001 重み係数学習手段
100 学習音声データ
101 音声認識手段
102 音響モデル・言語モデル
103 候補絞込み手段
104 スコア計算手段
105 スコア期待値計算手段
106 重み係数更新手段
107 目的関数計算手段
108 収束判断手段
109 重み係数収束判断手段
110 正解テキスト
次に、本発明に係る重み係数学習システム及び音声認識システムを実施するための最良の形態について、図面を参照して詳細に説明する。
(第1の実施形態)
図1を用いて、音声認識における音響スコアと言語スコアの重み係数学習システムの構成要素について説明する。
図1を参照すると、本発明の第1の実施形態に係る重み係数学習システムは、例えばコンピュータシステムを用いて構成されるもので、重み係数学習手段001と、学習音声データ100と、言語モデル・音響モデル102と、正解テキスト110とを備えている。
重み係数学習手段001は、音声認識手段101と、候補絞り込み手段103と、スコア計算手段104と、スコア期待値計算手段105と、重み係数更新手段106と、目的関数計算手段107と、収束判断手段108と、重み係数収束判断手段109とを有している。これら各手段は、一例としてコンピュータによるソフトウェアの処理により実現される。この場合、各手段の処理は、個別のプログラムで実現しても、OS(オペレーションシステム)等の他のプログラムと連携して実現してもいずれでもよく、その機能を実現可能なものであればよい。
学習音声データ100は、重み係数の値を推定するための音声データで、例えばサンプリング周波数を44.1kHz、1サンプルあたり16ビットでA/D(Analog to Digital)変換されたものである。この学習音声データ100は、例えばハードディスク装置やメモリ等の記憶装置に記憶され、本システムを構成するコンピュータによりアクセス可能となっている。
正解テキスト110は、学習音声100の発声内容を書き起こしたテキストデータである。この正解テキスト110は、例えばハードディスク装置やメモリ等の記憶装置に記憶され、本システムを構成するコンピュータによりアクセス可能となっている。
音響モデル・言語モデル102は、音声認識に用いる音響モデルと言語モデルである。この音響モデル・言語モデル102は、例えばハードディスク装置やメモリ等の記憶装置に記憶され、本システムを構成するコンピュータによりアクセス可能となっている。
このうち、音響モデルは、音声の音響的特長を表現した確率モデルであり、例えば非特許文献1の35ページから40ページに書かれている、前後の音素コンテキストを考慮したトライフォンを音素として持つHMM(Hidden Marcov Model:隠れマルコフモデル)が広く使われている。
以下、音響モデルの学習について述べる。
先ず、音声の音響的特長は、非特許文献1の54ページから64ページに記載されているような、音声データを10msec程度の一定区間を切り出し、プリエンファシス、FFT、フィルタバンクの処理を行った後、コサイン変換を行うことで抽出される。抽出された特徴量に加え、パワーや、前後の時刻の差分を用いることもできる。抽出された特徴とそれに対応する書き起こしテキストを用いて得られたラベルデータを用い、非特許文献1の127ページから130ページに記載されているフォワード・バックワード確率を計算することで、特徴とラベルデータとを対応付ける。
ここで、ラベルデータとしては、前述のトライフォンなどが考えられる。例えば、「わたくし」と書き起こされた場合、ラベルデータは、「*-w+a w-a+t a-t+a t-a+k a-k+u k-u+s u-s+i s-i+*」のようになる。対応付けられた特徴量とラベルデータとを用いて、音素やさらに細かい状態単位などの区間毎に分布関数のパラメータを計算する。分布関数として正規分布が用いられることが多いが、この場合は、パラメータ特徴量の平均と分散である。
言語モデルは、非特許文献3の57ページから62ページに記載されているように、言語モデルをNグラムによる近似で表し、その学習方法は主に最尤推定によって行われる。Nグラムは、言語モデルのモデル化の手法で、履歴のN−1単語を条件としたN個目の単語の出現確率(条件付き確率)を用いて、全単語の出現確率を近似する方法である。出現確率は、最尤推定によると学習コーパスの単語列の頻度を数えることによって計算することができる。例えば、「私」の後に「は」が出現する確率を表すP(は|私)は、「私」「は」が同時に出現する同時確率P(私,は)と、「私」が出現する確率P(私)とを用いて、P(は|私)=P(私,は)/P(私)と計算することができる。
音声認識手段101は、学習音声100と音響モデルと言語モデルを用いて、前述のフォワード・バックワード確率の対数値を音響スコアとし、Nグラムの対数値を言語スコアとして、両者の和が最も大きいものを認識候補として出力する。出力の形式は、非特許文献1の334〜338に掲載されている単語グラフが用いられることが多い。
図2を用いて、単語グラフについて説明する。
図2の左図におけるI1〜I5は、単語の始端時刻と終端時刻を定義する点であり、始端時刻を表すものを始端ノード、終端時刻を表すものを終端ノードと呼ぶ。図2の左図にて、単語は、a、b、c、d、e、f、gとしてあらわされており、単語の先頭時刻である始端ノードから単語の終端時刻である終端ノードを結ぶ実線として図示されている。これを単語アークと呼ぶ。始終端ノードの表す時刻がその単語が認識候補として現れた時刻を示す。単語グラフは、図2の左図を右図のように書き下したもので、各始端終端ノード(I1〜I5)を用いて単語アークを記述する。記述された単語アークごとに、単語、音響尤度などの情報が記述されている。
候補絞込み手段103は、音声認識手段101が出力した認識結果である、単語グラフを用いてスコアの高い順にM個の認識候補を選択し、それぞれの認識候補の音響スコアと言語スコア、単語数などの情報を出力する。選択の方法は、例えば、A*サーチ(Aスターサーチ)が使われる。
ここで、図2と図3を用いて、候補絞込み手段103によるA*サーチについて動作を説明する。
A*サーチでは、スタックと呼ばれる単語情報を記憶する手段が用意されている。ここで、単語情報とは、単語グラフ上の単語(a〜h)とその経路情報および経路のスコアをさす。経路情報とは、単語グラフの終端であるI5のノードに接続する単語、例えばeから、先頭までたどったときに通過した単語e→c→aのような経路を表す情報である。
経路のスコアは、この実施例の場合、音響スコアと言語スコアの和とする。経路スコアは、前向きスコアと後ろ向きスコアの和からなる。前向きスコアとは、始端からある単語にたどり着くまでに足された音響スコアと言語スコアの和とし、後ろ向きスコアとは、終端からある単語スコアにたどり着くまでに足された音響スコアと言語スコアの和とする。例えば、単語aにおける経路スコアを計算する場合、前向きスコアは0で、後ろ向きスコアは単語e、cもしくはg、f、cか、g、dの3通りの経路のいずれかの音響スコアと言語スコアの和として定義される。
次に、図3を参照して、A*サーチの動作の詳細を説明する。
図3において、Step0では、初期状態として、特に単語の意味を成さない仮の終端(終端)がスタックにつまれている。終端は、図2の単語e、gに繋がっているとする。
次いで、Step1では、スタックの先頭を取り出す。ここで、一旦スタックは空になる。次の動作として、終端に繋がる単語e、gをスタックに積む。そのとき、各単語に終端から接続されたとする経路情報と、経路のスコアを付加する。
次いで、Step2−1では、スタックを経路のスコアでソートする。図の場合、gが先頭に来たとしている。
次いで、Step3−1では、スタックの先頭の単語gを取り出す。このとき一旦、スタックは単語アークeだけになる。単語アークgに繋がる単語f、d、hをスタックに積む。このとき、f、d、hの経路情報として、「g←終端」のように、終端からgを経て到達したことを示す経路情報を付加する。更に、経路スコアを付加する。
次いで、Step2−2、Step3−2では、上記と同様なことを繰り返す。Step2−3の処理が終了後に先頭に来ている単語の前に新たな単語が無い場合(単語aのように)、第1位候補として、単語で表されていた単語g、d、aを認識結果として出力する。
以後、Step2−n、Step3−n(nは整数)を繰り返し行い、スタックの先頭に来た単語アークの接続先が無い場合、認識結果として単語列を出力する動作を行うことで、第M位候補となる単語列を認識結果として出力することができる。
スコア計算手段104は、学習音声データ100と正解テキスト110を用いて、後述する式(2)における
を計算する。
ここで、k=1の場合は音響スコアで、k=2の場合は言語スコアとし、oiはi番目の学習音声データ、wiはi番目の学習音声データに対応する単語系列である。ここで計算される音響スコアは、個々の学習音声データとその単語系列セットoiとwiを用いて得られる、前述のフォワード・バックワード確率の対数値である。同様に言語スコアは、単語系列のNグラム確率の対数値である。
スコア期待値計算手段105は、候補絞込み手段103によって絞られた認識候補と、音響スコアと、言語スコアとを用いて、

を計算する。
ここで、p(w|oi)は、学習音声データoiと任意の単語列wの事後確率で、式(1)で計算することができる。ただし、式(1)の分母は、単語列wを全ての組み合わせについて計算する必要があるが、スコア期待値計算手段105では、候補絞込み手段103で選択されたM個の候補のみについて計算する。
重み係数更新手段106は、音響モデルと言語モデルとから得られるスコアに対し、学習音声データ100の正解テキスト110を用いて計算される正解のスコアと、音声認識手段101により出力される認識結果のスコアとの差が大きくなるようにスコアにかかる重み係数を更新する。具体的には、下記の式(2)を用いて、各モデルのスコアの重み係数を更新する。

ここで、式(2)の
は、スコア計算手段104で計算される値であり、

は、スコア期待値計算手段105によって計算される値である。ηは予め適当に設定された値とする。例えば、η=0.1程度に設定しておくものとする。
目的関数計算手段107は、スコア期待値計算手段105で計算された事後確率p(w|o)のうち、学習音声データoに対応する単語系列wに当たるものを積算する。
収束判断手段108は、目的関数計算手段107により積算された事後確率に対し、1回前の更新時に計算された値からの変化量が、ある一定の閾値以下の場合、更新終了の判断を行う。一方、閾値よりも大きい場合、再度候補選択手段103に戻って処理を続ける。ここで変化量は、前回からの差分を今回の値で割ったものであるとする。
重み係数収束判断手段109は、重み係数更新手段106により更新された重み係数の値に対し、1回前の更新時で得られた値との差分の比率が閾値以下になった場合、終了の判断を行う。また、閾値よりも大きい場合、再度、音声認識手段101に戻り処理を繰り返すことを判断する。
次に、図4を参照して、本実施形態の重み係数学習手段001の動作を説明する。
まず、音声認識手段101の処理を実行する(ステップSt11)。この処理では、音響モデル・言語モデル102を用いて学習音声データ100の認識を行う。この場合、音響モデルと言語モデルのそれぞれの重み係数λ1、λ2は、初期値として任意の値を用いるが、理想的な場合を想定し、λ1=1、λ2=1とする。認識を行った後に、認識結果を図2に示される形式の単語グラフを出力する。
次いで、単語絞込み手段103の処理を実行する(ステップSt12)。この処理では、単語グラフをA*サーチを用いて探索を行い、M個の単語列候補と、それに付随する音響スコア、言語スコアとを出力する。
次いで、スコア計算手段104の処理を実行する(ステップSt13)。この処理では、学習音声データ100と正解テキスト110を用いて、式(2)における
を計算する。これは、全ての学習音声データ100に対して行われるとする。
次いで、スコア期待値計算手段105の処理を実行する(ステップSt14)。この処理では、M個の単語列候補と音響スコアと言語スコアを用いて、

を計算する。これは、全ての学習音声データ100に対して計算されるとする。すなわち、学習音声データ数×M回の計算が行われる。
次いで、重み係数更新手段106の処理を実行する(ステップSt15)。この処理では、η=0.1としてスコア計算手段104で計算された
と、スコア期待値計算手段105で計算された

とを、式(2)へ適用し、重み係数λkを更新する。
次いで、目的関数計算手段107の処理を実行する(ステップSt16)。この処理では、式(1)と、単語列候補、および正解テキスト110を用いて各学習音声データの事後確率を計算し、それらを積算する。
次いで、収束判断手段108の処理を実行する(ステップSt17)。この処理では、積算された事後確率に対し、変化率がある一定の閾値、たとえば1.0−4以下であるか否かを判断する。その結果、閾値よりも大きい場合(NO)は、候補絞込み手段103の処理(ステップSt12)に戻る。この場合、候補絞込み手段103は、重み係数更新手段106で更新された重み係数の値を用いて候補を絞り込む。一方、閾値以下の場合(YES)は、収束したものとして次段の重み係数収束判断手段109に処理を進める。
次いで、重み係数収束判断手段109の処理を実行する(ステップSt18)。この処理では、更新された重み係数の変化率がある一定の閾値以下であるか否かを判断する。その結果、閾値よりも大きい場合(NO)は、音声認識手段101の処理(ステップSt11)に戻る。この場合、音声認識手段101は、重み係数の値を更新して、再度認識処理を行う。一方、閾値以下の場合(YES)は、収束したものとして終了の判断を行う。
従って、本実施形態によれば、音響モデルや言語モデルなどから計算されるスコアにかかる重み係数の調整において、自動的にそれらの最適な値を調整することができる重み係数学習システムを提供することができる。
すなわち、本実施形態では、各モデルにより計算されるスコアの重み係数の計算において、任意の初期値から推定を始めても、最適値を推定することができる。このため、それらの重み係数の値を用いることで高精度な音声認識が可能になる。
その理由は、次のとおりである。式(1)を最大にする場合、正確に分母の計算を行う必要があるが、全ての単語などの出力系列の組み合わせを計算する代わりに、自動的にその組み合わせの選別を行い、その選別された中で最適値を計算する。そのことにより、初期値よりも適した重み係数の値(準最適値と呼ぶ)が推定されることになる。そしてさらに、この準最適値を用いて更に認識処理などを行い、候補を選別し直すことで、より推定に適した選別が行われることになる。その中で最適値を再度推定することで、前回の準最適値よりもより適当な値になっていることが期待できる。
なお、上記実施形態では、スコア期待値計算手段105において、計算される値

の計算方法として、候補絞込み手段103で選択されたM個の候補を用いて計算する方法をあげたが、その他の例として、非特許文献4で記述されているフォワード・バックワードアルゴリズムを用いることで、単語グラフから直接計算することも可能である。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本実施形態は、第1の実施形態における音響スコアと言語スコアの重み係数学習システムを用いた音声認識システムに適用したものである。
図5を参照すると、本実施形態の音声認識システムは、重み係数学習手段001と、学習音声データ100と、音響モデル・言語モデル102と、音声認識手段103とを有している。それぞれの構成は、第1の実施形態と同様である(音声認識手段103は、重み係数学習手段001内の音声認識手段101の構成と同様である)。
次に、本実施形態における動作を説明する。
まず、重み係数学習手段001により、前述したように、学習音声データ100と、音響モデル・言語モデル102とを用いて、音響スコアと言語スコアにかかる重み係数λ1、λ2を推定する。
次いで、音声認識手段103により、音響モデル・言語モデル102を用いて、学習音声データ100とは別の認識対象となる音声データの認識を行う。認識の際に、前述と同様の音響スコアと言語スコアが計算されるが、それにかかる重み係数は、重み係数学習手段001が推定した値λ1、λ2を用いる。
従って、本実施形態によれば、音響モデルや言語モデルなどから計算されるスコアにかかる重み係数の調整において、自動的にそれらの最適な値を調整することができる重み係数学習システムを用いることにより、調整された重み係数を用いた高精度な音声認識システムを提供することができる。
(変形例)
以上、本発明の実施形態を詳細に説明したが、本発明は、代表的に例示した上述の実施形態に限定されるものではなく、当業者であれば、特許請求の範囲の記載内容に基づき、本発明の要旨を逸脱しない範囲内で種々の態様に変形、変更することができる。これらの変形例や変更例も本発明の権利範囲に属するものである。
例えば、前記の実施形態では、音響モデルと言語モデルの重み係数の推定について記述したが、モデルの数は2つに限らず、複数の音響モデルや複数の言語モデルでも同様の処理でそれぞれのモデルで得られるスコアにかかる重み係数を推定することが可能である。その場合、式(1)や式(2)のkがモデルの数に応じて増えていくことになる。また、音響スコアや言語スコアだけに限らず、任意のスコアが導入されても、それにかかる重み係数を設定した上で適用が可能である。
候補絞込み手段103は、M個の認識候補の決め方として、Mが予め定められた一定値にする場合が考えられる。また、同様にM個の決め方として、音響スコアや言語スコア、更に音響スコアと言語スコアの和が閾値よりも大きいものだけを選択することもできる。また、Mの決め方として、音響スコアや言語スコア、または音響スコアと言語スコアの和が1位候補のそれとの差分や比率が閾値以上のものを選択することができる。
スコア期待値計算手段105は、M個の候補を用いて期待値を計算する方法だけではなく、単語グラフを用いて期待値を計算する方法に置き換えることも可能である。
収束判断手段108は、重み係数が更新される前のスコアと、重み係数が更新された後のスコアとの差分、および、当該差分を更新される前のスコアで割った変化率が、予め定められた閾値よりも大きい場合に、重み係数更新手段108に戻り処理するようにしてもよい。
また、収束判断手段108は、積算された事後確率の値だけでなく、重み係数更新手段108により更新された重み係数の値を用いて収束の判断を行ってもよい。
例えば、収束判断手段108は、重み係数が更新される前と更新された後との重み係数の差分、および、当該差分を更新される前の値で割った重み係数の変化率が、予め定められた閾値よりも大きい場合に、重み係数更新手段108に戻り処理するようにしてもよい。
重み係数収束判断手段109は、重み係数が更新される前と更新された後との重み係数の差分、および、当該差分を更新される前の値で割った重み係数の変化率が、予め定められた閾値よりも大きい場合に、音声認識手段101に戻り処理するようにしてもよい。
また、重み係数収束判断手段109は、重み係数の値だけではなく、目的関数計算手段107によって計算された積算された事後確率を用いて収束の判断をしてもよい。
例えば、重み係数収束判断手段109は、重み係数が更新される前のスコアと、更新された後のスコアとの差分、および、当該差分を更新される前のスコアで割った変化率が、予め定められた閾値よりも大きい場合に、音声認識手段101に戻り処理するようにしてもよい。
また、上記の重み係数学習システムと音声認識システムは、そのハードウェア及びソフトウェア構成は特に限定されるものではなく、上述した各手段の機能を実現可能なものであれば、いずれのものでも適用可能である。例えば、各部の機能毎に回路を独立させて構成したものでも、複数の機能を1つの回路にまとめて一体に構成したものでも、いずれのものであってもよい。或いは、全ての機能を主にソフトウェアの処理で実現するものでもあってもよい。
また、上記の重み係数学習システムと、音声認識システムとを構成する各手段の少なくとも一部の機能を、プログラムコードを用いて実現する場合、かかるプログラムコード及びこれを記録する記録媒体は、本発明の範疇に含まれる。この場合、OS(Operating System)やアプリケーションソフト等の他のソフトウェアと連携して上記機能が実現される場合は、それらのプログラムコードも含まれる。記録媒体には、コンピュータ内に配置されるROM(Read Only Memory)等のメモリやハードディスクのほか、CD−ROM(Compact Disk Read Only Memory)、DVD−ROM(Digital Versatile Disk Read Only Memory)等のディスク型記録媒体や、磁気テープ等のテープ型記録媒体、或いは持ち運び可能なIC(Integrated Circuit)メモリ等の可搬型記録媒体も含まれる。また、他の実施形態としては、インターネット等の通信ネットワークを介して、サーバ等の他のコンピュータ機の記録媒体上に格納されたプログラムコードをダウンロードしたりする態様も含まれる。
この出願は、2007年2月28日に出願された日本出願特願2007−049975号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明によれば、音声認識を行う音声認識装置や、音声認識装置をコンピュータに実現させるためのプログラムといった用途に適用できる。

Claims (22)

  1. 学習音声データを認識しその認識結果を出力する音声認識手段と、
    音声認識で用いる音響モデルから得られる音響スコアと言語モデルから得られる言語スコアに対し、前記学習音声データの正解テキストを用いて計算される正解のスコアと、前記音声認識手段により出力される認識結果のスコアとの差が大きくなるように前記音響スコア及び前記言語スコアにかかる重み係数をそれぞれ更新する重み係数更新手段と、
    重み係数が更新された後のスコアを用いて、前記重み係数更新手段に戻り前記重み係数を再更新するか否かを判断する収束判断手段と、
    前記更新された後のスコアを用いて、前記音声認識手段まで戻りその処理をやり直して前記重み係数更新手段により前記重み係数を更新するか否かを判断する重み係数収束判断手段と、
    を備えることを特徴とする重み係数学習システム。
  2. 前記認識結果は、単語グラフであることを特徴とする、請求項1記載の重み係数学習システム。
  3. 前記認識結果は、音響スコアと言語スコアとの和のうち、和の大きいものから予め定められた数の単語列であることを特徴とする、請求項1記載の重み係数学習システム。
  4. 前記認識結果は、音響スコアと、言語スコアと、それらの和とが、予め定められた閾値より大きい単語列であることを特徴とする、請求項1記載の重み係数学習システム。
  5. 前記認識結果は、音響スコアと、言語スコアと、それらの和とが、1番大きなスコアからの差分が、予め定められた閾値より小さい単語列であることを特徴とする、請求項1記載の重み係数学習システム。
  6. 前記収束判断手段は、前記重み係数が更新される前のスコアと、前記重み係数が更新された後のスコアとの差分、および、当該差分を更新される前のスコアで割った変化率が、予め定められた閾値よりも大きい場合に、前記重み係数更新手段に戻り処理することを特徴とする、請求項1乃至5のいずれか1項に記載の重み係数学習システム。
  7. 前記収束判断手段は、前記重み係数が更新される前と更新された後との前記重み係数の差分、および、当該差分を更新される前の値で割った前記重み係数の変化率が、予め定められた閾値よりも大きい場合に、前記重み係数更新手段に戻り処理することを特徴とする、請求項1乃至5のいずれか1項に記載の重み係数学習システム。
  8. 前記重み係数収束判断手段は、前記重み係数が更新される前のスコアと、更新された後のスコアとの差分、および、当該差分を更新される前のスコアで割った変化率が、予め定められた閾値よりも大きい場合に、前記音声認識手段に戻り処理することを特徴とする、請求項1乃至7のいずれか1項に記載の重み係数学習システム。
  9. 前記重み係数収束判断手段は、前記重み係数が更新される前と更新された後との前記重み係数の差分、および、当該差分を更新される前の値で割った前記重み係数の変化率が、予め定められた閾値よりも大きい場合に、前記音声認識手段に戻り処理することを特徴とする、請求項1乃至7のいずれか1項に記載の重み係数学習システム。
  10. 学習音声データを認識しその認識結果を出力する音声認識ステップと、
    音声認識で用いる音響モデルから得られる音響スコアと言語モデルから得られる言語スコアに対し、前記学習音声データの正解テキストを用いて計算される正解のスコアと、前記音声認識ステップにより出力される認識結果のスコアとの差が大きくなるように前記音響スコア及び前記言語スコアにかかる重み係数をそれぞれ更新する重み係数更新ステップと、
    重み係数が更新された後のスコアを用いて、前記重み係数更新ステップに戻り前記重み係数を再更新するか否かを判断する収束判断ステップと、
    前記更新された後のスコアを用いて、前記音声認識ステップまで戻りその処理をやり直して前記重み係数更新ステップにより前記重み係数を更新するか否かを判断する重み係数収束判断ステップと、
    を備えることを特徴とする重み係数学習方法。
  11. 前記認識結果は、単語グラフであることを特徴とする、請求項10記載の重み係数学習方法。
  12. 前記認識結果は、音響スコアと言語スコアとの和のうち、和の大きいものから予め定められた数の単語列であることを特徴とする、請求項10記載の重み係数学習方法。
  13. 前記認識結果は、音響スコアと、言語スコアと、それらの和とが、予め定められた閾値より大きい単語列であることを特徴とする、請求項10記載の重み係数学習方法。
  14. 前記認識結果は、音響スコアと、言語スコアと、それらの和とが、1番大きなスコアからの差分が、予め定められた閾値より小さい単語列であることを特徴とする、請求項10記載の重み係数学習方法。
  15. 前記収束判断ステップは、前記重み係数が更新される前のスコアと、前記重み係数が更新された後のスコアとの差分、および、当該差分を更新される前のスコアで割った変化率が、予め定められた閾値よりも大きい場合に、前記重み係数更新ステップに戻り処理することを特徴とする、請求項10乃至14のいずれか1項に記載の重み係数学習方法。
  16. 前記収束判断ステップは、前記重み係数が更新される前と更新された後との前記重み係数の差分、および、当該差分を更新される前の値で割った前記重み係数の変化率が、予め定められた閾値よりも大きい場合に、前記重み係数更新ステップに戻り処理することを特徴とする、請求項10乃至14のいずれか1項に記載の重み係数学習方法。
  17. 前記重み係数収束判断ステップは、前記重み係数が更新される前のスコアと、更新された後のスコアとの差分、および、当該差分を更新される前のスコアで割った変化率が、予め定められた閾値よりも大きい場合に、前記音声認識ステップに戻り処理することを特徴とする、請求項10乃至16のいずれか1項に記載の重み係数学習方法。
  18. 前記重み係数収束判断ステップは、前記重み係数が更新される前と更新された後との前記重み係数の差分、および、当該差分を更新される前の値で割った前記重み係数の変化率が、予め定められた閾値よりも大きい場合に、前記音声認識ステップに戻り処理することを特徴とする、請求項10乃至16のいずれか1項に記載の重み係数学習方法。
  19. コンピュータに、
    学習音声データを認識しその認識結果を出力する音声認識処理と、
    音声認識で用いる音響モデルから得られる音響スコアと言語モデルから得られる言語スコアに対し、前記学習音声データの正解テキストを用いて計算される正解のスコアと、前記音声認識処理により出力される認識結果のスコアとの差が大きくなるように前記音響スコア及び前記言語スコアにかかる重み係数をそれぞれ更新する重み係数更新処理と、
    重み係数が更新された後のスコアを用いて、前記重み係数更新処理に戻り前記重み係数を再更新するか否かを判断する収束判断処理と、
    前記更新された後のスコアを用いて、前記音声認識処理まで戻りその処理をやり直して前記重み係数更新処理により前記重み係数を更新するか否かを判断する重み係数収束判断処理と、
    を実行させるための重み係数学習プログラム。
  20. 請求項1乃至9のいずれか1項に記載の重み係数学習システムにより更新された重み係数を用いて音声認識を行うことを特徴とする音声認識システム。
  21. 請求項10乃至18のいずれか1項に記載の重み係数学習方法により更新された重み係数を用いて音声認識を行うことを特徴とする音声認識方法。
  22. コンピュータに、請求項19に記載の重み係数学習プログラムにより更新された重み係数を用いて音声認識を行う音声認識処理を実行させるための音声認識プログラム。
JP2009501184A 2007-02-28 2008-02-19 重み係数学習システム及び音声認識システム Expired - Fee Related JP5294086B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009501184A JP5294086B2 (ja) 2007-02-28 2008-02-19 重み係数学習システム及び音声認識システム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2007049975 2007-02-28
JP2007049975 2007-02-28
PCT/JP2008/052721 WO2008105263A1 (ja) 2007-02-28 2008-02-19 重み係数学習システム及び音声認識システム
JP2009501184A JP5294086B2 (ja) 2007-02-28 2008-02-19 重み係数学習システム及び音声認識システム

Publications (2)

Publication Number Publication Date
JPWO2008105263A1 JPWO2008105263A1 (ja) 2010-06-03
JP5294086B2 true JP5294086B2 (ja) 2013-09-18

Family

ID=39721099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009501184A Expired - Fee Related JP5294086B2 (ja) 2007-02-28 2008-02-19 重み係数学習システム及び音声認識システム

Country Status (4)

Country Link
US (1) US8494847B2 (ja)
EP (1) EP2133868A4 (ja)
JP (1) JP5294086B2 (ja)
WO (1) WO2008105263A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101390433B1 (ko) * 2009-03-31 2014-04-29 후아웨이 테크놀러지 컴퍼니 리미티드 신호 잡음 제거 방법, 신호 잡음 제거 장치, 및 오디오 디코딩 시스템
KR101250897B1 (ko) * 2009-08-14 2013-04-04 한국전자통신연구원 전자사전에서 음성인식을 이용한 단어 탐색 장치 및 그 방법
US20110313762A1 (en) * 2010-06-20 2011-12-22 International Business Machines Corporation Speech output with confidence indication
JP5861649B2 (ja) * 2011-02-03 2016-02-16 日本電気株式会社 モデル適応化装置、モデル適応化方法およびモデル適応化用プログラム
US8688454B2 (en) * 2011-07-06 2014-04-01 Sri International Method and apparatus for adapting a language model in response to error correction
US9117194B2 (en) 2011-12-06 2015-08-25 Nuance Communications, Inc. Method and apparatus for operating a frequently asked questions (FAQ)-based system
US9015097B2 (en) * 2012-12-19 2015-04-21 Nuance Communications, Inc. System and method for learning answers to frequently asked questions from a semi-structured data source
US9064001B2 (en) 2013-03-15 2015-06-23 Nuance Communications, Inc. Method and apparatus for a frequently-asked questions portal workflow
US10395555B2 (en) * 2015-03-30 2019-08-27 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for providing optimal braille output based on spoken and sign language
EP3282447B1 (en) * 2015-03-31 2020-08-26 Sony Corporation PROGRESSIVE UTTERANCE ANALYSIS FOR SUCCESSIVELY DISPLAYING EARLY SUGGESTIONS BASED ON PARTIAL SEMANTIC PARSES FOR VOICE CONTROL. 
REAL TIME PROGRESSIVE SEMANTIC UTTERANCE ANALYSIS FOR VISUALIZATION AND ACTIONS CONTROL.
CN111583906B (zh) * 2019-02-18 2023-08-15 中国移动通信有限公司研究院 一种语音会话的角色识别方法、装置及终端
CN110853669B (zh) * 2019-11-08 2023-05-16 腾讯科技(深圳)有限公司 音频识别方法、装置及设备
CN112185363B (zh) * 2020-10-21 2024-02-13 北京猿力未来科技有限公司 音频处理方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981182A (ja) * 1995-09-11 1997-03-28 Atr Onsei Honyaku Tsushin Kenkyusho:Kk 隠れマルコフモデルの学習装置及び音声認識装置
JP2002278578A (ja) * 2001-02-13 2002-09-27 Koninkl Philips Electronics Nv 音声認識システム、学習装置、及び、最大エントロピー音声モデルのフリーパラメータの反復値計算方法
JP2006113570A (ja) * 2004-10-15 2006-04-27 Microsoft Corp 音声分類および音声認識のための隠れ条件付確率場モデル
JP2007017548A (ja) * 2005-07-05 2007-01-25 Advanced Telecommunication Research Institute International 音声認識結果の検証装置及びコンピュータプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2126380C (en) * 1993-07-22 1998-07-07 Wu Chou Minimum error rate training of combined string models
US5710866A (en) * 1995-05-26 1998-01-20 Microsoft Corporation System and method for speech recognition using dynamically adjusted confidence measure
JPH09258786A (ja) 1996-03-21 1997-10-03 Fuji Xerox Co Ltd 調整機能を有する音声認識装置
JPH09274498A (ja) 1996-04-04 1997-10-21 Fuji Xerox Co Ltd 音声認識装置
US5819220A (en) * 1996-09-30 1998-10-06 Hewlett-Packard Company Web triggered word set boosting for speech interfaces to the world wide web
US6490555B1 (en) * 1997-03-14 2002-12-03 Scansoft, Inc. Discriminatively trained mixture models in continuous speech recognition
JP3088357B2 (ja) * 1997-09-08 2000-09-18 株式会社エイ・ティ・アール音声翻訳通信研究所 不特定話者音響モデル生成装置及び音声認識装置
JP2000352993A (ja) * 1999-06-14 2000-12-19 Oki Electric Ind Co Ltd 音声認識システム及びヒドン・マルコフ・モデルの学習方法
US6865528B1 (en) * 2000-06-01 2005-03-08 Microsoft Corporation Use of a unified language model
US6671669B1 (en) * 2000-07-18 2003-12-30 Qualcomm Incorporated combined engine system and method for voice recognition
US6754625B2 (en) * 2000-12-26 2004-06-22 International Business Machines Corporation Augmentation of alternate word lists by acoustic confusability criterion
US7395205B2 (en) * 2001-02-13 2008-07-01 International Business Machines Corporation Dynamic language model mixtures with history-based buckets
JP4100243B2 (ja) * 2003-05-06 2008-06-11 日本電気株式会社 映像情報を用いた音声認識装置及び方法
JP3772274B1 (ja) 2005-08-15 2006-05-10 幹夫 葛生 ジャムの製造方法
US8898052B2 (en) * 2006-05-22 2014-11-25 Facebook, Inc. Systems and methods for training statistical speech translation systems from speech utilizing a universal speech recognizer
US7716049B2 (en) * 2006-06-30 2010-05-11 Nokia Corporation Method, apparatus and computer program product for providing adaptive language model scaling
US20080154600A1 (en) * 2006-12-21 2008-06-26 Nokia Corporation System, Method, Apparatus and Computer Program Product for Providing Dynamic Vocabulary Prediction for Speech Recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981182A (ja) * 1995-09-11 1997-03-28 Atr Onsei Honyaku Tsushin Kenkyusho:Kk 隠れマルコフモデルの学習装置及び音声認識装置
JP2002278578A (ja) * 2001-02-13 2002-09-27 Koninkl Philips Electronics Nv 音声認識システム、学習装置、及び、最大エントロピー音声モデルのフリーパラメータの反復値計算方法
JP2006113570A (ja) * 2004-10-15 2006-04-27 Microsoft Corp 音声分類および音声認識のための隠れ条件付確率場モデル
JP2007017548A (ja) * 2005-07-05 2007-01-25 Advanced Telecommunication Research Institute International 音声認識結果の検証装置及びコンピュータプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6013007574; Brian Roark, et al.: '"Discriminative Language Modeling with Conditional Random Fields and the Perceptron Algorithm"' Proceedings of the 42nd Annual Meeting of the Association for Computational Linguistics(ACL-04) , 200407 *

Also Published As

Publication number Publication date
EP2133868A4 (en) 2013-01-16
US20100094629A1 (en) 2010-04-15
US8494847B2 (en) 2013-07-23
EP2133868A1 (en) 2009-12-16
WO2008105263A1 (ja) 2008-09-04
JPWO2008105263A1 (ja) 2010-06-03

Similar Documents

Publication Publication Date Title
JP5294086B2 (ja) 重み係数学習システム及び音声認識システム
JP6637078B2 (ja) 音響モデル学習装置、音響モデル学習方法及びプログラム
JP5212910B2 (ja) 音声認識装置、音声認識方法、および音声認識用プログラム
JP4860265B2 (ja) テキスト処理方法/プログラム/プログラム記録媒体/装置
JP3933750B2 (ja) 連続密度ヒドンマルコフモデルを用いた音声認識方法及び装置
KR100612840B1 (ko) 모델 변이 기반의 화자 클러스터링 방법, 화자 적응 방법및 이들을 이용한 음성 인식 장치
KR100397402B1 (ko) 음성인식방법,정보형성방법,음성인식장치및기록매체
JP5418223B2 (ja) 音声分類装置、音声分類方法、および音声分類用プログラム
JP5177561B2 (ja) 認識器重み学習装置および音声認識装置、ならびに、システム
US20160180839A1 (en) Voice retrieval apparatus, voice retrieval method, and non-transitory recording medium
US20100100379A1 (en) Voice recognition correlation rule learning system, voice recognition correlation rule learning program, and voice recognition correlation rule learning method
JP2007047818A (ja) 最適化された部分的確率混合共通化を用いる音声認識のための方法および装置
WO2002101719A1 (en) Voice recognition apparatus and voice recognition method
JP2003076392A (ja) 単語予測方法、音声認識方法、その方法を用いた音声認識装置及びプログラム
JP3919475B2 (ja) 話者特徴抽出装置および話者特徴抽出方法、音声認識装置、並びに、プログラム記録媒体
JP6027754B2 (ja) 適応化装置、音声認識装置、およびそのプログラム
JP4659541B2 (ja) 音声認識装置及び音声認識プログラム
JP3920749B2 (ja) 音声認識用音響モデル作成方法、その装置、そのプログラムおよびその記録媒体、上記音響モデルを用いる音声認識装置
JP4964194B2 (ja) 音声認識モデル作成装置とその方法、音声認識装置とその方法、プログラムとその記録媒体
JP5980142B2 (ja) 学習データ選択装置、識別的音声認識精度推定装置、学習データ選択方法、識別的音声認識精度推定方法、プログラム
JP5914119B2 (ja) 音響モデル性能評価装置とその方法とプログラム
JP4741452B2 (ja) 言語モデル作成装置及び言語モデル作成プログラム並びに音声認識装置及び音声認識プログラム
JP5161174B2 (ja) 経路探索装置、音声認識装置、これらの方法及びプログラム
JP4705535B2 (ja) 音響モデル作成装置及び音声認識装置並びに音響モデル作成プログラム
JP5385810B2 (ja) 線形分類モデルに基づく音響モデルパラメータ学習方法とその装置、音素重み付き有限状態変換器生成方法とその装置、それらのプログラム

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20101020

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20101020

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130530

R150 Certificate of patent or registration of utility model

Ref document number: 5294086

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees