JP4400169B2 - 音声認識装置、音声認識方法及びプログラム - Google Patents

音声認識装置、音声認識方法及びプログラム Download PDF

Info

Publication number
JP4400169B2
JP4400169B2 JP2003351501A JP2003351501A JP4400169B2 JP 4400169 B2 JP4400169 B2 JP 4400169B2 JP 2003351501 A JP2003351501 A JP 2003351501A JP 2003351501 A JP2003351501 A JP 2003351501A JP 4400169 B2 JP4400169 B2 JP 4400169B2
Authority
JP
Japan
Prior art keywords
power system
cumulative likelihood
cumulative
likelihood
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003351501A
Other languages
English (en)
Other versions
JP2005115191A (ja
Inventor
浩一 中込
滋 加福
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2003351501A priority Critical patent/JP4400169B2/ja
Publication of JP2005115191A publication Critical patent/JP2005115191A/ja
Application granted granted Critical
Publication of JP4400169B2 publication Critical patent/JP4400169B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、音声認識装置、音声認識方法及びプログラムに関し、特に音声認識の高速化を可能とする音声認識装置、音声認識方法及びプログラムに関する。
近時、人間の音声を機械に認識させるための音声認識の研究が盛んに行われ、部分的には実用化の域に達してきている。音声認識の方法としては、入力音声と、予め与えられた標準パターンと、を比較して、最も類似度の大きいものを選び出し、出力する方法が採用されている。
この標準パターンは、採用する音声認識方法によって異なるものが採用される。例えば、DP(Dynamical Programming;動的計画法)を用いたDTW(Dynamic
Time Warping;時間軸非線形マッチング)と呼ばれる音声認識方法においては、典型的な音声特徴量の時系列を標準パターンとして用いている。また、HMM(Hidden
Markov Model;隠れマルコフモデル)を用いた音声認識方法では、単語毎での状態の遷移確率と、各状態から入力された特徴量を出力する確率(出力確率)と、をパラメータとした標準パターンが用られる。現時、このHMMが、中心的な音声認識方法として広く利用されている。
ところで、この出力確率パラメータの表現方法としては、離散確率分布を用いた表現方法と連続確率分布を用いた表現方法とがある。離散確率分布を用いた表現方法では、予めベクトル量子化された入力音声を用いて音声特徴量から出力確率を求めることにより、出力確率パラメータを表現する。連続確率分布を用いた表現方法では、複数のガウス(正規)分布を重み付きで加算した正規混合連続分布を用いて、出力確率パラメータを表現する。
離散確率分布よりも連続確率分布を用いた表現方法の方が認識精度の点で優れており、多くの音声認識システムでは、連続正規混合分布が採用されている。
一方、音声入力の音声特徴量を抽出する方法は、分析フレームの範囲内でハミング窓のような一定値の窓長を有する時間窓を時系列に一定時間ずつシフトさせて設定し、設定された各時間窓によって順次切り出された分析フレーム内の音声波形からの音声サンプル(N標本数点)をそれぞれ取り出し、時間窓の音声サンプルの音声特徴量を抽出する方法を用いる。
このような音声特徴量は、時間窓毎に順次切り出された所定数の音声サンプルを周波数軸上に変換することによって得られる音声特徴量(以後、これを周波数軸系特徴パラメータと呼ぶ)と、線形PMC(Pulse
Code Modulation;パルス符号化)により量子化された音声振幅の2乗和またはその対数をとることによって得られる音声特徴量(以後、これをパワー系特徴パラメータと呼ぶ)とを組み合わせることによって得られるものである。
例えば、周波数軸系特徴パラメータ12成分(12次元)とパワー系特徴パラメータ1成分(1次元)、及び直前の時間窓の各成分との差分を取ったもの、すなわち△周波数軸系特徴パラメータ12成分(12次元)と△パワー系特徴パラメータ1成分(1次元)の、合計26成分を26次元ベクトル量として特徴量を構成する等が考えられ、30〜40次元の音声特徴ベクトルが音声認識に用いられる(例えば、特許文献1参照)。
特開2001−356790号公報
上述した多次元正規混合確率分布型のHMMを用いた音声認識システムは、確かに認識精度の点では優れているが、HMMの状態の個数、ガウス分布の混合数や特徴ベクトル次元数が増えるに伴って、出力確率パラメータにおける計算量、記憶量等が増加するといった問題点を有している。特に、定数化できない多次元正規混合確率分布を算出するときの共分散行列の計算量が増加する。
このため、多次元正規混合確率分布型のHMMを用いた音声認識システムは、音声の認識速度が遅いといった問題があった。
また、多大な計算量及び記憶量が必要となるため、多次元正規混合確率分布型のHMMを用いた音声認識システムの小型化は、困難であった。
ところで、人間の音声は、全ての区間において、明瞭というわけではなく、「あ、か、さ、た、な」等の単語節を発音したときの発音終了間際や、「こんにちは」等の連続で発音したときの音節と音節との継ぎ目では、明瞭性は失われる。このように明瞭性が失われる部分では、音声の振幅が減衰している。
このような音声の振幅が減衰している区間での音声認識は、出力確率パラメータ等の計算量を増加させて、認識速度を遅くするだけでなく、不明瞭であるが故、認識精度も却って低下していた。
本発明は、上記課題を解決するためになされたものであって、音声認識の高速化を可能とする音声認識装置、音声認識方法及びプログラムを提供することを目的とする。
また、本発明は、小型化が可能な音声認識装置、その音声認識方法及び、該音声認識装置をコンピュータで実現可能にするプログラムを提供することを目的とする。
さらに、本発明は、音声の認識精度を向上させる音声認識装置、音声認識方法及びプログラムを提供することを目的とする。
上記目的を達成するため、本発明の第1の観点に係る音声認識装置は、認識対象となる音声に含まれる各音素をモデル化した音素モデルを格納した音素モデル格納手段と、入力された音声を所定時間窓単位で切り出し、該切り出した時間窓単位の音声から、該音声の振幅に関するパワー系特徴パラメータを含む特徴量を抽出する音声特徴量抽出手段と、前記音声特徴量抽出手段により抽出された特徴量に含まれるパワー系特徴パラメータの変化率を示すパワー系速度特徴パラメータを算出するパワー系速度特徴パラメータ算出手段と、前記パワー系速度特徴パラメータ算出手段により算出されたパワー系速度特徴パラメータが所定の閾値以下であるか否かを判別する第1の判別手段と、前記第1の判別手段により前記パワー系速度特徴パラメータが所定の閾値より大きいと判別された場合、前記音声特徴量抽出手段により抽出された特徴量と前記音素モデル格納手段に格納されている音素モデルとに基づいて、該特徴量が抽出された時間窓での所定状態の出力確率を求め、該求めた出力確率、状態間遷移率及び自己遷移率から状態間遷移の場合での累積尤度と自己遷移の場合での累積尤度とをそれぞれ求め、該求めた累積尤度のうち大きい方の累積尤度を認識候補の累積尤度として算出し、該第1の判別手段により該パワー系速度特徴パラメータが所定の閾値以下であると判別された場合、該特徴量が抽出された時間窓直前の時間窓で求めた出力確率、状態間遷移率及び自己遷移率から状態間遷移の場合での累積尤度と自己遷移の場合での累積尤度とをそれぞれ求め、該求めた累積尤度のうち大きい方の累積尤度を認識候補の累積尤度として算出する累積尤度算出手段と、前記累積尤度算出手段により算出された累積尤度に基づいて、前記入力された音声を認識し、該認識結果を出力する音声認識手段と、を備える。
また、上記音声認識装置は、パワー系速度特徴パラメータ算出手段により算出されたパワー系速度特徴パラメータの変化率を示すパワー系加速度特徴パラメータを算出するパワー系加速度特徴パラメータ算出手段と、前記パワー系加速度特徴パラメータ算出手段により算出されたパワー系加速度特徴パラメータが所定の閾値以上であるか否かを判別する第2の判別手段と、をさらに備え、前記累積尤度算出手段は、前記第2の判別手段により前記パワー系加速度特徴パラメータが所定の閾値より小さいと判別された場合、前記音声特徴量抽出手段により抽出された特徴量と前記音素モデル格納手段に格納されている音素モデルに基づいて、該特徴量が抽出された時間窓での所定状態の出力確率を求め、該求めた出力確率、状態間遷移率及び自己遷移率から状態間遷移の場合での累積尤度と自己遷移の場合での累積尤度とをそれぞれ求め、該求めた累積尤度のうち大きい方の累積尤度を認識候補の累積尤度として算出し、前記第1の判別手段により前記パワー系速度特徴パラメータが所定の閾値以下であると判別され、且つ、該第2の判別手段により該パワー系加速度特徴パラメータが所定の閾値以上であると判別された場合、該特徴量が抽出された時間窓直前の時間窓で求めた出力確率から、状態間遷移率及び自己遷移率から状態間遷移の場合での累積尤度と自己遷移の場合での累積尤度とをそれぞれ求め、該求めた累積尤度のうち大きい方の累積尤度を認識候補の累積尤度として算出してもよい。
さらに、上記音声認識装置において、前記累積尤度算出手段は、前記所定状態の混合ガウス分布を構成する単純正規分布をそれぞれ算出し、該算出した単純正規分布を重み付き和することにより、前記所定状態の出力確率を求めてもよい。
さらに、上記音声認識装置は、前記累積尤度算出手段により算出された累積尤度を格納する累積尤度格納手段と、文法規則を定義したファイルを格納する文法ファイル格納手段と、単語毎の音素パターン系列情報を登録した単語辞書を格納する単語辞書格納手段と、前記文法ファイル格納手段に格納されているファイルに基づいて、前記単語辞書格納手段から取得した単語と、前記累積尤度算出手段により算出された累積尤度と、を対応付けて前記累積尤度格納手段に展開する展開手段と、をさらに備え、音声認識手段は、前記展開手段により展開された累積尤度に基づいて取得した単語を認識結果として出力してもよい。
また、上記目的を達成するため、本発明の第2の観点に係る音声認識方法は、認識対象となる音声に含まれる各音素をモデル化した音素モデルを格納した音素モデル格納手段を備える音声認識装置における音声認識方法であって、入力された音声を所定時間窓単位で切り出し、該切り出した時間窓単位の音声から、該音声の振幅に関するパワー系特徴パラメータを含む特徴量を抽出する音声特徴量抽出工程と、前記音声特徴量抽出工程により抽出された特徴量に含まれるパワー系特徴パラメータの変化率を示すパワー系速度特徴パラメータを算出するパワー系速度特徴パラメータ算出工程と、前記パワー系速度特徴パラメータ算出工程により算出されたパワー系速度特徴パラメータが所定の閾値以下であるか否かを判別する第1の判別工程と、前記第1の判別工程により前記パワー系速度特徴パラメータが所定の閾値より大きいと判別された場合、前記音声特徴量抽出工程により抽出された特徴量と前記音素モデル格納工程に格納されている音素モデルとに基づいて、該特徴量が抽出された時間窓での所定状態の出力確率を求め、該求めた出力確率、状態間遷移率及び自己遷移率から状態間遷移の場合での累積尤度と自己遷移の場合での累積尤度とをそれぞれ求め、該求めた累積尤度のうち大きい方の累積尤度を認識候補の累積尤度として算出し、該第1の判別工程により該パワー系速度特徴パラメータが所定の閾値以下であると判別された場合、該特徴量が抽出された時間窓直前の時間窓で求めた出力確率、状態間遷移率及び自己遷移率から状態間遷移の場合での累積尤度と自己遷移の場合での累積尤度とをそれぞれ求め、該求めた累積尤度のうち大きい方の累積尤度を認識候補の累積尤度として算出する累積尤度算出工程と、前記累積尤度算出工程により算出された累積尤度に基づいて、前記入力された音声を認識し、該認識結果を出力する音声認識工程と、を備える、ことを特徴とする。
さらに、上記目的を達成するため、本発明の第3の観点に係るプログラムは、認識対象となる音声に含まれる各音素をモデル化した音素モデルを格納した音素モデル格納手段を備えるコンピュータを、入力された音声を所定時間窓単位で切り出し、該切り出した時間窓単位の音声から、該音声の振幅に関するパワー系特徴パラメータを含む特徴量を抽出する音声特徴量抽出手段、前記音声特徴量抽出手段により抽出された特徴量に含まれるパワー系特徴パラメータの変化率を示すパワー系速度特徴パラメータを算出するパワー系速度特徴パラメータ算出手段、前記パワー系速度特徴パラメータ算出手段により算出されたパワー系速度特徴パラメータが所定の閾値以下であるか否かを判別する第1の判別手段、前記第1の判別手段により前記パワー系速度特徴パラメータが所定の閾値より大きいと判別された場合、前記音声特徴量抽出手段により抽出された特徴量と前記音素モデル格納手段に格納されている音素モデルとに基づいて、該特徴量が抽出された時間窓での所定状態の出力確率を求め、該求めた出力確率、状態間遷移率及び自己遷移率から状態間遷移の場合での累積尤度と自己遷移の場合での累積尤度とをそれぞれ求め、該求めた累積尤度のうち大きい方の累積尤度を認識候補の累積尤度として算出し、該第1の判別手段により該パワー系速度特徴パラメータが所定の閾値以下であると判別された場合、該特徴量が抽出された時間窓直前の時間窓で求めた出力確率、状態間遷移率及び自己遷移率から状態間遷移の場合での累積尤度と自己遷移の場合での累積尤度とをそれぞれ求め、該求めた累積尤度のうち大きい方の累積尤度を認識候補の累積尤度として算出する累積尤度算出手段、前記累積尤度算出手段により算出された累積尤度に基づいて、前記入力された音声を認識し、該認識結果を出力する音声認識手段、として機能させる。
本発明により、音声認識の高速化を可能とする音声認識装置、音声認識方法及びプログラムを提供することができる。
また、本発明により、小型化が可能な音声認識装置、その音声認識方法及び、該音声認識装置をコンピュータで実現可能にするプログラムを提供することができる。
さらに、本発明により、音声の認識精度を向上させる音声認識装置、音声認識方法及びプログラムを提供することができる。
以下、本発明の実施の形態に係る音声認識装置ついて図面を参照して説明する。
(実施形態1)
図1は、本発明の実施の形態に係る音声認識装置1の構成を示すブロック図である。音声認識装置1は、図1に示すように、音声入力部11と、音声データ格納部12と、時間窓設定部13と、音声特徴量抽出部14と、音声特徴量格納部15と、音素モデル格納部16と、尤度計算部17と、累積尤度格納部18と、文法ファイル格納部19と、単語辞書格納部20と、ノード作成部21と、音声認識部22と、スピーカやディスプレイ等から構成された認識結果出力部23と、から構成されている。
音声入力部11は、例えばマイクロフォン等から構成され、入力された音声データをA/D(Analog / Digital)変換して出力する。
音声データ格納部12は、RAM(Random Access Memory)等から構成され、音声入力部11から出力される音声データを随時バッファリングする。
時間窓設定部13は、入力された音声データに対して設定する時間窓Fの窓長L及び周期S(<L)が予め定められている。時間窓設定部13は、この予め定められた窓長L及び周期Sに従って、時間窓Fを音声特徴量抽出部14に設定する。
より詳細に説明すれば、時間窓設定部13は、予め定められた周期S毎に、音声特徴量の抽出の開始を指示する開始制御信号を音声特徴量抽出部14に出力する。そして、時間窓位置部13は、開始制御信号を出力したタイミングから窓長L後のタイミングに、音声特徴量の抽出の終了を指示する終了指示信号を音声特徴量抽出部14に出力する。
図2は、時間窓設定部13による時間窓Fの設定動作についての説明図である。図2(A)は、入力された音声データの波形図であり、その縦軸は、波形の振幅(エネルギー)の大きさを示している。また、図2(B)には、周期Sずつシフトして設定された時間窓F(t)(t=0,1,…,T)が示されている。なお、tの単位は周期Sである。
例えば図2(B)に示す例では、時間窓設定部13は、時刻t=0に、開始制御信号を出力して音声特徴量抽出部14に音声特徴量の抽出を開始させ、さらに、時刻t=0から窓長L後のタイミングに、終了制御信号を出力して音声特徴量抽出部14に音声特徴量の抽出を終了させる。このようにして、時間窓設定部13は、時間窓F(0)を音声特徴量抽出部14に設定する。
また、時間窓設定部13は、時刻t=0から周期S後のタイミングである時刻t=1に開始制御信号を、時刻t=1から窓長L後のタイミングに終了制御信号を、それぞれ出力して、時間窓F(1)を音声特徴量抽出部14に設定する。時間窓設定部13は、このような時間窓F(t)の設定動作を、入力された音声データの音声区間が終了するまで繰り返す。また、この設定動作によって設定される時間窓F(t)は、周期Sよりも窓長Lのほうが長いことから、隣接する時間窓F(t+1)と(L−S)だけ重複する。
音声特徴量抽出部14は、時間窓設定部13から入力される時間窓Fの開始制御信号及び終了制御信号に応答して、入力音声を分析フレーム内の時間窓Fで切り出し、この切り出した時間窓F内の音声データから音声特徴量x(t)を抽出する。
この音声特徴量x(t)は、周波数軸系特徴パラメータf(D次元ベクトル量)とパワー系特徴パラメータp(1次元ベクトル量)とから構成されている。
周波数軸系特徴パラメータfは、例えば、ケプストラムやメルケプストラムと呼ばれる音声データの周波数に関する特徴量である。周波数軸系特徴パラメータfは、音声データをフーリエ変換、対数変換、メル軸変換等することにより求められた複数の計算結果から構成されるD次元ベクトル量である。
パワー系特徴パラメータpは、音声データの振幅に関する特徴量である。パワー系特徴パラメータPは、例えば、音声データのエネルギー二乗和やその対数を計算することにより求められ、比較的計算量の少ない1次元ベクトル量である。
そして、音声特徴量抽出部14は、以下の数1と数2とに従って、周波数軸系特徴パラメータfの動的特徴を示す速度パラメータ(周波数軸系特徴速度パラメータ)Δf(D元ベクトル量)と、パワー系特徴パラメータpの動的特徴を示す速度パラメータ(パワー系特徴速度パラメータ)△p(1次元ベクトル量)とを算出する。
Figure 0004400169
Figure 0004400169
ここで、Θは考慮する前後の時間窓の数(時間)である。
さらに、音声特徴量抽出部14は、以下の数3に従って、パワー系特徴速度パラメータΔpの動的特徴を示す加速度パラメータ(パワー系特徴加速度パラメータ)ΔΔp(1次元ベクトル量)を算出する。
Figure 0004400169
そして、音声特徴量抽出部14は、抽出した音声特徴量x(t)と、算出した周波数軸系特徴速度パラメータΔf(t)、パワー系特徴速度パラメータΔp(t)及びパワー系特徴加速度パラメータΔΔp(t)と、を音声特徴量格納部15に対応付けて格納する
音声特徴量格納部15は、RAM等から構成され、音声特徴量抽出部14により抽出された各時間窓Fでの音声特徴量x(t)を随時格納する。図3は、音声特徴量格納部15の構成例を示す図である。音声特徴量格納部15は、図3に示すように、時間窓の番号(時刻)tと、周波数軸系特徴パラメータf(t)と、周波数軸系特徴速度パラメータΔf(t)と、パワー系特徴パラメータp(t)と、パワー系特徴速度パラメータΔp(t)と、パワー系特徴加速度パラメータΔΔp(t)と、を対応付けて格納する。
音素モデル格納部16は、ハードディスク装置等から構成され、認識対象となる音声を構成する全ての音素をモデル化した音素モデルを予め格納している。本実施の形態において、音素モデル格納部16は、音素モデルとして、複数の「隠れマルコフモデル(HMM)」を格納している。
HMMは、音声データに含まれている各単語を音素程度の比較的少ない複数の状態によって表したものであり、単語毎の時間的な状態の揺らぎを示す遷移確率と、各状態から入力された音声特徴量を出力する確率(出力確率)と、がパラメータとして与えられている。この出力確率は、所定の重み係数で重み付けされたガウス分布を線形結合の和で表した混合ガウス分布によって表現されるものである。
尤度計算部17は、CPU(Central Processing Unit),RAM,ROM(Read Only Memory)等から構成され、時間窓Fの数を計数する時間窓カウンタを備える。
尤度計算部17は、音声特徴量抽出部14により抽出された各時間窓Fでの音声の特徴量と音素モデル格納部16に格納されている「隠れマルコフモデル(HMM)」とを比較して、いずれのHMMに対応する特徴量が最も高い確率で出力されるかを示す尤度を計算する。なお、本実施の形態においては、音素毎に所定の状態数が予め定められており、例えば、状態数を「3」とした場合、単語「はちのへ」の音素「h・a・ch・i・n・o・h・e」は、それぞれ「h1,
h2, h3」「a1, a2, a3」「ch1, ch2, ch3」…、と表す。
より詳細に説明すると、尤度計算部17は、まず、音声特徴量格納部15から、単位時間窓F(t)の音声特徴量x(t)とパワー系特徴速度パラメータΔp(t)とを読み出す。
次に、尤度計算部17は、音声特徴量格納部15から読み出したパワー系特徴速度パラメータΔp(t)が所定の閾値α以下であるか否かを判別する。
尤度算出部17は、パワー系特徴速度パラメータΔp(t)が所定の閾値αより大きいと判別した場合、以下の数4に従って、状態iの混合ガウス分布を構成するM個の単純正規分布Pm(x(t))(m=1,2,…M)をそれぞれ算出する。
Figure 0004400169
ここで、nは音声特徴量x(t)の次元数であり、μiは状態iの音声特徴量x(t)の平均値(平均ベクトル)である。
続いて、尤度計算部17は、以下の数5に従って、算出したM個の単純正規分布Pm(x)から、時間窓F(t)での状態iの出力確率bi(x(t))を算出する。
Figure 0004400169
ここで、Cmは混合比である。
そして、尤度計算部17は、以下数6と数7とに従って、算出した出力確率bi(x(t))から、状態i−1から状態iに遷移する状態間遷移の場合での累積尤度Lp(i,t)と、状態iから状態iに遷移する自己遷移の場合での累積尤度Ls(i,t)と、を算出する。
Figure 0004400169
Figure 0004400169
ここで、a(i−1,t−1)は、状態i−1から状態iへの状態間遷移率であり、a(i,t−1)は、状態iから状態iへの自己遷移率である。
一方、尤度計算部17は、パワー系特徴速度パラメータ△p(t)が所定の閾値α以下であると判別した場合、出力確率bi(x(t))に代え、前時間窓F(t−1)において算出した出力確率b(i−1)(x(t−1))又はbi(x(t−1))を用いることにより、累積尤度Lp(i,t)と累積尤度Ls(i,t)とを算出する。
このようにして、尤度計算部17は、単純正規分布Pm(x(t))及び出力確率bi(x(t))の計算を省略する。
そして、尤度計算部17は、算出した累積尤度Lp(i,t)と累積尤度Ls(i,t)とのうち、大きい方の累積尤度L(i,t)を累積尤度格納部18に書き込んで、累積尤度格納部18に格納されている累積尤度を更新する。
尤度計算部17は、時間窓F(t)に含まれる全ての状態での出力確率b(x(t))を計算し、その都度、累積尤度格納部18に格納されている累積尤度を更新する。
この後、尤度計算部17は、最終の時間窓F(T)まで、上記の出力確率b(x(t))の計算と累積尤度の更新とを行う。
累積尤度格納部18は、尤度計算部17により算出された累積尤度を格納する。
文法ファイル格納部19は、言語の文法規則を定義したファイルを格納する。
単語辞書格納部20は、言語の単語毎の音素パターン系列情報を登録した単語辞書を格納する。
ノード作成部21は、文法ファイル格納部19に格納されているファイルに基づいて、単語辞書格納部20から取得した候補単語と、尤度計算部17が計算した累積尤度とを対応付けて累積尤度格納部18に展開する。
音声認識部22は、ノード作成部21が累積尤度格納部18に展開した累積尤度に基づいて取得した候補単語を認識結果として認識結果出力部23から出力する。
続いて本発明の第1の実施の形態に係る音声認識装置1による音声認識動作について、図4に示すフローチャートを参照して説明する。
音声認識装置1は、入力された音声データが音声入力部11においてA/D変換された後、音声データ格納部12に格納されたことを契機として、図4のフローチャートに示す音声認識動作を開始する。
まず、時間窓設定部13は、開始制御信号及び終了制御信号を出力して時間窓Fを音声特徴量抽出部14に設定する(ステップS101)。
次に、音声特徴量抽出部14は、時間窓設定部13から入力される時間窓Fの開始制御信号及び終了制御信号に応答して、入力音声を分析フレーム内の時間窓Fで切り出し、この切り出した時間窓F内の音声データから音声特徴量x(t)を抽出する
(ステップS102)。
さらに、音声特徴量抽出部14は、音声特徴量x(t)を構成する周波数軸系特徴パラメータf(t)とパワー系特徴パラメータp(t)とから、周波数軸系特徴速度パラメータΔf(t)、パワー系特徴速度パラメータΔp(t)及びパワー系特徴加速度パラメータΔΔp(t)を算出する(ステップS103)。
そして、音声特徴量抽出部14は、抽出した音声特徴量x(t)と、算出した周波数軸系特徴速度パラメータΔf(t)、パワー系特徴速度パラメータΔp(t)及びパワー系特徴加速度パラメータΔΔp(t)と、を音声特徴量格納部15に対応付けて格納する
(ステップS104)。
続いて、尤度計算部17は、音声特徴量抽出部14により抽出された各時間窓Fでの音声特徴量x(t)と音素モデル格納部16に格納されている「隠れマルコフモデル(HMM)」とを比較して累積尤度を計算する尤度計算処理を実行する(ステップS105)。
そして、ノード作成部21は、文法ファイル格納部19に格納されているファイルに基づいて、単語辞書格納部20から取得した候補単語と、尤度計算部17が計算した累積尤度と、を累積尤度格納部18に対応付けて展開する(ステップS106)。
音声認識部22は、ノード作成部21が累積尤度格納部18に展開した累積尤度に基づいて取得した候補単語を認識結果として認識結果出力部23から出力する(ステップS107)。
続いて、上記ステップS105における尤度計算処理について、図5に示すフローチャートを参照してより詳細に説明する。
まず、尤度計算部17は、音声特徴量格納部15から単位時間窓F(t)の音声特徴量x(t)とパワー系特徴速度パラメータΔp(t)とを読み出す(ステップS201)。
次に、尤度計算部17は、音声特徴量格納部15から読み出したパワー系特徴速度パラメータΔp(t)が所定の閾値α以下であるか否かを判別する(ステップS202)。
パワー系特徴速度パラメータΔp(t)が所定の閾値αより大きいと判別した場合(ステップS202;No)、尤度計算部17は、状態iの混合ガウス分布を構成するM個の単純正規分布Pm(x(t))をそれぞれ算出する(ステップS203)。
続いて、尤度計算部17は、算出したM個の単純正規分布Pm(x)から、時間窓F(t)での状態iの出力確率bi(x(t))を算出する(ステップS204)。
そして、尤度計算部17は、算出した出力確率bi(x(t))から、状態間遷移の場合での累積尤度Lp(i,t)と、自己遷移の場合での累積尤度Ls(i,t)と、を算出し(ステップS205)、その後、ステップS207に進む。
一方、パワー系特徴速度パラメータΔp(t)が所定の閾値以下であると判別した場合(ステップS202;Yes)、尤度計算部17は、出力確率bi(x(t))に代え、前時間窓F(t−1)での出力確率b(i−1)(x(t−1))又はbi(x(t−1))を用いることにより、累積尤度Lp(i,t)と累積尤度Ls(i,t)とを算出する(ステップS206)。
そして、尤度計算部17は、算出した累積尤度Lp(i,t)と累積尤度Ls(i,t)とのうち、大きい方の累積尤度L(i,t)を累積尤度格納部18に書き込んで、累積尤度格納部18に格納されている累積尤度を更新する(ステップS207)。
その後、尤度計算部17は、時間窓F(t)に含まれる全ての状態での出力確率b(x(t))の計算が終了するまで、上記ステップS201からステップS207までの動作を繰り返す。
そして、時間窓F(t)に含まれる全ての状態での出力確率b(x(t))の計算が終了すると(ステップS208;Yes)、尤度計算部17は、時間窓カウンタの値を1インクリメントする(ステップS209)。
その後、尤度計算部17は、最終の時間窓F(T)まで(時間窓カウンタの値がTになるまで)、上記ステップS201からステップS209までの動作を繰り返す。
そして、最終の時間窓F(T)に含まれる全ての状態での出力確率b(x(t))の計算が終了すると(ステップS210;Yes)、尤度計算部17は、図5に示すフローチャートを終了する。
上記説明したように、パワー系特徴速度パラメータΔp(t)が所定の閾値α以下の場合に、尤度計算部17における単純正規分布Pm(x(t))及び出力確率bi(x(t))の計算を省略することにより、音声認識装置1は、音声認識の高速化を実現することができる。
また、このように尤度計算部17における計算量を省略することにより、音声認識装置1の小型化が可能となる。
さらに、パワー系特徴速度パラメータΔp(t)が所定の閾値α以下の場合での尤度の計算、換言すれば音声データの振幅が減少していく部分での尤度計算、を省略することにより、音声の認識精度を高めることができる。
(実施形態2)
続いて、本発明の第2の実施の形態について説明する。なお、音声認識装置の構成及び音声認識動作については、上記第1の実施の形態と同様であるので、その説明を省略し、上記第1の実施の形態と異なるステップS105の尤度計算処理について、図6に示すフローチャートを参照して説明する。
まず、尤度計算部17は、音声特徴量格納部15から単位時間窓F(t)の音声特徴量x(t)とパワー系特徴速度パラメータΔp(t)とパワー系特徴加速度パラメータΔΔp(t)とを読み出す(ステップS311)。
次に、尤度計算部17は、音声特徴量格納部15から読み出したパワー系特徴速度パラメータΔp(t)が所定の閾値α以下であるか否かを判別する(ステップS312)。
続いて、尤度計算部17は、音声特徴量格納部15から読み出したパワー系特徴加速度パラメータΔΔp(t)が所定の閾値β以上であるか否かを判別する(ステップS313)。
パワー系特徴速度パラメータΔp(t)が所定の閾値αより大きいと判別した場合(ステップS312;No)、或いはパワー系特徴加速度パラメータΔΔp(t)が所定の閾値βより小さいと判別した場合(ステップS313;No)、尤度計算部17は、状態iの混合ガウス分布を構成するM個の単純正規分布Pm(x(t))をそれぞれ算出する(ステップS314)。
続いて、尤度計算部17は、算出したM個の単純正規分布Pm(x)から、時間窓F(t)での状態iの出力確率bi(x(t))を算出する(ステップS315)。
そして、尤度計算部17は、算出した出力確率bi(x(t))から、状態間遷移の場合での累積尤度Lp(i,t)と、自己遷移の場合での累積尤度Ls(i,t)と、を算出し(ステップS316)、その後、ステップS318に進む。
一方、パワー系特徴速度パラメータΔp(t)が所定の閾値α以下であり、(ステップS312;Yes)、且つパワー系特徴加速度パラメータΔΔp(t)が所定の閾値β以上であると判別した場合(ステップS313;Yes)、尤度計算部17は、出力確率bi(x(t))に代え、前時間窓F(t−1)での出力確率b(i−1)(x(t−1))又はbi(x(t−1))を用いることにより、累積尤度Lp(i,t)と累積尤度Ls(i,t)とを算出する(ステップS317)。
そして、尤度計算部17は、算出した累積尤度Lp(i,t)と累積尤度Ls(i,t)とのうち、大きい方の累積尤度L(i,t)を累積尤度格納部18に書き込んで、累積尤度格納部18に格納されている累積尤度を更新する(ステップS318)。
その後、尤度計算部17は、時間窓F(t)に含まれる全ての状態での出力確率b(x(t))の計算が終了するまで、上記ステップS311からステップS318までの動作を繰り返す。
そして、時間窓F(t)に含まれる全ての状態での出力確率b(x(t))の計算が終了すると(ステップS319;Yes)、尤度計算部17は、時間窓カウンタの値を1インクリメントする(ステップS320)。
その後、尤度計算部17は、最終の時間窓F(T)まで(時間窓カウンタの値がTになるまで)、上記ステップS311からステップS320までの動作を繰り返す。
そして、最終の時間窓F(T)に含まれる全ての状態での出力確率b(x(t))の計算が終了すると(ステップS321;Yes)、尤度計算部17は、図6に示すフローチャートを終了する。
上記説明したように、パワー系特徴速度パラメータΔp(t)が所定の閾値α以下で、且つパワー系特徴加速度パラメータΔΔp(t)が所定の閾値β以上の場合に、尤度計算部17における単純正規分布Pm(x(t))及び出力確率bi(x(t))の計算を省略することにより、音声認識装置1は、音声認識の高速化を実現することができる。
また、このように尤度計算部17における計算量を省略することにより、音声認識装置1の小型化が可能となる。
さらに、パワー系特徴速度パラメータΔp(t)が所定の閾値α以下で、且つパワー系特徴加速度パラメータΔΔp(t)が所定の閾値β以上の場合での尤度の計算、換言すれば音声データの振幅が減少していく部分での尤度計算、を省略することにより、音声の認識精度を高めることができる。
本発明は、上記実施の形態に限定されず、種々の変形、応用が可能である。以下、本発明に適用可能な上記実施の形態の変形態様について、説明する。
上記実施の形態における音声認識装置1は、専用装置で構成可能であることはもとより、例えば図7に示すように、パーソナルコンピュータなどの汎用コンピュータ装置などをプラットフォームとして実現することができる。
例えば、音声入力部11、認識結果出力部12の機能は、それぞれ汎用コンピュータに接続される、マイクロフォン等の入力インターフェイス31、スピーカ、ディスプレイ等の出力インターフェイス32によって実現できる。
また、音声データ格納部12と音声特徴量格納部15と累積尤度格納部18との機能は、RAM(Random Access Memory)33によって実現され、音素モデル格納部16と文法ファイル格納部19と単語辞書格納部20との機能は、それぞれに対応した領域がHDD(Hard
Disk Drive)34に確保されることによって実現される。音素モデル格納部6が格納する音素モデル、文法ファイル格納部19が格納する文法ファイル及び単語辞書格納部20が格納する単語辞書は、認識処理を行う前に予め外部装置から読み込まれて、HDD34に記憶されたものである。
時間窓設定部13、音声特徴量抽出部14、尤度計算部17、ノード作成部21及び音声認識部22の機能は、CPU(Central Processing Unit)35がROM(Read
Only Memory)36に記憶されたプログラムを実行することによって実現される。
なお、このプログラムは、CD−ROMやDVD−ROM、DVD−RAMなどの他の記録媒体からHDD34にインストールしてもよい。また、HDD34やCD−ROM、DVD−ROM等の記録手段の他に、例えば、Blue−Ray−Disc(R)やAOD(Advanced
Optical Disc)などの青色レーザを用いた次世代光ディスク記憶媒体、赤色レーザを用いるHD−DVD9、青紫色レーザを用いるBlue−Laser−DVD等、今後開発される種々の大容量記憶媒体を用いて本発明を実施することが可能であることはいうまでもない。
また、搬送波に重畳させることで、インターネットなどの通信媒体を介してダウンロードし、インストールしてもよい。さらに、インストールを行わずに、上記の他の記録媒体に記録されたデータを直接読み取りながらプログラムの実行をすることも可能である。
これにより、本発明にかかる音声認識装置は、例えば、携帯型の翻訳装置などとして実現できる他、パーソナルコンピュータやゲーム装置などで動作するアプリケーションとして実現することも可能である。
またさらに、既存の音声認識装置や音声認識アプリケーションなどに、本発明にかかる各処理を実現するためのプログラムを追加すること(例えば、バージョンアップなど)により、音声認識処理を高速化することができる。
本発明の実施の形態に係る音声認識装置の構成を示すブロック図である。 時間窓設定部による時間窓の設定動作についての説明図である。 音声特徴量格納部の構成例を示す図である。 本発明の実施の形態に係る音声認識装置における音声認識動作についてのフローチャートである。 本発明の第1の実施の形態に係る音声認識装置における音声認識動作についてのフローチャートである。 本発明の第2の実施の形態に係る音声認識装置における音声認識動作についてのフローチャートである。 本発明の実施の形態に係る音声認識装置と同様の動作を実行することができるコンピュータのブロック図である。
符号の説明
1…音声認識装置、11…音声入力部、12…音声データ格納部、13…時間窓設定部、14…音声特徴量抽出部、15…音声特徴量格納部、16…音素モデル格納部、17…尤度計算部、18…累積尤度格納部、19…文法ファイル格納部、20…単語辞書格納部、21…ノード作成部、22…音声認識部、23…認識結果出力部

Claims (6)

  1. 認識対象となる音声に含まれる各音素をモデル化した音素モデルを格納した音素モデル格納手段と、
    入力された音声を所定時間窓単位で切り出し、該切り出した時間窓単位の音声から、該音声の振幅に関するパワー系特徴パラメータを含む特徴量を抽出する音声特徴量抽出手段と、
    前記音声特徴量抽出手段により抽出された特徴量に含まれるパワー系特徴パラメータの変化率を示すパワー系速度特徴パラメータを算出するパワー系速度特徴パラメータ算出手段と、
    前記パワー系速度特徴パラメータ算出手段により算出されたパワー系速度特徴パラメータが所定の閾値以下であるか否かを判別する第1の判別手段と、
    前記第1の判別手段により前記パワー系速度特徴パラメータが所定の閾値より大きいと判別された場合、前記音声特徴量抽出手段により抽出された特徴量と前記音素モデル格納手段に格納されている音素モデルとに基づいて、該特徴量が抽出された時間窓での所定状態の出力確率を求め、該求めた出力確率、状態間遷移率及び自己遷移率から状態間遷移の場合での累積尤度と自己遷移の場合での累積尤度とをそれぞれ求め、該求めた累積尤度のうち大きい方の累積尤度を認識候補の累積尤度として算出し、該第1の判別手段により該パワー系速度特徴パラメータが所定の閾値以下であると判別された場合、該特徴量が抽出された時間窓直前の時間窓で求めた出力確率、状態間遷移率及び自己遷移率から状態間遷移の場合での累積尤度と自己遷移の場合での累積尤度とをそれぞれ求め、該求めた累積尤度のうち大きい方の累積尤度を認識候補の累積尤度として算出する累積尤度算出手段と、
    前記累積尤度算出手段により算出された累積尤度に基づいて、前記入力された音声を認識し、該認識結果を出力する音声認識手段と、
    を備える音声認識装置。
  2. パワー系速度特徴パラメータ算出手段により算出されたパワー系速度特徴パラメータの変化率を示すパワー系加速度特徴パラメータを算出するパワー系加速度特徴パラメータ算出手段と、
    前記パワー系加速度特徴パラメータ算出手段により算出されたパワー系加速度特徴パラメータが所定の閾値以上であるか否かを判別する第2の判別手段と、
    をさらに備え、
    前記累積尤度算出手段は、
    前記第2の判別手段により前記パワー系加速度特徴パラメータが所定の閾値より小さいと判別された場合、前記音声特徴量抽出手段により抽出された特徴量と前記音素モデル格納手段に格納されている音素モデルに基づいて、該特徴量が抽出された時間窓での所定状態の出力確率を求め、該求めた出力確率、状態間遷移率及び自己遷移率から状態間遷移の場合での累積尤度と自己遷移の場合での累積尤度とをそれぞれ求め、該求めた累積尤度のうち大きい方の累積尤度を認識候補の累積尤度として算出し、
    前記第1の判別手段により前記パワー系速度特徴パラメータが所定の閾値以下であると判別され、且つ、該第2の判別手段により該パワー系加速度特徴パラメータが所定の閾値以上であると判別された場合、該特徴量が抽出された時間窓直前の時間窓で求めた出力確率から、状態間遷移率及び自己遷移率から状態間遷移の場合での累積尤度と自己遷移の場合での累積尤度とをそれぞれ求め、該求めた累積尤度のうち大きい方の累積尤度を認識候補の累積尤度として算出する、
    ことを特徴とする請求項1に記載の音声認識装置。
  3. 前記累積尤度算出手段は、前記所定状態の混合ガウス分布を構成する単純正規分布をそれぞれ算出し、該算出した単純正規分布を重み付き和することにより、前記所定状態の出力確率を求める、
    ことを特徴とする請求項1又は2に記載の音声認識装置。
  4. 前記累積尤度算出手段により算出された累積尤度を格納する累積尤度格納手段と、
    文法規則を定義したファイルを格納する文法ファイル格納手段と、
    単語毎の音素パターン系列情報を登録した単語辞書を格納する単語辞書格納手段と、
    前記文法ファイル格納手段に格納されているファイルに基づいて、前記単語辞書格納手段から取得した単語と、前記累積尤度算出手段により算出された累積尤度と、を対応付けて前記累積尤度格納手段に展開する展開手段と、
    をさらに備え、
    前記音声認識手段は、前記展開手段により展開された累積尤度に基づいて取得した単語を認識結果として出力する、
    ことを特徴とする請求項1乃至のいずれか1項に記載の音声認識装置。
  5. 認識対象となる音声に含まれる各音素をモデル化した音素モデルを格納した音素モデル格納手段を備える音声認識装置における音声認識方法であって、
    入力された音声を所定時間窓単位で切り出し、該切り出した時間窓単位の音声から、該音声の振幅に関するパワー系特徴パラメータを含む特徴量を抽出する音声特徴量抽出工程と、
    前記音声特徴量抽出工程により抽出された特徴量に含まれるパワー系特徴パラメータの変化率を示すパワー系速度特徴パラメータを算出するパワー系速度特徴パラメータ算出工程と、
    前記パワー系速度特徴パラメータ算出工程により算出されたパワー系速度特徴パラメータが所定の閾値以下であるか否かを判別する第1の判別工程と、
    前記第1の判別工程により前記パワー系速度特徴パラメータが所定の閾値より大きいと判別された場合、前記音声特徴量抽出工程により抽出された特徴量と前記音素モデル格納工程に格納されている音素モデルとに基づいて、該特徴量が抽出された時間窓での所定状態の出力確率を求め、該求めた出力確率、状態間遷移率及び自己遷移率から状態間遷移の場合での累積尤度と自己遷移の場合での累積尤度とをそれぞれ求め、該求めた累積尤度のうち大きい方の累積尤度を認識候補の累積尤度として算出し、該第1の判別工程により該パワー系速度特徴パラメータが所定の閾値以下であると判別された場合、該特徴量が抽出された時間窓直前の時間窓で求めた出力確率、状態間遷移率及び自己遷移率から状態間遷移の場合での累積尤度と自己遷移の場合での累積尤度とをそれぞれ求め、該求めた累積尤度のうち大きい方の累積尤度を認識候補の累積尤度として算出する累積尤度算出工程と、
    前記累積尤度算出工程により算出された累積尤度に基づいて、前記入力された音声を認識し、該認識結果を出力する音声認識工程と、
    を備える、ことを特徴とする音声認識方法。
  6. 認識対象となる音声に含まれる各音素をモデル化した音素モデルを格納した音素モデル格納手段を備えるコンピュータを、
    入力された音声を所定時間窓単位で切り出し、該切り出した時間窓単位の音声から、該音声の振幅に関するパワー系特徴パラメータを含む特徴量を抽出する音声特徴量抽出手段、
    前記音声特徴量抽出手段により抽出された特徴量に含まれるパワー系特徴パラメータの変化率を示すパワー系速度特徴パラメータを算出するパワー系速度特徴パラメータ算出手段、
    前記パワー系速度特徴パラメータ算出手段により算出されたパワー系速度特徴パラメータが所定の閾値以下であるか否かを判別する第1の判別手段、
    前記第1の判別手段により前記パワー系速度特徴パラメータが所定の閾値より大きいと判別された場合、前記音声特徴量抽出手段により抽出された特徴量と前記音素モデル格納手段に格納されている音素モデルとに基づいて、該特徴量が抽出された時間窓での所定状態の出力確率を求め、該求めた出力確率、状態間遷移率及び自己遷移率から状態間遷移の場合での累積尤度と自己遷移の場合での累積尤度とをそれぞれ求め、該求めた累積尤度のうち大きい方の累積尤度を認識候補の累積尤度として算出し、該第1の判別手段により該パワー系速度特徴パラメータが所定の閾値以下であると判別された場合、該特徴量が抽出された時間窓直前の時間窓で求めた出力確率、状態間遷移率及び自己遷移率から状態間遷移の場合での累積尤度と自己遷移の場合での累積尤度とをそれぞれ求め、該求めた累積尤度のうち大きい方の累積尤度を認識候補の累積尤度として算出する累積尤度算出手段、
    前記累積尤度算出手段により算出された累積尤度に基づいて、前記入力された音声を認識し、該認識結果を出力する音声認識手段、
    として機能させるプログラム。
JP2003351501A 2003-10-10 2003-10-10 音声認識装置、音声認識方法及びプログラム Expired - Fee Related JP4400169B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003351501A JP4400169B2 (ja) 2003-10-10 2003-10-10 音声認識装置、音声認識方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003351501A JP4400169B2 (ja) 2003-10-10 2003-10-10 音声認識装置、音声認識方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2005115191A JP2005115191A (ja) 2005-04-28
JP4400169B2 true JP4400169B2 (ja) 2010-01-20

Family

ID=34542722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003351501A Expired - Fee Related JP4400169B2 (ja) 2003-10-10 2003-10-10 音声認識装置、音声認識方法及びプログラム

Country Status (1)

Country Link
JP (1) JP4400169B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7643989B2 (en) * 2003-08-29 2010-01-05 Microsoft Corporation Method and apparatus for vocal tract resonance tracking using nonlinear predictor and target-guided temporal restraint

Also Published As

Publication number Publication date
JP2005115191A (ja) 2005-04-28

Similar Documents

Publication Publication Date Title
US11276390B2 (en) Audio interval detection apparatus, method, and recording medium to eliminate a specified interval that does not represent speech based on a divided phoneme
KR102134201B1 (ko) 숫자 음성 인식에 있어서 음성 복호화 네트워크를 구성하기 위한 방법, 장치, 및 저장 매체
US8290773B2 (en) Information processing apparatus, method and recording medium for generating acoustic model
EP1557822B1 (en) Automatic speech recognition adaptation using user corrections
JP4911034B2 (ja) 音声判別システム、音声判別方法及び音声判別用プログラム
EP1701338B1 (en) Speech recognition method
KR101153078B1 (ko) 음성 분류 및 음성 인식을 위한 은닉 조건부 랜덤 필드모델
JP4322785B2 (ja) 音声認識装置、音声認識方法および音声認識プログラム
JP6011565B2 (ja) 音声検索装置、音声検索方法及びプログラム
CN110706714B (zh) 说话者模型制作系统
JP4515054B2 (ja) 音声認識の方法および音声信号を復号化する方法
KR20100115093A (ko) 음성 검출 장치 및 방법
JP3803029B2 (ja) 音声認識装置
JP5888356B2 (ja) 音声検索装置、音声検索方法及びプログラム
JP6127422B2 (ja) 音声認識装置及び方法、並びに、半導体集積回路装置
JP3919475B2 (ja) 話者特徴抽出装置および話者特徴抽出方法、音声認識装置、並びに、プログラム記録媒体
KR102113879B1 (ko) 참조 데이터베이스를 활용한 화자 음성 인식 방법 및 그 장치
JP4400169B2 (ja) 音声認識装置、音声認識方法及びプログラム
Anand et al. Malayalam Speech Recognition system and its application for visually impaired people
JP4741452B2 (ja) 言語モデル作成装置及び言語モデル作成プログラム並びに音声認識装置及び音声認識プログラム
Ko et al. Eigentriphones for context-dependent acoustic modeling
JP4610451B2 (ja) 音声認識装置及びプログラム
JP6604013B2 (ja) 音声認識装置、音声認識方法及びプログラム
JP2008026721A (ja) 音声認識装置、音声認識方法、および音声認識用プログラム
Blackburn et al. Pseudo-articulatory speech synthesis for recognition using automatic feature extraction from X-ray data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091006

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Ref document number: 4400169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091019

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131106

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees