JP2004012584A - 音声認識用情報作成方法、音響モデル作成方法、音声認識方法、音声合成用情報作成方法、音声合成方法及びそれらの装置、並びにプログラム及びそのプログラムを記録した記録媒体 - Google Patents
音声認識用情報作成方法、音響モデル作成方法、音声認識方法、音声合成用情報作成方法、音声合成方法及びそれらの装置、並びにプログラム及びそのプログラムを記録した記録媒体 Download PDFInfo
- Publication number
- JP2004012584A JP2004012584A JP2002162815A JP2002162815A JP2004012584A JP 2004012584 A JP2004012584 A JP 2004012584A JP 2002162815 A JP2002162815 A JP 2002162815A JP 2002162815 A JP2002162815 A JP 2002162815A JP 2004012584 A JP2004012584 A JP 2004012584A
- Authority
- JP
- Japan
- Prior art keywords
- hmm
- hidden markov
- sequence
- markov model
- mel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
【解決手段】HMMを用いた音声合成系のパラメータとして入力音声を短時間フーリエ変換し、基本周波数の影響を除去してSTRAIGHTスペクトルを生成し、STRAIGHTスペクトルの対数変換、周波数伸縮離散コサイン変換によりSTRAIGHTメルケプストラムに変換する。STRAIGHTメルケプストラムのパラメータとその学習テキストに基づいてHMMを学習し、このHMMを用いて音声認識を行い、音声合成時には、学習されたHMMを用いてテキストから音声を合成する。
【選択図】図3
Description
【発明の属する技術分野】
本発明は、音声認識用情報作成方法、音響モデル作成方法、音声認識方法、音声合成用情報作成方法、音声合成方法、及びそれらの装置、並びにプログラム、そのプログラムを記録した記録媒体に関する。
【0002】
【従来の技術】
従来のヒドンマルコフモデル(HMM)を用いる音声合成手法として、(文献[1] K.Tokuda, T.Kobayashi and S.Imai, ”Speech parameter generation from HMM using dynamic features” Proc. ICASSP, pp.660−663, 1995),(文献[2] K.Tokuda, T.Masuko and T.Yamada, T.Kobayashi and S. Imai, ”An algorithm for speech parameter generation from continuous mixture HMMs with dynamicfeatures” Proc. Eurospeech, pp.757−760, 1995),(文献[3] T.Masuko, K.Tokuda, T.Kobayashi and S.Imai, ”Speech synthesis from HMMs using dynamic features” Proc. ICASSP, pp.389−392, 1996)があげられる。
この手法は、音声認識におけるパラメータと音声合成におけるパラメータに同一のものを用いることで、音声認識で用いられる手法を音声合成に用いて音声合成手法を高機能化したり、音声合成で用いられる手法を音声認識に用いて認識手法を高精度化したりできるという利点を持っている。
【0003】
図1、図2に従来のヒドンマルコフモデル(HMM)による音響モデル学習・音声認識装置、及び音声合成装置の構成を示す。
まず、図1を用いて音声認識モデル学習法と音声認識手法について説明する。
メルケプストラム分析部101では入力された音声をメルケプストラムに変換する。ヒドンマルコフモデル(HMM)の学習時には、このメルケプストラムを音響モデル学習部102に送る。メルケプストラムパラメータと入力音声の学習テキスト(例えば、日本語文、言語的情報の付与された音素系列、または単語系列)からヒドンマルコフモデル(例えば、音素、または単語ヒドンマルコフモデル)を学習する。(すなわち、最大確率(最大尤度)を与えるモデルを選ぶ。)次に学習したモデルを記憶部103に記憶する。認識時には、入力音声のメルケプストラムパラメータを音声認識部104に送り、音響モデル学習部で学習されたヒドンマルコフモデル(HMM)をHMM記憶部103から読み出して比較し、尤度が最大のものを出力することで、テキストに変換する。
【0004】
次に図2を用いて、ヒドンマルコフモデル(HMM)を用いてテキストから音声を作り出す音声合成方式について説明する。
HMM記憶部105に記憶しているヒドンマルコフモデル(HMM)は予め大量のデータより、上述の学習手法を学習しているものとする。まず、構文解析部110では、入力されたテキストを、言語的情報の付与された音素(または単語)系列に変換する。この音素(または単語)情報により音素(または単語)ヒドンマルコフモデル(HMM)が接続され、入力のテキストに対するヒドンマルコフモデル(HMM)の系列を生成する。平滑化パラメータ生成部109で、ヒドンマルコフモデル(HMM)状態系列から自然で滑らかなメルケプストラム系列を出力する。この滑らかなメルケプストラム系列を、音声合成部106では各時刻でMLSAフィルタ108に変換し、音源情報を元にパルス/ノイズ系列生成部107によって生成される信号をこのフィルタを通すことで音声を合成する。なお、音源情報は処理対象となるテキスト列から得られ、ピッチ情報、パワー情報などを含む。
【0005】
【発明が解決しようとする課題】
従来の手法では、メルケプストラムが、音声の包絡スペクトルの微細な構造を表現できず、合成音声の品質が十分でないという問題点があった。また、メルケプストラムを合成する際に用いられる逆メル変換と指数変換を近似するMLSA(Mel Log Spectral Approximation)フィルタは複雑で、例えばサンプリング周波数を変更するということに問題点があった。
音声合成で利用されるSTRAIGHTスペクトルを用いるSTRAIGHT合成系は、高品質に音声を合成できることが知られている。そこで、このパラメータをヒドンマルコフモデル(HMM)を用いた音声合成手法に導入すれば音声合成の品質が向上することが期待できる。しかし、このパラメータは、音声認識には直接利用できないため、ヒドンマルコフモデル(HMM)の学習ができない。たとえ、音声認識に利用できるメルケプストラムなどのパラメータに変換できて、HMMが学習できたとしても、合成音を作成する際に、HMMから生成されるメルケプストラムを使って音声を合成する手段がなかった。このため、HMMを用いた音声合成にはSTRAIGHT合成系を導入するということが実現できなかった。
【0006】
本発明はかかる事情に鑑みて、ヒドンマルコフモデル(HMM)を使った音声合成系に、STRAIGHT合成系を導入し、STRAIGHTメルケプストラムというパラメータに変換する手段と、合成時に作成されるSTRAIGHTメルケプストラムをSTRAIGHTスペクトルに変換する手段を用いることで、認識と合成のパラメータを同一にし、従来のヒドンマルコフモデル(HMM)を用いた合成法が持っていた利点をそのまま残しながら、高品質な合成音声システムを簡単な構成で実現できる新たな技術の提供を目的とする。
【0007】
また、本発明は、ヒドンマルコフモデル(HMM)を用いた音声合成系のパラメータとして、短時間フーリエ変換したスペクトルを対数変換し、離散コサイン変換して求めることができるメルケプストラムを使い、音声認識におけるパラメータとテキストからの音声合成におけるパラメータとで同一のものを用いることで、従来のヒドンマルコフモデル(HMM)を用いた合成法が持っていた利点をそのまま残しながら、高品質な合成音声システムを簡単な構成で実現できる新たな技術の提供を目的とする。
【0008】
【課題を解決するための手段】
本発明では、ヒドンマルコフモデル(HMM)を用いた音声合成に、基本周波数の影響を除去してスペクトラム形状を求める高品質なSTRAIGHT音声合成系を導入することで音声合成の品質向上を実現する。これを実現するために、まず、STRAIGHTスペクトルを音声認識で高性能を実現するSTRAIGHTメルケプストラムに変換する。このメルケプストラム変換は、STRAIGHTスペクトルの対数変換をとり、その結果に対して周波数伸縮離散コサイン変換を行う手段を用いて実行する。これらの手段によりSTRAIGHTスペクトルを音声認識で利用できる形に変形できる。このため、音声認識のパラメータと音声合成のパラメータの統一を実現でき、HMMによる音声合成が持つ利点を保つことができる。このパラメータを用いて音素(または単語)ヒドンマルコフモデル(HMM)を学習する手段と、学習された音素(または単語)ヒドンマルコフモデル(HMM)を用いて音声を認識する手段により、音響モデルの学習と音声認識を実現する。音声合成時には、学習されたヒドンマルコフモデル(HMM)の音素(または単語)系列から自然で滑らかなSTRAIGHTメルケプストラム系列を出力する手段を用いる。さらに、このSTRAIGHTメルケプストラム系列を、逆周波数伸縮離散コサイン変換し、さらに指数変換する手段を用い、STRAIGHTスペクトル系列に変換する。これらの手段によりSTRAIGHTメルケプストラムを音声合成で利用できる形に変形することができる。このため、音声認識のパラメータと音声合成のパラメータの統一を実現でき、HMMによる音声合成が持つ利点を保つことができる。これらの手段によって生成されたSTRAIGHTスペクトル系列とパルス/ノイズ系列生成手段により合成されたパルス/ノイズ系列から、逆FFT重ね合わせ合成する手段により音声を合成する。
【0009】
上記のSTRAIGHTスペクトル生成手段の代わりに短時間フーリエ変換によるスペクトル生成手段を用いてもよい。この場合は、メルケプストラム系列は、短時間フーリエ変換から求められるスペクトラムの対数変換を、周波数伸縮離散コサイン変換したものとなる。このパラメータを使っても、上記音響モデル学習手段、音声認識手段により、ヒドンマルコフモデル(HMM)の学習とヒドンマルコフモデル(HMM)を用いる音声認識も実現できる。合成時は、滑らかなパラメータ生成もできる。この生成された滑らかなパラメータを逆周波数伸縮離散コサイン変換し、指数変換を実行する手段を用いて、スペクトルに変換する。その後、このスペクトル系列とパルス/ノイズ系列生成手段により合成されたパルス/ノイズ系列から、逆FFT重ね合わせ合成する手段により音声を合成する。
以上のような手段により、STRAIGHTパラメータの持つ高品質な合成品質を、ヒドンマルコフモデル(HMM)を用いる音声合成に導入でき、音声合成の品質向上が実現する。
【0010】
【発明の実施の形態】
(音声認識用情報作成・音響モデル作成・音声認識)
図3、図4に音声認識用情報作成・音響モデル作成・音声認識装置の構成を示す。
まず、図3を用いて音声認識用情報作成方法、音響モデル作成方法、音声認識方法、及びそれらの装置について説明する。
音声認識用情報作成部10のSTRAIGHT分析部11において、短時間フーリエ変換部13は、入力された音声を短時間フーリエ変換する。それと同時に、基本周波数推定部12で入力音声の無声/有声の判定を行い、有声の場合は基本周波数を計算(推定)する。その情報を元に、平滑化スペクトラム分析部14は、短時間フーリエ変換された音声から基本周波数の影響を取り除き、平滑化されたスペクトラムに変換する。この変換されたスペクトルをSTRAIGHTスペクトルと呼ぶ。次に、対数変換部15は、STRAIGHTスペクトルの対数変換を行い、周波数伸縮離散コサイン変換部16により、STRAIGHTメルケプストラムに変換する。
【0011】
音響モデルの学習時には、このSTRAIGHTメルケプストラムを音響モデル学習部20に送る。音響モデル学習部20では、STRAIGHTメルケプストラムとそれに対応するテキスト(学習テキスト)から音素(または単語)ヒドンマルコフモデル(HMM)を学習する。次に学習した音素(または単語)ヒドンマルコフモデル(HMM)を記憶部30に記憶する。
認識時には、STRAIGHTメルケプストラムパラメータを、音声認識部40に送り、音響モデル学習部で学習され、記憶部30に保持されたヒドンマルコフモデル(HMM)と比較し、尤度の最も高い値を示すテキストを出力する。これにより音声認識を実現する。
上記の手法で、STRAIGHTスペクトル生成時に、基本周波数推定を行わなくてもよい。このときの音声認識モデル学習法と音声認識手法を図4を用いて説明する。この場合に生成されるメルケプストラム系列は、短時間フーリエ変換から求められるスペクトラムを直接対数変換して周波数伸縮離散コサイン変換したものである。このメルケプストラム系列を使って、上記のようにヒドンマルコフモデル(HMM)の学習を実現することもできる。さらに、ヒドンマルコフモデル(HMM)から滑らかなパラメータを生成することもできる。
【0012】
(音声合成)
図5に音声合成装置の構成を示す。
図5を用いて、テキストから音声を作り出す音声合成方法、及び装置について説明する。
HMM記憶部63に記憶しているヒドンマルコフモデル(HMM)は予め大量のデータより、上記の学習手法により作成する。音声合成用情報生成部60では、まず、入力されたテキストを、構文解析部62により、言語的情報の付与された音素(または単語)系列に変換する。平滑化パラメータ生成部61では、この音素(または単語)情報により音素(または単語)ヒドンマルコフモデル(HMM)が接続され、入力のテキストに対する音素(または単語)ヒドンマルコフモデル(HMM)の系列が生成される。入力が音素系列である場合は、構文解析部では構文解析を行わず、その音素情報からヒドンマルコフモデル(HMM)をつなぎ合わせて、入力に対する音素(または単語)ヒドンマルコフモデル(HMM)を作成する。また、入力がヒドンマルコフモデル(HMM)の状態系列である場合は、音素(または単語)ヒドンマルコフモデル(HMM)系列の代わりに、ヒドンマルコフモデル(HMM)の状態系列を作成する。平滑化パラメータ生成部では、さらに、音素(または単語)ヒドンマルコフモデル(HMM)系列から自然で滑らかなSTRAIGHTメルケプストラム系列を出力する。このSTRAIGHTメルケプストラム系列が音声合成部50に入力される。音声合成部50の逆周波数伸縮離散コサイン変換部55では、このSTRAIGHTメルケプストラム系列を逆周波数伸縮離散コサイン変換し、さらに、指数変換部54において指数変換することで、STRAIGHTスペクトル系列に変換し、STRAIGHTスペクトル系列とパルス/ノイズ生成部52によって生成された信号から逆FFT重ね合わせ合成部53により音声を合成する。
上記の手法で、音声認識用情報作成部で、基本周波数推定部を使わない場合には、このヒドンマルコフモデル(HMM)から生成された滑らかなパラメータを逆周波数伸縮離散コサイン変換し、さらに指数変換することで、スペクトルに変換する。その後、このスペクトル系列とパルス/ノイズ生成部によって生成されたパルス/ノイズ列から逆FFT重ね合わせ合成により音声を合成する。
各構成部について詳細に説明する。
【0013】
(STRAIGHT分析部)
STRAIGHT分析部11では、短時間フーリエ変換部13において、入力された音声を短時間フーリエ変換する。それと同時に、基本周波数推定部12は、入力音声の無声/有声の判定を行い、有声の場合は、基本周波数を計算する。その情報を元に、平滑化スペクトラム分析部14において、短時間フーリエ変換された音声から基本周波数の影響を取り除き、平滑化したスペクトラムに変換する。この変換されたスペクトルをSTRAIGHTスペクトルと呼ぶ。このSTRAIGHTスペクトルは次に周波数伸縮離散コサイン変換部16へ送られる。
【0014】
(周波数伸縮離散コサイン変換部)
周波数伸縮離散コサイン変換部16では入力されたSTRAIGHTスペクトルの対数変換を行い、その結果に対して周波数伸縮離散コサイン変換を行う。この変換の核の関数は、
【数1】
と定義されるフィルタの周波数応答の実数部である。Re[Ψm(ω)]の実部は{ω|0≦ω≦π}の時、正規化直交変換になる。αは、周波数伸縮の度合いを決定する係数である。その伸縮の度合いは、
【数2】
という式によって求めることができる。αが0のときには、Re[Ψm(ω)]=cos(mω)となり、離散コサイン変換となる。αが0と1の間では、Re[Ψm(ω)]は直交性を保存する重みつき関数による
【数3】
以上の変換でSTRAIGHTスペクトルはSTRAIGHTメルケプストラムに変換される。
【0015】
(音響モデル学習部)
音響モデル学習時には、このSTRAIGHTメルケプストラムを、音響モデル学習部20へ入力する。音響モデル学習部20では、入力されたSTRAIGHTメルケプストラムを使って、EM(expectation−maximization)アルゴリズムにより音素(または単語)ヒドンマルコフモデル(HMM)の学習を行う。上記の手法では、STRAIGHTスペクトル生成時に基本周波数推定を行わなくてもよい。この場合は、メルスペクトラム系列は、短時間フーリエ変換から求められるスペクトラムの対数変換を、周波数伸縮離散コサイン変換したものである。このメルケプストラム系列を使っても、上記のようにヒドンマルコフモデル(HMM)の学習ができる。さらに、ヒドンマルコフモデル(HMM)による音声認識も実現できる。
【0016】
(音声合成)
音響モデル学習部で作成されたヒドンマルコフモデル(HMM)を用いた音声合成は以下のように実現する。まず、入力されたテキストは、構文解析部62により、言語的情報の付与された音素(または単語)系列に変換される。この音素(または単語)情報により音素(または単語)ヒドンマルコフモデル(HMM)が接続され、入力のテキストに対する音素(または単語)ヒドンマルコフモデル(HMM)の系列が生成される。入力が音素系列である場合は、構文解析部では構文解析を行わず、その音素情報からヒドンマルコフモデル(HMM)をつなぎ合わせて、入力に対する音素(または単語)ヒドンマルコフモデル(HMM)系列を作成する。また、入力がヒドンマルコフモデル(HMM)の状態系列である場合には、音素(または単語)ヒドンマルコフモデル(HMM)系列の代わりに、ヒドンマルコフモデル(HMM)の状態系列を作成する。平滑化パラメータ生成部61は、音素(または単語)ヒドンマルコフモデル(HMM)系列から自然で滑らかなメルケプストラムパラメータ系列を出力する。この滑らかにする手法について以下に述べる。
【0017】
上で述べた学習によって、ヒドンマルコフモデル(HMM)が学習されているとする。ここで、S=[s1,s2,・・・,sT]は、ヒドンマルコフモデル(HMM)のガウス分布時系列、M=[μ1,μ2,・・・,μT]、ΔM=[Δμ1,Δμ2,・・・,ΔμT]、Δ2M=[Δ2μ1,Δ2μ2,・・・,Δ2μT]は、そのガウス分布時系列でのヒドンマルコフモデル(HMM)のSTRAIGHTメルケプストラム、その微分係数であるΔSTRAIGHTメルケプストラム、2次微分係数Δ2STRAIGHTメルケプストラムの平均値のベクトル時系列である。また、Σ=[Σ1,Σ2,・・・,ΣT]、ΔΣ=[ΔΣ1,ΔΣ2,・・・,ΔΣT]、Δ2Σ=[Δ2Σ1,Δ2Σ2,・・・,Δ2ΣT]は、ヒドンマルコフモデル(HMM)のSTRAIGHTメルケプストラム、ΔSTRAIGHTメルケプストラム、Δ2STRAIGHTメルケプストラム共分散行列の時系列である(対角共分散行列を仮定している)。ところで、STRAIGHTメルケプストラムC=[c1,c2,・・・,cT]、ΔSTRAIGHTメルケプストラムΔC=[Δc1,Δc2,・・・,ΔcT]、Δ2STRAIGHTメルケプストラムΔ2C=[Δ2c1,Δ2c2,・・・,Δ2cT]の間には(3),(4)に示すような拘束条件がある(拘束条件にはこの他にも複数考えられるがどれを使っても同様なことが実現できる)。
【数4】
ここで、2L+1はウィンドウサイズ、b0,b1とb2はウィンドウサイズによって決まる固定値である、このヒドンマルコフモデル(HMM)の平均値時系列から文献[1〜3]手法を使って、この平均値の時系列を変形して、滑らかなSTRAIGHTメルケプストラムを生成する。ここでその手法について説明する。いま、ガウス分布時系列が与えられていると仮定する。与えられたガウス分布時系列に対して(3),(4)の条件の下で(5)を最大化するC,ΔC,Δ2Cを選ぶことによって、STRAIGHTメルケプストラムの時系列を生成する。これは、(5)に(3),(4)を代入し、ΔC,Δ2Cを消去してCだけで表現し、これをCで偏微分した(6)を満たすCを求めることによって実現できる。これにより、滑らかなSTRAIGHTメルケプストラムの係数が得られる。
【数5】
上記手法では、STRAIGHTメルケプストラムの2次微分までしか用いていないが、3次、4次以降の項を導入することもできる。また、上記手法以外に、フィルタを用いて、ヒドンマルコフモデル(HMM)のSTRAIGHTメルケプストラム系列の平均値系列を滑らかにする手法も利用できる。
【0018】
このようにして作成された滑らかなSTRAIGHTメルケプストラム系列は、逆周波数伸縮離散コサイン変換部55へ入力される。逆周波数伸縮離散コサイン変換部では逆周波数伸縮離散コサインを行う。周波数伸縮離散コサイン変換は、直交変換なので、逆周波数伸縮離散コサイン変換もこの変換から容易に計算できる。この変換を行って、さらに指数変換を行うことによりSTRAIGHTメルケプストラム系列は、STRAIGHTメルケプストラム系列はSTRAIGHTスペクトルの系列に変換される。STRAIGHT音声合成部51では、このSTRAIGHTスペクトル系列とパルス/ノイズ生成部52によって生成されたパルス/ノイズ列から逆FFTと重ね合わせ合成により音声を合成する。
【0019】
(パルス/ノイズ系列生成部)
次に、パルス/ノイズ系列生成部32について述べる。まず、基本的なパルス/ノイズ系列生成手法を示す。これはある話者が発声した音声から抽出した基本周波数をそのまま利用する方法である。この手法を図6に示す。この方法では入力の音声から直接、基本周波数を推定し、その基本周波数を合成に利用する。
図7に基本周波数モデル学習部の構成、図8にヒドンマルコフモデル(HMM)を利用した場合のパルス/ノイズ系列生成部の構成を示す。
図7と図8を用いて、ヒドンマルコフモデル(HMM)を利用した場合のパルス/ノイズ系列生成部32について述べる。
図7では、パルス/ノイズ生成の場合のヒドンマルコフモデル(HMM)の学習方法について示す。入力された音声から基本周波数推定部52−3では、無声/有声を判断し、その結果を出力する。また、有声の場合は、その周波数の情報も出力する。この出力された情報は、基本周波数モデル学習部52−2に送られる。これらの基本周波数、その微分係数、2次微分係数および、無声/有声の情報と、それに対応する学習テキストを使って、基本周波数、その微分係数、2次微分係数の平均値と分散および無声/有声の情報を、音素(または単語)基本周波数ヒドンマルコフモデル(HMM)の構造上に、EMアルゴリズムを使って学習する。次に、学習した基本周波数ヒドンマルコフモデル(HMM)を記憶部52−4に記憶する。
【0020】
図8にヒドンマルコフモデル(HMM)を利用した場合のパルス/ノイズ合成について示す。まず、最初に入力されたテキストは、構文解析部52−8により、言語的情報の付与された音素(または単語)系列に変換される。この音素(または単語)情報により音素(または単語)基本周波数ヒドンマルコフモデル(HMM)が接続され、入力のテキストに対する音素(または単語)基本周波数ヒドンマルコフモデル(HMM)の系列が生成される。入力が音素系列である場合は、構文解析部では構文解析を行わず、その音素情報から音素(または単語)基本周波数ヒドンマルコフモデル(HMM)をつなぎ合わせて、入力に対する音素(または単語)基本周波数ヒドンマルコフモデル(HMM)系列を作成する。また、入力がヒドンマルコフモデル(HMM)の状態系列である場合は、音素(または単語)基本周波ヒドンマルコフモデル(HMM)の代わりに、基本周波数ヒドンマルコフモデル(HMM)の状態系列を作成する。平滑化パルス/ノイズ生成部52−7では、入力に対する音素(または単語)基本周波ヒドンマルコフモデル(HMM)系列から、滑らかなSTRAIGHTメルケプストラム生成のときの手法と同じ平滑化手法により滑らかな基本周波数系列を出力し、パルス情報に変換する。ただし、ヒドンマルコフモデル(HMM)の状態が無声音であれば、平滑化を行わず、ノイズを生成する。
【0021】
上記の手法で、音声認識用情報作成部で、基本周波数推定部を使わない場合には、このヒドンマルコフモデル(HMM)から生成された滑らかなパラメータを逆周波数伸縮離散コサイン変換し、さらに指数変換することで、スペクトルに変換する。その後、このスペクトル系列とパルス/ノイズ生成部によって生成されたパルス/ノイズ列から逆FFT重ね合わせ合成により音声を合成する。このパルス/ノイズ列の生成には、上述したパルス/ノイズ列生成手法が利用できる。
【0022】
なお、上記に記載の音声認識用情報作成・音響モデル作成・音声認識装置及び音声合成装置は、CPUやメモリ等を有するコンピュータと、アクセス主体となるユーザが利用する端末と、記録媒体から構成することができる。記録媒体は、CD−ROM、磁気ディスク装置、半導体メモリ等機械読み取り可能な記録媒体であり、ここに記録された制御用プログラムは、コンピュータに読み取られ、コンピュータの動作を制御し、コンピュータ上に前述した各構成要素を実現することができる。
【0023】
【発明の効果】
以上説明したように、本発明によれば、ヒドンマルコフモデル(HMM)を用いた音声合成系に、STRAIGHT合成系を導入し、音声認識におけるパラメータとテキストからの音声合成におけるパラメータとで同一のものを用いることで、従来のヒドンマルコフモデル(HMM)を用いた合成法が持っていた利点をそのまま残しながら、高品質でかつ簡単なシステム構成で実現できる。
また、本発明によれば、ヒドンマルコフモデル(HMM)を用いた音声合成系のパラメータとして、短時間フーリエ変換したスペクトルを対数変換して離散コサイン変換して求めることができるメルケプストラムを使うことで、音声認識におけるパラメータとテキストからの音声合成におけるパラメータとで同一のものを用いることで、従来のヒドンマルコフモデル(HMM)を用いた合成法が持っていた利点をそのまま残しながら、高品質でかつ簡単なシステム構成が実現できる。
【図面の簡単な説明】
【図1】従来のヒドンマルコフモデル(HMM)による音響モデル学習および音声認識装置の構成図。
【図2】従来のヒドンマルコフモデル(HMM)による音声合成装置の構成図。
【図3】本発明の実施例である音声認識用情報作成・音響モデル作成・音声認識装置の構成図。
【図4】本発明の他の実施例である音声認識用情報作成・音響モデル作成・音声認識装置の構成図。
【図5】本発明の実施例であるテキストから音声を作り出す音声合成装置の構成図。
【図6】パルス/ノイズ系列生成部の説明図。
【図7】基本周波数モデル学習部の構成図。
【図8】ヒドンマルコフモデル(HMM)を利用した場合のパルス/ノイズ系列生成部の構成図。
【符号の説明】
10・・・音声認識用情報作成部
11・・・STRAIGHT分析部
12・・・基本周波数推定部、13・・・短時間フーリエ変換部、14・・・平滑化スペクトラム分析部
15・・・対数変換部
16・・・周波数伸縮離散コサイン変換部
20・・・音響モデル学習部
30・・・HMM(音響モデル)記憶部
40・・・音声認識部
50・・・音声合成部
51・・・STRAIGHT音声合成部
52・・・パルス/ノイズ系列生成部、53・・・逆FFT重ね合わせ合成部
54・・・指数変換部
55・・・逆周波数伸縮離散コサイン変換部
60・・・音声合成用情報生成部
61・・・平滑化パラメータ生成部、62・・・構文解析部、63・・・HMM(音響モデル)記憶部
Claims (20)
- 音声認識で用いられる音声認識用情報を作成する音声認識用情報作成方法であって、
入力音声をSTRAIGHTスペクトルに分析するステップと、
STRAIGHTスペクトルを対数変換し、離散コサイン変換してSTRAIGHTメルケプストラムを作成するステップと、を備えたことを特徴とする音声認識用情報作成方法。 - 請求項1に記載の音声認識用情報作成方法により作成された学習用音声のSTRAIGHTメルケプストラムとその学習テキストに基づいてヒドンマルコフモデル(HMM)を学習するステップと、
作成されたヒドンマルコフモデル(HMM)を記憶装置に記憶するステップと、を備えたことを特徴とする音響モデル作成方法。 - 請求項2に記載の音響モデル作成方法により作成され、記憶装置に記憶したヒドンマルコフモデル(HMM)を参照することで、入力音声とヒドンマルコフモデル(HMM)の間のスコアを計算し、最もスコアの高い結果を出力するステップを備えたことを特徴とする音声認識方法。
- 音声合成で用いられる音声合成用情報を作成する音声合成用情報作成方法であって、
入力されたテキストを構文解析するステップと、
請求項2に記載の音響モデル作成方法で作成されたヒドンマルコフモデル(HMM)を記憶した記憶装置から構文解析された結果に従ってヒドンマルコフモデル(HMM)を取得し、ヒドンマルコフモデル(HMM)系列を作成するステップと、
作成されたヒドンマルコフモデル(HMM)の系列から滑らかなSTRAIGHTメルケプストラム系列を作成するステップと、を備えたことを特徴とする音声合成用情報作成方法。 - 請求項4に記載の音声合成用情報作成方法により作成した滑らかなSTRAIGHTメルケプストラム系列を逆周波数伸縮離散コサイン変換し、加えて指数変換してSTRAIGHTスペクトラム系列を作成するステップと、
音声が有声か無声である情報とこのSTRAIGHTスペクトル系列から音声合成を行うステップと、を備えたことを特徴とする音声合成方法。 - 音声合成で用いられる音声合成用情報を作成する音声合成用情報作成方法であって、
入力されたテキストを構文解析するステップと、
学習用音声の短時間フーリエ変換の対数変換後に周波数伸縮離散コサイン変換して得られるメルケプストラムとその学習用テキストに基づいて学習されたヒドンマルコフモデル(HMM)を記憶した記憶装置から、構文解析された結果に従って取得し、ヒドンマルコフモデル(HMM)系列を作成するステップと、
作成されたヒドンマルコフモデル(HMM)の系列から滑らかなメルケプストラム系列を作成するステップと、を備えることを特徴とする音声合成用情報作成方法。 - 請求項6に記載の音声合成用情報作成方法で作成された滑らかなメルケプストラム系列を逆周波数伸縮離散コサイン変換し、加えて指数変換してスペクトラム系列を作成するステップと、
音声が有声か無声である情報と作成されたスペクトラム系列から音声合成を行うステップと、を備える音声合成方法。 - 音声認識で用いられる音声認識用情報を作成する音声認識用情報作成装置であって、
入力音声をSTRAIGHTスペクトルに分析する手段と、
STRAIGHTスペクトルを対数変換し、離散コサイン変換してSTRAIGHTメルケプストラムを作成する手段と、を備えたことを特徴とする音声認識用情報作成装置。 - 請求項8に記載の音声認識用情報作成装置を備え、
この音声認識用情報作成装置で作成された学習用音声のSTRAIGHTメルケプストラムとその学習テキストに基づいてヒドンマルコフモデル(HMM)を学習する手段と、
作成されたヒドンマルコフモデル(HMM)を記憶装置に記憶する手段と、を備えることを特徴とする音響モデル作成装置。 - 請求項9に記載の音響モデル作成装置を備え、
音響モデル作成装置の記憶部に記憶したヒドンマルコフモデル(HMM)を参照することで、入力音声とヒドンマルコフモデル(HMM)の間のスコアを計算し、最もスコアの高い結果を出力する手段を備えたことを特徴とする音声認識装置。 - 音声合成で用いられる音声合成用情報を作成する音声合成用情報作成装置であって、
入力されたテキストを構文解析する手段と、
請求項9に記載の音響モデル作成装置を備え、
音響モデル作成装置のヒドンマルコフモデル(HMM)を記憶している記憶装置から、構文解析された結果に従ってヒドンマルコフモデル(HMM)を取得し、ヒドンマルコフモデル(HMM)系列を作成する手段と、
作成されたヒドンマルコフモデル(HMM)の系列から滑らかなSTRAIGHTメルケプストラム系列を作成する手段と、を備えたことを特徴とする音声合成用情報作成装置。 - 請求項11に記載の音声合成用情報作成装置を備え、
音声合成用情報作成装置で作成されたSTRAIGHTメルケプストラム系列を逆周波数伸縮離散コサイン変換し、加えて指数変換してSTRAIGHTスペクトラム系列を作成する手段と、
音声が有声か無声である情報とこのSTRAIGHTスペクトル系列から音声合成を行う手段と、を備える音声合成装置。 - 音声合成で用いられる音声合成用情報を作成する音声合成用情報作成装置であって、
入力されたテキストを構文解析する手段と、
学習用音声の短時間フーリエ変換の対数変換後に周波数伸縮離散コサイン変換して得られるメルケプストラムとその学習用テキストに基づいて学習されたヒドンマルコフモデル(HMM)を記憶した記憶装置から、構文解析された結果に従って取得し、ヒドンマルコフモデル(HMM)系列を作成する手段と、作成されたヒドンマルコフモデル(HMM)の系列から滑らかなメルケプストラム系列を作成する手段と、を備えることを特徴とする音声合成用情報作成装置。 - 請求項13に記載の音声合成用情報作成装置を備え、
音声合成用情報作成装置で作成された滑らかなメルケプストラム系列を逆周波数伸縮離散コサイン変換し、加えて指数変換し、スペクトラム系列を作成する手段と、音声が有声か無声である情報とスペクトラム系列から音声合成を行う手段と、を備える音声合成装置。 - 入力音声をSTRAIGHTスペクトルに分析する処理と、
STRAIGHTスペクトルを対数変換し、離散コサイン変換してSTRAIGHTメルケプストラムを作成する処理と、
学習用音声の上記STRAIGHTメルケプストラムとその学習テキストに基づいてヒドンマルコフモデル(HMM)を学習する処理と、
作成されたヒドンマルコフモデル(HMM)を記憶装置に記憶する処理と、
記憶装置に記憶したヒドンマルコフモデル(HMM)を参照することで、入力音声とヒドンマルコフモデル(HMM)の間のスコアを計算し、最もスコアの高い結果を出力する処理と、を備える音声認識方法をコンピュータに実行させるためのプログラム。 - 入力されたテキストを構文解析する処理と、
学習用音声をSTRAIGHTスペクトルに分析する処理と、学習用音声のSTRAIGHTスペクトルを対数変換し、離散コサイン変換してSTRAIGHTメルケプストラムを作成する処理と、その学習テキストに基づいてヒドンマルコフモデル(HMM)を学習する処理により作成されたヒドンマルコフモデル(HMM)を記憶している記憶装置から、構文解析された結果に従ってヒドンマルコフモデル(HMM)を取得し、ヒドンマルコフモデル(HMM)系列を作成する処理と、
作成されたヒドンマルコフモデル(HMM)の系列から滑らかなSTRAIGHTメルケプストラム系列を作成する処理と、
上記滑らかなSTRAIGHTメルケプストラム系列を逆周波数伸縮離散コサイン変換し、加えて指数変換し、STRAIGHTスペクトラム系列を作成する処理と、 音声が有声か無声である情報とこのSTRAIGHTスペクトル系列から音声合成を行う処理と、を備える音声合成方法をコンピュータに実行させるプログラム。 - 入力されたテキストを構文解析する処理と、
学習用音声の短時間フーリエ変換の対数変換後に周波数伸縮離散コサイン変換して得られるメルケプストラムとその学習用テキストに基づいて学習されたヒドンマルコフモデル(HMM)を記憶した記憶装置から、構文解析された結果に従って取得し、ヒドンマルコフモデル(HMM)系列を作成する処理と、
作成されたヒドンマルコフモデル(HMM)の系列から滑らかなメルケプストラム系列を作成する処理と、
上記滑らかなメルケプストラム系列を逆周波数伸縮離散コサイン変換し、加えて指数変換し、スペクトラム系列を作成する処理と、
音声が有声か無声である情報とスペクトラム系列から音声合成を行う処理と、を備える音声合成方法をコンピュータに実行させるプログラム。 - 入力音声をSTRAIGHTスペクトルに分析する処理と、
STRAIGHTスペクトルを対数変換し、離散コサイン変換してSTRAIGHTメルケプストラムを作成する処理と、
学習用音声の上記STRAIGHTメルケプストラムとその学習テキストに基づいてヒドンマルコフモデル(HMM)を学習する処理と、
作成されたヒドンマルコフモデル(HMM)を記憶装置に記憶する処理と、
記憶装置に記憶したヒドンマルコフモデル(HMM)を参照することで、入力音声とヒドンマルコフモデル(HMM)の間のスコアを計算し、最もスコアの高い結果を出力する処理と、を備える音声認識方法をコンピュータに実行させるためのプログラムを記録した記録媒体。 - 入力されたテキストを構文解析する処理と、
学習用音声をSTRAIGHTスペクトルに分析する処理と、学習用音声のSTRAIGHTスペクトルを対数変換し、離散コサイン変換してSTRAIGHTメルケプストラムを作成する処理と、その学習テキストに基づいてヒドンマルコフモデル(HMM)を学習する処理により作成されたヒドンマルコフモデル(HMM)を記憶している記憶装置から、構文解析された結果に従ってヒドンマルコフモデル(HMM)を取得し、ヒドンマルコフモデル(HMM)系列を作成する処理と、
作成されたヒドンマルコフモデル(HMM)の系列から滑らかなSTRAIGHTメルケプストラム系列を作成する処理と、
上記滑らかなSTRAIGHTメルケプストラム系列を逆周波数伸縮離散コサイン変換し、加えて指数変換し、STRAIGHTスペクトラム系列を作成する処理と、 音声が有声か無声である情報とこのSTRAIGHTスペクトル系列から音声合成を行う処理と、を備える音声合成方法をコンピュータに実行させるプログラムを記録した記録媒体。 - 入力されたテキストを構文解析する処理と、
学習用音声の短時間フーリエ変換の対数変換後に周波数伸縮離散コサイン変換して得られるメルケプストラムとその学習用テキストに基づいて学習されたヒドンマルコフモデル(HMM)を記憶した記憶装置から、構文解析された結果に従って取得し、ヒドンマルコフモデル(HMM)系列を作成する処理と、
作成されたヒドンマルコフモデル(HMM)の系列から滑らかなメルケプストラム系列を作成する処理と、
上記滑らかなメルケプストラム系列を逆周波数伸縮離散コサイン変換し、加えて指数変換し、スペクトラム系列を作成する処理と、
音声が有声か無声である情報とスペクトラム系列から音声合成を行う処理と、を備える音声合成方法をコンピュータに実行させるプログラムを記録した記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002162815A JP3973492B2 (ja) | 2002-06-04 | 2002-06-04 | 音声合成方法及びそれらの装置、並びにプログラム及びそのプログラムを記録した記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002162815A JP3973492B2 (ja) | 2002-06-04 | 2002-06-04 | 音声合成方法及びそれらの装置、並びにプログラム及びそのプログラムを記録した記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004012584A true JP2004012584A (ja) | 2004-01-15 |
JP3973492B2 JP3973492B2 (ja) | 2007-09-12 |
Family
ID=30431461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002162815A Expired - Fee Related JP3973492B2 (ja) | 2002-06-04 | 2002-06-04 | 音声合成方法及びそれらの装置、並びにプログラム及びそのプログラムを記録した記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3973492B2 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007011203A (ja) * | 2005-07-04 | 2007-01-18 | Sony Corp | データ出力装置、データ出力方法、およびプログラム |
WO2010004978A1 (ja) * | 2008-07-11 | 2010-01-14 | 株式会社エヌ・ティ・ティ・ドコモ | 音声合成モデル生成装置、音声合成モデル生成システム、通信端末、及び音声合成モデル生成方法 |
WO2010104040A1 (ja) * | 2009-03-09 | 2010-09-16 | 国立大学法人豊橋技術科学大学 | 1モデル音声認識合成に基づく音声合成装置、音声合成方法および音声合成プログラム |
WO2012063424A1 (ja) * | 2010-11-08 | 2012-05-18 | 日本電気株式会社 | 特徴量系列生成装置、特徴量系列生成方法および特徴量系列生成プログラム |
JP2013057735A (ja) * | 2011-09-07 | 2013-03-28 | National Institute Of Information & Communication Technology | 音声合成用の隠れマルコフモデル学習装置及び音声合成装置 |
JP2013117638A (ja) * | 2011-12-02 | 2013-06-13 | Nippon Hoso Kyokai <Nhk> | 音声合成装置および音声合成プログラム |
JP2013205697A (ja) * | 2012-03-29 | 2013-10-07 | Toshiba Corp | 音声合成装置、音声合成方法、音声合成プログラムならびに学習装置 |
JP2013238819A (ja) * | 2012-05-17 | 2013-11-28 | Nippon Telegr & Teleph Corp <Ntt> | 音声変換関数学習装置、音声変換装置、音声変換関数学習方法、音声変換方法、およびプログラム |
CN108922514A (zh) * | 2018-09-19 | 2018-11-30 | 河海大学 | 一种基于低频对数谱的鲁棒特征提取方法 |
JP2020170200A (ja) * | 2017-03-29 | 2020-10-15 | グーグル エルエルシー | エンドツーエンドのテキスト音声変換 |
-
2002
- 2002-06-04 JP JP2002162815A patent/JP3973492B2/ja not_active Expired - Fee Related
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4662139B2 (ja) * | 2005-07-04 | 2011-03-30 | ソニー株式会社 | データ出力装置、データ出力方法、およびプログラム |
JP2007011203A (ja) * | 2005-07-04 | 2007-01-18 | Sony Corp | データ出力装置、データ出力方法、およびプログラム |
WO2010004978A1 (ja) * | 2008-07-11 | 2010-01-14 | 株式会社エヌ・ティ・ティ・ドコモ | 音声合成モデル生成装置、音声合成モデル生成システム、通信端末、及び音声合成モデル生成方法 |
JP5574344B2 (ja) * | 2009-03-09 | 2014-08-20 | 国立大学法人豊橋技術科学大学 | 1モデル音声認識合成に基づく音声合成装置、音声合成方法および音声合成プログラム |
WO2010104040A1 (ja) * | 2009-03-09 | 2010-09-16 | 国立大学法人豊橋技術科学大学 | 1モデル音声認識合成に基づく音声合成装置、音声合成方法および音声合成プログラム |
JPWO2010104040A1 (ja) * | 2009-03-09 | 2012-09-13 | 国立大学法人豊橋技術科学大学 | 1モデル音声認識合成に基づく音声合成装置、音声合成方法および音声合成プログラム |
WO2012063424A1 (ja) * | 2010-11-08 | 2012-05-18 | 日本電気株式会社 | 特徴量系列生成装置、特徴量系列生成方法および特徴量系列生成プログラム |
US9299338B2 (en) | 2010-11-08 | 2016-03-29 | Nec Corporation | Feature sequence generating device, feature sequence generating method, and feature sequence generating program |
JPWO2012063424A1 (ja) * | 2010-11-08 | 2014-05-12 | 日本電気株式会社 | 特徴量系列生成装置、特徴量系列生成方法および特徴量系列生成プログラム |
JP2013057735A (ja) * | 2011-09-07 | 2013-03-28 | National Institute Of Information & Communication Technology | 音声合成用の隠れマルコフモデル学習装置及び音声合成装置 |
JP2013117638A (ja) * | 2011-12-02 | 2013-06-13 | Nippon Hoso Kyokai <Nhk> | 音声合成装置および音声合成プログラム |
JP2013205697A (ja) * | 2012-03-29 | 2013-10-07 | Toshiba Corp | 音声合成装置、音声合成方法、音声合成プログラムならびに学習装置 |
US9110887B2 (en) | 2012-03-29 | 2015-08-18 | Kabushiki Kaisha Toshiba | Speech synthesis apparatus, speech synthesis method, speech synthesis program product, and learning apparatus |
JP2013238819A (ja) * | 2012-05-17 | 2013-11-28 | Nippon Telegr & Teleph Corp <Ntt> | 音声変換関数学習装置、音声変換装置、音声変換関数学習方法、音声変換方法、およびプログラム |
JP2020170200A (ja) * | 2017-03-29 | 2020-10-15 | グーグル エルエルシー | エンドツーエンドのテキスト音声変換 |
JP7009564B2 (ja) | 2017-03-29 | 2022-01-25 | グーグル エルエルシー | エンドツーエンドのテキスト音声変換 |
JP2022058554A (ja) * | 2017-03-29 | 2022-04-12 | グーグル エルエルシー | エンドツーエンドのテキスト音声変換 |
US11862142B2 (en) | 2017-03-29 | 2024-01-02 | Google Llc | End-to-end text-to-speech conversion |
CN108922514A (zh) * | 2018-09-19 | 2018-11-30 | 河海大学 | 一种基于低频对数谱的鲁棒特征提取方法 |
Also Published As
Publication number | Publication date |
---|---|
JP3973492B2 (ja) | 2007-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7792672B2 (en) | Method and system for the quick conversion of a voice signal | |
JP6496030B2 (ja) | 音声処理装置、音声処理方法及び音声処理プログラム | |
Takaki et al. | Direct Modeling of Frequency Spectra and Waveform Generation Based on Phase Recovery for DNN-Based Speech Synthesis. | |
US7571095B2 (en) | Method and apparatus for recognizing speech in a noisy environment | |
JPH04313034A (ja) | 合成音声生成方法及びテキスト音声合成装置 | |
US20100217584A1 (en) | Speech analysis device, speech analysis and synthesis device, correction rule information generation device, speech analysis system, speech analysis method, correction rule information generation method, and program | |
JP3973492B2 (ja) | 音声合成方法及びそれらの装置、並びにプログラム及びそのプログラムを記録した記録媒体 | |
WO2015025788A1 (ja) | 定量的f0パターン生成装置及び方法、並びにf0パターン生成のためのモデル学習装置及び方法 | |
JP2009003008A (ja) | 雑音抑圧装置、音声認識装置、雑音抑圧方法、及びプログラム | |
JP2006521576A (ja) | 基本周波数情報を分析する方法、ならびに、この分析方法を実装した音声変換方法及びシステム | |
JP6993376B2 (ja) | 音声合成装置、方法及びプログラム | |
Hoffmann et al. | Analysis of verbal and nonverbal acoustic signals with the Dresden UASR system | |
JP2006235243A (ja) | 音響信号分析装置及び音響信号分析プログラム | |
JP6542823B2 (ja) | 音響モデル学習装置、音声合成装置、それらの方法、及びプログラム | |
Kannan et al. | Voice conversion using spectral mapping and TD-PSOLA | |
JP5660437B2 (ja) | 無声フィルタ学習装置、音声合成装置、無声フィルタ学習方法、およびプログラム | |
Irino et al. | Evaluation of a speech recognition/generation method based on HMM and straight. | |
Demuynck et al. | Synthesizing speech from speech recognition parameters | |
JP2021099454A (ja) | 音声合成装置、音声合成プログラム及び音声合成方法 | |
JPWO2009041402A1 (ja) | 周波数軸伸縮係数推定装置とシステム方法並びにプログラム | |
JP6137708B2 (ja) | 定量的f0パターン生成装置、f0パターン生成のためのモデル学習装置、並びにコンピュータプログラム | |
Lehana et al. | Transformation of short-term spectral envelope of speech signal using multivariate polynomial modeling | |
Chandra et al. | Towards The Development Of Accent Conversion Model For (L1) Bengali Speaker Using Cycle Consistent Adversarial Network (Cyclegan) | |
US20240153494A1 (en) | Techniques for generating training data for acoustic models using domain adaptation | |
JP6553561B2 (ja) | 信号解析装置、方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040726 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20061004 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070509 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070605 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070612 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100622 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100622 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110622 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120622 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130622 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140622 Year of fee payment: 7 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |