JP3836607B2 - 音声認識のための統計的言語モデル作成装置 - Google Patents

音声認識のための統計的言語モデル作成装置 Download PDF

Info

Publication number
JP3836607B2
JP3836607B2 JP24874098A JP24874098A JP3836607B2 JP 3836607 B2 JP3836607 B2 JP 3836607B2 JP 24874098 A JP24874098 A JP 24874098A JP 24874098 A JP24874098 A JP 24874098A JP 3836607 B2 JP3836607 B2 JP 3836607B2
Authority
JP
Japan
Prior art keywords
text
language model
words
vocabulary
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24874098A
Other languages
English (en)
Other versions
JP2000075892A (ja
Inventor
彰夫 小林
亨 今井
彰男 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP24874098A priority Critical patent/JP3836607B2/ja
Publication of JP2000075892A publication Critical patent/JP2000075892A/ja
Application granted granted Critical
Publication of JP3836607B2 publication Critical patent/JP3836607B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は音声認識のための統計的言語モデルを作成するための装置に関する。
【0002】
【従来の技術】
従来、この種の音声認識性能向上を目的とした方法は以下のようなものが提案されている。
【0003】
(a)キャッシュモデルによる方法(R.Kuhn,R.De Mori"A Cache-Based Natural Language Model for Speech Recognition," IEEE Trans. PAMI, vol.12, no.6, 1990, pp.570−583)
この方法は大量の原稿から学習されたn−gramと最近の音声認識結果における単語の出現確率を線形補間等で結合することによって音声認識性能を向上させる。
【0004】
(b)MAP(事後確率最大化)推定による方法(赤松,中川,“新聞記事のトライグラムによるモデル化と適応化,”言語処理学会第3会年次大会報告,pp.118〜121)
この方法は、あるタスクのn−gramを、タスクに依存した小量の原稿から得られるn−gramと、タスクに依存しない大量の原稿から得られるn−gramを線形補間で結合することにより言語モデルの統計的な精度を高め、認識性能を向上させる。語彙は、小量の原稿中のすべての単語と、大量の原稿の一部の単語をあわせて構成する。
【0005】
【発明が解決しようとする課題】
従来の方法(a)では、過去の音声認識結果を利用するため、複数の単語で構成される語彙に登録されていない単語については考慮されない。ニュースのように、人名・地名・組織名といった新しい単語が極めて出現しやすいタスクにおいては、新しい単語を語彙に含めた言語モデルを用いなければ認識率の向上は見込めない。
【0006】
また(b)の方法では、小量の原稿に含まれるすべての単語を語彙に登録するため、語彙サイズ(登録単語の数)の制限ができない。語彙サイズが大きくなれば音声認識に要する時間も増大するため、ニュース音声の字幕化といった、リアルタイム性が求められるタスクでは、語彙サイズを一定にするなど、適切な語彙構成のための手法が必要となる。
【0007】
本発明の目的は、上述の点に鑑みて、語彙の単語数を増やすことなく、語彙の単語を新しいものに更新し、以って音声認識の精度を向上させることのできる音声認識のための統計的言語モデル作成装置を提供することにある。
【0008】
【課題を解決するための手段】
このような目的を達成するために、請求項1においては、大量のテキスト集合についての言語モデルを作成することにより前記大量のテキストのn−gramの第1の確率重みを決定する第1手段と
新規に語彙に登録する単語を含む小量のテキスト集合についての言語モデルを作成することにより前記小量のテキストのn−gramの第2の確率重みを決定する第2手段と
前記第1の確率重みおよび第2の確率重みおよび前記大量のテキスト集合および前記小量のテキスト集合の総単語数によって、前記第1の確率重みおよび第2の確率重みをテキスト重みに変換する第3手段と
当該得られたテキスト重みを使用して前記大量のテキスト集合および小量のテキスト集合についてのそれぞれのテキスト集合における単語の頻度を更新する第4手段と
当該更新された小量のテキスト集合の単語の頻度および、前記大量のテキスト集合の単語の頻度を足し合わせる第5手段と
当該足し合わされた単語の頻度に基づき、あらかじめ定められた登録単語数におさまるよう語彙を更新し、新しい言語モデルを作成する第6手段と
を具え、前記テキスト重みが収束されるまで前記第1手段から前記第6手段までの処理を繰り返すことを特徴とする。
【0009】
請求項2の発明においては請求項1に記載の音声認識のための統計的言語モデル作成装置において、前記第1の確率重みおよび前記第2の確率重みのそれぞれは評価データのエントロピーが最小となる値を与えるよう決定されることを特徴とする。
【0010】
請求項3の発明においては、請求項1に記載の音声認識のための統計的言語モデル作成装置において、前記小量のテキスト集合はニュース原稿についてのテキストの集合であることを特徴とする。
【0016】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を詳細に説明する。
【0017】
1.はじめに
ニュース番組では、一つの話題が数日間にわたって続くことが多い。また、人名など新しい単語が発生する一方、まったく使われなくなる単語もある。このことから、ニュース音声と直前のニュース原稿との間には、高い相関があると考えられる。本願発明者らはこれまでに、長期間のニュース原稿に最新の原稿を足しあわせた言語モデルの適応化を行い、パープレキシティ削減効果を確認した[小林,今井,安藤,“ニュース音声認識用言語モデルの学習期間の検討”,信学技報,SP−97−48,pp.29−26(1997)]。本実施形態では、この最適な足しあわせ重みを自動的に決定する方法と、語彙の決定方法について検討する。
【0018】
2.ヒューリスティックな言語モデルの適応化
長期間の原稿データに加える直前原稿データの足しあわせ回数(テキスト重みw)を自動的に決める前に、まず重みwをヒューリスティックに決定し、bigramモデルによるテストセットパープレキシティの変化を調べた。ただし、語彙については足しあわされた原稿での形態素頻度に基づき、サイズを20kで制限した。長期間の原稿データは、ある放送局のニュース原稿データベースの1991年4月〜1996年6月3日の5年分を用いた。形態素解析にはJUMANを、言語モデル作成にはSLM Tool Kitを利用した。モデルのback offスムージングはGood−Turingの推定を用い、Cut−off値は1とした。
【0019】
重み付けに用いた直前原稿は、表2に示す1日〜30日の4通りのデータとした。
【0020】
テストセット(評価データ)はNHKニュースデータベースより選び(表3)、補正パープレキシティ[J.Uebara,"Analysing a simple language model-some general conclusion for language models for speech recognition", Computer Speech and Language, vol.8, No.2, pp.153-176(1994)]を用いて評価した。
【0021】
【表1】
Figure 0003836607
【0022】
【表2】
Figure 0003836607
【0023】
【表3】
Figure 0003836607
【0024】
結果を、長期間の原稿データのみから作成した言語モデル(ベースラインモデル)と比較して図1に示す。
【0025】
すべての直前原稿データでパープレキシティは減少したが、テキスト重みwが大きすぎると逆に増加した。また、直前原稿データの期間が短いほど、パープレキシティは小さな値となった。パープレキシティの最小値は、1日分の原稿による重みづけで350回付近とした時に、73.9となった。このとき、ベースラインモデルのパープレキシティ(=83.2)に対する削減率は11.2%であった。
【0026】
3.EMアルゴリズムによる言語モデルの適応化
ヒューリスティックな方法でテキスト重みを探索することは、言語モデルを何度も再構築するため非効率であり、パープレキシティ最小値を与えるテキスト重みの値の判定も困難である。そこで、テキスト重みwを自動的に決定することを試みた(以下、自動手法)。長期間の原稿と直前原稿からそれぞれ言語モデルを作成し、これらを線形補間により足しあわせると、適応モデルにおける形態素z,yの連鎖確率Pは、
【0027】
【数1】
P(y|z)=λP0(y|z)+(1- λ)P1(y|z)
となる。長期間の原稿データの集合S0 、直前原稿データの集合S1 に対し、それぞれの集合の語彙をV0 ,V1 とする。このとき、P0 ,P1 は各モデルでのz,yのbigram確率値である。モデルへの重み(以下、確率重み)λはEMアルゴリズムより求めることができる。テキスト重みwは、λより次のように求められる[M.Federico,"Baysian Estimation Methods for N-gram Language Model Adaptation",Proc.ICSLP-96,pp.240-243(1996)]。
【0028】
【数2】
Figure 0003836607
【0029】
0 ,m1 はそれぞれのテキスト集合の大きさ(総形態素数)とする。
【0030】
自動手法では先に語彙を決め、確率値からテキスト重みを決定する。しかしヒューリスティックな手法では、先にテキスト重みを与えて語彙を決めるので、最新のニュース原稿に現れやすい形態素を考慮した語彙を作成できる。そこで自動手法では、以下のような語彙の決定方法を試みる。最初に、各テキスト集合の語彙から、初期集合としてV(0) =V0 ∪V1 を決める。ただし、V0 ,V1 ともサイズの上限を20kとする。EMアルゴリズムにより確率重みλを求めた後、テキスト重みwで直前原稿を足しあわせ、形態素頻度からサイズ20kの語彙V(1) を決め直す。新しい語彙V(1) で確率値P0 ,P1 を計算するとともに、重みwを再決定する。語彙V(j) の更新と重み計算の操作を、重みwが一定の値に収束するまで繰り返す。
【0031】
このようにして求めたテキスト重みwと、wから作成した適応モデルのパープレキシティの関係を、直前原稿の期間ごとに図1(×印)に示す。このときのテキスト重みwの値を表4に記す。30日分を除くと、ヒューリスティック手法の最小値に近い値をとり、ほぼ同等のパープレキシティが得られた。直前原稿が30日分の場合、原稿データのサイズが大きく、テキスト重みのわずかな増減で、多数の形態素が入れ替わるため、最小値にずれがあると考えられる。
【0032】
また、テストセット中の未知語の数は、ベースラインモデルの100から適応モデルの96へ減少し、未知語削減率は4.0%となった。
【0033】
4.認識実験
自動手法により求めたテキスト重みのうち、パープレキシティ最小となった1日分のテキスト重み(=297)から適応モデルを作成し、認識実験を行った。
【0034】
音響モデルの学習には計56名の女性話者を用いた。音響分析はフィルタバンク分析により、39次元の特徴パラメータ(12次元のメルケプストラム係数とパワー、およびそれぞれのΔ,ΔΔ係数)を得た。
【0035】
【表4】
Figure 0003836607
【0036】
音響モデルはトライフォンとし、tree-based clustering による状態共有化を行った。HMMはモデル数1518、総状態数2362となった。また、ガウス分布の混合数は12とした。
【0037】
実験結果を単語正解精度として図2に示す。ベースラインモデルに比べ、top−choiceで0.6%、150−bestで、1.0%認識率が向上した。これはヒューリスティックな手法とほぼ同等の結果である。
【0038】
以上、述べた内容は学会発表を考慮に入れているので、非常に高度な技術レベルとなっている。
【0039】
以下に、具体的な実施形態を述べる。
【0040】
本実施形態は言語モデルにbigramを用いた例である(bigramを含むn−gramモデルについては例えば、「確率モデルによる音声認識」,中川聖一,電子情報通信学会,pp.109参照)。
【0041】
図3に音声認識のための統計的言語モデル作成装置のシステム構成を示す。図1において、最新のニュース原稿である小量ニュース原稿1と、あらかじめハードディスク等に蓄積された大量ニュース原稿2を入力データとする。データは単語間にスペースを挟んだ、テキストファイルとして与えられる(フロッピーディスクあるいは通信により入力)。小量ニュース原稿1と大量ニュース原稿2は、言語モデル計算部3(コンピュータにより実現)において利用され、言語モデル4をたとえば、ハードディスク等に出力する。言語モデル4は音声認識装置5で利用される。
【0042】
言語モデル計算部3は、図4に示す手順に従って、最新のニュース原稿および大量のニュース原稿から言語モデルを作成する。
【0043】
まずステップS11によって、大量のニュース原稿(テキスト集合G0 )および、最新の小量ニュース原稿(テキスト集合G1 )から初期語彙を決定する。語彙は後述の手順に従い、初期語彙から逐次更新されるものである。一般に、言語モデルにおける語彙は、学習データ中の単語の出現頻度の高い順に従って、あらかじめ定められた登録語数に納まるように決定される。
【0044】
しかし、最新のニュース原稿中の新しい(大量のニュース原稿中に存在しない)単語は出現頻度が低いため、単純に頻度に従う方法では語彙に登録されない。一方で、このような新しい単語はニュースにおける話題の持続性といった観点から、最新のニュースでは最も出現が期待されると考えられる。
【0045】
初期語彙ではこのような低頻度の単語が登録されるよう、以下のようにして語彙を定める。
【0046】
それぞれのテキスト集合から、大量のニュース原稿の語彙V0 、最新ニュース原稿の語彙V1 を、単語の出現頻度に従ってそれぞれ語彙サイズVmax を超えない大きさとなるよう、頻度の高い単語からたとえばソーティング(並べかえ)という情報処理を使用して順に決定する。テキスト集合に共通の初期語彙Vは和集合V0 ∪V1 とする。こうすることで、語彙サイズの上限は越えるものの、頻度の低い新しい単語を語彙に登録することができる。
【0047】
ステップS12によって、語彙Vをもとにそれぞれのテキスト集合から言語モデルLM0 ,LM1 を作成する。
【0048】
ステップS13によって、確率重みλを求める。各言語モデルのbigramP0 ,P1 を用い、最新ニュース原稿によって重み付けされた言語モデルのbigramを線形補間により表すと、
【0049】
【数3】
P(yn|yn-1)= λP0(yn|yn-1)+(1- λ)P1(yn|yn-1)
yn,yn-1 ∈V
となる(線形補間については例えば、「音声言語処理」,北,中村,永田,森北出版,pp.29参照)。yn ,yn-1 は語彙単語である。重み付けされた言語モデルの単語yn ,yn-1 に対するbigramが大きければ、音声認識時にそれらの組合せが出現しやすくなる。言い換えれば、評価データのbigramの積
【0050】
【数4】
Figure 0003836607
【0051】
が最大となるよう、あるいは評価データのエントロピー
【0052】
【数5】
Figure 0003836607
【0053】
が最小となるよう、λの値を決定すればよい(エントロピーについては例えば、「確率モデルによる音声認識」,中川聖一,電子情報通信学会,pp.111参照)。ただし、Nは評価テキスト中の総単語数とし、評価データの単語列y=y12 …yN で表されるものとする。λは期待値最大化アルゴリズム(EMアルゴリズム)を用い、繰り返し計算により求める。すなわち、
【0054】
【数6】
Figure 0003836607
【0055】
として、λ′をλで更新しながら、評価テキストに対するエントロピーがある値に収束するまで繰り返す(EMアルゴリズムについては例えば、「音声言語処理」,北,中村,永田,森北出版,pp.31参照)。
【0056】
この手続きにより、言語モデルの確率重みλを自動的に得ることができる。ただし、確率重みのままでは、単語の出現頻度を再計算し、語彙を更新することができないため、以降の手順を行う。
【0057】
ステップS14により、テキスト重みwを求める。テキスト重みwは単語頻度の再計算のために必要な値である。m0 ,m1 をテキスト集合G0 ,G1 の総単語数とすると、長期間のニュース原稿に加える最新ニュース原稿の足しあわせ回数(テキスト重み)wはステップS13により得られた確率重みλから、以下のように求められる。
【0058】
【数7】
Figure 0003836607
【0059】
この手続きは、言語モデルでの確率重みをテキスト集合での重みに正規化する手続きである。
【0060】
ステップS15によって、小量のニュース原稿をステップS14のテキスト重みwで重み付けして大量のニュース原稿に足しあわせ、語彙を更新する。ある単語の、G0 での出現頻度f0 、G1 での出現頻度f1 とすると、重み付けによって新たに得られる出現頻度fは、
f=f0 +wf1
となり、頻度fの大きい順にVmax を超えないよう、語彙Vを更新する。この手続きにより、登録語数を制限するとともに、出現頻度の低い最新ニュース原稿中の単語の頻度が重み付けられて高まるため、語彙に登録することができる。
【0061】
ステップS16によって、更新された新しい語彙Vで言語モデルを作成する。
【0062】
ステップS17によって、テキスト重みwが一定の値に収束したか判断し、収束しなければステップS12〜16の手順を繰り返す。テキスト重みwが収束していれば、単語の頻度は一定のままであるから、語彙は固定されることとなる。結果として、ステップS16で作成した言語モデルを出力として得る。
【0063】
【発明の効果】
以上、説明したように、本発明によれば、以下の効果を期待できる。
【0064】
(a)最新ニュース原稿の中に現れる新しい単語または出現が期待される単語が語彙に登録されるため、認識性能が向上する。
【0065】
(b)語彙のサイズが一定以上に増えないため、認識時間が増加しない。
【0066】
(c)最新ニュースを政治、経済など、カテゴリ別に分け、モデルを複数個用意し、それぞれに適応した言語モデルを作成できる。
【図面の簡単な説明】
【図1】本発明実施形態での評価実験内容を示す説明図である。
【図2】本発明実施形態での評価実験内容を示す説明図である。
【図3】本発明実施形態のシステム構成を示すブロック図である。
【図4】本発明実施形態の処理手順を示すフローチャートである。
【符号の説明】
1 小量ニュース原稿
2 大量ニュース原稿
3 言語モデル計算部
4 言語モデル
5 音声認識装置

Claims (3)

  1. 大量のテキスト集合についての言語モデルを作成することにより前記大量のテキストのn−gramの第1の確率重みを決定する第1手段と、
    新規に語彙に登録する単語を含む小量のテキスト集合についての言語モデルを作成することにより前記小量のテキストのn−gramの第2の確率重みを決定する第2手段と、
    前記第1の確率重みおよび第2の確率重みおよび前記大量のテキスト集合および前記小量のテキスト集合の総単語数によって、前記第1の確率重みおよび第2の確率重みをテキスト重みに変換する第3手段と、
    当該得られたテキスト重みを使用して前記大量のテキスト集合および小量のテキスト集合についてのそれぞれのテキスト集合における単語の頻度を更新する第4手段と、
    当該更新された小量のテキスト集合の単語の頻度および、前記大量のテキスト集合の単語の頻度を足し合わせる第5手段と、
    当該足し合わされた単語の頻度に基づき、あらかじめ定められた登録単語数におさまるよう語彙を更新し、新しい言語モデルを作成する第6手段と
    を具え、前記テキスト重みが収束されるまで前記第1手段から前記第6手段までの処理を繰り返すことを特徴とする音声認識のための統計的言語モデル作成装置。
  2. 請求項に記載の音声認識のための統計的言語モデル作成装置において、前記第1の確率重みおよび前記第2の確率重みのそれぞれは評価データのエントロピーが最小となる値を与えるよう決定されることを特徴とする音声認識のための統計的言語モデル作成装置。
  3. 請求項に記載の音声認識のための統計的言語モデル作成装置において、前記小量のテキスト集合はニュース原稿についてのテキストの集合であることを特徴とする音声認識のための統計的言語モデル作成装置。
JP24874098A 1998-09-02 1998-09-02 音声認識のための統計的言語モデル作成装置 Expired - Fee Related JP3836607B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24874098A JP3836607B2 (ja) 1998-09-02 1998-09-02 音声認識のための統計的言語モデル作成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24874098A JP3836607B2 (ja) 1998-09-02 1998-09-02 音声認識のための統計的言語モデル作成装置

Publications (2)

Publication Number Publication Date
JP2000075892A JP2000075892A (ja) 2000-03-14
JP3836607B2 true JP3836607B2 (ja) 2006-10-25

Family

ID=17182666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24874098A Expired - Fee Related JP3836607B2 (ja) 1998-09-02 1998-09-02 音声認識のための統計的言語モデル作成装置

Country Status (1)

Country Link
JP (1) JP3836607B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3955880B2 (ja) 2004-11-30 2007-08-08 松下電器産業株式会社 音声認識装置
JP5088701B2 (ja) * 2006-05-31 2012-12-05 日本電気株式会社 言語モデル学習システム、言語モデル学習方法、および言語モデル学習用プログラム
JP4446313B2 (ja) 2006-12-15 2010-04-07 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声処理用の辞書に登録するべき新規語句を検索する技術
JP5105943B2 (ja) * 2007-04-13 2012-12-26 日本放送協会 発話評価装置及び発話評価プログラム
JP4928514B2 (ja) * 2008-08-27 2012-05-09 日本放送協会 音声認識装置及び音声認識プログラム

Also Published As

Publication number Publication date
JP2000075892A (ja) 2000-03-14

Similar Documents

Publication Publication Date Title
US6477488B1 (en) Method for dynamic context scope selection in hybrid n-gram+LSA language modeling
US9159316B2 (en) Automatic language model update
KR100563365B1 (ko) 계층적 언어 모델
JP4267081B2 (ja) 分散システムにおけるパターン認識登録
US8392188B1 (en) Method and system for building a phonotactic model for domain independent speech recognition
US7124081B1 (en) Method and apparatus for speech recognition using latent semantic adaptation
JP4855701B2 (ja) 意味管理を用いた言語モデル適応
US7275029B1 (en) System and method for joint optimization of language model performance and size
US7624006B2 (en) Conditional maximum likelihood estimation of naïve bayes probability models
US20020188446A1 (en) Method and apparatus for distribution-based language model adaptation
CN108538286A (zh) 一种语音识别的方法以及计算机
WO2003010754A1 (fr) Systeme de recherche a entree vocale
US20020087311A1 (en) Computer-implemented dynamic language model generation method and system
JP2004005600A (ja) データベースに格納された文書をインデックス付け及び検索する方法及びシステム
KR20080069990A (ko) 음성 세그먼트 색인 및 검색 방법과 컴퓨터 실행 가능명령어를 갖는 컴퓨터 판독 가능 매체
JP2004362584A (ja) テキストおよび音声の分類のための言語モデルの判別トレーニング
JP2004133880A (ja) インデックス付き文書のデータベースとで使用される音声認識器のための動的語彙を構成する方法
JP6810580B2 (ja) 言語モデル学習装置およびそのプログラム
JP3836607B2 (ja) 音声認識のための統計的言語モデル作成装置
Mrva et al. A PLSA-based language model for conversational telephone speech.
Wu et al. Building a topic-dependent maximum entropy model for very large corpora
JP4340024B2 (ja) 統計的言語モデル生成装置および統計的言語モデル生成プログラム
JP2005284209A (ja) 音声認識方式
Maskey et al. A phrase-level machine translation approach for disfluency detection using weighted finite state transducers
JP2006107353A (ja) 情報処理装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060619

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060727

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100804

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110804

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120804

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120804

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130804

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140804

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees