JP2975540B2 - Free speech recognition device - Google Patents

Free speech recognition device

Info

Publication number
JP2975540B2
JP2975540B2 JP6255141A JP25514194A JP2975540B2 JP 2975540 B2 JP2975540 B2 JP 2975540B2 JP 6255141 A JP6255141 A JP 6255141A JP 25514194 A JP25514194 A JP 25514194A JP 2975540 B2 JP2975540 B2 JP 2975540B2
Authority
JP
Japan
Prior art keywords
words
sequence
speech recognition
word
basic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP6255141A
Other languages
Japanese (ja)
Other versions
JPH08123476A (en
Inventor
亮輔 磯谷
昭一 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ei Tei Aaru Onsei Honyaku Tsushin Kenkyusho Kk
Original Assignee
Ei Tei Aaru Onsei Honyaku Tsushin Kenkyusho Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ei Tei Aaru Onsei Honyaku Tsushin Kenkyusho Kk filed Critical Ei Tei Aaru Onsei Honyaku Tsushin Kenkyusho Kk
Priority to JP6255141A priority Critical patent/JP2975540B2/en
Publication of JPH08123476A publication Critical patent/JPH08123476A/en
Application granted granted Critical
Publication of JP2975540B2 publication Critical patent/JP2975540B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、冗長語の出現を統計的
にモデル化した統計的言語モデルを用いて自由発話の音
声認識を行う自由発話音声認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a free speech recognition apparatus for recognizing free speech using a statistical language model in which the appearance of redundant words is statistically modeled.

【0002】[0002]

【従来の技術】近年,自由発話を対象とした音声認識の
研究が盛んに行なわれており、朗読発話と比較した自由
発話の特徴の一つとして、発話中に「あのー」、「えー
と」などの冗長語が数多く出現する。音声認識処理で冗
長語に対処する方法は、以下に示すように、すでにいく
つか提案されている。
2. Description of the Related Art In recent years, research on speech recognition for free utterances has been actively conducted. One of the features of free utterances compared to reading utterances is "Ah,""Eh," etc. during utterance. Many redundant words appear. Several methods for dealing with redundant words in speech recognition processing have already been proposed, as shown below.

【0003】まず、村上ほか,“単語のtrigram
を利用した文音声認識と自由発話認識への拡張”,電子
情報通信学会技術研究報告,SP93−127,199
4年1月においては、以下の第1の従来例の音声認識装
置が開示されている。この第1の従来例の装置では、単
語のトライグラム(trigram)を用いた音声認識装置に
おいて、音響モデルでは冗長語を認識しながら、言語モ
デルでは冗長語をスキップする。すなわち、冗長語以外
の単語に接続されるときは冗長語をスキップして単語の
トライグラムの値を計算し、冗長語に接続されるトライ
グラムの確率を1.0とする。この冗長語のスキップに
より、冗長語をはさんで現れる単語間の関係をトライグ
ラムの値として捉えることができ、また、任意の単語間
での冗長語の出現を許すように音声認識の処理を実行す
る。
First, Murakami et al., "Word trigram.
Extension to Sentence Speech Recognition and Free Utterance Recognition Using ”, IEICE Technical Report, SP93-127, 199
In January 2004, the following first conventional speech recognition apparatus was disclosed. In the first conventional apparatus, in a speech recognition apparatus using a word trigram, redundant words are skipped in a language model while redundant words are recognized in an acoustic model. That is, when connected to a word other than a redundant word, the redundant word is skipped, the value of the trigram of the word is calculated, and the probability of the trigram connected to the redundant word is set to 1.0. By skipping the redundant words, the relation between words appearing between the redundant words can be grasped as a trigram value, and the speech recognition processing is performed to allow the appearance of the redundant words between arbitrary words. Execute.

【0004】また、小林ほか,“間投詞の出現位置の特
徴分析と音声認識システムの評価”,電子情報通信学会
第2種研究会,SPREC−92−3,1993年2月
において、以下の第2の従来例の音声認識装置が開示さ
れている。この第2の従来例においては、文脈自由文法
のトップダウン型パーザに基づく連続音声認識装置にお
いて、文脈自由文法によって記述されているタスクの構
文知識の中に、間投詞(冗長語)の語彙を追加し、間投
詞の挿入を認めるように書き換え規則を修正して用い
る。この装置では、書き換え規則の記述により冗長語が
出現しうる位置を指定することができるという利点を有
する。
Also, Kobayashi et al., "Feature Analysis of Appearance Position of Interjections and Evaluation of Speech Recognition System", IEICE Type 2 Workshop, SPREC-92-3, February 1993 Of the related art is disclosed. In the second conventional example, in a continuous speech recognition apparatus based on a top-down type parser of a context-free grammar, a vocabulary of interjections (redundant words) is added to syntactic knowledge of a task described by a context-free grammar. Then, the rewriting rules are modified and used so as to allow the insertion of interjections. This device has an advantage that a position where a redundant word can appear can be specified by the description of the rewriting rule.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、第1の
従来例では、「冗長語は文頭や文節間には現れやすい
が、文節内ではあらわれにくい」といったような出現位
置の偏りを利用することができないので、実際には冗長
語が現れないような箇所に冗長語が誤って挿入された誤
認識が生じる可能性が高い。従って、音声認識率が低下
するという問題点があった。
However, in the first conventional example, it is possible to use a bias of the appearance position such as "redundant words are likely to appear at the beginning of a sentence or between clauses, but are unlikely to appear within a clause". Since it is not possible, there is a high possibility that erroneous recognition in which a redundant word is erroneously inserted at a position where a redundant word does not actually appear will occur. Therefore, there is a problem that the speech recognition rate is reduced.

【0006】また、第2の従来例では、冗長語の種類や
位置による出現のしやすさの偏りを細かく表現すること
ができないために、冗長語の確率を詳細に規定すること
ができない。従って、自由発話の音声認識の認識性能の
向上を期待することができない。また、人手で規則を記
述しなければならないので、言語モデルの作成を自動化
することができず、当該言語モデルの作成にきわめて多
大な時間と労力を要する。
Further, in the second conventional example, the probability of occurrence of a redundant word cannot be defined in detail because it is not possible to finely express the deviation in the ease of appearance depending on the type and position of the redundant word. Therefore, it is not possible to expect improvement in recognition performance of speech recognition of free speech. Further, since the rules must be manually described, the creation of the language model cannot be automated, and the creation of the language model requires an extremely large amount of time and effort.

【0007】本発明の目的は以上の問題点を解決し、冗
長語の確率を考慮した統計的言語モデルを自動的に作成
することができ、しかも従来例に比較して高い自由発話
の音声認識率を得ることができる自由発話音声認識装置
を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to solve the above-mentioned problems, to automatically generate a statistical language model in consideration of the probability of a redundant word, and to have a higher free speech utterance recognition than the conventional example. It is an object of the present invention to provide a free-speech speech recognition device capable of obtaining a rate.

【0008】[0008]

【課題を解決するための手段】本発明に係る請求項1記
載の自由発話音声認識装置は、入力された単語列からな
る自由発話の発声音声文を所定の統計的言語モデルを参
照して音声認識する自由発話音声認識装置において、上
記統計的言語モデルは、上記単語列において予め定めた
特定のカテゴリに属さない単語である基本単語の列に対
する第1の生起確率と、上記単語列で上記基本単語の列
が与えられたときに、当該基本単語の列の最初の単語の
前と最後の単語の後ろを含む当該基本単語の列の単語間
に挿入される上記特定のカテゴリに属する単語である挿
入単語の0個以上の列の組に対する第2の生起確率とに
よって決定されるように作成され、上記基本単語が連続
する場合はその間に0個の挿入単語が挿入されていると
みなすことを特徴とする。
According to a first aspect of the present invention, there is provided a freely uttered speech recognizing apparatus which converts a free uttered speech sentence composed of an input word string by referring to a predetermined statistical language model. In the free speech recognition apparatus for recognizing, the statistical language model includes: a first occurrence probability for a sequence of basic words that are words that do not belong to a predetermined category in the word sequence; Given a sequence of words, a word belonging to the specific category inserted between words of the sequence of basic words including before the first word and after the last word of the sequence of basic words. It is created so as to be determined by the second occurrence probability for a set of zero or more columns of insertion words, and when the basic words are consecutive, it is assumed that zero insertion words are inserted between them. Feature To.

【0009】また、請求項2記載の自由発話音声認識装
置は、請求項1記載の自由発話音声認識装置において、
上記第2の生起確率は、上記単語列において上記基本単
語の列が与えられたときに、各位置毎にそこに挿入され
る挿入単語の列に対して他の箇所の挿入単語の列とは独
立に決定される第3の生起確率の組によって決定される
ことを特徴とする。
[0009] Further, according to a second aspect of the present invention, there is provided the free speech recognition apparatus according to the first aspect.
The second occurrence probability is such that when the sequence of the basic words is given in the word sequence, the sequence of the inserted words at each position is different from the sequence of the inserted words at other positions. It is determined by a third set of independently determined probabilities of occurrence.

【0010】さらに、請求項3記載の自由発話音声認識
装置は、請求項2記載の自由発話音声認識装置におい
て、上記第3の生起確率は、基本単語の連鎖と位置によ
って決定される確率と、そこに挿入される挿入単語の列
によって決定される生起確率とによって決定されること
を特徴とする。
Further, in the free speech recognition apparatus according to the third aspect, in the free speech recognition apparatus according to the second aspect, the third occurrence probability is a probability determined by a chain and a position of a basic word; It is determined by an occurrence probability determined by a sequence of inserted words inserted therein.

【0011】また、請求項4記載の自由発話音声認識装
置は、請求項1、2又は3記載の自由発話音声認識装置
において、上記特定のカテゴリに属する単語は、特定の
品詞に属する単語であることを特徴とする。さらに、請
求項5記載の自由発話音声認識装置は、請求項4記載の
自由発話音声認識装置において、上記特定の品詞は間投
詞であることを特徴とする。またさらに、請求項6記載
の自由発話音声認識装置は、請求項4記載の自由発話音
声認識装置において、上記特定の品詞は副詞であること
を特徴とする。
According to a fourth aspect of the present invention, in the free speech recognition apparatus, the words belonging to the specific category are words belonging to a specific part of speech. It is characterized by the following. Further, a free speech recognition apparatus according to a fifth aspect is characterized in that in the free speech recognition apparatus according to the fourth aspect, the specific part of speech is an interjection. Still further, according to a sixth aspect of the present invention, in the free speech recognition apparatus according to the fourth aspect, the specific part of speech is an adverb.

【0012】さらに、請求項7記載の自由発話音声認識
装置は、請求項3乃至6のうちの1つに記載の自由発話
音声認識装置において、上記基本単語の列を単語のトラ
イグラムでモデル化し、かつ1箇所に現れる上記挿入単
語の列を単語のバイグラムでモデル化して統計言語モデ
ルを作成したことを特徴とする。
Further, in the free speech recognition apparatus according to the present invention, in the free speech recognition apparatus according to any one of claims 3 to 6, the sequence of the basic words is modeled by a word trigram. And a statistical language model is created by modeling the sequence of the inserted words appearing in one place with a bigram of words.

【0013】[0013]

【作用】以上のように構成された請求項1記載の自由発
話音声認識装置においては、上記統計的言語モデルは、
上記単語列において予め定めた特定のカテゴリに属さな
い単語である基本単語の列に対する第1の生起確率と、
上記単語列で上記基本単語の列が与えられたときに、当
該基本単語の列の最初の単語の前と最後の単語の後ろを
含む当該基本単語の列の単語間に挿入される上記特定の
カテゴリに属する単語である挿入単語の0個以上の列の
組に対する第2の生起確率とによって決定されるように
作成され、ここで、上記基本単語が連続する場合はその
間に0個の挿入単語が挿入されているとみなす。そし
て、このように作成された統計的言語モデルを参照して
入力された単語列からなる自由発話の発声音声文を音声
認識する。
According to the first aspect of the present invention, the statistical language model includes:
A first occurrence probability for a sequence of basic words that are words that do not belong to a predetermined category in the word sequence;
Given the sequence of basic words in the word sequence, the specific word inserted between words of the sequence of basic words including before the first word and after the last word of the sequence of basic words A second occurrence probability for a set of zero or more columns of insertion words that are words belonging to a category is created so that if the basic words are consecutive, there are no insertion words between them Is assumed to be inserted. Then, by referring to the statistical language model created in this way, the uttered speech sentence of the free utterance composed of the input word string is speech-recognized.

【0014】また、請求項2記載の自由発話音声認識装
置においては、上記第2の生起確率は、好ましくは、上
記単語列において上記基本単語の列が与えられたとき
に、各位置毎にそこに挿入される挿入単語の列に対して
他の箇所の挿入単語の列とは独立に決定される第3の生
起確率の組によって決定される。さらに、請求項3記載
の自由発話音声認識装置においては、上記第3の生起確
率は、好ましくは、基本単語の連鎖と位置によって決定
される確率と、そこに挿入される挿入単語の列によって
決定される生起確率とによって決定される。
In the free speech recognition apparatus according to the second aspect, preferably, the second occurrence probability is determined for each position when the sequence of the basic words is given in the word sequence. Is determined by a third set of occurrence probabilities that are determined independently of the sequence of the inserted words at the other positions. Further, in the free speech recognition apparatus according to the third aspect, the third occurrence probability is preferably determined by a probability determined by a chain and a position of a basic word and a sequence of inserted words inserted therein. And the probability of occurrence.

【0015】また、請求項4記載の自由発話音声認識装
置においては、上記特定のカテゴリに属する単語は、好
ましくは、特定の品詞に属する単語であり、この特定の
品詞に属する単語は、例えば間投詞又は副詞である。さ
らに、請求項7記載の自由発話音声認識装置において
は、上記基本単語の列を単語のトライグラムでモデル化
し、かつ1箇所に現れる上記挿入単語の列を単語のバイ
グラムでモデル化して統計言語モデルを作成される。
In the speech recognition apparatus according to the fourth aspect, the words belonging to the specific category are preferably words belonging to a specific part of speech, and the words belonging to the specific part of speech are, for example, interjections. Or an adverb. Further, in the speech-recognition apparatus according to claim 7, the sequence of the basic words is modeled by a trigram of words, and the sequence of the inserted words appearing in one place is modeled by a bigram of the words. Is created.

【0016】[0016]

【実施例】以下、図面を参照して本発明に係る実施例の
音声認識装置について説明する。図1の本実施例の音声
認識装置は、特に、学習用テキストデータメモリ11に
格納された単語列からなる自由発話の学習用テキストデ
ータに基づいて、例えば非冗長語列をトライグラムでモ
デル化し、かつ1箇所に現れる冗長語列をバイグラムで
モデル化して冗長語の確率を考慮した統計的言語モデル
を作成して統計的言語モデルメモリ7に格納する言語モ
デル作成部10を備えたことを特徴とする。この音声認
識装置は、マイクロホン1と、特徴抽出部2と、バッフ
ァメモリ3と、入力される発声音声データに基づいて隠
れマルコフモデル(以下、HMMという。)メモリ5内
の音響モデルであるHMMを参照して音素照合処理を実
行して音素データを出力する音素照合部4と、音素照合
部4からの音素データに基づいてOne pass D
P(Viterbi search)アルゴリズムを用
いて統計的言語モデルメモリ7内の統計的言語モデルを
参照して音声認識を実行するOne pass DP音
声認識部(以下、音声認識部という。)6とを備える。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A speech recognition apparatus according to an embodiment of the present invention will be described below with reference to the drawings. The speech recognition apparatus of the present embodiment of FIG. 1 particularly models, for example, a non-redundant word string by a trigram based on the text data for learning a free utterance composed of a word string stored in the text data memory for learning 11. And a language model creator 10 for modeling a redundant word sequence appearing in one place with a bigram to generate a statistical language model in consideration of the probability of the redundant word and storing the statistical language model in the statistical language model memory 7. And The speech recognition apparatus includes a microphone 1, a feature extraction unit 2, a buffer memory 3, and an HMM, which is an acoustic model in a hidden Markov model (hereinafter referred to as HMM) memory 5, based on input uttered speech data. A phoneme matching unit 4 that executes phoneme matching processing with reference to the phoneme matching unit 4 and outputs phoneme data, and One pass D based on phoneme data from the phoneme matching unit 4.
One pass DP speech recognition unit (hereinafter referred to as speech recognition unit) 6 that executes speech recognition with reference to a statistical language model in a statistical language model memory 7 using a P (Viterbi search) algorithm.

【0017】まず、本発明に係る実施例における冗長語
について以下のように定義を行う。本実施例では、冗長
語の基準を「言い淀む場合などに文中に挿入されて用い
られる自立語で、それを取り除いても文の文法性や意味
に影響しない語」と定義する。この冗長語の定義は、例
えば「あのー」、「えーと」などの語で、品詞分類での
間投詞を含む。冗長語の代わりに、「とても」や「ひじ
ょうに」などの副詞を用いてもよい。「はい」や「もし
もし」などの、感動、呼びかけ、応答、挨拶を表す語は
感動詞に分類し、本実施例では、冗長語には含めない。
また、「き、聞きたい」、「という、といいますと」に
おける「き」や「という」などのような言い淀み、言い
直しも含めない。
First, a redundant word in the embodiment according to the present invention is defined as follows. In the present embodiment, the criterion of a redundant word is defined as "a self-contained word that is used by being inserted into a sentence when it is stagnant and whose removal does not affect the grammar and meaning of the sentence". The definition of the redundant word is, for example, a word such as "ano" or "erto" and includes interjections in the part of speech classification. Instead of the redundant word, an adverb such as "very" or "hiyouni" may be used. Words that express emotion, call, response, and greeting, such as "yes" and "hello", are classified as inspirational verbs and are not included in redundant words in this embodiment.
Also, it does not include stagnation or restatements such as "ki" and "sai" in "ki, I want to hear" and "I say, say."

【0018】上述のように、本実施例においては、冗長
語は取り除いても文に影響がないものとして扱う。そこ
で、冗長語を含む文を、非冗長語の連鎖に冗長語が確率
的に挿入されたものと捉えてモデル化する。連続する冗
長語は冗長語列としてひとまとまりにして考える。一般
には、単語の途中に冗長語が挿入されることもあるが、
今回は除外して考える。言語モデル作成部10における
統計的言語モデルを作成するモデル化に際し、以下の2
つの仮定条件を設ける。(仮定条件1)非冗長語列中の
ある箇所に冗長語又は冗長語列が挿入される確率、及び
挿入される場合の冗長語又は冗長語列の生起確率は、他
の箇所の冗長語又は冗長語列の有無やその内容に依存し
ない。(仮定条件2)文中に冗長語又は冗長語列が挿入
される場合の冗長語又は冗長語列の生起確率は、非冗長
語列にも依存しない。
As described above, in this embodiment, it is assumed that removing redundant words does not affect sentences. Therefore, a sentence including a redundant word is modeled as a redundant word being stochastically inserted into a chain of non-redundant words. Consecutive redundant words are considered together as a redundant word string. In general, redundant words may be inserted in the middle of a word,
In this case, we'll exclude it. When modeling a statistical language model in the language model creating unit 10, the following 2
We make two assumptions. (Assumption 1) The probability that a redundant word or a redundant word string is inserted at a certain position in a non-redundant word string, and the probability of occurrence of a redundant word or a redundant word string when it is inserted, is the redundant word or the redundant word at another point. It does not depend on the presence or absence of redundant word strings or their contents. (Assumption 2) When a redundant word or redundant word string is inserted into a sentence, the occurrence probability of the redundant word or redundant word string does not depend on the non-redundant word string.

【0019】これら2つの仮定条件を定式化すると、以
下のようになる。文S中の非冗長語列Shを次の数1で
表されるものとする。
Formulation of these two assumptions is as follows. The non-redundant word string Sh in the sentence S is represented by the following equation 1.

【0020】[0020]

【数1】Sh=w1,w2,…,wn ## EQU1 ## Sh = w 1 , w 2 ,..., W n

【0021】そして、非冗長語wiと非冗長語wi+1との
間に挿入される冗長語列giを次の数2で表されるもの
とする。
The redundant word sequence g i inserted between the non-redundant word w i and the non-redundant word w i + 1 is represented by the following equation (2).

【0022】[0022]

【数2】gi=gi1,gi2,…## EQU2 ## g i = g i1 , g i2,.

【0023】ここで、冗長語列giは、0個以上の連続
する冗長語の列であって、非冗長語wiと非冗長語wi+1
の間に冗長語がないときは、次の数3で表わす。
Here, the redundant word sequence g i is a sequence of zero or more continuous redundant words, and includes a non-redundant word w i and a non-redundant word w i + 1.
When there is no redundant word between, it is expressed by the following equation (3).

【数3】gi=φ## EQU3 ## g i = φ

【0024】ただし、w0とwn+1はそれぞれ文Sの文頭
と文末を表す。冗長語列giに対応する確率変数をGi
する。以下、確率変数が明確なときは省略する。このと
き、文Sの生起確率は、次の数4で表される。
Here, w 0 and w n + 1 represent the beginning and end of sentence S, respectively. The random variable corresponding to the redundant word string g i and G i. Hereinafter, when the random variables are clear, they are omitted. At this time, the occurrence probability of the sentence S is expressed by the following Expression 4.

【0025】[0025]

【数4】 P(S)=P(Sh,g0,g1,…,gn) =P(Sh)・P(g0,g1,…,gn│Sh)P (S) = P (Sh, g 0 , g 1 ,..., G n ) = P (Sh) · P (g 0 , g 1 ,..., G n | Sh)

【0026】ここで、数4の第2式の第1項P(Sh)
は入力された自由発話音声の文における非冗長語列Sh
に対する生起確率であり、その第2項P(g0,g1
…,gn│Sh)は上記非冗長語列Shが与えられたと
きにその非冗長語列Shの最初の単語の前と最後の単語
の後ろを含む当該非冗長語列Shの単語間に挿入される
冗長語の0個以上の列の組に対する生起確率である。こ
こで、非冗長語が連続する場合はその間に0個の冗長語
が挿入されているとみなす。次いで、仮定条件1を定式
化すると、次の数5で表される。
Here, the first term P (Sh) of the second equation of Expression 4
Is the non-redundant word sequence Sh in the sentence of the input free speech
, And the second term P (g 0 , g 1 ,
.., G n | Sh) is given between the words of the non-redundant word string Sh including the front of the first word of the non-redundant word string Sh and the back of the last word when the non-redundant word string Sh is given. Occurrence probability for a set of zero or more columns of redundant words to be inserted. Here, when non-redundant words continue, it is considered that 0 redundant words are inserted between them. Next, when the assumption condition 1 is formulated, it is expressed by the following equation (5).

【0027】[0027]

【数5】 (Equation 5)

【0028】ここで、数5の右辺のΠはiを0からnま
で変化したときの(n+1)個の生起確率P(gi│S
h)の積の計算を示す。数5からわかるように、確率P
(g0,g1,…,gn│Sh)は、自由発話音声の文にお
ける各位置毎にそこに挿入される冗長語列に対して他の
箇所の冗長語列とは独立に決定される生起確率の組によ
って決定される。ここで、非冗長語列Shにおける冗長
語列の確率変数Giがφでない確率P(Gi≠φ│Sh)
をPi(Sh)と表わすと、gi≠φのとき、すなわち冗
長語列giが無い場合、次の数6を得る。
Here, Π on the right side of Expression 5 indicates (n + 1) occurrence probabilities P (g i | S when i is changed from 0 to n.
h) shows the calculation of the product of As can be seen from Equation 5, the probability P
(g 0 , g 1 ,..., g n | Sh) is determined independently of the redundant word string inserted at each position in the sentence of the freely uttered speech from the redundant word string at other positions. Is determined by a set of occurrence probabilities. Here, the probability random variable G i redundant word string in the non-redundant word string Sh is not φ P (G i ≠ φ│Sh)
Is expressed as P i (Sh), when g i ≠ φ, that is, when there is no redundant word string g i , the following equation 6 is obtained.

【0029】[0029]

【数6】P(gi│Sh)=Pi(Sh)・P(Gi=gi│S
h,Gi≠φ)
P (g i | Sh) = P i (Sh) · P (G i = g i | S
h, G i ≠ φ)

【0030】ここで、生起確率P(gi│Sh)は、非冗
長語列Shにおける冗長語列の確率変数Giがφでない
ときの生起確率Pi(Sh)と、冗長語又は冗長語列が
挿入される場合の冗長語又は冗長語列の生起確率P(Gi
=gi│Sh,Gi≠φ)との積で表わすことができる。
[0030] Here, the occurrence probability P (g i │Sh) includes a occurrence probability P i (Sh) when random variable G i redundant word string in the non-redundant word string Sh is not phi, redundant word or redundant word Occurrence probability P (G i of a redundant word or redundant word sequence when a sequence is inserted
= G i | Sh, G i ≠ φ).

【0031】さらに、仮定条件2から、文中に冗長語又
は冗長語列が挿入される場合の冗長語又は冗長語列の生
起確率は、非冗長語列にも依存しない。すなわち、生起
確率P(Gi=gi│Sh,Gi≠φ)は非冗長語列Sh及
びその順番の数iに依存しないので、この生起確率P
(Gi=gi│Sh,Gi≠φ)をP(g)(g≠φ)と表
わすと、次の数7を得る。
Further, from assumption 2, the probability of occurrence of a redundant word or redundant word string when a redundant word or redundant word string is inserted in a sentence does not depend on non-redundant word strings. That is, since the occurrence probability P (G i = g i | Sh, G i ≠ φ) does not depend on the non-redundant word string Sh and the number i of the order, the occurrence probability P
If (G i = g i | Sh, G i ≠ φ) is expressed as P (g) (g ≠ φ), the following equation 7 is obtained.

【0032】[0032]

【数7】 P(gi│Sh)≒1−Pi(Sh),gi=φのとき ≒Pi(Sh)・P(gi),gi≠φのときP (g i | Sh) ≒ 1−P i (Sh), when g i = φ ≒ P i (Sh) · P (g i ), g i ≠ φ

【0033】数7から、文中に冗長語又は冗長語列が挿
入される場合の冗長語又は冗長語列の生起確率P(gi
│Sh)は、非冗長語の列Shと位置によって決定され
る生起確率Pi(Sh)と、そこに挿入される冗長語列
iによって決定される生起確率P(gi)とによって決
定されることがわかる。
From equation (7), the occurrence probability P (g i of a redundant word or redundant word string when a redundant word or redundant word string is inserted in a sentence
| Sh) is determined by the occurrence probability P i (Sh) determined by the non-redundant word sequence Sh and the position and the occurrence probability P (g i ) determined by the redundant word sequence g i inserted therein. It is understood that it is done.

【0034】例えば、非冗長語列Shを単語のトライグ
ラム(trigram)で統計的言語モデルのモデル化をした
ときの非冗長語列Shの生起確率P(Sh)と、1箇所
に現れる冗長語列gを単語のバイグラム(bigram)で統
計的言語モデルのモデル化をしたときの冗長語列gの生
起確率P(g)はそれぞれ次の数8及び数9で表され
る。
For example, the occurrence probability P (Sh) of the non-redundant word sequence Sh when the non-redundant word sequence Sh is modeled by a word trigram as a statistical language model, and the redundant word appearing in one place The occurrence probabilities P (g) of the redundant word string g when the string g is modeled by a word bigram (bigram) are expressed by the following equations 8 and 9, respectively.

【0035】[0035]

【数8】 (Equation 8)

【数9】 (Equation 9)

【0036】ここで、数8の右辺のΠはiについての積
の計算であり、数9の右辺のΠはjについての積の計算
である。また,非冗長語列Sh中で非冗長語wiと非冗
長語wi+1の間に冗長語が挿入される確率Pi(Sh)が
非冗長語wi及びwi+1のみで決定されるとし、当該確率
i(Sh)をα(wi,wi+1)とおくと、文Sの生起
確率P(S)は、次の数10,数11に示すように書き
直すことができる。
Here, Π on the right side of Equation 8 is the calculation of the product for i, and Π on the right side of Equation 9 is the calculation of the product for j. In addition, the probability P i (Sh) that a redundant word is inserted between the non-redundant word w i and the non-redundant word w i + 1 in the non-redundant word sequence Sh is determined only by the non-redundant words w i and w i + 1 . and is determined, the probability P i (Sh) and α (w i, w i + 1) putting a, the probability P (S) sentence S, rewritten as shown following Equation 10, the number 11 be able to.

【0037】[0037]

【数10】 (Equation 10)

【数11】 [Equation 11]

【0038】ここで、数10の右辺のΠはiが0からn
までの積の計算であり、数11の第2式のΠはjに関す
る積の計算である。確率P(wi+1│wi-1,wi)、確
率α(wi,wi+1)及び確率P(gj│gj-1)は単語列
からなる自由発話の学習用テキストデータから推定され
る。言語モデル作成部10は、以上のようにして、非冗
長語列Shを単語のトライグラムでモデル化するととも
に、1箇所に現れる冗長語列gを単語のバイグラムモデ
ル化して統計的言語モデルを得ることができ、これがメ
モリ7に格納される。
Here, Π on the right side of Expression 10 indicates that i is 0 to n
Π in the second expression of Expression 11 is the calculation of the product related to j. The probability P (w i + 1 │w i -1, w i), the probability α (w i, w i + 1) and the probability P (g j │g j-1 ) is for learning of free speech consisting of a string of words Estimated from text data. As described above, the language model creation unit 10 models the non-redundant word string Sh using the word trigram, and obtains a statistical language model by converting the redundant word string g appearing in one place into a bigram model of the word. And this is stored in the memory 7.

【0039】以上のようにして作成された本実施例の統
計的言語モデルを用いた音声認識装置の構成及び動作に
ついて説明する。
The configuration and operation of the speech recognition apparatus using the statistical language model of the present embodiment created as described above will be described.

【0040】図1において、話者の発声音声はマイクロ
ホン1に入力されて音声信号に変換された後、特徴抽出
部2に入力される。特徴抽出部2は、入力された音声信
号をA/D変換した後、例えばLPC分析を実行し、対
数パワー、16次ケプストラム係数、Δ対数パワー及び
16次Δケプストラム係数を含む34次元の特徴パラメ
ータを抽出する。抽出された特徴パラメータの時系列は
バッファメモリ3を介して音素照合部4に入力される。
音素照合部4に接続されるHMMメモリ5内のHMM
は、複数の状態と、各状態間の遷移を示す弧から構成さ
れ、各弧には状態間の遷移確率と入力コードに対する出
力確率を有している。音素照合部4は、入力されたデー
タに基づいて音素照合処理を実行して音素データを、音
声認識部6に出力する。
In FIG. 1, a speaker's uttered voice is input to a microphone 1 and converted into a voice signal, and then input to a feature extracting unit 2. After performing A / D conversion on the input audio signal, the feature extraction unit 2 performs, for example, LPC analysis, and performs 34-dimensional feature parameters including logarithmic power, 16th-order cepstrum coefficient, Δlogarithmic power, and 16th-order Δcepstrum coefficient. Is extracted. The time series of the extracted feature parameters is input to the phoneme matching unit 4 via the buffer memory 3.
HMM in HMM memory 5 connected to phoneme matching unit 4
Is composed of a plurality of states and arcs indicating transitions between the states. Each arc has a transition probability between states and an output probability for an input code. The phoneme matching unit 4 performs phoneme matching processing based on the input data, and outputs phoneme data to the speech recognition unit 6.

【0041】単語のトライグラム及びバイグラムを含む
所定の統計的言語モデルを予め記憶する統計的言語モデ
ルメモリ7は音声認識部6に接続される。音声認識部6
は、統計的言語モデルメモリ7内の統計的言語モデルを
参照して、所定のOne pass DPアルゴリズム
を用いて、入力された音素データについて左から右方向
に、後戻りなしに処理してより高い生起確率の単語を音
声認識結果データと決定することにより音声認識の処理
を実行して、決定された音声認識結果データ(文字列デ
ータ)を出力する。
A statistical language model memory 7 which stores a predetermined statistical language model including a trigram and a bigram of a word in advance is connected to the speech recognition unit 6. Voice recognition unit 6
Refers to the statistical language model in the statistical language model memory 7 and processes the input phoneme data from left to right in the left-to-right direction without backtracking using a predetermined One pass DP algorithm to obtain a higher occurrence. The speech recognition processing is executed by determining the word of the probability as the speech recognition result data, and the determined speech recognition result data (character string data) is output.

【0042】以上説明したように、本実施例の音声認識
装置においては、冗長語など取り除いても文の文法性や
意味に影響のない語句についての種類や出現位置の偏り
を、言語的制約としてより細かく表現できるため、この
ような語句を含む自由発話音声の認識性能を向上するこ
とができ、従来例に比較して高い音声認識率を得ること
ができる。また、上記言語的制約は、大量の学習用テキ
ストデータから統計量として自動的に学習することがで
きるため、学習用テキストデータがあれば統計的言語モ
デルを容易にかつ例えばディジタル計算機を用いて自動
的に作成することができる。
As described above, in the speech recognition apparatus according to the present embodiment, the types of words and phrases whose appearance does not affect the grammar and the meaning of the sentence even when redundant words are removed are used as linguistic constraints. Since the expression can be expressed more finely, the recognition performance of the freely uttered speech including such a phrase can be improved, and a higher speech recognition rate can be obtained as compared with the conventional example. In addition, since the linguistic constraint can be automatically learned as a statistic from a large amount of text data for learning, if there is text data for learning, a statistical language model can be easily and automatically used, for example, using a digital computer. Can be created in a typical way.

【0043】以上の実施例において、特徴抽出部2と音
素照合部4と音声認識部6と言語モデル作成部10と
は、例えば、ディジタル計算機によって構成することが
できる。
In the above embodiment, the feature extracting unit 2, the phoneme checking unit 4, the speech recognizing unit 6, and the language model creating unit 10 can be constituted by, for example, a digital computer.

【0044】以上の実施例においては、単語のトライグ
ラムによって非冗長語列の統計的言語モデルをモデル化
したが、これに限らず、単語のトライグラムに代えて、
確率付き文脈自由文法を用いてもよい。
In the above embodiment, the statistical language model of the non-redundant word string is modeled by the word trigram. However, the present invention is not limited to this. Instead of the word trigram,
A context-free grammar with probability may be used.

【0045】[0045]

【発明の効果】以上詳述したように本発明によれば、入
力された単語列からなる自由発話の発声音声文を所定の
統計的言語モデルを参照して音声認識する自由発話音声
認識装置において、上記統計的言語モデルは、上記単語
列において予め定めた特定のカテゴリに属さない単語で
ある基本単語の列に対する第1の生起確率と、上記単語
列で上記基本単語の列が与えられたときに、当該基本単
語の列の最初の単語の前と最後の単語の後ろを含む当該
基本単語の列の単語間に挿入される上記特定のカテゴリ
に属する単語である挿入単語の0個以上の列の組に対す
る第2の生起確率とによって決定されるように作成さ
れ、ここで、上記基本単語が連続する場合はその間に0
個の挿入単語が挿入されているとみなす。従って、例え
ば冗長語である挿入単語など取り除いても文の文法性や
意味に影響のない語句についての種類や出現位置の偏り
を、言語的制約としてより細かく表現できるため、この
ような語句を含む自由発話音声の認識性能を向上するこ
とができ、従来例に比較して高い音声認識率を得ること
ができる。また、上記言語的制約は、大量の学習用テキ
ストデータから統計量として自動的に学習することがで
きるため、学習用テキストデータがあれば統計的言語モ
デルを容易にかつ例えばディジタル計算機を用いて自動
的に作成することができる。
As described above in detail, according to the present invention, there is provided a free speech recognition apparatus for recognizing a free speech utterance composed of an input word string by referring to a predetermined statistical language model. The statistical language model includes a first occurrence probability for a sequence of basic words that are words that do not belong to a predetermined category in the word sequence, and a case where the sequence of basic words is given in the word sequence. A sequence of zero or more inserted words that are words belonging to the specific category and inserted between words of the sequence of basic words including before the first word and after the last word of the sequence of basic words. And the second occurrence probability for the set of..., Where if the basic words are consecutive, 0
It is assumed that the inserted words have been inserted. Therefore, for example, even if the redundant words, such as insertion words, are removed, the type or appearance position of a phrase that does not affect the grammar and meaning of the sentence can be expressed more finely as a linguistic constraint. It is possible to improve the recognition performance of the freely uttered voice and obtain a higher voice recognition rate than the conventional example. In addition, since the linguistic constraint can be automatically learned as a statistic from a large amount of text data for learning, if there is text data for learning, a statistical language model can be easily and automatically used, for example, using a digital computer. Can be created in a typical way.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明に係る一実施例である音声認識装置の
ブロック図である。
FIG. 1 is a block diagram of a speech recognition apparatus according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…マイクロホン、 2…特徴抽出部、 3…バッファメモリ、 4…音素照合部、 5…One pass DP音声認識部、 6…隠れマルコフモデル(HMM)メモリ、 7…統計的言語モデルメモリ、 10…言語モデル作成部、 11…学習用テキストデータメモリ。 DESCRIPTION OF SYMBOLS 1 ... Microphone, 2 ... Feature extraction part, 3 ... Buffer memory, 4 ... Phoneme collation part, 5 ... One pass DP speech recognition part, 6 ... Hidden Markov model (HMM) memory, 7 ... Statistical language model memory, 10 ... Language model creation unit 11: Text data memory for learning.

フロントページの続き (56)参考文献 日本音響学会平成6年度秋季研究発表 会講演論文集▲I▼ 1−Q−2「統計 的言語モデルにおける冗長語処理の検 討」p.145−146(平成6年11月1日国 会図書館受入) 電子情報通信学会論文誌 Vol.J 77−A No.2,Feburary 1994,「ガーベジHMMを用いた自由発 話文中の不要語処理方法」(平成6年2 月25日発行) 日本音響学会平成5年度春季研究発表 会講演論文集▲I▼ 2−4−12「自由 発話文理解のためのGarbage H MMの利用の検討」p.41−42(平成5 年3月17日発行) 電子情報通信学会技術研究報告[音声 ]Vol.92,No.410,SP92− 127,「自由発話文理解のためのGar bage HMMの利用の検討」p.33 −40(1993年1月19日発行) 電子情報通信学会技術研究報告[音声 ]Vol.91,No.396,SP91− 100,「自由発話音声認識における音響 的および言語的な問題の検討」p.71− 78(1991年12月20日発行) 電子情報通信学会技術研究報告[言語 理解とコミュニケーション]Vol. 91,No.398,NLC91−57,「自由 発話音声認識における音響的および言語 的な問題の検討」p.71−78(1991年12 月20日発行) 電子情報通信学会技術研究報告[音声 ]Vol.93,No.426,SP93− 127,「単語のtrigramを利用し た文音声認識と自由発話認識への拡張」 p.71−78(1994年1月20日発行) (58)調査した分野(Int.Cl.6,DB名) G10L 3/00 537 G10L 3/00 531 G10L 3/00 535 JICSTファイル(JOIS)Continuation of the front page (56) References The Acoustical Society of Japan Fall Meeting, 1994, I-Q1-Q-2, "Study of redundant word processing in statistical language models" p. 145-146 (Received by the NDL on November 1, 1994) Transactions of the Institute of Electronics, Information and Communication Engineers, Vol. J77-A No. 2, Feburary 1994, "A Method of Processing Unwanted Words in Freely Spoken Sentences Using Garbage HMM" (Published February 25, 1994) Proceedings of the Acoustical Society of Japan Spring Meeting 1993 I-4 -12 “Examination of Garbage HMM for Understanding Freely Spoken Sentences” p. 41-42 (issued on March 17, 1993) IEICE Technical Report [Voice] Vol. 92, No. 410, SP92-127, "Examination of use of Gar page HMM for comprehending free utterance sentences" p. 33-40 (issued on January 19, 1993) IEICE Technical Report [Voice] Vol. 91, No. 396, SP91-100, “Study of acoustic and linguistic problems in speech recognition of free speech” p. 71-78 (Issued December 20, 1991) IEICE Technical Report [Language Understanding and Communication] Vol. 398, NLC91-57, “Study on acoustic and linguistic problems in speech recognition of free speech” p. 71-78 (issued on December 20, 1991) IEICE Technical Report [Voice] Vol. 93, no. 426, SP93-127, "Sentence Speech Recognition Using Word Trigram and Extension to Free Speech Recognition" p. 71-78 (Issued January 20, 1994) (58) Fields investigated (Int. Cl. 6 , DB name) G10L 3/00 537 G10L 3/00 531 G10L 3/00 535 JICST file (JOIS)

Claims (7)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力された単語列からなる自由発話の発
声音声文を所定の統計的言語モデルを参照して音声認識
する自由発話音声認識装置において、 上記統計的言語モデルは、 上記単語列において予め定めた特定のカテゴリに属さな
い単語である基本単語の列に対する第1の生起確率と、 上記単語列で上記基本単語の列が与えられたときに、当
該基本単語の列の最初の単語の前と最後の単語の後ろを
含む当該基本単語の列の単語間に挿入される上記特定の
カテゴリに属する単語である挿入単語の0個以上の列の
組に対する第2の生起確率とによって決定されるように
作成され、 上記基本単語が連続する場合はその間に0個の挿入単語
が挿入されているとみなすことを特徴とする自由発話音
声認識装置。
1. A free utterance speech recognition apparatus for recognizing a speech utterance of a free utterance composed of an input word string with reference to a predetermined statistical language model, wherein the statistical language model includes: A first occurrence probability for a sequence of basic words that do not belong to a predetermined specific category; and when the sequence of basic words is given in the word sequence, the first occurrence of the sequence of basic words in the sequence of basic words is determined. A second occurrence probability for a set of zero or more columns of inserted words that are words belonging to the specific category and inserted between words of the basic word sequence including the preceding and last words. A free speech recognition apparatus characterized in that, when the basic words are continuous, it is regarded that 0 insertion words are inserted between them.
【請求項2】 上記第2の生起確率は、上記単語列にお
いて上記基本単語の列が与えられたときに、各位置毎に
そこに挿入される挿入単語の列に対して他の箇所の挿入
単語の列とは独立に決定される第3の生起確率の組によ
って決定されることを特徴とする請求項1記載の自由発
話音声認識装置。
2. The second occurrence probability is such that, when the sequence of the basic words is given in the word sequence, the insertion of another portion with respect to the sequence of the inserted words inserted therein at each position is performed. 2. The free speech recognition apparatus according to claim 1, wherein the third set of occurrence probabilities is determined independently of the word sequence.
【請求項3】 上記第3の生起確率は、基本単語の連鎖
と位置によって決定される確率と、そこに挿入される挿
入単語の列によって決定される生起確率とによって決定
されることを特徴とする請求項2記載の自由発話音声認
識装置。
3. The third occurrence probability is determined by a probability determined by a chain and a position of a basic word and an occurrence probability determined by a sequence of inserted words inserted therein. The free speech recognition device according to claim 2.
【請求項4】 上記特定のカテゴリに属する単語は、特
定の品詞に属する単語であることを特徴とする1、2又
は3記載の自由発話音声認識装置。
4. The speech recognition apparatus according to claim 1, wherein the words belonging to the specific category are words belonging to a specific part of speech.
【請求項5】 上記特定の品詞は間投詞であることを特
徴とする請求項4記載の自由発話音声認識装置。
5. The speech recognition apparatus according to claim 4, wherein the specific part of speech is an interjection.
【請求項6】 上記特定の品詞は副詞であることを特徴
とする請求項4記載の自由発話音声認識装置。
6. The free speech recognition apparatus according to claim 4, wherein the specific part of speech is an adverb.
【請求項7】 上記基本単語の列を単語のトライグラム
でモデル化し、かつ1箇所に現れる上記挿入単語の列を
単語のバイグラムでモデル化して統計言語モデルを作成
したことを特徴とする請求項3乃至6のうちの1つに記
載の自由発話音声認識装置。
7. A statistical language model is created by modeling the sequence of basic words with a trigram of words and modeling the sequence of insertion words appearing at one place with a bigram of words. 7. The freely uttered speech recognition device according to any one of 3 to 6.
JP6255141A 1994-10-20 1994-10-20 Free speech recognition device Expired - Fee Related JP2975540B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6255141A JP2975540B2 (en) 1994-10-20 1994-10-20 Free speech recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6255141A JP2975540B2 (en) 1994-10-20 1994-10-20 Free speech recognition device

Publications (2)

Publication Number Publication Date
JPH08123476A JPH08123476A (en) 1996-05-17
JP2975540B2 true JP2975540B2 (en) 1999-11-10

Family

ID=17274664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6255141A Expired - Fee Related JP2975540B2 (en) 1994-10-20 1994-10-20 Free speech recognition device

Country Status (1)

Country Link
JP (1) JP2975540B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2387079C (en) * 1999-10-19 2011-10-18 Sony Electronics Inc. Natural language interface control system

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
日本音響学会平成5年度春季研究発表会講演論文集▲I▼ 2−4−12「自由発話文理解のためのGarbage HMMの利用の検討」p.41−42(平成5年3月17日発行)
日本音響学会平成6年度秋季研究発表会講演論文集▲I▼ 1−Q−2「統計的言語モデルにおける冗長語処理の検討」p.145−146(平成6年11月1日国会図書館受入)
電子情報通信学会技術研究報告[言語理解とコミュニケーション]Vol.91,No.398,NLC91−57,「自由発話音声認識における音響的および言語的な問題の検討」p.71−78(1991年12月20日発行)
電子情報通信学会技術研究報告[音声]Vol.91,No.396,SP91−100,「自由発話音声認識における音響的および言語的な問題の検討」p.71−78(1991年12月20日発行)
電子情報通信学会技術研究報告[音声]Vol.92,No.410,SP92−127,「自由発話文理解のためのGarbage HMMの利用の検討」p.33−40(1993年1月19日発行)
電子情報通信学会技術研究報告[音声]Vol.93,No.426,SP93−127,「単語のtrigramを利用した文音声認識と自由発話認識への拡張」p.71−78(1994年1月20日発行)
電子情報通信学会論文誌 Vol.J77−A No.2,Feburary 1994,「ガーベジHMMを用いた自由発話文中の不要語処理方法」(平成6年2月25日発行)

Also Published As

Publication number Publication date
JPH08123476A (en) 1996-05-17

Similar Documents

Publication Publication Date Title
US6973427B2 (en) Method for adding phonetic descriptions to a speech recognition lexicon
US6694296B1 (en) Method and apparatus for the recognition of spelled spoken words
US5333275A (en) System and method for time aligning speech
EP1575030B1 (en) New-word pronunciation learning using a pronunciation graph
US5878390A (en) Speech recognition apparatus equipped with means for removing erroneous candidate of speech recognition
US6539353B1 (en) Confidence measures using sub-word-dependent weighting of sub-word confidence scores for robust speech recognition
EP1447792B1 (en) Method and apparatus for modeling a speech recognition system and for predicting word error rates from text
JPH06110493A (en) Method for constituting speech model and speech recognition device
US7076422B2 (en) Modelling and processing filled pauses and noises in speech recognition
US20050038647A1 (en) Program product, method and system for detecting reduced speech
US6502072B2 (en) Two-tier noise rejection in speech recognition
JP3535292B2 (en) Speech recognition system
US5764851A (en) Fast speech recognition method for mandarin words
JP2000172294A (en) Method of speech recognition, device thereof, and program recording medium thereof
JP5184467B2 (en) Adaptive acoustic model generation apparatus and program
JP4595415B2 (en) Voice search system, method and program
JP2886117B2 (en) Voice recognition device
JP2871557B2 (en) Voice recognition device
JP2975540B2 (en) Free speech recognition device
JPH08123470A (en) Speech recognition device
JP2965529B2 (en) Voice recognition device
Smaïli et al. An hybrid language model for a continuous dictation prototype
JP2738508B2 (en) Statistical language model creation device and speech recognition device
JP2901850B2 (en) A speech recognition method using a statistical language model
JP2731133B2 (en) Continuous speech recognition device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110903

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110903

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120903

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120903

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130903

Year of fee payment: 14

LAPS Cancellation because of no payment of annual fees