JPS63236095A - Voice recognition - Google Patents

Voice recognition

Info

Publication number
JPS63236095A
JPS63236095A JP62070923A JP7092387A JPS63236095A JP S63236095 A JPS63236095 A JP S63236095A JP 62070923 A JP62070923 A JP 62070923A JP 7092387 A JP7092387 A JP 7092387A JP S63236095 A JPS63236095 A JP S63236095A
Authority
JP
Japan
Prior art keywords
word
phoneme
speech
interval
expressed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP62070923A
Other languages
Japanese (ja)
Inventor
哲夫 小坂
康弘 小森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP62070923A priority Critical patent/JPS63236095A/en
Publication of JPS63236095A publication Critical patent/JPS63236095A/en
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明け、音韻表記の単語辞書を利用することを特徴と
した単語音声認識装置における単語音声認識法、特に単
語を仮定した上で認識を行う、トップ・ダウン型の音声
認識方法に関するものである。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a word speech recognition method in a word speech recognition device characterized by using a word dictionary with phonetic notation, and in particular to a word speech recognition method based on the assumption of words. This relates to a top-down speech recognition method.

〔従来の技術〕[Conventional technology]

従来の音声認識方法を大きく分けると、以下の2種類に
なる。
Conventional speech recognition methods can be roughly divided into the following two types.

(1)単語を単位とした認識方法。(1) Recognition method based on words.

(2)単語よりも小さい単位、例えば音韻を単位とした
認識方法。
(2) A recognition method that uses units smaller than words, such as phonemes.

第1の方式は、単語全体の特徴パラメータを標準パタン
として持ち、入力音声とのパタンマツチングをDPを用
いて行うことで認識し、〜数百語程度の単語認識におい
て、高い認識率を得ている。しかしこの方法では、認識
する単語全てを、発声により登録しなければならないの
で手間がかかる。単語を標準パタンとしているため、単
語辞書の容量が太き(なるなどの点で、1000語以上
の人語量の認識には適さない。
The first method has the feature parameters of the entire word as a standard pattern, and performs pattern matching with the input speech using DP, achieving a high recognition rate in word recognition of ~ several hundred words. ing. However, this method is time-consuming because all the words to be recognized must be registered by vocalization. Since words are used as standard patterns, the capacity of the word dictionary is large, making it unsuitable for recognizing human language of 1,000 words or more.

一方第2の方式は、音韻ごとに標準パタンを持つため、
単語辞書は音韻表記で登録すればよいので登録の手間も
かからず容量も小さくて済むので、第1の方式に対し、
人語量に向いていると言える。
On the other hand, the second method has a standard pattern for each phoneme, so
Since word dictionaries can be registered in phonological notation, there is no need for registration and the capacity is small, so compared to the first method,
It can be said that it is suitable for people who speak a lot of words.

第2の方式は、まずセグメンテーションをして各音韻の
存在区間を定めた後に、音韻の認識を行うのが一般的で
ある。これに対し、トップダウン的な認識方法が考えら
れる。この方法では、認識する単語を仮定し、この単語
に含まれる音韻の標準パタンを用いて、入力音声の特徴
時系列とマツチングを行い、得点を計算する。さらに各
音韻の得点を基に、単語全体の得点を求めることにより
認識を行う。このように、その単語に必要な音韻の標準
パタンしか用いないため、セグメンテーションを先に行
う方法に比べて、音韻の付加・脱落が起こりに<(、認
識の精度が上がる。
In the second method, it is common to first perform segmentation to determine the range in which each phoneme exists, and then perform phoneme recognition. On the other hand, a top-down recognition method can be considered. In this method, a word to be recognized is assumed, and a standard pattern of phonemes included in this word is used to perform matching with the feature time series of input speech, and a score is calculated. Furthermore, recognition is performed by determining the score for the entire word based on the score for each phoneme. In this way, since only the standard pattern of phonemes necessary for the word is used, compared to methods that perform segmentation first, additions and omissions of phonemes occur and recognition accuracy increases.

この例としてたとえば、杉山他による「音声認識システ
ムにおける1゛o p −d o w n的音響処理」
(日本音響学会音声研究会資料582−62)などがあ
る。
As an example of this, for example, "1-op-down acoustic processing in a speech recognition system" by Sugiyama et al.
(Acoustical Society of Japan Speech Study Group Materials 582-62).

また処理量が軽減する方法としてトップ・ダウン処理に
DPマツチングを応用した例として、盛合他による「音
素判別フィルタを用いた孤立発声単語の自動ラベリング
」(日本音響学会音声研究会資料585−54)がある
。この盛合他による研究は、直接音声認識を扱ったもの
ではないが、この方法はこのままトップ・ダウン型の音
声認識に応用が可能である。
Also, as an example of applying DP matching to top-down processing as a method to reduce the amount of processing, Moriai et al.'s "Automatic labeling of isolated uttered words using a phoneme discrimination filter" (Acoustical Society of Japan Speech Study Group Materials 585-54) There is. Although this research by Moriai et al. did not directly deal with speech recognition, this method can be applied as is to top-down speech recognition.

このDPマツチングを用いたトップ・ダウン音声認識に
ついて以下に説明する。この方法では類似度の計算式を
DPマツチングを用いて、例えば以下の漸加式によって
求める。
Top-down speech recognition using this DP matching will be explained below. In this method, the similarity calculation formula is determined using DP matching, for example, by the following incremental formula.

g (i、 O) =g (0,D −−OO(i≠o
、j≠0) ・・・・・・・・・・・・・・(4)ただ
し、 I:音韻記号列の長さ、 J:入力音声のフレーム数 V:音韻記号列(■l +  v2 + ”’ V i
 + ”’ V l )X;入力音声の特徴時系列(X
、、X2.・・・Xi、・・・XJ) g (i、D :DPの累積類似度、 s (v、x) : vとXの類似度 A (1+j) : X’とXjの類似度、このg (
i、Dの計算を行う場合の窓制限としては、例えば i/2≦j≦(i−1−1)/2+J+1・・・・・・
・・・・・・・・(5)などが用いられる。
g (i, O) = g (0, D −-OO(i≠o
, j≠0) ・・・・・・・・・・・・・・・・・・(4) However, I: Length of phoneme symbol string, J: Number of frames of input speech V: Phoneme symbol string (■l + v2 + ”' V i
+ ”' V l )X; Characteristic time series of input speech (X
,,X2. ...Xi, ...XJ) g (i, D: cumulative similarity of DP, s (v, x): similarity of v and X A (1+j): similarity of X' and Xj, this g (
For example, the window restriction when calculating i and D is i/2≦j≦(i-1-1)/2+J+1...
...(5) etc. are used.

この結果得られた類似度を基に、単語の認識を行う。Word recognition is performed based on the similarity obtained as a result.

〔発明が解決しようとしている問題点〕上記窓制限は、
単に計算領域を制限して計算量を減少させるというだけ
ではなく、極端なマツチングを防ぐという意味でも効果
がある。しかしながら、孤立発声された単語の場合、各
音韻の持続時間は単語内において一定ではな(、一般に
語頭に比べ語尾の方が長いという性質を持っている。こ
の性質については、匂坂他による「規則による音声合成
のための音韻時間長制御」(電子通信学会論文誌’84
/7 Vol、 J67−A No、7 )に詳しい。
[Problem to be solved by the invention] The above window restriction is
This is effective not only in reducing the amount of calculation by simply limiting the calculation area, but also in preventing extreme matching. However, in the case of words that are uttered in isolation, the duration of each phoneme is not constant within the word (generally speaking, the duration of each phoneme is longer at the end than at the beginning. "Phonological duration control for speech synthesis" (Transactions of Institute of Electronics and Communication Engineers '84)
/7 Vol. J67-A No. 7) for details.

このため(5)式に示すような線型の窓制限では、単語
内の位置による各音韻の持続時間の変動に対処できない
場合があり、特に極端なマツチングを避けるために窓幅
を狭くした場合、入力音声に対し正確に各音韻に対応付
けられないという問題があった。
For this reason, the linear window restriction shown in equation (5) may not be able to deal with variations in the duration of each phoneme depending on its position within a word, and especially when the window width is narrowed to avoid extreme matching, There was a problem in that the input speech could not be accurately mapped to each phoneme.

〔問題点を解決するための手段(及び作用)〕本発明は
、孤立発声単語における各音韻の時間的な存在位置を記
したテーブルを各モーラ数ごとに持ち、そのテーブルか
ら得られる値を入力単語の継続時間に合わせて伸縮する
ことにより入力単語に適応させ、さらに適応後の値と重
み関数を用いて重み付きのDPの窓を設定することによ
り上記目的を達成するものである。
[Means (and effects) for solving the problem] The present invention has a table for each number of moras that records the temporal position of each phoneme in isolated utterance words, and inputs the values obtained from the table. The above objective is achieved by adapting to the input word by expanding or contracting it in accordance with the duration of the word, and further by setting a weighted DP window using the adapted value and the weighting function.

〔作用〕[Effect]

これによって、上記DP窓を利用することにより、孤立
発声単語のような、単語内で各音韻の持続時間が異なる
音声においても、その持続時間の伸縮を窓内に納めるこ
とができ、DPによる類似度計算がより精密に行われる
As a result, by using the above-mentioned DP window, even in sounds where the duration of each phoneme within a word is different, such as an isolated utterance word, the expansion and contraction of the duration can be kept within the window, and the similarity using DP Calculations are made more precisely.

〔実施例〕〔Example〕

第1−1図は本発明の一実施例における説明図である。 FIG. 1-1 is an explanatory diagram of one embodiment of the present invention.

lは入力発声の周波数分析を行う音響分析部、2は音韻
の識別に必要な特徴を抽出するための特徴抽出部、3は
特徴抽出した結果をもとに単語辞書の候補単語を絞る予
備選択部、4は音韻記号列によって登録されている単語
辞書、5は選択された単語のモーラ数をカウントするモ
ーラ数カウント部、6は各モーラ数に対応するモーラの
開始・終了時刻を記憶したモーラの開始・終了時刻テー
ブル、7は選択されたモーラの開始・終了時刻と重み関
数と音声開始時刻Ts(ms)及び音声終了時刻Te(
ms)から音韻推定存在区間を計算する音韻推定区間計
算部、8は重み関数を記憶している重み関数テーブル、
9は各音韻に対応する標準パタンを記憶している音韻標
準パタンテーブル、10は入力音声から特徴抽出を行う
ことによって得られた特徴時系列と音韻標準パタンのマ
ツチングを7より得られた窓制限によるDPで行う単語
認識部である。第1−2図は本発明の認識方法を実行す
る為の具体的な構成ブロック図である。第1−2図にお
いて11は、音声を入力する入力部、12は各種データ
を記憶するディスク、13は本装置(システム)を制御
する制御部で、第1−3図に示す様な制御プログラムを
格納したROMを含むものである。14は第1−1図に
示した各部における各種データを記憶するRAM。
1 is an acoustic analysis unit that performs frequency analysis of input utterances, 2 is a feature extraction unit that extracts features necessary for phoneme identification, and 3 is a preliminary selection that narrows down candidate words for the word dictionary based on the feature extraction results. 4 is a word dictionary registered by phonetic symbol strings, 5 is a mora number counting unit that counts the number of moras of the selected word, and 6 is a mora that stores the start and end times of mora corresponding to each mora number. The start/end time table 7 shows the start/end time of the selected mora, the weight function, the audio start time Ts (ms), and the audio end time Te(
8 is a weighting function table that stores weighting functions;
9 is a phoneme standard pattern table that stores standard patterns corresponding to each phoneme, and 10 is a window restriction obtained from 7 that matches the feature time series obtained by extracting features from input speech with the phoneme standard pattern. This is a word recognition unit that uses DP. FIGS. 1-2 are block diagrams showing specific configurations for carrying out the recognition method of the present invention. In Fig. 1-2, 11 is an input section for inputting audio, 12 is a disk for storing various data, and 13 is a control section for controlling this device (system), which includes a control program as shown in Fig. 1-3. It includes a ROM that stores . 14 is a RAM for storing various data in each section shown in FIG. 1-1.

15は出力部である。なお、第1−1図に示した各部が
、それぞれCPU、RAM、ROMを有していてもよい
15 is an output section. In addition, each part shown in FIG. 1-1 may have a CPU, RAM, and ROM, respectively.

次に第1−3図を参照して、本発明の詳細な説明する。The present invention will now be described in detail with reference to FIGS. 1-3.

上記構成において、音声は1の音響分析部で周波数分析
される(Sl)。またこのとき音声開始時刻tsと音声
終了時刻teも求められる(S2)。周波数分析により
得られた音声スペクトルから2の特徴抽出部において音
韻の認識に必要な特徴が抽出される(S3)。ここで得
られた特徴時系列の大局的な特徴を用いて、3の予備選
択部で、入力音声に特徴が近いと思われる単語を4の単
語辞書から複数個選択する(S4)。4の単語辞書は音
韻記号列によって登録されているので、母音、撥音・長
母音、促音の数を数えることによって、選択された単語
のモーラ数Nを求めることができる。このような方法で
5のモーラ数カウント部で選択された単語のモーラ数N
を求め(S5)、このモーラ数に対応する各モーラの開
始と終了の時間的な位置を示す値を6のモーラ開始・終
了時刻テーブルから選択する(S6)。7の音韻推定区
間計算部では、6で選択された値を基に、各音韻の推定
存在区間を計算する(S7)。
In the above configuration, the sound is frequency-analyzed by one acoustic analysis unit (Sl). At this time, the audio start time ts and the audio end time te are also determined (S2). A second feature extraction unit extracts features necessary for phoneme recognition from the speech spectrum obtained by frequency analysis (S3). Using the global features of the feature time series obtained here, the preliminary selection section 3 selects a plurality of words from the word dictionary 4 whose features are considered to be similar to the input speech (S4). Since the word dictionary No. 4 is registered by phoneme symbol strings, the number of moras N of the selected word can be determined by counting the number of vowels, pellic sounds/long vowels, and consonants. In this way, the mora number N of the word selected in the mora number counting section of 5
is determined (S5), and a value indicating the temporal position of the start and end of each mora corresponding to this number of moras is selected from the six mora start/end time tables (S6). The phoneme estimation interval calculation unit 7 calculates the estimated existence interval of each phoneme based on the value selected in 6 (S7).

この6,7の動作をさらに第2図〜第5図を用いて詳し
く説明する。
The operations 6 and 7 will be further explained in detail using FIGS. 2 to 5.

6のモーラ開始・終了時刻テーブルには、各モーラ数の
単語に対応するモーラの開始と終了時刻が記憶されてい
る。この時刻が単語のモーラ数の違いによって複数設定
されているのは、モーラ数の違いによって音韻の持続時
間の伸縮の状態が異なるためである。この複数からの選
択は、5のモーラ数カウント部のカウント結果を用いて
行う。
The mora start and end time table No. 6 stores the mora start and end times corresponding to the words of each mora number. The reason why a plurality of times are set depending on the number of moras of a word is that the state of expansion and contraction of the duration of a phoneme differs depending on the number of moras. This selection from the plurality is performed using the count result of the mora number counting section 5.

第2図に例として、3モ一ラ単語に対応するものについ
て示す。このグラフの横軸は時間を縦軸はモーラを表わ
す。t s (m i ) 、 t e (m i )
はそれぞれ第iモーラの開始終了時刻を示している。7
の音韻推定区間計算部で第2図横軸の始端と終端をそれ
ぞれ音声開始時刻Ts1音声終了時刻Teとなるように
線形に伸縮することにより、入力音声に適応したts 
(mi) /le (mi)の位置を定める。ts (
mi)・te(mi)の位置を定めた後、各モーラの区
間を音韻の単位に分割する。分割の方法は第2図の(1
)〜(3)に示した通りである。子音を含まない母音だ
けのモーラ・撥音・促音は、モータ区間をそのまま音韻
の区間とした。また撥音・拗音以外の子音を含むモーラ
は1/2に分割して、それぞれ子音区間・母音区間する
。また拗音を含むモーラはl/3に分割してそれぞれ子
音区間・拗音区間・母音区間とした。
FIG. 2 shows, as an example, words corresponding to trimolar words. The horizontal axis of this graph represents time and the vertical axis represents mora. t s (m i ), t e (m i )
respectively indicate the start and end times of the i-th mora. 7
ts adapted to the input speech by linearly expanding and contracting the start and end of the horizontal axis in FIG.
(mi) /le Determine the position of (mi). ts (
After determining the positions of mi) and te(mi), each mora section is divided into phoneme units. The division method is shown in Figure 2 (1
) to (3). For moras, plosives, and consonants that contain only vowels and no consonants, the motor interval was treated as the phonological interval. Furthermore, moras containing consonants other than plosives and obsessives are divided into 1/2 to form consonant and vowel sections, respectively. In addition, the mora containing a persistent consonant was divided into 1/3 to form a consonant section, a persistent consonant section, and a vowel section, respectively.

このようにして定まった各音韻区間に対し、8の重み関
数テーブルに記憶された重み関数を適用し、重み付きの
DPの窓とした。第3図に重み関数の例を示す。図の横
軸は時間を縦軸は重みを表わす。横軸をやはり線形に伸
縮し図に示したtps、tpeをそれぞれ各音韻の開始
終了時刻に合わせることにより、各音韻区間に適した重
み関数に変換する。この状態を第4図に示す。
The weighting functions stored in the 8 weighting function tables were applied to each phoneme interval determined in this manner to form a weighted DP window. FIG. 3 shows an example of a weighting function. The horizontal axis of the figure represents time and the vertical axis represents weight. By linearly expanding and contracting the horizontal axis and aligning the tps and tpe shown in the figure with the start and end times of each phoneme, it is converted into a weighting function suitable for each phoneme interval. This state is shown in FIG.

次に第1−3図の88では、lOの単語認識部で、7の
音韻区間計算部で求められた音韻推定区間を窓制限に利
用して、2で得られた入力音声の特徴時系列と9の音韻
標準パタンテーブルに登録された音韻標準パタンのうち
、予備選択の結果選択された単語に含まれるパタンを用
いてDPマツチングを行う。
Next, at 88 in Fig. 1-3, the word recognition unit of IO uses the phoneme estimation interval obtained by the phoneme interval calculation unit of 7 as a window restriction, and uses the characteristic time series of the input speech obtained in 2. DP matching is performed using patterns included in the word selected as a result of preliminary selection among the phoneme standard patterns registered in the phoneme standard pattern table of and 9.

DPマツチングでは前述の重み関数に従い、得点に重み
を付けて計算を行う。各候補単語の得点を計算し、得点
の一番高かったものを認識単語とした(S9,5IO)
In DP matching, calculations are performed by weighting scores according to the weighting function described above. The score of each candidate word was calculated, and the one with the highest score was selected as the recognized word (S9, 5IO)
.

本実施例では単語の予備選択部を設けているので、マツ
チングの候補単語が絞られ人語量でも高速に認識を行う
ことができる。
In this embodiment, a word preliminary selection section is provided, so that candidate words for matching are narrowed down and recognition can be performed at high speed even with a human vocabulary.

更には、前述のDPの経路をたどり、各音韻に対する始
端と終端にその音韻の開始記号、終了記号を付けること
により音声の自動ラベリングシステムとして用いること
ができる。
Furthermore, it can be used as an automatic speech labeling system by following the above-mentioned DP path and attaching the start and end symbols of each phoneme to the beginning and end of that phoneme.

〔発明の効果〕〔Effect of the invention〕

以上説明したように本発明によれば、孤立発声単語の場
合、語頭に比べ語尾の方で音韻共が長くなるという性質
を考慮した非線形の窓制限を、DP計算時に用いている
ため、計算量の増大と極端なマツチングを避けるために
窓幅を狭(しても、DPの最適経路が窓内に収まり、こ
の結果精度の良いDP値が得られる。またDPに用いる
窓を時間軸の方向に関する重み関数によって表わすこと
により、推定された音素区間からはずれるに従って得点
が低下するので、より推定の信頼度の高い経路が選ばれ
る結果、さらに精度の良いDP値が得られる。
As explained above, according to the present invention, in the case of isolated uttered words, a non-linear window restriction is used in DP calculation, taking into consideration the property that the phoneme is longer at the end of the word than at the beginning of the word. Even if the window width is narrowed to avoid an increase in Since the score decreases as the phoneme interval deviates from the estimated phoneme interval, a route with higher estimation reliability is selected, resulting in a more accurate DP value.

この結果単語の認識率が向上するという効果が得られる
As a result, the effect of improving the word recognition rate can be obtained.

第1図は本発明の説明図、 第1−2図は本発明適用の構成ブロック図、第1−3図
は本発明の制御フローチャート、第2図は3モ一ラ単語
の場合の音韻の区分及びモーラの開始・終了時刻を示す
図、 第3図は重み関数の例を示す図、 第4図は(/ k y a n o N / )という
単語に対するDPの重み付き窓の説明図。
Fig. 1 is an explanatory diagram of the present invention, Figs. 1-2 are block diagrams of the configuration to which the present invention is applied, Figs. 1-3 are control flowcharts of the present invention, and Fig. 2 is a diagram of the phoneme in the case of a trimolar word. FIG. 3 is a diagram showing an example of a weighting function; FIG. 4 is an explanatory diagram of a weighted window of DP for the word (/ky a no N /).

1・・・音響分析部、2・・・特徴抽出部、3・・・予
備選択部、4・・・単語辞書、5・・・モーラ数カウン
ト部、 6・・・モーラ開始・終了時刻テーブル、7・・・音韻
推定区間計算部、 8・・・重み関数テーブル、 9・・・音韻標準パタンテーブル、 10・・・単語認識部。
1... Acoustic analysis section, 2... Feature extraction section, 3... Preliminary selection section, 4... Word dictionary, 5... Mora number counting section, 6... Mora start/end time table , 7... Phoneme estimation interval calculation unit, 8... Weighting function table, 9... Phoneme standard pattern table, 10... Word recognition unit.

記抱拳語 音声たり馳”鰻重のブO・・・7図 不7−Z図 市り竹子70−午ヤーヒ 下1−子画 11L%M(m51Ji-hui-ken language Voice recording “Unagiju’s buO…Figure 7” Fu7-Z diagram Ichiri Takeko 70 - Noon Yahi Lower 1 - child drawing 11L%M (m51

Claims (2)

【特許請求の範囲】[Claims] (1)特徴ベクトルの時系列として表現される音韻ごと
の標準パタンと、音韻記号によって表記された単語辞書
を持ち、特徴ベクトルの時系列として表現される音声の
入力パタンと登録単語との類似度を計算するに当って、
入力音声に対応した候補単語を仮定し、その単語に含ま
れる音韻の標準パタンを用いて単語を認識すべく入力単
語の継続長と候補単語のモーラ数から求めた発話速度か
ら、各音韻の存在区間を推定し、窓制限の区間を決定し
た上で、ダイナミック・プログラミング(以下DPと略
す)により類似度の計算を行う音声認識方法。
(1) Having a standard pattern for each phoneme expressed as a time series of feature vectors and a word dictionary expressed by phoneme symbols, and the degree of similarity between the speech input pattern expressed as a time series of feature vectors and registered words. In calculating,
Assuming a candidate word corresponding to the input speech, the existence of each phoneme is determined from the speech rate calculated from the duration of the input word and the number of moras of the candidate word in order to recognize the word using the standard pattern of phonemes included in the word. A speech recognition method that estimates the interval, determines the window-limited interval, and then calculates the degree of similarity using dynamic programming (hereinafter abbreviated as DP).
(2)DPに用いられる窓は、時間軸の方向に関する重
み関数によって表わされており、推定された存在区間の
中心から時間的に離れるに従って、推定区間からの極端
な逸脱を防ぐように、その重み係数の値を小さくするこ
とを特徴とした特許請求の範囲第1項に記載の音声認識
方法。
(2) The window used in DP is expressed by a weighting function in the direction of the time axis, and is designed to prevent extreme deviation from the estimated interval as it moves away from the center of the estimated existence interval in time. The speech recognition method according to claim 1, characterized in that the value of the weighting coefficient is reduced.
JP62070923A 1987-03-25 1987-03-25 Voice recognition Pending JPS63236095A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62070923A JPS63236095A (en) 1987-03-25 1987-03-25 Voice recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62070923A JPS63236095A (en) 1987-03-25 1987-03-25 Voice recognition

Publications (1)

Publication Number Publication Date
JPS63236095A true JPS63236095A (en) 1988-09-30

Family

ID=13445510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62070923A Pending JPS63236095A (en) 1987-03-25 1987-03-25 Voice recognition

Country Status (1)

Country Link
JP (1) JPS63236095A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013125119A (en) * 2011-12-14 2013-06-24 Mitsubishi Electric Corp Speech recognition deice and speech recognition method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013125119A (en) * 2011-12-14 2013-06-24 Mitsubishi Electric Corp Speech recognition deice and speech recognition method

Similar Documents

Publication Publication Date Title
US7783484B2 (en) Apparatus for reducing spurious insertions in speech recognition
JPH07146699A (en) Voice recognizing method
Verhasselt et al. A fast and reliable rate of speech detector
JPS63236095A (en) Voice recognition
JP2001005483A (en) Word voice recognizing method and word voice recognition device
JP3277522B2 (en) Voice recognition method
JP2943445B2 (en) Voice recognition method
JP3291073B2 (en) Voice recognition method
JPH0619497A (en) Speech recognizing method
JP2692382B2 (en) Speech recognition method
JPS607492A (en) Monosyllable voice recognition system
JPH0455518B2 (en)
JPS60164800A (en) Voice recognition equipment
Montero-Asenjo et al. On the use of high-level information in speaker and language recognition
JPS62111295A (en) Voice recognition equipment
JPS60147797A (en) Voice recognition equipment
JPS632100A (en) Voice recognition equipment
JPH0552516B2 (en)
JPS60182499A (en) Voice recognition equipment
JPS62245295A (en) Specified speaker's voice recognition equipment
JPH0235500A (en) Speed recognition system
JPH02148100A (en) Voice recognizing device
Wielgat Improving speech recognition accuracy using HMM and DTW methods
KEYWORD Samarjit Das.
JPS6247100A (en) Voice recognition equipment