JP2891259B2 - Voice section detection device - Google Patents

Voice section detection device

Info

Publication number
JP2891259B2
JP2891259B2 JP62079673A JP7967387A JP2891259B2 JP 2891259 B2 JP2891259 B2 JP 2891259B2 JP 62079673 A JP62079673 A JP 62079673A JP 7967387 A JP7967387 A JP 7967387A JP 2891259 B2 JP2891259 B2 JP 2891259B2
Authority
JP
Japan
Prior art keywords
voice
threshold
section
threshold value
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP62079673A
Other languages
Japanese (ja)
Other versions
JPS63247798A (en
Inventor
教幸 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP62079673A priority Critical patent/JP2891259B2/en
Publication of JPS63247798A publication Critical patent/JPS63247798A/en
Application granted granted Critical
Publication of JP2891259B2 publication Critical patent/JP2891259B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔概 要〕 音声認識装置における音声区間検出装置において、音
声信号の語頭における音声区間しきい値を小さく設定し
て音声脱落の確率を下げ、語尾におけるしきい値を前記
しきい値より大きく設定してノイズ付加の確率を下げる
ようにしたものである。 〔産業上の利用分野〕 本発明は音声区間検出装置に関し、特に、電算機を使
用する音声認識における音声区間と無声区間およびノイ
ズとの識別を容易ならしめる検出装置に関する。 〔従来の技術〕 人間の発声した音声を電算機を使用して特徴抽出を行
い自動的に検出する方式は、既に広く応用されている。
その典型的な手法の一つとしては、連続発声した音声信
号から単音節や音韻に区分するセグメンテーションを行
ない、この単音節を音声認識するものである。単音節の
認識によってさらに高度な単語認識や会話音声の認識等
へ拡張していくことができる。現在のところ完成なセグ
メンテーションの行える方式はまだないが、例えば単音
節のパワー値が所定のしきい値を越えたものは音声とみ
なす方法は知られている。即ち、パワー値が発声の一定
時間(Lv)以上にわたってパワーしきい値(PL)を越え
ているときはその区間を音声とみなす方法である。 第5図(a)〜(c)は音声信号のパワー値(P)と
発声時間(T)との関係を示すパターン例である。ここ
でT0は音声区間である。(a)は例えば“あ",“お",
“も",“り”と発声した場合で、しきい値PL以上で音声
区間のしきい値Lvについてすべての単音節のパワーが存
在するため認識に問題はない。(b)の場合は、例え
ば、“あ",“い",“ち”と発声したとき、無音区間の時
間しきい値LSを設けて、しきい値LS以下のときは“あ",
“い",“ち”は一回の発声によるものとみなしている。
このときの無音区間LSはパワーの低い(しきい値PL以下
の)音声とみることができる。また、(c)の場合は、
例えば、“さ",“っ",“ぽ",“ろ”と発声したときで、
“っ”の区間がしきい値PL以下でありかつ時間しきい値
LS以上であるため音声なのかノイズなのか判断しにく
い。 第6図(a)〜(d)は従来の検出方式を説明するパ
ターン図である。(a)は音声区間T0がすべてしきい値
PL以上であるため認識の問題はない。(b)は区間T1
音声区間の時間しきい値Lv以下なのでノイズとみなし音
声区間としない。(c)は区間T2およびT3がしきい値Lv
より大なので音声区間とみなし、区間T4は無音区間のし
きい値LS以下なのでノイズとはみなさない。結局この場
合には区間(T2+T4+T3)が音声区間とみなされる。
(d)は区間T5とT7がしきい値Lv以下なのでノイズと見
なされ、区間T6はしきい値Lv以上なので音声区間と見な
される。 〔発明が解決しようとする問題点〕 しかしながら、上記のような方法により検出したとき
は次のような問題がある。即ち、音声信号の始まり(始
端部)では音声の脱落が起き易く、音声信号の終り(終
端部)ではノイズの付加が起き易いことである。このよ
うな始端部(もしくは語頭)と終端部(もしくは語尾)
とで異なる傾向が現われる要因には2つある。1つは、
日本語の場合単語の先頭音節は短かく語尾の音節は長め
に発声される傾向にあること、2つは、単語の終端部で
は発声が不安定となり、一度パワー値が低くなった後に
小さな山が多く現われることである。後者の場合は、発
声者自身が出す音なので音声とみなすことができるが、
音声認識を行なう場合にはこの部分が音声区間に含まれ
ると、誤認識の原因となるためこの部分を音声区間に含
めることは好ましくない。 〔問題点を解決するための手段および作用〕 本発明は上述の問題点を解消した音声区間検出装置を
提供することにあり、本発明の原理は、音声(特に単語
音声)の検出において、音声区間の時間しきい値を語頭
と語尾とで変えることにあり、具体的には、語頭におい
ては音声区間の第1のしきい値LVを小さく設定し、語尾
においてはこのしきい値よりも大きい第2のしきい値を
設定するものである。これにより、従来問題となってい
た語頭における音声の脱落と語尾におけるノイズの付加
を低減することができ音声区間検出の精度を著しく向上
させることができる。 第1図(a),(b)は本発明の原理を説明する特性
図である。(a)は音声の語頭の場合、(b)は音声の
語尾の場合である。(a),(b)において、縦軸PRO
はノイズ付加の確率および音声脱落の確率であり、横軸
LVは音声区間の時間しきい値である。また、IaおよびIb
はノイズ付加の確率曲線、IIaおよびIIbは音声脱落の確
率曲線、そしてIIIaおよびIIIbはLvの最適値を得るため
の誤り確率曲線である。 (a)において、語頭の場合にはしきい値Lvが大きけ
れば大きい程Iaに示す如くノイズ付加の確率は減少して
いくが、逆に、音声脱落の確率はIIaに示す如く急激に
増大する。また、しきい値を小さくしていけばノイズ付
加の確率は急激に増大し、音声脱落の確率は減少する。
これらの曲線から、曲線IaとIIaの和である曲線IIIa
図示の如く極小値を持つ曲線となる。この極小値におけ
るしきい値をLvaとすると、Lvaは語頭のときの最適しき
い値を示しており、このしきい値Lvaはノイズ付加の確
率と音声脱落の確率がバランスした有効な値となる。こ
の場合、Lvaは騒音環境等によって異なるが、およそ70m
s前後である。 (b)は語尾の場合を示している。語尾の場合は語頭
に比べてLvが大の方に寄っている。(a)と同様のパタ
ーンなので詳細説明を省略するが、Lvbは語尾のときの
最適しきい値を示しており、125ms前後である。即ち、
語尾でのしきい値Lvbはノイズ付加の確率と音声脱落の
確率がバランスした125msが有効な値となる。 このように、音声区間検出において語頭と語尾とのし
きい値を変えることによってノイズ付加と音声脱落の確
率の共に低い検出を行い得ることが判明した。 〔実施例〕 第2図は本発明の音声区間検出装置を実現する装置の
概略構成図である。マイクロホン21から入力された音声
信号は、プリエンファシス部22において高域強調された
後、一方はパワー値抽出部23において音声の特徴パラメ
ータの一つであるエネルギ分布の抽出が、サンプリング
により時系的になされ、複数のフィルタからなるバンド
パスフィルタ部24において特徴抽出がなされる。区間検
出部26では後述する第3図に示すようにパワー値の時系
列PW(i)にもとづいて音声区間の検出が行われる。音
声認識出力部27は音声辞書を有しこれを参照しつつパタ
ーンマッチングを行い認識結果をスピーカ28から出力す
る。制御部25は区間検出部26および音声認識出力部27等
を制御する。 第3図は第2図の区間検出部26を詳細に示すブロック
図である。第3図において、261は音声の語頭(始端)
を検出する始端検出部、262は語尾(終端)を検出する
終端検出部、263は各種しきい値データPL,Lva,Lvb,Ls
を格納するしきい値格納部である。始端検出部261と終
端検出部262には前段のパワー値抽出部23から、パワー
値の例えば10msのサンプリング値PW(i)がシリーズに
入力される。始端検出部261ではフレームごとにしきい
値格納部263から読み出されたパワーのしきい値PLとパ
ワーの時系列PW(i)との大小が比較され、さらに、語
頭の第1のしきい値Lva、無声区間のしきい値Lsとサン
プリングフレームの位置が比較される。終端検出部262
では同様にフレームごとにパワーしきい値PLと時系列PW
(i)との大小が比較され、さらに語尾の第2のしきい
値Lvb、無声区間のしきい値Lsとサンプリングフレーム
の位置が比較される。終端検出部262では始端検出部261
とこれらのデータとを合わせて始端終端位置情報Sを音
声認識出力部27に出力する。 第4図は第3図の区間検出部における処理のフローチ
ャートである。フローチャートの前半のステップ1〜9
は始端検出部261における処理、後半のステップ10〜21
は終端検出部262における処理である。第4図におい
て、iはサンプリングされたフレーム番号、iSはしきい
値の開始のフレーム番号、jは始端側のしきい値を連続
して越えているフレーム数、ieはしきい値の終りのフレ
ーム番号、kは終端側のしきい値を連続して下まわって
いるフレーム数である。フローチャートに示すように、
パワー値抽出部23からのパワー値の時系列PW(i)とパ
ワー値しきい値PLとが各フレームについてその大小を比
較し(ステップ3)、PW(i)<PLであればステップ2
が繰り返えされる。PW(i)≧PLとなったときそのフレ
ーム番号iSが記憶され、PW(i)≧PLが続く間はステッ
プ6,7が繰り返えされる。ステップ8においてPW(i)
<PLのとき語頭のしきい値Lvaか否か判断され、(ステ
ップ9)、フレーム数jがしきい値Lvaを越えていれば
次に終端処理に入る。越えていなければまだ音声が入力
されてないとみなしてステップ2に戻る。終端において
も同様なステップをとるが、ステップ14においてPW
(i)<PLのときはステップ21において無声区間LSか否
かの判断が行われ無声区間でなければ、即ち、フレーム
数kがLSより大であれば音声区間検出は始端検出部にお
いて終了し、小であって無声区間であればステップ12に
戻る。そして、ステップ19においてPW(i)≧PLであれ
ば、ステップ20にて語尾のしきい値Lvbか否かが判断さ
れ、しきい値Lvbがフレーム数jより大であればステッ
プ21にて無声区間のしきい値LSが判断され音声区間検出
は終了する。 結局、音声の始端フレームは、is、終端フレームはie
として求まることになる。 〔発明の効果〕 以上説明したように、本発明によれば、音声区間検出
において語頭と語尾のしきい値を変えるようにしたので
語頭における音声の脱落、語尾におけるノイズの付加を
著しく低減することができ、音声区間検出の精度を著し
く向上させることができる。
DETAILED DESCRIPTION OF THE INVENTION [Summary] In a speech segment detection device in a speech recognition device, a speech segment threshold value at the beginning of a speech signal is set small to reduce the probability of speech dropout, and the threshold value at the end of the speech signal is reduced. This is set to be larger than the threshold value to lower the probability of adding noise. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice section detection apparatus, and more particularly, to a detection apparatus that facilitates discrimination between voice sections, unvoiced sections, and noise in voice recognition using a computer. [Prior Art] A method of automatically detecting a voice uttered by a human by using a computer to extract features has already been widely applied.
As one of the typical methods, segmentation is performed to divide a continuous vocalized speech signal into single syllables and phonemes, and the single syllable is subjected to speech recognition. By recognizing monosyllables, it can be extended to more advanced word recognition and conversation voice recognition. At present, there is no method capable of performing a complete segmentation, but for example, a method in which a power value of a single syllable exceeds a predetermined threshold value is regarded as speech is known. That is, when the power value exceeds the power threshold (P L ) for a certain period of time (L v ) or longer, the section is regarded as speech. FIGS. 5A to 5C are pattern examples showing the relationship between the power value (P) of the audio signal and the utterance time (T). Here T 0 is the voice section. (A) is, for example, “A”, “O”,
"Also", if you say "Ri", there is no problem in recognition due to the presence of all the single-syllable power for the threshold L v in a speech period equal to or higher than the threshold value P L. In the case of (b), for example, "a", "have", "Chi" as when uttered, with a time threshold L S silent section, when the following threshold L S "A" ,
“I” and “Chi” are regarded as being made by one utterance.
Silent interval of time L S can be regarded as a low power (threshold P L below) speech. In the case of (c),
For example, when you say “sa”, “tsu”, “ぽ”, “ro”,
The interval of “tsu” is equal to or less than the threshold value P L and the time threshold value
Since it is longer than L S, it is difficult to determine whether it is voice or noise. 6 (a) to 6 (d) are pattern diagrams for explaining a conventional detection method. (A) shows that all voice segments T 0 are threshold values
There is no problem of recognition because it is P L or more. (B) the interval T 1 is not time threshold L v or less, such since speech segment regarded as noise in a speech period. (C) is the interval T 2 and T 3 threshold L v
More deemed large, so the speech segment, segment T 4 are not considered to be the threshold value L S hereinafter, such the noise of the silent section. After all, in this case, the section (T 2 + T 4 + T 3 ) is regarded as the voice section.
(D) are section T 5 and T 7 are considered threshold L v or less, such the noise, the interval T 6 are considered speech section because more threshold L v. [Problems to be Solved by the Invention] However, there is the following problem when detected by the above method. That is, at the beginning (start end) of the audio signal, the sound is likely to drop out, and at the end (end) of the audio signal, noise is likely to be added. Such start (or start) and end (or end)
There are two factors that cause different tendencies between the two. One is
In the case of Japanese, the first syllable of a word tends to be short and the syllable at the end of the word tends to be uttered longer. Is that many appear. In the case of the latter, it can be regarded as a voice because it is the sound emitted by the speaker itself,
In the case of performing voice recognition, if this part is included in a voice section, it causes erroneous recognition, and therefore, it is not preferable to include this part in the voice section. [Means and Actions for Solving the Problems] The present invention is to provide a voice section detection device which solves the above-mentioned problems, and the principle of the present invention is to detect voice (especially word voice) in voice detection. located varying the time threshold interval in the word head and endings, specifically, reduced to set the first threshold value L V of the speech segment in the prefix in the ending than this threshold This is to set a large second threshold value. As a result, the dropout of speech at the beginning of a word and the addition of noise at the end of the word, which have conventionally been problems, can be reduced, and the accuracy of speech section detection can be significantly improved. 1 (a) and 1 (b) are characteristic diagrams for explaining the principle of the present invention. (A) shows the case of the beginning of the voice, and (b) shows the case of the end of the voice. In (a) and (b), the vertical axis PRO
Is the probability of noise addition and the probability of voice dropout.
L V is a time threshold of the voice section. Also, I a and I b
The probability curve of noise addition, II a and II b are probability curve of the speech falling and III a and III b, is an error probability curve for obtaining the optimum value of L v. (A), a is in the case of prefix is decreasing the probability of noise addition, as shown in more I a greater the threshold L v, conversely, the probability of speech falling rapidly as shown in II a To increase. Also, as the threshold value is reduced, the probability of noise addition sharply increases, and the probability of voice dropout decreases.
From these curves, the curve I a and II a curve III a is the sum of the curve with a minimum value as shown. Assuming that the threshold value at this minimum value is L va , L va indicates an optimal threshold value at the beginning of the word, and this threshold value L va is an effective threshold in which the probability of noise addition and the probability of speech dropout are balanced. Value. In this case, Lva varies depending on the noise environment, etc.
s. (B) shows the case of the ending. In the case of endings L v is closer to those of large compared to the prefix. Since the pattern is the same as (a), the detailed description is omitted, but L vb indicates the optimum threshold value at the end of the word, and is about 125 ms. That is,
The effective value of the threshold L vb at the end is 125 ms in which the probability of noise addition and the probability of voice dropout are balanced. As described above, it has been found that by changing the threshold value between the beginning and the end of the voice section detection, it is possible to detect both the noise addition probability and the voice dropout probability. [Embodiment] FIG. 2 is a schematic configuration diagram of an apparatus for realizing a voice section detection apparatus according to the present invention. The audio signal input from the microphone 21 is subjected to high-frequency emphasis in the pre-emphasis unit 22, and then one of the power value extraction units 23 extracts the energy distribution, which is one of the characteristic parameters of the audio, by sampling. The characteristic is extracted in a band-pass filter unit 24 including a plurality of filters. The section detection unit 26 detects a voice section based on a time series PW (i) of power values, as shown in FIG. 3 described later. The voice recognition output unit 27 has a voice dictionary, performs pattern matching while referring to the voice dictionary, and outputs a recognition result from the speaker 28. The control unit 25 controls the section detection unit 26, the voice recognition output unit 27, and the like. FIG. 3 is a block diagram showing the section detecting section 26 of FIG. 2 in detail. In FIG. 3, reference numeral 261 denotes the beginning of the voice (starting point)
, 262 an end detection unit for detecting the end (end), and 263 a threshold storage unit for storing various threshold data P L , L va , L vb , L s and the like. For example, a sampling value PW (i) of 10 ms of the power value is input to the start end detection unit 261 and the end detection unit 262 from the power value extraction unit 23 in the previous stage. Magnitude of the time-series PW (i) the threshold P L and power of the power that is read from the threshold storage unit 263 for each frame in the start detection section 261 are compared, further, the first threshold of the prefix The value L va , the threshold L s of the unvoiced section, and the position of the sampling frame are compared. Termination detector 262
Power threshold P L and chronological PW in each frame as well
The magnitude of the (i) are compared, further a second threshold L vb endings, the position of the threshold L s and the sampling frame unvoiced is compared. In the end detection unit 262, the start detection unit 261
, And outputs the start and end position information S to the speech recognition output unit 27. FIG. 4 is a flowchart of a process in the section detection unit in FIG. Steps 1-9 in the first half of the flowchart
Is the processing in the start end detection unit 261, and the latter half of steps 10 to 21
Is a process in the end detection unit 262. In FIG. 4, i is the sampled frame number, i S is the start frame number of the threshold, j is the number of frames continuously exceeding the threshold on the start end side, and i e is the threshold of the threshold. The ending frame number, k, is the number of frames continuously falling below the threshold value on the ending side. As shown in the flowchart,
Comparing the magnitude for the time series PW (i) a power value threshold P L and each frame of the power values from the power value extracting unit 23 step if (Step 3), PW (i) <a P L 2
Is repeated. The frame number i S when a PW (i) ≧ P L is stored, while the PW (i) ≧ P L continues step 6 is repeated Kaee. In step 8, PW (i)
<When P L is determined whether the prefix of the threshold L va, (step 9), the number of frames j enters the next termination if exceeds the threshold value L va. If not, it is determined that no voice has been input, and the process returns to step 2. Similar steps are taken at the end, but in step 14 the PW
(I) <If not unvoiced L S whether the determination is made unvoiced in step 21 when the P L, i.e., the speech section detection start detection unit if larger than the number of frames k are L S And returns to step 12 if it is a small and unvoiced section. Then, if PW (i) ≧ P L in step 19, it is determined whether or not ending threshold L vb at step 20, step 21 if larger than the threshold value L vb is the number of frames j Then, the threshold value L S of the unvoiced section is determined, and the detection of the voice section ends. After all, the start frame of the voice is i s and the end frame is i e
Will be obtained as [Effects of the Invention] As described above, according to the present invention, the thresholds of the beginning and the end are changed in speech section detection, so that dropout of speech at the beginning and addition of noise at the end can be significantly reduced. Thus, the accuracy of voice section detection can be significantly improved.

【図面の簡単な説明】 第1図は本発明の原理を説明する特性図、 第2図は本発明の一実施例装置構成図、 第3図は第2図区間検出部の詳細図、 第4図は本発明の処理フローチャート、 第5図は音声のパワー値と発声時間との関係を示すパタ
ーン図、および 第6図はは従来の検出方式を説明するパターン図であ
る。 (符号の説明) 21……マイクロホン、 22……プリエンファシス部、 23……パワー抽出部、 24……バンドパスフィルタ部、 25……制御部、26……区間検出部、 27……音声認識出力部、28……スピーカ、 261……始端検出部、262……終端検出部、 263……しきい値格納部。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a characteristic diagram for explaining the principle of the present invention, FIG. 2 is a configuration diagram of an embodiment of the present invention, FIG. FIG. 4 is a processing flowchart of the present invention, FIG. 5 is a pattern diagram showing the relationship between the power value of speech and the utterance time, and FIG. 6 is a pattern diagram explaining a conventional detection method. (Explanation of symbols) 21: microphone, 22: pre-emphasis unit, 23: power extraction unit, 24: band-pass filter unit, 25: control unit, 26: section detection unit, 27: voice recognition Output unit, 28 speaker, 261 start-end detection unit, 262 end-end detection unit, 263 threshold storage unit.

Claims (1)

(57)【特許請求の範囲】 1.音声認識装置の音声区間検出装置において、 入力される音声信号の始端部における音声パワー値と所
定のパワーしきい値及び音声区間の第1の時間しきい値
を比較する始端検出部と、 音声信号の終端部における音声パワー値と前記所定のパ
ワーしきい値及び音声区間の前記第1の時間しきい値よ
り大なる第2の時間しきい値を比較する終端検出部と、 前記パワーしきい値及び前記第1及び第2の時間しきい
値を格納するしきい値格納部とを備え、 音声区間の検出に際し、音声信号の語頭では前記第1の
時間しきい値により、音声信号の語尾では前記第2の時
間しきい値により比較し、音声区間を検出するようにし
た音声区間検出装置。
(57) [Claims] A voice section detection device of a voice recognition device, comprising: a start edge detection unit for comparing a voice power value at a start edge of an input voice signal with a predetermined power threshold value and a first time threshold value of a voice interval; An end detection unit for comparing a sound power value at a terminal part of the terminal with the predetermined power threshold value and a second time threshold value larger than the first time threshold value of a sound section; And a threshold storage unit for storing the first and second time thresholds. Upon detection of a voice section, the first time threshold at the beginning of the voice signal and the threshold at the end of the voice signal A voice section detection device that compares the second time threshold value and detects a voice section.
JP62079673A 1987-04-02 1987-04-02 Voice section detection device Expired - Fee Related JP2891259B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62079673A JP2891259B2 (en) 1987-04-02 1987-04-02 Voice section detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62079673A JP2891259B2 (en) 1987-04-02 1987-04-02 Voice section detection device

Publications (2)

Publication Number Publication Date
JPS63247798A JPS63247798A (en) 1988-10-14
JP2891259B2 true JP2891259B2 (en) 1999-05-17

Family

ID=13696707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62079673A Expired - Fee Related JP2891259B2 (en) 1987-04-02 1987-04-02 Voice section detection device

Country Status (1)

Country Link
JP (1) JP2891259B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61140999A (en) * 1984-12-13 1986-06-28 沖電気工業株式会社 Voice section detection system

Also Published As

Publication number Publication date
JPS63247798A (en) 1988-10-14

Similar Documents

Publication Publication Date Title
KR101417975B1 (en) Method and system for endpoint automatic detection of audio record
JPH0990974A (en) Signal processor
JPS58130393A (en) Voice recognition equipment
JPS62217295A (en) Voice recognition system
KR20170073113A (en) Method and apparatus for recognizing emotion using tone and tempo of voice signal
JP3069531B2 (en) Voice recognition method
CN108986844B (en) Speech endpoint detection method based on speaker speech characteristics
KR101122590B1 (en) Apparatus and method for speech recognition by dividing speech data
JP2891259B2 (en) Voice section detection device
Sudhakar et al. Automatic speech segmentation to improve speech synthesis performance
JPH01255000A (en) Apparatus and method for selectively adding noise to template to be used in voice recognition system
JPS60129796A (en) Sillable boundary detection system
KR100345402B1 (en) An apparatus and method for real - time speech detection using pitch information
JPH034918B2 (en)
JPS61260299A (en) Voice recognition equipment
JP2901976B2 (en) Pattern matching preliminary selection method
JPH0567039B2 (en)
JPH0376471B2 (en)
JPS6310437B2 (en)
JPS59149400A (en) Syllable boundary selection system
Ahmad et al. An isolated speech endpoint detector using multiple speech features
JPH0343639B2 (en)
JPH05303391A (en) Speech recognition device
JP3008404B2 (en) Voice recognition device
JPH07104675B2 (en) Speech recognition method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees