JPH039400A - Voice recognizer - Google Patents

Voice recognizer

Info

Publication number
JPH039400A
JPH039400A JP1142965A JP14296589A JPH039400A JP H039400 A JPH039400 A JP H039400A JP 1142965 A JP1142965 A JP 1142965A JP 14296589 A JP14296589 A JP 14296589A JP H039400 A JPH039400 A JP H039400A
Authority
JP
Japan
Prior art keywords
voice
noise
speech
storage means
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1142965A
Other languages
Japanese (ja)
Inventor
Atsushi Shinpo
敦 新保
Yukio Suzuki
幸夫 鈴木
Hiromi Ando
安藤 博美
Hideki Kamoi
鴨井 秀樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP1142965A priority Critical patent/JPH039400A/en
Publication of JPH039400A publication Critical patent/JPH039400A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To improve the recognition rate in both low-noise environment and high-noise environment by indicating the loudness of a voice to a speaker according to the loudness of a background noise, and switching and using two kinds of storage means which are prepared. CONSTITUTION:A noise detecting means 108 measures and decides the background noise to detect how loud the noise is, and indicates normal or loud voice input to a speaker according to the detection result. Then when the voice input of the speaker is recognized, a 1st storage means 105 or 2nd storage means 106 is used selectively. For example, when it is judged that a noise is low, feature parameters stored in the 1st storage means 105 are utilized to recognize an input voice. When the noise is loud, on the other hand, feature parameters stored in the 2nd storage means 106 are utilized to recognize the input voice. Consequently, the excellent recognition rate is obtained in both the low-noise environment and loud-noise environment.

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は音声認識装置、特に高雑音環境下における音
声認識に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a speech recognition device, and particularly to speech recognition in a high noise environment.

[従来の技術] 通常、音声認識は話者により発生された音声を分析し、
予め登録しておいた標準パターン(辞書とも呼ぶ)との
類似性を算出し、最も類似している標準パターンを認識
結里として出力する。
[Prior Art] Usually, speech recognition analyzes the speech produced by a speaker,
The similarity with standard patterns (also called a dictionary) registered in advance is calculated, and the most similar standard pattern is output as a recognized pattern.

第2図は古井著[ディジタル音声処理」(1985年9
J125日)東海犬q出阪会、P 160−181に開
示されている、単語単位の音声入力を仮定した際の音声
認識装置のブロック図である。図において、(201)
は入力端、(202)は音声分析手段であり、入力端(
20+、’)を介して入力された音声に必要な処理を施
し、認識にa効な特徴パラメータに変換する。
Figure 2 is by Furui [Digital Audio Processing] (September 1985).
125) is a block diagram of a speech recognition device when assuming word-by-word speech input, which is disclosed in Tokai Inu q Dezakakai, P. 160-181. In the figure, (201)
is an input terminal, (202) is a voice analysis means, and the input terminal (
20+,') is subjected to necessary processing to convert it into feature parameters that are effective for recognition.

(203)は単語の標準パターンが格納されているメモ
リであり、認識させたい単語の特徴パラメー夕が音り分
析手段(202)によりp?I)求められて格納されて
いる。(204)は単語認識手段であり、4忠対象とな
る音声が音声分析手段(202)により同様に処理17
て導出された特徴パラメータとメモリ(203)に格・
納されでいる単語の標準パターンの全てとの類似性を計
算し、最も類似度の高い(似ている)パターンを認識結
果と12で出力端(205)に出力する。
(203) is a memory in which standard patterns of words are stored, and characteristic parameters of words to be recognized are determined by sound analysis means (202). I) Required and stored. (204) is a word recognition means, and the voice to be the subject of the four words is similarly processed 17 by the voice analysis means (202).
The feature parameters derived by
The similarity with all the standard patterns of the stored words is calculated, and the pattern with the highest degree of similarity (similarity) is outputted to the output terminal (205) as a recognition result.

第3図は第2図の一高声認識装置の動作を示すフV1−
チャー1・である。&声認識が開始すると(S301)
、マイクロフォン(図示せず)等を介して入力端(20
1)に音声を入力する(S302)。音声分析手段(2
02)は音声人力を分析1.5だ後特徴パラメータを導
出する。そして、単語認識手段(203)は音声分析手
段(202)からの特徴パラメータとメモリ(203)
に格納されている単語標準パターンの全てとの類似性を
計算18.て、最も類似度の高いパターンを認識結果と
して求め(S3(13)、出力端(205)に出力L 
(S304)、処理を終了する(S305)。
FIG. 3 is a diagram showing the operation of the one-high voice recognition device shown in FIG.
Char 1. & When voice recognition starts (S301)
, microphone (not shown), etc.
1) Input voice (S302). Voice analysis means (2
02) derives the feature parameters after analyzing the voice performance 1.5. Then, the word recognition means (203) uses the characteristic parameters from the speech analysis means (202) and the memory (203).
18. Calculate the similarity with all word standard patterns stored in 18. Then, the pattern with the highest degree of similarity is determined as the recognition result (S3 (13), and output L to the output terminal (205).
(S304), and the process ends (S305).

通常、音声分析1段(202)及び単語認識手段(20
4)はディジタル信号処理プロセッサ(DSP)等を用
いて実現されているため、入力端(201)に入力され
る音声入力は、マイクロフォンから人力される音声信号
を増幅j2、適当なフィルタ処理をしだ後1: A /
 D変換されたディジタルデータとなっている。また、
認コ結果は適当な符号に符号化し、出力端(205)を
介して被制御機器の制御部へ出力する。例えば、音声タ
イプライタ−であれば、タイプライタ−の^、ソドを制
御する回路へ出力【、音声ダイヤルであれば、ダイヤル
パルス又はブツシュボタントーンを発生する回路へ出力
する。
Usually, a speech analysis stage (202) and a word recognition means (20
4) is realized using a digital signal processor (DSP), etc., so the audio input to the input terminal (201) is amplified by inputting the audio signal from the microphone and then subjected to appropriate filter processing. After 1: A /
This is D-converted digital data. Also,
The recognition result is encoded into an appropriate code and output to the control unit of the controlled device via the output terminal (205). For example, if it is a voice typewriter, it will be output to a circuit that controls the typewriter's ^ and sod, and if it is a voice dial, it will be output to a circuit that generates dial pulses or button tones.

また、場合によっては、並行してディスブ(ノイや音声
合成装置等を用いて話者に対1.てエコーバックするこ
ともある。
In some cases, echo back to the speaker may also be echoed using a disb (noise, voice synthesizer, etc.) in parallel.

[発明が解決12ようとする課題〕 し、かり、ながら、」1記の音声認識装置では背景雑音
が大きい環境下、例えば高速走行時の自動車内等では、
話者が発声する音声と同等、或いは、それ以上の背景雑
音がある場合があり(すなわぢS/間が負となる場合)
、音声の分析・認識が正確に実行できないという問題点
がある。
[Problem to be solved by the invention 12] The voice recognition device described in 1 above cannot be used in an environment with large background noise, such as in a car while driving at high speed.
There may be background noise that is equal to or greater than the voice uttered by the speaker (i.e., when the S/pause is negative).
However, there is a problem in that voice analysis and recognition cannot be performed accurately.

また、このような高雑音環境Fにおい′C1人間は自然
に大きな声で発声1.ようとする傾向がある。
In addition, in such a high-noise environment F, 'C1 humans naturally vocalize in a loud voice 1. There is a tendency to try.

大きな声で発声1.た場合、S / N比は改善される
が、反面、音声の特徴パラメータが通常の特徴パラメー
タと異なることが多く、やはり、正確な認4基が実行で
きないという問題点がある。
Speak out loud1. In this case, the S/N ratio is improved, but on the other hand, the characteristic parameters of the voice are often different from the normal characteristic parameters, and there is still the problem that accurate recognition cannot be performed.

この発明は、従来の高雑音環境下での認識率の低下とい
う問題点を解決し、低雑音環境下とρ1雑音環境下の両
方において良好な認識率が得られる音声認識装置を提供
することを目的とする。
The present invention aims to solve the conventional problem of a decrease in recognition rate in a high noise environment and to provide a speech recognition device that can obtain a good recognition rate in both a low noise environment and a ρ1 noise environment. purpose.

[課題を解決するための手段] この発明に係る音声合成装置は、通常の音声の特徴パラ
メータが格納された第1の記憶手段と、大きな音声の特
徴パラメータが格納された第2の記憶手段と、背景雑音
を測定・判定し、その大小を検出する雑音検出手段と、
雑δlノベル検出手段の出力に従って話者に対17て通
常のμjでの音声入力か、又は大きな声での音声入力か
を指示する音声合成手段とを有する。
[Means for Solving the Problems] A speech synthesis device according to the present invention includes a first storage means in which characteristic parameters of normal speech are stored, and a second storage means in which characteristic parameters of large speech are stored. , a noise detection means for measuring and determining background noise and detecting its magnitude;
It has a voice synthesizing means for instructing the speaker whether to input the voice in normal μj or in a loud voice according to the output of the miscellaneous δl novel detection means.

更に、この発明に係る音声認識装置は、音声入力を分析
してその特徴パラメータを求める音声分析−1段と、雑
音検出手段の出力に従って第1の記憶手段又は第2の記
憶手段の特徴パラメータと3、音声分析手段で求められ
た特徴パラメータとを比較して入力音声を認識する音声
認識手段とを有する。
Furthermore, the speech recognition device according to the present invention includes a speech analysis stage-1 for analyzing the speech input to obtain its characteristic parameters, and a feature parameter of the first storage means or the second storage means according to the output of the noise detection means. 3. A speech recognition means for recognizing the input speech by comparing it with the feature parameters determined by the speech analysis means.

[作 用1 この発明においては、背景雑音をah定・判定してその
大小を検出し、その大小に応じて話者に対して通常の声
での音声入力か、又は大きな声での音声人力かを指示1
1、そして、話者の音声入力を認識する際に、第1の記
憶手段又は第2の記憶手段を選択に利用する。例えば雑
音が小さいと判断された場合には、第1の記憶手段に記
憶された特徴パラメータを利用1.て入力音声を認識す
る。また、雑音が大きいと判断された場合には、第2の
記憶手段に記憶された特徴パラメータを利用L ”[人
力音声を認識する。
[Function 1] In this invention, the background noise is determined and judged to detect its magnitude, and depending on the magnitude, the speaker is given a voice input in a normal voice or a voice input in a loud voice. Instructions 1
1. When recognizing the speaker's voice input, the first storage means or the second storage means is used for selection. For example, when it is determined that the noise is small, the feature parameters stored in the first storage means are used.1. recognize the input voice. Furthermore, when it is determined that the noise is large, the feature parameters stored in the second storage means are used to recognize the human voice.

〔実施例〕〔Example〕

第1図はこの発明の一実施例V係る音声認識装置の構成
を示すブロック図である。図において、(101)はマ
イクロフォン、(102)は前処理手段であり、ここで
はマイクロフォン(toi)に入力された音声入力を増
幅し、適当なフィルタ処理をした後にA/D変換り、て
ディジツノ1データの形式で後続するデジタル回路に出
力する。>(104)は音μ(分析手段であり、マ・イ
クロフA−ン(101)及び前処理手段(102)を介
j7て入力された音声に適当な分析処理を施して認識に
必要な特徴パラメータに変換する。
FIG. 1 is a block diagram showing the configuration of a speech recognition device according to an embodiment V of the present invention. In the figure, (101) is a microphone, and (102) is a preprocessing means, which amplifies the audio input into the microphone (toi), performs appropriate filter processing, and then converts it into a digital signal. Output to the following digital circuit in the form of 1 data. > (104) is a sound μ (analyzing means) which performs appropriate analysis processing on the voice input through the microphone A-n (101) and pre-processing means (102) to analyze the features necessary for recognition. Convert to parameter.

(105)は通常の大きさで発生(2,た音声の特徴パ
ラメータの標準パターンが格納されたメモリで、(IO
G)は大きな声で発生した音声の特徴パラメータのバラ
・−ンが格納されたメモリであり、これらツメ% ’J
 (105) 、 (10G) l;t:辞書トL テ
i7)機能をHする。メモリ(105) 、(,10B
)に対する特徴パラメータの格納は、音声分析手段(1
04)の出力が制御線(107)を介してそれぞれ行わ
わ、るウメモリ(105)に格納する際には比較的静か
な環境下において通常の大きさの音声δの特徴パラメー
タを登録する。メモリ(10B)に格納する際には、大
きな声で発声(7た音声の特徴パラメータを登録するが
、この時、静かな環境下での大きな声が不自然となる場
合が想定される。このような場合には、適当な雑音源を
用いて疑似的に雑音を作り出17、大きな声を発声して
登録する。
(105) is a memory in which a standard pattern of characteristic parameters of voice generated (2,
G) is a memory in which the characteristic parameters of the voice generated in a loud voice are stored.
(105) , (10G) l;t: Dictionary t i7) H function. Memory (105), (,10B
) is stored in the voice analysis means (1
04) are respectively performed via the control line (107), and when storing them in the memory (105), the characteristic parameters of the normal loudness of the sound δ are registered in a relatively quiet environment. When storing in the memory (10B), characteristic parameters of voices uttered in a loud voice (7) are registered, but at this time, it is assumed that a loud voice in a quiet environment may sound unnatural. In such a case, a pseudo noise is created using an appropriate noise source 17, and a loud voice is uttered and registered.

(108)は雑音検出手段であり、マイクロッ寸゛/(
101)に入力される雑音の1ノベルを検出し、ぞiが
所定の大きさ以ドであるかどうかによって、雑音が小さ
い又は大きいとする信号を出力する。009)は切り替
えスイッチであり、雑音検出手段(108)の出力によ
って切り替えられる。雑音検出手段(10B)の出力が
雑音が小6与いどする出力である場合には、端子010
)と(Ill)とが接続される。7また、雑音検出手段
(ios)の出力が雑音が大きいとする出力である場合
には、端子(1i0)と(112>とが接続される。
(108) is a noise detection means, which has a micrometer size ゛/(
101), and outputs a signal indicating that the noise is small or large depending on whether or not i is larger than a predetermined value. 009) is a changeover switch, which is switched by the output of the noise detection means (108). If the output of the noise detection means (10B) is such that the noise is small, the terminal 010
) and (Ill) are connected. 7 Furthermore, when the output of the noise detection means (ios) is an output indicating that the noise is large, the terminals (1i0) and (112> are connected.

(113)は音声合成手段であり、音声分析手段(10
4)からの特徴パラメータと、メモリ(105)又は(
10G)の特徴パラメータの全てとの類似性を、:[算
し、最も類似度の高い(似ている)特徴バラメークを認
識結果として出力端(114)に出力する(115)は
音声合成手段であり、雑音検出手段(108)及び音声
認識手段(113)からの指令に従って音声を合成(2
、スピーカ(110)を介して出力する。
(113) is a speech synthesis means, and a speech analysis means (10
4) and the feature parameters from the memory (105) or (
(115) is a speech synthesis means which calculates the similarity with all the feature parameters of 10G) and outputs the feature parameter with the highest degree of similarity (similarity) to the output terminal (114) as a recognition result. The voice is synthesized (2) according to instructions from the noise detection means (108) and the voice recognition means (113).
, output through the speaker (110).

第4図は第1図の音声認識装置の動作を示すフローチャ
ートである。音声、22が開始すると(S4f11)、
始めに背景雑音(あるいは環境雑音)を入力マイクロフ
ォン(l口l)を介(、て入力する(8402)。
FIG. 4 is a flowchart showing the operation of the speech recognition device of FIG. 1. When audio 22 starts (S4f11),
First, background noise (or environmental noise) is input via the input microphone (1) (8402).

人力された雑音は雑音検出1段(■8)でその雑音の大
きさが用足され、定められた閾値より大きく雑音が大き
いと判断された場合には切り替えスイッ+ (10G)
 (7)端F (110)と(112)とを接続し、後
述する処理(S407)〜(S409)がなされろ。ま
た、雑音のレベルが定められた閾値より小さく雑音が小
さいと判断された場合には切り替えスイッチく109)
の端子(110)とcill)とを接続し、後述する処
理(S404) = (8406)を実行するようにす
る(S403)、。
The noise generated manually is calculated by the noise level in the first stage of noise detection (■8), and if it is determined that the noise is larger than the predetermined threshold, the changeover switch + (10G) is applied.
(7) Connect the ends F (110) and (112) and perform the processes (S407) to (S409) described later. Also, if the noise level is lower than a predetermined threshold and it is determined that the noise is small, the changeover switch is turned off (109).
terminal (110) and cell) are connected, and the process (S404) = (8406) to be described later is executed (S403).

まず、雑音検出手段(105)により目が小さいとi′
!1断さ1+、た場合には、切り替えスイッチ(109
)の端子(110)と(lit)とを接続すると共に、
音声合成手段(115)に指示をljλて、スピーカ(
116)を作動させて話者に対1.て「お話1.下さい
」と音声人力を指示する(S404)。指示に従って発
声された音声は、マイクロフォン(101)を介(7て
前処理手段(102)に入力し、前処理手段(102)
 ζ1.!増幅され、更にノイズが除去された後、A/
D変換されてディジタル信号に変換される。音声分析手
段(104)はディジタル信号に変換された入力音声を
分析して特徴パラメータを導出する(S405)c。
First, the noise detection means (105) detects that i′ is small.
! 1 disconnection 1+, select the changeover switch (109
) terminals (110) and (lit) are connected, and
The voice synthesis means (115) is given an instruction ljλ, and the speaker (
116) to the speaker. and instructs the human voice to "Speak 1. Please" (S404). The voice uttered according to the instructions is inputted to the preprocessing means (102) via the microphone (101) (7), and is then input to the preprocessing means (102).
ζ1. ! After being amplified and further noise removed, A/
It is D-converted and converted into a digital signal. The voice analysis means (104) analyzes the input voice converted into a digital signal and derives characteristic parameters (S405)c.

次に、音声認識手段<113>は、音声分析手段(10
4)により勺折された特徴パラメータと、メモリ(10
5)に格納されている標申の特徴パラメータの全てとの
類似性を計算して、最も類似度の高いパターンを認識結
果として求め(S4DJ、出力端(114)に出力L(
S4i1)、処理を終了する(S412)。
Next, the voice recognition means <113> performs the voice analysis means (10
4) and memory (10
5), and calculates the similarity with all the feature parameters of the signpost stored in 5), and obtains the pattern with the highest degree of similarity as a recognition result (S4DJ, outputs L( to the output terminal (114))
S4i1), and the process ends (S412).

次に、雑音検出手段(105)により雑音が大きいと判
断された場合には、切り替えスイッチ(109)の端子
(1i0)と(112>とを接続すると共に、音声合成
手段(115)に指示を与えて、スピーカ(11B)を
作動させて話者に対して、「大きな声でお話1゜丁さい
」と音声入力を指示する(S407)。指示に従って発
声された音声は、マイクロフォン(101)を介して前
処理手段(102)に入力17、前処理手段(102)
では増幅され、更にノイズが除去された後、A/D変換
されてディジタル信号に変換される。
Next, if the noise detection means (105) determines that the noise is large, the terminals (1i0) and (112> of the changeover switch (109) are connected, and an instruction is given to the speech synthesis means (115). Then, the speaker (11B) is activated and the speaker is instructed to input voice by saying, "Speak loudly" (S407).The voice uttered according to the instructions is transmitted to the microphone (101). Input 17 to the preprocessing means (102) via the preprocessing means (102)
Then, the signal is amplified, noise is removed, and then A/D converted to a digital signal.

音声分析手段(104,”)はディジタル信号に変換さ
れた音声入力を分析して特徴パラメータを抽出する(8
408)。
The voice analysis means (104,'') analyzes the voice input converted into a digital signal and extracts characteristic parameters (8
408).

次に、音声認識手段(113)は、音声分析手段(10
4)により分析された特徴パラメータと、メモリ(10
13)に格納されている大きい用の特徴パラメータの全
てとの類似性を計算し、て、最も類似度の高いパターン
を認ぷ結果として求め(S409)、上記の場合と同様
に出力端(114)に出力L(8411,)、処理を終
了する(8412)。
Next, the voice recognition means (113) performs the voice analysis means (10
The feature parameters analyzed by 4) and the memory (10
13), and obtains the pattern with the highest degree of similarity as the recognition result (S409), and outputs it to the output end (114) in the same way as in the above case. ) is output L (8411,), and the process ends (8412).

なお、認讃結果を出力端(114)に出力する前に、音
声認識手段(tia)で認識した音声を、音声合成手段
([15)により音声合成を行わせてスピーカ(116
)から出力させて話者に確認させるようにしてもよい。
In addition, before outputting the recognition result to the output terminal (114), the voice recognized by the voice recognition means (tia) is synthesized by the voice synthesis means ([15) and output to the speaker (116).
) for the speaker to confirm.

また、雑音の大きさを判断した後、話者に対して音声入
力を指示する際には、スピーカ(11、G ’)の他に
、CRT (図示せず)にその旨を表示にさせることで
音声人力を指示させるようにしてもよい。
In addition, when instructing the speaker to input voice after determining the level of noise, the CRT (not shown) should be displayed in addition to the speaker (11, G'). It is also possible to have voice commands given to the user.

[発明の効果] 以上のようにこの発明によれば、背策雑音の大小に応じ
て話者に対して、声の大きさを指示すると共に、予め用
意しておいた2種類の記憶手段(通常の声の標準の特徴
パターンの登録、大きな声の特徴パターンの登録)を切
り換えて使用するようにしたので、低雑音環境下及び高
雑音慶境下の両方において良好な認識率が期待できる。
[Effects of the Invention] As described above, according to the present invention, the volume of the voice is instructed to the speaker according to the magnitude of the background noise, and two types of storage means ( Since the registration of standard feature patterns for normal voices and the registration of feature patterns for loud voices are used, a good recognition rate can be expected in both low-noise environments and high-noise environments.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の一実施例に係る音声認識装置の構成
を示すブロック図、第2図は従来の音声認識装置の構成
を示すブロック図、第3図は第2図の装置の動作を示す
フローチャート、第4図は第1図の装置の動作を示すフ
ローチャートである。 図において、(104)は音声分析手段、(105)は
通常の音声の標準パターンが格納されているメモリ、(
II)Ili)は大きな音声の標準パターンが格納され
ているメモリ、(108)は雑音検出手段、(109)
は切り替えスイッチ、(113)は音声認識手段、(1
15)は音声合成手段である。
FIG. 1 is a block diagram showing the structure of a speech recognition device according to an embodiment of the present invention, FIG. 2 is a block diagram showing the structure of a conventional speech recognition device, and FIG. 3 shows the operation of the device shown in FIG. FIG. 4 is a flowchart showing the operation of the apparatus shown in FIG. In the figure, (104) is a voice analysis means, (105) is a memory in which standard patterns of normal voices are stored, (
II) Ili) is a memory in which a standard pattern of loud voices is stored, (108) is a noise detection means, (109)
is a changeover switch, (113) is a voice recognition means, (1
15) is a speech synthesis means.

Claims (1)

【特許請求の範囲】 通常の音声の特徴パラメータが格納された第1の記憶手
段と、 大きな音声の特徴パラメータが格納された第2の記憶手
段と、 背景雑音を測定・判定し、その大小を検出する雑音レベ
ル検出手段と、 該雑音レベル検出手段の出力に従って話者に対して通常
の声での音声入力か、又は大きな声での音声入力かを指
示する音声合成装置と、 音声入力を分析してその特徴パラメータを求める音声分
析手段と、 該雑音レベル検出手段の出力に従って第1の記憶手段又
は第2の記憶手段に格納された特徴パラメータと、音声
分析手段で求められた特徴パラメータとを比較して入力
音声を認識する音声認識手段と を有することを特徴とする音声認識装置。
[Claims] A first storage means storing feature parameters of normal speech, a second storage means storing feature parameters of loud speech, and measuring and determining background noise to determine its magnitude. a noise level detection means for detecting; a speech synthesis device for instructing the speaker whether to input voice in a normal voice or in a loud voice according to the output of the noise level detection means; and analyze the voice input. speech analysis means for determining the characteristic parameters thereof; feature parameters stored in the first storage means or second storage means according to the output of the noise level detection means; and the characteristic parameters determined by the voice analysis means. A speech recognition device comprising speech recognition means for comparing and recognizing input speech.
JP1142965A 1989-06-07 1989-06-07 Voice recognizer Pending JPH039400A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1142965A JPH039400A (en) 1989-06-07 1989-06-07 Voice recognizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1142965A JPH039400A (en) 1989-06-07 1989-06-07 Voice recognizer

Publications (1)

Publication Number Publication Date
JPH039400A true JPH039400A (en) 1991-01-17

Family

ID=15327778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1142965A Pending JPH039400A (en) 1989-06-07 1989-06-07 Voice recognizer

Country Status (1)

Country Link
JP (1) JPH039400A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020029998A (en) * 2000-10-16 2002-04-22 김봉조 Adhesive coating sheet system
JP2006070448A (en) * 2004-08-31 2006-03-16 Toso Co Ltd Operating cord end of shading device
JP2008102384A (en) * 2006-10-20 2008-05-01 Fujitsu Ltd Voice input support program, voice input support device and voice input support method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020029998A (en) * 2000-10-16 2002-04-22 김봉조 Adhesive coating sheet system
JP2006070448A (en) * 2004-08-31 2006-03-16 Toso Co Ltd Operating cord end of shading device
JP2008102384A (en) * 2006-10-20 2008-05-01 Fujitsu Ltd Voice input support program, voice input support device and voice input support method

Similar Documents

Publication Publication Date Title
EP0077194B1 (en) Speech recognition system
US7885818B2 (en) Controlling an apparatus based on speech
JPS63301998A (en) Voice recognition responder
JPH09106296A (en) Apparatus and method for speech recognition
JPH039400A (en) Voice recognizer
US20080228477A1 (en) Method and Device For Processing a Voice Signal For Robust Speech Recognition
JPS6257040B2 (en)
JP3846500B2 (en) Speech recognition dialogue apparatus and speech recognition dialogue processing method
JPS6242198A (en) Voice recognition equipment
JPS6126678B2 (en)
JPH032793A (en) Preprocessing device for voice recognition
JPS5914769B2 (en) audio equipment
JPH04324499A (en) Speech recognition device
JPH03114100A (en) Voice section detecting device
JPH02103599A (en) Voice recognizing device
JP2975808B2 (en) Voice recognition device
JPH03160499A (en) Speech recognizing device
JPS59224900A (en) Voice recognition system
JPH02198500A (en) Voice recognizing device
JPH07210186A (en) Voice register
JPH02141799A (en) Speech recognition device
JP2004004182A (en) Device, method and program of voice recognition
JPH06138895A (en) Speech recognition device
JP2000155600A (en) Speech recognition system and input voice level alarming method
JP2599974B2 (en) Voice detection method