JPH0833741B2 - Voice recognition device - Google Patents

Voice recognition device

Info

Publication number
JPH0833741B2
JPH0833741B2 JP60088765A JP8876585A JPH0833741B2 JP H0833741 B2 JPH0833741 B2 JP H0833741B2 JP 60088765 A JP60088765 A JP 60088765A JP 8876585 A JP8876585 A JP 8876585A JP H0833741 B2 JPH0833741 B2 JP H0833741B2
Authority
JP
Japan
Prior art keywords
voice
correction
input
unit
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP60088765A
Other languages
Japanese (ja)
Other versions
JPS61248098A (en
Inventor
敬 三木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP60088765A priority Critical patent/JPH0833741B2/en
Publication of JPS61248098A publication Critical patent/JPS61248098A/en
Publication of JPH0833741B2 publication Critical patent/JPH0833741B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 (産業上の利用分野) この発明は音声認識装置に関し、更に詳細には、認識
結果が誤っている誤認識あるいは認識できないリジェク
ト時の訂正処理に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice recognition device, and more particularly, to a correction process at the time of a rejection in which a recognition result is erroneous or cannot be recognized.

(従来の技術) 第2図は従来の音声認識装置の構成例を示す図であ
る。この種の装置としては、例えば特開昭57-62097号公
報又は特開昭57-191698号公報に記載がある。第2図に
おいて、102は音声入力用のマイク、103はマイク102か
ら入力された音声の音声区間を検出する検出部である。
104は検出部103で検出された音声区間から特徴パラメー
タを抽出する特徴抽出部,106は特徴パラメータを蓄積す
る辞書部,105は辞書部に蓄積された特徴パラメータと入
力音声から抽出された特徴パラメータとのマッチングを
実行し、マッチング距離を算出するマッチング部,及び
107はマッチング部から算出されたマッチング距離を判
定し認識結果を出力する判定部である。100はディスプ
レイ装置,101は修正,登録等の動作を指示,入力する補
助入力装置,108はディスプレイ装置や入力装置をコント
ロールし、判定部107からの判定結果と併せて最終認識
結果を端子109に出力するコントローラである。このよ
うな構成の従来の音声認識装置では、音声入力に対する
認識結果が誤っている誤認識,あるいはリジェクト(認
識不可能判定)時の訂正方法として、再音声入力により
正しい認識結果が得られるまで繰り返す方法と、補助入
力装置から訂正情報を入力する方法をもつものが一般的
である。
(Prior Art) FIG. 2 is a diagram showing a configuration example of a conventional speech recognition apparatus. This type of device is described, for example, in JP-A-57-62097 or JP-A-57-191698. In FIG. 2, 102 is a microphone for voice input, and 103 is a detection unit for detecting the voice section of the voice input from the microphone 102.
104 is a feature extraction unit that extracts a feature parameter from the voice section detected by the detection unit 103, 106 is a dictionary unit that stores the feature parameter, and 105 is a feature parameter that is stored in the dictionary unit and the feature parameter that is extracted from the input voice. A matching unit that performs matching with and calculates a matching distance, and
Reference numeral 107 denotes a determination unit that determines the matching distance calculated by the matching unit and outputs the recognition result. Reference numeral 100 denotes a display device, 101 denotes an auxiliary input device for instructing and inputting operations such as correction and registration, and 108 controls the display device and the input device, and the final recognition result together with the determination result from the determination unit 107 is output to the terminal 109. It is an output controller. In the conventional voice recognition device having such a configuration, as a correction method at the time of erroneous recognition in which a recognition result for a voice input is incorrect, or a rejection (unrecognizable determination), it is repeated until a correct recognition result is obtained by re-voice input. It is common to have a method and a method of inputting correction information from an auxiliary input device.

さて、音声認識時に発声する誤認識又はリジェクトの
原因としては、種々の要因が考えられる。誤認識は一般
的にオペレータより発声された音声から抽出した特徴パ
ラメータと、辞書部に蓄積されている二つ以上の分類の
異なる特徴パラメータに対するマッチング距離が接近し
ている場合に発生する傾向がある。他方、リジェクトの
原因は一般的に、オペレータより発声された音声から抽
出した特徴パラメータが辞書部に蓄積されているすべて
の特徴パラメータとのマッチング距離が非常に大きい場
合、又は入力音声が弱く不確実であった場合の二通りが
あげられる。
Various factors can be considered as the cause of erroneous recognition or rejection that is uttered during voice recognition. Misrecognition generally tends to occur when the feature parameters extracted from the voice uttered by the operator and the matching distances for the two or more different feature parameters stored in the dictionary are close to each other. . On the other hand, the cause of rejection is generally uncertain when the feature parameters extracted from the voice uttered by the operator have a very large matching distance with all the feature parameters stored in the dictionary, or the input voice is weak. There are two ways.

この誤認識,リジェクトをオペレータ側から考える
と、特定の分類の入力音声データに対してのみ誤認識が
頻繁に発生するといった場合、訂正処理として、再度音
声入力を行ない、正しい認識結果を得るまでには数回の
再発声を強いられる事が多い。この現象は前述の辞書部
に蓄積された分類の異なる特徴パラメータに対するマッ
チング距離の差が小さい場合に相当する。もし、このよ
うなデータを頻繁に入力しなければならない場合には、
音声認識装置内の辞書部の特徴パラメータを変更して、
前述の現象を発生しなくしてしまう方が効率的であると
考えられる。この操作は再登録と呼ばれており、辞書部
内の特徴パラメータの一部、又は全体を変更する処理で
ある。しかしながら、一般に再登録処理は単純な訂正処
理に比べて操作手数が多くかかる。従って誤認識が頻繁
に発生するようなタイプの入力データの入力頻度が低い
場合、再発声による訂正法や、再登録処理を行なうより
も、当該データを入力して、誤認識が発生した時点で補
助入力装置等の音声によらないデータ入力方法で訂正処
理を実行したほうが操作は少ない。もう一つの誤認識,
リジェクトの起こる原因として、オペレータの発声があ
いまいであったり弱い場合がある。このような原因から
くる誤認識,リジェクトに対してはオペレータが強く、
明瞭に発声さえすれば正しく認識される場合が非常に多
い。オペレータが音声認識装置に多少なりとも習熟すれ
ばオペレータの発声の不備による誤認識,リジェクトは
簡単に判別できる。この場合の最も能率的な訂正手段
は、再発声による訂正処理であろう。
Considering this erroneous recognition and rejection from the operator's side, if erroneous recognition frequently occurs only with respect to input speech data of a specific classification, as a correction process, voice input is performed again until correct recognition results are obtained. Is often re-voiced several times. This phenomenon corresponds to the case where the difference in matching distance between the characteristic parameters of different classifications accumulated in the dictionary unit is small. If you have to enter such data frequently,
Change the characteristic parameters of the dictionary in the voice recognition device,
It is considered more efficient to eliminate the above phenomenon. This operation is called re-registration, and is a process of changing some or all of the characteristic parameters in the dictionary. However, the re-registration process generally requires more manpower than the simple correction process. Therefore, if the frequency of input data of the type in which misrecognition occurs frequently is low, rather than performing correction method by re-voice and re-registration processing, input the data, and when the misrecognition occurs, The number of operations is smaller when the correction process is executed by a data input method that does not rely on voice, such as an auxiliary input device. Another misrecognition,
The cause of the rejection is that the operator's utterance is vague or weak. Operators are strong against erroneous recognition and rejection due to such causes,
In many cases, it is recognized correctly if it is uttered clearly. If the operator is more or less familiar with the voice recognition device, it is possible to easily discriminate erroneous recognition and rejection due to the deficiency of the operator's voice. The most efficient correction means in this case would be correction processing by re-voice.

以上述べたように、性能の異なる原因で発生する誤認
識,リジェクトに対する最も効率的な訂正法は異なって
いる。従って、実際に音声認識装置を用いてデータを入
力する際には誤認識,リジェクトの発生に対する効率的
な訂正法はその時々によって変化することが非常に多
い。
As described above, the most efficient correction methods for erroneous recognition and rejection that occur due to different performances are different. Therefore, when data is actually input using a voice recognition device, an efficient correction method for erroneous recognition and rejection often changes from time to time.

(発明が解決しようとする問題点) しかしながら、上記従来の音声認識装置では何らかの
モード設定により、誤認識,リジェクトの訂正法はどち
らか一方のみ有効であった。例えば、訂正情報は補助入
力装置から入力するか、又は再発声による方法とすると
いう具合である。そしてその訂正法の変更は訂正処理操
作とは別に訂正モード切り換えなどの別操作を必要とし
た。従って、従来の音声認識装置においては誤認識,リ
ジェクトの発生時かなり頻繁に訂正モード変更を行なわ
なければならない。特に、音声認識装置に習熟したオペ
レータにおいては誤認識,リジェクトの性質より瞬時に
して最適な訂正方法を判定して訂正モード変更の作業を
的確に行なっているが、その変更操作の手間により著し
く作業効率が低下しており、十分に音声認識装置の特徴
を発揮出来ない。
(Problems to be Solved by the Invention) However, in the above-described conventional voice recognition device, only one of the correction methods for erroneous recognition and reject is effective depending on the mode setting. For example, the correction information may be input from the auxiliary input device, or may be performed by re-voice. And the change of the correction method requires another operation such as correction mode switching in addition to the correction processing operation. Therefore, in the conventional voice recognition device, it is necessary to change the correction mode quite frequently when erroneous recognition or rejection occurs. In particular, an operator who is familiar with the voice recognition device can determine the optimum correction method instantly due to the nature of erroneous recognition and rejection, and perform the work of changing the correction mode accurately. The efficiency is reduced and the features of the voice recognition device cannot be fully exhibited.

この発明は、以上述べた誤認識,リジェクトに対する
訂正処理を改善して音声認識装置における操作性の効率
化を図ることを目的とする。
An object of the present invention is to improve the erroneous recognition and the correction processing for rejects described above to improve the operability of the voice recognition device.

(問題点を解決するための手段) この発明は前記問題点を解決するために、音声を入力
してその音声区間を検出する検出部と、前記音声区間の
特徴パラメータを抽出する特徴抽出部と、予め決められ
た特徴パラメータを蓄積する辞書部と、前記特徴抽出部
により抽出された入力音声の特徴パラメータと前記辞書
部に蓄積された特徴パラメータとのマッチング距離を比
較、判定して認識結果を出力する判定部とを有する音声
認識装置において、前記認識結果が誤認識又は認識不能
の場合の訂正処理として再発声入力による第1の訂正手
段と、訂正情報を入力する補助入力装置による第2の訂
正手段とを設け、前記第1の訂正手段による訂正処理が
行われた時刻から所定時間が経過する時までに前記第2
の訂正手段による訂正処理が行われない場合にのみ、前
記1の訂正手段による訂正処理を有効とすることを特徴
とする。
(Means for Solving Problems) In order to solve the problems, the present invention includes a detection unit that inputs a voice and detects a voice section thereof, and a feature extraction unit that extracts a feature parameter of the voice section. , A dictionary unit for accumulating a predetermined characteristic parameter, and a matching result between the characteristic distance of the input voice extracted by the characteristic extracting unit and the characteristic parameter accumulated in the dictionary unit are compared and determined to obtain a recognition result. In a voice recognition device having a determination unit for outputting, as a correction process when the recognition result is erroneous recognition or unrecognizable, a first correction means by re-voice input and a second input device by an auxiliary input device for inputting correction information. Correction means is provided, and the second correction is performed before a predetermined time elapses from the time when the correction processing is performed by the first correction means.
The correction process by the correction unit 1 is effective only when the correction process by the correction unit No. 1 is not performed.

(作用) このような構成を有する本発明によれば、第1の訂正
による訂正処理が行われ、その行われた時刻から所定時
間が経過する時までに第2の訂正手段による訂正処理が
行われない場合にのみ、第1の訂正手段による訂正処理
を有効とする。よって、オペレータの発声が曖味であっ
たり、発声が弱いために誤認識、リジェクトが起こった
時に、習熟したオペレータは即座に当該の不備を判断し
て適切な訂正処理を施す際、オペレータの行う訂正処置
を装置側で監視することにより適切な訂正モードの選択
を行い、余分な走査を簡略化できる。従って、前記問題
点を解決することができる。
(Operation) According to the present invention having such a configuration, the correction processing by the first correction is performed, and the correction processing by the second correction means is performed by the time when a predetermined time elapses from the time when the correction processing is performed. The correction process by the first correction means is valid only when the correction is not made. Therefore, when the operator's utterance is ambiguous or the utterance is weak and misrecognition or rejection occurs, the familiar operator immediately determines the deficiency and performs an appropriate correction process. By monitoring the corrective action on the device side, an appropriate correction mode can be selected, and extra scanning can be simplified. Therefore, the above problems can be solved.

(実施例) 以下、この発明を実施例に基づき図面を参照して説明
する。
(Embodiment) Hereinafter, the present invention will be described based on an embodiment with reference to the drawings.

第1図はこの発明の一実施例を示すブロック図であ
る。第1図において、200はディスプレイ装置、201は補
助入力装置、202は音声入力用のマイクである。又、203
はマイクから入力された音声の音声区間を検出する検出
部、204は検出部203で検出された音声区間から特徴パラ
メータを抽出する特徴抽出部、206は特徴パラメータを
蓄積する辞書部、205は辞書部206に蓄積された特徴パラ
メータと入力音声から抽出された特徴パラメータとのマ
ッチングを実行し、マッチング距離を算出するマッチン
グ部、及び207はマッチング部206から算出されたマッチ
ング距離を判定し、認識結果を出力する判定部である。
208はディスプレイ装置200及び補助入力装置201を制御
するとともに、音声区間検出信号線210から、入力され
る音声区間検出信号と判定部207からの認識結果に基づ
き最終的に音声認識装置に入力されたデータを出力する
コントローラである。209はその出力端子である。
FIG. 1 is a block diagram showing an embodiment of the present invention. In FIG. 1, 200 is a display device, 201 is an auxiliary input device, and 202 is a microphone for voice input. Also, 203
Is a detection unit that detects the voice section of the voice input from the microphone, 204 is a feature extraction unit that extracts the feature parameter from the voice section detected by the detection unit 203, 206 is a dictionary unit that stores the feature parameter, and 205 is a dictionary. A matching unit that performs matching between the feature parameter stored in the unit 206 and the feature parameter extracted from the input voice and calculates the matching distance, and 207 determines the matching distance calculated from the matching unit 206, and the recognition result Is a determination unit that outputs
208 controls the display device 200 and the auxiliary input device 201, and is finally input to the voice recognition device from the voice section detection signal line 210 based on the input voice section detection signal and the recognition result from the determination unit 207. It is a controller that outputs data. 209 is its output terminal.

第3図は本実施例の音声入力時のフローチャートを示
している。以下このフローチャートに基づいて、本実施
例の動作を説明する。
FIG. 3 shows a flowchart for voice input according to this embodiment. The operation of this embodiment will be described below with reference to this flowchart.

本実施例では音声入力作業開始前に、誤認識,リジェ
クト時の訂正手段の選択モードとして三つのモード即ち
再発声による訂正モード,補助入力装置のKEY入力によ
る訂正モード,および本実施例の特徴であるKEY入力・
訂正音声入力同時モードがある。訂正モード設定ではオ
ペレータがこの三つのモードの内、いづれかを選択する
(ステップ10;以下ステップをSと略す)。ここでは本
実施例の特徴であるKEY入力・訂正音声入力同時モード
についておもに説明する。第1図のマイク202から入力
された信号は最初に検出部203へ入力される(S11)。検
出部203では信号中の音声区間を検出し、音声区間が検
出されると、特徴抽出部204での特徴を抽出する区間を
指定するとともに、210を介してコントローラ208に音声
検出信号を送出する(S12)。特徴抽出部204では音声区
間内の特徴パラメータが抽出され、マッチング部205へ
送られる(S13)。マッチング部205では辞書部206内の
特徴パラメータと特徴抽出部204で抽出された音声信号
の特徴パラメータとのマッチングを行ない、その結果算
出されたマッチング距離は判定部207に送られる(S1
4)。判定部207ではマッチング部205で算出されたマッ
チング距離に基づいて、認識処理又はリジェクトの判定
を行ない、結果をコントローラ208に送出する(S16)。
もし、結果がリジェクトであればコントローラ208は訂
正モードに変わり、ディスプレイ200等にモード変更表
示を指示する(S20)。結果がリジェクトでない場合、
コントローラ208は認識結果確認動作を行なう(S17)。
ここで、S18でオペレータからの誤認識の判定が無い場
合、コントローラ208はオペレータからの音声入力待ち
状態に戻る。ここで音声入力がすべて終了した場合はコ
ントローラ208は音声入力モードを終了させる(S19)。
逆にオペレータから誤認識であるという指示が有った場
合、コントローラ208はリジェクトの場合と同様訂正モ
ードに変わる(S21)。訂正モードの設定により処理が
三つに分れる。再発声による訂正モードが選択されてい
るならば通常の音声入力のモードと同様に音声入力,音
声区間検出,特徴抽出,パタンマッチング,判定処理の
順に処理され(S22〜S26)、リジェクト,誤認識が発生
しなかった場合には訂正処理が終了する(S27〜S29)。
補助入力装置201からのKEY入力による訂正のモードが選
択されている(S32)ならば、KEYからの訂正情報により
認識結果が訂正され(S33)、訂正のモードはこの時点
で終了する。
In this embodiment, before the voice input work is started, there are three modes as a selection mode of the correction means at the time of erroneous recognition and rejection, that is, a correction mode by re-voice, a correction mode by KEY input of the auxiliary input device, and the features of this embodiment KEY input ・
There is a simultaneous correction voice input mode. In the correction mode setting, the operator selects any one of these three modes (step 10; the step is hereinafter abbreviated as S). Here, the key input / correction voice input simultaneous mode, which is a feature of this embodiment, will be mainly described. The signal input from the microphone 202 in FIG. 1 is first input to the detection unit 203 (S11). The detection unit 203 detects the voice section in the signal, and when the voice section is detected, the feature extraction section 204 specifies the section for extracting the feature and sends a voice detection signal to the controller 208 via 210. (S12). The feature extraction unit 204 extracts the feature parameter in the voice section and sends it to the matching unit 205 (S13). The matching unit 205 performs matching between the feature parameter in the dictionary unit 206 and the feature parameter of the audio signal extracted by the feature extraction unit 204, and the matching distance calculated as a result is sent to the determination unit 207 (S1
Four). The determination unit 207 performs recognition processing or rejection determination based on the matching distance calculated by the matching unit 205, and sends the result to the controller 208 (S16).
If the result is reject, the controller 208 changes to the correction mode and instructs the display 200 or the like to display the mode change (S20). If the result is not rejected,
The controller 208 performs a recognition result confirmation operation (S17).
Here, in S18, when there is no determination of erroneous recognition from the operator, the controller 208 returns to the state of waiting for voice input from the operator. If all the voice inputs are completed here, the controller 208 ends the voice input mode (S19).
On the contrary, when the operator gives an instruction that the recognition is incorrect, the controller 208 switches to the correction mode as in the case of the reject (S21). The process can be divided into three depending on the setting of the correction mode. If the correction mode by re-voice is selected, voice input, voice section detection, feature extraction, pattern matching, and determination processing are processed in the same order as in the normal voice input mode (S22 to S26), reject, and erroneous recognition. If the error does not occur, the correction process ends (S27 to S29).
If the correction mode by the KEY input from the auxiliary input device 201 is selected (S32), the recognition result is corrected by the correction information from the KEY (S33), and the correction mode ends at this point.

さて、KEY入力・訂正音声入力同時モードが選択され
ている場合、音声認識装置はマイク202,補助入力装置20
1の両方とも入力待ち状態になる(S30)。オペレータは
効率の良い訂正手段で訂正情報を入力すれば良い。コン
トローラ208は両者の入力情報のどちらを優先するかを
判定する(S31)。この判定方法は次のようなものであ
る。即ち、マイク202からの訂正入力が有ったことを検
出部203の音声区間検出信号により確認した時刻から所
定時間が経過する時までに、補助入力装置201からの訂
正入力がない場合にのみ、音声入力による訂正情報を有
効とし、それ以外の場合は補助入力装置からの訂正入
力、即ち、KEY IN入力による訂正情報を有効とするもの
である。以上述べたKEY入力・訂正音声入力同時モード
の処理は再発声による訂正や補助入力装置201からの訂
正のモードの処理手順の一部を変更すれば容易に実現で
きる。
When the KEY input / correction voice input simultaneous mode is selected, the voice recognition device is the microphone 202 and the auxiliary input device 20.
Both 1 are in the input waiting state (S30). The operator may input the correction information by an efficient correction means. The controller 208 determines which of the input information of the two is prioritized (S31). This determination method is as follows. That is, only when there is no correction input from the auxiliary input device 201 by the time when a predetermined time elapses from the time when it is confirmed by the voice section detection signal of the detection unit 203 that there is a correction input from the microphone 202, The correction information by the voice input is valid, and in other cases, the correction information from the auxiliary input device, that is, the correction information by the KEY IN input is valid. The processing in the KEY input / correction voice input simultaneous mode described above can be easily realized by changing a part of the processing procedure of the correction mode by re-voice and the correction mode from the auxiliary input device 201.

(発明の効果) 以上、詳細に説明したように、この発明によれば音声
認識装置を用いてデータ等を入力する作業で発生する誤
認識・リジェクトの訂正手段として常に適切な入力方法
が訂正モード変更等の余分の操作なしに選択でき、作業
能率の向上を図ることができる。
(Effect of the Invention) As described in detail above, according to the present invention, an input method which is always appropriate as a correction means for erroneous recognition / rejection that occurs in the work of inputting data etc. using a voice recognition device is a correction mode. It can be selected without extra operations such as changing, and work efficiency can be improved.

【図面の簡単な説明】[Brief description of drawings]

第1図はこの発明の一実施例のブロック図、第2図は従
来の音声認識装置の構成例を示すブロック図、第3図は
本実施例の動作フローチャートである。 200……ディスプレイ装置、201……補助入力装置、202
……マイク、203……検出部、204……特徴抽出部、205
……マッチング部、206……辞書部、207……判定部、20
8……コントローラ、209……出力端子。
FIG. 1 is a block diagram of an embodiment of the present invention, FIG. 2 is a block diagram showing a configuration example of a conventional voice recognition device, and FIG. 3 is an operation flowchart of this embodiment. 200: display device, 201: auxiliary input device, 202
...... Mike, 203 …… Detector, 204 …… Feature extractor, 205
…… Matching unit, 206 …… Dictionary unit, 207 …… Judgment unit, 20
8 …… Controller, 209 …… Output terminal.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】音声を入力してその音声区間を検出する検
出部と、前記音声区間の特徴パラメータを抽出する特徴
抽出部と、予め決められた特徴パラメータを蓄積する辞
書部と、前記特徴抽出部により抽出された入力音声の特
徴パラメータと前記辞書部に蓄積された特徴パラメータ
とのマッチング距離を比較、判定して認識結果を出力す
る判定部とを有する音声認識装置において、 前記認識結果が誤認識又は認識不能の場合の訂正処理と
して再発声入力による第1の訂正手段と、訂正情報を入
力する補助入力装置による第2の訂正手段とを設け、 前記第1の訂正手段による訂正処理が行われた時刻から
所定時間が経過する時までに前記第2の訂正手段による
訂正処理が行われない場合にのみ、前記第1の訂正手段
による訂正処理を有効とすることを特徴とする音声認識
装置。
1. A detection unit for inputting voice and detecting the voice section, a feature extraction unit for extracting feature parameters of the voice section, a dictionary unit for accumulating predetermined feature parameters, and the feature extraction. In a voice recognition device having a determination unit that compares and determines the matching distance between the feature parameter of the input voice extracted by the unit and the feature parameter stored in the dictionary unit, the recognition result is erroneous. As the correction processing in the case of recognition or unrecognition, a first correction means by re-voice input and a second correction means by an auxiliary input device for inputting correction information are provided, and the correction processing by the first correction means is performed. Only when the correction processing by the second correction means is not performed by the time when a predetermined time has passed from the time when the correction processing is performed, the correction processing by the first correction means is validated. Speech recognition apparatus according to claim and.
JP60088765A 1985-04-26 1985-04-26 Voice recognition device Expired - Fee Related JPH0833741B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60088765A JPH0833741B2 (en) 1985-04-26 1985-04-26 Voice recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60088765A JPH0833741B2 (en) 1985-04-26 1985-04-26 Voice recognition device

Publications (2)

Publication Number Publication Date
JPS61248098A JPS61248098A (en) 1986-11-05
JPH0833741B2 true JPH0833741B2 (en) 1996-03-29

Family

ID=13951957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60088765A Expired - Fee Related JPH0833741B2 (en) 1985-04-26 1985-04-26 Voice recognition device

Country Status (1)

Country Link
JP (1) JPH0833741B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59144946A (en) * 1983-02-07 1984-08-20 Hitachi Ltd Controlling system of voice typewriter

Also Published As

Publication number Publication date
JPS61248098A (en) 1986-11-05

Similar Documents

Publication Publication Date Title
EP0763811B1 (en) Speech signal processing apparatus for detecting a speech signal
JP2829014B2 (en) Speech recognition device and method
JPH0833741B2 (en) Voice recognition device
JP2004212533A (en) Voice command adaptive equipment operating device, voice command adaptive equipment, program, and recording medium
JP3114757B2 (en) Voice recognition device
JP3291347B2 (en) Voice recognition device
KR20000032269A (en) Voice recognizing apparatus of sound equipment
JP2975772B2 (en) Voice recognition device
JPH0535294A (en) Speech recognition device
JPH05108091A (en) Speech recognition device
JPH03274598A (en) Voice recognition device
JP3523949B2 (en) Voice recognition device and voice recognition method
KR100395222B1 (en) Voice Recognition System for Voice Mail Service (VMS)
EP0429233B1 (en) Speech recognition system having speech registration function based on twice utterance of word
JP3505931B2 (en) Voice recognition device
JPH04152397A (en) Voice recognizing device
JPH0754434B2 (en) Voice recognizer
JPH0863184A (en) Speech recognition method
KR20040050224A (en) device for recognizing voice in full automation-type washing machine
JPH09127982A (en) Voice recognition device
JPH0711760B2 (en) Method for correcting standard parameters in voice recognition device
JPH0264600A (en) Voice recognizing device
JPH0619492A (en) Speech recognizing device
JP2712703B2 (en) Signal processing device
JPH05257493A (en) Voice recognizing device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees