JPH04254896A - Speech recognition correction device - Google Patents

Speech recognition correction device

Info

Publication number
JPH04254896A
JPH04254896A JP3016519A JP1651991A JPH04254896A JP H04254896 A JPH04254896 A JP H04254896A JP 3016519 A JP3016519 A JP 3016519A JP 1651991 A JP1651991 A JP 1651991A JP H04254896 A JPH04254896 A JP H04254896A
Authority
JP
Japan
Prior art keywords
voice
spotting
circuit
input
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3016519A
Other languages
Japanese (ja)
Inventor
Kikumi Kaburagi
鏑木 喜久美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP3016519A priority Critical patent/JPH04254896A/en
Publication of JPH04254896A publication Critical patent/JPH04254896A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To obtain a voice recognition correction device making the best use of its excellent characters without losing the simplicity and quickness that is excellent characters of speech input. CONSTITUTION:A voice recognition correction device recognizes a first input voice, and stores the sound analysis result and the voice recognition result. When it becomes necessary to change the voice recognition result, an operator inputs the changing part as a second voice. In a spotting part 14, matching is carried out by using the sound analysis result and the speech recognition result of the first input and the second input, and the spotting of the changing part is carried out for changing it.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】音声認識装置に係わる。[Industrial field of application] Related to speech recognition devices.

【0002】0002

【従来の技術】従来の音声認識訂正装置について図9を
用いて説明する。
2. Description of the Related Art A conventional speech recognition and correction device will be explained with reference to FIG.

【0003】従来の音声認識訂正装置では、音響分析部
1において入力された音声の分析を行い、特徴を出力す
る。音響分析部1からの出力に基づいて、音声認識部2
において入力音声の認識を行う。音声認識部2にて認識
された結果は操作者が確認できるように出力される。入
力音声を分析した特徴抽出の結果は、記憶部3に記憶さ
れる。音声認識結果に変更を施す必要がない場合には次
音声入力の操作に移行する。しかし、音声認識結果を変
更したい場合には、カーソル指示部4を操作し変更する
部分の先頭部と、同じく変更部分の終了部にカーソルを
移動させてマークし変更部分を指定する。従来の音声認
識訂正装置では、操作者がカーソル指示部4を操作して
、誤認識等により変更する必要がある部分を指示するの
である。カーソル指示部4の操作によって指示された部
分を変更するため、操作者は変更部5において、キー入
力装置を用いて変更したり、音声認識結果の候補がいく
つか表示されているような場合にはその中から候補を選
ぶ等の方法によって音声認識結果を変更する。
[0003] In a conventional speech recognition and correction device, an acoustic analysis section 1 analyzes input speech and outputs characteristics. Based on the output from the acoustic analysis section 1, the speech recognition section 2
Recognizes the input voice. The result recognized by the voice recognition unit 2 is output so that the operator can confirm it. The result of feature extraction obtained by analyzing the input speech is stored in the storage unit 3. If there is no need to change the voice recognition result, the process moves to the next voice input operation. However, if it is desired to change the voice recognition result, the user operates the cursor indicator 4 to move the cursor to the beginning of the part to be changed and the end of the part to mark it, thereby specifying the part to be changed. In the conventional speech recognition correction device, the operator operates the cursor indicator 4 to indicate the part that needs to be changed due to misrecognition or the like. In order to change the part indicated by the operation of the cursor indicator 4, the operator can use the key input device in the changing unit 5 to change the part, or if several candidates for speech recognition results are displayed. changes the speech recognition result by selecting a candidate from among them.

【0004】0004

【発明が解決しようとする課題】音声による入力は、キ
ー入力操作をすることなくデータ入力を行うことができ
、キー入力装置のキー配置位置、キー操作方法等を知る
必要がなく、誰でもが簡便に使用できる入力方法である
。しかし、音声入力方法は、キー操作による入力方法と
異なり、操作者が正確に入力をしても入力データが正確
に認識される確率はやや低くなる傾向がある。そこで、
音響学会誌中の文章を構成する単語について、1単語を
構成している音素の数を調べたところ、1単語当りの平
均音素数は約9音素であった。ここで、音素認識率が9
5%以上である音声認識装置を用いても、1単語中に1
文字の認識誤りは予想される。また、音素認識率が98
%以上である音声認識装置を考えた場合でも、1単語中
に1文字の認識誤りが発生することは、そう稀なことで
はないと考えられる。また、同じく音響学会誌中文章に
ついて、1文を構成している音素数を調べたところ、1
文当りの平均音素数は約47音素であった。ここで、音
素認識率が95%以上である音声認識装置を用いても、
1文中に2〜3音素の認識誤りは避けられないことにな
る。また、音素認識率が98%以上である音声認識装置
を考えた場合でも、一文の中に1音素の認識誤りが発生
することは充分に考えられる。以上の事実からみても、
入力された音声の認識結果を変更する必要が生じるのは
、そう稀なことではないことが分かる。音声認識装置を
考えた場合には、音声認識訂正装置の役割はきわめて大
きいと思われる。また、音声認識の誤りを正す場合だけ
ではなく、入力データの一部を変更したい場合にも音声
認識訂正装置が用いられる。
[Problem to be solved by the invention] Voice input allows data input without performing key input operations, and there is no need to know the key layout positions of the key input device, key operation methods, etc., and anyone can do it. This is an easy-to-use input method. However, unlike the input method using keys, the voice input method tends to have a slightly lower probability that the input data will be accurately recognized even if the operator inputs the data accurately. Therefore,
When we looked at the number of phonemes that make up one word for the words that make up the sentences in the Journal of the Acoustical Society of Japan, we found that the average number of phonemes per word was about 9 phonemes. Here, the phoneme recognition rate is 9
Even with a speech recognition device that has a rate of 5% or more, only 1 per word is used.
Errors in character recognition are to be expected. Also, the phoneme recognition rate is 98
% or more, it is considered that it is not so rare that a single character recognition error occurs in one word. Also, when we looked at the number of phonemes that make up one sentence for sentences in the Journal of the Acoustical Society of Japan, we found that 1
The average number of phonemes per sentence was approximately 47 phonemes. Here, even if a speech recognition device with a phoneme recognition rate of 95% or more is used,
Misrecognition of two to three phonemes in one sentence is unavoidable. Further, even when considering a speech recognition device with a phoneme recognition rate of 98% or more, it is quite possible that a recognition error of one phoneme will occur in one sentence. Considering the above facts,
It can be seen that it is not uncommon for it to be necessary to change the recognition results of input speech. When considering speech recognition devices, the role of speech recognition correction devices is considered to be extremely important. Furthermore, the speech recognition correction device is used not only when correcting errors in speech recognition, but also when it is desired to change part of input data.

【0005】音声認識結果に変更を加える必要が生じた
場合には、まず変更部分を正しく指定することが重要で
ある。しかし、前述の従来技術を用いた音声認識訂正装
置では、操作者は自ら図9カーソル指示部4を操作し認
識誤りや変更が発生した区間の指定をしなければならな
い。このようなキー入力装置を用いたカーソル操作を頻
繁にしなければならないことは、操作者にとって非常に
負担である。このような視線が頻繁に移動する作業は、
操作者の視神経を非常に疲労させ作業効率を低下させる
ばかりか、視力の著しい低下を招く恐れがある。また、
音声による入力という優れた入力方法を用いておきなが
ら、変更部分の指定を手動でカーソルを移動することに
よってする従来技術では、音声認識装置の特徴である「
誰にでも操作が簡便に出来る。」、「キー入力やその他
の方法に比べ、データ入力スピードが速い。」という利
点を充分に発揮することが出来ないのである。つまり、
データ入力操作は速やかに行えたとしても、従来技術を
用いた音声認識訂正装置は、誰でもが簡単に迅速に変更
操作を行うことは非常に困難である。このように従来技
術を用いた音声認識訂正装置では、変更操作に非常に時
間がかかり、極めて作業効率が悪いのである。従来技術
には、以上述べてきたような問題点があった。
[0005] When it becomes necessary to make changes to the speech recognition results, it is important to first correctly specify the changes. However, in the speech recognition and correction apparatus using the prior art described above, the operator must himself operate the cursor designator 4 shown in FIG. 9 to specify the section in which a recognition error or change has occurred. It is very burdensome for the operator to have to frequently operate the cursor using such a key input device. Work that requires frequent movement of the line of sight is
This not only greatly fatigues the operator's optic nerves and reduces work efficiency, but also may cause a significant decrease in visual acuity. Also,
While using the excellent input method of voice input, the conventional technology requires manually moving the cursor to specify the changed part, but the voice recognition device's characteristic "
Anyone can easily operate it. ” and “data entry speed is faster than key entry or other methods.” In other words,
Even if data input operations can be performed quickly, it is extremely difficult for anyone to easily and quickly change the voice recognition and correction apparatus using the conventional technology. As described above, in the speech recognition and correction apparatus using the conventional technology, the change operation takes a very long time, and the work efficiency is extremely low. The conventional technology has the problems described above.

【0006】[0006]

【課題を解決するための手段】本発明の音声認識訂正装
置は、入力された第1の音声の特徴を出力する音響分析
部と、前記音響分析部の出力を符号列に変換する音声認
識部と、前記音響分析部の出力を記憶する音響分析記憶
部と、前記音声認識部の出力を記憶する音声認識記憶部
と、入力された第2の音声を前記音響分析記憶部及び前
記音声認識記憶部内のデータと対比して前記第1の音声
のデータから、前記第2の音声に該当する部分を検出す
るスポッティング部と、前記符号列のうち前記該当する
部分に対応する部分を変更する変更部とからなることを
特徴とする。
[Means for Solving the Problems] A speech recognition and correction device of the present invention includes an acoustic analysis section that outputs characteristics of an input first speech, and a speech recognition section that converts the output of the acoustic analysis section into a code string. an acoustic analysis storage section that stores the output of the acoustic analysis section; a speech recognition storage section that stores the output of the speech recognition section; and an acoustic analysis storage section that stores the input second speech and the speech recognition storage section. a spotting unit that detects a portion corresponding to the second voice from data of the first voice in comparison with data in the first voice; and a changing unit that changes a portion of the code string that corresponds to the corresponding portion. It is characterized by consisting of.

【0007】[0007]

【実施例】以下、本発明について実施例に基づいて詳細
に説明する。 (実施例1)図1は本発明の音声認識訂正装置の原理ブ
ロック図、図2は本発明の一実施例である単語毎に区切
って発生した音声認識訂正装置のブロック図である。図
2に破線によって示した処理経路は、第2の音声のもの
である。単語毎に区切って発声された第1の音声は、図
1音響分析部11の構成要素であるマイク、高域強調フ
ィルタ、AD変換器より構成される図2音声入力部21
によって8KHz、12bitsのデジタル信号として
サンプリングされる。さらに同じく図1音響分析部11
の構成要素である図2特徴抽出回路22において、デジ
タル信号に変換された音声信号を16ms区間を1フレ
ームとして1フレーム毎に周波数変換し、周波数領域で
の特徴パラメータを抽出し、発声された単語の特徴パラ
メータ列として表される。図1音響分析部11で抽出さ
れた第1の音声の特徴パラメータ列は、図2特徴パラメ
ータ列記憶回路27に記憶される。図2特徴パラメータ
記憶回路27は図1音響分析記憶部16を構成する。さ
らに、第1の音声の特徴パラメータ列は、図1音声認識
部12を構成する図2DPマッチング回路23において
、図2音素記憶辞書24とマッチングされる。図1音声
認識部12において認識判定された音素ラティスは、図
2音素ラティス記憶回路32に記憶され、図2表示部制
御回路25の制御によって図2表示部26に表示される
。図2音素ラティス記憶回路32は図1音声認識記憶部
13を構成している。図2表示部26に表示された音声
認識結果に誤りがあった場合、または変更したい部分が
生じた場合には、操作者は訂正キーに触れる等の行為に
よって認識結果変更の必要を知らせる。音声認識訂正装
置は、図2訂正キー制御回路28からの発信によって第
2の音声入力に備える。図2に破線で示されているのは
、第2の入力音声の処理を示したものである。入力され
た第2の音声である音素は、第1の音声と同様に、図2
音声入力部21、図2特徴抽出回路22を経て特徴パラ
メータ列に変換される。まず、その第2の音声の特徴パ
ラメータ列は、図2特徴パラメータ列記憶回路27に記
憶されている第1の入力音声の特徴パラメータ列と、図
2DPマッチング回路29においてDPマッチングされ
る。誤って認識されてしまった音素、または変更を施す
必要のある音素を第2の音声として入力することによっ
て、変更部分を確実にスポッティングしているのである
。この処理により得られた変更部分をスポッティング1
とする。さらに、変更部分のスポッティングを確実にす
るために、第2の音声も第1の音声と同様に図2DPマ
ッチング回路23において、図2音素記憶辞書24とD
Pマッチングし、音声認識する。この第2の音声を音声
認識した結果と、図2音素ラティス記憶回路32に記憶
されている第1の音声の音声認識結果とを、図2DPマ
ッチング回路33において、DPマッチングする。これ
は、音声認識結果を用いて変更部分のスポッティングを
する処理である。この処理により得られた変更部分をス
ポッティング2とする。次に、図2スポッティング結果
比較回路34において、図2特徴パラメータ列記憶回路
27に記憶されている第1の音声の特徴パラメータ列と
第2の音声の特徴パラメータ列を用いて変更部分をスポ
ッティングした結果、スポッティング1と、図2音素ラ
ティス記憶回路32に記憶されている第1の音声の音声
認識結果と第2の音声の音声認識結果を用いて変更部分
をスポッティングした結果、スポッティング2とを比較
する。図2スポッティング結果比較回路34において比
較した結果、スポッティング1とスポッティング2が同
一ならば、確実に変更部分がスポッティングされたとし
て、次の処理に移る。もし、スポッティング1とスポッ
ティング2が一致していない場合には、スポッティング
1、スポッティング2をそれぞれDPマッチングにより
マッチングした際のDP値の大きい方を変更部と決定す
る。もし変更部分が誤ってスポッティングされてしまっ
た場合には、操作者は変更された結果が図2表示部26
に表示されるのを見て、知ることが出来る。そのような
場合には、直ちに図2訂正キー制御回路28に制御され
ている訂正キーを操作して、先に図2スポッティング結
果比較回路34において他のスポッティング結果よりも
、DP値が小さいために変更部分の候補に選ばれなかっ
たもう一方のスポッティング結果を変更部分として、変
更部分の変更操作は再び進められる。図2DPマッチン
グ回路29、図2DPマッチング回路33、図2スポッ
ティング結果比較回路34は、図1スポッティング部1
4を構成する。以上の処理によりスポッティングされた
変更部分について、図2音素ラティス記憶回路32の中
に記憶されている第2候補の音素を図2音素ラティス入
れ替え回路30によって、第1候補の音素として順位入
れ替えし、図2表示部制御回路25の制御によって図2
表示部26に表示する。この操作により変更部が変更を
希望する音素に変更されたならば、図2確定キー制御回
路31に制御されている確定キーを操作して音声認識結
果を確定する。変更部分の第2候補の音素が変更を希望
する音素でない場合には、確定キーが操作されないこと
を図2確定キー制御回路30は認識し、図2音素ラティ
ス入れ替え回路30はさらに下位の優先順位を持った候
補を第1の候補として順位入れ替えし、図2表示部26
に表示する。操作者は、希望の音素を見つけたところで
、確定キーを操作して音声認識結果を確定する。表示さ
れた第2、第3、それ以下の候補の中に希望する音素が
存在しなければ、改めて音声の入力を行い、最初に音声
を入力した際と同様な経路にて音声認識を行う。図2音
素ラティス入れ替え回路30、図2確定キー制御回路3
1は図1変更部15を構成する。
EXAMPLES The present invention will be explained in detail below based on examples. (Embodiment 1) FIG. 1 is a block diagram of the principle of a speech recognition and correction device according to the present invention, and FIG. 2 is a block diagram of a speech recognition and correction device that generates speech by dividing it into words according to an embodiment of the present invention. The processing path indicated by the dashed line in FIG. 2 is that of the second voice. The first voice that is divided into words and uttered is sent to the voice input unit 21 in FIG. 2, which is composed of a microphone, a high-frequency emphasis filter, and an AD converter, which are the components of the acoustic analysis unit 11 in FIG.
It is sampled as an 8KHz, 12-bit digital signal. Furthermore, the same figure 1 acoustic analysis section 11
In the feature extraction circuit 22 in FIG. 2, which is a component of the digital signal, the frequency of the audio signal converted into a digital signal is converted frame by frame, with a 16 ms interval as one frame, and the feature parameters in the frequency domain are extracted. is expressed as a feature parameter sequence. The first audio feature parameter string extracted by the acoustic analysis unit 11 in FIG. 1 is stored in the feature parameter string storage circuit 27 in FIG. The feature parameter storage circuit 27 in FIG. 2 constitutes the acoustic analysis storage section 16 in FIG. Furthermore, the first speech feature parameter string is matched with the phoneme memory dictionary 24 in FIG. 2 in the DP matching circuit 23 in FIG. 2 which constitutes the speech recognition unit 12 in FIG. The phoneme lattice recognized and determined by the speech recognition unit 12 in FIG. 1 is stored in the phoneme lattice storage circuit 32 in FIG. 2, and displayed on the display unit 26 in FIG. The phoneme lattice storage circuit 32 in FIG. 2 constitutes the speech recognition storage section 13 in FIG. If there is an error in the voice recognition result displayed on the display unit 26 in FIG. 2, or if there is a part that should be changed, the operator notifies the user of the need to change the recognition result by touching a correction key or the like. The speech recognition correction device prepares for the second speech input by the transmission from the correction key control circuit 28 in FIG. The broken line in FIG. 2 shows the processing of the second input voice. The phonemes that are the input second voice are as shown in Figure 2, similar to the first voice.
It is converted into a feature parameter string via the voice input section 21 and the feature extraction circuit 22 shown in FIG. First, the feature parameter string of the second voice is subjected to DP matching in the DP matching circuit 29 of FIG. 2 with the feature parameter string of the first input voice stored in the feature parameter string storage circuit 27 of FIG. By inputting the incorrectly recognized phoneme or the phoneme that needs to be changed as the second voice, the changed part is reliably spotted. Spotting the changed parts obtained by this process 1
shall be. Furthermore, in order to ensure spotting of the changed part, the second voice is also used in the DP matching circuit 23 in FIG. 2 in the same way as the first voice.
P matching and voice recognition. The result of voice recognition of this second voice and the voice recognition result of the first voice stored in the phoneme lattice storage circuit 32 of FIG. 2 are subjected to DP matching in the DP matching circuit 33 of FIG. This is a process of spotting changed parts using the voice recognition results. The changed portion obtained by this process is referred to as spotting 2. Next, in the spotting result comparison circuit 34 shown in FIG. 2, the changed portion was spotted using the first voice feature parameter string and the second voice feature parameter string stored in the feature parameter string storage circuit 27 shown in FIG. As a result, spotting 1 is compared with spotting 2, which is the result of spotting the changed part using the voice recognition results of the first voice and the voice recognition results of the second voice stored in the phoneme lattice storage circuit 32 in FIG. do. As a result of comparison in the spotting result comparison circuit 34 of FIG. 2, if spotting 1 and spotting 2 are the same, it is assumed that the changed portion has been definitely spotted, and the process moves on to the next process. If spotting 1 and spotting 2 do not match, the one with the larger DP value when spotting 1 and spotting 2 are matched by DP matching is determined to be the changed part. If the changed part is spotted by mistake, the operator can check the changed result on the display section 26 in FIG.
You can find out by seeing what is displayed on the screen. In such a case, the correction key controlled by the correction key control circuit 28 in FIG. 2 is immediately operated, and the spotting result comparing circuit 34 in FIG. The other spotting result that was not selected as a candidate for the changed part is used as the changed part, and the changing operation for the changed part is proceeded again. The DP matching circuit 29 in FIG. 2, the DP matching circuit 33 in FIG. 2, the spotting result comparison circuit 34 in FIG.
4. Regarding the changed part spotted by the above processing, the second candidate phoneme stored in the phoneme lattice storage circuit 32 in FIG. 2 is rearranged as the first candidate phoneme by the phoneme lattice replacement circuit 30 in FIG. FIG. 2 is controlled by the display control circuit 25.
It is displayed on the display section 26. When the changing unit is changed to the desired phoneme by this operation, the user operates the enter key controlled by the enter key control circuit 31 in FIG. 2 to confirm the speech recognition result. If the second candidate phoneme in the change part is not the desired phoneme to be changed, the confirm key control circuit 30 in FIG. 2 recognizes that the confirm key is not operated, and the phoneme lattice replacement circuit 30 in FIG. The candidate with
to be displayed. When the operator finds the desired phoneme, he or she operates the confirmation key to confirm the speech recognition result. If the desired phoneme does not exist among the displayed second, third, and lower candidates, the voice is input again and voice recognition is performed using the same route as when the voice was first input. Figure 2 Phoneme lattice exchange circuit 30, Figure 2 Determining key control circuit 3
1 constitutes a modification unit 15 in FIG.

【0008】本発明について実施例に基づいて、図3、
図4を用いてさらに説明する。
Based on the embodiment of the present invention, FIG.
This will be further explained using FIG. 4.

【0009】図3は本発明の音声認識訂正装置の一実施
例である単語毎に区切って発声した音声認識訂正装置を
構成する図1音声認識記憶部13に記憶された音素ラテ
ィス構造、図1音響分析記憶部16に記憶された特徴抽
出結果の一部である音声パワーを示す図である。
FIG. 3 shows an embodiment of the speech recognition and correction apparatus of the present invention, which constitutes a speech recognition and correction apparatus in which each word is uttered separately. FIG. 3 is a diagram showing audio power that is part of the feature extraction results stored in the acoustic analysis storage unit 16. FIG.

【0010】単語毎に区切って発声された音声を認識す
る音声認識訂正装置において、操作者が「電子計算機」
という単語を第1の音声として入力したと仮定する。こ
の入力を受けた際の図2音素ラティス記憶回路32に記
憶された音素ラティスは図3に示した通り、「で」の音
素ラティス構造は第一候補は「で」、第二候補は「て」
である。「ん」の音素ラティス構造は第一候補は「ん」
、第二候補は「む」、第三候補は「う」である。 「し」の音素ラティス構造は第一候補が「ち」、第二候
補は「し」である。「け」の音素ラティス構造は第一候
補が「け」、第二候補、第三候補はない。「い」の音素
ラティス構造は第一候補が「い」、第二候補は「ひ」、
第三候補は「し」である。「さ」音素ラティス構造は第
一候補が「さ」、第二候補が「は」、第三候補が「あ」
である。「ん」の音素ラティス構造は第一候補が「ん」
、第二候補は「む」である。「き」の音素ラティス構造
は第一候補が「き」、第二候補、第三候補はない。また
、図3に音素ラティス構造と共に示したのは、「でんし
けいさんき」と入力した際に、図1音響分析部11によ
って分析された音声特徴の一部である音声パワーである
。以上の結果から、各音素認識結果の第一候補をつなげ
ると、認識結果は「でんちけいさんき」である。この場
合、入力音声は「でんしけいさんき」であるから、三番
目の文字「し」が「ち」と誤認識されてしまったことに
なる。操作者は図2表示部26に表示された音声認識結
果を確認し、音声認識結果に変更の必要があることを、
訂正キーを用いて知らせる。図2訂正キー制御回路28
は音声認識結果に誤りがあったことを認識し、直ちに第
2の音声として変更音素の入力を求める。
[0010] In a speech recognition and correction device that recognizes speech uttered by dividing it into words, an operator uses an "electronic computer"
Assume that the word ``1'' is input as the first voice. When this input is received, the phoneme lattice stored in the phoneme lattice storage circuit 32 in FIG. 2 is as shown in FIG. ”
It is. The first candidate for the phoneme lattice structure of “n” is “n”
, the second candidate is "mu", and the third candidate is "u". Regarding the phoneme lattice structure of "shi", the first candidate is "chi" and the second candidate is "shi". In the phoneme lattice structure of "ke", the first candidate is "ke", and there is no second or third candidate. Regarding the phoneme lattice structure of "i", the first candidate is "i", the second candidate is "hi",
The third candidate is "shi". For the “sa” phoneme lattice structure, the first candidate is “sa”, the second candidate is “ha”, and the third candidate is “a”
It is. The first candidate for the phoneme lattice structure of “n” is “n”
, the second candidate is "mu". In the phoneme lattice structure of "ki", the first candidate is "ki", and there are no second or third candidates. Also shown in FIG. 3 together with the phoneme lattice structure is the voice power, which is part of the voice characteristics analyzed by the acoustic analysis unit 11 in FIG. From the above results, when the first candidates of each phoneme recognition result are connected, the recognition result is "Denchi Keisanki". In this case, since the input voice is "denshikeisanki", the third character "shi" is incorrectly recognized as "chi". The operator checks the voice recognition results displayed on the display section 26 in FIG. 2, and confirms that the voice recognition results need to be changed.
Notify using the correction key. Figure 2 Correction key control circuit 28
recognizes that there is an error in the speech recognition result and immediately requests input of the changed phoneme as the second speech.

【0011】図4は本発明の音声認識訂正装置の一実施
例である単語毎に区切って発声した音声を認識する音声
認識訂正装置を構成する図1音素スポッティング部14
の処理を説明する図である。図4では、第1の音声の特
徴パラメータ列の一つである音声パワーと音素ラティス
、第2の音声の特徴パラメータ列の一つである音声パワ
ーと音素ラティスを示して説明している。
FIG. 4 shows an embodiment of the speech recognition and correction device of the present invention. FIG. 1 shows a phoneme spotting unit 14 that constitutes a speech recognition and correction device that recognizes speech uttered by dividing it into words.
It is a figure explaining the process. FIG. 4 shows and explains the voice power and phoneme lattice, which is one of the first voice feature parameter strings, and the voice power and phoneme lattice, which is one of the second voice feature parameter strings.

【0012】操作者は誤って認識されてしまった音素そ
のもの、ここでは「ち」を第2の音声として入力する。 これは、変更部分をカーソルなどで指定せずにスポッテ
ィングするためである。入力された「ち」は、図2音声
入力部21、図2特徴抽出回路22を経て特徴パラメー
タに変換される。特徴パラメータ列に変換された第2の
音声は、図2DPマッチング回路29において図2特徴
パラメータ列記憶回路27に記憶されている第1の音声
の特徴パラメータとDPマッチングされる。第1の入力
音声の特徴パラメータ列と、第2の入力音声の特徴パラ
メータ列をDPマッチングすることで、第2の音声が第
1の音声の「ち」の部分であることが分かり、変更部分
の候補としてスポッティングされる。この結果をスポッ
ティング1とする。ここに示したように、一度特徴抽出
し音声認識した音素「ち」をスポッティングすることは
それほど困難なことではない。第2の入力音声を図2D
Pマッチング回路23において、図2音素記憶辞書24
とDPマッチングし、音声認識する。ここで、第2の音
声は「ち」と認識される。第2の音声の音声認識結果「
ち」を図2DPマッチング回路33において、図2音素
ラティス記憶回路32とDPマッチングする。このDP
マッチングの結果、「でんちけいさんき」の「ち」がス
ポッティングされる。これをスポッティング2とする。 図2スポッティング結果比較回路34において、変更部
分の候補としてスポッティング1とスポッティング2と
比較される。ここでは、スポッティング1が「ち」、ス
ポッティング2も「ち」で一致するので、変更部分とし
て「でんちけいさんき」の「ち」がスポッティングされ
る。このようにして、誤認識部分「ち」が変更必要な音
素として検出される。この結果を受け図2音素ラティス
入れ替え回路30では、図2音素ラティス記憶回路32
を操作し、変更部分としてスポッティングされた「ち」
の音声認識結果の第2候補である「し」を第1の候補に
順位入れ替えし、図2表示部制御回路25の制御により
、図2表示部26に表示する。幸い第二候補に正しい音
素「し」が存在するので、操作者は確定キーを用いて確
定し、音声認識結果を訂正する。以上の操作によって音
声認識結果の訂正を終了し、「でんしけいさんき(電子
計算機)」を得ることができる。
[0012] The operator inputs the erroneously recognized phoneme itself, in this case ``chi'', as the second voice. This is to spot the changed part without specifying it with a cursor or the like. The input "chi" is converted into a feature parameter through the speech input section 21 in FIG. 2 and the feature extraction circuit 22 in FIG. The second voice converted into a feature parameter string is subjected to DP matching in the DP matching circuit 29 of FIG. 2 with the feature parameters of the first voice stored in the feature parameter string storage circuit 27 of FIG. By performing DP matching between the feature parameter string of the first input voice and the feature parameter string of the second input voice, it is found that the second voice is the "chi" part of the first voice, and the changed part is Spotted as a candidate. This result is called spotting 1. As shown here, it is not that difficult to spot the phoneme "chi" once its features have been extracted and voice recognized. Figure 2D shows the second input audio.
In the P matching circuit 23, the phoneme memory dictionary 24 shown in FIG.
and DP matching and voice recognition. Here, the second voice is recognized as "chi". Speech recognition result of second voice “
The DP matching circuit 33 in FIG. 2 performs DP matching on the phoneme lattice storage circuit 32 in FIG. This DP
As a result of the matching, the ``chi'' in ``Denchi Keisanki'' is spotted. This is called spotting 2. In the spotting result comparison circuit 34 shown in FIG. 2, spotting 1 and spotting 2 are compared as candidates for the changed portion. Here, since spotting 1 is "chi" and spotting 2 is also "chi", the "chi" of "Denchi Keisanki" is spotted as the changed part. In this way, the misrecognized part "chi" is detected as a phoneme that needs to be changed. In response to this result, the phoneme lattice exchange circuit 30 in FIG. 2 uses the phoneme lattice storage circuit 32 in FIG.
"chi" was spotted as a changed part by operating
The second candidate "shi" in the speech recognition result is replaced with the first candidate and displayed on the display section 26 in FIG. 2 under the control of the display section control circuit 25 in FIG. Fortunately, the correct phoneme "shi" exists as the second candidate, so the operator uses the confirmation key to confirm and correct the speech recognition result. By the above operations, the correction of the voice recognition result is completed and the "Electronic computer" can be obtained.

【0013】図8、図2、図3、図4を参照しながら本
発明の一実施例である(実施例1)の処理過程を詳細に
説明する。図8は本発明の一実施例である単語毎に区切
って発声された音声を認識する音声認識訂正装置の処理
例を示したフローチャートである。
[0013] The processing process of (Embodiment 1), which is an embodiment of the present invention, will be explained in detail with reference to FIGS. 8, 2, 3, and 4. FIG. 8 is a flowchart showing a processing example of a speech recognition and correction device that recognizes speech uttered by dividing it into words, which is an embodiment of the present invention.

【0014】まず、操作者によって第1の音声が入力さ
れる。音声データの入力に係わるのは図2音声入力部2
1である。入力された音声は直ちに図2特徴抽出回路2
2において、分析、特徴抽出される。抽出された特徴は
、図2特徴パラメータ列記憶回路27に記憶される。 さらに、第1の音声の特徴パラメータ列は、図2DPマ
ッチング回路23において、図2音素辞書24とDPマ
ッチングされ、符号列として音声認識される。この結果
は図2音素ラティス記憶回路32に記憶される。第1の
音声が音声認識された結果は図2音素ラティス記憶回路
32に記憶されるとともに、操作者が確認できるように
図2表示部26に表示される。この表示に係わるのは図
2表示制御回路25、および図2表示部26である。表
示された音声認識結果の例は、図3に示してあるとおり
である。図2表示部26に表示された音声認識結果に誤
りや変更の必要が生じた場合には、操作者は訂正キーを
用いて変更の必要があることを伝える。ここで用いられ
る訂正キーは、図2訂正キー制御回路28によって制御
されているものである。変更の必要があった場合には、
直ちに変更部分を検出する必要があある。音声認識結果
の中から、変更部分をスポッティングするために第2の
音声として変更部分そのものを音声により入力する。第
2の音声として入力された変更部分は直ちに特徴抽出さ
れ特徴パラメータ列となり、図2DPマッチング回路2
9において、図2特徴パラメータ列記憶回路27に記憶
されている第1の音声の特徴パラメータ列とDPマッチ
ングされる。DPマッチングにより変更部分の候補とし
てスポッティング1がスポッティングされる。さらに、
変更部のスポッティングを確実に行うために、第2の音
声を音声認識した結果と、図2音素ラティス記憶回路3
2に記憶されている第1の音声の音声認識結果とを、図
2DPマッチング回路33においてDPマッチングする
。その結果、変更部の候補としてスポッティング2がス
ポッティングされる。ようすは図4に示すとおりである
。そして、図2スポッティング結果比較回路34におい
て、スポッティング1とスポッティング2が比較される
。この結果が一致していれば変更部分が正確にスポッテ
ィングされたとして、速やかに変更部分を変更する処理
に移行する。しかし、第1の音声と第2の音声の特徴抽
出した結果である特徴パラメータ列を用いて変更部分を
スポッティングしたスポッティング1と、第1の音声と
第2の音声の音声認識結果を用いて変更部をスポッティ
ングしたスポッティング2が異なっている場合には、図
2スポッティング結果比較回路34において、スポッテ
ィング1とスポッティング2が検出された際のDP値の
大きさを比較し、DP値のより大きい方を変更部分とし
て処理を進める。しかし、もし変更部分のスポッティン
グに誤りがあり、変更を希望する音素以外が変更されて
しまった場合には、操作者は表示部に表示された結果に
より確認し、訂正キーを用いて知らせる。すると、先ほ
ど、DP値が小さいために変更部分とならなかったもう
一方のスポッティング結果を変更部分として、変更処理
を進める。図2DPマッチング回路29、図2DPマッ
チング回路33、図2スポッティング結果比較回路34
は、図1スポッティング部14を構成する。スポッティ
ングされた変更部分について、図2音素ラティス記憶回
路32の中に記憶されている第2候補の音素を図2音素
ラティス入れ替え回路30によって、第1候補の音素と
して順位入れ替えし、その結果を図2表示部制御回路2
5の制御により、図2表示部26に表示する。この処理
によって変更部が変更を希望する音素に変更されたなら
ば、図2確定キー制御回路31に制御されている確定キ
ーを操作して音声認識結果を確定する。変更部分の第2
候補の音素が変更を希望する音素でない場合には、確定
キーが操作されないことを図2確定キー制御回路31は
認識し、図2音素ラティス入れ替え回路30はさらに下
位の優先順位を持った候補を第1の候補として順位入れ
替えし、先ほどと同様に表示する。操作者は、希望の音
素を見つけたところで、確定キーを操作して音声認識結
果を確定する。表示された第2、第3、それ以下の候補
の中に希望する音素が存在しなければ、改めて音声の入
力を行い、最初に音声を入力した際と同様な経路にて音
声認識を行う。この変更操作に係わるのは、図2音素ラ
ティス入れ替え回路30と図2確定キー制御回路31、
音素ラティス記憶回路32、図2表示部制御回路25、
図2表示部26である。 (実施例2)図5は本発明の一実施例である単語毎に区
切らずに連続して発声した音声を認識する連続音声認識
訂正装置のブロック図である。破線によって示した処理
経路は、第2の音声のものである。
First, a first voice is input by the operator. The voice input section 2 in Figure 2 is involved in inputting voice data.
It is 1. The input voice is immediately processed by the feature extraction circuit 2 in Figure 2.
In step 2, analysis and feature extraction are performed. The extracted features are stored in the feature parameter string storage circuit 27 in FIG. Further, the first speech feature parameter string is subjected to DP matching with the phoneme dictionary 24 in FIG. 2 in the DP matching circuit 23 in FIG. 2, and speech recognition is performed as a code string. This result is stored in the phoneme lattice storage circuit 32 in FIG. The result of voice recognition of the first voice is stored in the phoneme lattice storage circuit 32 in FIG. 2, and is also displayed on the display section 26 in FIG. 2 so that the operator can confirm it. The display control circuit 25 shown in FIG. 2 and the display section 26 shown in FIG. 2 are involved in this display. An example of the displayed speech recognition results is as shown in FIG. If there is an error or a need to change the voice recognition result displayed on the display unit 26 in FIG. 2, the operator uses the correction key to notify the user of the need for change. The correction key used here is controlled by the correction key control circuit 28 shown in FIG. If it is necessary to make changes,
Changes need to be detected immediately. In order to spot the changed part from among the voice recognition results, the changed part itself is inputted as a second voice by voice. The changed part input as the second voice is immediately extracted as a feature and becomes a feature parameter string.
At step 9, DP matching is performed with the feature parameter string of the first voice stored in the feature parameter string storage circuit 27 of FIG. Spotting 1 is spotted as a candidate for the changed part by DP matching. moreover,
In order to ensure spotting of the changed part, the result of voice recognition of the second voice and the phoneme lattice storage circuit 3 in FIG.
DP matching circuit 33 performs DP matching on the voice recognition result of the first voice stored in DP matching circuit 33 in FIG. As a result, spotting 2 is spotted as a candidate for the changed portion. The situation is shown in Figure 4. Then, in the spotting result comparison circuit 34 shown in FIG. 2, spotting 1 and spotting 2 are compared. If the results match, it is assumed that the changed portion has been accurately spotted, and the process immediately proceeds to change the changed portion. However, spotting 1, which spots the changed part using the feature parameter sequence that is the result of extracting the features of the first voice and the second voice, and the change part using the voice recognition results of the first voice and the second voice. If spotting 2, which was used to spot the area, is different, the spotting result comparison circuit 34 shown in FIG. Proceed with the process as a changed part. However, if there is an error in spotting the changed part and a phoneme other than the desired change is changed, the operator confirms the result displayed on the display and notifies the user by using the correction key. Then, the other spotting result, which was not changed because the DP value was small, becomes the changed part and the change processing is continued. DP matching circuit 29 in FIG. 2, DP matching circuit 33 in FIG. 2, spotting result comparison circuit 34 in FIG.
constitutes the spotting section 14 in FIG. Regarding the spotted change portion, the second candidate phoneme stored in the phoneme lattice storage circuit 32 in FIG. 2 is rearranged as the first candidate phoneme by the phoneme lattice replacement circuit 30 in FIG. 2 Display control circuit 2
5, it is displayed on the display section 26 in FIG. When the change unit is changed to the desired phoneme by this process, the voice recognition result is confirmed by operating the confirm key controlled by the confirm key control circuit 31 in FIG. Second part of the change
If the candidate phoneme is not the phoneme you wish to change, the confirmation key control circuit 31 in FIG. 2 recognizes that the confirmation key is not operated, and the phoneme lattice replacement circuit 30 in FIG. 2 selects a candidate with a lower priority. Replace the order as the first candidate and display it in the same way as before. When the operator finds the desired phoneme, he or she operates the confirmation key to confirm the speech recognition result. If the desired phoneme does not exist among the displayed second, third, and lower candidates, the voice is input again and voice recognition is performed using the same route as when the voice was first input. The circuits involved in this change operation are the phoneme lattice exchange circuit 30 in FIG. 2 and the confirmation key control circuit 31 in FIG.
Phoneme lattice storage circuit 32, FIG. 2 display unit control circuit 25,
This is the display section 26 in FIG. (Embodiment 2) FIG. 5 is a block diagram of a continuous speech recognition and correction device that recognizes speech uttered continuously without dividing each word, which is an embodiment of the present invention. The processing path indicated by the dashed line is that of the second voice.

【0015】第1の音声として入力された音声は、図1
音響分析部11の構成要素であるマイク、高域強調フィ
ルタ、AD変換器より構成される図5音声入力部41に
よって8KHz、12bitsのデジタル信号としてサ
ンプリングされる。更に同じく図1音響分析部11の構
成要素である図5特徴抽出回路42において、デジタル
信号に変換された音声信号を16ms区間を1フレーム
として1フレーム毎に周波数変換し、周波数領域での特
徴パラメータを抽出し、発声された単語の特徴パラメー
タ列として表される。図5特徴抽出回路42で抽出され
た入力音声の特徴パラメータ列は、図5特徴パラメータ
列記憶回路47に記憶される。図5特徴パラメータ列記
憶回路47は図1音響分析記憶部16を構成する。第1
の音声の特徴パラメータ列は、図5連続DPマッチング
回路43において、図5単語記憶辞書44と連続DPマ
ッチングされ、符号列として音声認識され、図5単語ラ
ティス記憶回路52に記憶される。第1の音声の音声認
識結果を符号列として記憶する図5単語ラティス記憶回
路52は、図1音声認識記憶部13を構成している。第
1の音声の音声認識結果は図5単語ラティス記憶回路5
2に記憶されるとともに、図5音声合成回路45によっ
て音声合成され、図5音声出力制御回路46の制御によ
りスピーカーから出力される。操作者は、音声により出
力された第1の音声の音声認識結果を聞き、音声認識結
果に誤りがあった場合、または変更したい部分が生じた
場合には、操作者は訂正キーに触れる等の行為によって
認識結果変更の必要を知らせる。図5に破線で示されて
いるのは、第2の入力音声の処理を示したものである。 第2の音声として入力された単語は、第1の音声と同様
に、図5音声入力部41、図5特徴抽出回路42を経て
特徴パラメータ列に変換される。変更が必要な部分とし
て入力された第2の音声の特徴パラメータ列は、図5連
続DPマッチング回路49において、図5特徴パラメー
タ列記憶回路47に記憶されている第1の音声の特徴パ
ラメータ列と連続DPマッチングされる。誤って認識さ
れてしまった部分や、変更を施す部分を第2の音声とし
て入力することによって、第1の音声の特徴パラメータ
列と比較し、一致する部分を探すことで、音声認識結果
の変更部分をスポッティングしているのである。この結
果を変更部分の候補としてスポッティング1とする。さ
らに、変更部分のスポッティングを確実にするために、
第2の音声も第1の音声と同様に第5連続DPマッチン
グ回路43において、図5単語記憶辞書44と連続DP
マッチングし、音声認識する。この第2の音声を音声認
識した結果と、図5単語ラティス記憶回路52に記憶さ
れている第1の音声の音声認識結果とを、図5連続DP
マッチング回路53において、連続DPマッチングする
。これは、音声認識結果を用いて変更部分のスポッティ
ングをする処理である。この処理により得られた変更部
分をスポッティング2とする。次に、図5スポッティン
グ結果比較回路54において、先に図5特徴パラメータ
列記憶回路47に記憶されている第1の音声の特徴パラ
メータ列と第2の音声の特徴パラメータ列を用いて変更
部分をスポッティングした結果、スポッティング1と、
図5音素ラティス記憶回路52に記憶されている第1の
音声の音声認識結果と第2の音声の音声認識結果を用い
て変更部分をスポッティングした結果、スポッティング
2とを比較する。図5スポッティング結果比較回路54
において比較した結果、スポッティング1とスポッティ
ング2が同一ならば、確実に変更部分がスポッティング
されたとして、次の処理に移る。もし、スポッティング
1とスポッティング2が一致していない場合には、スポ
ッティング1、スポッティング2が検出された際のDP
値の大きい方を変更部と決定する。もし変更部分が誤っ
てスポッティングされてしまった場合には、操作者は変
更された結果がスピーカーから流れるのを聞き、知るこ
とが出来る。そのような場合には、直ちに図5訂正キー
制御回路48に制御されている訂正キーを操作して、先
に図5スポッティング結果比較回路54において他のス
ポッティング結果よりも、DP値が小さいために変更部
分の候補に選ばれなかったもう一方のスポッティング結
果を変更部分として、変更部分の変更操作は再び進める
ことが出来る。図5連続DPマッチング回路49、図5
連続DPマッチング回路53、図5スポッティング54
は、図1スポッティング部14を構成する。スポッティ
ングされた変更部分について、図5単語ラティス記憶回
路52の中に記憶されている第2候補の単語を図5単語
ラティス入れ替え回路50によって、第1候補の単語と
して順位入れ替えし、その結果を図5音声合成回路45
において音声合成し図5音声出力制御回路46の制御に
よってスピーカーから音声出力する。この処理によって
変更部が変更を希望する単語に変更されたならば、図5
確定キー制御回路51に制御されている確定キーを操作
して音声認識結果を確定する。変更部分の第2候補の単
語が変更を希望する単語でない場合には、確定キーが操
作されないことを図5確定キー制御回路50は認識し、
図5単語ラティス入れ替え回路50はさらに下位の優先
順位を持った候補を第1の候補として順位入れ替えし、
先ほどと同様に音声出力する。操作者は、希望の単語を
見つけたところで、確定キーを操作して音声認識結果を
確定する。表示された第2、第3、それ以下の候補の中
に希望する単語が存在しなければ、改めて音声の入力を
行い、最初に音声を入力した際と同様な経路にて音声認
識を行う。図5単語ラティス入れ替え回路50、図5確
定キー制御回路51は図1変更部15を構成する。
The voice input as the first voice is shown in FIG.
The sound is sampled as an 8 KHz, 12 bits digital signal by the audio input section 41 in FIG. Furthermore, in the feature extraction circuit 42 in FIG. 5, which is also a component of the acoustic analysis unit 11 in FIG. is extracted and expressed as a string of characteristic parameters of the uttered word. The feature parameter string of the input voice extracted by the feature extraction circuit 42 in FIG. 5 is stored in the feature parameter string storage circuit 47 in FIG. The characteristic parameter string storage circuit 47 in FIG. 5 constitutes the acoustic analysis storage section 16 in FIG. 1st
The speech feature parameter string is subjected to continuous DP matching with the word storage dictionary 44 in FIG. 5 in the continuous DP matching circuit 43 in FIG. The word lattice storage circuit 52 shown in FIG. 5, which stores the speech recognition result of the first speech as a code string, constitutes the speech recognition storage section 13 shown in FIG. The speech recognition result of the first speech is shown in FIG. 5. Word lattice storage circuit 5
2, the voice is synthesized by the voice synthesis circuit 45 in FIG. 5, and outputted from the speaker under the control of the voice output control circuit 46 in FIG. The operator listens to the voice recognition result of the first voice output by voice, and if there is an error in the voice recognition result or there is a part that needs to be changed, the operator can touch the correction key etc. Notify the need to change the recognition result by action. The broken line in FIG. 5 shows the processing of the second input voice. Similar to the first voice, the word input as the second voice is converted into a feature parameter string through the voice input section 41 in FIG. 5 and the feature extraction circuit 42 in FIG. The second voice feature parameter string input as the part that needs to be changed is combined in the continuous DP matching circuit 49 in FIG. 5 with the first voice feature parameter string stored in the feature parameter string storage circuit 47 in FIG. Continuous DP matching. By inputting the incorrectly recognized part or the part to be changed as the second voice, it is compared with the feature parameter string of the first voice, and by searching for a matching part, the voice recognition result can be changed. It's spotting the parts. This result is set as spotting 1 as a candidate for the changed portion. Additionally, to ensure spotting of changes,
Similarly to the first voice, the second voice is also connected to the word memory dictionary 44 in FIG.
Match and voice recognition. The result of voice recognition of this second voice and the voice recognition result of the first voice stored in the word lattice storage circuit 52 in FIG.
A matching circuit 53 performs continuous DP matching. This is a process of spotting changed parts using the voice recognition results. The changed portion obtained by this process is referred to as spotting 2. Next, the spotting result comparison circuit 54 in FIG. 5 uses the first voice feature parameter string and the second voice feature parameter string previously stored in the feature parameter string storage circuit 47 in FIG. As a result of spotting, spotting 1,
The results of spotting the changed portion using the voice recognition results of the first voice and the voice recognition results of the second voice stored in the phoneme lattice storage circuit 52 in FIG. 5 are compared with spotting 2. FIG. 5 Spotting result comparison circuit 54
As a result of the comparison, if spotting 1 and spotting 2 are the same, it is assumed that the changed portion has been definitely spotted, and the process moves on to the next step. If spotting 1 and spotting 2 do not match, the DP when spotting 1 and spotting 2 are detected
The one with the larger value is determined to be the changed part. If a changed part is accidentally spotted, the operator can hear the changed result played from the speaker and know. In such a case, the correction key controlled by the correction key control circuit 48 in FIG. 5 is immediately operated, and the spotting result comparing circuit 54 in FIG. The other spotting result that was not selected as a candidate for the changed part can be used as the changed part, and the changing operation for the changed part can be proceeded again. Figure 5 Continuous DP matching circuit 49, Figure 5
Continuous DP matching circuit 53, Figure 5 spotting 54
constitutes the spotting section 14 in FIG. Regarding the spotted changed portion, the second candidate word stored in the word lattice storage circuit 52 in FIG. 5 is rearranged as the first candidate word by the word lattice replacement circuit 50 in FIG. 5 Speech synthesis circuit 45
The synthesized sound is synthesized at the step 5 and outputted from the speaker under the control of the sound output control circuit 46 shown in FIG. If the change section is changed to the desired word by this process, then
A confirmation key controlled by the confirmation key control circuit 51 is operated to confirm the voice recognition result. If the second candidate word of the change part is not the word desired to be changed, the confirmation key control circuit 50 in FIG. 5 recognizes that the confirmation key is not operated,
The word lattice replacement circuit 50 in FIG. 5 replaces the candidate with a lower priority as the first candidate,
Output the audio as before. When the operator finds the desired word, he or she operates the confirmation key to confirm the speech recognition result. If the desired word does not exist among the displayed second, third, and lower candidates, the user inputs the voice again and performs voice recognition using the same route as when the voice was input for the first time. The word lattice exchange circuit 50 in FIG. 5 and the confirmation key control circuit 51 in FIG. 5 constitute the changing unit 15 in FIG.

【0016】本発明について、本発明の(実施例2)に
基づいて、図6、図7を用いて更に説明する。
The present invention will be further explained based on (Embodiment 2) of the present invention using FIGS. 6 and 7.

【0017】図6は本発明の音声認識訂正装置の一実施
例である単語毎に区切らずに発生した音声を認識する認
識訂正装置を構成する図1音声認識記憶部内の単語ラテ
ィス構造および、図1音響分析記憶部内の一部のデータ
として音声の音声パワーを示す図である。
FIG. 6 shows an embodiment of the speech recognition and correction device of the present invention, which constitutes a recognition and correction device that recognizes speech generated without dividing each word. 1 is a diagram showing the audio power of audio as part of data in an acoustic analysis storage unit.

【0018】操作者が第1の音声として「今日の天気は
晴れです。」という文章を入力したと仮定する。この入
力を受けた際の図5単語ラティス記憶回路52における
単語タティス構造は図6に示したとおり、「今日」の単
語ラティス構造は第一候補「今日」、第二候補第三候補
はない。「の」の単語ラティス構造は第一候補「の」、
第二候補「も」である。「天気」の単語ラティス構造は
第一候補「天気」、第二候補「天使」である。また、「
は」の単語ラティス構造は第一候補「は」、第二候補「
あ」である。また、「晴れ」の単語ラティス構造は、第
一候補「針」第二候補「晴れ」、第三候補「橋」である
。同様に「です」についての単語ラティス構造は、第一
候補「です」、第二候補「でぶ」である。この第1の入
力音声「今日の天気は晴れです。」の抽出された特徴の
一種である音声パワーは、図6に示した通りである。 この場合、「晴れ」が「針」に誤認識されてしまったこ
とになる。音声認識結果は図5音声合成回路45により
音声合成され、図5音声出力制御回路46の制御により
スピーカーから出力される。操作者は音声によって伝え
られる「今日の天気は針です。」という音声認識結果を
聞き、音声認識結果に変更の必要があることを知り、訂
正キーを用いて知らせる。図5訂正キー制御回路48は
音声認識結果に変更の必要があることを認識し、直ちに
第2の音声として変更部分の入力を求める体制を整える
Assume that the operator inputs the sentence "Today's weather is sunny." as the first voice. When this input is received, the word lattice structure in the word lattice storage circuit 52 of FIG. 5 is shown in FIG. 6, as shown in FIG. 6, the word lattice structure of "Today" is the first candidate "Today", and there is no second candidate or third candidate. The word lattice structure of “no” is the first candidate “no”,
The second candidate is "mo". The word lattice structure of "weather" has the first candidate "weather" and the second candidate "angel."Also,"
The word lattice structure of ``wa'' is the first candidate ``wa'' and the second candidate ``wa''.
It's "A". Further, the word lattice structure for "hare" is the first candidate "needle", the second candidate "hare", and the third candidate "hashi". Similarly, the word lattice structure for "desu" is the first candidate "desu" and the second candidate "fat". The voice power, which is a type of extracted feature, of the first input voice "Today's weather is sunny." is as shown in FIG. In this case, "sunny" is mistakenly recognized as "needle". The speech recognition result is synthesized by the speech synthesis circuit 45 shown in FIG. 5, and outputted from the speaker under the control of the speech output control circuit 46 shown in FIG. The operator listens to the voice recognition result of ``Today's weather is needles.'', learns that the voice recognition result needs to be changed, and uses the correction key to notify the operator. The correction key control circuit 48 in FIG. 5 recognizes that the voice recognition result needs to be changed, and immediately prepares a system to request input of the changed part as a second voice.

【0019】図7は本発明の音声認識訂正装置の一実施
例である(実施例2)に基づき、単語毎に区切らずに発
生した音声を認識する音声認識訂正装置を構成する図1
音素スポッティング部14の処理を説明する図である。 図7では、第1の音声の特徴パラメータ列の一つである
音声パワーと単語ラティスおよび、第2の音声の特徴パ
ラメータ列の一つである音声パワーと音声認識結果を示
して説明している。
FIG. 7 shows an embodiment of the speech recognition and correction apparatus of the present invention. Based on (Embodiment 2), FIG.
FIG. 3 is a diagram illustrating processing of the phoneme spotting unit 14. FIG. FIG. 7 shows and explains the speech power and word lattice, which is one of the first speech feature parameter strings, and the speech power and speech recognition result, which is one of the second speech feature parameter strings. .

【0020】操作者は誤って認識されてしまった単語そ
のもの、「針」を第2の音声として入力する。これは、
変更部分をスポッティングするためである。入力された
第2の音声「針」は図5音声入力部41、図5特徴抽出
回路42を経て特徴パラメータ列に変換され、図5特徴
パラメータ列記憶回路47に記憶されている第1の入力
音声の特徴パラメータ列と図5連続DPマッチング回路
49において連続DPマッチングされる。その結果は、
図7に示したように「針」が変更部分の候補としてスポ
ッティングされたのである。「針」をスポッティング1
とする。ここに示したように、一度特徴抽出し音声認識
した単語「針」をスポッティングすることはそれほど困
難なことではない。第2の入力音声を図5連続DPマッ
チング回路43において、図5音素記憶辞書44と連続
DPマッチングし音声認識する。こここ、仮に第2の音
声は「天気」と認識されたとする。第2の音声の音声認
識結果「天気」を図5連続DPマッチング回路53にお
いて、図5単語ラティス記憶回路52と連続DPマッチ
ングする。この連続DPマッチングの結果、「今日の天
気は針です。」の「天気」がスポッティングされる。こ
れをスポッティング2とする。図5スポッティング結果
比較回路54において、変更部分の候補としてスポッテ
ィング1とスポッティング2と比較される。ここでは、
スポッティング1が「針」、スポッティング2は「天気
」で一致しないので、スポッティング1とスポッティン
グ2が連続DPマッチングによりスポッティングされた
際のDPマッチング値を比較する。するとスポッティン
グ1のDP値はスポッティング2のDP値より大きいこ
とが分かる。ここで、スポッティング1が変更部分の候
補となり、「今日の天気は針です。」の「針」がスポッ
ティングされる。このようにして、誤認識部分「針」が
変更必要な単語として検出される。この結果を受け図5
単語ラティス入れ替え回路50では、図5単語ラティス
記憶回路52を操作し、変更部分としてスポッティング
された「針」の音声認識結果の第2候補である「晴れ」
を第1の候補に順位入れ替えし、その結果は図5音声合
成回路45において、音声合成され、図5音声出力制御
部46の制御によりスピーカーから音声出力される。幸
い第二候補に正しい単語「晴れ」が存在して、スピーカ
ーより「晴れ」という音声出力を聞き、操作者は確定キ
ーを用いて確定し、音声認識結果を訂正する。以上の操
作によって音声認識結果の訂正を終了し、「今日の天気
は晴れです。」を得ることができる。仮に、図5スポッ
ティング結果比較回路54において、スポッティング1
(針)とスポッティング2(天気)のDP値を比較した
際に、スポッティング2の方がDP値が大きければ、変
更部分としてスポッティング28天気)が選ばれる。変
更部分スポッティング以降の変更処理は、「天気」につ
いて行われる。この場合を引用して、変更部分のスポッ
ティングが誤ってしまった場合の例を説明する。図5単
語ラティス入れ替え回路50は、図5単語ラティス記憶
回路52に記憶されている「天気」の第2候補は「天使
」を順位入れ替えし第1の候補として、図5音声合成回
路45に出力し、図5音声合成回路45において音声合
成され、図5音声出力制御回路46の制御によりスピー
カーから「天使」と流れたのを聞き、変更部分のスポッ
ティングに失敗したことを知る。そこで、変更部分のス
ポッティングに誤りがあったことを、図5訂正キー制御
回路48によって制御されている訂正キーを用いて知ら
せる。そこで、図5スポッティング結果比較回路54に
おけるDP値の比較で、DP値が小さいとして変更部分
の候補になれなかった「針」を、変更部分として図5単
語ラティス入れ替え回路50に送る。図5単語ラティス
入れ替え回路50では、図5単語ラティス記憶回路52
に記憶されている「針」の第2候補である「晴れ」第1
の候補として順位入れ替えを行う。図5音声合成回路4
5では「晴れ」を音声合成し、図5音声出力制御回路4
6の制御により「晴れ」と音声出力する。 操作者は「晴れ」という音声を聞き、希望していた変更
部分が希望していた認識結果に変更されたことを認識し
、図5確定キー制御回路51に制御されている確定キー
を用い結果を訂正する。以上の操作によって、変更部分
のスポッティングを誤ってしまったとしても、希望する
音声認識結果「今日の天気は晴れです。」を得ることが
できる。
[0020] The operator inputs the erroneously recognized word itself, ``needle'', as the second voice. this is,
This is for spotting changed parts. The input second voice "needle" is converted into a feature parameter string through the voice input section 41 in FIG. 5 and the feature extraction circuit 42 in FIG. Continuous DP matching is performed with the speech feature parameter string in the continuous DP matching circuit 49 of FIG. The result is
As shown in FIG. 7, the "needle" was spotted as a candidate for the changed part. Spotting the “needle” 1
shall be. As shown here, it is not that difficult to spot the word "needle" once features have been extracted and voice recognized. The second input voice is subjected to continuous DP matching with the phoneme memory dictionary 44 in FIG. 5 in the continuous DP matching circuit 43 in FIG. 5 for speech recognition. Assume here that the second voice is recognized as "weather." The speech recognition result of the second speech "weather" is subjected to continuous DP matching with the word lattice storage circuit 52 of FIG. 5 in the continuous DP matching circuit 53 of FIG. As a result of this continuous DP matching, "weather" in "Today's weather is needles" is spotted. This is called spotting 2. In the spotting result comparison circuit 54 in FIG. 5, spotting 1 and spotting 2 are compared as candidates for the changed portion. here,
Since spotting 1 is "needle" and spotting 2 is "weather" and they do not match, the DP matching values when spotting 1 and spotting 2 are spotted by continuous DP matching are compared. Then, it can be seen that the DP value of spotting 1 is larger than the DP value of spotting 2. Here, spotting 1 becomes a candidate for the change part, and the "needle" in "Today's weather is needles." is spotted. In this way, the erroneously recognized part "needle" is detected as a word that needs to be changed. Based on this result, Figure 5
The word lattice replacement circuit 50 operates the word lattice storage circuit 52 shown in FIG.
is replaced with the first candidate, and the result is voice synthesized in the voice synthesis circuit 45 in FIG. 5, and the voice is output from the speaker under the control of the voice output control section 46 in FIG. Fortunately, the correct word ``Hare'' exists in the second candidate, and the operator hears the voice output ``Hare'' from the speaker, confirms it using the Confirm key, and corrects the voice recognition result. By the above operations, the correction of the speech recognition result is completed and "Today's weather is sunny." can be obtained. Suppose that in the spotting result comparison circuit 54 in FIG.
(needle) and Spotting 2 (weather), if Spotting 2 has a larger DP value, then Spotting 28 (Weather) is selected as the changed part. The change processing after the changed part spotting is performed for "weather". Referring to this case, an example of a case where spotting of a changed part is incorrect will be explained. The word lattice replacement circuit 50 in FIG. 5 rearranges the ranking of "angel" as the second candidate for "weather" stored in the word lattice storage circuit 52 in FIG. 5, and outputs it as the first candidate to the speech synthesis circuit 45 in FIG. However, the voice is synthesized in the voice synthesis circuit 45 in FIG. 5, and when the user hears "angel" being played from the speaker under the control of the voice output control circuit 46 in FIG. 5, he knows that spotting of the changed part has failed. Therefore, the correction key controlled by the correction key control circuit 48 in FIG. 5 is used to notify that there is an error in spotting the changed portion. Accordingly, in the comparison of the DP values in the spotting result comparison circuit 54 in FIG. 5, "needle", which could not be a candidate for the changed part due to its small DP value, is sent to the word lattice replacement circuit 50 in FIG. 5 as the changed part. In the word lattice exchange circuit 50 in FIG. 5, the word lattice storage circuit 52 in FIG.
The second candidate for "Needle" stored in "Hare" is the first.
The ranking will be changed as a candidate. Figure 5 Speech synthesis circuit 4
5, the speech output of "Hare" is synthesized, and the speech output control circuit 4 in FIG.
6 outputs a voice saying "Sunny". The operator hears the voice "Sunny", recognizes that the desired change part has been changed to the desired recognition result, and uses the confirmation key controlled by the confirmation key control circuit 51 in FIG. 5 to confirm the result. Correct. Through the above operations, even if the changed part is spotted incorrectly, the desired speech recognition result "Today's weather is sunny." can be obtained.

【0021】尚、(実施例1)、(実施例2)では音声
入力部として、マイク、高域強調フィルタ、AD変換器
より構成し、8KHz、12bitsのデジタル信号と
してサンプリングしたものを用いたが、迅速に入力音声
をサンプリングできるものであれば、それ以外の構成で
あってもかまわない。また、特徴抽出回路では、デジタ
ル信号に変換された音声信号を16ms区間を1フレー
ムとして、1フレーム毎に周波数変換し、周波数領域で
の特徴パラメータを抽出し、発声された単語の特徴パラ
メータ列として表す方法を用いたが、これ以外の方法で
あっても特徴を的確に抽出できる方法であればかまわな
い。また、音声認識結果を操作者に知らせる手段として
、(実施例1)では表示部に音声認識結果を表示する方
法を用いた。また、(実施例2)では音声認識結果を音
声合成により生成し、合成音声として出力し操作者に知
らせる方法を用いたが、これら以外の方法であっても、
音声認識結果を迅速に操作者に知らせることが出来る方
法であれば構わない。また、変更希望の単語や音素を確
定するために、ここでは確定キーを用いたが、それ以外
の音声による確定等であっても、正確に確定操作が出来
る方法であれば、それ以外の方法であっても構わない。
In (Example 1) and (Example 2), the audio input section consisted of a microphone, a high-frequency emphasis filter, and an AD converter, and was sampled as an 8 KHz, 12-bit digital signal. , other configurations may be used as long as the input audio can be sampled quickly. In addition, the feature extraction circuit converts the frequency of the audio signal converted into a digital signal for each frame, with a 16 ms interval as one frame, extracts feature parameters in the frequency domain, and generates a string of feature parameters of the uttered word. Although this method is used, other methods may be used as long as they can accurately extract the features. Furthermore, as a means for notifying the operator of the voice recognition results, in (Embodiment 1) a method of displaying the voice recognition results on the display unit was used. In addition, in (Example 2), a method was used in which the voice recognition result was generated by voice synthesis and output as a synthesized voice to notify the operator, but other methods may also be used.
Any method may be used as long as it can quickly notify the operator of the voice recognition results. In addition, in order to confirm the word or phoneme that you wish to change, we used the confirm key here, but you can use any other method, such as confirming by voice, as long as it allows you to confirm the word or phoneme accurately. It doesn't matter.

【0022】[0022]

【発明の効果】以上述べてきたように本発明の音声認識
訂正装置は、入力された音声認識結果の変更にあたって
、カーソルを移動して変更部分の指定をする必要がなく
、音声により変更部分を再入力することによって、極め
て速やかに変更部分の指定を行い変更することが出来る
。そのため、雑音等による音声認識装置の使用環境の悪
化や、音声認識装置に入力を行う操作者の体調等により
、音声認識結果に頻繁に誤認識が生じ得るような場合に
も、音声認識訂正のための特別な操作や知識を必要とせ
ず、音声入力操作と同様な操作では訂正が可能となり、
操作者への負担が軽減され作業効率も著しく改善された
Effects of the Invention As described above, the speech recognition correction device of the present invention eliminates the need to move the cursor to specify the changed part when changing the input speech recognition result, and allows the changed part to be changed by voice. By re-entering the information, you can specify and change the changed part very quickly. Therefore, even when voice recognition errors may occur frequently due to deterioration of the usage environment of the voice recognition device due to noise, etc., or due to the physical condition of the operator inputting input to the voice recognition device, etc., voice recognition correction can be performed. Corrections can be made using operations similar to voice input operations, without requiring any special operations or knowledge.
The burden on the operator has been reduced and work efficiency has been significantly improved.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の音声認識訂正装置の原理ブロック図で
ある。
FIG. 1 is a principle block diagram of a speech recognition and correction device according to the present invention.

【図2】本発明の一実施例のブロック図である。FIG. 2 is a block diagram of one embodiment of the invention.

【図3】本発明の一実施例の音響分析記憶部内に記憶さ
れている第1の音声の特徴の一種である音声パワー及び
、音声認識記憶部内に記憶されている第1の音声の音素
ラティス構造3を示す図である。
FIG. 3 shows the voice power, which is a type of feature of the first voice stored in the acoustic analysis storage unit, and the phoneme lattice of the first voice stored in the voice recognition storage unit, according to an embodiment of the present invention; FIG. 3 is a diagram showing structure 3;

【図4】本発明の一実施例の変更部スポッティング部及
び変更部を説明する図である。
FIG. 4 is a diagram illustrating a changing unit spotting unit and a changing unit according to an embodiment of the present invention.

【図5】本発明の一実施例のブロック図である。FIG. 5 is a block diagram of one embodiment of the present invention.

【図6】本発明の一実施例の音響分析記憶部内に記憶さ
れている第1の音声の特徴の一種である音声パワー及び
、音声認識記憶部内に記憶されている第1の音声の単語
ラティス構造を示す図である。
FIG. 6 shows the voice power, which is a type of feature of the first voice stored in the acoustic analysis storage unit, and the word lattice of the first voice stored in the voice recognition storage unit according to an embodiment of the present invention; It is a figure showing a structure.

【図7】本発明の一実施例の変更部スポッティング部及
び変更部を説明する図である。
FIG. 7 is a diagram illustrating a changing unit spotting unit and a changing unit according to an embodiment of the present invention.

【図8】本発明の一実施例の処理を説明する図である。FIG. 8 is a diagram illustrating processing according to an embodiment of the present invention.

【図9】従来の音声認識訂正装置のブロック図である。FIG. 9 is a block diagram of a conventional speech recognition correction device.

【符号の説明】[Explanation of symbols]

1  音響分析部 2  音声認識部 3  記憶部 4  カーソル指示部 5  変更部 11  音響分析部 12  音声認識部 13  音声認識記憶部 14  音声スポッティング部 15  変更部 16  音響分析記憶部 21  音声入力部 22  特徴抽出回路 23  DPマッチング回路 24  音素記憶辞書 25  表示部制御回路 26  表示部 27  特徴パラメータ列記憶回路 28  訂正キー制御回路 29  DPマッチング回路 30  音素ラティス入れ替え回路 31  確定キー制御回路 32  音素ラティス制御回路 33  DPマッチング回路 34  スポッティング結果比較回路 41  音声入力部 42  特徴抽出回路 43  連続DPマッチング回路 44  単語記憶辞書 45  音声合成回路 46  音声出力制御回路 47  特徴パラメータ列記憶回路 48  訂正キー制御回路 49  連続DPマッチング回路 50  単語ラティス入れ替え回路 51  確定キー制御回路 52  単語ラティス記憶回路 53  連続DPマッチング回路 54  スポッティング結果比較回路 1. Acoustic analysis department 2 Speech recognition section 3. Storage section 4 Cursor instruction section 5 Change section 11 Acoustic analysis department 12 Speech recognition section 13 Voice recognition memory unit 14 Audio spotting section 15 Change section 16 Acoustic analysis storage unit 21 Audio input section 22 Feature extraction circuit 23 DP matching circuit 24 Phoneme memory dictionary 25 Display control circuit 26 Display section 27 Feature parameter string storage circuit 28 Correction key control circuit 29 DP matching circuit 30 Phoneme lattice replacement circuit 31 Confirmation key control circuit 32 Phoneme lattice control circuit 33 DP matching circuit 34 Spotting result comparison circuit 41 Audio input section 42 Feature extraction circuit 43 Continuous DP matching circuit 44 Word memory dictionary 45 Speech synthesis circuit 46 Audio output control circuit 47 Feature parameter string storage circuit 48 Correction key control circuit 49 Continuous DP matching circuit 50 Word lattice replacement circuit 51 Confirmation key control circuit 52 Word lattice memory circuit 53 Continuous DP matching circuit 54 Spotting result comparison circuit

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】入力された第1の音声の特徴を出力する音
響分析部と、前記音響分析部の出力を符号列に変換する
音声認識部と、前記音響分析部の出力を記憶する音響分
析記憶部と、前記音声認識部の出力を記憶する音声認識
記憶部と、入力された第2の音声を前記音響分析記憶部
及び前記音声認識記憶部内のデータと対比して前記第1
の音声のデータから、前記第2の音声に該当する部分を
検出するスポッティング部と、前記符号列のうち前記該
当する部分に対応する部分を変更する変更部とからなる
音声認識訂正装置。
1. An acoustic analysis unit that outputs characteristics of an input first voice, a speech recognition unit that converts the output of the acoustic analysis unit into a code string, and an acoustic analysis unit that stores the output of the acoustic analysis unit. a storage unit, a voice recognition storage unit that stores the output of the voice recognition unit; and a voice recognition storage unit that stores the output of the voice recognition unit, and compares the input second voice with the data in the acoustic analysis storage unit and the voice recognition storage unit,
A speech recognition and correction device comprising: a spotting section that detects a portion corresponding to the second speech from data of the speech; and a changing section that changes a portion of the code string that corresponds to the corresponding section.
JP3016519A 1991-02-07 1991-02-07 Speech recognition correction device Pending JPH04254896A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3016519A JPH04254896A (en) 1991-02-07 1991-02-07 Speech recognition correction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3016519A JPH04254896A (en) 1991-02-07 1991-02-07 Speech recognition correction device

Publications (1)

Publication Number Publication Date
JPH04254896A true JPH04254896A (en) 1992-09-10

Family

ID=11918523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3016519A Pending JPH04254896A (en) 1991-02-07 1991-02-07 Speech recognition correction device

Country Status (1)

Country Link
JP (1) JPH04254896A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000044446A (en) * 1998-12-30 2000-07-15 윤종용 Editing method by using voice recognition in mobile terminal
US6212497B1 (en) 1997-11-25 2001-04-03 Nec Corporation Word processor via voice
JP2011158902A (en) * 2010-01-28 2011-08-18 Honda Motor Co Ltd Speech recognition apparatus, speech recognition method, and speech recognition robot
JP2017167368A (en) * 2016-03-16 2017-09-21 株式会社東芝 Voice recognition error correction device, method, and program
JP2019219598A (en) * 2018-06-22 2019-12-26 カシオ計算機株式会社 Voice recognition apparatus, voice recognition method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6212497B1 (en) 1997-11-25 2001-04-03 Nec Corporation Word processor via voice
KR20000044446A (en) * 1998-12-30 2000-07-15 윤종용 Editing method by using voice recognition in mobile terminal
JP2011158902A (en) * 2010-01-28 2011-08-18 Honda Motor Co Ltd Speech recognition apparatus, speech recognition method, and speech recognition robot
US8886534B2 (en) 2010-01-28 2014-11-11 Honda Motor Co., Ltd. Speech recognition apparatus, speech recognition method, and speech recognition robot
JP2017167368A (en) * 2016-03-16 2017-09-21 株式会社東芝 Voice recognition error correction device, method, and program
US10614265B2 (en) 2016-03-16 2020-04-07 Kabushiki Kaisha Toshiba Apparatus, method, and computer program product for correcting speech recognition error
JP2019219598A (en) * 2018-06-22 2019-12-26 カシオ計算機株式会社 Voice recognition apparatus, voice recognition method, and program

Similar Documents

Publication Publication Date Title
US7848926B2 (en) System, method, and program for correcting misrecognized spoken words by selecting appropriate correction word from one or more competitive words
KR101312849B1 (en) Combined speech and alternate input modality to a mobile device
JP4829901B2 (en) Method and apparatus for confirming manually entered indeterminate text input using speech input
RU2379767C2 (en) Error correction for speech recognition systems
US7386454B2 (en) Natural error handling in speech recognition
JP2006351028A (en) Method and system for displaying a variable number of alternative words during speech recognition
JP3104661B2 (en) Japanese writing system
JP2002116793A (en) Data input system and method
JPH04248596A (en) Speech recognition correcting device
JP4966324B2 (en) Speech translation apparatus and method
JPH04254896A (en) Speech recognition correction device
JP3718088B2 (en) Speech recognition correction method
JPH10187184A (en) Method of selecting recognized word at the time of correcting recognized speech and system therefor
JP2000056795A (en) Speech recognition device
KR100998567B1 (en) Method for speech recognition and apparatus thereof
JPH04254898A (en) Voice recognition correction device
JP3903841B2 (en) Automatic interpretation device and program for automatic interpretation
JP2001236091A (en) Method and device for error correcting voice recognition result
JP2002189490A (en) Method of pinyin speech input
US20080256071A1 (en) Method And System For Selection Of Text For Editing
KR20040008546A (en) revision method of continuation voice recognition system
JP2006309469A (en) Retrieval device, retrieval method, program, and computer-readable recording medium
JP2007272123A (en) Voice operation system
JPH1063295A (en) Word voice recognition method for automatically correcting recognition result and device for executing the method
JP2000200093A (en) Speech recognition device and method used therefor, and record medium where control program therefor is recorded