JPH06130985A - Voice recognizing device - Google Patents

Voice recognizing device

Info

Publication number
JPH06130985A
JPH06130985A JP4279921A JP27992192A JPH06130985A JP H06130985 A JPH06130985 A JP H06130985A JP 4279921 A JP4279921 A JP 4279921A JP 27992192 A JP27992192 A JP 27992192A JP H06130985 A JPH06130985 A JP H06130985A
Authority
JP
Japan
Prior art keywords
learning
voice
recognition
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4279921A
Other languages
Japanese (ja)
Other versions
JP3083660B2 (en
Inventor
Toru Sanada
徹 真田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP04279921A priority Critical patent/JP3083660B2/en
Publication of JPH06130985A publication Critical patent/JPH06130985A/en
Application granted granted Critical
Publication of JP3083660B2 publication Critical patent/JP3083660B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To stop voicetraining more than needed and to reduce the burden of a user by providing a display means for displaying the advancing condition of learning at the voice recognizing device for learning the voice of the user. CONSTITUTION:This voice recognizing device for learning the voice of the user is provided with a learning part 2 for performing learning based on the voice input of the user, dictionary 1 corrected for specified speaker based on the learning part 2, recognition part 3 for recognizing unknown voices by collating the unknown voices with the dictionary 1, learning/recognition control part 4 for sending a signal concerning the input voice to the learning part 2 at the time of a learning mode and sending the signal concerning the input voice to the recognition part 3 at the time of a recognition mode, and learning condition display part 5 for displaying the learning advancing condition in the learning mode. At the time of the learning mode, the advancing condition of learning is displayed, and the user can stop the advancement of learning more than needed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は音声認識装置に係り、特
に利用者の音声を学習する音声認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice recognition device, and more particularly to a voice recognition device for learning a user's voice.

【0002】[0002]

【従来の技術】特定話者用の音声認識装置では、不特定
話者用に用意された辞書を特定話者用に修正して認識率
を向上するために、利用者の音声を入力してこれを学習
することが必要である。例えば図7に示すように、辞書
21と、学習部22と、認識部23と、学習認識制御部
24を設ける。
2. Description of the Related Art A voice recognition device for a specific speaker inputs a user's voice in order to improve the recognition rate by correcting the dictionary prepared for the non-specific speaker for the specific speaker. It is necessary to learn this. For example, as shown in FIG. 7, a dictionary 21, a learning unit 22, a recognition unit 23, and a learning recognition control unit 24 are provided.

【0003】初めに、学習認識制御部24を学習モード
にしておき、利用者が例えばあらかじめ決められている
複数の単語を順次音声入力する。学習認識制御部24は
これを学習部22に送出する。これにより学習部22
は、辞書21を順次特定話者用に修正する。このように
して学習終了後、学習認識制御部24を認識モードにす
る。そして未知の入力音声を認識部23に送出し、認識
部23はこれを特定話者用に修正された辞書21を参照
して認識結果を出力する。
First, the learning recognition control section 24 is set in the learning mode, and the user sequentially inputs, for example, a plurality of predetermined words by voice. The learning recognition control unit 24 sends this to the learning unit 22. As a result, the learning unit 22
Modifies the dictionary 21 sequentially for a specific speaker. After the learning is thus completed, the learning recognition control unit 24 is set to the recognition mode. Then, the unknown input voice is sent to the recognition unit 23, and the recognition unit 23 outputs the recognition result with reference to the dictionary 21 corrected for the specific speaker.

【0004】[0004]

【発明が解決しようとする課題】ところで、この学習状
態は利用者により個人差のあることが判明された。例え
ば個人によっては、予定の半分程度の音声入力で辞書が
特定話者用に充分に修正されていても、予定した単語、
あるいは音節等をすべて音声入力することが必要であ
り、このような場合、利用者は必要以上の負担をうける
ことになる。従って本発明の目的は、辞書が特定話者用
に充分に修正されたとき、それ以上の学習を打ち切るよ
うにした音声認識装置を提供するものである。
By the way, it has been found that the learning state has individual differences among users. For example, depending on the individual, even if the dictionary is fully modified for a specific speaker with about half the planned voice input, the planned word,
Alternatively, it is necessary to input all syllables by voice, and in such a case, the user is overloaded. Accordingly, it is an object of the present invention to provide a voice recognition device which terminates further learning when the dictionary is sufficiently modified for a specific speaker.

【0005】[0005]

【課題を解決するための手段】前記目的を達成するため
本発明では、図1に示す如く、学習状況表示部5を設け
て、学習状況の進行状態を表示する。なお図1におい
て、1は辞書、2は学習部、3は認識部、4は学習認識
制御部である。
In order to achieve the above object, the present invention provides a learning status display section 5 as shown in FIG. 1 to display the progress status of the learning status. In FIG. 1, 1 is a dictionary, 2 is a learning unit, 3 is a recognition unit, and 4 is a learning recognition control unit.

【0006】まず学習認識制御部4を、制御信号により
学習モードに制御しておき、利用者があらかじめ決めら
れている単語を順次音声入力する。学習認識制御部4
は、これを学習部22に送出する。これにより学習部2
2は辞書21を順次特定話者用に修正する。
First, the learning / recognition control unit 4 is controlled to a learning mode by a control signal, and the user sequentially inputs a predetermined word by voice. Learning recognition control unit 4
Sends this to the learning unit 22. As a result, the learning unit 2
2 sequentially modifies the dictionary 21 for a specific speaker.

【0007】このとき、学習状況表示部5は前記学習部
22から送出された特徴量を辞書1を用いて照合する。
そして照合を行った回数と、正解が得られた回数により
認識率を算出し、これを表示する。そして認識率があら
かじめ決められた値に到達したとき、利用者はその表示
によりこれを認識して、それ以上の学習をやめる。それ
から制御信号により学習認識制御部4を認識モードに制
御し、未知の入力音声信号を認識部3に送出して、特定
話者用に修正された辞書1と例えばDP照合して音声認
識を行う。
At this time, the learning status display section 5 collates the feature quantity sent from the learning section 22 with the dictionary 1.
Then, the recognition rate is calculated based on the number of times of matching and the number of times that a correct answer is obtained, and this is displayed. Then, when the recognition rate reaches a predetermined value, the user recognizes this by the display and stops further learning. Then, the learning recognition control unit 4 is controlled to the recognition mode by the control signal, the unknown input voice signal is sent to the recognition unit 3, and the voice is recognized by, for example, DP matching with the dictionary 1 modified for the specific speaker. .

【0008】[0008]

【作用】本発明によれば認識率が充分高くなったとき、
利用者にこれを表示して学習の停止を知らせることにな
るので、利用者が必要以上に学習を行うことがなくな
り、学習時の負担を軽減することができる。
According to the present invention, when the recognition rate becomes sufficiently high,
Since this is displayed to the user and the learning is stopped, the user does not learn more than necessary and the burden at the time of learning can be reduced.

【0009】[0009]

【実施例】本発明の一実施例を図2〜図4にもとづき説
明する。図2は本発明の音声認識装置の一実施例構成
図、図3は認識率計算部の詳細図、図4は表示部におけ
る表示例説明図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT An embodiment of the present invention will be described with reference to FIGS. FIG. 2 is a block diagram of an embodiment of the voice recognition device of the present invention, FIG. 3 is a detailed view of a recognition rate calculation unit, and FIG.

【0010】図2において、図1と同記号は同一部分を
示し、2は学習部、3は認識部であるDP照合部、4は
学習認識制御部、5は学習状況表示部、6は音響分析
部、10はテンプレート記憶部である。
In FIG. 2, the same symbols as in FIG. 1 indicate the same parts, 2 is a learning unit, 3 is a DP collation unit which is a recognition unit, 4 is a learning recognition control unit, 5 is a learning status display unit, and 6 is an acoustic The analysis unit 10 is a template storage unit.

【0011】学習部2は、テンプレート記憶部10に格
納されている不特定話者用の辞書を特定話者用に学習す
るものであって、学習入力記憶部2−1、テンプレート
学習部2−2を有する。学習入力記憶部2−1は、後述
する音響分析部6において音声入力された単語に対して
抽出された音響レベルの特徴量を一時保持するものであ
る。またテンプレート学習部2−2は、前記音響レベル
の特徴量を、テンプレート記憶部10に保持されている
被学習用の辞書から、該当するものを抽出し、その距離
が特定範囲のものに対して置き換え、特定話者により適
した辞書にするものである。このとき、前記距離が特定
範囲以内のものについては入れ替える必要はなく、また
特定範囲以上のものについては、ミスかもしれないので
これまた入れ替える必要はない。
The learning unit 2 learns the dictionary for the unspecified speaker stored in the template storage unit 10 for the specified speaker, and includes a learning input storage unit 2-1 and a template learning unit 2-. Have two. The learning input storage unit 2-1 temporarily holds the feature amount of the sound level extracted for the word input by voice in the sound analysis unit 6 described later. In addition, the template learning unit 2-2 extracts a corresponding one of the acoustic level feature amounts from the dictionary for learning to be held in the template storage unit 10, and determines that the distance is within a specific range. The dictionary is replaced with a dictionary more suitable for a specific speaker. At this time, it is not necessary to replace the distance within the specific range, and it is not necessary to replace the distance more than the specific range because it may be a mistake.

【0012】DP照合部3は、認識モードのとき、未知
の音声入力をテンプレート記憶部10に保持されている
特定話者用の辞書とDP照合してこれを認識するもので
ある。
In the recognition mode, the DP collation unit 3 collates the unknown voice input with the dictionary for the specific speaker held in the template storage unit 10 to recognize it.

【0013】学習認識制御部4は、制御信号にもとづき
音声認識装置を学習モードで動作させたり、認識モード
で動作させたり制御するものであり、学習モードのとき
には、音響分析部6から入力された特徴量を学習入力記
憶部2−1に送出し、また認識モードのときには、音響
分析部6から入力された特徴抽出信号をDP照合部3に
送出するものである。
The learning recognition control section 4 operates and controls the speech recognition apparatus in the learning mode or in the recognition mode based on the control signal. In the learning mode, the sound recognition section 6 inputs the speech recognition apparatus. The feature amount is sent to the learning input storage unit 2-1 and, in the recognition mode, the feature extraction signal input from the acoustic analysis unit 6 is sent to the DP matching unit 3.

【0014】学習状況表示部5は、学習モードのときそ
の学習進行状況を表示するものであり、DP照合部5−
1、認識率計算部5−2、表示制御部5−3、表示部5
−4を有する。
The learning status display unit 5 displays the learning progress status in the learning mode, and the DP collation unit 5-
1, recognition rate calculation unit 5-2, display control unit 5-3, display unit 5
-4.

【0015】DP照合部5−1は学習時に学習入力記憶
部2−1から送出された単語の特徴量をテンプレート記
憶部10とDP照合し単語認識処理を行い、正解が得ら
れたときその正解信号を認識率計算部5−2に送出す
る。また学習毎に、正解か否かにかかわらず、学習を行
ったことを示す学習実行信号をこれまた認識率計算部5
−2に送出する。なお正解か否かは、学習モードのと
き、どの単語をどの順序で音声入力して学習するのか装
置がわかっているので、学習対象単語辞書にあらかじめ
この順番を付加しておき、学習時に照合出力された単語
のこのコードと、照合出力された回数が一致したとき正
解と判断する。勿論正解の判断はこれのみに限定される
ものではなく、他の手段でも可能である。
The DP collation unit 5-1 performs DP word collation with the template storage unit 10 on the feature amount of the word sent from the learning input storage unit 2-1 at the time of learning, and when the correct answer is obtained, the correct answer is obtained. The signal is sent to the recognition rate calculation unit 5-2. In addition, a learning execution signal indicating that learning has been performed is generated for each learning regardless of whether the answer is correct or not.
-2. Whether the answer is correct or not is known in the learning mode because the device knows in which order which words are input by voice input for learning. Therefore, this order is added to the learning target word dictionary in advance, and collation output is performed during learning. When the code of the written word matches the number of times of collation output, it is determined to be the correct answer. Of course, the determination of the correct answer is not limited to this, and other means are possible.

【0016】認識率計算部5−2は学習時において、同
時に行う照合がどの程度の正解率であるのか演算するも
のであって、図3に示す如く、学習回数を計数する学習
回数カウント部5−6、正解回数を計数する正解回数カ
ウント部5−7、学習回数と正解回数をあらかじめ定め
られた計算式にもとづき演算を行って予想認識率を算出
する演算部5−8を具備する。
The recognition rate calculation section 5-2 is for calculating what degree of correct answer rate the matching is performed at the time of learning, and as shown in FIG. 3, the learning number counting section 5 for counting the learning number. -6, a correct answer number counting unit 5-7 that counts the number of correct answers, and an arithmetic unit 5-8 that calculates the expected recognition rate by calculating the learning number and the correct answer number based on a predetermined calculation formula.

【0017】演算部5−8は、次式の演算を行い予想認
識率×(%)を得る。 X=50+(50×正解回数)/(学習回数+m) ここで右辺の初項の50は初期値であり、またmは1、
2、3等の適当な数値である。いまm=2とし、学習回
数20のうち正解回数が18であればX=90.9%、
学習回数50のうち正解回数が48であればX=96.
2%である。
The arithmetic unit 5-8 calculates the following equation to obtain the expected recognition rate x (%). X = 50 + (50 × number of correct answers) / (learning number + m) Here, 50 in the first term on the right side is an initial value, and m is 1,
It is an appropriate numerical value such as two or three. If m = 2 and the number of correct answers is 18 out of 20 learning times, X = 90.9%,
If the number of correct answers is 48 out of the number of learning times 50, X = 96.
2%.

【0018】表示制御部5−3は、前記認識率計算部5
−2から送出された予想認識率の値に応じて表示部5−
4を制御するものである。表示部5−4は学習状況をオ
ペレータに表示して、学習を続けるか否かを判断させる
ものである。表示部5−4は、図4(A)に示す如く、
予想認識率を数値で表示するように構成しても、同
(B)に示す如く、予想認識率をグラフで表示するよう
に構成しても、同(C)に示す如く、予想認識率に応じ
て?、△、○等の記号で示す如く構成しても、同(D)
に示す如く、予想認識率に応じてカラーランプ表示する
ように構成してもよい。
The display control unit 5-3 has the recognition rate calculation unit 5 described above.
Display unit 5-depending on the value of the expected recognition rate sent from
4 is controlled. The display unit 5-4 displays the learning status to the operator so as to determine whether or not to continue the learning. The display unit 5-4, as shown in FIG.
Even if the expected recognition rate is displayed as a numerical value or the expected recognition rate is displayed as a graph as shown in (B), the expected recognition rate is not changed as shown in (C). Depending on? Even if it is constructed as indicated by symbols such as, Δ, and ○, the same (D)
As shown in, a color lamp may be displayed according to the expected recognition rate.

【0019】予想認識率が80%以下のときは実用的で
なく、90%以下のときは何とか使用できる状態であ
り、95%になれば学習終了と判断できる。勿論この数
値はその用途に応じて相追し、非常に正確な認識を要求
される場合には、その数値はこれよりも高くなる。
When the expected recognition rate is 80% or less, it is not practical, and when it is 90% or less, it is in a usable state, and when it is 95%, it can be determined that the learning is completed. Of course, this value will follow each other according to its use, and if very accurate recognition is required, the value will be higher than this.

【0020】音響分析部6は、入力音声を解析して特徴
抽出するものであり、例えば音響レベルの特徴量の抽出
を行うものである。テンプレート記憶部10は音声認識
を行うときに必要な被照合用の辞書を保持するものであ
る。この辞書は最初不特定話者用のものであるが、前記
の如く、学習モードのときの入力音声にもとづき、音響
レベルで特徴が入れ替えられ、認識モードのときには特
定話者用の辞書を保持するものとなる。
The acoustic analysis unit 6 analyzes the input voice and extracts a feature, for example, a feature amount of an acoustic level. The template storage unit 10 holds a dictionary to be collated, which is necessary when performing voice recognition. This dictionary is initially for the unspecified speaker, but as described above, the features are switched at the sound level based on the input voice in the learning mode, and the dictionary for the specified speaker is held in the recognition mode. Will be things.

【0021】次に図2の動作について、表示部5−4が
図4(A)に示す如き数値表示を行うもので構成された
場合について説明する。 (1) 最初に、音声認識装置を学習モードにするため、図
2における学習認識制御部4に学習モード用の制御信号
を入力する。
Next, the operation of FIG. 2 will be described in the case where the display unit 5-4 is configured to display numerical values as shown in FIG. 4 (A). (1) First, in order to put the speech recognition apparatus in the learning mode, a learning mode control signal is input to the learning recognition control unit 4 in FIG.

【0022】(2) 利用者は、次に既知の単語を音声入力
する。この入力音声は、音響分析部6において特徴抽出
され、学習認識制御部4に送出される。このとき学習モ
ードで制御されているため、学習認識制御部4はこの特
徴量を学習入力記憶部2−1に送出し、学習入力記憶部
2−1はこの特徴量を保持する。
(2) The user next voice-inputs a known word. This input voice is feature-extracted by the acoustic analysis unit 6 and sent to the learning recognition control unit 4. At this time, since the learning control is performed in the learning mode, the learning recognition control unit 4 sends the feature amount to the learning input storage unit 2-1, and the learning input storage unit 2-1 holds the feature amount.

【0023】(3) テンプレート学習部2−2は、この特
徴量にもとづき、前記の如く、テンプレート記憶部10
に保持されている辞書を学習させ、利用者用に修正す
る。 (4) なお、前記学習入力記憶部2−1は、前記のように
保持した特徴量を、DP照合部5−1に順次送出する。
これにもとづきDP照合部5−1はテンプレート記憶部
10に保持されている辞書とDP距離を用いて照合す
る。そしてこの結果、正解が得られたか否か等を、前記
の如く、認識率計算部5−2に送出する。そして認識率
計算部5−2は予想認識率Xを演算する。
(3) The template learning unit 2-2, based on this feature amount, as described above, the template storage unit 10-2.
Learn the dictionary stored in and modify it for the user. (4) The learning input storage unit 2-1 sequentially sends the feature amounts held as described above to the DP collation unit 5-1.
Based on this, the DP collation unit 5-1 collates using the dictionary held in the template storage unit 10 and the DP distance. As a result, whether or not the correct answer is obtained is sent to the recognition rate calculation unit 5-2 as described above. Then, the recognition rate calculation unit 5-2 calculates the expected recognition rate X.

【0024】(5) 学習の初めは、正解が得られない場合
も存在するが、学習回数を重ねるにしたがって、辞書が
特定話者用に順次特徴量の入れ替えが行われほとんど正
解が得られることになる。従って、学習前は、初期値5
0%の予想認識率であったものが、順次高率となり80
%→90%→95%になる。そして95%以上になった
とき、利用者はこれをみて学習がほぼ終了したものと判
断して学習を停止する。
(5) At the beginning of learning, the correct answer may not be obtained in some cases, but as the number of times of learning is increased, the dictionary sequentially replaces the feature quantity for a specific speaker and almost correct answer is obtained. become. Therefore, before learning, the initial value is 5
The expected recognition rate of 0% gradually increased to 80
% → 90% → 95%. When it reaches 95% or more, the user sees this and judges that the learning is almost completed, and stops the learning.

【0025】(6) それから音声認識装置を認識モードで
動作させるため、認識モード用の制御信号を学習認識制
御部4に印加する。これにより、音響分析部6から送出
された特徴量を、学習認識制御部4が、今度はDP照合
部3に送出するので、DP照合部3がテンプレート記憶
部10に保持されている特定話者用に修正された辞書に
対しDP照合を行い、未知の入力音声の認識を行う。
(6) Then, in order to operate the voice recognition device in the recognition mode, a control signal for the recognition mode is applied to the learning recognition control section 4. As a result, the learning recognition control unit 4 sends the feature amount sent from the acoustic analysis unit 6 to the DP matching unit 3 this time, so that the DP matching unit 3 holds the specific speaker stored in the template storage unit 10. DP matching is performed on the dictionary modified for use to recognize an unknown input voice.

【0026】本発明の他の実施例を図5、図6にもとづ
き説明する。図5は本発明の第2実施例の構成を示し、
図6は表示例説明図である。図5において他図と同記号
は同一部を示し、15は学習状況表示部を示す。そして
学習状況表示部15はカウント部、表示制御部15−
3、表示部15−4等を具備する。
Another embodiment of the present invention will be described with reference to FIGS. FIG. 5 shows the configuration of the second embodiment of the present invention,
FIG. 6 is a diagram illustrating a display example. In FIG. 5, the same symbols as in the other figures indicate the same parts, and 15 indicates the learning status display part. The learning status display unit 15 is a counting unit, a display control unit 15-
3, the display unit 15-4 and the like.

【0027】図5では、学習状況をテンプレート記憶部
10に対して音響レベルでの特徴量を入れ替えた回数で
判断する。前記の如く、テンプレート学習部2−2では
音響レベルの特徴を、テンプレート記憶部10の辞書か
ら該当するものと比較して、その距離が特定範囲のもの
について入れ替えを行い、辞書を特定話者用に修正す
る。図5ではこの入れ替える度にこれをカウント部15
−2に通知することによりカウント部15−2がこれを
カウントし、学習達成度を示す。
In FIG. 5, the learning situation is judged by the number of times the feature amount at the sound level is exchanged in the template storage unit 10. As described above, the template learning unit 2-2 compares the characteristics of the acoustic level with the corresponding ones from the dictionary of the template storage unit 10 and replaces the distances in the specific range, and uses the dictionary for the specific speaker. To fix. In FIG. 5, every time this replacement is performed, the counting unit 15
-2, the counting unit 15-2 counts this and indicates the learning achievement level.

【0028】表示制御部15−3はこのカウント部15
−2が送出されたカウント値にもとづきこれに応じて表
示部15−4を制御するものである。このとき、表示制
御部15−3は、例えばカウント値が100以下のとき
は実用的でなく、更に学習を必要と判断し、500以下
のときは何とか使用可能と判断し、600以上のとき実
用上充分に学習されたものと判断し、これらに応じた制
御を行う。
The display control unit 15-3 has the counting unit 15
-2 controls the display unit 15-4 based on the sent count value. At this time, the display control unit 15-3 determines that it is not practical when the count value is 100 or less and further learning is necessary, determines that it can be used when the count value is 500 or less, and practically when it is 600 or more. Judging that it has been learned sufficiently, control is performed according to these.

【0029】表示部15−4は、図6(A)に示す如
く、カウント値つまり学習達成度を数値で表示するよう
に構成しても、同(B)に示す如く、学習達成度を?、
△・・・等の記号で示す如く構成しても、同(C)に示
す如く、カラーランプ表示するように構成してもよい。
勿論グラフ表示してもよい。
Even if the display unit 15-4 is configured to display the count value, that is, the learning achievement as a numerical value as shown in FIG. 6A, the learning achievement is displayed as shown in FIG. 6B. ,
It may be configured as indicated by symbols such as Δ ... Or may be configured to display a color lamp as shown in FIG.
Of course, a graph may be displayed.

【0030】このようにして、学習達成度が利用者の所
望のレベルに達したとき、利用者はそれ以上の学習を停
止する。そして音声認識装置を認識モードで動作するた
め、認識モード用の制御信号を学習認識制御部4に印加
する。これにより今度は音響分析部6から送出された特
徴量が学習認識制御部4からDP照合部3側に送出さ
れ、未知の入力音声を認識することができる。
In this way, when the degree of achievement of learning reaches the level desired by the user, the user stops further learning. Then, since the voice recognition device operates in the recognition mode, a control signal for the recognition mode is applied to the learning recognition control unit 4. As a result, this time, the feature amount sent from the acoustic analysis unit 6 is sent from the learning recognition control unit 4 to the DP matching unit 3 side, and an unknown input voice can be recognized.

【0031】なお、前記説明では照合をDP照合にもと
づき行う例について説明したが、本発明は勿論これのみ
に限定されるものではなく、他の照合手段を用いてもよ
い。また特徴抽出を音響レベルで行う例について説明し
たが、これまたこれのみに限定されるものではなく、本
発明は音韻レベル、音素レベル、音節レベルでも可能で
ある。
In the above description, an example in which the collation is performed based on the DP collation has been described, but the present invention is not limited to this, and other collating means may be used. Also, an example in which the feature extraction is performed at the acoustic level has been described, but the present invention is not limited to this, and the present invention can be performed at the phoneme level, the phoneme level, and the syllable level.

【0032】[0032]

【発明の効果】本発明によれば、学習の進行状況を利用
者に対して表示することができるので、必要以上の学習
を行うことを防止可能となる。その結果利用者の負担を
大きく軽減することができる。
According to the present invention, since the progress of learning can be displayed to the user, it is possible to prevent the learning from being performed more than necessary. As a result, the burden on the user can be greatly reduced.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理構成図である。FIG. 1 is a principle configuration diagram of the present invention.

【図2】本発明の一実施例構成図である。FIG. 2 is a configuration diagram of an embodiment of the present invention.

【図3】本発明における認識率計算部の構成図である。FIG. 3 is a configuration diagram of a recognition rate calculation unit in the present invention.

【図4】本発明における表示例説明図である。FIG. 4 is a diagram illustrating a display example according to the present invention.

【図5】本発明の第2実施例構成図である。FIG. 5 is a configuration diagram of a second embodiment of the present invention.

【図6】本発明の第2実施例における表示例説明図であ
る。
FIG. 6 is a diagram illustrating a display example according to the second embodiment of the present invention.

【図7】従来例である。FIG. 7 is a conventional example.

【符号の説明】[Explanation of symbols]

1 辞書 2 学習部 3 認識部(DP照合部) 4 学習認識制御部 5 学習状況表示部 6 音響分析部 1 dictionary 2 learning unit 3 recognition unit (DP collation unit) 4 learning recognition control unit 5 learning status display unit 6 acoustic analysis unit

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 利用者の音声を学習する音声認識装置に
おいて、 利用者の音声入力にもとづき学習を行う学習手段(2)
と、 前記学習手段(2)にもとづき特定話者用に修正される
辞書(1)と、 未知音声と前記辞書(1)とを照合して未知音声を認識
する認識手段(3)と、 学習モードのとき入力音声に関する信号を前記学習手段
(2)に送出し、認識モードのとき入力音声に関する信
号を前記認識手段(3)に送出する学習認識制御手段
(4)と、 学習モードにおける学習進行状況を表示する学習状況表
示手段(5)を具備し、 学習モードのとき、前記学習認識制御手段(4)から送
出される学習用の音声信号にもとづき、前記学習手段
(2)により前記辞書(1)を利用者用に学習するとと
もに、その学習の進行状況を前記学習状況表示手段
(5)により表示するように構成したことを特徴とする
音声認識装置。
1. A learning means (2) for learning in a voice recognition device for learning a user's voice, based on a user's voice input.
A dictionary (1) modified for a specific speaker based on the learning means (2); a recognition means (3) for recognizing an unknown voice by collating an unknown voice with the dictionary (1); Learning recognition control means (4) for sending a signal related to the input voice to the learning means (2) in the mode, and sending a signal related to the input voice to the recognition means (3) in the recognition mode, and learning progress in the learning mode. A learning status display means (5) for displaying the status is provided, and in the learning mode, based on the learning voice signal transmitted from the learning recognition control means (4), the learning means (2) causes the dictionary ( A voice recognition device characterized in that while learning 1) for a user, the learning progress display means (5) displays the progress of the learning.
【請求項2】 前記学習状況表示手段(5)として、 辞書と照合する照合手段(5−1)と、予想認識率を算
出する認識率計算手段(5−2)と、表示手段(5−
4)を有することを特徴とする請求項1記載の音声認識
装置。
2. The learning status display means (5), collation means (5-1) for collating with a dictionary, recognition rate calculation means (5-2) for calculating an expected recognition rate, and display means (5-).
4. The voice recognition device according to claim 1, further comprising 4).
【請求項3】 前記学習状況表示手段(5)として、 辞書に対する修正回数を計数するカウント手段(15−
2)と、表示手段(15−4)を有することを特徴とす
る請求項1記載の音声認識装置。
3. The learning status display means (5) is a counting means (15-) for counting the number of corrections made to the dictionary.
The voice recognition device according to claim 1, further comprising: 2) and a display means (15-4).
【請求項4】 前記表示手段(5−4)として予想認識
率を数字にもとづき表示するように構成したことを特徴
とする請求項2記載の音声認識装置。
4. The voice recognition device according to claim 2, wherein the display means (5-4) is configured to display an expected recognition rate based on a numeral.
【請求項5】 前記表示手段(5−4)として、予想認
識率をグラフにもとづき表示するように構成したことを
特徴とする請求項2記載の音声認識装置。
5. The voice recognition apparatus according to claim 2, wherein the display means (5-4) is configured to display an expected recognition rate based on a graph.
【請求項6】 前記表示手段(5−4)として、予想認
識率をカラーランプにもとづき表示するように構成した
ことを特徴とする請求項2記載の音声認識装置。
6. The voice recognition device according to claim 2, wherein the display means (5-4) is configured to display an expected recognition rate based on a color lamp.
【請求項7】 前記表示手段(5−4)として、予想認
識率を記号にもとづき表示するように構成したことを特
徴とする請求項2記載の音声認識装置。
7. The voice recognition apparatus according to claim 2, wherein the display means (5-4) is configured to display an expected recognition rate based on a symbol.
【請求項8】 前記表示手段(15−4)として、学習
達成度にもとづく表示を行うように構成したことを特徴
とする請求項3記載の音声認識装置。
8. The voice recognition apparatus according to claim 3, wherein the display means (15-4) is configured to display based on the degree of achievement of learning.
【請求項9】 前記表示手段(15−4)として,学習
達成度を数字にもとづき表示するように構成したことを
特徴とする請求項3記載の音声認識装置。
9. The voice recognition device according to claim 3, wherein the display means (15-4) is configured to display the degree of learning achievement based on a number.
JP04279921A 1992-10-19 1992-10-19 Voice recognition device Expired - Lifetime JP3083660B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04279921A JP3083660B2 (en) 1992-10-19 1992-10-19 Voice recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04279921A JP3083660B2 (en) 1992-10-19 1992-10-19 Voice recognition device

Publications (2)

Publication Number Publication Date
JPH06130985A true JPH06130985A (en) 1994-05-13
JP3083660B2 JP3083660B2 (en) 2000-09-04

Family

ID=17617768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04279921A Expired - Lifetime JP3083660B2 (en) 1992-10-19 1992-10-19 Voice recognition device

Country Status (1)

Country Link
JP (1) JP3083660B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259170A (en) * 1999-02-10 2000-09-22 Internatl Business Mach Corp <Ibm> Method and device for registering user to voice recognition system
JP2009532742A (en) * 2006-04-03 2009-09-10 ヴォコレクト・インコーポレーテッド Method and system for evaluating and improving the performance of speech recognition systems
US8374870B2 (en) 2005-02-04 2013-02-12 Vocollect, Inc. Methods and systems for assessing and improving the performance of a speech recognition system
US9697818B2 (en) 2011-05-20 2017-07-04 Vocollect, Inc. Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment
US9928829B2 (en) 2005-02-04 2018-03-27 Vocollect, Inc. Methods and systems for identifying errors in a speech recognition system
US9978395B2 (en) 2013-03-15 2018-05-22 Vocollect, Inc. Method and system for mitigating delay in receiving audio stream during production of sound from audio stream
US10068566B2 (en) 2005-02-04 2018-09-04 Vocollect, Inc. Method and system for considering information about an expected response when performing speech recognition
US11837253B2 (en) 2016-07-27 2023-12-05 Vocollect, Inc. Distinguishing user speech from background speech in speech-dense environments

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8857775B1 (en) 2013-07-22 2014-10-14 Gopro, Inc. Camera mount with spring clamp
USD758474S1 (en) 2015-05-07 2016-06-07 Gopro, Inc. Camera mount

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259170A (en) * 1999-02-10 2000-09-22 Internatl Business Mach Corp <Ibm> Method and device for registering user to voice recognition system
US8374870B2 (en) 2005-02-04 2013-02-12 Vocollect, Inc. Methods and systems for assessing and improving the performance of a speech recognition system
US9928829B2 (en) 2005-02-04 2018-03-27 Vocollect, Inc. Methods and systems for identifying errors in a speech recognition system
US10068566B2 (en) 2005-02-04 2018-09-04 Vocollect, Inc. Method and system for considering information about an expected response when performing speech recognition
JP2009532742A (en) * 2006-04-03 2009-09-10 ヴォコレクト・インコーポレーテッド Method and system for evaluating and improving the performance of speech recognition systems
US9697818B2 (en) 2011-05-20 2017-07-04 Vocollect, Inc. Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment
US11810545B2 (en) 2011-05-20 2023-11-07 Vocollect, Inc. Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment
US11817078B2 (en) 2011-05-20 2023-11-14 Vocollect, Inc. Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment
US9978395B2 (en) 2013-03-15 2018-05-22 Vocollect, Inc. Method and system for mitigating delay in receiving audio stream during production of sound from audio stream
US11837253B2 (en) 2016-07-27 2023-12-05 Vocollect, Inc. Distinguishing user speech from background speech in speech-dense environments

Also Published As

Publication number Publication date
JP3083660B2 (en) 2000-09-04

Similar Documents

Publication Publication Date Title
EP0087725B1 (en) Process of human-machine interactive educational instruction using voice response verification
US9786199B2 (en) System and method for assisting language learning
US8033831B2 (en) System and method for programmatically evaluating and aiding a person learning a new language
US8221126B2 (en) System and method for performing programmatic language learning tests and evaluations
JP5105943B2 (en) Utterance evaluation device and utterance evaluation program
JPH06130985A (en) Voice recognizing device
EP0108609A1 (en) Method and apparatus for the phonetic recognition of words
JPH06110494A (en) Pronounciation learning device
JP4216361B2 (en) Speech recognition system for numbers
JP2007148170A (en) Foreign language learning support system
US10074290B2 (en) Language training apparatus, method and computer program
CN114596880A (en) Pronunciation correction method and device, computer equipment and storage medium
JPH06348297A (en) Pronunciation trainer
JPH0344690A (en) Conversation manner education system
KR101487007B1 (en) Learning method and learning apparatus of correction of pronunciation by pronunciation analysis
KR20220032973A (en) Apparatus and method for providing foreign language learning using sentence evlauation
JP2022001930A (en) Active learning system and active learning program
JP2015099335A (en) Information processing device and method thereof
JPS61184598A (en) Pronounciation training apparatus
JP2019049683A (en) Speaking version language learning system and program
US20230230501A1 (en) System and method for interactive and handsfree language learning
JPS6113299A (en) Fundamental frequency pattern corrector
JPH06289899A (en) Speech recognition device
KR20210011896A (en) method for operating pronunciation correction system
JP2000003190A (en) Voice model learning device and voice recognition device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000613

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090630

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100630

Year of fee payment: 10