JPH0256680B2 - - Google Patents

Info

Publication number
JPH0256680B2
JPH0256680B2 JP58121377A JP12137783A JPH0256680B2 JP H0256680 B2 JPH0256680 B2 JP H0256680B2 JP 58121377 A JP58121377 A JP 58121377A JP 12137783 A JP12137783 A JP 12137783A JP H0256680 B2 JPH0256680 B2 JP H0256680B2
Authority
JP
Japan
Prior art keywords
voice pattern
voice
pattern
individual
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
JP58121377A
Other languages
Japanese (ja)
Other versions
JPS6012599A (en
Inventor
Ryoichi Ogasawara
Takashi Yoshida
Hideyuki Koike
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP58121377A priority Critical patent/JPS6012599A/en
Publication of JPS6012599A publication Critical patent/JPS6012599A/en
Publication of JPH0256680B2 publication Critical patent/JPH0256680B2/ja
Granted legal-status Critical Current

Links

Description

【発明の詳細な説明】 発明の技術分野 本発明は、音声認識装置を利用したシステムに
於いて、音声パタンフアイルの管理・編集方法に
関するものである。
DETAILED DESCRIPTION OF THE INVENTION Technical Field of the Invention The present invention relates to a voice pattern file management/editing method in a system using a voice recognition device.

技術の背景 従来のこの種のシステムは、その使用にあたつ
て、利用者一人一人が自分の音声と、その音声が
正しく認識された時に出力すべき情報を対応づけ
て、あらかじめ登録しておく必要があり、また出
力すべき情報が多くの利用者にとつて共通のもの
であつても個別に管理する必要がある。(たとえ
ば、斎藤収三:音声情報処理の基礎、オーム社,
1981.11) 従来技術と問題点 従来の方式では登録量の増加に伴い、利用者が
自分で登録する量が多くなり、登録回数が増し、
このため利用者の手数負担の増加およびシステム
で管理するフアイル量の増加という欠点があつ
た。
Background of the technology In order to use this type of conventional system, each user registers in advance the information that should be output when the user's voice is correctly recognized. Even if the information to be output is common to many users, it is necessary to manage it individually. (For example, Shuzo Saito: Fundamentals of speech information processing, Ohmsha,
1981.11) Conventional technology and problems In the conventional method, as the amount of registrations increases, users have to register more themselves, the number of registrations increases,
This has resulted in disadvantages such as an increase in the burden on users and an increase in the amount of files managed by the system.

また、すでに登録された音声パタンによる音声
認識において、話者の発声する音声の経年変化等
により、誤認識が多くなつた場合、利用者自身が
再登録しなければならないという欠点があつた。
Furthermore, in voice recognition using already registered voice patterns, if there are many false recognitions due to changes in the voice uttered by the speaker over time, etc., there is a drawback that the user must re-register the voice patterns.

発明の目的 本発明はこれらの欠点を解決するため、共用で
きる情報は音声パタンと共にシステムで用意し、
利用者があらかじめ登録しなくとも取り出せるよ
うにするとともに、認識確度の管理と音声パタン
の操作によつて、誤認識増加に伴う音声の再登録
を省略できるようにしたもので、以下図面につい
て詳細に説明する。
Purpose of the Invention In order to solve these drawbacks, the present invention prepares information that can be shared together with voice patterns in a system,
In addition to making it possible for users to retrieve the sound without registering it in advance, the system also allows users to manage recognition accuracy and manipulate sound patterns to eliminate the need to re-register sounds due to an increase in misrecognitions.The drawings are detailed below. explain.

発明の実施例 図は本発明による音声パタン編集方法を説明す
る一実施例の具体的構成例であつて、1は音声入
力端子、2は音声分析部、3は入力音声パタンメ
モリ、4は認識処理部、5は制御部、6は入出力
インタフエース、7は音声パタンフアイル、7
1,72は音声パタンフアイル7を構成するもの
であつて、71は共通音声パタンフアイル、72
は個別音声パタンフアイル、8は音声パタンに対
応して登録された出力用情報フアイルである。な
お音声分析部2は現在LSI化され一般に供されて
いる音声分析器、また認識処理部4、制御部5は
通常のマイクロプロセツサが適用される。
Embodiment of the Invention The figure shows a specific configuration example of an embodiment for explaining the audio pattern editing method according to the invention, in which 1 is an audio input terminal, 2 is an audio analysis section, 3 is an input audio pattern memory, and 4 is a recognition unit. 5 is a processing unit, 5 is a control unit, 6 is an input/output interface, 7 is an audio pattern file, 7
1 and 72 constitute the audio pattern file 7, 71 is a common audio pattern file, 72
8 is an individual voice pattern file, and 8 is an output information file registered corresponding to the voice pattern. Note that the speech analysis section 2 is an LSI-based speech analyzer that is currently available to the general public, and the recognition processing section 4 and control section 5 are ordinary microprocessors.

音声入力端子1より音声が入力されると、音声
分析部2で入力音声パタンに変換され、入力音声
パタンメモリ3に蓄積される。蓄積完了と同時に
制御部5は、個別音声パタンフアイル72のうち
発声者に対応した部分と入力音声パタンメモリ3
の内容とを比較するよう認識処理部4に指示し、
認識処理部4による認識結果としてどの音声パタ
ンであるかを示す識別番号、認識確度すなわち認
識における類似度の認識処理結果を受け取る。制
御部5では、入出力インタフエース6を通じて認
識処理部4から受け取つた認識結果の確認を発声
者に求めるか、あるいは当該システムであらかじ
め決めてある判断基準に従つて認識結果の妥当性
をチエツクし、正しいと判断された場合、識別番
号により出力用情報フアイル8を検索し、検索し
た結果の出力情報を入出力インタフエース6を通
じて外部へ出力する。
When speech is input from the speech input terminal 1, it is converted into an input speech pattern by the speech analysis section 2 and stored in the input speech pattern memory 3. At the same time as the storage is completed, the control unit 5 saves the portion of the individual voice pattern file 72 corresponding to the speaker and the input voice pattern memory 3.
instructs the recognition processing unit 4 to compare the contents of
As a recognition result by the recognition processing unit 4, an identification number indicating which voice pattern it is and a recognition processing result of recognition accuracy, that is, similarity in recognition are received. The control unit 5 requests the speaker to confirm the recognition result received from the recognition processing unit 4 through the input/output interface 6, or checks the validity of the recognition result according to criteria determined in advance by the system. , if it is determined to be correct, searches the output information file 8 using the identification number, and outputs the output information as a result of the search to the outside through the input/output interface 6.

上に述べた音声パタンフアイル管理・編集動作
において、音声認識の結果、個別音声パタンフア
イル72に該当解なしと判断された場合、制御部
5は認識処理部4に対し、入力音声パタンメモリ
3の内容との比較を共通音声パタンフアイル71
との間で行なうよう認識処理部4に指示し、比較
結果を受け取る。制御部5では、前記動作と同様
の確認手段により認識結果が正しいと判断された
場合には、識別番号による出力用情報フアイル8
の検索結果を外部へ出力するとともに、入力音声
パタンメモリ3の内容に当該識別番号を付与し、
個別音声パタンフアイル72の発声者対応の部分
に追加登録する。共通音声パタンフアイル71に
も該当解なしと判断された場合にはその旨を発声
者に通知し、処理を終了する。
In the voice pattern file management/editing operation described above, if it is determined that there is no corresponding answer in the individual voice pattern file 72 as a result of voice recognition, the control section 5 instructs the recognition processing section 4 to read the input voice pattern memory 3. Common audio pattern file 71 for comparison with the content
The recognition processing unit 4 is instructed to perform the comparison between the two and receives the comparison results. In the control unit 5, if the recognition result is determined to be correct by the confirmation means similar to the above-mentioned operation, the output information file 8 based on the identification number is
output the search results to the outside, and add the identification number to the contents of the input voice pattern memory 3,
It is additionally registered in the portion corresponding to the speaker of the individual voice pattern file 72. If it is determined that there is no corresponding solution in the common speech pattern file 71, the speaker is notified of this and the process is terminated.

上に述べた音声パタンフアイル管理・編集動作
において、個別音声パタンフアイル72から正解
が得られ、結果が発声者に通知された場合、制御
部5では認識結果として認識処理部4より出力さ
れる認識確度を、過去にさかのぼつて統計処理
し、その結果が当該システムであらかじめ決めて
ある判断基準より下回ると、正解として選択され
た音声パタンの操作(例えば入力音声パタンと置
き換える等)を行ない、個別音声パタンフアイル
72を更新する。
In the voice pattern file management/editing operation described above, when a correct answer is obtained from the individual voice pattern file 72 and the result is notified to the speaker, the control unit 5 uses the recognition output from the recognition processing unit 4 as a recognition result. The accuracy is statistically processed retrospectively, and if the result is lower than the judgment criteria predetermined by the system, the audio pattern selected as the correct answer is manipulated (for example, replaced with the input audio pattern), and the individual audio Update the pattern file 72.

すなわち、利用者である発声者の入力音声パタ
ンが個別音声パタンフアイル72に一致解があつ
た場合は、発声者の入力音声パタンを個別音声パ
タンフアイル72の中の対応する音声パタンの過
去にさかのぼつて認識における類似度の認識確度
の変動の統計的値と、一致解があつた場合の認識
における類似度の値とがあらかじめ定める閾値を
越えたとき、たとえば個別音声パタンフアイル7
2の中の対応する入力音声パタンの個別音声パタ
ンと置き換える、正解として選択された音声パタ
ンの操作を行い、個別音声パタンフアイル72を
更新する。
That is, if the input voice pattern of the user who is the speaker is found to match in the individual voice pattern file 72, the input voice pattern of the user is traced back to the past of the corresponding voice pattern in the individual voice pattern file 72. For example, when the statistical value of the variation in recognition accuracy of similarity in recognition and the value of similarity in recognition when there is a matching solution exceed a predetermined threshold, for example, the individual speech pattern file 7
The voice pattern selected as the correct answer is replaced with the individual voice pattern of the corresponding input voice pattern in 2, and the individual voice pattern file 72 is updated.

なお、本実施例の構成では入力音声パタンメモ
リを設けることで、入力音声パタンを取り出す手
段としているが、他の実施例としては、入力音声
を蓄積・再生する手段を設け、音声認識装置を認
識終了後に登録モードへ切り替え、再生音により
入力音声パタンを作成し、取り出す方法、音声認
識装置を2装置用意し、一方を認識モード、他方
を登録モードとすることで入力音声パタンを取り
出す方法等がある。
Note that in the configuration of this embodiment, an input speech pattern memory is provided as a means for extracting input speech patterns, but in other embodiments, a means for storing and reproducing input speech is provided, and the speech recognition device recognizes the input speech pattern. After the process is complete, switch to registration mode, create and retrieve the input audio pattern using the playback sound, prepare two speech recognition devices, set one to recognition mode and the other to registration mode, and retrieve the input audio pattern. be.

発明の効果 以上説明したように、多くの利用者に共通の情
報をシステムで一括管理し、それに対応した音声
パタンのフアイルを持つことにより、利用者があ
らかじめ登録しなくとも、共通情報を利用できる
ことから、利用者操作性向上の利点がある。
Effects of the Invention As explained above, by collectively managing information common to many users in a system and having files with corresponding audio patterns, the common information can be used without the need for users to register in advance. This has the advantage of improving user operability.

また、共通の情報をシステムで一括管理するこ
とから、重複する情報を取り除くことができ、フ
アイル規模を縮小できる利点がある。
Additionally, since common information is managed collectively in the system, duplicate information can be removed and the file size can be reduced.

また、正解が得られた時の認識確度を管理する
ことで、既存音声パタンによる音声認識の認識率
低下を自動的に検出でき、さらに認識確度を基準
値と比較して既存音声パタンを操作することによ
り、利用者による音声の再登録を省略できる利点
がある。
In addition, by managing the recognition accuracy when a correct answer is obtained, it is possible to automatically detect a decrease in the recognition rate of speech recognition due to existing speech patterns, and further compare the recognition accuracy with a reference value to manipulate the existing speech patterns. This has the advantage of omitting the user's voice re-registration.

また、入力音声パタンを取り出す手段を設ける
ことで、個人用音声パタンを自動生成する時、既
存の個人用音声パタンの経年変化等に対する音声
パタンの操作として入力音声パタンと置き換える
方法を取る時に、利用者による再発声を省略でき
る利点がある。
In addition, by providing a means to extract the input voice pattern, it can be used when automatically generating a personal voice pattern, or when replacing the input voice pattern as a voice pattern operation in response to changes in existing personal voice patterns over time. This has the advantage of omitting the need for the person to re-speak.

【図面の簡単な説明】[Brief explanation of drawings]

図は本発明の実施例の構成図である。 1…音声入力端子、2…音声分析部、3…入力
音声パタンメモリ、4…認識処理部、5…制御
部、6…入出力インタフエース、7…音声パタン
フアイル、71…共通音声パタンフアイル、72
…個別音声パタンフアイル、8…出力用情報フア
イル。
The figure is a configuration diagram of an embodiment of the present invention. DESCRIPTION OF SYMBOLS 1... Audio input terminal, 2... Audio analysis section, 3... Input audio pattern memory, 4... Recognition processing section, 5... Control section, 6... Input/output interface, 7... Audio pattern file, 71... Common audio pattern file, 72
...Individual audio pattern file, 8...Output information file.

Claims (1)

【特許請求の範囲】 1 認識対象とする音声をあらかじめパタン化し
ておき、利用者の発声した音声をパタン化し、前
記あらかじめパタン化してある音声パタン群の一
つ一つに対して類似度を比較し、比較の結果、該
類似度の最も高いパタンを認識の結果として出力
する音声パタン出力を編集する音声認識システム
における音声パタン編集方法において、 前記認識対象とするすべての音声の共通的なパ
タン群としての共通音声パタンフアイルと、利用
者個人の発声する音声の個別音声パタンフアイル
からなる音声パタンフアイルと、 利用者の発声する音声を分析し、音声認識した
入力音声をパタン化し、一旦蓄積する入力音声パ
タン蓄積手段を備え、 前記入力音声パタン蓄積手段から利用者の発声
するパタン化した入力音声パタン取り出し、 前記取り出した利用者の発声する入力音声パタ
ンと前記音声パタンフアイルの利用者個人の個別
音声パタンフアイルとを比較し、 前記取り出した利用者の発声する入力音声パタ
ンが前記個人の個別音声パタンフアイルに一致解
がなく、前記共通音声パタンフアイルに一致解が
あつた場合に出力する情報と前記入力音声パタン
とを対応づけ、 前記対応づけた入力音声パタンを該個人の個別
音声パタンフアイルに追加する ことを特徴とする音声パタン編集方法。 2 認識対象とする音声をあらかじめパタン化し
ておき、利用者の発声した音声をパタン化し、前
記あらかじめパタン化してある音声パタン群の一
つ一つに対して類似度を比較し、比較の結果、該
類似度の最も高いパタンを認識の結果として出力
する音声パタン出力を編集する音声認識システム
における音声パタン編集方法において、 前記認識対象とするすべての音声の共通的なパ
タン群としての共通音声パタンフアイルと、利用
者個人の発声する音声の個別音声パタンフアイル
からなる音声パタンフアイルと、 利用者の発声する音声を分析し、音声認識した
入力音声をパタン化し、一旦蓄積する入力音声パ
タン蓄積手段を備え、 前記入力音声パタン蓄積手段から利用者の発声
するパタン化した入力音声パタンを取り出し、 前記取り出した利用者の発声する入力音声パタ
ンと前記音声パタンフアイルの利用者個人の個別
音声パタンフアイルとを比較し、 前記取り出した利用者の発声する入力音声パタ
ンが前記個人の個別音声パタンフアイルに一致解
がなく、前記共通音声パタンフアイルに一致解が
あつた場合に出力する情報と前記入力音声パタン
とを対応づけ、 前記対応づけた入力音声パタンを該個人の個別
音声パタンフアイルに追加し、 前記取り出した利用者の発声する入力音声パタ
ンが前記個人の個別音声パタンフアイルに一致解
があつた場合に、該利用者の発声する入力音声パ
タンを、該個別音声パタンフアイル中の対応する
音声パタンの過去にさかのぼつての認識における
類似度の変動の統計的値と、該一致解があつた場
合の認識における類似度の値とがあらかじめ定め
る閾値を越えたとき、該個別音声パタンフアイル
中の該対応する入力音声パタンの個別音声パタン
と置き換える ことを特徴とする音声パタン編集方法。
[Claims] 1. The speech to be recognized is patterned in advance, the speech uttered by the user is patterned, and the degree of similarity is compared for each of the speech pattern groups that have been patterned in advance. and, as a result of the comparison, a pattern with the highest degree of similarity is output as a recognition result.In a speech pattern editing method in a speech recognition system, the pattern having the highest degree of similarity is output as a recognition result. A voice pattern file consisting of a common voice pattern file as a voice, a voice pattern file consisting of an individual voice pattern file of the voice uttered by an individual user, and an input voice that analyzes the voice uttered by the user and converts the voice-recognized input voice into patterns and temporarily stores them. comprising a voice pattern storage means, extracting a patterned input voice pattern uttered by a user from the input voice pattern storage means, and extracting the extracted input voice pattern uttered by the user and the user's individual voice of the voice pattern file; information to be output when the retrieved input voice pattern uttered by the user does not have a match in the individual voice pattern file of the individual and there is a match in the common voice pattern file. A voice pattern editing method comprising: associating the input voice pattern with an input voice pattern, and adding the associated input voice pattern to an individual voice pattern file of the individual. 2 The speech to be recognized is patterned in advance, the speech uttered by the user is patterned, the similarity is compared for each of the voice pattern groups that have been patterned in advance, and as a result of the comparison, A voice pattern editing method in a voice recognition system that edits a voice pattern output that outputs a pattern with the highest degree of similarity as a recognition result, comprising: a common voice pattern file as a common pattern group of all voices to be recognized; , a voice pattern file consisting of an individual voice pattern file of the voice uttered by an individual user, and an input voice pattern storage means that analyzes the voice uttered by the user, converts the voice-recognized input voice into a pattern, and temporarily stores it. , extracting a patterned input voice pattern uttered by the user from the input voice pattern storage means, and comparing the extracted input voice pattern uttered by the user with the user's individual voice pattern file of the voice pattern file; and information to be output when the retrieved input voice pattern uttered by the user does not have a match in the individual voice pattern file of the individual and there is a match in the common voice pattern file, and the input voice pattern. Add the matched input voice pattern to the individual voice pattern file of the individual, and if the retrieved input voice pattern uttered by the user matches the individual voice pattern file of the individual, The input voice pattern uttered by the user is calculated based on the statistical value of the variation in similarity in the past recognition of the corresponding voice pattern in the individual voice pattern file, and the recognition in the case where there is a matching solution. A voice pattern editing method characterized in that when a similarity value exceeds a predetermined threshold, the corresponding input voice pattern in the individual voice pattern file is replaced with an individual voice pattern.
JP58121377A 1983-07-04 1983-07-04 Voice pattern editing system Granted JPS6012599A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58121377A JPS6012599A (en) 1983-07-04 1983-07-04 Voice pattern editing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58121377A JPS6012599A (en) 1983-07-04 1983-07-04 Voice pattern editing system

Publications (2)

Publication Number Publication Date
JPS6012599A JPS6012599A (en) 1985-01-22
JPH0256680B2 true JPH0256680B2 (en) 1990-11-30

Family

ID=14809718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58121377A Granted JPS6012599A (en) 1983-07-04 1983-07-04 Voice pattern editing system

Country Status (1)

Country Link
JP (1) JPS6012599A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0874800A (en) * 1994-08-31 1996-03-19 Takuo Mochizuki Negative pressure forming device equipped with centrifugal separating means

Also Published As

Publication number Publication date
JPS6012599A (en) 1985-01-22

Similar Documents

Publication Publication Date Title
JPH0345417B2 (en)
JP4408490B2 (en) Method and apparatus for executing a database query
JP2989211B2 (en) Dictionary control method for speech recognition device
JPH0256680B2 (en)
JP3108121B2 (en) Dictionary control method for speech recognition device
JPH09230889A (en) Speech recognition and response device
JPH11344992A (en) Voice dictionary creating method, personal authentication device and record medium
JP2000148187A (en) Speaker recognizing method, device using the method and program recording medium therefor
JPH0331275B2 (en)
JPS63106798A (en) Personal validation apparatus
JPH1013546A (en) Voice dial system
JPS59177599A (en) Voice registration system
JPH0535441A (en) Automatic document preparing device
JPS5946696A (en) Voice recognition system
JPS59111697A (en) Voice recognition system
CN111805558A (en) Self-learning type elderly nursing robot system with memory recognition function
JPS59125799A (en) Voice recognition equipment
JPS61121090A (en) Voice recognition equipment
JPH0465391B2 (en)
JPH0535440A (en) Automatic document preparing device
JPS61114298A (en) Speaker collation system
JPS5962900A (en) Voice recognition system
JPS59111698A (en) Voice recognition system
JPH11311993A (en) Voice recognition, device and storage medium used in this device
JPS63125998A (en) Voice input/output unit