JPS61183696A - Specified speaker voice recognition equipment - Google Patents
Specified speaker voice recognition equipmentInfo
- Publication number
- JPS61183696A JPS61183696A JP60022841A JP2284185A JPS61183696A JP S61183696 A JPS61183696 A JP S61183696A JP 60022841 A JP60022841 A JP 60022841A JP 2284185 A JP2284185 A JP 2284185A JP S61183696 A JPS61183696 A JP S61183696A
- Authority
- JP
- Japan
- Prior art keywords
- data pattern
- pattern
- audio data
- speech
- distance calculation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は音響的な音声信号のマツチングによる音声認識
装置に関し、特に特定話者音声認識装置に関する。DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a speech recognition device by matching acoustic speech signals, and more particularly to a speech recognition device for a specific speaker.
従来、この種特定話者音声認識装置では、特定話者の音
声分析パターンをあらかじめ登録しておき、認識時にこ
れらの固定の音声データパターンに対して認識動作を行
うものであった0〔発明が解決しようとする問題点〕
上述した従来の特定話者音声認識装置は、固定の音声デ
ータパターンに対して、音声認識動作を行うため、話者
の情緒変化、環境変化等による発声音声の変化により認
識率が低下するという欠点があった。Conventionally, in this type of specific speaker speech recognition device, speech analysis patterns of a specific speaker are registered in advance, and recognition operations are performed on these fixed speech data patterns during recognition. Problems to be Solved] The conventional speaker-specific speech recognition device described above performs speech recognition operations on fixed speech data patterns, so it is difficult to recognize changes in the uttered speech due to changes in the speaker's emotions, changes in the environment, etc. There was a drawback that the recognition rate decreased.
本発明の特定話者音声認識装置では、認識動作時に登録
されている音声データパターン中に認識判定条件を満足
するものが見い出され九場合、入カされた最新の音声デ
ータと、認識された登録済音声データパターンと、動的
パターンマツチングにて得られ九タイムフレーム上の対
応関係とから新らしい音声データパターンを生成し、再
登録する手段を有している。In the specific speaker speech recognition device of the present invention, if a speech data pattern that satisfies the recognition judgment condition is found among the registered speech data patterns during recognition operation, the latest input speech data and the recognized registered speech data are used. It has means for generating and re-registering a new audio data pattern from the existing audio data pattern and the correspondence on nine time frames obtained by dynamic pattern matching.
次に、本発明について図面を参照して説明する。 Next, the present invention will be explained with reference to the drawings.
第1図は本発明の一実施例のブロック図である。FIG. 1 is a block diagram of one embodiment of the present invention.
音声入力端子1は音声分析部2に接続されている。A voice input terminal 1 is connected to a voice analysis section 2.
音声分析部2は、タイム7レーム毎にバンドパスフィル
タバンクにより複数の周波数成分に分割し分析信号出力
線3に出力する。The speech analysis section 2 divides the signal into a plurality of frequency components using a bandpass filter bank every seven frames, and outputs the divided frequency components to the analysis signal output line 3.
分析信号出力線3は分析された信号を分析信号バッファ
4及び距離計算部7に伝達する。最初の音声登録時には
、分析信号バッファ4からバッファ出力線5を通して、
分析された信号が記憶部6に登録される。The analysis signal output line 3 transmits the analyzed signal to the analysis signal buffer 4 and the distance calculation section 7. At the time of first voice registration, the buffer output line 5 is passed from the analysis signal buffer 4,
The analyzed signal is registered in the storage unit 6.
次に認識動作時には、距離計算部7は分析信号出力線3
より入力された信号と記憶部出力線8全通して得た登録
済音声データパターンとに対し動的パターンマツチング
演算を行い、各登録済音声パターンと入力音声の分析信
号との間の各距離を求め、距離出力線9を通して比較判
定部10に出力する。比較判定部10はあらかじめ設定
されている認識判定値以下で最小の距離を有する登録済
音声データパターンを認識音声データパターンと判定し
、認識結果出力線11より出力する。Next, during the recognition operation, the distance calculation section 7
A dynamic pattern matching calculation is performed on the input signal and the registered voice data pattern obtained by passing through the entire memory unit output line 8, and each distance between each registered voice pattern and the analysis signal of the input voice is calculated. is determined and output to the comparison/judgment section 10 through the distance output line 9. The comparison/determination unit 10 determines the registered voice data pattern having the minimum distance less than or equal to a preset recognition determination value as the recognized voice data pattern, and outputs the recognized voice data pattern from the recognition result output line 11 .
次に再登録動作時には、認識結果出力線11から指定さ
れた認識音声データパターンと分析信号バッファ内の分
析信号とを入力として距離計算部7は再度動的パターン
マツチング演算を行い、比較した2つの入力信号のタイ
ムフレームの対応関係をタイムフレーム対応出力線13
t−通して新音声データパターン計算部12に出力する
。新音声データパターン計算部12は出力線13のタイ
ムフレーム対応関係を示すデータと認識音声データパタ
ーンと、分析信号とから新音声データパターンを生成し
、新音声データパターン登録線14t−通して再登録を
行う。Next, during the re-registration operation, the distance calculation unit 7 performs the dynamic pattern matching calculation again using the recognized voice data pattern specified from the recognition result output line 11 and the analysis signal in the analysis signal buffer as input, and compares the two The time frame corresponding output line 13 shows the time frame correspondence of the two input signals.
The data is output to the new audio data pattern calculation unit 12 through t-. The new audio data pattern calculation unit 12 generates a new audio data pattern from the data indicating time frame correspondence of the output line 13, the recognized audio data pattern, and the analysis signal, and re-registers it through the new audio data pattern registration line 14t. I do.
以後認識動作時には同様の処理を繰シ返す。Thereafter, similar processing is repeated during recognition operations.
第2図は第1図の実施例における音声データパターンと
分析信号とのタイムフレームの関係を示す図である。1
5は登録済音声データパターン。FIG. 2 is a diagram showing the time frame relationship between the audio data pattern and the analysis signal in the embodiment of FIG. 1. 1
5 is a registered voice data pattern.
16〜27はその各タイムフレームを示す。41は分析
信号、42〜49はその各タイムフレームを示す。28
〜40は両者の対応関係を示す線である。16 to 27 indicate each time frame. Reference numeral 41 indicates an analysis signal, and 42 to 49 indicate its respective time frames. 28
40 is a line showing the correspondence relationship between the two.
以下に新音声データパターンを生成する手順を示す。The procedure for generating a new audio data pattern is shown below.
まず対応関係にあるすべてのタイムフレームについて同
−周波数成分についてそれぞれ算術平均を計算し、これ
を仮の新音声データパターンとするO
次に、この仮の新音声データパターンについてタイムフ
レーム数を求める。First, the arithmetic mean of the same frequency components is calculated for all time frames in a corresponding relationship, and this is used as a temporary new audio data pattern.Next, the number of time frames is determined for this temporary new audio data pattern.
次に、このタイムフレーム数が元の両データのタイムフ
レーム数の算術平均値と同一となる様に仮の新音声デー
タパターンからタイムフレームを間引く、この時間引か
れるタイムフレームは複数の対応関係金有するタイムフ
レームとする。Next, time frames are thinned out from the temporary new audio data pattern so that this number of time frames is the same as the arithmetic mean value of the number of time frames of both original data. The time frame shall be as follows.
以上説明したように本発明は、音声認識時に、認識され
た入力音声信号を新らしい音声データパターンとして再
登録することにより、常に最新の音声データパターンを
保持し話者の発声の経時的な変化に追随する事が可能と
なシ、認識率向上の効果がある。As explained above, the present invention re-registers the recognized input speech signal as a new speech data pattern during speech recognition, so that the latest speech data pattern is always maintained and changes in the speaker's utterance over time are realized. This has the effect of improving the recognition rate.
第1図は本発明の一実施例のブロック図、第2図はタイ
ムフレームの対応関係を示す図である。
1・・・・・・音声入力端子、2・−・・・・音声分析
部、3・・・・・・分析信号出力線、4・・・・・・バ
ッファ、5・・・・・・バッファ出力線、6・・・・・
・記憶部、7・・・・−・距離計算部、8・・・・・・
記憶部出力線、9・・・・・・距離出力線、10・・−
・・・比較判定部、11・・・・・・認識結果出力線、
12・・・新音声データパターン計算部、13・・・・
・・タイムフレーム対応出力線、14・・・・・・新音
声データパターン登録線、15・・・・・・音声データ
パターン、16〜27・・・・・・タイムフレーム、2
8〜40・・・・・・対応を示す線、41・・・・・・
分析信号、42〜49・・−・・・タイムフレーム。
=1・≦−こパ・、FIG. 1 is a block diagram of an embodiment of the present invention, and FIG. 2 is a diagram showing the correspondence of time frames. 1...Audio input terminal, 2...Audio analysis section, 3...Analysis signal output line, 4...Buffer, 5...... Buffer output line, 6...
・Storage section, 7...-Distance calculation section, 8...
Memory unit output line, 9...Distance output line, 10...-
. . . Comparison/determination section, 11 . . . Recognition result output line,
12... New audio data pattern calculation section, 13...
... Time frame compatible output line, 14... New audio data pattern registration line, 15... Audio data pattern, 16-27... Time frame, 2
8-40... Line showing correspondence, 41...
Analysis signal, 42-49...time frame. =1・≦−kopa・,
Claims (1)
フレームに分割する分析部と、特定話者の複数の音声デ
ータパターンを登録しておく記憶部と、パターン間距離
計算部と、パターン間距離から最も類似度の高い音声デ
ータを判定する判定部と、認識された音声データパター
ンと前記入力音声信号を分析した信号と前記パターン間
距離計算部にて得られた両者のタイムフレーム上の対応
関係とから新らしい音声データパターンを生成する手段
を有し、この新しい音声データパターンを再登録する手
段とを有する事を特徴とする音声認識装置。An analysis unit that divides an input audio signal into multiple frequency components and time frames of a constant period, a storage unit that registers multiple audio data patterns of a specific speaker, an inter-pattern distance calculation unit, and an inter-pattern distance calculation unit a determination unit that determines audio data with the highest degree of similarity; a recognized audio data pattern, a signal obtained by analyzing the input audio signal, and a time frame correspondence relationship between the two obtained by the inter-pattern distance calculation unit; 1. A speech recognition device comprising: means for generating a new speech data pattern from a given speech data; and means for re-registering the new speech data pattern.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP60022841A JPS61183696A (en) | 1985-02-08 | 1985-02-08 | Specified speaker voice recognition equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP60022841A JPS61183696A (en) | 1985-02-08 | 1985-02-08 | Specified speaker voice recognition equipment |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS61183696A true JPS61183696A (en) | 1986-08-16 |
Family
ID=12093930
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP60022841A Pending JPS61183696A (en) | 1985-02-08 | 1985-02-08 | Specified speaker voice recognition equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS61183696A (en) |
-
1985
- 1985-02-08 JP JP60022841A patent/JPS61183696A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPS61183696A (en) | Specified speaker voice recognition equipment | |
JPS6332596A (en) | Voice recognition equipment | |
JPS6070496A (en) | Voice recognition processing system | |
JPS6214200A (en) | Voice recognition equipment | |
JP2557497B2 (en) | How to identify male and female voices | |
JPS58176698A (en) | Pattern matching system | |
JPS62172400A (en) | Voice recognition equipment | |
JPH03155599A (en) | Speech recognition device | |
JPS59111697A (en) | Voice recognition system | |
JPS58116595A (en) | Word voice recognition equipment | |
JPS60208800A (en) | Word voice recognition equipment | |
JPS6083100A (en) | Background noise detector | |
JPH026079B2 (en) | ||
JPS5926796A (en) | Voice recognition equipment | |
JPH11249681A (en) | Acoustic characteristic extraction method and voice recognition device applied with relevant method | |
JPS61277998A (en) | Voice recognition circuit | |
JPS60115996A (en) | Voice recognition equipment | |
JPS6193499A (en) | Voice pattern collation system | |
JPS59124392A (en) | Voice recognition system | |
JPS63221397A (en) | Monosyllable voice recognition equipment | |
JPS6026399A (en) | Word recognition equipment | |
JPS6059394A (en) | Voice recognition equipment | |
JPS595294A (en) | Voice recognition equipment | |
JPS59124388A (en) | Word voice recognition processing system | |
JPH02118698A (en) | Voice recognizing device |