JP3500616B2 - Apparatus and method for comparing signal waveform data - Google Patents
Apparatus and method for comparing signal waveform dataInfo
- Publication number
- JP3500616B2 JP3500616B2 JP29528993A JP29528993A JP3500616B2 JP 3500616 B2 JP3500616 B2 JP 3500616B2 JP 29528993 A JP29528993 A JP 29528993A JP 29528993 A JP29528993 A JP 29528993A JP 3500616 B2 JP3500616 B2 JP 3500616B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- fuzzy
- feature
- frame
- normalized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
Description
【0001】[0001]
【産業上の利用分野】この発明は、信号波形データ比較
装置に関し、特に、高速かつ高精度の比較に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a signal waveform data comparison device, and more particularly to high speed and high precision comparison.
【0002】[0002]
【従来技術】2つの音声信号を比較する場合に、周波数
変動が問題となる。周波数変動とは、発声される単語の
周波数が人により異なることである。周波数変動を吸収
する方法の1つとして、マルチテンプレート法が知られ
ている。2. Description of the Related Art Frequency fluctuations become a problem when two audio signals are compared. Frequency variation means that the frequency of a spoken word varies from person to person. The multi-template method is known as one of the methods for absorbing frequency fluctuations.
【0003】マルチテンプレート法について説明する。
入力された音声信号を、例えば、1フレーム25.6m
s、フレーム周期15msでFFTケプストラム分析を
行なう。第1次元〜第10次元までのケプストラム係数
を、単語音声認識のための特徴量として用い、さらに全
ての音声信号を、例えば、DP(dynamic programmin
g)マッチング法を用いて、22フレームになるよう正
規化を行う。The multi-template method will be described.
For example, if the input audio signal is 25.6 m per frame,
s, FFT cepstrum analysis is performed at a frame period of 15 ms. The cepstrum coefficients from the first dimension to the tenth dimension are used as feature quantities for word speech recognition, and further all speech signals are converted into, for example, DP (dynamic programmin).
g) Using the matching method, normalize to 22 frames.
【0004】これにより、1の単語について、各フレー
ム毎に第1次元〜第10次元までのケプストラム係数の
値が得られる。このような特徴ベクトル時系列データを
話者Hi(i=1〜I)の数だけ(i枚)作成する(図
21参照)。つぎに、i枚の特徴ベクトル時系列データ
を1または2以上のグループに分類して、ある単語の標
準パターンを作成する。As a result, the value of the cepstrum coefficient in the first dimension to the tenth dimension can be obtained for each frame for one word. Such feature vector time-series data is created by the number (i) of speakers Hi (i = 1 to I) (see FIG. 21). Next, i feature vector time-series data is classified into one or more groups, and a standard pattern of a certain word is created.
【0005】具体的には、人数分の特徴ベクトル時系列
データのうち、各フレーム毎および各次元毎にケプスト
ラム係数値を比較し、各フレーム毎および各次元毎のず
れの総計が所定値以下であれば、同一グループに分類す
る。そして、同一グループに分類された特徴ベクトル時
系列データのケプストラム係数値の平均を、各フレーム
毎および各次元毎に算出し、これを当該グループの標準
パターンとして記憶する。このようにして、1の単語に
ついて、人数分の特徴ベクトル時系列データから、複数
の標準パターンが作成される。すなわち、標準パターン
は、1の単語につき複数の存在し、これをマルチテンプ
レート法という。なお、前記標準パターンは、登録する
単語の分だけ作成される。Specifically, among the feature vector time series data for the number of people, the cepstrum coefficient values are compared for each frame and each dimension, and the total deviation of each frame and each dimension is less than a predetermined value. If so, classify into the same group. Then, the average of the cepstrum coefficient values of the feature vector time series data classified into the same group is calculated for each frame and each dimension, and this is stored as a standard pattern of the group. In this way, for one word, a plurality of standard patterns are created from the feature vector time series data for the number of people. That is, a plurality of standard patterns exist for one word, which is called a multi-template method. The standard pattern is created for each word to be registered.
【0006】つぎに、音声信号の比較について説明す
る。比較対象の音声信号が入力されると、上述と同様
に、各フレーム毎に第1次元〜第10次元までのケプス
トラム係数の値を求める。つぎに、各フレーム毎および
各次元毎にケプストラム係数値を、記憶している全ての
標準パターンと比較する。Next, comparison of audio signals will be described. When the audio signal to be compared is input, the values of the cepstrum coefficients of the first dimension to the tenth dimension are calculated for each frame, as described above. Next, the cepstrum coefficient value for each frame and each dimension is compared with all the stored standard patterns.
【0007】標準パターンと比較対象の音声信号との各
フレーム毎および各次元毎のずれを、各標準パターンご
とに求め、総計が最も少ない標準パターンを求める。そ
して、比較対象の音声信号は、前記総計が最も少ない標
準パターンで表される音声信号であると判断する。The deviation between the standard pattern and the audio signal to be compared for each frame and for each dimension is calculated for each standard pattern, and the standard pattern having the smallest total is calculated. Then, the audio signal to be compared is determined to be the audio signal represented by the standard pattern with the smallest total.
【0008】このように、マルチテンプレート法によ
り、周波数変動を吸収し、音声信号を精度よく比較する
ことができる。As described above, by the multi-template method, it is possible to absorb the frequency fluctuation and compare the audio signals with high accuracy.
【0009】[0009]
【発明が解決しようとする課題】しかしながら、従来の
マルチテンプレート法においては、次のような問題があ
った。高精度の比較を行なう為には、できる限り多くの
テンプレートを記憶しておく必要がある。しかし、多く
のテンプレートを記憶すると(すなわち、標準パターン
を多く記憶すると)、多くの記憶領域を必要とするだけ
でなく、テンプレートの数だけの演算処理が必要とな
り、すべて比較するまでの演算時間を要する。However, the conventional multi-template method has the following problems. In order to perform highly accurate comparison, it is necessary to store as many templates as possible. However, storing a large number of templates (that is, storing a large number of standard patterns) not only requires a large amount of storage area, but also requires the same amount of calculation processing as the number of templates, and the calculation time required to compare all the templates is increased. It costs.
【0010】特に、マルチテンプレート法では、1の単
語について複数の標準パターンを記憶する。したがっ
て、単語の数が1つ増えただけで、記憶する量は標準パ
ターンの数だけ増える。Particularly, in the multi-template method, a plurality of standard patterns are stored for one word. Therefore, even if the number of words is increased by one, the stored amount is increased by the number of standard patterns.
【0011】これに対して、演算速度をあげるために、
記憶する標準パターン数を減らすと、精度の低い比較と
なる。On the other hand, in order to increase the calculation speed,
Reducing the number of standard patterns to be stored results in a less accurate comparison.
【0012】この発明は上記のような問題を解決し、高
精度かつ高速に信号波形を比較することができる信号波
形比較装置又はその方法を提供することを目的とする。SUMMARY OF THE INVENTION It is an object of the present invention to solve the above problems and provide a signal waveform comparison apparatus or method capable of comparing signal waveforms with high accuracy and high speed.
【0013】[0013]
【課題を解決するための手段】請求項1の信号波形デー
タ比較装置は、1)信号波形データが入力される入力手
段、前記信号波形データを複数フレームに分割し、各フ
レーム毎の周波数成分をフレーム特徴量として抽出する
特徴量抽出手段、2)前記各フレーム特徴量から所望の特
徴量成分値を抽出し、抽出した特徴量成分値に基づい
て、抽出した複数の特徴量成分を各次元の成分とする要
素ベクトルを、多次元ベクトル空間に配置するととも
に、各フレームの要素ベクトルを連結させた特徴ベクト
ル時系列データを演算する時系列データ演算手段、3)前
記特徴ベクトル時系列データを、時間軸にて正規化し、
正規化後特徴ベクトル時系列データを演算する正規化手
段、4)得られた正規化後特徴ベクトル時系列データを記
憶する正規化後時系列データ記憶手段、5)複数の信号波
形データに基づき得られた複数の正規化後特徴ベクトル
時系列データの各特徴量成分値をファジィ数化して得ら
れたファジィ標準パターンデータを登録データとして予
め記憶しておくファジィ標準パターンデータ記憶手段、
6)前記正規化後時系列データ記憶手段に記憶された判定
対象の正規化後特徴ベクトル時系列データの各フレーム
及び各次元の特徴量成分値について、ファジィ標準パタ
ーン記憶手段に記憶されたファジィ標準パターンデータ
とのファジィ関係を演算するファジィ関係演算手段、7)
演算したファジィ関係に基づき、ファジィ標準パターン
データと判定対象の正規化後特徴ベクトル時系列データ
との類似度を演算する類似度演算手段を備え、 8) 前記類
似度演算手段は、前記登録データ毎のファジィ標準パタ
ーンデータに基づき、各フレームの各次元毎の特徴量成
分値の平均値を求め、当該平均値に対して前記特徴量成
分値が大きい度合いに応じてその重み値を各フレームお
よび各ベクトル空間ごとに演算し、得られた重み値およ
び前記ファジィ関係に基づき、前記登録データと判定対
象の正規化後特徴ベクトル時系列データとの類似度を演
算することを特徴とする。According to a first aspect of the present invention, there is provided a signal waveform data comparing apparatus, comprising: 1) input means for inputting signal waveform data; dividing the signal waveform data into a plurality of frames; Feature amount extraction means for extracting as a frame feature amount, 2) extracting desired feature amount component values from each of the frame feature amounts, and based on the extracted feature amount component values, a plurality of extracted feature amount components of each dimension The element vector as a component is arranged in a multidimensional vector space, and time series data calculating means for calculating the feature vector time series data in which the element vectors of each frame are connected, 3) Normalize by axis,
Normalization means for calculating the normalized feature vector time series data, 4) Normalized time series data storage means for storing the obtained normalized feature vector time series data, 5) Obtained based on a plurality of signal waveform data Fuzzy standard pattern data storage means for preliminarily storing, as registration data, fuzzy standard pattern data obtained by fuzzy numbering each feature amount component value of the plurality of normalized feature vector time series data ,
6) The fuzzy standard stored in the fuzzy standard pattern storage means for each frame and the dimension value of each dimension of the normalized feature vector time series data to be judged stored in the normalized time series data storage means Fuzzy relation calculation means for calculating fuzzy relation with pattern data, 7)
Based on the calculated fuzzy relation, provided with a similarity calculation means for calculating a similarity between the fuzzy standard pattern data determination target normalized after the time-series feature vector data, 8) the compound
The similarity calculation means is a fuzzy standard pattern for each registered data.
Feature data for each dimension of each frame based on
Obtain the average value of the minute values,
The weight value is set for each frame according to the degree to which the minute value is large.
And the weight values and
And the fuzzy relationship, the registered data and the judgment pair
Demonstrates the similarity with the normalized feature vector time series data of the elephant
It is characterized by calculating .
【0014】請求項2の信号波形データ比較装置におい
ては、前記類似度演算手段は、
1)単語毎のファジィ標準パターンデータに基づき、各フ
レームの各次元毎の特徴量成分値の平均値を求め、当該
平均値に対して前記特徴量成分値が大きい度合いに応じ
てその重み値を各フレームおよび各ベクトル空間ごとに
演算し、
2)得られた重み値および前記ファジィ関係に基づき、フ
ァジィ標準パターンデータと判定対象の正規化後特徴ベ
クトル時系列データとの類似度を演算すること、を特徴
とする。In the signal waveform data comparison device according to the present invention, the similarity calculation means 1) obtains the average value of the feature amount component values for each dimension of each frame based on the fuzzy standard pattern data for each word. , The weight value is calculated for each frame and each vector space according to the degree to which the feature amount component value is larger than the average value, 2) based on the obtained weight value and the fuzzy relationship, a fuzzy standard pattern The feature is that the degree of similarity between the data and the normalized feature vector time series data to be determined is calculated.
【0015】請求項3の信号波形データ比較装置におい
ては、前記正規化手段は、
1)前記各特徴ベクトル時系列データの各特徴量成分値を
ファジィ分類するファジィ分類手段、
2)ファジィ分類された各特徴量成分値に基づき、代表特
徴点を演算するとともに、求めた代表特徴点を時系列順
に連結し、代表特徴点時系列データを演算する代表特徴
点時系列データ演算手段、
3)前記代表特徴点時系列データに基づいて、正規化後特
徴ベクトル時系列データを演算して出力する正規化後時
系列データ演算手段、を備えたことを特徴とする。In the signal waveform data comparison device according to the present invention, the normalizing means is 1) fuzzy classifying means for fuzzy classifying the feature amount component values of the respective feature vector time series data, and 2) fuzzy classifying. Representative feature point time series data calculation means for calculating representative feature points based on each feature amount component value, concatenating the obtained representative feature points in time series, and calculating representative feature point time series data, 3) the representative A normalized time series data calculating means for calculating and outputting the normalized feature vector time series data based on the characteristic point time series data.
【0016】 請求項4の信号波形データ比較方法にお
いては、入力された信号波形データを複数フレームに分
割し、各フレーム毎の周波数成分をフレーム特徴量とし
て抽出し、前記各フレーム特徴量から所望の特徴量成分
値を抽出し、抽出した特徴量成分値に基づいて、抽出し
た複数の特徴量成分を各次元の成分とする要素ベクトル
を、多次元ベクトル空間に配置し、各フレームの要素ベ
クトルを連結させた特徴ベクトル時系列データを演算
し、前記特徴ベクトル時系列データを、時間軸にて正規
化し、正規化後特徴ベクトル時系列データを演算し、得
られた正規化後特徴ベクトル時系列データを記憶し、複
数の信号波形データに基づき得られた複数の正規化後特
徴ベクトル時系列データの各特徴量成分値をファジィ数
化して得られたファジィ標準パターンデータを登録デー
タとして予め記憶しておき、判定対象の正規化後特徴ベ
クトル時系列データの各フレーム及び各次元の特徴量成
分値について、前記ファジィ標準パターンデータとのフ
ァジィ関係を演算し、得られたファジィ関係に基づき、
ファジィ標準パターンデータと判定対象の正規化後特徴
ベクトル時系列データとの類似度を演算し、その類似度
を出力する信号波形データ比較方法であって、前記登録
データ毎のファジィ標準パターンデータに基づき、各フ
レームの各次元毎の特徴量成分値の平均値を求め、当該
平均値に対して前記特徴量成分値が大きい度合いに応じ
てその重み値を各フレームおよび各ベクトル空間ごとに
演算し、得られた重み値および前記ファジィ関係に基づ
き、前記登録データと判定対象の正規化後特徴ベクトル
時系列データとの類似度を演算することを特徴とする。 In the signal waveform data comparison method according to a fourth aspect, the input signal waveform data is divided into a plurality of frames, the frequency component of each frame is extracted as a frame characteristic amount, and a desired signal is extracted from the frame characteristic amounts. The feature amount component values are extracted, and the element vectors having the plurality of extracted feature amount components as the components of each dimension are arranged in the multidimensional vector space based on the extracted feature amount component values, and the element vectors of each frame are The combined feature vector time series data is calculated, the feature vector time series data is normalized on the time axis, the normalized feature vector time series data is calculated, and the obtained normalized feature vector time series data is obtained. And fuzzy obtained by fuzzy numbering each feature amount component value of a plurality of normalized feature vector time series data obtained based on a plurality of signal waveform data. I Standard pattern data is registered
Stored in advance as the data, and for each frame and each dimension of the normalized feature vector time series data to be judged, the fuzzy relation with the fuzzy standard pattern data is calculated, and the obtained fuzzy relation is obtained. Based on
A signal waveform data comparison method for calculating the similarity between fuzzy standard pattern data and normalized feature vector time-series data to be determined, and outputting the similarity ,
Based on the fuzzy standard pattern data for each data,
Obtain the average value of the feature amount component values for each dimension of the frame,
Depending on the degree to which the feature value component value is larger than the average value,
The weight value for each frame and each vector space
Based on the obtained weight value and the fuzzy relation
The registered data and the normalized feature vector to be judged
The feature is that the degree of similarity with time-series data is calculated.
【0017】[0017]
【作用】請求項1、請求項4の信号波形データ比較装置
またはその方法においては、入力された信号波形データ
を複数フレームに分割し、各フレーム毎の周波数成分を
フレーム特徴量として抽出する。前記各フレーム特徴量
から所望の特徴量成分値を抽出し、抽出した特徴量成分
値に基づいて、抽出した複数の特徴量成分を各次元の成
分とする要素ベクトルを、多次元ベクトル空間に配置す
る。各フレームの要素ベクトルを連結させた特徴ベクト
ル時系列データを演算し、前記特徴ベクトル時系列デー
タを、時間軸にて正規化し、正規化後特徴ベクトル時系
列データを演算し記憶する。According to the signal waveform data comparison device or the method thereof, the input signal waveform data is divided into a plurality of frames, and the frequency component of each frame is extracted as a frame feature amount. A desired feature amount component value is extracted from each frame feature amount, and an element vector having a plurality of extracted feature amount components as respective dimension components is arranged in a multidimensional vector space based on the extracted feature amount component values. To do. The feature vector time series data in which the element vectors of each frame are connected is calculated, the feature vector time series data is normalized on the time axis, and the normalized feature vector time series data is calculated and stored.
【0018】また、あらかじめ、複数の信号波形データ
に基づき得られた複数の正規化後特徴ベクトル時系列デ
ータの各特徴量成分値をファジィ数化して得られたファ
ジィ標準パターンデータを記憶しておく。Further, fuzzy standard pattern data obtained by fuzzy numbering each feature amount component value of a plurality of normalized feature vector time-series data obtained based on a plurality of signal waveform data are stored in advance. .
【0019】 判定対象の正規化後特徴ベクトル時系列
データの各フレーム及び各次元の特徴量成分値につい
て、前記ファジィ標準パターンデータとのファジィ関係
を演算し、得られたファジィ関係に基づき、ファジィ標
準パターンデータと判定対象の正規化後特徴ベクトル時
系列データとの類似度を演算し、その類似度を出力す
る。このように、ファジィ標準パターンデータは、正規
化後特徴ベクトル時系列データの各特徴量成分値をファ
ジィ数化されたものであるので、所属度を的確に判断す
ることができる。また、前記登録データ毎のファジィ標
準パターンデータに基づき、各フレームの各次元毎の特
徴量成分値の平均値を求め、当該平均値に対して前記特
徴量成分値が大きい度合いに応じてその重み値を各フレ
ームおよび各ベクトル空間ごとに演算し、得られた重み
値および前記ファジィ関係に基づき、前記登録データと
判定対象の正規化後特徴ベクトル時系列データとの類似
度を演算する。したがって、当該平均値に対して前記特
徴量成分値が大きい度合いをもつフレームおよび各ベク
トル空間の類似度を高く評価することができる。 For each frame and each dimension feature value of the normalized feature vector time series data to be determined, a fuzzy relationship with the fuzzy standard pattern data is calculated, and a fuzzy standard is calculated based on the obtained fuzzy relationship. The similarity between the pattern data and the normalized feature vector time-series data to be determined is calculated, and the similarity is output. As described above, the fuzzy standard pattern data is obtained by fuzzy numbering each feature amount component value of the normalized feature vector time-series data, so that the degree of belonging can be accurately determined. In addition, the fuzzy label for each registration data
Based on the quasi-pattern data, the feature for each dimension of each frame
Obtain the average value of the characteristic component values,
The weight value is set to each frame according to the degree to which the component value is large.
Weights obtained by computing for each space and each vector space
Based on the value and the fuzzy relationship,
Similarity to normalized feature vector time series data to be judged
Calculate the degree. Therefore, the characteristic
Frames and vectors that have large degree of component value
It is possible to highly evaluate the similarity of the tol space.
【0020】請求項2の信号波形データ比較装置におい
ては、前記類似度演算手段は、単語毎のファジィ標準パ
ターンデータに基づき、各フレームの各次元毎の特徴量
成分値の平均値を求め、当該平均値に対して前記特徴量
成分値が大きい度合いに応じてその重み値を各フレーム
および各ベクトル空間ごとに演算し、得られた重み値お
よび前記ファジィ関係に基づき、ファジィ標準パターン
データと判定対象の正規化後特徴ベクトル時系列データ
との類似度を演算する。したがって、当該平均値に対し
て前記特徴量成分値が大きい度合いをもつフレームおよ
び各ベクトル空間の類似度を高く評価することができ
る。According to another aspect of the signal waveform data comparison device of the present invention, the similarity calculation means obtains an average value of the feature amount component values for each dimension of each frame based on the fuzzy standard pattern data for each word. The weight value is calculated for each frame and each vector space according to the degree to which the feature amount component value is larger than the average value, and based on the obtained weight value and the fuzzy relationship, fuzzy standard pattern data and judgment target The degree of similarity with the normalized feature vector time series data of is calculated. Therefore, it is possible to highly evaluate the degree of similarity between the frame and each vector space in which the feature amount component value is larger than the average value.
【0021】請求項3の信号波形データ比較装置におい
ては、ファジィ分類手段は、前記各特徴ベクトル時系列
データの各特徴量成分値をファジィ分類する。代表特徴
点時系列データ演算手段は、ファジィ分類された各特徴
量成分値に基づき、代表特徴点を演算するとともに、求
めた代表特徴点を時系列順に連結し、代表特徴点時系列
データを演算する。正規化後時系列データ演算手段は、
前記代表特徴点時系列データに基づいて、正規化後特徴
ベクトル時系列データを演算して出力する。これにより
正規化をより高速に演算することができる。In the signal waveform data comparison device of the third aspect, the fuzzy classifying means fuzzy classifies the respective feature amount component values of the respective feature vector time series data. The representative feature point time-series data calculation means calculates the representative feature points based on the fuzzy classified feature amount component values, connects the obtained representative feature points in time series, and calculates the representative feature point time-series data. To do. The normalized time series data calculation means is
The normalized feature vector time series data is calculated and output based on the representative feature point time series data. Thereby, the normalization can be calculated at a higher speed.
【0022】[0022]
【実施例】本発明の一実施例を図面に基づいて説明す
る。信号波形データ比較装置1は、入力手段3、特徴量
抽出手段5、時系列データ演算手段7、正規化手段9、
正規化後時系列データ記憶手段11、ファジィ標準パタ
ーンデータ記憶手段13、ファジィ標準パターンデータ
作成手段15、ファジィ関係演算手段17、および類似
度演算手段19を備えている。DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described with reference to the drawings. The signal waveform data comparison device 1 includes an input unit 3, a feature amount extraction unit 5, a time series data calculation unit 7, a normalization unit 9,
The normalized time series data storage means 11, the fuzzy standard pattern data storage means 13, the fuzzy standard pattern data creation means 15, the fuzzy relation calculation means 17, and the similarity calculation means 19 are provided.
【0023】入力手段3には信号波形データが入力され
る。特徴量抽出手段5は、前記信号波形データを複数フ
レームに分割し、各フレーム毎の周波数成分をフレーム
特徴量として抽出する。時系列データ演算手段7は、前
記各フレーム特徴量から所望の特徴量成分値を抽出し、
抽出した特徴量成分値に基づいて、抽出した複数の特徴
量成分を各次元の成分とする要素ベクトルを、多次元ベ
クトル空間に配置するとともに、各フレームの要素ベク
トルを連結させた特徴ベクトル時系列データを演算す
る。Signal waveform data is input to the input means 3. The feature amount extraction means 5 divides the signal waveform data into a plurality of frames and extracts the frequency component of each frame as a frame feature amount. The time-series data calculation means 7 extracts a desired feature amount component value from each of the frame feature amounts,
Based on the extracted feature amount component values, the element vector that has the extracted multiple feature amount components as the components of each dimension is arranged in the multidimensional vector space, and the feature vector time series in which the element vectors of each frame are connected Calculate the data.
【0024】正規化手段9は、ファジィ分類手段31、
代表特徴点時系列データ演算手段32、および正規化後
時系列データ演算手段33を備えており、与えられた前
記特徴ベクトル時系列データを、以下のようにして時間
軸にて正規化し、正規化後特徴ベクトル時系列データを
演算する。The normalizing means 9 is a fuzzy classifying means 31,
A representative feature point time-series data calculating means 32 and a normalized time-series data calculating means 33 are provided, and the given feature vector time-series data is normalized and normalized on the time axis as follows. The post-feature vector time series data is calculated.
【0025】ファジィ分類手段31は、前記各特徴ベク
トル時系列データの各特徴量成分値をファジィ分類す
る。代表特徴点時系列データ演算手段33は、ファジィ
分類された各特徴量成分値に基づき、代表特徴点を演算
する。さらに、ファジィ分類手段31に与えられた特徴
ベクトル時系列データに基づき、求めた代表特徴点を時
系列順に連結し、代表特徴点時系列データを演算する。
正規化後時系列データ演算手段35は、前記代表特徴点
時系列データに基づいて、正規化後特徴ベクトル時系列
データを演算して出力する。The fuzzy classifying unit 31 fuzzy classifies the feature amount component values of the feature vector time series data. The representative feature point time-series data calculation means 33 calculates a representative feature point based on the fuzzy classified feature amount component values. Further, based on the feature vector time-series data given to the fuzzy classifying means 31, the obtained representative feature points are connected in chronological order to calculate the representative feature point time-series data.
The normalized time series data calculation means 35 calculates and outputs the normalized feature vector time series data based on the representative feature point time series data.
【0026】図1に戻って、正規化後時系列データ記憶
手段11は、得られた正規化後特徴ベクトル時系列デー
タを記憶する。ファジィ標準パターンデータ作成手段1
5は、複数の信号波形データに基づき得られた複数の正
規化後特徴ベクトル時系列データの各特徴量成分値をフ
ァジィ数化して得られたファジィ標準パターンデータ
を、演算する。ファジィ標準パターンデータ記憶手段1
3は、前記ファジィ標準パターンデータを記憶する。Returning to FIG. 1, the normalized time series data storage means 11 stores the obtained normalized feature vector time series data. Fuzzy standard pattern data creation means 1
Reference numeral 5 calculates fuzzy standard pattern data obtained by fuzzy numbering the respective feature amount component values of the plurality of normalized feature vector time-series data obtained based on the plurality of signal waveform data. Fuzzy standard pattern data storage means 1
3 stores the fuzzy standard pattern data.
【0027】ファジィ関係演算手段17は、正規化後時
系列データ記憶手段11に記憶された判定対象の正規化
後特徴ベクトル時系列データの各フレーム及び各次元の
特徴量成分値について、ファジィ標準パターン記憶手段
13に記憶されたファジィ標準パターンデータとのファ
ジィ関係を演算する。類似度演算手段19は、単語毎の
ファジィ標準パターンデータに基づき、各フレームの各
次元毎の特徴量成分値の平均値を求め、当該平均値に対
して前記特徴量成分値が大きい度合いに応じてその重み
値を各フレームおよび各ベクトル空間ごとに演算し、得
られた重み値および前記ファジィ関係に基づき、ファジ
ィ標準パターンデータと判定対象の正規化後特徴ベクト
ル時系列データとの類似度を演算する。The fuzzy relation calculating means 17 is a fuzzy standard pattern for each frame and each dimension of the feature quantity component value of the normalized feature vector time series data to be judged stored in the normalized time series data storage means 11. A fuzzy relationship with the fuzzy standard pattern data stored in the storage means 13 is calculated. The similarity calculation means 19 obtains an average value of the feature amount component values for each dimension of each frame based on the fuzzy standard pattern data for each word, and determines the degree of the feature amount component value being larger than the average value. The weight value is calculated for each frame and each vector space, and the similarity between the fuzzy standard pattern data and the normalized feature vector time series data to be determined is calculated based on the obtained weight value and the fuzzy relationship. To do.
【0028】図3に、本発明にかかる信号波形データ比
較装置をCPUを用いて実現したハードウェア構成の一
例を示す。信号波形データ比較装置21は、CPU2
3、ROM25、RAM27、音声A/D変換IF2
6、キーボード28、CRT29、およびバスライン3
0を備えている。FIG. 3 shows an example of a hardware configuration in which the signal waveform data comparison device according to the present invention is realized by using a CPU. The signal waveform data comparison device 21 includes the CPU 2
3, ROM25, RAM27, audio A / D conversion IF2
6, keyboard 28, CRT 29, and bus line 3
It has 0.
【0029】ROM25には、CPU23の制御プログ
ラム等が記憶されており、CPU23は、この制御プロ
グラムに従いバスライン30を介して、各部を制御す
る。キーボード28は、モード切換え信号を入力するモ
ード切換え手段である。音声A/D変換IF26は信号
波形データを入力する入力手段である。The ROM 25 stores a control program for the CPU 23 and the like, and the CPU 23 controls each unit via the bus line 30 in accordance with this control program. The keyboard 28 is a mode switching means for inputting a mode switching signal. The audio A / D conversion IF 26 is an input means for inputting signal waveform data.
【0030】本装置は、ファジィ標準パターンを作成す
るモード(以下標準パターン作成モードという)および
未知信号波形データを予め記憶したファジィ標準パター
ンとを比較するモード(比較モードという)を有する。The present apparatus has a mode for creating a fuzzy standard pattern (hereinafter referred to as a standard pattern creation mode) and a mode for comparing unknown signal waveform data with a fuzzy standard pattern stored in advance (referred to as a comparison mode).
【0031】[標準パターン作成モードの動作]まず、
信号波形データ比較装置21の標準パターン作成モード
の動作につき、図4を用いて説明する。[Operation of Standard Pattern Creation Mode] First,
The operation of the signal waveform data comparison device 21 in the standard pattern creation mode will be described with reference to FIG.
【0032】音声A/Dインタフェイス(IF)26か
ら、信号波形データが入力されると(図3ステップST
1)、CPU23は、前記信号波形データを時系列順に
複数フレームに分割し、各フレーム毎の周波数成分をフ
レーム特徴量として抽出する(ステップST2)。本実
施例においては、1フレーム25.6msとし、フレー
ムごとにスペクトルの包絡情報を求めるケプストラム分
析を用いて、フレーム特徴量を演算した。When signal waveform data is input from the audio A / D interface (IF) 26 (step ST in FIG. 3).
1), the CPU 23 divides the signal waveform data into a plurality of frames in chronological order and extracts the frequency component of each frame as a frame feature amount (step ST2). In the present embodiment, one frame is set to 25.6 ms, and the frame feature amount is calculated using the cepstrum analysis for obtaining the envelope information of the spectrum for each frame.
【0033】CPU23は、前記各フレーム特徴量を、
多次元ベクトル空間に配置した特徴点を求めRAM27
に記憶する。本実施例においては、多次元ベクトル空間
として10次元ベクトル空間を採用した。10次元ベク
トル空間に配置した状態を図5に示す。この場合、入力
された信号波形データが30フレームあったので、特徴
点a1〜a30が配置された。なお、これらの特徴点a
1〜a30はベクトルとして表わされる。The CPU 23 calculates the frame feature amount
RAM 27 for finding characteristic points arranged in the multidimensional vector space
Remember. In this embodiment, a 10-dimensional vector space is adopted as the multi-dimensional vector space. FIG. 5 shows the state of arrangement in the 10-dimensional vector space. In this case, since the input signal waveform data has 30 frames, the characteristic points a1 to a30 are arranged. Note that these characteristic points a
1 to a30 are represented as vectors.
【0034】以上のことを一般式で表わすと次の様にな
る。入力信号波形を表わす特徴ベクトルの時系列Aは、
A=a(o)a(1)・・・a(i)・・・a(I-1) ・・・・・(1)
{a(i)=(ai1,ai2,・・・,aip,・・・,aiP)}
として表現される。ここで、Iは入力時間長(フレーム
数)で、Pはベクトルの次元数である。The above is expressed by the general formula as follows. The time series A of the feature vector representing the input signal waveform is A = a (o) a (1) ... a (i) ... a (I-1) (1) {a ( i) = (ai1, ai2, ..., aip, ..., aiP)}. Here, I is the input time length (the number of frames), and P is the number of dimensions of the vector.
【0035】この特徴ベクトルa(i)は、P次元空間での
一つの特徴点として見ることができるので、この特徴点
の時系列を追跡することにより、P次元空間での近似的
な連続曲線(折れ線)が得られる。Since this feature vector a (i) can be seen as one feature point in the P-dimensional space, by tracing the time series of this feature point, an approximate continuous curve in the P-dimensional space can be obtained. (Line) is obtained.
【0036】しかしながら、特徴点の揺らぎがあるの
で、前記特徴点a1〜a30をそのまま時系列で追跡し
た近似的な連続曲線を求めても意味がない。本実施例に
おいては、CPU23は、前記各特徴点をファジィ分類
して、代表特徴点を求めるとともに、求めた代表特徴点
を時系列順に連結し、代表特徴点時系列線データを求め
る。However, since there are fluctuations in the characteristic points, it is meaningless to obtain an approximate continuous curve in which the characteristic points a1 to a30 are directly tracked in time series. In the present embodiment, the CPU 23 fuzzy classifies the respective feature points to obtain representative feature points, connects the obtained representative feature points in time series, and obtains representative feature point time series line data.
【0037】CPU23は、前記特徴点a1〜a30の
ベクトル時系列A1をRAM27から読み出す。ベクト
ル時系列A1は、
A1=a1,a2,・・・a30
で表わされる。The CPU 23 reads out the vector time series A1 of the characteristic points a1 to a30 from the RAM 27. The vector time series A1 is represented by A1 = a1, a2, ... A30.
【0038】CPU23は、この入力ベクトル時系列A
1の各特徴点ベクトルa1〜a30をファジィ分類し、
代表特徴点ベクトル(図5、a101〜a104参照)
を求める。本実施例においては、既知理論であるファジ
ィC―ミーンズ法(Fuzzy C-means)を採用した。The CPU 23 uses the input vector time series A
Fuzzy classification of each feature point vector a1 to a30 of 1,
Representative feature point vector (see a101 to a104 in FIG. 5)
Ask for. In this embodiment, the known theory, Fuzzy C-means, is adopted.
【0039】ファジィC―ミーンズ法の具体的なアルゴ
リズムは以下のようになる。まず、各個体Ai(Ai:ベク
トル;i=1,2,...N)が各クラスタg(g=1,2,...,G)に属
する度合(0から1の値)を次の行列(menbership matr
ix)で表わす。The concrete algorithm of the fuzzy C-means method is as follows. First, the degree (value from 0 to 1) that each individual Ai (Ai: vector; i = 1,2, ... N) belongs to each cluster g (g = 1,2, ..., G) is calculated as follows. Matrix (menbership matr
ix).
【0040】[0040]
【数1】 [Equation 1]
【0041】ここで、u(g,i)=[0,1]は、u(g,i)は0か
ら1の間の値をとることを示している。Here, u (g, i) = [0,1] indicates that u (g, i) takes a value between 0 and 1.
【0042】つぎに、クラスタ数をGに定め、Uの初期
分割行列U(0)と適当な収束判定値εを与える。つぎ
に、式(3)により初期クラスタg(g=1,2,...,G)の平均
ベクトルVgを求める。Next, the number of clusters is set to G, and an initial division matrix U (0) of U and an appropriate convergence judgment value ε are given. Next, the average vector Vg of the initial cluster g (g = 1, 2, ..., G) is calculated by the equation (3).
【0043】[0043]
【数2】 [Equation 2]
【0044】つぎに、式(4)によってU(0)をU(1)に
更新する。Next, U (0) is updated to U (1) by the equation (4).
【0045】[0045]
【数3】 [Equation 3]
【0046】これを演算子Tを使って、U(1)をT
(1)(U(0))と表わし、これを反復する。すなわち、
U(k+1)=T(k+1)(U(k)) (k=0,1,2,...) ・・・(5)
とする。The operator T is used to calculate U (1) as T
(1) (U (0) ) and repeat this. That is, U (k + 1) = T (k + 1) (U (k) ) (k = 0,1,2, ...) (5).
【0047】上記反復は、|U(k+1)−U(k)|≦εとな
ったとき計算を終了する。もし、|U(k+1)−U(k)|≦
εとならない場合は、上記計算を繰り返す。The above iteration ends the calculation when | U (k + 1) −U (k) | ≦ ε. If | U (k + 1) −U (k) | ≦
If not ε, the above calculation is repeated.
【0048】CPU23は、このようにして得られた代
表特徴点ベクトルをRAM27に記憶する。なお、この
状態では、求められた代表特徴点ベクトルには、時系列
概念が取払われている。そこで、CPU23は、RAM
27に記憶された代表特徴点ベクトルを時系列順に連結
し、代表特徴点時系列線データを求める。The CPU 23 stores the representative feature point vector thus obtained in the RAM 27. In this state, the time series concept is removed from the obtained representative feature point vector. Therefore, the CPU 23 uses the RAM
The representative feature point vectors stored in 27 are connected in chronological order to obtain representative feature point time series line data.
【0049】各代表特徴点ベクトルを時系列順に連結す
る為、各代表特徴点ベクトルと各特徴点ベクトルa1〜
a30を時系列順に、最も近い代表特徴点ベクトルに置
き換えて連結する。例えば、特徴点ベクトルa1は、最
も近い代表特徴点ベクトルa101に置き換えられ、特
徴点ベクトルa2は、最も近い代表特徴点ベクトルa1
01に置き換えられ、・・・特徴点ベクトルa8は、最
も近い代表特徴点ベクトルa102に置き換えられ、・
・・・特徴点ベクトルa30は、最も近い代表特徴点ベ
クトルa104に置き換えられる。これにより、各代表
特徴点ベクトルa101〜a104が時系列順に連結さ
れることになる。Since each representative feature point vector is connected in time series, each representative feature point vector and each feature point vector a1.
The a30 is replaced with the nearest representative feature point vector in time series order and connected. For example, the feature point vector a1 is replaced with the closest representative feature point vector a101, and the feature point vector a2 is replaced with the closest representative feature point vector a1.
01, and the feature point vector a8 is replaced with the nearest representative feature point vector a102,
The feature point vector a30 is replaced with the nearest representative feature point vector a104. As a result, the representative feature point vectors a101 to a104 are connected in chronological order.
【0050】このようにして、ベクトル時系列A1をベ
クトル量子化したベクトル時系列A101が得られる。In this way, the vector time series A101 obtained by vector-quantizing the vector time series A1 is obtained.
【0051】なお、ベクトル時系列A101は、
A101=a101,a102,a103,a104
で表わされる。ベクトル時系列A101を表わす代表特
徴点時系列線L1を図5に示す。The vector time series A101 is represented by A101 = a101, a102, a103, a104. A representative feature point time series line L1 representing the vector time series A101 is shown in FIG.
【0052】CPU23は、求めた代表特徴点時系列線
を正規化する。キーボード28にモード切換え信号が与
えられると、これに基づき、RAM27に記憶された代
表特徴点時系列線データに基づいて、正規化後特徴点時
系列線データを演算する。The CPU 23 normalizes the obtained representative feature point time series line. When the mode switching signal is applied to the keyboard 28, the normalized feature point time series line data is calculated based on the mode switching signal based on the representative feature point time series line data stored in the RAM 27.
【0053】このような正規化を行なうのは次のような
理由による。まず、同じ音韻(定常部)例えば、”オ”
であっても、周波数のずれにより、ベクトル空間内の”
オ”という特徴点の分布バラツキができ、そのバラツキ
の中心点も変動するからである。The reason why such normalization is performed is as follows. First, the same phoneme (stationary part), for example, "O"
Even in the case of
This is because there is a variation in the distribution of characteristic points such as "o", and the center point of the variation also fluctuates.
【0054】また、異なる音韻間の遷移(非定常部:た
とえば”オ”と”ム”の間)区間と対応するベクトル空
間内の特徴点は、遷移区間の時間軸のサンプリングの時
点の違いにより、その位置が異なる。したがって、それ
らの変動は空間曲線の長さに影響を与える。すなわち、
同じ単語を表わす特徴点時系列線データであっても、ベ
クトル空間においてはその長さ、形状が異なるからであ
る。Further, the characteristic points in the vector space corresponding to the transition (non-stationary part: for example, "o" and "m") sections between different phonemes are different depending on the sampling time points on the time axis of the transition sections. , Their position is different. Therefore, those variations affect the length of the spatial curve. That is,
This is because even the characteristic point time series line data representing the same word have different lengths and shapes in the vector space.
【0055】CPU23が行なう正規化後特徴点時系列
線データの演算の概略はつぎのようである。まず、代表
特徴点時系列線データの軌跡の長さを求め、これを(N
−1)等分割する。この分割点に基づき新たな軌跡を求
め、求めた軌跡に沿って再サンプリングしたN点の特徴
点を正規化後特徴点として用いる。The outline of the calculation of the normalized feature point time series line data performed by the CPU 23 is as follows. First, the length of the trajectory of the representative feature point time-series line data is calculated, and this is calculated as (N
-1) Divide into equal parts. A new locus is obtained based on this division point, and N feature points resampled along the obtained locus are used as the normalized feature points.
【0056】つぎに、図6〜図8を用いてP次元ベクト
ル空間における近似的連続曲線の正規化の方法に具体的
に説明する。Next, a method for normalizing an approximate continuous curve in the P-dimensional vector space will be specifically described with reference to FIGS. 6 to 8.
【0057】まず、P次元空間における入力特徴点と補
間点との関係を図6を用いて説明する。図に示すよう
に、入力特徴点a(i-1)、a(i)、a(i+1)があった場
合、補間点xは、以下の(6)式で表わされる。First, the relationship between the input feature points and the interpolation points in the P-dimensional space will be described with reference to FIG. As shown in the figure, when there are input feature points a (i-1), a (i), and a (i + 1), the interpolation point x is represented by the following equation (6).
【0058】
x=a(i)+(a(i+1)-a(i))・t; (0≦t≦1; i=0,・・・,I-2) ・・・(6)
また、Aの軌跡の長さをL(A)で表わすと、式(3)の
ように定義される。X = a (i) + (a (i + 1) -a (i)) · t; (0 ≦ t ≦ 1; i = 0, ..., I-2) (6 ) Further, when the length of the locus of A is represented by L (A), it is defined as in Expression (3).
【0059】[0059]
【数4】 [Equation 4]
【0060】なお、Incidentally,
【0061】[0061]
【数5】 [Equation 5]
【0062】である。It is
【0063】つぎに、軌跡長L(A)をN−1等分割し軌
跡Xに沿って再サンプリングしたN点の特徴点を正規化
後特徴点として用いる。Next, the locus length L (A) is divided into N-1 equal parts and resampled along the locus X to use N feature points as normalized feature points.
【0064】ここで、再サンプリングするN点の正規化
後特徴点を、
B=b(0)b(1)・・・b(n)・・・b(N-1) ・・・・(8)
{b(n)=(bn1,bn2,...,bnp,...,bnP)}
で表わした場合、正規化後特徴点は以下の(9)〜(1
2)式によって求められる。なお、b(0)=a(0)であり b
(N-1)=a(I-1)とする。Here, the normalized characteristic points of N points to be resampled are B = b (0) b (1) ... b (n) ... b (N-1). 8) When represented by {b (n) = (bn1, bn2, ..., bnp, ..., bnP)}, the normalized feature points are the following (9) to (1
It is calculated by the formula 2). Note that b (0) = a (0)
Let (N-1) = a (I-1).
【0065】但し、図8に示すI、P、i、n、A、d
(i)、L(A)、N−1、△L、B、D(A)、D(B)、S(n)
については、以下を表わすものとする。However, I, P, i, n, A and d shown in FIG.
(i), L (A), N-1, ΔL, B, D (A), D (B), S (n)
Indicates the following.
【0066】I:入力時間長(フレーム数)
P:ベクトル次元数
i:軌跡上の入力特徴点の番号;
i=0,・・・,I-1
n:軌跡上の正規化後特徴点の番号;
n=0,・・・,N-1
A:入力音声特徴ベクトルの時系列;
A=a(0)a(1)・・・a(i) ・・・a(I) {a(i)=ai1,ai2,・・・,aip,
・・・,aiP)}
d(i):近隣両特徴点間の距離;I: input time length (frame number) P: vector dimension number i: input feature point number on the trajectory; i = 0, ..., I-1 n: normalized feature point on the trajectory Number; n = 0, ..., N-1 A: Time series of input speech feature vector; A = a (0) a (1) ... a (i) ... a (I) {a ( i) = ai1, ai2, ..., aip,
..., aiP)} d (i): distance between neighboring feature points;
【0067】[0067]
【数6】 [Equation 6]
【0068】L(A):Aの軌跡長;L (A): locus length of A;
【0069】[0069]
【数7】 [Equation 7]
【0070】N−1:軌跡上の等分割数 ΔL:軌跡上の等分割の線分長 B:正規化される特徴ベクトルの時系列; B=b(0)b(1)・・・b(n)・・・b(N-1) {b(n)=(bn1,bn2,・・・,bnp,・・・,bnP)} D(A):軌跡に沿ってある特徴点a(i)までの軌跡長;N-1: Number of equal divisions on the locus ΔL: line segment length of even division on the locus B: time series of normalized feature vectors; B = b (0) b (1) ・ ・ ・ b (n) ・ ・ ・ b (N-1) {b (n) = (bn1, bn2, ..., bnp, ..., bnP)} D (A): trajectory length up to a feature point a (i) along the trajectory;
【0071】[0071]
【数8】 [Equation 8]
【0072】D(B):軌跡に沿ってある正規特徴点b(n)
までの軌跡長;
D(B)=n・△L
S(n):再サンプリング時点b(n)の局所軌跡長であり、
具体的には、図8に示すように、隣接する入力特徴点か
らの軌跡長である。D (B): Normal feature point b (n) along the locus
D (B) = n · ΔL S (n): Local trajectory length at resampling time b (n),
Specifically, as shown in FIG. 8, it is the trajectory length from the adjacent input feature points.
【0073】 △L=L(A)/(N−1) ・・・(9)[0073] ΔL = L (A) / (N-1) (9)
【0074】[0074]
【数9】 [Equation 9]
【0075】なお、ここで、i=numbe{k|(・
・・)}とは、”k””が(・・・)内の条件を満たす
時の番号を、iとしてとるということを意味する。Here, i = number {k | (·
..)} means that the number when "k""satisfies the condition in (...) is taken as i.
【0076】
t(n)=S(n)/d(i+1); (0≦t(n)≦1) ・・・(11)
b(n)=a(i)+(a(i+1)-a(i))・t(n) ・・・(12)
この演算アルゴリズムについて、図9を用いて説明す
る。図9ステップST11においては、まず初期化がな
される。T (n) = S (n) / d (i + 1); (0 ≦ t (n) ≦ 1) (11) b (n) = a (i) + (a (i +1) -a (i)) · t (n) (12) This calculation algorithm will be described with reference to FIG. In step ST11 of FIG. 9, initialization is first performed.
【0077】つぎに、ステップST12〜ステップST
15にて、S(n)を求める。ステップST12において
は、D(A)(ここではD(A)=0)に、つぎの入力特徴点
までの距離d(i+1)を加える。ステップST13では、
D(A)>D(B)かを判断する。すなわち、つぎの入力特徴
点までの距離d(i+1)がΔLよりも大きいか否かを判断
する。Next, steps ST12 to ST
At 15, S (n) is calculated. In step ST12, the distance d (i + 1) to the next input feature point is added to D (A) (here, D (A) = 0). In step ST13,
It is determined whether D (A)> D (B). That is, it is determined whether or not the distance d (i + 1) to the next input feature point is larger than ΔL.
【0078】条件を満足していれば、ステップST14
に進み、D(A)=D(A)−d(i+1)とする。そして、S(n)
=D(B)−D(A)(ステップST15)とする。これによ
り、入力特徴点a(i)からの軌跡長S(n)を得ることがで
きる。If the conditions are satisfied, step ST14
Then, D (A) = D (A) -d (i + 1). And S (n)
= D (B) -D (A) (step ST15). Thereby, the trajectory length S (n) from the input feature point a (i) can be obtained.
【0079】なお、ステップST13にて、D(A)>D
(B)が成立しなければ、ステップST16に進み、i=i+
1とし、さらにつぎの入力特徴点までの距離をD(A)に加
える(ステップST17)。ステップST12に戻り、
ステップST13〜ステップST17までを繰り返す。In step ST13, D (A)> D
If (B) is not established, the process proceeds to step ST16 and i = i +
It is set to 1, and the distance to the next input feature point is added to D (A) (step ST17). Return to step ST12,
Steps ST13 to ST17 are repeated.
【0080】つぎに、求めた軌跡長S(n)に基づき、再
サンプリングする補間点b(n)を求める。既に説明した入
力特徴点と補間点との関係に基づき、補間点b(n)を求め
る(ステップST18)。ステップST19にて、n=
N−2に達した場合には、終了する。ステップST19
にて、n=N−2に達していない場合には、ステップS
T20に進み、n=n+1、D(B)=n・△Lとして、ステ
ップST12以下を繰り返すことにより、軌跡長S(n+
1)を求める。Next, the interpolation point b (n) to be resampled is obtained based on the obtained trajectory length S (n). The interpolation point b (n) is obtained based on the relationship between the input feature point and the interpolation point already described (step ST18). In step ST19, n =
When N-2 is reached, the process ends. Step ST19
If n = N-2 is not reached, step S
Proceeding to T20, n = n + 1 and D (B) = n · ΔL are set, and step ST12 and subsequent steps are repeated to obtain the trajectory length S (n +
Ask for 1).
【0081】このようにして求めた正規化後特徴点時系
列線SL1を図6に示す。図において、特徴点a101
〜a104が入力特徴点であり、特徴点b101〜b11
0が求めた補間点である。The normalized feature point time series line SL1 thus obtained is shown in FIG. In the figure, feature point a101
To a104 are input feature points, and feature points b101 to b11
0 is the calculated interpolation point.
【0082】このように、本実施例においては、入力信
号波形の特徴ベクトルを正規化するのに、ファジィC―
ミーンズ法を用いたので、従来のDPマッチング法に比
べて、高速演算が可能である。なぜなら、DPマッチン
グ法のように時間軸平面上にて1つ1つ比較する必要が
なく、演算量を少なくすることができるからである。標
準パターン作成モードでは、このような正規化を行なっ
た後、図4ステップST4に進み、ファジィ標準パター
ンを作成する。具体的には、フレーム毎に、ベクトル空
間ごとに、特徴ベクトルの特徴量成分値を求め、図10
Aに示すような話者iが単語W1をJ回発生した正規化
後特徴ベクトルの特徴量成分値を、フレーム毎、ベクト
ル空間ごとにあらわした表を作成する。As described above, in this embodiment, the fuzzy C- is used to normalize the feature vector of the input signal waveform.
Since the means method is used, high-speed calculation is possible compared with the conventional DP matching method. This is because, unlike the DP matching method, it is not necessary to compare each one on the time axis plane, and the amount of calculation can be reduced. In the standard pattern creation mode, after performing such normalization, the process proceeds to step ST4 in FIG. 4 to create a fuzzy standard pattern. Specifically, the feature amount component value of the feature vector is calculated for each frame for each frame, and
A table showing the feature amount component values of the normalized feature vector in which the speaker i generated the word W1 J times as shown in A is created for each frame and each vector space.
【0083】本実施例においては、10kHz、10ビ
ットでA/D変換した音声を1フレーム25.6ms、
フレーム周期15msでFFTケプストラム分析を行
い、1〜10次までのケプストラム係数を、単語音声認
識のための特徴パラメータとして用い、さらに全ての単
語音声を22フレームになるよう正規化を行なった(す
なわち、P=10,L=22である)。In the present embodiment, the voice which is A / D converted at 10 kHz and 10 bits is 25.6 ms per frame,
The FFT cepstrum analysis was performed at a frame period of 15 ms, the cepstrum coefficients from the 1st to the 10th order were used as feature parameters for word speech recognition, and all the word speeches were normalized to 22 frames (that is, P = 10, L = 22).
【0084】つぎに、図10Aに示すような表を各単語
ごとに複数人分作成し、図11に示すようにフレーム
毎、ベクトル空間ごとに、特徴ベクトルの特徴量成分値
をファジィ数化する。本実施例においては、図12に示
す方法にてファジィ数化した。例えば、異なるI人の話
者が、単語Wnに対してJ回発声し時間軸正規化によっ
て得られたI×J個の特徴ベクトルFn ijは、
Fn ij=(fn ij(L))(i=1,・・・,I; j=1,・・・,J; L=1,・・・,
L)
で表される。ここで、fn ij(L)は、以下の式で表され
る。Next, a table as shown in FIG. 10A is prepared for each word for a plurality of persons, and the feature amount component value of the feature vector is fuzzy numbered for each frame and vector space as shown in FIG. . In this embodiment, fuzzy numbers are obtained by the method shown in FIG. For example, I × J feature vectors F n ij obtained by different I speakers speaking the word W n J times and time-axis normalization are F n ij = (f n ij (L )) (I = 1, ..., I; j = 1, ..., J; L = 1, ...,
L). Here, f n ij (L) is represented by the following formula.
【0085】
fn ij(L)=(fn ij(L,1),・・・,fn ij(L,p),・・・,fn ij(L,P))
ここで、L:フレーム番号(L=1,・・・,L)を示し、正規化
された単語Wnのフレーム数であり、p:ベクトルの次
元番号を示し、特徴ベクトルの次元数であり、i:話者
の番号、j:発声回数の番号、I:話者の人数、J:発
声回数である。F n ij (L) = (f n ij (L, 1), ..., f n ij (L, p), ..., f n ij (L, P)) where L : Frame number (L = 1, ..., L), the number of frames of the normalized word W n , p: vector dimension number, feature vector dimension number, i: story Number of the speaker, j: number of utterances, I: number of speakers, J: number of utterances.
【0086】つぎに、単語Wnの平均特徴パターンafn
を求める。平均特徴パターンafnは、以下の式で表され
る。[0086] Next, the average feature pattern a f n of the word W n
Ask for. The average feature pattern a f n is represented by the following formula.
【0087】a
fn=((afn p(L), fn p,min(L), fn p,max(L)) (p=1,・・
・,P; L=1,・・・,L)[0087] a f n = ((a f n p (L), f n p, min (L), f n p, max (L)) (p = 1, ··
・, P; L = 1, ・ ・ ・, L)
【0088】[0088]
【数10】 [Equation 10]
【0089】ここで、afn p(L):第Lフレーム目のp次
元成分(ケプストラム値)の平均値、fn p,min(L):第L
フレーム目のp次元成分の最小値、fn p,max(L):第Lフ
レーム目のp次元成分の最大値である。Here, a f n p (L): average value of p-dimensional component (cepstral value) of the L-th frame, f n p, min (L): L-th
The minimum value of the p-dimensional component of the frame, f n p, max (L): The maximum value of the p-dimensional component of the L-th frame.
【0090】具体的には、図12の数式に示すように、
異なるI人の話者が、単語Wnに対してJ回発声して得
られた特徴ベクトルの特徴量成分値について、フレーム
毎、ベクトル空間ごとに平均値afn p(L)を求める。ま
た、フレーム毎、ベクトル空間ごとの値のうち最小値を
fn p,minとし、最大値をfn p,maxとする。そして、前記
平均値afn p(L)をファジィ数を表す三角形の頂点座標と
し、最小値fn p,minおよび最大値fn p,maxを三角形の底
辺の座標とする。Specifically, as shown in the mathematical expression of FIG.
Different I speakers obtain the average value a f n p (L) of the feature amount component values of the feature vector obtained by uttering the word W n J times for each frame and each vector space. Further, among the values for each frame and vector space, the minimum value is f n p , min and the maximum value is f n p , max. Then, the average value a f n p (L) is used as the vertex coordinates of the triangle representing the fuzzy number, and the minimum value f n p , min and the maximum value f n p , max are used as the base coordinates of the triangle.
【0091】すなわち、ffn p(L)=(ffn p(L), ffn p(L)
-fn p,min(L), fn p,max(L)-ffn p(L))であり、ffn p(L)
は、左右のあいまさをそれぞれffn p(L)ーfn p,min(L), f
n p,ma x(L)-ffn p(L)になる正規三角ファジィ数である
(図12参照)。That is, f f n p (L) = ( f f n p (L), f f n p (L)
-f n p, min (L), f n p, max (L) -f f n p (L)), and f f n p (L)
Is the right and left ambiguity f f n p (L) ー f n p, min (L), f
n p, ma x (L) - is f f n regular triangular fuzzy numbers become p (L) (see FIG. 12).
【0092】これにより、図12に示すようなファジィ
数ffn p(L)が得られる。このような各次元毎、各フレー
ム毎のファジィ数で表される標準パターンを、ファジィ
標準パターンという。As a result, the fuzzy number f f n p (L) shown in FIG. 12 is obtained. Such a standard pattern represented by a fuzzy number for each dimension and each frame is called a fuzzy standard pattern.
【0093】図16に単語W1「東京」およびW2「愛
知」のファジイ標準パターン(いずれも第1次元の第
9、14フレーム目のファジィ化特徴ベクトルと第2次
元の第3、11フレーム目のファジィ化特徴ベクトルを
例として表示している)を示している。FIG. 16 shows fuzzy standard patterns of the words W 1 "Tokyo" and W 2 "Aichi" (both are the fuzzy feature vector of the 9th and 14th frames of the first dimension and the 3rd and 11th frames of the second dimension). (A fuzzy eye feature vector is displayed as an example).
【0094】つぎに、単語「東京」、「愛知」を各々単
語W1、W2として、各々のファジィ標準パターンを作成
する場合を例として具体的に説明する。Next, the case where the fuzzy standard patterns are created using the words "Tokyo" and "Aichi" as the words W1 and W2 will be specifically described.
【0095】単語「東京」に関してそれぞれ5人の話者
(I=5)が5回(J=5)発声して時間軸正規化(L
=22)によって得られた25個の特徴ベクトル(I×
J)から求められた第1、2次元成分の特徴量成分値を
時系列順に配置すると図14A,Bに示すようになる。Five speakers (I = 5) uttered five times (J = 5) for the word "Tokyo", and time-axis normalization (L
= 22), the 25 feature vectors (I ×
14A and 14B, the feature amount component values of the first and second dimensional components obtained from J) are arranged in time series.
【0096】図14Aにおいて、単語W1「東京」の第
1次元成分については、第9フレーム目の特徴量成分値
は、ファジィ数ff1 1(9)=(af1 1(9), f1 1,min(9),
f1 1,max(9))で表されるので、ファジィ数ff1 1(9)は、f
f1 1(9)=(0.07, -2.49, 2,71)
で表される。また、第14フレーム目の特徴量成分値
は、ファジィ数ff1 1(14)=(af1 1(14), f1 1,min(14),
f1 1,max(14))であるので、ファジィ数ff1 1(14)は、f
f1 1(14)=(4.51, 0.52, 7.04)
で表される。In FIG. 14A, for the first dimensional component of the word W 1 "Tokyo", the feature amount component value of the 9th frame is the fuzzy number f f 1 1 (9) = ( a f 1 1 (9) , f 1 1, min (9),
Since f 1 1, represented by m ax (9)), fuzzy numbers f f 1 1 (9) is, f f 1 1 (9) = (0.07, -2.49, represented by 2,71). The feature amount component value of the 14th frame is the fuzzy number f f 1 1 (14) = ( a f 1 1 (14), f 1 1, min (14),
Since f 1 1, max (14)), the fuzzy number f f 1 1 (14) is represented by f f 1 1 (14) = (4.51, 0.52, 7.04).
【0097】同様にして、図14Bを参照して、単語W
1「東京」の第2次元成分については、第3フレーム目
の特徴量成分値はファジィ数ff1 2(3)=(af1 2(3), f1
2,min(3), f1 2,max(3))=(0.50, -1.95, 2.82)で、第1
1フレーム目の特徴量成分値はファジィ数ff1 2(11)=(
af1 2(11), f1 2,min(11), f1 2,max(11))=(-3.23, -5.4
8, -1.19)で表される。Similarly, referring to FIG. 14B, the word W
1 For the second dimension component of “Tokyo”, the feature amount component value of the third frame is the fuzzy number f f 1 2 (3) = ( a f 1 2 (3), f 1
2, min (3), f 1 2, max (3)) = (0.50, -1.95, 2.82), the first
The feature amount component value of the first frame is the fuzzy number f f 1 2 (11) = (
a f 1 2 (11), f 1 2, min (11), f 1 2, max (11)) = (-3.23, -5.4
8, -1.19).
【0098】また、図15A,Bは、同様にして得られ
た単語W2「愛知」に関する第1、2次元成分の特徴量
成分値の時系列の例である。単語「愛知」の各次元成分
についても同様に、表される。Further, FIGS. 15A and 15B are time series examples of the feature amount component values of the first and second dimensional components regarding the word W2 "Aichi" obtained in the same manner. The same applies to each dimension component of the word "Aichi".
【0099】このようにして、各単語ごとに、各次元
毎、各フレームごとの特徴量成分値をファジィ数で表し
たファジィ標準パターンを作成する(図11参照)。In this way, a fuzzy standard pattern in which the feature amount component value for each dimension and for each frame is represented by the fuzzy number is created for each word (see FIG. 11).
【0100】このようなファジィ標準パターンを各単語
W1〜WNについて作成し、図13に示すようなファジィ
標準パターン群が得られる。図13においては、各テン
プレートについては、単語W1〜WNについて、各次元
毎のファジィ数が各々正規化したフレームの数だけ存在
する。Such a fuzzy standard pattern is created for each word W1 to WN, and a fuzzy standard pattern group as shown in FIG. 13 is obtained. In FIG. 13, for each template, the number of fuzzy numbers for each dimension for each of the words W1 to WN is equal to the number of normalized frames.
【0101】図13において、ffn(L)は、単語WNの第
Lフレームにおけるファジィ特徴量成分値を意味し、ベ
クトルで表される。なお、ffn(L)は、f
fn(L)=(ffn,1(L),ffn,2(L),・・・,ffn,
p(L),・・・ffn,P(L)) (n=1,2,・・・n・
・・N)
で表される。In FIG. 13, f f n (L) means the fuzzy feature quantity component value of the word WN in the L-th frame and is represented by a vector. Note that f f n (L) is f f n (L) = ( f f n , 1 (L), f f n , 2 (L), ..., f f n ,
p (L), ... f f n , P (L)) (n = 1, 2, ...
・ ・ N)
【0102】また、ffn p(L)とは、ファジィ特徴ベクト
ルffn(L)のP番目の要素であり、ファジィ数である(図
12参照)。また、afp(L)とは、単語集合全体につい
て第Lフレーム目のファジィ特徴ベクトルの平均であ
り、以下の式(11)で表される。Further, f f n p (L) is the P-th element of the fuzzy feature vector f f n (L) and is a fuzzy number (see FIG. 12). Also, the a f p (L), for the entire set of words the mean of fuzzy feature vector of the L-th frame is represented by the following equation (11).
【0103】[0103]
【数11】 [Equation 11]
【0104】また、af(L)は、以下の式で表される。Further, a f (L) is expressed by the following equation.
【0105】afp(L)=(af1(L),af2(L),・・・,a
fp(L),・・・afP(L))
このようにして、登録する単語の音声信号に対応するフ
ァジィ標準パターンを単語の数だけ作成し、RAM27
に記憶する(図4ステップST5)。[0105] a f p (L) = ( a f 1 (L), a f 2 (L), ···, a
f p (L), ... a f P (L)) In this way, the fuzzy standard pattern corresponding to the voice signal of the word to be registered is created by the number of words, and the RAM 27
(Step ST5 in FIG. 4).
【0106】[比較モード]つぎに、未知信号波形デー
タと予め記憶したファジィ標準パターンとを比較する比
較モードについて概略を説明する。未知信号波形が入力
される(図4ステップST1)と、ステップST2〜ス
テップST3により、正規化を行ない、図10Bに示す
ようなフレーム毎、次元毎の特徴量成分値(以下、未知
信号波形特徴量成分値という)を求める。ここで、キー
ボード28から与えられたモード切換え信号が比較モー
ドであると、CPU23は、ステップST6に進み、未
知信号波形特徴量成分値と全ての登録単語のファジィ標
準パターンとのファジィ関係の求める。[Comparison Mode] The comparison mode for comparing the unknown signal waveform data with the fuzzy standard pattern stored in advance will now be outlined. When the unknown signal waveform is input (step ST1 in FIG. 4), the normalization is performed in steps ST2 to ST3, and the feature amount component value for each frame and each dimension (hereinafter, unknown signal waveform feature) shown in FIG. 10B. The quantity component value) is obtained. Here, if the mode switching signal given from the keyboard 28 is the comparison mode, the CPU 23 proceeds to step ST6 to obtain a fuzzy relationship between the unknown signal waveform characteristic amount component value and the fuzzy standard patterns of all registered words.
【0107】つぎに、CPU23は、図4ステップST
5にて記憶したファジィ標準パターンと入力未知信号波
形との類似度を判断する(ステップST8)。つぎに、
ステップST9にて、累積類似度を判断し、入力された
未知信号波形は、最大類似度を有するファジィ標準パタ
ーンに対応する信号波形であると判断する(ステップS
T10)。The CPU 23 then proceeds to step ST in FIG.
The degree of similarity between the fuzzy standard pattern stored in 5 and the input unknown signal waveform is determined (step ST8). Next,
In step ST9, the cumulative similarity is determined, and the input unknown signal waveform is determined to be the signal waveform corresponding to the fuzzy standard pattern having the maximum similarity (step S).
T10).
【0108】以下各処理について、詳細に説明する。ま
ず、前記未知信号波形の特徴ベクトルをfx p(L)(p=1,・・
・,10; L=1,・・・,22)で表す。そして、図13に示すファ
ジィ標準パターン群を参照して、未知信号波形データと
各単語Wnとのファジィ類似関係行列を作成する。Each process will be described in detail below. First, the feature vector of the unknown signal waveform is f x p (L) (p = 1, ...
,, 10; L = 1, ..., 22). Then, referring to the fuzzy standard pattern group shown in FIG. 13, a fuzzy similarity relationship matrix between the unknown signal waveform data and each word W n is created.
【0109】具体的には、未知信号波形特徴量成分値に
ついて、各次元毎、各フレームごとに、あらかじめ記憶
されているファジィ数との適合度(0〜1.0)を求め
る。これにより、図20に示すような、各次元毎、各フ
レームごとの適合度μL(P,Wn)(p=1...P, L=1・・・L, Wn=1
・・・N)を得ることができる。Specifically, for the unknown signal waveform feature amount component value, the degree of conformity (0 to 1.0) with the fuzzy number stored in advance is obtained for each dimension and for each frame. As a result, the goodness of fit μ L (P, W n ) (p = 1 ... P, L = 1 ... L, W n = 1 for each dimension and frame as shown in FIG. 20.
... N) can be obtained.
【0110】以上のファジィ関係を図で表すと図17、
18に示すようになる。図17Bは、未知入力音声信号
の特徴量成分値の第1次元成分の時系列データを示して
いる。図17Aと図17Cはそれぞれ、未知信号波形特
徴量成分値の第1次元成分の第9フレーム目、第14フ
レーム目の成分と2つのファジィ標準パターン(東京、
愛知2単語)との適合度μL(P,Wn)(p=1, L=9,14, WN=W1
=東京)を示している。図17Bより、例えば、未知入力
信号の第9フレーム目の特徴量成分値は、「−0.5
7」であり、この値は図17Aにおいては、ファジィ標
準パターン「東京」の第9フレーム目のファジィ数
ff1,1(9)との適合度μ9(1,W1)=0.78であることがわか
る。同様にして、標準パターン「愛知」の第9フレーム
目のファジィ数ff2,1(9)との適合度μ9(1, W2)=0であ
ることがわかる。また、同様にして、図17Cより、第
14フレーム目の特徴量成分値と標準パターン「東京」
「愛知」との適合度は、それぞれμ14(1,W1)=0.80, μ
14(1,W2)=0であることがわかる。The above fuzzy relationship is shown in FIG.
As shown in 18. FIG. 17B shows time-series data of the first-dimensional component of the feature amount component value of the unknown input audio signal. 17A and 17C respectively show the components of the first and second frames of the first-dimensional component of the unknown signal waveform feature amount component value and the two fuzzy standard patterns (Tokyo,
Goodness of fit with 2 words in Aichi μ L (P, W n ) (p = 1, L = 9,14, WN = W1
= Tokyo). From FIG. 17B, for example, the feature amount component value of the ninth frame of the unknown input signal is “−0.5.
17 ", and this value is the fuzzy number in the 9th frame of the fuzzy standard pattern" Tokyo "in FIG. 17A.
f f 1, 1 (9) fit mu 9 with (1, W1) = found to be 0.78. Similarly, it can be seen that the compatibility μ 9 (1, W 2) with the fuzzy number f f 2 , 1 (9) in the ninth frame of the standard pattern “Aichi” is 0. Similarly, from FIG. 17C, the feature amount component value of the 14th frame and the standard pattern “Tokyo” are shown.
The conformity with “Aichi” is μ 14 (1, W1) = 0.80, μ, respectively
It can be seen that 14 (1, W2) = 0.
【0111】第2次元成分についても、図18A,B,
Cを用いて、同様にして、μ3(2,w1)=0.57, μ3(2,W2)=
0,μ11(2,W1)=0.37, μ11(2,W2)=0.16であることがわか
る。このようにして得られた適合度について、ファジィ
標準パターンごとに適合度の総計を求める。具体的に
は、各標準パターンごとに、フレーム毎、次元毎の適合
度を総計すればよい。例えば、図19において、単語W1
との累積類似度V1は、以下の式で表される。As for the second dimension component, as shown in FIGS.
Similarly, using C, μ 3 (2, w 1 ) = 0.57, μ 3 (2, W2) =
It can be seen that 0, μ 11 (2, W1) = 0.37, μ 11 (2, W2) = 0.16. With respect to the goodness of fit thus obtained, the total goodness of fit is found for each fuzzy standard pattern. Specifically, the goodness of fit for each frame and each dimension may be summed up for each standard pattern. For example, in FIG. 19, the word W1
The cumulative similarity V 1 with is expressed by the following equation.
【0112】V1=μ1(1,1)+μ1(2,1)+・・・+μ1(p,1)+・・
・+μ1(P,1)+μ2(1,1)+μ2(2,1)+・・・+μL(P,1)
このようにして、各標準パターンの累積類似度VNを求
め、最大累積類似度に対応する単語WNAを認識結果と
して出力する。V 1 = μ 1 (1,1) + μ 1 (2,1) + ... + μ 1 (p, 1) + ...
・ + Μ 1 (P, 1) + μ 2 (1,1) + μ 2 (2,1) + ・ ・ ・ + μ L (P, 1) In this way, the cumulative similarity V N of each standard pattern And the word WNA corresponding to the maximum cumulative similarity is output as the recognition result.
【0113】このように、本実施例においては、従来の
マルチテンプレート法と異なり、多くのテンプレートを
記憶する必要がなく、各単語に1のファジィ標準パター
ンを記憶しておけばよい。したがって、記憶領域を少な
くできるとともに、演算処理数も減少することができ
る。その際、標準パターンをファジィ数で記憶している
ので、各単語について1の標準パターンを記憶するだけ
で、精度の高い比較を行なうことができる。すなわら、
高精度かつ高速に信号波形を比較することができる。As described above, in this embodiment, unlike the conventional multi-template method, it is not necessary to store many templates, and one fuzzy standard pattern may be stored for each word. Therefore, the storage area can be reduced and the number of calculation processes can be reduced. At that time, since the standard pattern is stored in a fuzzy number, it is possible to perform highly accurate comparison by only storing one standard pattern for each word. Surawa,
The signal waveforms can be compared with high accuracy and high speed.
【0114】[重みづけについて]なお、上記演算方法
では、各フレームおよび各ベクトル空間について、その
特徴量成分値の大小に関係なく類似度を評価している。
しかし、前記特徴量成分値が大きいフレームおよび各ベ
クトル空間における類似度を高く評価するように重みづ
けをおこなうことにより、より、的確に類似度を評価す
ることができる。なぜなら、前記特徴量成分値の大きな
フレームおよび各ベクトル空間に、信号波形の特徴がよ
り強く表れるからである。[Regarding Weighting] In the above calculation method, the similarity is evaluated for each frame and each vector space regardless of the magnitude of the feature amount component value.
However, by weighting so that the degree of similarity in the frame having a large feature amount component value and each vector space is highly evaluated, the degree of similarity can be evaluated more accurately. This is because the feature of the signal waveform appears more strongly in the frame having a large feature amount component value and each vector space.
【0115】特徴量成分値の重みは、以下のようにして
求められる。ファジィ関係行列の各要素μL(p, WN)(L=
1, ・・・,L; p=1,・・・,P; N=1・・・N)の重み付けをWp(L)と
してThe weight of the characteristic amount component value is obtained as follows. Each element of fuzzy relation matrix μ L (p, WN) (L =
1, ・ ・ ・, L; p = 1, ・ ・ ・, P; N = 1 ・ ・ ・ N) as W p (L)
【0116】[0116]
【数12】 [Equation 12]
【0117】で求められる。It is calculated by
【0118】例えば、W1(9)は、つぎのようにして求め
られる。上記(14)式より、af1(9)=(af1 1(9)+af2
1(9))/2である。ここで、af1 1(9)およびaf2 1(9)につ
いては、図16Aから、各々0.07,+5.06であるので、
代入すると、af1(9)=2.57となる。また、上記(13)
式より、W'1(9)=fX 1(9)/af1(9)で表されるので、W'
1(9)=-0.57/2.57=-0.22となる。得られたW'p(L)を前記
(12)式に示すように、正規化する。すなわち、W
1(9)は、
W1(9)=(-0.22)/(-0.22+W'2(9)+・・・+W'10(9))
で表される。For example, W 1 (9) is obtained as follows. From the above formula (14), a f 1 (9) = ( a f 1 1 (9) + a f 2
It is 1 (9)) / 2. Here, the a f 1 1 (9) and a f 2 1 (9), from Fig. 16A, each 0.07, because it is + 5.06,
Substituting gives a f 1 (9) = 2.57. In addition, (13) above
From the formula, W ′ 1 (9) = f X 1 (9) / a f 1 (9), so W ′
1 (9) =-0.57 / 2.57 = -0.22. The obtained W'p (L) is normalized as shown in the equation (12). That is, W
1 (9) is represented by W 1 (9) = (-0.22) / (-0.22 + W ' 2 (9) + ... + W' 10 (9)).
【0119】このようにして各次元毎、各フレームごと
に得られた重みを、前記適合度に乗じた後(図20参
照)、上述のように累積類似度を求めればよい。In this way, after the fitness is multiplied by the weight obtained for each dimension and for each frame (see FIG. 20), the cumulative similarity may be obtained as described above.
【0120】このようにして、各次元毎、各フレームご
との重みづけを行なうことにより、より的確な類似判断
を行なうことができる。In this way, by weighting each dimension and each frame, more accurate similarity determination can be performed.
【0121】[他の応用例]なお、本実施例において
は、入力信号波形を正規化するのに、ファジィC―ミー
ンズ法を用いたので、従来のDPマッチング法に比べ
て、高速演算が可能である。しかしこれに限られること
なく、入力信号波形の特徴ベクトルを正規化できるもの
であれば、どのような方法でもよく、例えば、当該部分
を従来のDPマッチング法等を用いてもよい。[Other Application Examples] In this embodiment, since the fuzzy C-means method is used to normalize the input signal waveform, high-speed calculation is possible as compared with the conventional DP matching method. Is. However, the present invention is not limited to this, and any method may be used as long as it can normalize the feature vector of the input signal waveform, and for example, a conventional DP matching method or the like may be used for that portion.
【0122】なお、本実施例においては、入力される信
号波形データとして音声信号を用いて説明したが、信号
の特徴量を抽出できる信号波形データであればどのよう
なものであってもよく、例えば、筆跡信号の照合等にも
応用することができる。In this embodiment, the audio signal is used as the input signal waveform data, but any signal waveform data capable of extracting the characteristic amount of the signal may be used. For example, it can be applied to collation of handwriting signals.
【0123】なお、本実施例においては、モード切換え
信号をキーボード28から入力するようにしたが、バス
ライン30を介して、他の機器(図示せず)から与える
ようにしてもよい。Although the mode switching signal is input from the keyboard 28 in this embodiment, it may be supplied from another device (not shown) via the bus line 30.
【0124】また、本実施例においては、複数人が複数
回発声してファジィ標準パターンを作成したが、人数、
回数についてはこれに限られることなく、同一人でもよ
い。上記実施例では、図1に示す機能を実現する為に、
CPU23を用い、ソフトウェアによってこれを実現し
ている。しかし、その一部もしくは全てを、ロジック回
路等のハードウェアによって実現してもよい。In this embodiment, a plurality of people utter a plurality of times to create a fuzzy standard pattern.
The number of times is not limited to this, and the same person may be used. In the above embodiment, in order to realize the function shown in FIG.
This is realized by software using the CPU 23. However, some or all of them may be realized by hardware such as a logic circuit.
【0125】[0125]
【発明の効果】請求項1、請求項4の信号波形データ比
較装置またはその方法においては、入力された信号波形
データを複数フレームに分割し、各フレーム毎の周波数
成分をフレーム特徴量として抽出する。前記各フレーム
特徴量から所望の特徴量成分値を抽出し、抽出した特徴
量成分値に基づいて、抽出した複数の特徴量成分を各次
元の成分とする要素ベクトルを、多次元ベクトル空間に
配置する。各フレームの要素ベクトルを連結させた特徴
ベクトル時系列データを演算し、前記特徴ベクトル時系
列データを、時間軸にて正規化し、正規化後特徴ベクト
ル時系列データを演算し記憶する。According to the signal waveform data comparison apparatus or the method of the present invention, the input signal waveform data is divided into a plurality of frames, and the frequency component of each frame is extracted as a frame feature amount. . A desired feature amount component value is extracted from each frame feature amount, and an element vector having a plurality of extracted feature amount components as respective dimension components is arranged in a multidimensional vector space based on the extracted feature amount component values. To do. The feature vector time series data in which the element vectors of each frame are connected is calculated, the feature vector time series data is normalized on the time axis, and the normalized feature vector time series data is calculated and stored.
【0126】また、あらかじめ、複数の信号波形データ
に基づき得られた複数の正規化後特徴ベクトル時系列デ
ータの各特徴量成分値をファジィ数化して得られたファ
ジィ標準パターンデータを記憶しておく。In addition, fuzzy standard pattern data obtained by fuzzy numbering each feature amount component value of a plurality of normalized feature vector time-series data obtained based on a plurality of signal waveform data are stored in advance. .
【0127】 判定対象の正規化後特徴ベクトル時系列
データの各フレーム及び各次元の特徴量成分値につい
て、前記ファジィ標準パターンデータとのファジィ関係
を演算し、得られたファジィ関係に基づき、ファジィ標
準パターンデータと判定対象の正規化後特徴ベクトル時
系列データとの類似度を演算し、その類似度を出力す
る。このように、標準パターンデータは、正規化後特徴
ベクトル時系列データの各特徴量成分値をファジィ数化
されたものであるので、所属度を的確に判断することが
できる。また、前記登録データ毎のファジィ標準パター
ンデータに基づき、各フレームの各次元毎の特徴量成分
値の平均値を求め、当該平均値に対して前記特徴量成分
値が大きい度合いに応じてその重み値を各フレームおよ
び各ベクトル空間ごとに演算し、得られた重み値および
前記ファジィ関係に基づき、前記登録データと判定対象
の正規化後特徴ベクトル時系列データとの類似度を演算
する。したがって、当該平均値に対して前記特徴量成分
値が大きい度合いをもつフレームおよび各ベクトル空間
の類似度を高く評価することができる信号波形データ比
較装置またはその方法を提供することができる。A fuzzy relation with the fuzzy standard pattern data is calculated for the feature amount component value of each frame and each dimension of the normalized feature vector time-series data to be determined, and the fuzzy standard is calculated based on the obtained fuzzy relation. The similarity between the pattern data and the normalized feature vector time-series data to be determined is calculated, and the similarity is output. As described above, since the standard pattern data is obtained by fuzzy-numbering each feature amount component value of the normalized feature vector time-series data, the degree of belonging can be accurately determined. In addition, fuzzy standard pattern for each registration data
Feature data for each dimension of each frame based on
The average value is calculated, and the feature amount component is calculated with respect to the average value.
The weight value is set to each frame and
And for each vector space, the obtained weight value and
Based on the fuzzy relationship, the registration data and the judgment target
Calculates the similarity with the normalized feature vector time series data
To do. Therefore, with respect to the average value,
Frames with large values and each vector space
It is possible to provide a signal waveform data comparison device or a method thereof that can highly evaluate the degree of similarity of the above.
【0128】請求項2の信号波形データ比較装置におい
ては、前記類似度演算手段は、単語毎のファジィ標準パ
ターンデータに基づき、各フレームの各次元毎の特徴量
成分値の平均値を求め、当該平均値に対して前記特徴量
成分値が大きい度合いに応じてその重み値を各フレーム
および各ベクトル空間ごとに演算し、得られた重み値お
よび前記ファジィ関係に基づき、ファジィ標準パターン
データと判定対象の正規化後特徴ベクトル時系列データ
との類似度を演算する。したがって、当該平均値に対し
て前記特徴量成分値が大きい度合いをもつフレームおよ
び各ベクトル空間の類似度を高く評価することができ
る。In the signal waveform data comparison device of the second aspect, the similarity calculation means obtains the average value of the feature amount component values for each dimension of each frame based on the fuzzy standard pattern data for each word, and The weight value is calculated for each frame and each vector space according to the degree to which the feature amount component value is larger than the average value, and based on the obtained weight value and the fuzzy relationship, fuzzy standard pattern data and judgment target The degree of similarity with the normalized feature vector time series data of is calculated. Therefore, it is possible to highly evaluate the degree of similarity between the frame and each vector space in which the feature amount component value is larger than the average value.
【0129】これにより、2つの信号波形データをより
高精度に比較することができる信号波形データ比較装置
を提供することができる。As a result, it is possible to provide a signal waveform data comparison device capable of comparing two signal waveform data with higher accuracy.
【0130】請求項3の信号波形データ比較装置におい
ては、ファジィ分類手段は、前記各特徴ベクトル時系列
データの各特徴量成分値をファジィ分類する。特徴点時
系列データ演算手段は、ファジィ分類された各特徴量成
分値に基づき、代表特徴点を演算するとともに、求めた
代表特徴点を時系列順に連結し、特徴点時系列データを
演算する。正規化後時系列データ演算手段は、前記特徴
点時系列データに基づいて、正規化後特徴ベクトル時系
列データを演算して出力する。これにより正規化をより
高速に演算することができる。In the signal waveform data comparison device of the third aspect, the fuzzy classifying means fuzzy classifies the respective feature amount component values of the respective feature vector time series data. The feature point time series data calculating means calculates representative feature points based on the fuzzy classified feature amount component values, and also connects the obtained representative feature points in time series to calculate feature point time series data. The normalized time series data calculating means calculates and outputs the normalized feature vector time series data based on the characteristic point time series data. Thereby, the normalization can be calculated at a higher speed.
【0131】したがって、2つの信号波形データをより
高速に比較することができる信号波形データ比較装置を
提供することができる。Therefore, it is possible to provide a signal waveform data comparison device capable of comparing two signal waveform data at higher speed.
【図1】本発明にかかる信号波形データ比較装置1の機
能ブロック図である。FIG. 1 is a functional block diagram of a signal waveform data comparison device 1 according to the present invention.
【図2】正規化手段9の構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of a normalizing means 9.
【図3】信号波形データ比較装置1をCPUで実現した
ハードウェアー構成を示す図である。FIG. 3 is a diagram showing a hardware configuration in which the signal waveform data comparison device 1 is realized by a CPU.
【図4】信号波形データ比較装置1の全体処理のフロー
チャートである。FIG. 4 is a flowchart of overall processing of the signal waveform data comparison device 1.
【図5】P次元ベクトル空間に特徴点を配置した状態を
示す図である。FIG. 5 is a diagram showing a state in which feature points are arranged in a P-dimensional vector space.
【図6】正規化後特徴点時系列線SL1を示す図であ
る。FIG. 6 is a diagram showing a normalized feature point time series line SL1.
【図7】P次元ベクトル空間における入力特徴点と補間
点との関係を示す図である。FIG. 7 is a diagram showing a relationship between input feature points and interpolation points in a P-dimensional vector space.
【図8】P次元ベクトル空間における再サンプリングす
るN点の正規化後特徴点を説明する為の図である。FIG. 8 is a diagram for explaining N-point normalized feature points to be resampled in a P-dimensional vector space.
【図9】正規化する際の演算アルゴリズムを示す図であ
る。FIG. 9 is a diagram showing a calculation algorithm for normalization.
【図10】話者iがJ回発声した信号波形の特徴量成分
値を示す図である。FIG. 10 is a diagram showing feature amount component values of a signal waveform uttered J times by a speaker i.
【図11】複数の特徴量成分値に基づいて得られた単語
Wnのファジィ標準パターンデータを示す図である。FIG. 11 is a diagram showing fuzzy standard pattern data of a word Wn obtained based on a plurality of feature amount component values.
【図12】複数の特徴成分値に基づいて、ファジィ数化
する方法を説明する為の図である。FIG. 12 is a diagram for explaining a method of performing fuzzy number conversion based on a plurality of characteristic component values.
【図13】単語W1〜WNのファジィ標準パターンデー
タ群を示す図である。FIG. 13 is a diagram showing a fuzzy standard pattern data group of words W1 to WN.
【図14】単語「東京」のファジィ特徴量成分値を各次
元ごとにフレーム順(時系列)に表した図である。FIG. 14 is a diagram showing fuzzy feature amount component values of the word “Tokyo” in frame order (time series) for each dimension.
【図15】単語「愛知」のファジィ特徴量成分値を各次
元ごとにフレーム順(時系列)に表した図である。FIG. 15 is a diagram showing fuzzy feature amount component values of the word “Aichi” in frame order (time series) for each dimension.
【図16】単語W1,W2の特徴量成分値の第一次元成
分のフレーム毎のファジィ数の例を示す図である。FIG. 16 is a diagram showing an example of a fuzzy number for each frame of the first-dimensional component of the feature amount component values of words W1 and W2.
【図17】未知の音声信号の正規化後特徴ベクトルにつ
いて、第一次元成分におけるファジィ標準パターンとの
ファジィ関係を示す図である。FIG. 17 is a diagram showing a fuzzy relationship between a normalized feature vector of an unknown voice signal and a fuzzy standard pattern in the first-dimensional component.
【図18】未知の音声信号の正規化後特徴ベクトルにつ
いて、第二次元成分におけるファジィ標準パターンとの
ファジィ関係を示す図である。FIG. 18 is a diagram showing a fuzzy relationship between a normalized feature vector of an unknown voice signal and a fuzzy standard pattern in a second-dimensional component.
【図19】未知の音声信号の各次元、各フレームにおけ
る特徴量成分値について、ファジィ標準パターンとのフ
ァジィ関係を示す図である。FIG. 19 is a diagram showing a fuzzy relationship with a fuzzy standard pattern for each dimension of an unknown voice signal and a feature amount component value in each frame.
【図20】特徴量成分値に重みづけを与えた場合を説明
する為の図である。FIG. 20 is a diagram for explaining a case where weighting is given to feature amount component values.
【図21】従来のマルチテンプレート法における標準パ
ターンを説明する為の図である。FIG. 21 is a diagram for explaining a standard pattern in the conventional multi-template method.
3・・・・・入力手段 5・・・・・特徴量抽出手段 7・・・・・時系列データ演算手段 9・・・・・正規化手段 11・・・・正規化後時系列データ記憶手段 13・・・・ファジィ標準パターンデータ記憶手段 17・・・・ファジィ関係演算手段 19・・・・類似度演算手段 3 ... Input means 5 ... Feature extraction means 7: Time series data calculation means 9: Normalization means 11 ...- Time-series data storage means after normalization 13 ... Fuzzy standard pattern data storage means 17 ... Fuzzy relation calculation means 19 ... Similarity calculation means
フロントページの続き (56)参考文献 特開 昭59−71100(JP,A) 特開 昭59−127098(JP,A) 特開 昭62−66299(JP,A) 特開 昭57−56898(JP,A) 特開 平7−13597(JP,A) 特開 平1−269998(JP,A) 特公 平6−54439(JP,B2) 特公 平5−56520(JP,B2) 特許2899024(JP,B2) 藤本潤一郎,ファジィ理論を用いた音 声認識,情報処理,日本,1989年 8月 15日,Vol.30, No.8,p. 957−962 (58)調査した分野(Int.Cl.7,DB名) G10L 15/00 - 15/28 JICSTファイル(JOIS)Continuation of the front page (56) Reference JP-A-59-71100 (JP, A) JP-A-59-127098 (JP, A) JP-A-62-66299 (JP, A) JP-A-57-56898 (JP , A) JP 7-13597 (JP, A) JP 1-269998 (JP, A) JP 6-54439 (JP, B2) JP 5-56520 (JP, B2) JP 2899024 ( JP, B2) Junichiro Fujimoto, Voice recognition using fuzzy theory, information processing, Japan, August 15, 1989, Vol. 30, No. 8, p. 957-962 (58) Fields investigated (Int.Cl. 7 , DB name) G10L 15/00-15/28 JISST file (JOIS)
Claims (4)
ム毎の周波数成分をフレーム特徴量として抽出する特徴
量抽出手段、 前記各フレーム特徴量から所望の特徴量成分値を抽出
し、抽出した特徴量成分値に基づいて、抽出した複数の
特徴量成分を各次元の成分とする要素ベクトルを、多次
元ベクトル空間に配置するとともに、各フレームの要素
ベクトルを連結させた特徴ベクトル時系列データを演算
する時系列データ演算手段、 前記特徴ベクトル時系列データを、時間軸にて正規化
し、正規化後特徴ベクトル時系列データを演算する正規
化手段、 得られた正規化後特徴ベクトル時系列データを記憶する
正規化後時系列データ記憶手段、 複数の信号波形データに基づき得られた複数の正規化後
特徴ベクトル時系列データの各特徴量成分値をファジィ
数化して得られたファジィ標準パターンデータを登録デ
ータとして予め記憶しておくファジィ標準パターンデー
タ記憶手段、 前記正規化後時系列データ記憶手段に記憶された判定対
象の正規化後特徴ベクトル時系列データの各フレーム及
び各次元の特徴量成分値について、ファジィ標準パター
ン記憶手段に記憶されたファジィ標準パターンデータと
のファジィ関係を演算するファジィ関係演算手段、 演算したファジィ関係に基づき、ファジィ標準パターン
データと判定対象の正規化後特徴ベクトル時系列データ
との類似度を演算する類似度演算手段、 を備えた信号波形データ比較装置であって、 前記類似度演算手段は、1) 前記登録データ毎のファジィ標準パターンデータに基
づき、各フレームの各次元毎の特徴量成分値の平均値を
求め、当該平均値に対して前記特徴量成分値が大きい度
合いに応じてその重み値を各フレームおよび各ベクトル
空間ごとに演算し、 2) 得られた重み値および前記ファジィ関係に基づき、前
記登録データと判定対象の正規化後特徴ベクトル時系列
データとの類似度を演算すること、 を特徴とする信号波形データ比較装置。1. Input means for inputting signal waveform data, feature amount extracting means for dividing the signal waveform data into a plurality of frames, and extracting a frequency component for each frame as a frame feature amount, from each frame feature amount. A desired feature amount component value is extracted, and based on the extracted feature amount component value, an element vector having a plurality of extracted feature amount components as components of each dimension is arranged in a multidimensional vector space, and Time-series data calculation means for calculating feature vector time-series data in which element vectors are connected, the feature vector time-series data is normalized on a time axis, and normalization means for calculating the normalized feature vector time-series data, Normalized time series data storage means for storing the obtained normalized feature vector time series data, and a plurality of obtained plurality of signal waveform data based on the plurality of signal waveform data. Register fuzzy standard pattern data obtained each feature weight component values after the time-series feature vector data-normalized by fuzzy number of de
Fuzzy standard pattern data storing means for previously storing a over data, the normalization after time series data storing means to the stored frames of time-series feature vector data after normalization to be determined and each dimension of the feature component values The fuzzy standard pattern data stored in the fuzzy standard pattern storage means, the fuzzy relational calculation means for calculating the fuzzy relation with the fuzzy standard pattern data, and the fuzzy standard pattern data and the normalized feature vector time series data of the judgment target a signal waveform data comparison apparatus having a similarity calculation means for calculating a similarity between the similarity calculation means, 1) the fuzzy standard pattern data into groups each of the registration data
Then, calculate the average value of the feature amount component value for each dimension of each frame.
The degree of the feature value component being larger than the average value
Depending on the agreement, the weight value is set for each frame and each vector.
Calculated for every space, 2) based on the obtained weight value and the fuzzy relation, before
Registered data and normalized feature vector time series of judgment target
A signal waveform data comparison device characterized in that a degree of similarity with data is calculated .
て、 前記類似度演算手段は、 1)単語毎のファジィ標準パターンデータに基づき、各フ
レームの各次元毎の特徴量成分値の平均値を求め、当該
平均値に対して前記特徴量成分値が大きい度合いに応じ
てその重み値を各フレームおよび各ベクトル空間ごとに
演算し、 2)得られた重み値および前記ファジィ関係に基づき、フ
ァジィ標準パターンデータと判定対象の正規化後特徴ベ
クトル時系列データとの類似度を演算すること、 を特徴とする信号波形データ比較装置。2. The signal waveform data comparison device according to claim 1, wherein the similarity calculation means 1) calculates an average value of feature amount component values for each dimension of each frame based on fuzzy standard pattern data for each word. The weight value is calculated for each frame and each vector space according to the degree to which the feature component value is larger than the average value, and 2) the fuzzy standard is calculated based on the obtained weight value and the fuzzy relationship. A signal waveform data comparison device characterized in that the degree of similarity between the pattern data and the normalized feature vector time-series data to be judged is calculated.
比較装置において、 前記正規化手段は、 1)前記各特徴ベクトル時系列データの各特徴量成分値を
ファジィ分類するファジィ分類手段、 2)ファジィ分類された各特徴量成分値に基づき、代表特
徴点を演算するとともに、求めた代表特徴点を時系列順
に連結し、代表特徴点時系列データを演算する代表特徴
点時系列データ演算手段、 3)前記代表特徴点時系列データに基づいて、正規化後特
徴ベクトル時系列データを演算して出力する正規化後時
系列データ演算手段、を備えたことを特徴とする信号波
形データ比較装置。3. The signal waveform data comparison device according to claim 1 or 2, wherein the normalizing means 1) fuzzy classifying means for fuzzy classifying the respective feature amount component values of the respective feature vector time series data, 2 ) Representative feature point time series data calculating means for calculating representative feature points based on the fuzzy classified feature amount component values, concatenating the obtained representative feature points in time series, and calculating representative feature point time series data , 3) A signal waveform data comparison device characterized by comprising normalized time series data operation means for calculating and outputting normalized feature vector time series data based on the representative characteristic point time series data. .
に分割し、各フレーム毎の周波数成分をフレーム特徴量
として抽出し、 前記各フレーム特徴量から所望の特徴量成分値を抽出
し、 抽出した特徴量成分値に基づいて、抽出した複数の特徴
量成分を各次元の成分とする要素ベクトルを、多次元ベ
クトル空間に配置し、 各フレームの要素ベクトルを連結させた特徴ベクトル時
系列データを演算し、 前記特徴ベクトル時系列データを、時間軸にて正規化
し、正規化後特徴ベクトル時系列データを演算し、 得られた正規化後特徴ベクトル時系列データを記憶し、 複数の信号波形データに基づき得られた複数の正規化後
特徴ベクトル時系列データの各特徴量成分値をファジィ
数化して得られたファジィ標準パターンデータを登録デ
ータとして予め記憶しておき、 判定対象の正規化後特徴ベクトル時系列データの各フレ
ーム及び各次元の特徴量成分値について、前記ファジィ
標準パターンデータとのファジィ関係を演算し、 得られたファジィ関係に基づき、ファジィ標準パターン
データと判定対象の正規化後特徴ベクトル時系列データ
との類似度を演算し、その類似度を出力する信号波形デ
ータ比較方法であって、前記登録データ毎のファジィ標
準パターンデータに基づき、各フレームの各次元毎の特
徴量成分値の平均値を求め、当該平均値に対して前記特
徴量成分値が大きい度合いに応じてその重み値を各フレ
ームおよび各ベクトル空間ごとに演算し、得られた重み
値および前記ファジィ関係に基づき、前記登録データと
判定対象の正規化後特徴ベクトル時系列データとの類似
度を演算すること、 を特徴とする信号波形データ比較方法。4. The input signal waveform data is divided into a plurality of frames, the frequency component of each frame is extracted as a frame feature amount, and a desired feature amount component value is extracted from each frame feature amount and extracted. Based on the feature amount component values, the element vectors that have the extracted multiple feature amount components as the components of each dimension are arranged in the multidimensional vector space, and the feature vector time-series data that connects the element vectors of each frame is calculated. Then, the feature vector time-series data is normalized on the time axis, the normalized feature vector time-series data is calculated, and the obtained normalized feature vector time-series data is stored and converted into a plurality of signal waveform data. based resulting plurality of the feature amounts component value registration fuzzy standard pattern data obtained by fuzzy number of the de-normalization after the time-series feature vector data
It is stored in advance as a data, and the fuzzy relation with the fuzzy standard pattern data is calculated for the feature amount component values of each frame and each dimension of the normalized feature vector time series data to be determined, and the obtained fuzzy based on the relationship, and calculates the similarity between the fuzzy standard pattern data determination target normalized after the time-series feature vector data, a signal waveform data comparison method and outputs the similarity, fuzzy target for each of the registration data
Based on the quasi-pattern data, the feature for each dimension of each frame
Obtain the average value of the characteristic component values,
The weight value is set to each frame according to the degree to which the component value is large.
Weights obtained by computing for each space and each vector space
Based on the value and the fuzzy relationship,
Similarity to normalized feature vector time series data to be judged
A method for comparing signal waveform data, characterized in that the degree is calculated .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29528993A JP3500616B2 (en) | 1993-11-25 | 1993-11-25 | Apparatus and method for comparing signal waveform data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29528993A JP3500616B2 (en) | 1993-11-25 | 1993-11-25 | Apparatus and method for comparing signal waveform data |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07146938A JPH07146938A (en) | 1995-06-06 |
JP3500616B2 true JP3500616B2 (en) | 2004-02-23 |
Family
ID=17818680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP29528993A Expired - Fee Related JP3500616B2 (en) | 1993-11-25 | 1993-11-25 | Apparatus and method for comparing signal waveform data |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3500616B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100440973B1 (en) * | 2002-08-01 | 2004-07-21 | 삼성전자주식회사 | Apparatus and method for determining a correlation coefficient between signals, and apparatus and method for determining a signal pitch thereof |
JP4075670B2 (en) | 2003-04-09 | 2008-04-16 | トヨタ自動車株式会社 | Change information recognition apparatus and change information recognition method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2899024B2 (en) | 1989-10-25 | 1999-06-02 | 日本電信電話株式会社 | Vector quantization method |
-
1993
- 1993-11-25 JP JP29528993A patent/JP3500616B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2899024B2 (en) | 1989-10-25 | 1999-06-02 | 日本電信電話株式会社 | Vector quantization method |
Non-Patent Citations (1)
Title |
---|
藤本潤一郎,ファジィ理論を用いた音声認識,情報処理,日本,1989年 8月15日,Vol.30, No.8,p.957−962 |
Also Published As
Publication number | Publication date |
---|---|
JPH07146938A (en) | 1995-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2190631C (en) | Method of training neural networks used for speech recognition | |
US6108628A (en) | Speech recognition method and apparatus using coarse and fine output probabilities utilizing an unspecified speaker model | |
US5684925A (en) | Speech representation by feature-based word prototypes comprising phoneme targets having reliable high similarity | |
US5638486A (en) | Method and system for continuous speech recognition using voting techniques | |
US5596679A (en) | Method and system for identifying spoken sounds in continuous speech by comparing classifier outputs | |
US5621848A (en) | Method of partitioning a sequence of data frames | |
EP0492470A2 (en) | Method of speech recognition | |
JP2815579B2 (en) | Word candidate reduction device in speech recognition | |
US5734793A (en) | System for recognizing spoken sounds from continuous speech and method of using same | |
US4991216A (en) | Method for speech recognition | |
AU2362495A (en) | Speech-recognition system utilizing neural networks and method of using same | |
JP3500616B2 (en) | Apparatus and method for comparing signal waveform data | |
US20030023434A1 (en) | Linear discriminant based sound class similarities with unit value normalization | |
US7231352B2 (en) | Method for computer-supported speech recognition, speech recognition system and control device for controlling a technical system and telecommunications device | |
JPH08123469A (en) | Phrase border probability calculating device and continuous speech recognition device utilizing phrase border probability | |
JP3029803B2 (en) | Word model generation device for speech recognition and speech recognition device | |
JP2853418B2 (en) | Voice recognition method | |
JP2983364B2 (en) | A method for calculating the similarity between a hidden Markov model and a speech signal | |
JPH0713597A (en) | Device or method for signal waveform data normalization and device or method for signal waveform data comparison | |
JP3100180B2 (en) | Voice recognition method | |
JP3254933B2 (en) | Voice recognition method | |
JPH07113838B2 (en) | Speech recognition method | |
JP3871774B2 (en) | Voice recognition apparatus, voice recognition method, and recording medium recording voice recognition program | |
JP3062306B2 (en) | How to create a voice codebook | |
JP3083855B2 (en) | Voice recognition method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081212 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091212 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101212 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101212 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111212 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111212 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121212 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |