JPH0634182B2 - Voice recognizer - Google Patents

Voice recognizer

Info

Publication number
JPH0634182B2
JPH0634182B2 JP59106178A JP10617884A JPH0634182B2 JP H0634182 B2 JPH0634182 B2 JP H0634182B2 JP 59106178 A JP59106178 A JP 59106178A JP 10617884 A JP10617884 A JP 10617884A JP H0634182 B2 JPH0634182 B2 JP H0634182B2
Authority
JP
Japan
Prior art keywords
parameter
time series
voice
distance
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP59106178A
Other languages
Japanese (ja)
Other versions
JPS60249199A (en
Inventor
曜一郎 佐古
篤信 平岩
誠 赤羽
雅男 渡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP59106178A priority Critical patent/JPH0634182B2/en
Publication of JPS60249199A publication Critical patent/JPS60249199A/en
Publication of JPH0634182B2 publication Critical patent/JPH0634182B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 産業上の利用分野 本発明は音声を認識する音声認識装置に関する。TECHNICAL FIELD The present invention relates to a voice recognition device for recognizing voice.

背景技術とその問題点 従来、音声の発声速度変動に対処した音声認識装置とし
て例えば特開昭50-96104号公報に示されるようなDPマ
ッチング処理を行なうようにしたものが提案されてい
る。
2. Description of the Related Art Conventionally, as a voice recognition device that copes with a change in the vocalization speed of a voice, there has been proposed a voice recognition device that performs a DP matching process as disclosed in Japanese Patent Laid-Open No. 50-96104.

先ず、このDPマッチング処理にて音声認識を行なうよ
うにした音声認識装置について説明する。
First, a voice recognition device that performs voice recognition by this DP matching processing will be described.

第1図において、(1)は音声信号入力部としてのマイク
ロホンを示し、このマイクロホン(1)からの音声信号が
音響分析部(2)に供給され、この音響分析部(2)にて音響
パラメータ時系列Pi(n)が得られる。この音響分析部(2)
において例えばバンドパスフィルタバンクの整流平滑化
出力が音響パラメータ時系列Pi(n)(i=1,……,
I;Iはバンドパスフィルタバンクのチャンネル数、n
=1,……,N;Nは音声区間判定により切り出された
フレーム数である。)として得られる。
In FIG. 1, (1) shows a microphone as an audio signal input section, the audio signal from this microphone (1) is supplied to an acoustic analysis section (2), and the acoustic parameter is measured by this acoustic analysis section (2). A time series Pi (n) is obtained. This acoustic analysis unit (2)
In, for example, the rectified and smoothed output of the bandpass filter bank is the acoustic parameter time series Pi (n) (i = 1, ...,
I; I is the number of channels in the bandpass filter bank, n
= 1, ..., N; N is the number of frames cut out by the voice section determination. ) Is obtained as.

この音響分析部(2)の音響パラメータ時系列Pi(n)がモー
ド切換スイッチ(3)により、登録モードにおいては認識
対象語毎に標準パターンメモリ(4)に格納され、認識モ
ードにおいてはDPマッチング距離計算部(5)の一端に
供給される。又、この認識モードにおいては標準パター
ンメモリ(4)に格納されている標準パターンがDPマッ
チング距離計算部(5)の他端に供給される。
The acoustic parameter time series Pi (n) of the acoustic analysis unit (2) is stored in the standard pattern memory (4) for each recognition target word in the registration mode by the mode changeover switch (3), and DP matching is performed in the recognition mode. It is supplied to one end of the distance calculator (5). In this recognition mode, the standard pattern stored in the standard pattern memory (4) is supplied to the other end of the DP matching distance calculation unit (5).

このDPマッチング距離計算部(5)にてその時入力され
ている音声の音響パラメータ時系列Pi(n)よりなる入力
パターンと標準パターンメモリ(4)の標準パターンとの
DPマッチング距離計算処理がなされ、このDPマッチ
ング距離計算部(5)のDPマッチング距離を示す距離信
号が最小距離判定部(6)に供給され、この最小距離判定
部(6)にて入力パターンに対してDPマッチング距離が
最小となる標準パターンが判定され、この判定結果より
入力音声を示す認識結果が出力端子(7)に得られる。
In this DP matching distance calculation unit (5), a DP matching distance calculation process is performed between the input pattern consisting of the acoustic parameter time series Pi (n) of the voice being input at that time and the standard pattern of the standard pattern memory (4), A distance signal indicating the DP matching distance of the DP matching distance calculating unit (5) is supplied to the minimum distance determining unit (6), and the minimum distance determining unit (6) determines that the DP matching distance is the minimum for the input pattern. The standard pattern is determined, and the recognition result indicating the input voice is obtained at the output terminal (7) from the determination result.

ところで、一般に標準パターンメモリ(4)に格納される
標準パターンのフレーム数Nは発声速度変動や単語長の
違いにより異なっている。DPマッチング処理によりこ
の発声速度変動や単語長の違いに対処する為の時間軸正
規化がなされる。
By the way, generally, the number N of frames of the standard pattern stored in the standard pattern memory (4) differs depending on the variation in the utterance speed and the difference in the word length. By the DP matching process, the time axis normalization for coping with the variation in the utterance speed and the difference in the word length is performed.

以下、このDPマッチング処理について説明する。ここ
で、簡単の為に音響パラメータ時系列Pi(n)の周波数軸
方向iに対応する次元を省略して標準パターンのパラメ
ータ時系列をb,……,b、入力パターンのパラメ
ータ時系列をa,……,aとして、端点固定のDP
−パス の場合のDPマッチング処理について説明する。
The DP matching process will be described below. Here, for simplification, the dimension corresponding to the frequency axis direction i of the acoustic parameter time series Pi (n) is omitted, and the parameter time series of the standard pattern is b 1 , ..., B N , the parameter time series of the input pattern. the a 1, ......, as a M, of the endpoints fixed DP
-Pass The DP matching process in the case of will be described.

第2図はDPマッチング処理の概念図を示し、横軸に入
力パラメータ(M=19)が並べられ、縦軸に標準パラメ
ータ(N−12)が並べられ、この第2図に示す(M,
N)格子状平面に於ける・点はM×N個であり、この各
・点に1つの距離が対応する。例えばaとbとの距
離がaから縦に伸した直線と、bから横に伸した直
線との交点に位置する・に対応する。この場合、距離と
して例えばチェビシェフ距離を取れば、aとbとの
チェビシェフ距離d(3,5)は となる。(この場合、周波数軸方向iに対応する次元を
省略しているのでI=1である。)。そして、端点固定
のDP−パスとして、格子点(m,n)に対してこの格
子点(m,n)に結びつける前の状態として左側の格子
点(m−1,n)、斜め左下側の格子点(m−1,n−
1)及び下側の格子点(m,n−1)の3つ だけを許した場合、始点、即ちaとbとのチェビシ
ェフ距離d(1,1)を示す から出発し、パス(経路)として3方向 を選び、終点、即ちaとbとのチェビシェフ距離d
(M,N)を示す に至るパスで、通過する各格子点の距離の総和が最小に
なるものを求め、この距離の総和を入力パラメータ数M
と標準パラメータ数Nとの和より値1を減算した(M+
N−1)にて除算して得られた結果が入力パターンのパ
ラメータ時系列a,……,aと標準パターンのパラ
メータ時系列b,……,bとのDPマッチング距離
となされる。この様な処理を示す初期条件及び漸化式は 初期条件 g(1,1)=d(1,1) 漸化式 と表され、これよりDPマッチング距離DM(A,B)
は DM(A,B)=g(M,N)/(M+N−1)と表さ
れる(M+N−1)でg(M,N)を割っているのは標
準パターンのフレーム数Nの違いによる距離の値の差を
補正するためである。)。この様な処理により標準パタ
ーンの数がL個ある場合には入力パターンに対するDP
マッチング距離がL個求められ、このL個のDPマッチ
ング距離中最小の距離となる標準パターンが認識結果と
なされる。
FIG. 2 shows a conceptual diagram of the DP matching process, in which the horizontal axis shows the input parameters (M = 19) and the vertical axis shows the standard parameters (N-12).
N) There are M × N points on the grid plane, and one distance corresponds to each point. For example, the distance between a 3 and b 5 is located at the intersection of a straight line extending vertically from a 3 and a straight line extending horizontally from b 5 . In this case, if the Chebyshev distance is taken as the distance, the Chebyshev distance d (3,5) between a 3 and b 5 is Becomes (In this case, since the dimension corresponding to the frequency axis direction i is omitted, I = 1.). Then, as a DP-path with a fixed end point, the left grid point (m-1, n) is set to the grid point (m, n) before the grid point (m, n) is connected to this grid point (m, n). Lattice points (m-1, n-
1) and three lower grid points (m, n-1) If only allowed, the starting point, that is, the Chebyshev distance d (1,1) between a 1 and b 1 is shown Starting from, 3 directions as a path And the end point, that is, the Chebyshev distance d between a M and b N
Indicates (M, N) In the path leading up to, the sum of the distances of the passing grid points is found to be the minimum, and the sum of the distances is used as the number of input parameters M
And the standard parameter number N are subtracted by 1 (M +
The result obtained by dividing by N-1) is the DP matching distance between the parameter pattern time series a 1 , ..., A M of the input pattern and the parameter time series b 1 , ..., b N of the standard pattern. It The initial condition and the recurrence formula showing such processing are the initial condition g (1,1) = d (1,1) recurrence formula And DP matching distance DM (A, B)
Is DM (A, B) = g (M, N) / (M + N-1) and (M + N-1) divides g (M, N) by the difference in the number N of standard pattern frames. This is to correct the difference in the distance value due to. ). By such processing, when the number of standard patterns is L, DP for the input pattern
L matching distances are obtained, and the standard pattern having the smallest distance among the L DP matching distances is used as the recognition result.

この様なDPマッチング処理による音声認識装置によれ
ば発声速度変動や単語長の違いに対処、即ち時間軸正規
化のなされた音声認識を行なうことができる。
According to the voice recognition device based on the DP matching process as described above, it is possible to deal with the fluctuation of the utterance speed and the difference in the word length, that is, the voice recognition with the time axis normalization can be performed.

然し乍ら、この様なDPマッチング処理により音声認識
を行なうものにおいては、音声の定常部がDPマッチン
グ距離に大きく反映し、部分的に類似しているような語
い間に於いて誤認識し易いということが明らかとなっ
た。
However, in the case of performing voice recognition by such DP matching processing, the stationary part of the voice is largely reflected in the DP matching distance, and it is easy to erroneously recognize between partially similar words. It became clear.

即ち、音響パラメータ時系列pi(n)はそのパラメータ空
間で軌跡を描くと考えることができる。実際には各フレ
ームnのパラメータがパラメータ空間内の1点に対応す
ることから、点列ではあるが時系列方向に曲線で結んで
いくと始点から終点迄の1つの軌跡が考えられる。例え
ば2種類の単語“SAN”と“HAI”とを登録した場
合、夫々の標準パターンA′,B′は第3図に示す如く
“S”,“A”,“N”,“H”,“A”,“I”の各
音韻領域を通過する軌跡を描く。そして、認識モードで
“SAN”と発声した場合、全体的にみれば入力パター
ンAに対する標準パターンB′の類似する部分は非常に
少ないが、この入力パターンAの“SAN”の“A”の
部分が標準パターンA′の“SAN”の“A”の部分よ
り標準パターンB′の“HAI”の“A”の部分により
類似し、且つその部分(準定常部)に点数が多い場合が
ある。
That is, it can be considered that the acoustic parameter time series pi (n) draws a locus in the parameter space. Actually, since the parameter of each frame n corresponds to one point in the parameter space, one trajectory from the start point to the end point is conceivable when connecting with a curve in the time series direction though it is a sequence of points. For example, when two types of words "SAN" and "HAI" are registered, the respective standard patterns A'and B'are "S", "A", "N", "H", as shown in FIG. A trajectory passing through each phoneme region of "A" and "I" is drawn. When uttering "SAN" in the recognition mode, there are very few similar parts of the standard pattern B'to the input pattern A as a whole, but the "A" part of the "SAN" of this input pattern A is very small. May be more similar to the "A" part of the "SAN" of the standard pattern A'and the "A" part of the "HAI" of the standard pattern B ', and that part (quasi-stationary part) may have more points.

ここで、第3図に示す如く入力パターンAのパラメータ
が全体的には標準パターンA′のパラメータに類似し、
部分的には標準パターンB′のパラメータに類似する場
合にDPマッチング処理により誤認識を招く場合を1次
元パラメータを例に説明する。この場合、第3図に示す
状況、即ち部分的に類似している語い間の関係と同様の
1次元パラメータ時系列として第4図に示す如き入力パ
ターンA;2,4,6,8,8,8,8,6,4,4,4,6,8と、第5図に示
す如き標準パターンA′;3,5,7,9,9,9,9,7,5,5,7,9
と、第6図に示す如き標準パターンB′;7,6,6,8,8,8,
8,6,4,4,4とを考える。これら第4図乃至第6図のパタ
ーンより明らかな如く入力パターンAは標準パターン
A′と判定されて欲しいパターンである。ところが、入
力パターンAに対する標準パターンA′及びB′のDP
マッチング距離を計算すると、入力パターンAは標準パ
ターンB′に近いことが示される。
Here, as shown in FIG. 3, the parameters of the input pattern A are generally similar to the parameters of the standard pattern A ′,
A case in which the DP matching process causes an erroneous recognition when it is partially similar to the parameter of the standard pattern B ′ will be described by taking a one-dimensional parameter as an example. In this case, the situation shown in FIG. 3, that is, the input pattern A as shown in FIG. 4 as a one-dimensional parameter time series similar to the relationship between partially similar words; 2, 4, 6, 8, 8,8,8,6,4,4,4,6,8 and standard pattern A'as shown in FIG. 5; 3,5,7,9,9,9,9,7,5,5, 7,9
And a standard pattern B ′ as shown in FIG. 6; 7,6,6,8,8,8,
Consider 8,6,4,4,4. As is apparent from the patterns shown in FIGS. 4 to 6, the input pattern A is a pattern which should be judged as the standard pattern A '. However, the DP of the standard patterns A ′ and B ′ with respect to the input pattern A
Calculation of the matching distance shows that the input pattern A is close to the standard pattern B '.

即ち、入力パターンAに対する標準パターンA′のDP
マッチング処理として第2図と同様、第7図に示す如く
横軸に入力パターンAのパラメータ時系列;2,4,6,8,8,
8,8,6,4,4,4,6,8を並べ、縦軸に標準パターンA′のパ
ラメータ時系列;3,5,7,9,9,9,9,7,5,5,7,9を並べ、格
子状平面に於ける交点に対応して入力パターンAの個々
のパラメータに対する標準パターンA′の個々のパラメ
ータのチェビシェフ距離を求める。そして、入力パラメ
ータAのパラメータ時系列の第1番目のパラメータ2
と、標準パラメータA′のパラメータ時系列の第1番目
のパラメータ3とのチェビシェフ距離d(1,1)=1
の点を始点とし、入力パターンAのパラメータ時系列の
第13番目のパラメータ8と、標準パターンA′のパラメ
ータ時系列の第12番目のパラメータ9とのチェビシェフ
距離d(13,12)=1の点を終点とし、DP−パスとし
て第2図の場合と同様、任意の点に対する前の状態とし
てその任意の点の左側の点、下側の点及び斜め左下側の
点を取ることを許した場合(このパスを実線矢印にて示
す。)、パス上の点はd(1,1)−d(2,2)−d
(3,3)−d(4,4)−d(5,5)−d(6,
6)−d(7,7)−d(8,8)−d(9,9)−d
(10,10)−d(11,10)−d(12,10)−d(13,11)−
d(13,12)の14点であり、その距離の総和は24であ
り、このDPマッチング距離DM(A,A′)は1であ
る。
That is, the DP of the standard pattern A ′ with respect to the input pattern A
As the matching process, as in FIG. 2, the parameter time series of the input pattern A is plotted along the horizontal axis as shown in FIG. 7, 2, 4, 6, 8, 8,
8,8,6,4,4,4,4,6,8 are arranged, and the vertical axis is the parameter time series of the standard pattern A ′; 3,5,7,9,9,9,9,7,5,5, 7 and 9 are arranged, and the Chebyshev distances of the individual parameters of the standard pattern A ′ with respect to the individual parameters of the input pattern A are obtained corresponding to the intersections on the grid plane. Then, the first parameter 2 of the parameter time series of the input parameter A
And the Chebyshev distance d (1,1) = 1 from the first parameter 3 in the parameter time series of the standard parameter A ′.
Of the Chebyshev distance d (13,12) = 1 between the 13th parameter 8 of the parameter time series of the input pattern A and the 12th parameter 9 of the parameter time series of the standard pattern A ′. The point is set as the end point, and as in the case of FIG. 2, the DP-path is allowed to take the left side point, the lower side point and the diagonal left lower side point of the arbitrary point as the previous state with respect to the arbitrary point. In this case (this path is indicated by a solid arrow), the points on the path are d (1,1) -d (2,2) -d.
(3,3) -d (4,4) -d (5,5) -d (6
6) -d (7,7) -d (8,8) -d (9,9) -d
(10,10) -d (11,10) -d (12,10) -d (13,11)-
There are 14 points of d (13,12), the total sum of the distances is 24, and the DP matching distance DM (A, A ') is 1.

一方、入力パターンAに対する標準パターンB′のDP
マッチング処理を上述第7図に示す場合と同様、第8図
に示す如く行なう。即ち、入力パターンAの個々のパラ
メータ;2,4,6,8,8,8,8,6,4,4,4,6,8に対する標準パタ
ーンB′の個個のパラメータ;7,6,6,8,8,8,8,6,4,4,4
のチェビシェフ距離を求め、DP−パスとして任意の点
に対する前の状態としてその任意の点の左側の点、下側
の点及び斜め左下側の点を取ることを許した場合(この
パスを実線矢印にて示す。)、パス上の点はd(1,
1)−d(2,2)−d(3,3)−d(4,4)−d
(5,5)−d(6,6)−d(7,7)−d(8,
8)−d(9,9)−d(10,10)−d(11,11)−d
(12,11)−d(13,11)の13点であり、その距離の総和
は15であり、このDPマッチング距離DM(A,B′)
は0.65である。
On the other hand, the DP of the standard pattern B'for the input pattern A
The matching process is performed as shown in FIG. 8 as in the case shown in FIG. That is, the individual parameters of the input pattern A; the individual parameters of the standard pattern B'for the 2,4,6,8,8,8,8,6,4,4,4,6,8; 7,6, 6,8,8,8,8,6,4,4,4
Chebyshev distance is calculated, and if it is allowed to take a point on the left side, a point on the lower side, and a point on the lower left side of the diagonal point of the arbitrary point as the previous state for the DP-path (the solid line arrow , And points on the path are d (1,
1) -d (2,2) -d (3,3) -d (4,4) -d
(5,5) -d (6,6) -d (7,7) -d (8,
8) -d (9,9) -d (10,10) -d (11,11) -d
There are 13 points of (12,11) -d (13,11), and the sum of the distances is 15, and this DP matching distance DM (A, B ')
Is 0.65.

このDP−パスを3方向 とした結果より明らかな様に入力パターンAがそのDP
マッチング距離の小さな標準パターンB′と判定され、
判定されるべき結果が得られない。この様にDPマッチ
ング処理においては部分的に類似しているような語い間
に於いて誤認識し易い。
This DP-path is in 3 directions As is clear from the result, the input pattern A is the DP
It is determined as a standard pattern B ′ with a small matching distance,
The result to be judged cannot be obtained. As described above, in the DP matching process, misrecognition is likely to occur between words that are partially similar.

又、DPマッチング処理においては上述した様に標準パ
ターンのフレーム数Nが不定であり、しかも入力パター
ンに対して全標準パターンをDPマッチング処理する必
要があり、語いが多くなるとそれに伴って演算量が飛躍
的に増加し、標準パターンメモリ(4)の記憶容量や演算
量の点で問題があった。
Further, in the DP matching processing, the number N of frames of standard patterns is indefinite as described above, and it is necessary to perform DP matching processing for all standard patterns with respect to the input pattern. However, there was a problem in the storage capacity and calculation amount of the standard pattern memory (4).

発明の目的 本発明は斯かる点に鑑み部分的に類似しているような語
い間に於いても語認識することが比較的少なく、且つ標
準パターンメモリの記憶容量や演算量が比較的少ない音
声認識装置を得ることを目的とする。
SUMMARY OF THE INVENTION In view of the above, the present invention has a relatively small number of word recognitions even between words that are partially similar to each other, and has a relatively small storage capacity and calculation amount of a standard pattern memory. The purpose is to obtain a voice recognition device.

発明の概要 本発明音声認識装置は例えば第9図に示す如く、音声信
号入力部(1)と、この音声信号入力部(1)からの音声信号
を音響パラメータ系列に変換する変換部(2)と、この音
響パラメータ系列からそのパラメータ空間における軌跡
を推定する推定部(21)と、この推定部(21)において推定
されたこの軌跡に基づいてこの音声信号を認識する認識
部(4),(25),(6)とを備えたものであり、斯かる本発明音
声認識装置に依れば部分的に類似しているような語い間
に於いても誤認識することが比較的少なく、且つ標準パ
ターンメモリの記憶容量や演算量が比較的少ないものを
得ることができる利益がある。
SUMMARY OF THE INVENTION The voice recognition device of the present invention is, for example, as shown in FIG. 9, a voice signal input unit (1) and a conversion unit (2) for converting a voice signal from the voice signal input unit (1) into an acoustic parameter sequence. And an estimation unit (21) that estimates a trajectory in the parameter space from the acoustic parameter sequence, and a recognition unit (4) that recognizes the voice signal based on the trajectory estimated by the estimation unit (21), ( 25), and (6), and according to the speech recognition apparatus of the present invention, there is relatively little erroneous recognition even between words that are partially similar, In addition, there is an advantage that a standard pattern memory having a relatively small storage capacity and calculation amount can be obtained.

実施例 以下、第9図乃至第17図を参照しながら本発明音声認識
装置の一実施例について説明しよう。この第9図乃至第
17図において第1図乃至第8図と対応する部分に同一符
号を付してその詳細な説明は省略する。
Embodiment An embodiment of the speech recognition apparatus of the present invention will be described below with reference to FIGS. 9 to 17. This FIG. 9 thru | or
In FIG. 17, parts corresponding to those in FIGS. 1 to 8 are designated by the same reference numerals, and detailed description thereof will be omitted.

第9図において、(1)は音声信号入力部としてのマイク
ロホンを示し、このマイクロホン(1)からの音声信号を
音響分析部(2)の増幅器(8)に供給し、この増幅器(8)の
音声信号をカットオフ周波数5.5KHzのローパスフィルタ
(9)を介してサンプリング周波数12.5KHzの12ビットA/
D変換器(10)に供給し、このA/D変換器(10)のデジタ
ル音声信号を15チャンネルのデジタルバンドパスフィル
タバンク(11A),(11B),……,(11O)に供給する。
In FIG. 9, (1) indicates a microphone as an audio signal input section, and the audio signal from this microphone (1) is supplied to the amplifier (8) of the acoustic analysis section (2), and the amplifier (8) Low-pass filter with a cutoff frequency of 5.5 KHz for audio signals
12-bit A / with sampling frequency of 12.5 KHz via (9)
It is supplied to the D converter (10) and the digital audio signal of this A / D converter (10) is supplied to the 15-channel digital bandpass filter bank (11 A ), (11 B ), ..., (11 O ). Supply.

この15チャンネルのデジタルバンドパスフィルタバンク
(11A),(11B),……,(11O)は例えばバターワー
ス4次のデジタルフィルタにて構成し、250Hzから5.5KH
zまでの帯域が対数軸上で等間隔となるように割り振ら
れている。そして、各デジタルバンドパスフィルタ(11
A),(11B),……,(11O)の出力信号を15チャンネ
ルの整流器(12A),(12B),……,(12O)に夫々供
給し、これら整流器(12A),(12B),……,(12O
の2乗出力を15チャンネルのデジタルローパスフィルタ
(13A),(13B),……,(13O)に夫々供給する。こ
れらデジタルローパスフィルタ(13A),(13B),…
…,(13O)はカットオフ周波数52.8HzのFIR(有限
インパルス応答形)ローパスフィルタにて構成する。
This 15-channel digital bandpass filter bank (11 A ), (11 B ), ..., (11 O ) is composed of, for example, a Butterworth fourth-order digital filter, and 250 Hz to 5.5 KH
Bands up to z are allocated so that they are evenly spaced on the logarithmic axis. Then, each digital bandpass filter (11
A), (11 B), ......, (11 O) of the output signal 15 channels of the rectifier (12 A), (12 B ), ......, (12 O) To each supply, these rectifiers (12 A ), (12 B ),…, (12 O ).
The squared output of is supplied to the 15-channel digital low-pass filters (13 A ), (13 B ), ..., (13 O ), respectively. These digital low-pass filters (13 A ), (13 B ), ...
, (13 O ) are composed of FIR (finite impulse response type) low-pass filter with a cutoff frequency of 52.8 Hz.

そして、各デジタルローパスフィルタ(13A),(1
3B),……,(13O)の出力信号をサンプリング周期5.1
2msのサンプラー(14)に供給する。
Then, each digital low-pass filter (13 A ), (1
3 B ), ……, (13 O ) output signal with sampling period 5.1
Supply to the 2ms sampler (14).

このサンプラー(14)によりデジタルローパスフィルタ
(13A),(13B),……,(13O)の出力信号をフレー
ム周期5.12ms毎にサンプリングし、このサンプラー(14)
のサンプリング信号を音源情報正規化器(15)に供給す
る。この音源情報正規化器(15)は認識しようとする音声
の話者による声帯音源特性の違いを除去するものであ
る。
The sampler (14) samples the output signals of the digital low-pass filters (13 A ), (13 B ), ..., (13 O ) every 5.12 ms frame period,
The sampling signal of is supplied to the sound source information normalizer (15). The sound source information normalizer (15) removes a difference in vocal cord sound source characteristics depending on the speaker of the voice to be recognized.

即ち、フレーム周期毎にサンプラー(14)から供給される
サンプリング信号Ai(n)(i=1,……,15;n:フレ
ーム番号)に対して A′i(n)=log(Ai(n)+B) ・・・(1) なる対数変換がなされる。この(1)式において、Bはバ
イアスでノイズレベルが隠れる程度の値を設定する。そ
して、声帯音源特性をyi=a・i+bなる式で近似す
る。このa及びbの計数は次式により決定される。
That is, for each sampling signal Ai (n) (i = 1, ..., 15; n: frame number) supplied from the sampler (14) every frame period, A′i (n) = log (Ai (n ) + B) ... (1) Logarithmic transformation is performed. In this equation (1), B is set to a value such that the noise level is hidden by the bias. Then, the vocal cord sound source characteristic is approximated by an expression yi = a · i + b. The counts of a and b are determined by the following equation.

そして、音源の正規化されたパラメータをPi(n)とする
と、a(n)<0のときパラメータPi(n)は Pi(n)=A′i(n)−{a(n)・i+b(n)} ・・・(4) と表わされる。
When the normalized parameter of the sound source is Pi (n), the parameter Pi (n) is Pi (n) = A′i (n) − {a (n) · i + b when a (n) <0. (n)} is expressed as (4).

又、a(n)≧0のときレベルの正規化のみ行ない、パラ
メータPi(n)は と表わされる。
When a (n) ≧ 0, only level normalization is performed, and the parameter Pi (n) is Is represented.

この様な処理により音源特性の正規化されたパラメータ
pi(n)を音声区間内パラメータメモリ(16)に供給する。
この音声区間内パラメータメモリ(16)は後述する音声区
間判定部(17)からの音声区間判定信号を受けて音源特性
の正規化されたパラメータPi(n)を音声区間毎に格納す
る。
Normalized parameters of sound source characteristics by such processing
The pi (n) is supplied to the parameter memory (16) in the voice section.
The in-voice-section parameter memory (16) receives a voice section determination signal from a voice section determining unit (17), which will be described later, and stores a normalized sound source characteristic parameter Pi (n) for each voice section.

一方、A/D変換器(10)のデジタル音声信号を音声区間
判定部(17)のゼロクロスカウンタ(18)及びパワー算出器
(19)に夫々供給する。このゼロクロスカウンタ(18)は5.
12ms毎にその区間の64点のデジタル音声信号のゼロクロ
ス数をカウントし、そのカウント値を音声区間判定器(2
0)の第1の入力端に供給する。又、パワー算出器(19)は
5.12ms毎にその区間のデジタル音声信号のパワー、即ち
2乗和を求め、その区間内パワーを示すパワー信号を音
声区間判定器(20)の第2の入力端に供給する。更に、音
源情報正規化器(15)の音源正規化情報a(n)及びb(n)を
音声区間判定器(20)の第3の入力端に供給する。そし
て、音声区間判定器(20)においてはゼロクロス数、区間
内パワー及び音源正規化情報a(n),b(n)を複合的に処
理し、無音、無声音及び有声音の判定処理を行ない、音
声区間を決定する。この音声区間判定器(20)の音声区間
を示す音声区間判定信号を音声区間判定部(17)の出力と
して音声区間内パラメータメモリ(16)に供給する。
On the other hand, the digital voice signal of the A / D converter (10) is converted into the zero cross counter (18) of the voice section determination unit (17) and the power calculator.
Supply to (19) respectively. This zero cross counter (18) is 5.
Every 12 ms, the number of zero crossings of 64 points of digital audio signals in that section is counted, and the count value is counted by the audio section determiner (2
0) to the first input terminal. Also, the power calculator (19)
The power of the digital voice signal in the section, that is, the sum of squares is calculated every 5.12 ms, and the power signal indicating the power in the section is supplied to the second input terminal of the voice section determiner (20). Further, the sound source normalization information a (n) and b (n) of the sound source information normalizer (15) are supplied to the third input terminal of the voice section determiner (20). Then, in the voice section determiner (20), the zero cross number, the intra-section power, and the sound source normalization information a (n) and b (n) are processed in a composite manner to perform a process of determining silence, unvoiced sound and voiced sound, Determine the voice section. The voice section determination signal indicating the voice section of the voice section determiner (20) is supplied to the intra-voice section parameter memory (16) as the output of the voice section determination unit (17).

この音声区間内パラメータメモリ(16)に格納された音声
区間毎に音源特性の正規化された音響パラメータPi(n)
をその時系列方向にNAT処理部(21)に供給する(この
NATとはNormalization Along Trajectoryの頭部分を
取ったものである。)。このNAT処理部(21)はNAT
処理として音響パラメータ時系列Pi(n)からそのパラメ
ータ空間における軌跡を推定し、この軌跡に基づいて新
たな音響パラメータ時系列Qi(m)を形成する。
Acoustic parameters Pi (n) with the sound source characteristics normalized for each voice section stored in this voice section parameter memory (16)
Is supplied to the NAT processing unit (21) in the time-series direction (this NAT is the head of the Normalization Along Trajectory). This NAT processing unit (21) is a NAT
As a process, a trajectory in the parameter space is estimated from the acoustic parameter time series Pi (n), and a new acoustic parameter time series Qi (m) is formed based on this trajectory.

ここで、このNAT処理部(21)について更に説明する。
音響パラメータ時系列Pi(n)(i=1,……,I;n=
1,……,N)はそのパラメータ空間に点列を描く。第
10図に2次元パラメータ空間に分布する点列の例を示
す。この第10図に示す如く音声の非定常部の点列は粗に
分布し、準定常部は密に分布する。この事は完全に定常
であればパラメータは変化せず、その場合には点列はパ
ラメータ空間に停留することからも明らかである。
Here, the NAT processing unit (21) will be further described.
Acoustic parameter time series Pi (n) (i = 1, ..., I; n =
1, ..., N) draws a sequence of points in the parameter space. First
Figure 10 shows an example of a sequence of points distributed in a two-dimensional parameter space. As shown in FIG. 10, the point sequence of the non-stationary part of the voice is roughly distributed, and the quasi-stationary part is densely distributed. This is clear from the fact that the parameters do not change if they are completely stationary, and in that case the point sequence stays in the parameter space.

第11図は第10図に示す如き点列上に滑らかな曲線で軌跡
を描いた例を示す。この第11図に示す如く点列に対して
軌跡を推定できれば、音声の発声速度変動に対して軌跡
は殆ど不変であると考えることができる。何故ならば、
音声の発声速度変動による時間長の違いは殆どが準定常
部の時間的伸縮(第10図に示す如き点列においては準定
常部の点列密度の違いに相当する。)に起因し、非定常
部の時間長の影響は少ないと考えられるからである。
FIG. 11 shows an example in which a locus is drawn by a smooth curve on the point sequence as shown in FIG. If the locus can be estimated with respect to the point sequence as shown in FIG. 11, it can be considered that the locus is almost unchanged with respect to the fluctuation of the voice utterance speed. because,
Most of the difference in the time length due to the variation in the vocalization rate of the speech is due to the temporal expansion / contraction of the quasi-stationary portion (corresponding to the difference in the point sequence density of the quasi-stationary portion in the point sequence shown in FIG. 10). This is because the influence of the time length of the stationary part is considered to be small.

NAT処理部(21)においてはこの様な音声の発声速度変
動に対する軌跡の不変性に着目して時間軸正規化を行な
う。
In the NAT processing section (21), attention is paid to such invariance of the locus with respect to the variation of the vocalization speed of the voice, and the time axis normalization is performed.

即ち、第1に音響パラメータ時系列Pi(n)に対して始端P
i(1)から終端Pi(N)迄を連続曲線で描いた軌跡を推定
し、この軌跡を示す曲線を (0≦s≦S)とする。この場合、必ずしも である必要は無く、基本的には が点列全体を近似的に通過するようなものであれば良
い。
That is, first, with respect to the acoustic parameter time series Pi (n), the starting point P
Estimate the locus drawn by a continuous curve from i (1) to the end Pi (N), and draw the curve showing this locus. (0 ≦ s ≦ S). In this case, Basically does not have to be May be such that it approximately passes through the entire point sequence.

第2に推定された から軌跡の長さSLを求め、第12図に○印にて示す如く軌
跡に沿って一定長で新たな点列をリサンプリングする。
例えばM点にサンプリングする場合、一定長さ、即ちリ
サンプリング間隔T=SL/(M−1)を基準として軌跡
上をリサンプリングする。このリンサプリングされた点
列をQi(m)(i=1,……,I;m=1,……,M)と
すれば、 である。
Second estimated The length SL of the locus is obtained from, and a new point sequence is resampled at a constant length along the locus, as indicated by the circles in FIG.
For example, when sampling at M points, the locus is resampled on the basis of a fixed length, that is, the resampling interval T = SL / (M-1). If this sequence of phosphorus-supplemented points is Qi (m) (i = 1, ..., I; m = 1, ..., M), Is.

この様にして得られた新たなパラメータ時系列Qi(m)は
軌跡の基本情報を有しており、しかも音声の発声速度変
動に対して殆ど不変なパラメータとなる。即ち、新たな
パラメータ時系列Qi(m)は時間軸正規化がなされたパラ
メータ時系列となる。
The new parameter time series Qi (m) thus obtained has the basic information of the locus, and is a parameter which is almost invariable with respect to the fluctuation of the speech production speed. That is, the new parameter time series Qi (m) is a parameter time series that has been time-axis normalized.

この様な処理の為に、音声区間内パラメータメモリ(16)
の音響パラメータ時系列Pi(n)を軌跡長算出器(22)に供
給する。この軌跡長算出器(22)は音響パラメータ時系列
Pi(n)がそのパラメータ空間において描く直線近似によ
る軌跡の長さ、即ち軌跡長を算出するものである。この
場合、1次元ベクトルa及びb間のユークリッド距
離D(a,b)は である。そこで、1次元の音響パラメータ時系列Pi(n)
(i=1,……,I;n=1,……,N)より、直線近
似により軌跡を推定した場合の時系列方向に隣接するパ
ラメータ間距離S(n)は S(n)=D(Pi(n+1),Pi(n)) (n=1,……,N-1)
……(7) と表わされる。そして、時系列方向における第1番目の
パラメータPi(1)から第n番目のパラメータPi(n)迄の距
離SL(n)は と表わされる。尚、SL(1)=0である。更に、軌跡長SL
と表わされる。軌跡長算出器(22)はこの(7)式、(8)式及
び(9)式にて示す信号処理を行なう如くなす。
For this kind of processing, the parameter memory in the voice section (16)
The acoustic parameter time series Pi (n) is supplied to the trajectory length calculator (22). This trajectory length calculator (22)
Pi (n) is to calculate the length of the trajectory by the linear approximation drawn in the parameter space, that is, the trajectory length. In this case, the Euclidean distance D (a i , b i ) between the one-dimensional vectors a i and b i is Is. Therefore, one-dimensional acoustic parameter time series Pi (n)
From (i = 1, ..., I; n = 1, ..., N), the distance S (n) between adjacent parameters in the time series direction when the trajectory is estimated by linear approximation is S (n) = D (Pi (n + 1), Pi (n)) (n = 1, ..., N-1)
…… (7) is represented. The distance SL (n) from the first parameter Pi (1) to the nth parameter Pi (n) in the time series direction is Is represented. Note that SL (1) = 0. Furthermore, track length SL
Is Is represented. The trajectory length calculator (22) is configured to perform the signal processing shown in the equations (7), (8) and (9).

この軌跡長算出器(22)の軌跡長SLを示す軌跡長信号を補
間間隔算出器(23)に供給する。この補間間隔算出器(23)
は軌跡に沿って直線補間により新たな点列をリサンプリ
ングする一定長のリンサプリング間隔Tを算出するもの
である。この場合、M点にリサンプリングするとすれ
ば、リサンプリング間隔Tは T=SL/(M−1) ……(10) と表わされる。補間間隔算出器(23)はこの(10)式にて示
す信号処理を行なう如くなす。
The trajectory length signal indicating the trajectory length SL of the trajectory length calculator (22) is supplied to the interpolation interval calculator (23). This interpolation interval calculator (23)
Is for calculating a constant length phosphorus sampling interval T for re-sampling a new point sequence by linear interpolation along the locus. In this case, if resampling is performed at the point M, the resampling interval T is expressed as T = SL / (M-1) (10). The interpolation interval calculator (23) is configured to perform the signal processing shown by the equation (10).

この補間間隔算出器(23)のリサンプリング間隔Tを示す
リサンプリング間隔信号を補間点抽出器(24)の一端に供
給すると共に音声区間内パラメータメモリ(16)の音響パ
ラメータ時系列Pi(n)を補間点抽出器(24)の他端に供給
する。この補間点抽出器(24)は音響パラメータ時系列Pi
(n)のそのパラメータ空間における軌跡例えばパラメー
タ間を直線近似した軌跡に沿ってリサンプリング間隔T
で新たな点列をリサンプリングし、この新たな点列より
新たな音響パラメータ時系列Qi(m)を形成するものであ
る。
The resampling interval signal indicating the resampling interval T of the interpolation interval calculator (23) is supplied to one end of the interpolation point extractor (24), and the acoustic parameter time series Pi (n) of the parameter memory (16) in the voice section is supplied. Is supplied to the other end of the interpolation point extractor (24). This interpolation point extractor (24) is an acoustic parameter time series Pi
(n) A locus in the parameter space, for example, a resampling interval T along a locus obtained by linear approximation between parameters.
In, a new sequence of points is resampled, and a new acoustic parameter time series Qi (m) is formed from this new sequence of points.

ここで、この補間点抽出器(24)における信号処理を第13
図に示す流れ図に沿って説明する。先ず、ブロック(24
a)にてリサンプリング点の時系列方向における番号を示
す変数Jに値1が設定されると共に音響パラメータ時系
列Pi(n)の時系列方向における番号を示す変数ICに値1
が設定される。そして、ブロック(24b)にて変数Jがイ
ンクリメントされ、ブロック(24c)にてそのときの変数
Jが(M−1)以下であるかどうかにより、そのときの
リサンプリング点の時系列方向における番号がリサンプ
リングする必要のある最後の番号になっていないかどう
かを判断し、なっていなければブロック(24d)にて第1
番目のリサンプリング点から第J番目のリサンプリング
点までのリサンプル距離DLが算出され、ブロック(24e)
にて変数ICがインクリメントされ、ブロック(24f)にて
リサンプル距離DLが音響パラメータ時系列Pi(n)の第1
番目のパラメータPi(1)から第IC番目のパラメータPi(I
C)までの距離SL(IC)よりも小さいかどうかにより、その
ときのリサンプリング点が軌跡上においてそのときのパ
ラメータPi(IC)よりも軌跡の始点側に位置するかどうか
を判断し、位置していなければブロック(24e)にて変数I
Cをインクリメントした後再びブロック(24f)にてリサン
プリング点とパラメータPi(IC)との軌跡上における位置
の比較をし、リサンプリング点が軌跡上においてパラメ
ータPi(IC)よりも始点側に位置すると判断されたとき、
ブロック(24g)にてリサンプリングにより軌跡に沿う新
たな音響パラメータQi(J)が形成される。即ち、先ず第
J番目のリサンプリング点によるリサンプル距離DLから
この第J番目のリサンプリング点よりも始点側に位置す
る第(IC−1)番目のパラメータPi(IC-1)による距離
SL(IC-1)を減算して第(IC−1)番目のパラメータPi
(IC-1)から第J番目のリサンプリング点迄の距離SSを
求める。次に、軌跡上においてこの第J番目のリサンプ
リング点の両側に位置するパラメータPi(IC-1)及びパラ
メータPi(IC)間の距離S(n)(この距離S(n)は(7)式に
て示される信号処理にて得られる。)にてこの距離SSを
除算SS/S(IC-1)し、この除算結果SS/S(IC-1)に軌跡
上において第J番目のリサンプリング点の両側に位置す
るパラメータPi(IC)とPi(IC-1)との差Pi(IC)−Pi(IC-
1))を掛算(Pi(IC)−Pi(IC-1))*SS/S(IC-1)して、
軌跡上において第J番目のリサンプリング点のこのリサ
ンプリング点よりも始点側に隣接して位置する第(IC-1)
番目のパラメータPi(IC-1)からの補間量を算出し、この
補間量と第J番目のリサンプリング点よりも始点側に隣
接して位置する第(IC−1)番目のパラメータPi(IC-1)
とを加算して、軌跡に沿う新たな音響パラメータQi(J)
が形成される。第14図に2次元の音響パラメータ時系列
P(1),P(2),……,P(8)に対してパラメータ間を直
線近似して軌跡を推定し、この軌跡に沿って直線補間に
より6点の新たな音響パラメータ時系列Q(1),Q(2),
……,Q(6)を形成した例を示す。又、このブロック(24
g)においては周波数系列方向に1次元分(i=1,…
…,I)の信号処理が行なわれる。
Here, the signal processing in this interpolation point extractor (24)
A description will be given along the flow chart shown in the figure. First, the block (24
In a), the value 1 is set to the variable J indicating the number of the resampling points in the time series direction, and the value 1 is set to the variable IC indicating the number of the acoustic parameter time series Pi (n) in the time series direction.
Is set. Then, the variable J is incremented in the block (24b), and the number in the time series direction of the resampling point at that time is determined depending on whether or not the variable J at that time is (M-1) or less in the block (24c). Determines if it is not the last number that needs to be resampled, and if not, the first at block (24d)
The resampling distance DL from the th-th resampling point to the J-th resampling point is calculated, and the block (24e)
The variable IC is incremented at, and the resample distance DL is at the first of the acoustic parameter time series Pi (n) at block (24f).
The 1st parameter Pi (1) to the ICth parameter Pi (I
Depending on whether it is smaller than the distance SL (IC) to C), it is judged whether the resampling point at that time is located on the locus starting point side from the parameter Pi (IC) at that time on the locus, and the position If not, in block (24e) variable I
After incrementing C, the position of the resampling point and the parameter Pi (IC) on the locus is compared again in block (24f), and the resampling point is located on the locus on the starting point side of the parameter Pi (IC). When it is determined that
A new acoustic parameter Qi (J) along the locus is formed by resampling in the block (24g). That is, first, from the re-sampling distance DL by the J-th resampling point, the distance by the (IC-1) -th parameter Pi (IC-1) located closer to the starting point than the J-th resampling point.
SL (IC-1) is subtracted and the (IC-1) th parameter Pi
Find the distance SS from (IC-1) to the Jth resampling point. Next, the distance S (n) between the parameter Pi (IC-1) and the parameter Pi (IC) located on both sides of this J-th resampling point on the locus (this distance S (n) is (7) This distance SS is divided SS / S (IC-1) by the signal processing shown in the equation), and the result SS / S (IC-1) of this division is the J-th relocation on the locus. Difference between parameters Pi (IC) and Pi (IC-1) located on both sides of the sampling point Pi (IC) −Pi (IC−
1)) is multiplied (Pi (IC) -Pi (IC-1)) * SS / S (IC-1),
On the locus, the J-th resampling point is located adjacent to the start point side of this resampling point (IC-1)
The interpolation amount from the th parameter Pi (IC-1) is calculated, and this interpolation amount and the (IC-1) th parameter Pi (IC) located adjacent to the start point side from the Jth resampling point -1)
And a new acoustic parameter Qi (J) along the trajectory is added.
Is formed. Fig. 14 shows the trajectory of the two-dimensional acoustic parameter time series P (1), P (2), ..., P (8) by linear approximation between the parameters and linear interpolation along this trajectory. 6 new acoustic parameter time series Q (1), Q (2),
..., the example which formed Q (6) is shown. In addition, this block (24
In g), one dimension (i = 1, ...
, I) signal processing is performed.

この様にしてブロック(24b)乃至(24g)にて始点及び終点
(これらは である。)を除く(M−2)点のリサンプリングにより
新たな音響パラメータ時系列Qi(m)が形成される。
In this way, the start and end points (these are these in blocks (24b) to (24g)) Is. A new acoustic parameter time series Qi (m) is formed by resampling of (M-2) points excluding).

このNAT処理部(21)の新たな音響パラメータ時系列Qi
(m)をモード切換スイッチ(3)により、登録モードにおい
ては認識対象語毎に標準パターンメモリ(4)に格納し、
認識モードにおいてはチェビシェフ距離算出部(25)の一
端に供給する。又、この認識モードにおいては標準パタ
ーンメモリ(4)に格納されている標準パターンをチェビ
シェフ距離算出部(25)の他端に供給する。このチェビシ
ェフ距離算出部(25)においてはその時入力されている音
声の時間軸の正規化された新たな音響パラメータ時系列
Qi(m)よりなる入力パターンと、標準パターンメモリ(4)
の標準パターンとのチェビシェフ距離算出処理がなされ
る。
New acoustic parameter time series Qi of this NAT processing unit (21)
(m) is stored in the standard pattern memory (4) for each recognition target word in the registration mode by the mode selection switch (3),
In the recognition mode, it is supplied to one end of the Chebyshev distance calculation unit (25). In this recognition mode, the standard pattern stored in the standard pattern memory (4) is supplied to the other end of the Chebyshev distance calculation unit (25). In this Chebyshev distance calculation unit (25), a new time series of normalized acoustic parameters of the time axis of the voice being input at that time
Input pattern consisting of Qi (m) and standard pattern memory (4)
Chebyshev distance calculation processing with the standard pattern of is performed.

そして、このチェビシェフ距離を示す距離信号を最小距
離判定部(6)に供給し、この最小距離判定部(6)にて入力
パターンに対するチェビシェフ距離が最小となる標準パ
ターンが判定され、この判定結果より入力音声を示す認
識結果を出力端子(7)に供給する。
Then, the distance signal indicating the Chebyshev distance is supplied to the minimum distance determination unit (6), and the minimum distance determination unit (6) determines the standard pattern that minimizes the Chebyshev distance with respect to the input pattern. The recognition result indicating the input voice is supplied to the output terminal (7).

この様にしてなる音声認識装置の動作について説明す
る。
The operation of the speech recognition apparatus thus configured will be described.

マイクロホン(1)の音声信号が音響分析部(2)にて音声区
間毎に音源特性の正規化された音響パラメータ時系列Pi
(n)に変換され、この音響パラメータ時系列Pi(n)がNA
T処理部(21)に供給され、このNAT処理部(21)にて音
響パラメータ時系列Pi(n)からそのパラメータ空間にお
ける直線近似による軌跡が推定され、この軌跡に基づい
て時間軸正規化のなされた新たな音響パラメータ時系列
Qi(m)が形成され、登録モードにおいてはこの新たな音
響パラメータ時系列Qi(m)がモード切換スイッチ(3)を介
して標準パターンメモリ(4)に格納される。
The sound signal from the microphone (1) is normalized by the sound analysis unit (2) for each sound section, and the sound source characteristics are normalized in time series Pi parameter.
(n) and this acoustic parameter time series Pi (n) is NA
It is supplied to the T processing unit (21), and the NAT processing unit (21) estimates a trajectory by linear approximation in the parameter space from the acoustic parameter time series Pi (n), and based on this trajectory, the time axis normalization is performed. New acoustic parameter time series made
Qi (m) is formed, and in the registration mode, this new acoustic parameter time series Qi (m) is stored in the standard pattern memory (4) via the mode changeover switch (3).

又、認識モードにおいては、NAT処理部(21)の新たな
音響パラメータ時系列Qi(m)がモード切換スイッチ(3)を
介してチェビシェフ距離算出部(25)に供給されると共に
標準パターンメモリ(4)の標準パターンがチェビシェフ
距離算出部(25)に供給される。第15図乃至第17図に第4
図乃至第6図に示す1次元の入力パターンAのパラメー
タ時系列;2,4,6,8,8,8,8,6,4,4,4,6,8、標準パターン
A′のパラメータ時系列;3,5,7,9,9,9,9,7,5,5,7,9、
標準パターンB′のパラメータ時系列;7,6,6,8,8,8,8,
6,4,4,4をNAT処理部(21)にて直線近似にて軌跡を推
定し、リサンプリング点を8点とする処理をした1次元
の入力パターンAのパラメータ時系列;2,4,6,8,6,4,6,
8、標準パターンA′のパラメータ時系列;3,5,7,9,7,
5,7,9、標準パターンB′のパラメータ時系列;7,6,7,
8,7,6,5,4を夫々示す。この場合、音響パラメータ時系
列Pi(n)からそのパラメータ空間における軌跡を推定
し、この軌跡に沿って新たな音響パラメータ時系列Qi
(m)が形成されるので、入力音声を変換した音響パラメ
ータ時系列Pi(n)自身により時間軸正規化がなされる。
そして、チェビシェフ距離算出部(25)において入力パタ
ーンAと標準パターンA′との間のチェビシェフ距離8
が算出されると共に入力パターンAと標準パターンB′
との間のチェビシェフ距離16が算出され、これら距離8
及び距離16を夫々示す距離信号が最小距離判定部(6)に
供給され、この最小距離判定部(6)にて距離8が距離16
よりも小さいことから標準パターンAが入力パターン
A′であると判定され、この判定結果より入力音声が標
準パターンAであることを示す認識結果が出力端子(7)
に得られる。従って、部分的に類似しているような語い
間に於いても誤認識することが比較的少ない音声認識を
行なうことができる。
In the recognition mode, the new acoustic parameter time series Qi (m) of the NAT processing unit (21) is supplied to the Chebyshev distance calculation unit (25) via the mode changeover switch (3) and the standard pattern memory ( The standard pattern of 4) is supplied to the Chebyshev distance calculation unit (25). No. 4 in Figures 15 to 17
Parameter time series of one-dimensional input pattern A shown in Figs. 6 to 6; 2,4,6,8,8,8,8,6,4,4,4,6,8, parameters of standard pattern A ' Time series: 3,5,7,9,9,9,9,7,5,5,7,9,
Parameter time series of standard pattern B ': 7,6,6,8,8,8,8,
The parameter time series of the one-dimensional input pattern A, which is obtained by estimating the locus by linear approximation of 6,4,4,4 in the NAT processing unit (21) and setting the resampling point to 8 points; , 6,8,6,4,6,
8, standard pattern A'parameter time series; 3,5,7,9,7,
5,7,9, parameter time series of standard pattern B '; 7,6,7,
Shows 8,7,6,5,4 respectively. In this case, the trajectory in the parameter space is estimated from the acoustic parameter time series Pi (n), and a new acoustic parameter time series Qi is generated along this trajectory.
Since (m) is formed, time axis normalization is performed by the acoustic parameter time series Pi (n) itself obtained by converting the input voice.
Then, in the Chebyshev distance calculation unit (25), the Chebyshev distance 8 between the input pattern A and the standard pattern A ′ is set.
And the input pattern A and the standard pattern B ′ are calculated.
Chebyshev distance 16 between and is calculated, and these distances 8
And distance signals indicating the distance 16 are supplied to the minimum distance determination unit (6), and the minimum distance determination unit (6) determines that the distance 8 is the distance 16
It is determined that the standard pattern A is the input pattern A'because it is smaller than the above, and the recognition result indicating that the input voice is the standard pattern A is output from the determination result from the output terminal (7).
Can be obtained. Therefore, it is possible to perform voice recognition with relatively few erroneous recognitions even between words that are partially similar.

以上述べた如く本発明音声認識装置に依れば、音声信号
入力部としてのマイクロホン(1)を有し、この音声信号
入力部(1)からの音声信号を音響パラメータ時系列Pi(n)
に変換し、この音響パラメータ時系列Pi(n)からそのパ
ラメータ空間における直線近似による軌跡を推定し、こ
の軌跡に基づいて音声信号を認識するようにした為、部
分的に類似しているような語い間に於いても誤認識する
ことが比較的少ない音声の認識ができる利益がある。
又、処理の為の演算量を比較的少なくできる利益があ
る。
As described above, according to the voice recognition device of the present invention, the microphone (1) as the voice signal input unit is provided, and the voice signal from the voice signal input unit (1) is used as the acoustic parameter time series Pi (n).
, And a trajectory based on the linear approximation in the parameter space is estimated from the acoustic parameter time series Pi (n), and the voice signal is recognized based on this trajectory, so that it seems to be partially similar. There is an advantage that it is possible to recognize speech with relatively few erroneous recognition even between words.
Further, there is an advantage that the amount of calculation for processing can be relatively reduced.

ここで、NAT処理を行なう本発明音声認識装置とDP
マッチング処理を行なう従来の音声認識装置との演算量
における差異について説明する。
Here, the speech recognition apparatus of the present invention for performing NAT processing and DP
The difference in the amount of calculation from the conventional speech recognition apparatus that performs matching processing will be described.

入力パターンに対する標準パターン1個当たりのDPマ
ッチング距離計算部(5)における平均演算量をαとし、
チェビシェフ距離算出部(25)における平均演算量をβと
し、NAT処理部(21)の平均の演算量をγとしたとき、
J個の標準パターンに対するDPマッチング処理による
演算量Cは C=α・J ……(11) である。又、J個の標準パターンに対するNAT処理し
た場合の演算量Cは C=β・J+γ ……(12) である。一般に、平均演算量αは平均演算量βに対して
α≫βなる関係がある。従って、 なる関係が成り立つ、即ち認識対象語い数が増加するに
従って演算量Cは演算量Cに対してC≫Cなる
関係となり、NAT処理を行なう本発明音声認識装置に
依れば、演算量を大幅に低減できる利益がある。
The average calculation amount in the DP matching distance calculation unit (5) per standard pattern for the input pattern is α,
When the average calculation amount in the Chebyshev distance calculation unit (25) is β and the average calculation amount in the NAT processing unit (21) is γ,
The calculation amount C 1 in the DP matching process for J standard patterns is C 1 = α · J (11). The computation amount C 2 when NAT processing is performed on J standard patterns is C 2 = β · J + γ (12). In general, the average calculation amount α has a relationship of α >> β with respect to the average calculation amount β. Therefore, The relationship is established, i.e. the amount of computation C 1 according to the recognition target vocabulary number is increased becomes C 1 »C 2 made relationship with calculation amount C 2, according to the present invention a speech recognition apparatus for performing NAT processing, There is a benefit that the amount of calculation can be greatly reduced.

又、NAT処理部(21)より得られる新たな音響パラメー
タ時系列Qi(m)はその時系列方向において一定のパラメ
ータ数に設定できるので、標準パターンメモリ(4)の記
憶領域を有効に利用でき、その記憶容量を比較的少なく
できる利益がある。
Further, since the new acoustic parameter time series Qi (m) obtained from the NAT processing unit (21) can be set to a constant number of parameters in the time series direction, the storage area of the standard pattern memory (4) can be effectively used, There is an advantage that the storage capacity can be made relatively small.

尚、上述実施例においては音響パラメータ時系列Pi(n)
からそのパラメータ空間における軌跡を直線近似にて推
定すると共にこの軌跡から新たな音響パラメータ時系列
Qi(m)を直線補間にて形成するようにした場合について
述べたけれども、円弧近似、スプライン近似等により軌
跡を推定すると共に軌跡から新たな音響パラメータ時系
列Qi(m)を円弧補間、スプライン補間等にて形成するよ
うにしても上述実施例と同様の作用効果を得ることがで
きることは容易に理解できよう。又、上述実施例におい
ては音響パラメータ時系列Pi(n)からそのパラメータ空
間における軌跡を推定し、この軌跡に基づいて新たな音
響パラメータ時系列Qi(m)を形成するようにした場合に
ついて述べたけれども、音響パラメータ周波数系列から
そのパラメータ空間における軌跡を推定し、この軌跡に
基づいて新たな音響パラメータ周波数系列を形成するこ
とにより、音声信号の周波数特性の正規化を行なうこと
ができる。更に、上述実施例においては音声パラメータ
時系列Pi(n)からそのパラメータ空間における軌跡を推
定し、この軌跡に沿ってリサンプリングすることにより
新たな音響パラメータ時系列Qi(m)を形成した場合につ
いて述べたけれども、軌跡の形状を示す係数を抽出し、
この係数を新たな音響パラメータ時系列としても音声認
識を行なうことができる。又、本発明は上述実施例に限
らず本発明の要旨を逸脱することなくその他種々の構成
を取り得ることは勿論である。
In the above embodiment, the acoustic parameter time series Pi (n)
The trajectory in the parameter space is estimated from the
Although the case has been described where Qi (m) is formed by linear interpolation, the trajectory is estimated by arc approximation, spline approximation, etc. It can be easily understood that the same effects as those of the above-described embodiment can be obtained even if they are formed by the above method. Further, in the above-mentioned embodiment, the trajectory in the parameter space is estimated from the acoustic parameter time series Pi (n), and a case is described in which a new acoustic parameter time series Qi (m) is formed based on this trajectory. However, by estimating the trajectory in the parameter space from the acoustic parameter frequency sequence and forming a new acoustic parameter frequency sequence based on this trajectory, the frequency characteristic of the audio signal can be normalized. Furthermore, in the above-mentioned embodiment, the trajectory in the parameter space is estimated from the voice parameter time series Pi (n), and a new acoustic parameter time series Qi (m) is formed by resampling along this trajectory. As I said, I extracted the coefficient that shows the shape of the trajectory,
It is possible to perform voice recognition by using this coefficient as a new time series of acoustic parameters. Further, the present invention is not limited to the above-mentioned embodiments, and it goes without saying that various other configurations can be adopted without departing from the gist of the present invention.

発明の効果 本発明音声認識装置に依れば音声信号入力部を有し、こ
の音声信号入力部からの音声信号を音響パラメータ系列
に変換し、この音響パラメータ系列からそのパラメータ
空間における軌跡を推定し、この軌跡に基づいて音声信
号を認識するようにした為、部分的に類似しているよう
な語い間に於いても誤認識することが比較的少なく、且
つ標準パターンメモリの記憶容量及び演算量の比較的少
ないものを得ることができる利益がある。
EFFECTS OF THE INVENTION According to the speech recognition apparatus of the present invention, a speech signal input unit is provided, a speech signal from this speech signal input unit is converted into an acoustic parameter sequence, and a trajectory in the parameter space is estimated from this acoustic parameter sequence. Since the voice signal is recognized based on this locus, it is relatively unlikely to misrecognize even between words that are partially similar to each other, and the storage capacity and operation of the standard pattern memory are relatively small. There is a benefit of being able to obtain a relatively small quantity.

【図面の簡単な説明】[Brief description of drawings]

第1図はDPマッチング処理により音声認識を行なうよ
うにした音声認識装置の例を示す構成図、第2図はDP
マッチング処理の説明に供する概念図、第3図は音響パ
ラメータ空間における軌跡の説明に供する線図、第4
図、第5図及び第6図は夫々1次元の入力パターンA、
標準パターンA′及び標準パターンB′の例を示す線
図、第7図は入力パターンAのパラメータ時系列と標準
パターンA′のパラメータ時系列とのDPマッチング処
理による時間軸正規化の説明に供する線図、第8図は入
力パターンAのパラメータ時系列と標準パターンB′の
パラメータ時系列とのDPマッチング処理による時間軸
正規化の説明に供する線図、第9図は本発明音声認識装
置の一実施例を示す構成図、第10図、第11図、第12図及
び第14図は夫々NAT処理部の説明に供する線図、第13
図は補間点抽出器の説明に供する流れ図、第15図、第16
図及び第17図は夫々NAT処理部にて処理した入力パタ
ーンA、標準パターンA′及び標準パターンB′の1次
元の音響パラメータ時系列を示す線図である。 (1)は音声信号入力部としてのマイクロホン、(2)は音響
分析部、(3)はモード切換スイッチ、(4)は標準パターン
メモリ、(6)は最小距離判定器、(11A),(11B),……,(1
1O)は15チャンネルのデジタルバンドパスフィルタバン
ク、(16)は音声区間内パラメータメモリ、(21)はNAT
処理部、(22)は軌跡長算出器、(23)は補間間隔算出器、
(24)は補間点抽出器、(25)はチェビシェフ距離算出部で
ある。
FIG. 1 is a block diagram showing an example of a voice recognition device that performs voice recognition by DP matching processing, and FIG. 2 is a DP.
FIG. 3 is a conceptual diagram for explaining the matching process, FIG. 3 is a diagram for explaining the trajectory in the acoustic parameter space, and FIG.
FIGS. 5, 5 and 6 show one-dimensional input patterns A,
FIG. 7 is a diagram showing examples of the standard pattern A ′ and the standard pattern B ′, and FIG. 7 is provided for explaining the time-axis normalization by the DP matching processing of the parameter time series of the input pattern A and the parameter time series of the standard pattern A ′. FIG. 8 is a diagram for explaining the normalization of the time axis by the DP matching processing of the parameter time series of the input pattern A and the parameter time series of the standard pattern B ′, and FIG. 9 is the speech recognition apparatus of the present invention. FIG. 10, FIG. 11, FIG. 12, FIG. 12 and FIG. 14 are diagrams showing an embodiment of the present invention, respectively.
The figure is a flow chart for explaining the interpolation point extractor.
FIG. 17 and FIG. 17 are diagrams showing the one-dimensional acoustic parameter time series of the input pattern A, the standard pattern A ′ and the standard pattern B ′ processed by the NAT processing section, respectively. (1) is a microphone as an audio signal input section, (2) is an acoustic analysis section, (3) is a mode switch, (4) is a standard pattern memory, (6) is a minimum distance determiner, (11 A ), (11 B ) , …… , (1
1 O ) is a 15-channel digital bandpass filter bank, (16) is a parameter memory in the voice section, and (21) is a NAT.
Processing unit, (22) trajectory length calculator, (23) interpolation interval calculator,
(24) is an interpolation point extractor, and (25) is a Chebyshev distance calculation unit.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 渡 雅男 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (56)参考文献 日本音響学会講演論文集 昭和59年10月 1−9−9 P.17−18 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Masao Watanabe 6-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (56) References Proceedings of the Acoustical Society of Japan, October 1984 1-9 -9P. 17-18

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】音声信号入力部と、 前記音声信号入力部からの音声信号を音響パラメータ系
列に変換する変換部と、 前記音響パラメータ系列からそのパラメータ空間におけ
る軌跡を推定する推定部と、 前記推定部において推定された前記軌跡に基づいて前記
音声信号を認識する認識部と、 を備えたことを特徴とする音声認識装置。
1. An audio signal input unit, a conversion unit for converting an audio signal from the audio signal input unit into an acoustic parameter sequence, an estimation unit for estimating a trajectory in the parameter space from the acoustic parameter sequence, and the estimation. A voice recognition device comprising: a recognition unit that recognizes the voice signal based on the trajectory estimated by the unit.
JP59106178A 1984-05-25 1984-05-25 Voice recognizer Expired - Lifetime JPH0634182B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59106178A JPH0634182B2 (en) 1984-05-25 1984-05-25 Voice recognizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59106178A JPH0634182B2 (en) 1984-05-25 1984-05-25 Voice recognizer

Publications (2)

Publication Number Publication Date
JPS60249199A JPS60249199A (en) 1985-12-09
JPH0634182B2 true JPH0634182B2 (en) 1994-05-02

Family

ID=14426985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59106178A Expired - Lifetime JPH0634182B2 (en) 1984-05-25 1984-05-25 Voice recognizer

Country Status (1)

Country Link
JP (1) JPH0634182B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59106177A (en) * 1982-12-10 1984-06-19 松下電器産業株式会社 Circuit device for mounting chip electronic part

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
日本音響学会講演論文集昭和59年10月1−9−9P.17−18

Also Published As

Publication number Publication date
JPS60249199A (en) 1985-12-09

Similar Documents

Publication Publication Date Title
US7756700B2 (en) Perceptual harmonic cepstral coefficients as the front-end for speech recognition
CA1227286A (en) Speech recognition method and apparatus thereof
JP2692581B2 (en) Acoustic category average value calculation device and adaptation device
WO2004111996A1 (en) Acoustic interval detection method and device
JP2745535B2 (en) Voice recognition device
JPH0634181B2 (en) Voice recognizer
JPH0634182B2 (en) Voice recognizer
JPH0632022B2 (en) Voice recognizer
JPH0634183B2 (en) Voice recognizer
JPH0668678B2 (en) Voice recognizer
JPH0792674B2 (en) Voice recognizer
JP2502880B2 (en) Speech recognition method
JPH0632004B2 (en) Voice recognizer
JP4576612B2 (en) Speech recognition method and speech recognition apparatus
JPH0572598B2 (en)
JPH0573036B2 (en)
JP2585214B2 (en) Pitch extraction method
JPH05313695A (en) Voice analyzing device
JPH0424717B2 (en)
JPH0654439B2 (en) Voice recognizer
JPH0632008B2 (en) Voice recognizer
JPH0632009B2 (en) Voice recognizer
JPH0632010B2 (en) Voice recognizer
JPS61275799A (en) Voice recognition equipment
JPH0632011B2 (en) Voice recognizer

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term