JPH01997A - Speech recognition method using vector quantization - Google Patents

Speech recognition method using vector quantization

Info

Publication number
JPH01997A
JPH01997A JP62-156960A JP15696087A JPH01997A JP H01997 A JPH01997 A JP H01997A JP 15696087 A JP15696087 A JP 15696087A JP H01997 A JPH01997 A JP H01997A
Authority
JP
Japan
Prior art keywords
vector quantization
codebook
speech recognition
recognition
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP62-156960A
Other languages
Japanese (ja)
Other versions
JPS64997A (en
JPH067345B2 (en
Inventor
哲 中村
清宏 鹿野
Original Assignee
株式会社 エイ・ティ・ア−ル自動翻訳電話研究所
Filing date
Publication date
Application filed by 株式会社 エイ・ティ・ア−ル自動翻訳電話研究所 filed Critical 株式会社 エイ・ティ・ア−ル自動翻訳電話研究所
Priority to JP62156960A priority Critical patent/JPH067345B2/en
Priority claimed from JP62156960A external-priority patent/JPH067345B2/en
Publication of JPS64997A publication Critical patent/JPS64997A/en
Publication of JPH01997A publication Critical patent/JPH01997A/en
Publication of JPH067345B2 publication Critical patent/JPH067345B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 [産業上の利用分野] この発明はベクトル量子化を用いた音声認識方式に関し
、特に、ベクトル量子化を用いたテンプレートマツチン
グによる音声認識方式に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a speech recognition method using vector quantization, and particularly to a speech recognition method using template matching using vector quantization.

[従来の技術および発明が解決しようとする問題点] 自動翻訳電話では、入力として音声が用いられるが、入
力された音声を認識する必要がある。音声認識として、
従来よりベクトル量子化を用いる手法が考えられている
。従来のベクトル量子化を用いた音声認識では、計算量
およびメモリの増加を抑えて認識性能を向上させるべく
、ベクトル量子化に用いるスペクル歪み尺度の改良が行
なわれ、種々の特徴の組合わせの複合スペクトル歪尺度
が提案されている。この方法では、スペクトル歪み尺度
に多種の特徴間を混在させ、それらの間の依存関係を拘
束条件として用い、より認識性能の良い空間へ特徴を写
像するところに意味があった。
[Prior Art and Problems to be Solved by the Invention] Automatic translation telephones use speech as input, but it is necessary to recognize the input speech. As voice recognition,
Conventionally, methods using vector quantization have been considered. In conventional speech recognition using vector quantization, improvements have been made to the spectral distortion measure used in vector quantization in order to improve recognition performance by suppressing increases in computational complexity and memory. A spectral distortion measure has been proposed. The significance of this method is to mix various types of features in the spectral distortion scale, use the dependencies between them as constraints, and map the features to a space with better recognition performance.

しかし、この方法では、次に述べるような大きな2つの
問題点があった。
However, this method has two major problems as described below.

■ 各特徴間間の依存関係がベクトル量子化のフードブ
ック内で統計的に妥当性を持つためには、非常に多くの
ラーニングサンプルとこのための膨大な計算時間が必要
である。
■ In order for the dependencies between each feature to have statistical validity in the food book of vector quantization, a large number of learning samples and an enormous amount of calculation time are required.

■ コードブックサイズで見た場合、各特徴に必要なコ
ードブックサイズは特徴間の依存関係を拘束条件にする
ことで減少する。しかし、それでも全体のコードブック
サイズは各特徴に必要なコードブックサイズの積になっ
て、非常に大きくなってしまい、膨大なメモリが必要で
あった。
■ In terms of codebook size, the codebook size required for each feature can be reduced by using the dependencies between features as a constraint. However, the overall codebook size is still the product of the codebook sizes required for each feature, resulting in a very large size and requiring a huge amount of memory.

それゆえに、この発明の主たる目的は、ベクトル量子化
として各特徴ごとに別々にコードブックを生成し、別々
のベクトル量子化を行なうセパレートベクトル量子化を
用いることにより、従来の問題点を解消し得るベクトル
量子化を用いた音声認識方式を提供することである。
Therefore, the main purpose of the present invention is to solve the conventional problems by using separate vector quantization, which generates a codebook separately for each feature and performs separate vector quantization. The object of the present invention is to provide a speech recognition method using vector quantization.

[問題点を解決するための手段] この発明は、入力音声をベクトル量子化による符号列と
して格納されている標準パターンと照合することにより
認識を行なうベクトル量子化を用いた音声認識方式であ
って、入力音声の特徴の種類に応じて複数のコードブッ
クを有し、各コードブックについて各ベクトル量子化を
行ない、求められた複数のコード列を用いて認識を行な
うように構成したものである。
[Means for Solving the Problems] The present invention is a speech recognition method using vector quantization that performs recognition by comparing input speech with a standard pattern stored as a vector quantized code string. , has a plurality of codebooks depending on the type of characteristics of input speech, performs vector quantization on each codebook, and performs recognition using the plurality of code strings obtained.

[作用] この発明に係るベクトル量子化を用いた音声認識方式で
は、入力音声の特徴の種類に応じたコードブックについ
てベクトル量子化を行なうことにより、コードブックサ
イズは各特徴に必要なコードブックサイズの和になり、
全体のコードブックサイズを軽減できる。
[Operation] In the speech recognition method using vector quantization according to the present invention, by performing vector quantization on a codebook according to the type of feature of input speech, the codebook size can be changed to the codebook size required for each feature. becomes the sum of
The overall codebook size can be reduced.

[発明の実施例コ 以下に、図面を参照して、この発明の実施例についてよ
り具体的に説明する。
[Embodiments of the Invention] Hereinafter, embodiments of the invention will be described in more detail with reference to the drawings.

第1図はこの発明の音声認識装置の概略ブロック図であ
る。
FIG. 1 is a schematic block diagram of a speech recognition device according to the present invention.

第1図において、音声認識装置は、アンプ1とローパス
フィルタ2とA/D変換器3と処理装置4とから構成さ
れる。アンプ1は入力された音声信号を増幅するもので
あり、ローパスフィルタ2は増幅された音声信号から折
返し雑音を除去するものである。A/D変換器3は音声
信号を12kHzのサンプリング信号により16ビツト
のディジタル信号に変換するものである。処理装置4は
コンピュータ5と磁気ディスク6と端末類7とプリンタ
8とを含む。コンピュータ5はA/D変換器3から入力
された音声のディジタル信号に基づいて音声認識を行な
うものである。
In FIG. 1, the speech recognition device includes an amplifier 1, a low-pass filter 2, an A/D converter 3, and a processing device 4. The amplifier 1 is for amplifying an input audio signal, and the low-pass filter 2 is for removing aliasing noise from the amplified audio signal. The A/D converter 3 converts the audio signal into a 16-bit digital signal using a 12 kHz sampling signal. The processing device 4 includes a computer 5, a magnetic disk 6, a terminal 7, and a printer 8. The computer 5 performs voice recognition based on the voice digital signal input from the A/D converter 3.

第2図はこの発明の一実施例の音声信号の入力から認識
結果を出力するまでの全体の流れを示すフロー図であり
、第3図はセパレートベクトル量子化の動作を軸説明す
るためのフロー図であり、第4図はマツチング動作を説
明するためのフロー図である。
FIG. 2 is a flowchart showing the overall flow from inputting an audio signal to outputting a recognition result in an embodiment of the present invention, and FIG. 3 is a flowchart for explaining the operation of separate vector quantization. FIG. 4 is a flowchart for explaining the matching operation.

次に、第1図ないし第4図を参照して、この発明の一実
施例の動作について説明する。入力された音声信号はア
ンプ1によって増幅され、ローパスフィルタ2によって
折返し雑音が除去された後、第2図に示すステップ(図
示ではSPと略称する)SPIにおいて、A/D変換器
3が入力された音声信号を16ビツトのディジタル信号
に変換する。
Next, the operation of one embodiment of the present invention will be described with reference to FIGS. 1 to 4. The input audio signal is amplified by the amplifier 1, and after aliasing noise is removed by the low-pass filter 2, the input audio signal is input to the A/D converter 3 in step SPI (abbreviated as SP in the diagram) shown in FIG. Converts the audio signal into a 16-bit digital signal.

処理装置4のコンピュータ5はステップSP2において
、ディジタル信号に変換された音声の特徴抽出を行なう
。この特徴抽出では、たとえば線形子n1分析(LPG
分析)などの手法を用いて行なわれる。
In step SP2, the computer 5 of the processing device 4 extracts features of the audio converted into a digital signal. In this feature extraction, for example, linear child n1 analysis (LPG
This is done using methods such as analysis).

ステップSP3において音声認識が行なわれる。Speech recognition is performed in step SP3.

すなわち、ステップSP2において生成された特徴ごと
の特徴列は5plit法によるマツチング部で既に格納
されている標準パターンと照合され、マツチング距離が
ステップSP5における結果判定部5に送られる。なお
、ステップSP4における標準パターンは、特定話者認
識の場合は、予め使用者が認識単語を発声することによ
り作成し、不特定話者の場合は多数の話者が発声した音
声データベースを分析して代表パターンをマルチテンプ
レートとして作成し、磁気ディスク6に格納されている
。ステップSP5における結果判定部では、認識候補に
対して結果が適切かどうかの判断を行ない、認識結果を
出力する。
That is, the feature string for each feature generated in step SP2 is matched with the standard pattern already stored in the matching section using the 5-plit method, and the matching distance is sent to the result determining section 5 in step SP5. Note that in the case of specific speaker recognition, the standard pattern in step SP4 is created by the user uttering the recognized word in advance, and in the case of non-specific speaker recognition, it is created by analyzing a database of voices uttered by a large number of speakers. The representative pattern is created as a multi-template and stored on the magnetic disk 6. The result determination unit in step SP5 determines whether the result is appropriate for the recognition candidate and outputs the recognition result.

次に、第3図を参照して、前述の第2図に示した特徴抽
出およびセパレートベクトル量子化の動作についてより
詳細に説明する。特徴抽出では、ステップ5PIIにお
いて、16ビツトのディジタル信号に変換された音声信
号に対して、14次の自己相関分析によるLPG分析を
行ない、入力音声の特徴であるパワーと自己相関係数、
LPCケプストラム係数を抽出する。ステップ5P12
において、パワーのコードブック生成であるか否かを判
別し、パワーのコードブック生成であれば、ステップ5
P13において、人力音声のパワーをスカラー量子化す
る。スカラー量子化では、不拘−m子化の手法を用いて
、ステップ5P13においてパワーコードブックを生成
し、ステップ5P14において生成したパワーコードブ
ックを磁気ディスク6に格納する。
Next, with reference to FIG. 3, the operations of feature extraction and separate vector quantization shown in FIG. 2 will be described in more detail. In feature extraction, in step 5PII, the audio signal converted to a 16-bit digital signal is subjected to LPG analysis using 14th order autocorrelation analysis, and the power and autocorrelation coefficient, which are the characteristics of the input audio, are extracted.
Extract LPC cepstral coefficients. Step 5P12
In step 5, it is determined whether the power codebook generation is to be performed, and if it is the power codebook generation, step 5 is performed.
In P13, the power of the human voice is scalar quantized. In the scalar quantization, a power codebook is generated in step 5P13 using an inconsequential-m childization method, and the generated power codebook is stored on the magnetic disk 6 in step 5P14.

パワーコードブックの生成でないとき、すなわち息子化
時には、ステップ5P14におけるパワーコードブック
を用いて、ステップ5P15において量子化を行ない、
パワーに関するコード列を出力する。
When not generating a power codebook, that is, at the time of sonization, quantization is performed at step 5P15 using the power codebook at step 5P14,
Outputs a code string related to power.

一方、ステップ5P16において、LPC相関係数およ
びLPCケプストラム係数のコードブック生成であるこ
とが判別されると、ステップ5P17において、LBG
アルゴリズムにより、WLR尺度に基づいてコードブッ
クが生成され、ステップ5P18において生成されたコ
ードブックが磁気ディスク6に格納される。
On the other hand, if it is determined in step 5P16 that the codebook generation is for LPC correlation coefficients and LPC cepstral coefficients, then in step 5P17, LBG
The algorithm generates a codebook based on the WLR measure, and the generated codebook is stored on the magnetic disk 6 in step 5P18.

ここで、LBGアルゴリズムについては、Linde、
Buzo、Gray;  “An  alg。
Here, regarding the LBG algorithm, Linde,
Buzo, Gray; “An alg.

rithm  for  Vector  Quant
ization  Design−IEEE  C0M
−28(1980−01)に記載されている。
rithm for Vector Quant
ization Design-IEEE C0M
-28 (1980-01).

また、WLR尺度は、音声の特徴を強調する尺度であり
、単語音声の認識において高い性能を示すものであり、
杉山、鹿野による“ピークに重みをおいたLPGスペク
トルマツチング尺度”電子通信学会論文(A)J64−
A5 (1981−05)に記載されている。
In addition, the WLR scale is a scale that emphasizes the characteristics of speech and shows high performance in word speech recognition.
Sugiyama and Kano, “LPG spectral matching measure with peak weight”, Institute of Electronics and Communication Engineers paper (A) J64-
A5 (1981-05).

なお、LPG相関係数およびLPCケプストラム係数の
コードブック生成でないとき、すなわち、量子化時には
、人力音声の自己相関係数とLPCケプストラム係数に
用いて、ステップ5P18におけるスペクトルコードブ
ックを用いて、ステップ5P19においてベクトル量子
化を行ない、スペクトル情報に関す、るコード列を出力
する。
Note that when the codebook of LPG correlation coefficients and LPC cepstrum coefficients is not generated, that is, at the time of quantization, the spectral codebook in step 5P18 is used for the autocorrelation coefficients and LPC cepstrum coefficients of human speech, and step 5P19 is performed. Vector quantization is performed at , and a code string related to spectral information is output.

ここで、コードブック生成、量子化に用いたスペクトル
歪み尺度は次のものである。
Here, the spectral distortion measure used for codebook generation and quantization is as follows.

d   −P/P’ 十P’ /P−2・・・(1)o
wer d5.。o、rUll−’i (C(n)−C’ (n
)) (R(n)−R’ (n))・・・(2) d    :パワー項の歪み尺度 ower dspectrum ’スペクトル歪み尺度1?(n)
    :コードブックのn次の自己相関係数R’(n
):人力のn次の自己相関係数C(n)    :コー
ドブックのn次のLPCケプストラム係数 C’(n):人力のn次の LPCケプストラム係数 前述したように、標準パターン作成時には、このコード
列を標準パターンとして格納し、認識時には標準パター
ンのコード列とのマ・ソチングを行なう。
d -P/P'10P' /P-2...(1)o
wer d5. . o, rUll-'i (C(n)-C' (n
)) (R(n)-R' (n))...(2) d: Distortion measure of power term lower dspectrum 'Spectral distortion measure 1? (n)
: n-th autocorrelation coefficient R'(n
): Human-powered nth-order autocorrelation coefficient C(n): Codebook n-th-order LPC cepstrum coefficient C'(n): Human-powered nth-order LPC cepstrum coefficient As mentioned above, when creating a standard pattern, this The code string is stored as a standard pattern, and during recognition, ma-soching with the code string of the standard pattern is performed.

次に、第4図を参照して、マ・ノチング方法について説
明する。セパレートベクトル量子化により、パワーとス
ペクトルとを別々にベクトル量子化して生成されたコー
ド列と、コード列として格納されている標準パターンと
に基づいて、ステップ5P21において、5prit法
によりマツチングが行なわれる。ステップ5P22にお
ける標準パターンには、セパレートベクトル量子化によ
りコード化されたパワーおよびスペクトルの標準パター
ンが格納されている。そして、ステップ5P21におけ
るマツチングにおいては、Dr (dynamic  
programming:動的計画法)マツチングにお
ける局部距離は、ステップ5P24において予め特徴ベ
クトル系列とフードブックのベクトルの時間−距離マト
リクスを作成しておき、この表びきを行なうことによっ
てマツチングを行なう。このようにして、順番に標準パ
ターンとマツチングして求めた入力音声と標準パターン
の距離をステップ5P25における結果判定部に出力す
る。
Next, the ma-notching method will be explained with reference to FIG. In step 5P21, matching is performed by the 5prit method based on the code string generated by vector quantizing the power and spectrum separately and the standard pattern stored as the code string. The standard pattern in step 5P22 stores a standard pattern of power and spectrum coded by separate vector quantization. Then, in the matching in step 5P21, Dr (dynamic
For local distances in matching, a time-distance matrix of the feature vector series and food book vectors is created in advance in step 5P24, and matching is performed by performing this table search. In this way, the distance between the input voice and the standard pattern obtained by sequential matching with the standard pattern is output to the result determination section in step 5P25.

ここで、マツチング法についてより具体的に説明する。Here, the matching method will be explained in more detail.

従来のマツチングでは、入力も標準パターンも1つの特
徴列あるいはコード列であったが、セパレートベクトル
量子化においては、一般に複数のコード列により構成さ
れる。この実施例においても、前述の実施例と同様にし
て、パワーコード列とスペクトルコード列の2系列のマ
ツチング手法を用いており、以下にその例について説明
する。
In conventional matching, both the input and the standard pattern are one feature string or code string, but in separate vector quantization, they are generally composed of a plurality of code strings. This embodiment also uses a two-series matching method of a power code string and a spectral code string, as in the previous embodiment, and an example thereof will be described below.

パワーとスペクトルの両方の情報を考えた場合の距離尺
度として、PWLR尺度があるが、これは次の第(3)
式で示される。
There is a PWLR measure as a distance measure when both power and spectrum information are considered, but this measure is based on the following (3)
It is shown by the formula.

’PWLI?−Σ  (C(n)−C’  (n))(
R(n)−1?  ’  (n))、+a・(P/P’
  + P’ /P−2)      −(3)a−0
,01 従来の5plit法によるコード列のマツチングでは、
標準パターン側のみがベクトル量子化により有限の点で
表わされる。入力音声の特徴ベクトル系列に対して、予
めすべてのコードブックとの距離を求めて時間−距離マ
トリックスに格納しておく。したがって、 dpylR(1゛J) 一Σ(CI (n)−CK(j)(n))(J (n)
−RK(j)<n))+1°(PI/PK(j)+PK
(j)/Pi−2)Ri (n) 、CI (n) 、
Pi :入力音声のiフレームのn次の自己ill関係
数、LPCケプストラム係数、パワーであり、 1?K(j)(n” CK(j)(n)PK(j) ’
標準パワーコード列にの1番目のコードのn次の自己相
関係数、LPCケプストラム係数、パワーである。
'PWLI? -Σ (C(n)-C' (n))(
R(n)-1? ' (n)), +a・(P/P'
+P'/P-2) -(3)a-0
,01 In matching code strings using the conventional 5plit method,
Only the standard pattern side is represented by finite points by vector quantization. For the feature vector series of input speech, the distances to all codebooks are calculated in advance and stored in a time-distance matrix. Therefore, dpylR(1゛J) one Σ(CI(n)−CK(j)(n))(J(n)
-RK(j)<n))+1°(PI/PK(j)+PK
(j)/Pi-2) Ri (n), CI (n),
Pi: n-th self-ill relation coefficient, LPC cepstral coefficient, power of i-frame of input audio, 1? K(j)(n"CK(j)(n)PK(j)'
These are the nth-order autocorrelation coefficient, LPC cepstral coefficient, and power of the first code in the standard power code string.

しかし、セパレートベクトル量子化では、2つの系列を
有するので次のようにして距離を求める。
However, since separate vector quantization has two sequences, the distance is determined as follows.

d[Pl [Wl、R](+、、+)   ’−Σ(C
,(n)−CK(j)(ト)) R,(n)−RK(j
、 (n))+3°(P I/PI、(j) + PL
(j)/Pi −2)Pl、(j):標準ハターンコー
ド列りのj番口のコードのパワーである。
d[Pl[Wl,R](+,,+)'-Σ(C
, (n)-CK(j)(g)) R,(n)-RK(j
, (n)) + 3° (PI/PI, (j) + PL
(j)/Pi-2)Pl, (j): Power of the j-th chord in the standard pattern string.

これは、PWLR尺度の第1項と第2項を別々にコード
化して距離を計算し、和を求めたたものである。この局
部距離の尺度を用いて、DPマツチングにより距離を求
める。
This is obtained by separately encoding the first and second terms of the PWLR scale, calculating the distance, and finding the sum. Using this local distance measure, the distance is determined by DP matching.

[発明の効果] 以上のように、この発明によれば、入力音声の特徴の種
類に応じて複数のコードブックを有し、各コードブック
についてベクトル量子化を行ない、求められた複数のコ
ード列を用いて認識を行なうようにしたので、各特徴の
依存項を無視でき、ラーニングサンプルを少なくてすみ
、計算量を減少できる。ただし、セパレートすることに
より、別のベクトル量子化系を構成するので、この分だ
け計算量は多少増加するが、ラーニングサンプルが少な
いので、十分計算量を減少できる。また、コードブック
サイズはセパレートベクトル量子化では、各特徴に必要
なコードブックサイズの和になるので、全体のコードブ
ックサイズを激減することができる。
[Effects of the Invention] As described above, according to the present invention, a plurality of codebooks are provided according to the types of characteristics of input speech, vector quantization is performed for each codebook, and a plurality of obtained code strings are Since recognition is performed using , the dependence term of each feature can be ignored, the number of learning samples can be reduced, and the amount of calculation can be reduced. However, by separating, a separate vector quantization system is constructed, so the amount of calculation increases somewhat, but since the number of learning samples is small, the amount of calculation can be sufficiently reduced. Furthermore, in separate vector quantization, the codebook size is the sum of the codebook sizes required for each feature, so the overall codebook size can be drastically reduced.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の音声認識装置の概略ブロック図であ
る。第2図は5plit法による音声認識の全体の流れ
を示すフロー図である。第3図はセパレートベクトル量
子化の動作を説明するためのフロー図である。第4図は
マツチング動作を説明するためのフロー図である。 図において、1はアンプ、2はローパスフィルタ、3は
A/D変換器、4は処理装置、5はコンピュータ、6は
磁気ディスク、7は端末類、8はプリンタを示す。 特許出願人 エイ・ティ・アール自動翻訳電話研究所
FIG. 1 is a schematic block diagram of a speech recognition device according to the present invention. FIG. 2 is a flow diagram showing the overall flow of speech recognition using the 5-plit method. FIG. 3 is a flow diagram for explaining the operation of separate vector quantization. FIG. 4 is a flow diagram for explaining the matching operation. In the figure, 1 is an amplifier, 2 is a low-pass filter, 3 is an A/D converter, 4 is a processing device, 5 is a computer, 6 is a magnetic disk, 7 is a terminal, and 8 is a printer. Patent applicant A.T.R. Automatic Translation Telephone Research Institute

Claims (1)

【特許請求の範囲】 入力音声を、ベクトル量子化による符号列として格納さ
れている標準パターンと照合することにより認識を行な
う音声認識方式において、 前記入力音声の特徴の種類に応じて、複数のコードブッ
クを有し、各コードブックについてベクトル量子化を行
ない、求められた複数の符号列を用いて認識を行なうよ
うにしたことを特徴とする、ベクトル量子化を用いた音
声認識方式。
[Claims] In a speech recognition method that performs recognition by comparing input speech with a standard pattern stored as a vector quantized code string, a plurality of codes are recognized according to the types of characteristics of the input speech. A speech recognition method using vector quantization, characterized in that the method has a book, performs vector quantization on each codebook, and performs recognition using a plurality of obtained code strings.
JP62156960A 1987-06-24 1987-06-24 Speech recognition method using vector quantization Expired - Fee Related JPH067345B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62156960A JPH067345B2 (en) 1987-06-24 1987-06-24 Speech recognition method using vector quantization

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62156960A JPH067345B2 (en) 1987-06-24 1987-06-24 Speech recognition method using vector quantization

Publications (3)

Publication Number Publication Date
JPS64997A JPS64997A (en) 1989-01-05
JPH01997A true JPH01997A (en) 1989-01-05
JPH067345B2 JPH067345B2 (en) 1994-01-26

Family

ID=15639078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62156960A Expired - Fee Related JPH067345B2 (en) 1987-06-24 1987-06-24 Speech recognition method using vector quantization

Country Status (1)

Country Link
JP (1) JPH067345B2 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01239600A (en) * 1988-03-22 1989-09-25 Nippon Telegr & Teleph Corp <Ntt> Segment encoding method
US8658542B2 (en) 2006-03-09 2014-02-25 Tela Innovations, Inc. Coarse grid design methods and structures
US8448102B2 (en) 2006-03-09 2013-05-21 Tela Innovations, Inc. Optimizing layout of irregular structures in regular layout context
US7763534B2 (en) 2007-10-26 2010-07-27 Tela Innovations, Inc. Methods, structures and designs for self-aligning local interconnects used in integrated circuits
US8653857B2 (en) 2006-03-09 2014-02-18 Tela Innovations, Inc. Circuitry and layouts for XOR and XNOR logic
US7446352B2 (en) 2006-03-09 2008-11-04 Tela Innovations, Inc. Dynamic array architecture
US7956421B2 (en) 2008-03-13 2011-06-07 Tela Innovations, Inc. Cross-coupled transistor layouts in restricted gate level layout architecture
US9230910B2 (en) 2006-03-09 2016-01-05 Tela Innovations, Inc. Oversized contacts and vias in layout defined by linearly constrained topology
US8541879B2 (en) 2007-12-13 2013-09-24 Tela Innovations, Inc. Super-self-aligned contacts and method for making the same
KR100837842B1 (en) * 2006-08-10 2008-06-13 씨제이제일제당 (주) - - A microorganism whose activity of Aspartate Semialdehyde Dehydrogenase is enhanced and the process for producing L-threonine using the microorganism
JP3882939B1 (en) * 2006-08-11 2007-02-21 助川化学株式会社 Method for treating and preventing fish succichiosis
KR100825297B1 (en) * 2006-08-29 2008-04-28 재단법인 포항산업과학연구원 Smart Motor Controller for sharing data and the method thereof
KR100828233B1 (en) * 2006-11-15 2008-05-07 윤수경 Method of making jeungpyun
KR100886358B1 (en) * 2006-12-27 2009-03-03 전남대학교산학협력단 Avirulent attenuated strain of Pasteurella multocida and live vaccine containing the same
KR100841207B1 (en) * 2007-01-31 2008-06-24 성균관대학교산학협력단 Recombinant vaccine for preventing and treating porcine atrophic rhinitis
US7939443B2 (en) 2008-03-27 2011-05-10 Tela Innovations, Inc. Methods for multi-wire routing and apparatus implementing same
SG10201608214SA (en) 2008-07-16 2016-11-29 Tela Innovations Inc Methods for cell phasing and placement in dynamic array architecture and implementation of the same
US9159627B2 (en) 2010-11-12 2015-10-13 Tela Innovations, Inc. Methods for linewidth modification and apparatus implementing the same
RS61130B1 (en) 2013-10-11 2020-12-31 Designerscope Ltd Cabinet levelling apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57177198A (en) * 1981-04-24 1982-10-30 Fujitsu Ltd Recognizing treating device for sound

Similar Documents

Publication Publication Date Title
JPH01997A (en) Speech recognition method using vector quantization
JP3680380B2 (en) Speech coding method and apparatus
JP4005154B2 (en) Speech decoding method and apparatus
US20110131038A1 (en) Exception dictionary creating unit, exception dictionary creating method, and program therefor, as well as speech recognition unit and speech recognition method
JPH067345B2 (en) Speech recognition method using vector quantization
JPH01996A (en) Speech recognition method using vector quantization
JPH07110695A (en) Voice coding device and method
JP2709386B2 (en) Spectrogram normalization method
JPH01998A (en) How to normalize spectrograms
JPH067344B2 (en) Speech recognition method using vector quantization
Shariah et al. Human computer interaction using isolated-words speech recognition technology
JPS5827200A (en) Voice recognition unit
Syiem et al. Comparison of Khasi speech representations with different spectral features and hidden Markov states
Syfullah et al. Efficient vector code-book generation using K-means and Linde-Buzo-Gray (LBG) algorithm for Bengali voice recognition
Davidson et al. Multiple-stage vector excitation coding of speech waveforms
Ananthakrishna et al. Kannada word recognition system using HTK
JP2709926B2 (en) Voice conversion method
JPH10254473A (en) Method and device for voice conversion
JPH0764599A (en) Method for quantizing vector of line spectrum pair parameter and method for clustering and method for encoding voice and device therefor
Lingam Speaker based language independent isolated speech recognition system
Li Speech recognition of mandarin monosyllables
Oo et al. Normal and whispered speech recognition systems for Myanmar digits
Bedyakin et al. Language ID Prediction from Speech Using Self-Attentive Pooling and 1D-Convolutions
KR100451539B1 (en) Speech synthesizing method for a unit selection-based tts speech synthesis system
JP2880508B2 (en) Speech rule synthesizer