JPH0451199A - 音声符号化・復号化方式 - Google Patents

音声符号化・復号化方式

Info

Publication number
JPH0451199A
JPH0451199A JP2161041A JP16104190A JPH0451199A JP H0451199 A JPH0451199 A JP H0451199A JP 2161041 A JP2161041 A JP 2161041A JP 16104190 A JP16104190 A JP 16104190A JP H0451199 A JPH0451199 A JP H0451199A
Authority
JP
Japan
Prior art keywords
vector
code
pitch prediction
orthogonal
gain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2161041A
Other languages
English (en)
Inventor
Jiyonson Maaku
マーク・ジョンソン
Tomohiko Taniguchi
智彦 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2161041A priority Critical patent/JPH0451199A/ja
Priority to CA002044750A priority patent/CA2044750C/en
Priority to DE69126062T priority patent/DE69126062T2/de
Priority to EP91109947A priority patent/EP0462559B1/en
Publication of JPH0451199A publication Critical patent/JPH0451199A/ja
Priority to US08/811,451 priority patent/US5799131A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/083Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being an excitation gain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0003Backward prediction of gain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0011Long term prediction filters, i.e. pitch estimation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0013Codebook search algorithms
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [概  要〕 ベクトル量子化を用いて音声信号の情報圧縮・伸長を行
う高能率な音声符号化・復号化方式に関し、 逐次最適化/同時最適化CELP型の各音声符号化方式
の長所を生かして音声の再生品質と演算量の両者におい
て満足の行く符号化・復号化を実現することを目的とし
、 適応符号帳の各ピッチ予測残差ベクトルに聴覚重み付け
しゲインを乗じて生成されたピッチ予測再生信号と聴覚
重み付けされた入力音声信号ベクトルとのピッチ予測誤
差信号ベクトルを求め、該ピッチ予測誤差信号ベクトル
の電力を最小にするピッチ予測残差ベクトルを評価部が
該適応符号帳から選択すると共にゲインを選択し、更に
白色雑音の固定符号帳の各コード・ベクトルを、該聴覚
重み付けされた各ピッチ予測残差ベクトルの内の最適時
のピッチ予測残差ベクトルに直交した聴覚重み付け再生
コード・ベクトルに重み付け直交変換部で変換し、ゲイ
ンを乗じて線形予測再生信号を生成し、該線形予測再生
信号と該聴覚重み付けされた入力音声信号ベクトルとか
ら線形予測誤差信号ベクトルを最小にするコード・ベク
トルを評価部が該固定符号帳から選択しゲインを選択す
るように構成する。
[産業上の利用分野〕 本発明は、音声符号化・復号化方式に関し、特にベクト
ル量子化を用いて音声信号の情報圧縮・伸長を行う高能
率な音声符号化・復号化方式に関するものである。
近年、企業内通信システム・ディジタル移動無線システ
ムなどにおいて、音声信号をその品質を保持しつつ情報
圧縮するベクトル量子化方式が用いられているが、この
ベクトル量子゛化方式とは、符号帳(コードブック)の
各信号ベクトルに予測重み付けを施して再生信号を作り
、再生信号と入力音声信号との間の誤差電力を評価して
最も誤差の少ない信号ベクトルの番号(インデックス)
を決定するものとして良く知られたものであるが、音声
情報をより一層圧縮するためこのベクトル量子化方式を
より進めた方式に対する要求が高まっている。
〔従来の技術〕
第21図及び第22図には、ベクトル量子化を用いたC
 E L P (Code Excited LPC)
と呼ばれる高能率音声符号化方式が示されており、この
内、第21図は逐次最適化CELPと呼ばれ、第22図
は同時最適化CELPと呼ばれる方式を示している。
第21図において、適応符号帳1にはlサンプルづつピ
ッチ周期が遅延されたNサンプルに対応するN次元のピ
ッチ予測残差ベクトルが格納されており、またスパース
符号帳2には同様のNサンプルに対応するN次元の白色
雑音を用いて生成したコード・ベクトルが211パター
ンだけ予め設定されているが、各コード・ベクトルのサ
ンプルデータのうち、その振幅が一定の闇値以下のサン
プル・データ(例えばNサンプルのうちのN/4サンプ
ル)は0で置き換えられている。(従って、このような
符号帳をスパース(間引き)符号帳と呼ぶ。)各ベクト
ルはN次元の要素の電力が一定値となるように正規化さ
れている。
まず、適応符号帳1の各ピッチ予測残差ベクトルPに1
/A’(z)(但し、A’(Z)は聴覚重み付け線形予
測分析フィルタを示す)で示される聴覚重み付け線形予
測再生フィルタ3で聴覚重み付けして生成されたピッチ
予測ベクトルAPにゲイン5でゲインbを乗算してピッ
チ予測再生信号ベクトルbAPを生成する。
そして、このピッチ予測再生信号ベクトルbAPと、A
(Z)/A’ (Z) (但し、A (Z)は線形予測
分析フィルタを示す)で示される聴覚重み付けフィルタ
7で聴覚重み付けされた入力音声信号ベクトルAXとの
ピッチ予測誤差信号ベクトルAVを減算部8で求め、こ
のピッチ予測誤差信号ベクトルAYの電力が最小の値に
なるように評価部10がフレーム毎に下記式■; AY l ” = l AX−bAP l    ・・
・・・・■により、符号帳1中から最適なピッチ予測残
差ベクトルPを選択すると共に最適なゲインbを選択す
る。
更に、白色雑音のスパース符号@2の各コード・ベクト
ルCにも同様にして線形予測再生フィルタ4で聴覚重み
付けして生成された聴覚重み付け再生後のコード・ベク
トルACにゲイン6でゲインgを乗算して線形予測再生
信号ヘクトルgACを生成する。
そして、この線形予測再生信号ベクトルgACと、上記
のピッチ予測誤差信号ベクトルAVとの誤差信号ベクト
ルEを減算部8で求め、この誤差信号ベクトルEの電力
が下記の弐■: E l” = IAY−gACI     ・・・・・
・■により最小の値になるように評価部11がフレーム
毎に符号帳2中から最適なコード・ベクトルCを選択す
ると共に最適なゲインgを選択する。
上記の式■、■より、 El” =lAX−bAP−gAcl”・・・■となる
尚、適応符号帳1の適応化は、bAP+gAcを加算部
12で求め、これを聴覚重み付け線形予測分析フィルタ
(A’ (Z))3でbp十gCに分析し、更に遅延器
14で1フレ一ム分遅延させたものを次のフレームの適
応符号帳(ピッチ予測符号@)として格納することによ
り行われる。
このように、第21図に示した逐次最適化CELP方式
では、ゲインbとgが別々に制御されるのに対し、第2
2図に示した同時最適化CELP方式では、bAPとg
ACとを加算部15で加算してAX’ =bAP十gA
Cを求め、更に減算部16でフィルタフからの聴覚重み
付けされた入力音声信号ベクトルAXとの誤差信号ベク
トルEを上記の式■と同様にして求め、評価部16がこ
のベクトルEの電力を最小にするコード・ベクトルCを
スパース符号帳2から選択すると共に最適なゲインbと
gを同時に選択制御するものである。
尚、この場合の適応符号帳1の適応化は、第21図の加
算部12の出力に相当するAX’ に対して同様にして
行われる。
第23図は、上記のような符号化側から伝送された信号
を再生する復号化側が示されており、選択され且つ伝送
されてきたコード・ブック1及び2のコード・ベクトル
番号並びにゲインb1gを用いてX’ =bP+gCを
求め、これを線形予測再生フィルタ200を通すことに
より再生音声を得ている。
以上の第21図及び第22図に概念的に示されたゲイン
b、gは実際には、第24図及び第25図に示すように
それぞれのCELP方式においてスパース符号帳2のコ
ード・ベクトル(C)について最適化を行う。
即ち、第21図の場合には、上記の式■において、ベク
トルEの電力を最小にするためのゲインgを偏微分によ
り求めると、 0=δ(IAY−gAct”)/δg =2  t(−AC)(AY−gAC)より、 g= t(AC)AY/ ’(AC)AC・・・■とな
る。
そこで第24図においては、ピッチ予測誤差信号ベクト
ルAYと、スパース符号@2の各コード・ベクトルCを
聴覚重み付け線形予測再生フィルタ4を通して得られる
コート・ベクトルACとを乗算部41で乗算して両者の
相関値t(AC) AYを発生し、聴覚重み付け再生後
のコード・ベクトルACの自己相関(1! t(AC)
 ACを乗算部42で求める。
そして、評価部11では、両相間値’(AC)AY及び
t(AC)ACに基づいて上記の式■により該ピッチ予
測誤差信号ベクトルAYに対する誤差信号ベクトルEの
電力を最小にする最適なコード・ベクトルC及びゲイン
gを選択する。
また、第22図の場合には、上記の弐〇において、ベク
トルEの電力を最小にするためのゲインb、gを偏微分
により求めると、 g= [’(AP)AP L(AC)AX−’(AC)
AP ’(AP)AX] /マb= [t(AC)AC
t(AP)AX−’(AC)AP t(AC)AX] 
/マ・・・・・・■ となる。但し、 一 t(AP)AP  L(AC)AC(ゝ(AC)A
P)” である。
そこで第25図においては、聴覚重み付けされた入力音
声信号ベクトルAXと、スパース符号帳2の各コード・
ベクトルCを聴覚重み付け線形予測再生フィルタ4を通
して得られる再生コートベクトルACとを乗算部51で
乗算して両者の相関値L(AC)AXを発生し、聴覚重
み付けされたピッチ予測ベクトルAPと、再生コード・
ベクトルACとを乗算部52で乗算して両者の相関値t
(AC)APを発生すると共に、再生コード・ベクトル
ACの自己相関値L(AC)ACを乗算部42で求める
そして、評価部16では、これらの相関値t(AC)A
X、’(AC)AP及び’(AC)ACに基づいて上記
の式■により聴覚重み付け入力音声信号ベクトルAXに
対する誤差信号ベクトルEの電力を最小にする最適なコ
ード・ベクトルC及びゲインb、  gを同時に選択す
る。
このように、逐次最適化CELP方式の場合には、同時
最適化CELP方式に比べて全体の演算量が少なくて済
むが、符号化された音声の品質は劣化したものとなる。
S発明が解決しようとした課題] 第26図(al及び(t))は、それぞれ上記の逐次最
適化CELP方式及び同時最適化CELP方式のゲイン
最適化動作について二次元の場合を例にとってベクトル
図で示したものであるが、同図(a)の逐次方式の場合
には、最適化されたベクトルAX“=bAP+gACを
得るには比較的少ない演算量で済むが、このベクトルA
X’ と入力ベクトルAXとは誤差が生し易く音声の再
生品質が悪くなる。
また、同図(b)の同時最適化方式では、二次元の場合
において図示のようにAX’ =AXとなるように、一
般に同時最適化方式は逐次最適化方式〇こ比べて音声の
再生品質は良くなるが、上記の式■に示すように演算量
が多くなってしまうという問題点があった。
従って、本発明は、このような逐次最適化/同時最適化
CE 1.、 P型の各音声符号化方式の長所を生かじ
で音声の再生品質と演算量の両者において満足の行く符
号化・復号化を実現することを目的とした。
〔課題を解決するための手段及び作用〕上記の課題を解
決するための本発明に係る音声符号化・復号化方式の種
々の原理を図面を参照して以下に説明する。
(1)第1図は本発明の音声符号化方式の基本的な原理
構成を示したもので、まず、ピッチ周期については従来
と同様に、適応符号帳1の各ピッチ予測残差ベクトルP
に聴覚重み付けAを与え、ゲインbを乗じて生成された
ピッチ予測再生信号bA、Pと聴覚重み付けされた入力
音声信号ベクトルAXとのどノチ予測誤差信号ベクトル
AYを求め、該ピッチ予測誤差信号ベクトルAYを最小
にするピッチ予測残差ベクトルを評価部10が適応符号
111!1から選択すると共にゲインbを選択するもの
である。
そして、本発明の特徴として、重み付け直交変換部20
を設け、白色雑音の固定符号帳2の各コード・ベクトル
Cを、該聴覚重み付けされた各ピッチ予測残差ベクトル
の内の最適時のピッチ予測残差ヘクI・ルAPに直交し
た聴覚重み付け再生コート・ベクトルAC’ に変換す
る。
この原理を更に第26図(C)で説明すると、上記のよ
うに聴覚重み付けされたピッチ予測再生信号ベクトルb
APに対して、符号帳2から取り出されて聴覚重み付け
Aが施されたコード・ベクトルACが直交していないこ
とが同図(a)のように逐次最適化方式において量子化
誤差を大きくする原因になっていることに鑑み、コード
・ベクトルACがピッチ予測残差ベクトルAPに直交す
るコード・ベクトルACに既知の手法により直交変換す
れば同図(a)の逐次最適化CELP方式においても同
時最適化方式と同程度まで量子化誤差を小さくすること
が出来る。
そして、このようにして得られたコード ベクトルAC
’にゲインgを乗じて線形予測再生信号gAC”を生成
し、該線形予測再生11号gAC’と聴覚重み付けされ
た入力音声信号ベクトルAXとから線形予測誤差信号ベ
クトルEを最小にするコード・ベクトルを評価部11が
符号帳2がら選択しゲインgを選択する。
このようにして、直交変換を行った上で、第24図に示
した逐次最適化を行っていることになり、コード・ベク
トルbAPとgAC’ とによる合成ベクトルAX’ 
は実際の聴覚重み付けされた入力信号ベクトルAXに同
時最適化方式の場合と同しくN=2)か同程度(N〉2
のとき)まで近付ける事ができ、量子化誤差も小さくな
る。
(2)第2図は、第1図に対応する復号化側の原理を示
したもので、重み付け直交変換部100を設けることに
より、白色雑音の固定符号帳2の最適選択されたコード
・ベクトルCを、適応符号帳1から最適選択されたピッ
チ予測残差ベクトルPと聴覚重み付けを行った後に直交
(A PLA C’)するようにコート・ベクトルC′
δこ変換する。
そして、ゲインgを乗じて得たコード・ベクトルgC°
 と、最適時のピッチ予測残差ベクトルPにゲインbを
乗じて得たベクトルbPとを加算したベクトルX゛を線
形予測再生フィルタ200を通すことにより再生するこ
とができる。
(3)第3図は、第1図に示した重み付け直交変換部2
0のより具体的な原理を示したもので、この場合には、
ピッチ・コード・ブック1からの最適時のピッチ予測残
差ベクトルAPから時間反転(ハックワード:時間軸を
逆にすること)聴覚重み付けされた演算補助ベクトルV
= tAAPを算出する演算手段21と、該符号帳2の
各コード・ベクトルCから該演算補助ベクトルVに直交
するコード・ベクトルC°を生成する直交変換部22と
、該直交化されたコード・ベクトルC°に聴覚重み付け
Aを与えて該聴覚重み付けコード・ベクトルAC“を再
生する聴覚重み付けマトリックス23とで構成されてい
る。
このように、演算補助ベクトル■を生成することにより
、直交変換部22では、二のベクトルVに直交するコー
ド・ベクトルC°を生成すればよいので、既知のグラム
・シュミット直交変換法やハウス・ホルダー直交変換法
を用いることができる。
(4)第4図も、第1図に示した重み付け直交変換部2
0のより具体的な原理を示したもので、この場合には、
該最適時のピッチ予測残差ベクトルAPから時間反転聴
覚重み付けされた演算補助ベクトルV=tAAPを算出
する演算手段21と、該最適時のピッチ予測残差ベクト
ルP及び聴覚重み付けされたピッチ予測残差ベクトルA
Pと該演算補助ベクトルVと該符号帳2の各コード・ベ
クトルCとから該演算補助ベクトルVに直交するコード
・ベクトルC゛を生成するグラム・ンユミ。
ト直交変換部24と、該直交化されたコード・ベクトル
C゛に聴覚重み付けAを施して該聴覚重み付けコード・
ベクトルAC”を再生する聴覚重み付けマトリックス2
3とで構成されている。
このように、第3図で使用した演算補助ベクトルVの他
ムこ最適時のピッチ予測残差ベクトルP及びこれに聴覚
重み付けを与えたベクトルAPを用いてグラム・シュミ
ット直交変換部24でVに直交するC′を生成し、更に
これに聴覚重み付けしだベクトルAC’をAC及びAP
と同一平面上で得ることができるので、ゲインgに関す
る符号器を新たに設計する必要が無く、従来の逐次最適
化方式におけるゲインgの符号器をそのまま用いること
ができる。
(5)第5図も、第1図に示した重み付け直交変換部2
0のより具体的な原理を示したもので、この場合には、
該最適時のピッチ予測残差ベクトルAPから時間反転聴
覚重み付けされた演算補助ベクトルV= ’AAPを算
出する演算手段21と、該演算補助ベクトルVと該符号
帳2の各コード・ベクトルCと該符号帳2内の全てのコ
ード・ベクトルに直交したベクトルDとから該演算補助
ベクトルVに直交するコード・ベクトルC”を生成する
ハウス・、ホルダー直交変換部25と、該直交化された
コード・ベクトルC′に聴覚重み付けAを与えて該聴覚
重み付けコード・ベクトルAC’ を再生する聴覚重み
付けマトリックス23とで構成されている。
従って、ハウス・ホルダー直交変換部25では、符号帳
2の全てのベクトルに直交するベクトルDを用いるので
、このベクトルDを例えばfl、0.0・・・01とし
たと、符号帳2を例えば、l01Cz、 C+□−、C
+s−i 、IO,Czl、 Czz、−1Cze−1
1というように予め設定することができ、符号帳2の次
元数をN−1に削減することが可能となる。
(6)第6図は、第1図に示した原理をスパース固定符
号帳2aに適用したものである。
即ち、スパース固定符号帳2aはコード・ベクトルが間
引かれた状態にあるので、このスパース状態をできるだ
け維持した形で上述のような直交変換を実現しようとし
たものである。
このため、聴覚重み付けされた入力音声信号ベクトルA
Xから時間反転聴覚重み付けされたベクトル’AAXを
演算手段31で算出し、この時間反転聴覚重み付けされ
たベクトル′″AAXを、聴覚重み付けされた各ピッチ
予測残差ベクトルの内の最適時のピッチ予測残差ベクト
ルAPに対して時間反転聴覚重み付け直交変換された入
力音声信号ベクトル’ (AH)AXを直交変換部32
で生成してスパース符号帳2aの各コード・ベクトルC
との相関値t(AMC)AXを求める。
また、この直交変換部32では、符号帳2aの各コート
・ベクトルCと該最適時のピッチ予測残差ベクトルAP
から咳直交変換部32で該聴覚重み付けされた最適時の
ピッチ予測残差ベクトルAPに直交したベクトルAHC
(これは上記のACに相当する)の自己相関値t(AH
C)AHCを求める。
そして、このようにして求めた相関値t(AHC)AX
とt(AHC)AHCを評価部33が上記の式■に適用
して線形予測誤差を最小にするコド・ベクトルを該符号
帳2aから選択しゲインgを選択する。
従って、時間反転による直交変換マトリックスHを用い
ることによりスパース固定符号帳2aからのコード・ベ
クトルCはスパースのまま相関演算に供されるので、第
24図に示すような聴覚重み付けフィルタ・マトリック
スAを通ずことによってコード・ベクトルがスパースで
なくなる構成C二比べ演算量が削減できる。
〔実 施 例〕
第7図は、第3図に示した本発明の音声符号化方式の一
実施例を示したもので、この実施例では、演算手段21
が、入力信号(最適時のAP)を時間軸上で逆に並べ換
えを行う時間反転部21aと、マトリックスA=1/A
’(Z)から成るIIR(無限インパルス応答)聴覚重
み付けフィルタ21bと、このフィルタ21bの出力信
号を再び時間軸上で逆に並べ換えを行う時間反転部21
cとで構成されており、これにより演算補助ベクトルV
=tAAPを生成している。
第8図は、第7図に示した演算手段21のより具体的な
一実施例を示したもので、聴覚重み付けピッチ予測残差
ベクトルAPが第8図(a)に示すようなものとしたと
、これを時間軸上で逆に並べ換えしたものが同図ら)に
示すベクトル(AP)ア、である。
そして、このベクトル(AP)TIを、聴覚重み付けフ
ィルタ関数1/A”(Z)のIIR聴覚重み付け線形予
測再生フィルタAにかけると、A(AP)TRは例えば
同図(C)に示すようになる。
この場合、マトリックスAは転置マトリックスtAを戻
した行列であるので、上記のA(AP)Tlを元に戻す
ために、時間軸上で逆に並べ換えを行うと、同図(d)
に示すようになる。
また、第7図の演算手段21は、入力ベクトルAPに対
して転置マトリックスを八を乗算するためのFIR(を
限インパルス応答)聴覚重み付けフィルタを用いても構
わない。
この場合の具体例が第9図に示されており、FIR聴覚
重み付けフィルタ・マトリックスをAとし、このマトリ
ックスAの転置マトリックスLAを同図(alに示す符
号帳次元数Nに一致したN次元のマトリックスとしたと
、聴覚重み付けピッチ予測残差ベクトルAPが同図働)
(これは第8図(b)の時間反転したもの)に示すよう
なものであれば、二のベクトルAPに転置マトリックス
LAを掛けた時間反転聴覚重み付けピッチ予測残差ベク
トルtAAPは同図(C)!こ示すようになる。尚、図
中、*は乗算符号を示し、この場合の累積乗算回数は、
N2/2となる。
このようにして第8図(d)と第9図(C1とは同し結
果が得られることとなる。
尚、第8図の実施例では、フィルタ・マトリックスAを
IIRフィルタとしたが、FIRフィルタを用いても構
わない。但し、FIRフィルタを用いると、第9図の実
施例と同様に全乗算回数がN”/2(及び2Nの移動操
作)となるが、IIRフィルタを用いた場合には、例え
ば10次線形予測分析の場合であればIONの乗算回数
と2Nの移動操作とを必要としただけで済むことになる
第7図に戻って、上記の如く生成された演算補助ベクト
ルV= LAAPが送られる直交変換部22はこのVに
対して直交するように符号帳2からのコード・ベクトル
Cを直交変換してCoを生成するものである。
この場合の直交化演算式は、 C’ =C−V (tVC/ ’VV)   −−−−
−−■なるグラム・シュミット直交変換式を用いること
ができる。尚、図中、○で示した所はベクトル演算を表
し、△で示した所はスカラー演算を表りでいる。
これを第10図(a)により説明すると、コート・ベク
トルCのベクトル■に対する平行成分は、■の単位ベク
トル(V/ tVV)に両者の内積1CVを掛ければよ
イノテ、’CV (V/ LVV) となる。
従って、■に直交するCoは上記の式■で与えられるこ
とになる。
このようにして得られたベクトルC”を聴覚重み付けフ
ィルタ23を通すことによりACが得られ、これを第2
4図の最適化方式に適用すれば、最適なコード・ベクト
ルCとゲインgとが選択できることになる。
第11図の実施例は、第7図の実施例における直交変換
部22を演算部22aと22bとに分割したもので、演
算部22aでは、演算補助ベクトルVを入力して2つの
ベクトルwV(w=1/1VV)とVとを生成し、これ
らを入力した演算部22bでVに直交したCoを生成す
る。この場合の演算式も上記のグラム・シュミy ) 
変換式■に基づいている。但し、この例では、第7図の
直交変換部22とは異なり、グラム・シュミ変換度換弐
の演算のうち除算(1/1VV)の部分をオフラインで
演算することができ、演算量を削減できる。
第12図に示す実施例の場合には、第11図の実施例に
用いる演算部22a及び22bとフィルタ23との組合
せを変形して各演算部22a及び22bに聴覚重み付け
フィルタ・マトリックスAを組み込んでおり、まず演算
部22cでは、演算補助ベクトルVを用いて、wVと聴
覚重み付けされたベクトルAVとを生成し、そして、演
算部22dでは、これらのベクトルに基づいて聴覚重み
付けされたピッチ予測残差ベクトルAPに直交したベク
トルAC”を聴覚重み付け後のコード・ベクトルACか
ら生成するようにしている。
この場合の演算式は、 AC’ −AC−tC(V/ tVV)AV−A (C
−V (tVC/ tVV)1となる。
第13図は第4図りこ示した本発明の一実施例を示した
もので、この実施例での直交変換部24では、下記の演
算を行う。
C−P (tCV/ t(AP)API−C−P (L
C(tAAP)/ L(AP)API=C−P (L(
AP)AC/ ’ (AP)AP)・・・・・・■ これに、V= tAAPを代入すると、上記の弐〇にな
るので、同じグラム・シュミット直交変換が実現される
が、この場合には、APに直交するAC’ をACと同
一平面上で求めることができ、ゲインgは、逐次最適化
方式により求めたゲインと一致するので、ゲインgの符
号器を新たに設計する必要が無くなる。
第14図は、第13図の実施例を変形したもので、演算
部24aでは、演算補助ベクトルVにベクトルw=1/
1APi”を乗算してヘクトルW■を生成する。そして
、演算部24bては、このへ・クトルwVと最適時のピ
ッチ予測残差ヘクトルPとから式■を実現することによ
り、聴覚重み付け再生BbこA PJ−A C’ とな
るベクトルC′を生成する。
第15図は、更に別の変形例を示しており、この実施例
では、演算手段2】を用いずに最適時の聴覚重み付けさ
れたピッチ予測残差ベクトルAPを演算部24cに直接
与えて2つのヘクトルwAPとAPとを生成し、演算部
24dではこれらのベクトルに基づいてベクトルCから
ベクトルAPに直交した聴覚重み付けされたコード・ベ
クトルAC”を生成している。尚、この場合の演算式は
基本的に第12図の場合と同様である。
第16図は、第5図に示した本発明の一実施例を示した
もので、この実施例は、上記の各実施例と直交変換部2
5のみが異なっており、この直交変換部25の変換式を
示すと、次のようになる。
C’ =C−2B ((tBC)/ (tBB)1・・
・・■ この式はハウス・ホルダー直交変換を実現する弐であり
、ここに用いるBはB=V−I V I Dで示される
ものであり、Dは固定符号帳の全てのコート・ベクトル
Cに対して直交したベクトルである。
このハウス・ホルダー直交変換のアルゴリズムを第10
図(b)及び(C)を用いて説明すると、まず、演算補
助ベクトルVを、点線で示す折り返し線でベクトルDの
平行成分として折り返したとき、(IVI/IDI)D
なるベクトルが得られる。
尚、D/lDiはD方向の単位ベクトルを示す。
このようにして得られたD方向ヘクトルを−D力方向即
ち逆方向ニ(l V i / l D i ) Dとし
て図示のように取る。この結果、■との加算で得らhる
ベクトルB−V−(IVI/:DI)Dは折り返し線に
直交することになる(同図(b)弁開)。
そして、このベクトルBにおけるベクトルCの成分を求
めると、同図(a)の場合と同様にして、ベクトルI 
(tCE)/ (tBB)l Bが得られる。
このベクトルと反対方向の2倍のベクトルをとってベク
トルCに加えると、■に直交したベクトルC′が得られ
ることになる。
このようにしてベクトルC゛が得られ、これに聴覚重み
付け人を与えれば最適コード・ベクトルAPに直交した
コード・ベクトルAC’が得られることとなる。
第17図は、第16図の直交変換部25を演算部25a
と25bとに分割したもので、演算部25aでは入力ベ
クトルVから2つのベクトルuB(u=2/ ’BB)
とBとを生成し、これらによりベクトルVに直交するベ
クトルC“を生成する。
この実施例の場合も、第14図の実施例と同様に演算部
25bでの演算量が削減できる。
第18図は、更に別の変形例を示したもので、演算部2
5cと25dには聴覚重み付けマトリックスAを含めて
おり、演算部25cでは入力ベクトルVに基づいて2つ
のベクトルuBとABとを生成し、これらに基づいて演
算部25dでは聴覚重み付けハウス・ホルダー直交変換
を行ってベクトルAPに直交したベクトルAC’を生成
している。尚、この演算構成は第12図のグラム・シュ
ミット変換の場合と基本的に同じである。
第19図は、第6図に示した本発明の一実施例を示して
おり、第6図に示した演算手段31は上記の演算手段2
1と同様に転置マトリックスtAにより構成することが
できるが、この実施例では時間反転型のフィルタで構成
されている。
更に、直交変換部32は、演算部3’ 2 a〜32d
で構成されており、演算部32aでは演算手段31と同
様にして入力信号である最適時のピッチ予測残差ベクト
ルAPを時間反転聴覚重み付けして演算補助ベクトルV
= ’AAPを生成する。
このベクトル■は、スパース固定符号帳2aの全てのコ
ード・ベクトルに直交したベクトルDを入力し聴覚重み
付けフィルタ・マ(・リソクスAを含む演算部32bに
おいて3つのベクトルBとUBとABとに変換される。
そして、演算部32cでは、演算手段31からのtAA
Xに対して時間反転したハウス・ホルダー直交変換を行
ってtHtAAX= t(AH)AXを生成する。
ここで、演算部32cにおける時間反転したハウス・ホ
ルダー変換LHについて説明する。
まず、上記の式■は、u=2/lBBとして、C’ =
 C−B (u tB C)     −−■となる。
一方、C’ =HCであるから、式■は、H=C’  
C =I−B (u tB)   (Iは単位ベクトル)と
なる。従って、 tH=1−(uB)  LB =I−E(u LB) となり、これはHと同しである。
従って、演算部32cの入カヘクトルt(AH)AXを
例えばWと置くと、 tHW=W−(WB)(u tB) となり、図示のような演算構成となる。
そして、このベクトルt(AH)AXに符号帳2aから
のスパース・コート・ベクトルCを乗算部32eで乗算
すると、 Rxc= tCt(AH)AX = ’ (Al−IC)AX       ・・・[相
]なる相関値が得られ、評価部33に送られる。
これに対し、演算部32dでは、入力ベクトルAB及び
uBと、スパース・コート・ベクトルCと、内部の聴覚
重み付けフィルタ・マトリックスAとで、最適時のピッ
チ予測残差ベクトルAPに直交するベクトルAHC=A
C−’C(AB)(u tB)を求め、更にこのベクト
ルAHCの自己相関値、 Rcc= ’ (AHC)AHC−−■を生成して評価
部33に送られる。
このように評価部33に送られる2つの相関値は、HC
=C′を代入すると、第24図と同し形態となり、評価
部33は最適なコート・ベクトルとゲインとを選択する
ことが出来る。
尚、この実施例ではハウス・ホルダー変換を用いたがグ
ラム・ンユミノト変換でも可能である。
〔発明の効果〕
以上説明したように、本発明に係るCELP型の音声符
号化方式によれば、白色雑音の固定符号帳の各コード・
ベクトルを、聴覚重み付けされた各ピッチ予測残差ベク
トル内の最適時のピッチ予測残差ベクトルに直交した聴
覚重み付け再生コード・ベクトルに変換することにより
線形予測再生信号を生成し、入力信号との誤差ベクトル
が最小となるようなコード・ベクトルを固定符号帳から
選択しゲインを選択するように構成したので、逐次最適
化方式であっても実際の入力信号と予測再生した信号と
の量子化誤差を同時最適化方式と同程度に小さくするこ
とができる。
第20図は、コンピュータ・シミュレーションにより求
めた符号化特性のグラフを示しており、横軸は演算量を
、継軸は再生音声品質を表すSN比をそれぞれ示してお
り、本発明方式では、グラム・ンユミソト変換を用いた
場合及びハウス・ホルダー変換を用いた場合のいずれも
、逐次最適化方式よりは演算量は多いが、再生音声品質
はいずれも高く、演算量の点ではグラム・ンユミノト変
換の方が、再生音声品質の点ではハウス・ホルダー変換
の方がそれぞれ優れている。そして、本発明のハウス・
ホルダー変換による方式の場合は同時最適化方式より演
算量及び再生音声品質の両者の点で優れていることが分
かる。
【図面の簡単な説明】
第1図は、本発明に体る音声符号化方式の最も基本的な
原理構成を示したブロック図、第2図は、本発明に係る
音声復号化方式の原理的な構成を示したブロック図、 第3図乃至第5図は、第1図に示した本発明に係る音声
符号化方式をより具体的に示した原理構成ブロック図、 第6図は、本発明に係る音声符号化方式の別の原理構成
を示すブロック図、 第7図は、本発明に係る音声符号化方式の一実施例(グ
ラム・シュミット変換例)を示した図、第8図及び第9
図は、本発明で用いる演算手段の具体的な実施例を説明
するための図、第10図は、直交変換を説明するための
ベクトル図、 第11図乃至第15圀は、本発明に係る音声符号化方式
の一実施例(グラム・シュミット変換例)を示した図、 第16回乃至第18図は、本発明に係る音声符号化方式
の一実施例(ハウス・ホルダー変換例)を示した図、 第19図は、本発明に係る音声符号化方式の他の実施例
を示す図、 第20図は、従来例と本発明の演算量及びSN比を比較
して示すグラフ図、 第21図は、一般的な逐次最適化CELP方弐を概略的
に示すブロック図、 第22図は、一般的な同時最適化CELP方式を概略的
に示すブロック図、 第23図は、−i的なCELP方式の復号化側の構成を
示すブロック図、 第24図は、逐次最適化CELP方式における最適化ア
ルゴリズムを概念的に示したブロック図、第25図は、
同時最適化CELP方弐における最適化アルゴリズムを
概念的に示したブロック図、第26図は、ゲイン最適化
を従来例と本発明C二おいて比較するためのヘクトル図
、である。 図において、lは適応符号帳、2は白色雑音の固定符号
帳、2aはスパース固定符号帳、1011.33は評価
部、20.100は重み付け直交変換部、200は線形
予測再生フィルタ、2131は演算手段、22.32は
直交変換部、23は聴覚重み付けフィルタ、24はグラ
ム・シュミット直交変換部、25はハウス・ホルダー直
交変換部、をそれぞれ示す。 図中、同一符号は同−又は相当部分を示す。

Claims (6)

    【特許請求の範囲】
  1. (1)適応符号帳(1)の各ピッチ予測残差ベクトル(
    P)に聴覚重み付け(A)しゲイン(b)を乗じて生成
    されたピッチ予測再生信号(bAP)と聴覚重み付けさ
    れた入力音声信号ベクトル(AX)とのピッチ予測誤差
    信号ベクトル(AY)を求め、該ピッチ予測誤差信号ベ
    クトルの電力(AY)を最小にするピッチ予測残差ベク
    トルを評価部(10)が該適応符号帳(1)から選択す
    ると共にゲイン(b)を選択し、 更に白色雑音の固定符号帳(2)の各コード・ベクトル
    (C)を、該聴覚重み付けされた各ピッチ予測残差ベク
    トルの内の最適時のピッチ予測残差ベクトル(AP)に
    直交した聴覚重み付け再生コード・ベクトル(AC’)
    に重み付け直交変換部(20)で変換し、ゲイン(g)
    を乗じて線形予測再生信号(gAC’)を生成し、該線
    形予測再生信号(gAC’)と該聴覚重み付けされた入
    力音声信号ベクトル(AX)とから線形予測誤差信号ベ
    クトル(E)を最小にするコード・ベクトルを評価部(
    11)が該固定符号帳(2)から選択しゲイン(g)を
    選択することを特徴とした音声符号化方式。
  2. (2)白色雑音の固定符号帳(2)の最適選択されたコ
    ード・ベクトル(C)を、適応符号帳(1)の内の最適
    選択されたピッチ予測残差ベクトル(P)と聴覚重み付
    けを行った後に直交するコード・ベクトル(C’)に重
    み付け直交変換部(100)で変換してゲイン(g)を
    乗じることにより得たコード・ベクトル(gC’)と該
    ピッチ予測残差ベクトル(P)にゲイン(b)を乗じて
    得たコード・ベクトル(bP)とを加算したコード・ベ
    クトル(X’)を線形予測再生フィルタ(200)を通
    すことにより再生することを特徴とした請求項1に記載
    の音声復号化方式。
  3. (3)該重み付け直交変換部(20)が、 該最適時の聴覚重み付けされたピッチ予測残差ベクトル
    (AP)から時間反転聴覚重み付けされた演算補助ベク
    トル(V=^tAAP)を算出する演算手段(21)と
    、該固定符号帳(2)の各コード・ベクトル(C)から
    該演算補助ベクトル(V)に直交するコード・ベクトル
    (C’)を生成する直交変換部(22)と、該直交化さ
    れたコード・ベクトル(C’)に聴覚重み付け(A)し
    て該コード・ベクトル(AC’)を再生する聴覚重み付
    けマトリックス(23)と、で構成されていることを特
    徴とした請求項1に記載の音声符号化方式。
  4. (4)該重み付け直交変換部(20)が、 該最適時の聴覚重み付けされたピッチ予測残差ベクトル
    (AP)から時間反転聴覚重み付けされた演算補助ベク
    トル(V=^tAAP)を算出する演算手段(21)と
    、該最適時のピッチ予測残差ベクトル(P)及び聴覚重
    み付けされたピッチ予測残差ベクトル(AP)と該演算
    補助ベクトル(V)と該固定符号帳(2)の各コード・
    ベクトル(C)とから該演算補助ベクトル(V)に直交
    するコード・ベクトル(C’)を生成するグラム・シュ
    ミット直交変換部(24)と、該直交化されたコード・
    ベクトル(C’)に聴覚重み付け(A)して該コート・
    ベクトル(AC’)を再生する聴覚重み付けマトリック
    ス(23)と、で構成されていることを特徴とした請求
    項1に記載の音声符号化方式。
  5. (5)該重み付け直交変換部(20)が、 該最適時の聴覚重み付けされたピッチ予測残差ベクトル
    (AP)から時間反転聴覚重み付けされた演算補助ベク
    トル(V=^tAAP)を算出する演算手段(21)と
    、該演算補助ベクトル(V)と該固定符号帳(2)の各
    コード・ベクトル(C)と該固定符号帳(2)の内の全
    てのコード・ベクトルに直交したベクトル(D)とから
    該演算補助ベクトル(V)に直交するコード・ベクトル
    (C’)を生成するハウス・ホルダー直交変換部(25
    )と、該直交化されたコード・ベクトル(C’)に聴覚
    重み付け(A)して該コード・ベクトル(AC’)を再
    生する聴覚重み付けマトリックス(23)と、で構成さ
    れていることを特徴とした請求項1に記載の音声符号化
    方式。
  6. (6)適応符号帳(1)の各ピッチ予測残差ベクトル(
    P)に聴覚重み付け(A)しゲイン(b)を乗じて生成
    されたピッチ予測再生信号(bAP)と聴覚重み付けさ
    れた入力音声信号ベクトル(AX)とのピッチ予測誤差
    信号ベクトル(AY)を求め、該ピッチ予測誤差信号ベ
    クトル(AY)を最小にするピッチ予測残差ベクトルを
    評価部(10)が該適応符号帳(1)から選択すると共
    にゲイン(b)を選択し、 更に該聴覚重み付けされた入力音声信号ベクトル(AX
    )から時間反転聴覚重み付けされた入力音声信号ベクト
    ル(^tAAX)を演算手段(31)で算出し、該時間
    反転聴覚重み付けされた入力音声信号ベクトル(^tA
    AX)を、該聴覚重み付けされた各ピッチ予測残差ベク
    トルの内の最適時のピッチ予測残差ベクトル(AP)に
    対して時間反転聴覚重み付け直交変換された入力音声信
    号ベクトル^t(AH)AXを直交変換部(32)で生
    成してスパース固定符号帳(2a)の各コード・ベクト
    ル(C)との相関値^t(AHC)AXを求めると共に
    、該スパース符号帳(2a)の各コード・ベクトル(C
    )と該最適時のピッチ予測残差ベクトル(AP)から該
    直交変換部(32)で該最適時のピッチ予測残差ベクト
    ル(AP)に直交したベクトル(AHC)の自己相関値
    ^t(AHC)AHCを求めて聴覚重み付けされた入力
    音声信号ベクトル(AX)と該直交したベクトル(AH
    C)との間の誤差信号の電力を最小にするコード・ベク
    トルを評価部(33)が該スパース符号帳(2a)から
    選択しゲイン(g)を選択することを特徴とした音声符
    号化方式。
JP2161041A 1990-06-18 1990-06-18 音声符号化・復号化方式 Pending JPH0451199A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2161041A JPH0451199A (ja) 1990-06-18 1990-06-18 音声符号化・復号化方式
CA002044750A CA2044750C (en) 1990-06-18 1991-06-17 Speech coding and decoding system
DE69126062T DE69126062T2 (de) 1990-06-18 1991-06-18 System zur Sprachcodierung und -decodierung
EP91109947A EP0462559B1 (en) 1990-06-18 1991-06-18 Speech coding and decoding system
US08/811,451 US5799131A (en) 1990-06-18 1997-03-03 Speech coding and decoding system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2161041A JPH0451199A (ja) 1990-06-18 1990-06-18 音声符号化・復号化方式

Publications (1)

Publication Number Publication Date
JPH0451199A true JPH0451199A (ja) 1992-02-19

Family

ID=15727475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2161041A Pending JPH0451199A (ja) 1990-06-18 1990-06-18 音声符号化・復号化方式

Country Status (5)

Country Link
US (1) US5799131A (ja)
EP (1) EP0462559B1 (ja)
JP (1) JPH0451199A (ja)
CA (1) CA2044750C (ja)
DE (1) DE69126062T2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06222797A (ja) * 1993-01-22 1994-08-12 Nec Corp 音声符号化方式
WO1994029965A1 (fr) * 1993-06-10 1994-12-22 Oki Electric Industry Co., Ltd. Codeur-decodeur predictif lineaire a excitation par codes
US5727122A (en) * 1993-06-10 1998-03-10 Oki Electric Industry Co., Ltd. Code excitation linear predictive (CELP) encoder and decoder and code excitation linear predictive coding method

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2776050B2 (ja) * 1991-02-26 1998-07-16 日本電気株式会社 音声符号化方式
FI98104C (fi) * 1991-05-20 1997-04-10 Nokia Mobile Phones Ltd Menetelmä herätevektorin generoimiseksi ja digitaalinen puhekooderi
US5396576A (en) * 1991-05-22 1995-03-07 Nippon Telegraph And Telephone Corporation Speech coding and decoding methods using adaptive and random code books
FR2700632B1 (fr) * 1993-01-21 1995-03-24 France Telecom Système de codage-décodage prédictif d'un signal numérique de parole par transformée adaptative à codes imbriqués.
EP1355298B1 (en) * 1993-06-10 2007-02-21 Oki Electric Industry Company, Limited Code Excitation linear prediction encoder and decoder
JP3321976B2 (ja) * 1994-04-01 2002-09-09 富士通株式会社 信号処理装置および信号処理方法
JP3328080B2 (ja) * 1994-11-22 2002-09-24 沖電気工業株式会社 コード励振線形予測復号器
US5751903A (en) * 1994-12-19 1998-05-12 Hughes Electronics Low rate multi-mode CELP codec that encodes line SPECTRAL frequencies utilizing an offset
JP3707154B2 (ja) * 1996-09-24 2005-10-19 ソニー株式会社 音声符号化方法及び装置
TW408298B (en) * 1997-08-28 2000-10-11 Texas Instruments Inc Improved method for switched-predictive quantization
GB2338630B (en) * 1998-06-20 2000-07-26 Motorola Ltd Speech decoder and method of operation
US7072832B1 (en) * 1998-08-24 2006-07-04 Mindspeed Technologies, Inc. System for speech encoding having an adaptive encoding arrangement
US6959274B1 (en) * 1999-09-22 2005-10-25 Mindspeed Technologies, Inc. Fixed rate speech compression system and method
CZ304212B6 (cs) * 2000-11-27 2014-01-08 Nippon Telegraph And Telephone Corporation Způsob kódování a dekódování akustického parametru, kódovací a dekódovací zařízení akustického parametru, a program pro provedení způsobu kódování a dekódování akustického parametru
US7778826B2 (en) * 2005-01-13 2010-08-17 Intel Corporation Beamforming codebook generation system and associated methods
DK3319087T3 (da) * 2011-03-10 2019-11-04 Ericsson Telefon Ab L M Fyldning af ikke-kodede subvektorer i transformationskodede audiosignaler
CN113948085B (zh) * 2021-12-22 2022-03-25 中国科学院自动化研究所 语音识别方法、系统、电子设备和存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1252568A (en) * 1984-12-24 1989-04-11 Kazunori Ozawa Low bit-rate pattern encoding and decoding capable of reducing an information transmission rate
US4899385A (en) * 1987-06-26 1990-02-06 American Telephone And Telegraph Company Code excited linear predictive vocoder
US4896361A (en) * 1988-01-07 1990-01-23 Motorola, Inc. Digital speech coder having improved vector excitation source
IL94119A (en) * 1989-06-23 1996-06-18 Motorola Inc Digital voice recorder

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06222797A (ja) * 1993-01-22 1994-08-12 Nec Corp 音声符号化方式
WO1994029965A1 (fr) * 1993-06-10 1994-12-22 Oki Electric Industry Co., Ltd. Codeur-decodeur predictif lineaire a excitation par codes
US5727122A (en) * 1993-06-10 1998-03-10 Oki Electric Industry Co., Ltd. Code excitation linear predictive (CELP) encoder and decoder and code excitation linear predictive coding method

Also Published As

Publication number Publication date
CA2044750C (en) 1996-03-05
EP0462559B1 (en) 1997-05-14
EP0462559A3 (en) 1992-08-05
EP0462559A2 (en) 1991-12-27
DE69126062D1 (de) 1997-06-19
CA2044750A1 (en) 1991-12-19
US5799131A (en) 1998-08-25
DE69126062T2 (de) 1997-10-09

Similar Documents

Publication Publication Date Title
JPH0451199A (ja) 音声符号化・復号化方式
JPH06506070A (ja) スペクトル補間および高速コードブックサーチを有する音声コーダおよび方法
US5199076A (en) Speech coding and decoding system
JP4771674B2 (ja) 音声符号化装置、音声復号化装置及びこれらの方法
JPH0451200A (ja) 音声符号化方式
WO1992005541A1 (fr) Systeme de codage de la parole
JPH08234799A (ja) 改良されたベクトル励起源を有するデジタル音声コーダ
US5488704A (en) Speech codec
JP2009296626A (ja) ディジタル信号処理方法、そのプログラム、及びそのプログラムを格納した記録媒体
JPH0341500A (ja) 低遅延低ビツトレート音声コーダ
JP4369946B2 (ja) ディジタル信号処理方法、そのプログラム、及びそのプログラムを格納した記録媒体
JP3095133B2 (ja) 音響信号符号化方法
US6078881A (en) Speech encoding and decoding method and speech encoding and decoding apparatus
JP2658816B2 (ja) 音声のピッチ符号化装置
JPH02287399A (ja) ベクトル量子化制御方式
US5777249A (en) Electronic musical instrument with reduced storage of waveform information
JP3100082B2 (ja) 音声符号化・復号化方式
JP3233184B2 (ja) 音声符号化方法
JP3824810B2 (ja) 音声符号化方法、音声符号化装置、及び音声復号装置
JPH0444100A (ja) 音声符号化方式
JPH03243999A (ja) 音声符号化装置
JP3083574B2 (ja) 音声符号化装置
JP3871672B2 (ja) ディジタル信号処理方法、その処理器、そのプログラム、及びそのプログラムを格納した記録媒体
JP3714786B2 (ja) 音声符号化装置
JP3523827B2 (ja) 音声データ録音再生装置