JPH0451200A - 音声符号化方式 - Google Patents

音声符号化方式

Info

Publication number
JPH0451200A
JPH0451200A JP2161042A JP16104290A JPH0451200A JP H0451200 A JPH0451200 A JP H0451200A JP 2161042 A JP2161042 A JP 2161042A JP 16104290 A JP16104290 A JP 16104290A JP H0451200 A JPH0451200 A JP H0451200A
Authority
JP
Japan
Prior art keywords
vector
pitch prediction
code
input audio
gain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2161042A
Other languages
English (en)
Inventor
Jiyonson Maaku
マーク・ジョンソン
Tomohiko Taniguchi
智彦 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2161042A priority Critical patent/JPH0451200A/ja
Priority to CA002044751A priority patent/CA2044751C/en
Priority to US07/716,882 priority patent/US5245662A/en
Priority to DE69129385T priority patent/DE69129385T2/de
Priority to EP91109946A priority patent/EP0462558B1/en
Publication of JPH0451200A publication Critical patent/JPH0451200A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • G10L19/107Sparse pulse excitation, e.g. by using algebraic codebook
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0002Codebook adaptations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0003Backward prediction of gain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0011Long term prediction filters, i.e. pitch estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔概   要〕 ベクトル量子化を用いて音声信号の情報圧縮を行う高能
率な音声符号化方式に関し、 逐次最適化/同時最適化/ピッチ直交変換CELP型の
音声符号化方式において、スパース符号帳を用いた場合
よりも一層演算量削減することを目的とし、 固定符号帳を各々1サンプルづつの+1と−1とそれ以
外のサンプルがOの六角格子ベクトルで構成し、例えば
、聴覚重み付けされた入力音声信号ベクトルから時間反
転聴覚重み付け入力音声信号ベクトルを算出し更に最適
時のピッチ予測誤差信号ベクトルに対して時間反転聴覚
重み付け直交変換された入力音声信号ベクトルを算出し
て該六角格子固定符号帳の各コード・ベクトルとを乗算
して両者の相関値を発生し、上記の時間反転聴覚重み付
け直交変換によるマトリックスの自己相関マトリックス
から該六角格子固定符号帳の各コード・ベクトルに対応
する3つの要素を取り出して該最適時のピッチ予測残差
ベクトルに対して聴覚重み付け直交変換されたコード・
ベクトルの自己相関値を算出して両相関値により最適化
を行うように構成する。
〔産業上の利用分野〕
本発明は、音声符号化方式に関し、特にベクトル量子化
を用いて音声信号の情報圧縮を行う靜能率な音声符号化
方式に関するものである。
近年、企業内通信システム・ディジタル移動無線システ
ムなどにおいて、音声信号をその品質を保持しつつ情報
圧縮するベクトル量子化方式が用いられているが、この
ベクトル量子化方式とは、符号帳(コードブンク)の各
信号ベクトルに予測重み付けを施して再生信号を作り、
再生信号と入力音声信号との間の誤差電力を評価して最
も誤差の少ない信号ベクトルの番号(インデックス)を
決定するものとして良く知られたものであるが、音声情
報をより一層圧縮するためこのベクトル量子化方式をよ
り進めた方式に対する要求が高まっている。
[従来の技術] 第17図及び第18図には、ベクトル量子化を用いたC
 E L P (Code Excited LPC)
と呼ばれる高能率音声符号化方式が示されており、この
内、第17図は逐次最適化CELPと呼ばれ、第18図
は同時最適化CBLPと呼ばれる方式を示している。
第17図において、適応符号帳1には1サンプルづつピ
ッチ周期が遅延されたNサンプルに対応するN次元のピ
ッチ予測残差ベクトルが格納されており、またスパース
符号帳2には同様のNサンプルに対応するN次元の白色
雑音を用いて生成したコード・ベクトルが211パター
ンだけ予め設定されているが、各コード・ベクトルのサ
ンプル・データのうち、その振幅が一定の闇値以下のサ
ンプル・データ(例えばNサンプルのうちのN/4サン
プル)はOで置き換えられている。(従って、このよう
な符号帳をスパース(間引き)符号帳と呼ぶ。)各ベク
トルはN次元の要素の電力が一定値となるように正規化
されている。
まず、適応符号帳1の各ピッチ予測残差ベクトルPに1
/A’(Z)(但し、A”(Z)は聴覚重み付け線形予
測分析フィルタを示す)で示される聴覚重み付け線形予
測再往フィルタ3で聴覚重み付けして生成されたピッチ
予測ベクトルAPにゲイン5でゲインbを乗算してピッ
チ予測再生信号ベクトルbAPを生成する。
そして、このピッチ予測再生信号ベクトルbAPと、A
(Z)/A’ (Z) (但し、A (Z)は線形予測
分析フィルタを示す)で示される聴覚重み付けフィルタ
7で聴覚重み付けされた入力音声信号ベクトルAXとの
ピッチ予測誤差信号ベクトルAYを減算部8で求め、こ
のピッチ予測誤差信号ベクトルAYの電力が最小の値に
なるように評価部10がフレーム毎に下記式■: AYI’ =lAI−bAf’J    ・・・・・・
■により、符号帳1中から最適なピッチ予測残差ベクト
ルPを選択すると共に最適なゲインbを選択する。
更に、白色雑音のスパース符号帳2の各コード・ベクト
ルCにも同様にして線形予測再生フィルタ4で聴覚重み
付けして生成された聴覚重み付け再生後のコード・ベク
トルACにゲイン6でゲインgを乗算して線形予測再生
信号ベクトルgACを生成する。
そして、この線形予測再生信号ベクトルgACと、上記
のピッチ予測誤差信号ベクトルAYとの誤差信号ベクト
ルEを減算部8で求め、この誤差信号ベクトルEの電力
が下記の式■: E l” −l AY−gACl     ・・・・・
・■により最小の値になるように評価部11がフレーム
毎に符号帳2中から最適なコード・ベクトルCを選択す
ると共に最適なゲインgを選択する。
上記の式■、■より、 E l != l AX−bAP−gACl ”・・・
■となる。
尚、適応符号帳1の適応化は、bAP十gACを加算部
12で求め、これを聴覚重み付け線形予測分析フィルタ
(A’ (Z))3でbP十gCに分析し、更に遅延H
14で1フレ一ム分遅延させたものを次のフレームの適
応符号帳(ピッチ予測符号帳)として格納することによ
り行われる。
このように、第17図に示した逐次最適化CELP方式
では、ゲインbとgが別々に制御されるのに対し、第1
8図に示した同時最適化CELP方式では、bAPとg
ACとを加算部15で加算してAX”=bAP十gAC
を求め、更に減算部16でフィルタ7からの聴覚重み付
けされた入力音声信号ベクトルAXとの誤差信号ベクト
ルEを上記の式■と同様にして求め、評価部16がこの
ベクトルEの電力を最小にするコード・ベクトルCをス
パース符号帳2から選択すると共に最適なゲインbとg
を同時に選択制御するものである。
尚、この場合の適応符号帳1の適応化は、第17図の加
算部12の出力に相当するAX’ に対して同様にして
行われる。
以上の第17図及び第18図に概念・的に示されたゲイ
ンb、gは実際には、第19図及び第20図に示すよう
にそれぞれのCELP方式においてスパース符号帳2の
コード・ベクトル(C)について最適化を行う。
即ち、第17図の場合には、上記の式■において、ベク
トルEの電力を最小にするためのゲインgを偏微分によ
り求めると、 0−δ (l AY−gACl ”)/δg=2  も
(−AC)(AY−gAC)より、 g= t(AC)AY/ ’(AC)AC・・・■とな
る。
そこで第19図においては、ピッチ予測誤差信号ベクト
ルAYと、スパース符号帳2の各コード・ベクトルCを
聴覚重み付け線形予測再生フィルタ4を通して得られる
コード・ベクトルACとを乗算部41で乗算して両者の
相関値t(AC) AYを発生し、聴覚重み付け再生後
のコード・ベクトルACの自己相関値t(AC)ACを
乗算部42で求める。
そして、評価部11では、両相間(!:t(AC)AY
及びt(AC)ACに基づいて上記の弐■により該ピッ
チ予測誤差信号ベクトルAYに対する誤差信号ベクトル
Eの電力を最小にする最適なコード・ベクトルC及びゲ
インgを選択する。
また、第18図の場合には、上記の式■において、ヘク
]・ルEの電力を最小にするためのゲインb、gを偏微
分により求めると、 g= [’(AP)AP L(AC)AX’(AC)A
P ’(AP)AX] /b= [’(AC)AC’(
AP)AXt(AC)AP ’(AC)AX] /・・
・・・・■ となる。但し、 一 ’(AP)AP  t(AC)AC= (t(AC
)AP)” である。
そこで第20図においては、聴覚重み付けされた入力音
声信号ベクトルAXと、スパース符号帳2の各コード・
ベクトルCを聴覚重み付け線形予測再生フィルタ4を通
して得られる再生コードベクトルACとを乗算部51で
乗算して両者の相関値L(AC)AXを発生し、聴覚重
み付けされたピッチ予測ベクトルAPと、再生コード・
ベクトルACとを乗算部52で乗算して両者の相関値L
(AC)APを発生すると共に、再生コード・ベクトル
ACの自己相関値t(AC)ACを乗算部42で求める
そして、評価部16では、これらの相関値t(AC)A
X、  t(AC)AP及び’(AC)ACに基づいて
上記の式■により聴覚重み付け入力音声信号ベクトルA
Xに対する誤差信号ベクトルEの電力を最小にする最適
なコード・ベクトルC及びゲインb、gを同時に選択す
る。
このように、逐次最適化CELP方式の場合には、同時
最適化CELP方式に比べて全体の演算量が少なくて済
むが、符号化された音声の品質は劣化したものとなる。
第21図(a)及び(b)は、それぞれ上記の逐次最適
化CELP方式及び同時最適化CELP方式のゲイン最
適化動作について二次元の場合を例にとってベクトル図
で示したものであるが、同図(a)の逐次方式の場合に
は、最適化されたベクトルAX”=bAP十gACを得
るには比較的少ない演算量で済むが、このベクトルAX
’ と入力ベクトルAXとは誤差が生し易く音声の再生
品質が悪くなる。
また、同図(b)の同時方式は、二次元の場合には図示
のようにAX’ =AXとなるように、一般に同時最適
化方式は逐次最適化方式に比べて音声の再生品質は良く
なるが、上記の弐〇に示すように演算量が多くなってし
まうという問題がある。
そこで、本発明者は、このような逐次最適化/同時最適
化CELP型の各音声符号化方式の長所を生かして音声
の再生品質と演算量の両者において満足の行く符号化・
復号化を実現するため、第22図に示すような方式を本
出願と同時に特許出願している。
即ち、ピッチ周期については従来と同様にピッチ予測残
差ベクトルPとゲインbの評価・選択を行うが、コード
・ベクトルC及びゲインgについては、重み付け直交変
換部60を設け、白色雑音の固定符号帳2aの各コード
・ベクトルCを、該聴覚重み付けされた各ピッチ予測残
差ベクトルの内の最適時のピッチ予測残差ベクトルAP
に直交した聴覚重み付け再生コード・ベクトルAC’ 
に変換することによって行っている。
これを更に第21図(C)で説明すると、上記のように
聴覚重み付けされたピッチ予測再生ベクトルbAPに対
して、固定符号帳2から取り出されて聴覚重み付けAが
施されたコード・ベクトルACが直交していないことが
同図(a)のように逐次最適化方式において量子化誤差
を増大させる原因になっていることに鑑み、聴覚重み付
けされたコード・ベクトルACが聴覚重み付けされたピ
ッチ予測残差ベクトルAPに直交するコード・ベクトル
AC゛に既知の手法により直交変換すれば同図(a)の
逐次最適化CELP方式においても量子化誤差を同時最
適化方式と同程度まで減少させることが出来る。
そして、このようにして得られたコート・ベクトルAC
’にゲインgを乗して線形予測再生信号gAC“を生成
し、該線形予測再生信号gACと聴覚重み付けされた入
力音声信号ベクトルAXとから線形予測誤差信号ベクト
ルEを最小にするコート・ベクトルを評価部11が該固
定符号帳2から選択しゲインgを選択している。
〔発明が解決しようとする課題〕
以上のように種々の音声符号化方式が提案されており、
いずれもスパース化されたスノマース固定符号帳2aを
用いているが、第16図に示すように、スパース化され
た各コード・ベクトルがN次元で例えばN=60とする
と、500〜600の乗算数が必要となり、1つの符号
帳に標準の1024のコード・ベクトルが含まれている
とすると、上記の次元数では1つのコード・ベクトルの
探索に約1200万/秒の演算量が必要になってしまい
、現在のICプロセッサーの演算能力(乗算数7秒)を
越えてしまうという問題点があった。
従って、本発明は、上記のようないずれの音声符号化方
式においても、スパース符号帳の場合よりも一層演算量
削減することを目的とする。
〔課題を解決するための手段及び作用〕以下、上記の課
題を解決するだめの本発明に係る音声符号化方式の種々
の手段とその作用を順次説明する。
(1)第1図は、逐次最適化CELP型の固定符号帳2
の最適なコード・ベクトル及びゲインbを選択するため
の最適化アルゴリズムを概念的に示したもので、第19
図の従来例の改良に相当している。
そして、この発明では〜固定符号帳2が各々1サンプル
づつの+1と−1とそれ以外のサンプルがOの六角格子
ベクトルで構成されていることを特徴としている。
この六角格子コード・ベクトルの符号帳は、第2図に示
すように、例えばt[1,111なる3次元基準ベクト
ルに垂直な紙面上の2次元に位置するベクトルC,,C
,,C3で構成されたものであり、それぞれy軸、y軸
、Z軸上の単位ベクトルe+ 、ez 、esにより、
x−y軸、y−z軸Z−y軸の各平面において構成され
る。
従って、例えばコード・ベクトルC+はe+ +(−e
x )で合成される。
即ち、今、 1 = [e+ 、 ez 、 ・=eh ]なるN次
元のマトリックスを考えた場合、六角格子の各コード・
ベクトルCは、 C,、、= [e、、−e、] で表されるので、+1と−1の1対のインパルス以外が
0のベクトルで構成されることとなる。
従って、このような六角格子のコード・ベクトルCにフ
ィルタ4で聴覚重み付けマトリックスA−[AI 、 
At 、・・・AN]を掛けて得られるベクトルACは
、 AC=Ae、−Ae、=AI、−A。
となり、マトリックスAの要素nとmを取り出して引き
算すれば済むことになる。
従って、このようにして得られたベクトルACに基づい
て乗算部41.42で相関演算を行うときには極めて少
ない演算で済む。
尚、このようなスパース度の高い六角格子符号帳自体に
は音声の再生品質に大きな影響を与えないことが知られ
ている。
(2)第3図は、上記の六角格子コード・ベクトルの符
号帳2を用いた第1図の方式を改良したものであり、こ
の場合には、評価部11に与えるべき一方の自己相関値
t(AC)ACは第1図と同様にフィルタ4と乗算部4
2との組合せにより演算されるが、相関値’(AC)A
Yの方は、ピッチ予測誤差信号ベクトルAVを演算手段
21で’AAYに変換しておき、六角格子固定符号rk
2のコード・ベクトルCをそのまま乗算部22に与える
ことにより生成しているので、六角格子符号帳の利点を
そのまま生かした形で乗算を行うことができ、演算量を
更に削減することができる。
(3)同様にして、第4図の同時最適化方式の場合にも
第20図の従来例に六角格子を用いたものであり、これ
によって演算量を削減している。
(4)更に、第5図に示した同時最適化CELP方弐の
場合にも、第3図の概念を適用することにより、入力音
声信号ベクトルAXを第1の演算手段31で’AAXに
変換し、ピッチ予測残差ベクトルAPを第2の演算手段
34で’AAPに変換しておき、それぞれ六角格子コー
ド・ベクトルCを乗算するので、六角格子ベクトルの分
だけの演算量で済むことになる。
(5)第6図は、第21図の構成において同様に六角格
子コード・ベクトルの固定符号帳2を適用したものであ
り、直交変換部60では、六角格子固定符号帳2の各コ
ード・ベクトルCを、聴覚重み付け(A)された各ピッ
チ予測残差ベクトルの内の最適時のピッチ予測残差ベク
トルAPに直交した聴覚重み付け再生コード・ベクトル
AC”を生成するが、このとき、APに対してC゛を直
交化させるための変換マトリックスHはC’ =HCで
示されるので、AC’ −AHC=HA、、−HA。
なる極単純化された形で求められることとなり、乗算部
65での相関演算t(AC)AX及び乗算部66での自
己相関演算t(AC’)AC’での乗算量を大きく削減
させることができる。
(6)第7図は、第6図の発明において、乗算部65で
の演算がAC’ =AHC=)TA、−HA。
とAXとの間で行われることに鑑み、これを更に第3図
や第5図の場合と同様に演算量を削減するため、聴覚重
み付けされた入力音声信号ヘクトルAIから時間反転聴
覚重み付け入力音声信号ベクトルtAAXを演算手段7
0で算出し、最適時の聴覚重み付けされたピッチ予測残
差ベクトルAPに対して時間反転聴覚重み付け直交変換
された入力音声信号ベクトル’ (AH)AXを時間反
転直交変換部71で算出する。
そして、このようにして得られた時間反転聴覚重み付け
直交変換入力音声信号ベクトルL(AH)AXと六角格
子固定符号帳2の各コード・ベクトルCとを乗算して両
者の相関値’ (AHC)AXを乗算部65で生成する
また、直交変換部72では第6図の場合と同様にして最
適時の聴覚重み付けされたピッチ予測残差ベクトルAP
に対して聴覚重み付け直交変換されたコード・ベクトル
AHCを算出し乗算部66でその自己相関’ (AMC
)AHCを求める。
このように、演算手段70で時間反転聴覚重み付けされ
て得たベクトルt(AH)AXに変換部71で時間反転
した直交変換マトリックスHを施すことにより六角格子
符号帳2のコード・ベクトルCをそのまま乗算部65で
乗算して両者の相関値’ (AHC)AI= t(AC
’)AXが得られ、乗算量の軽減を図っている。
(7)第8図の発明では、第7図の発明を更に改良した
もので、乗算部65での乗算は第7図の場合と同じであ
るが、第7図とは異なる直交変換部73を設け、演算手
段70と該時間反転直交変換部71による時間反転変換
マトリックス’(AH)の自己相関マトリックスt(A
H)AHであってフレーム毎に更新されるものを含み、
このマトリックスから六角格子固定符号帳2の各コード
・ベクトルCに対応する3つの要素(n、n) (n、
m) (m、m)を取り出して該最適時の聴覚重み付け
されたピッチ予測残差ベクトルAPに対して聴覚重み付
け直交変換されたコード・ベクトルAC’ の自己相関
値L(AC’)AC’)を算出するようにしている。
即ち、この変換部73で求める自己相関は、自己相関マ
トリックス’ (AH)AHにコート・ベクトルCが加
わったものであるので、t(AHC)AHCとなるが、
これは、上述の如<AC=A。
八いであるので、 t(AHC)ANC = t)i t (AイーA、’)H(A、、−A、)
= ’HtA、、AアH−tHtA、AI、H−tH’
A、A、H+ ’HtA、A11H= (tHtAA)
()11+、 −2(”H’AAH) 1.、ヨ + (”HLAAH)、I、。
となり、この内のマトリックスtHLAAH1即ちL(
AH)AHを予め用意しておき、フレーム毎に更新すれ
ば、そのマトリ7クスの3つの要素(n、n) (n、
m) (m、m)を取り出すだけで最適時の聴覚重み付
けされたピッチ予測残差ベクトルAPに対して聴覚重み
付け直交変換されたコード・ベクトルAC’ の自己相
関イ直’ (AC’)AC’ を得ることが出来ること
となる。
このようにして、上記のいずれの発明においても、六角
格子符号帳を用いること乙こより極めて演算量を削減す
るこhができる。
〔実 施 例〕
第9図は、第3及び5図に示した本発明の音声符号化方
式に用いる演算手段21並びに第7及び8図に示した演
算手段70の一実施例を示したもので、第9図(a)に
示した実施例では、入力信号(最適時のAP)を時間軸
上で逆に並べ換えを行う時間反転部21aと、マトリッ
クスA=17A“(Z)から成るIIR(無限インパル
ス応答)聴覚重み付けフィルタ21bと、このフィルタ
21bの出力信号を再び時間軸上で逆に並べ換えを行う
時間反転部21Cとで構成されており、これによりi!
補助ベク)/l、V= tAAP (又はtAAX、t
AAY)を生成している。
第10図は、第9図に示した演算手段21.70のより
具体的な一実施例を示したもので、聴覚重み付けピッチ
予測残差ベクトルAPが第10図(a)に示すようなも
のとすると、これを時間軸上で逆に並べ換えしたものが
同関イ)に示すベクトル(AP)ア、である。
そして、二のベクトル(AP)アアを、聴覚重み付けフ
ィルタ関数1/A’(Z)のIIR聴覚重み付け線形予
測再生フィルタAにかけると、A(AP)ア。は例えば
同図(C)に示すようになる。
この場合、マトリックスAは転置マトリックスLAを戻
した行列であるので、上記のA (AP)↑8を元に戻
すために、時間軸上で逆に並べ換えを行うと、同図(d
)に示すようになる。
また、演算手段21.70は、第9図ら)に示すように
、入力ベクトルAPに対して転置マトリックスtAを乗
算するためのFIR(有限インパルス応答)聴覚重み付
けフィルタを用いても構わない。
この場合の具体例が第11図に示されており、FIR聴
覚重み付けフィルタ・マトリックスをAとし、このマト
リ・ンクスAの転置マトリ・ンクスLAを同図(a)に
示す符号帳次元数Nに一致したN次元のマトリックスと
すると、聴覚重み付けピッチ予測残差ベクトルAPが同
図(b)(これは第10図(b)の時間反転したもの)
に示すようなものであれば、このベクトルAPに転置マ
トリックスtAを掛けた時間反転聴覚重み付けピッチ予
測残差ベクトル’AAPは同図(C)に示すようになる
。面、図中、*は乗算符号を示し、この場合の累積乗算
回数は、N” /2となる。
このようにして第10図(d)と第11図(C)とは同
し結果が得られることとなる。
尚、第10図の実施例では、フィルタ・マトリックスA
をIIRフィルタとしたが、FIRフィルタを用いても
構わない。但し、FIRフィルタを用いると、第11図
の実施例と同様に全乗算回数がN”/2(及び2Nの移
動操作)となるが、11Rフイルタを用いた場合には、
例えば10次線形予測分析の場合であればIONの乗算
回数と2Nの移動操作とを必要とするだけで済むことに
なる。
第12図は、第6図に示した本発明の一実施例の構成を
示したもので、基本的には第21図の場合と同しである
が、異なるのは符号帳として六角格子コード・ベクトル
の固定符号帳2を用いている点である。
二の実施例において、直交変換部60は最適時の聴覚重
み付けされたピッチ予測残差ベクトルAPを入力して演
算補助ベクトルV= tAAPを生成する第9図(a)
に示した演算手段21と同し演算手段61と、このVに
対して直交するように六角格子符号帳2からのコード・
ベクトルCを直交変換してCoを生成するグラム・シュ
ミット直交変換部62と、コード・ベクトルC′を更に
聴覚重み付けしてAC’を生成するフィルタ・マトリッ
クスAとで構成されている。
この場合のグラム・シュミット直交化演算式は、C’ 
=C−V (tVC/ ’VV)   ・−・−・■で
与えられ、変換部62はこのアルゴリズムが実現される
ように図示されている。尚、図中、Oで示した所はベク
トル演算を表し、△で示した所はスカラー演算を表して
いる。
これを第13図(a)により説明すると、コード・ベク
トルCのベクトルVに対する平行成分は、■の単位ベク
トル(V/ tVV)に両者の内積tCVを掛ければよ
イノテ、tcV (V/ ’VV)となる。
従って、■に直交するCoは上記の式■で与えられるこ
とになる。
このようにして得られたベクトルC′を聴覚重み付けフ
ィルタ23を通すことによりAC’ が得られ、これを
第19図の最適化方式に適用すれば、最適なコード・ベ
クトルCとゲインgとが選択できることになる。
第14図は、第6図に示した本発明の他の実施例を示し
たもので、この実施例は、上記の各実施例と直交変換部
64のみが異なっており、この直交変換部64の変換式
を示すと、次のようになる。
C’ =(、−2B ((tBC)/ (tBB)1・
・・・・・■ この式はハウス・ホルダー直交変換を実現する式であり
、ここに用いるBはB=V−I V I Dで示される
ものであり、Dは固定符号帳の全てのコード・ベクトル
Cに対して直交したベクトルである。
このハウス・ホルダー直交変換のアルゴリズムを第13
図(b)及び(C)を用いて説明すると、まず、演算補
助ベクトルVを、点線で示す折り返し線でベクトルDの
平行成分として折り返したとき、(IVI/IDI)D
なるベクトルが得られる。
尚、D/IDIはD方向の単位ベクトルを示す。
このようにして得られたD方向ベクトルを−D方向、即
ち逆方向に−(IVI/IDI)Dとして図示のように
取る。この結果、■との加算で得られるベク)ルB=V
−(IVI/IDI)Dは折り返し線に直交することに
なる(同図(b)参照)。
そして、このベクトルBにおけるベクトルCの成分を求
めると、同図(a)の場合と同様にして、ベクトルf(
tCB)/(tBB)l Bが得られる。
このベクトルと反対方向の2倍のベクトルをとってベク
トルCに加えると、■に直交したベクトルC”が得られ
ることになる。
このようにしてベクトルC゛が得られ、これに聴覚重み
付けAを与えれば最適コード・ベクトルAPに直交した
コード・ベクトルAC’が得られることとなる。
第15図は、第8図に示した本発明の一実施例を示して
おり、第8図に示した演算手段70は上記の演算手段2
1と同様に転置マトリックスtAにより構成することが
できるが、この実施例では時間反転型のフィルタで構成
されている。
更に、直交変換部73は、演算部73a〜73dで構成
されており、演算部73aでは演算手段70と同様にし
て入力信号である最適時の聴覚重み付けされたピッチ予
測残差ベクトルAPを時間反転聴覚重み付けして演算補
助ベクトルV=’AAPを生成する。
このベクトルVは、六角格子固定符号帳2の全てのコー
ド・ベクトルに直交したベクトルDを入力し聴覚重み付
けフィルタ・マトリックスAを含む演算部73bにおい
て3つのベクトルBとuBとABとに変換される。
この内のベクトルBとuBは時間反転直交変換部71に
送られて演算手段70から出力された’AAXに対して
時間反転したハウス・ホルダー直交変換を行ってLH’
AAX= ’ (AH)AXを生成する。
ここで、変換部71における時間反転したハウス・ホル
ダー変換LHについて説明する。
まず、上記の式■は、u=2/’BEとして、C’ =
 C−B (u tB C)     −−−−−・■
となる。
一方、C’ −HCであるから、式■は、H=CC =I −E (u ’B)   (Iは単位ベクトル)
となる。従って、 LH= 1−(uB)’E 1−B (u tB) となり、これはHと同しである。
従って、変換部71の入力ベクトルt(AH)AXを例
えばWと置くと、 tHW=W−(WB)(u  tB) となり、図示のような演算構成となる。
そして、このベクトルt(AH)AXに符号帳2からの
六角格子コード・ベクトルCを乗算部65で乗算すると
、 Rxc−tCt (AH)AX =  ’ (AHC)AX        ・・・[相
]なる相関値が得られ、評価部11に送られる。
これに対し、演算部73cでは、入力ベクトルAB及び
uBから直交変換マトリックスH及び時間反転直交変換
マトリックスLHを求め、これに更にFIR聴覚重み付
けフィルタ・マトリックスAを組み込んで演算手段70
と変換部71とによる時間反転聴覚重み付け直交変換マ
トリックスAHの自己相関マトリックスt(AH)AH
をフレーム毎に生成しておく。
そして、このようにして求めた自己相関マトリ・7クス
’ (AH)AHを演算部73dに記憶しておき、この
演算部73dに六角格子符号帳2からコード・ベクトル
Cが与えられたときに、上述した如く、 t(AHC)AHC −tHt(A、−A、)H(AF、−A、 )−’Ht
A、A、H−tHtA、A、lH−tHtA、lA、H
十tHtA、A、H=  <  tHtAAH) □、
2  (LHtAAH) R,。
+  (tHtAAH)、、。
となり、そのマトリックスtHtAAH= ’ (AH
)AHの内の3つの要素(n、n) (n、m) (m
、m)を演算部73dから取り出して評価部11に送る
だけで最適時の聴覚重み付けされたピッチ予測残差ベク
トルAPに対して聴覚重み付け直交変換されたコード・
ベクトルAC”の自己相関値 Rcc= t(AHC)AHC =’(AC”)AC’     ・・・・・・■を得る
ことが出来、評価部11に送られる。
このように評価部11に送られる2つの相関値に基づい
て最適なコード・ベクトルとゲインとを選択することが
出来る。
〔発明の効果〕
以上説明したように、本発明に係るCELP型の音声符
号化方式によれば、各々1サンプルづつの+1と−1と
それ以外のサンプルが0の六角格子ベクトルで構成され
た固定符号帳を、(1)逐次最適化方式、(2)同時最
適化方式、及び(3)ピッチ直交変換を用いた逐次最適
化方式に適用したので、間引かれていない通常の固定符
号帳の場合は元より、第16図に示すように、それぞれ
の方式において3/4スパースの符号帳を用いた場合に
比べても演算量の顕著な違いが認められ、乗算数では約
200分の1に削減されていることが分かる。
【図面の簡単な説明】
第1図は、本発明に係る音声符号化方式(逐次最適化C
EI、P方式)の原理構成を示したブロック図、 第2図は、本発明に係る音声復号化方式に用いる六角格
子コード・ベクトルを説明するための2次元ベクトル図
、 第3図は、本発明に係る音声符号化方式が適用される別
の逐次最適化CELP方式の原理構成ブロック図、 第4図は、本発明に係る音声符号化方式が適用される同
時最適化CELP方弐の原理構成プロ。 り図、 第5図は、本発明に係る音声符号化方式が適用される別
の同時最適化CELP方式の原理構成ブロック図、 第6図は、本発明に係る音声符号化方式が適用される直
交変換CELP方式の原理構成ブロック図、 第7図及び第8図は、本発明に係る音声符号化方式が適
用される別の直交変換CELP方弐の原理構成ブロック
図、 第9図は、本発明で用いる演算手段の実施例を示した図
、 第10図及び第11図は、本発明で用いる演算手段のよ
り具体的な実施例を説明するための図、第12図は、本
発明に係る音声符号化方式が適用されるグラム・ツユミ
ツト直交変換CE L P方式の一実施例を示したブロ
ック図、 第13図は、直交変換を説明するためのベクトル図、 第14図は、本発明に係る音声符号化方式が通用される
ハウス・ホルダー直交変換CE L P方式の一実施例
を示したブロック図、 第15図は、本発明に係る音声符号化方式が適用される
別のハウス・ホルダー直交’12WA CE L P方
式の一実施例を示したプロ、り図、 第16図は、本発明に係る音声符号化方式と従来方式の
乗算数を比較した図、 第17図は、一般的な逐次最適化CELP方式を概略的
に示すブロック図、 第18図は、一般的な同時最適化CELP方式を概略的
に示すブロック図、 第19図は、逐次最適化CELP方式における従来の最
適化アルゴリズムを概念的に示したブロック図、 第20図は、同時最適化CELP方式における従来の最
適化アルゴリズムを概念的に示したブロック図、 第21図は、ゲイン最適化を従来例と本発明において比
較するためのベクトル図、 第22図は、本発明者が別途同時出願している直交変換
CELP方式を示したプロ、り図、である。 図において、1は適応符号帳、2は六角格子コード・ヘ
クトル固定符号帳、4は聴覚重み付けフィルタ、10.
11は評価部、21,31.70は演算手段、22,3
3.34 41 42 51.52,65.66は乗算
部、23はフィルタ演算部、60.72.73は直交変
換部、71は時間反転直交変換部、をそれぞれ示す。 図中、同一符号は同−又は相当部分を示す。

Claims (7)

    【特許請求の範囲】
  1. (1)適応符号帳(1)の各ピッチ予測残差ベクトル(
    P)に聴覚重み付け(A)しゲイン(b)を乗じて生成
    されたピッチ予測再生信号(bAP)と聴覚重み付けさ
    れた入力音声信号ベクトル(AX)とのピッチ予測誤差
    信号ベクトル(AY)を求め、該ピッチ予測誤差信号ベ
    クトル(AY)を最小にするピッチ予測残差ベクトル(
    P)を該適応符号帳(1)から選択すると共にゲイン(
    b)を選択し、更に白色雑音の固定符号帳(2)の各コ
    ード・ベクトル(C)に聴覚重み付け(A)しゲイン(
    g)を乗じて線形予測再生信号(gAC)を生成し該ピ
    ッチ予測誤差信号ベクトル(AY)との誤差信号(E)
    を最小にするコード・ベクトル(C)を該符号帳(2)
    から選択しゲイン(g)を選択する逐次最適化CELP
    型の音声符号化方式において、該固定符号帳(2)が各
    々1サンプルづつの+1と−1とそれ以外が0の六角格
    子ベクトルで構成されていることを特徴とした音声符号
    化方式。
  2. (2)該ピッチ予測誤差信号ベクトル(AY)から時間
    反転聴覚重み付けピッチ予測誤差信号ベクトル(^tA
    AY)を算出する演算手段(21)と、該時間反転聴覚
    重み付けピッチ予測誤差信号ベクトル(^tAAY)と
    該六角格子固定符号帳(2)の各コード・ベクトル(C
    )とを乗算して両者の相関値(^t(AC)AY)を発
    生する乗算部(22)と、該六角格子固定符号帳(2)
    の各コード・ベクトル(C)の聴覚重み付け再生後のコ
    ード・ベクトル(AC)の自己相関値(^t(AC)A
    C)を求めるフィルタ演算部(23)と、 両相関値に基づいて該ピッチ予測誤差信号ベクトル(A
    Y)に対する誤差信号(E)を最小にする最適なコード
    ・ベクトル及びゲインを選択する評価部(11)と、 を備えたことを特徴とする請求項1に記載の音声符号化
    方式。
  3. (3)適応符号帳(1)の各ピッチ予測残差ベクトル(
    P)に聴覚重み付け(A)しゲイン(b)を乗して得ら
    れたピッチ予測再生信号(bAP)と、白色雑音の固定
    符号帳(2)の各コード・ベクトル(C)に聴覚重み付
    け(A)しゲイン(g)を乗じて得られた線形予測信号
    (gAC)とを加えて再生信号(AX’)を生成し、該
    再生信号(AX’)と聴覚重み付けされた入力音声信号
    ベクトル(AX)との誤差信号(E)を最小にするコー
    ド・ベクトル(C)を該固定符号帳(2)から選択し両
    ゲイン(g)を選択する同時最適化CELP型の音声符
    号化方式において、 該固定符号帳(2)が各々1サンプルづつの+1と−1
    とそれ以外が0の六角格子ベクトルで構成されているこ
    とを特徴とした音声符号化方式。
  4. (4)該入力音声信号ベクトル(AX)から時間反転聴
    覚重み付け入力音声信号ベクトル(^tAAX)を算出
    する第1の演算手段(31)と、 該ピッチ予測再生信号のゲインを乗じる前の聴覚重み付
    けされたピッチ予測残差ベクトル(AP)から時間反転
    聴覚重み付けピッチ予測残差ベクトル(^tAAP)を
    算出する第2の演算手段(32)と、該時間反転聴覚重
    み付け入力音声信号ベクトル(^tAAX)と該六角格
    子固定符号帳(2)の各コード・ベクトル(C)とを乗
    算して両者の相関値(^t(AC)AX)を発生する第
    1の乗算部(33)と、該時間反転聴覚重み付けピッチ
    予測残差ベクトル(^tAAP)と該スパース固定符号
    帳(2)の各コード・ベクトル(C)とを乗算して両者
    の相関値(^t(AC)AP)を発生する第2の乗算部
    (34)と、該スパース固定符号帳(2)の各コード・
    ベクトル(C)の重み付け再生後のコード・ベクトル(
    AC)の自己相関値(^t(AC)AC)を求めるフィ
    ルタ演算部(23)と、 上記の全相関値に基づいて該誤差信号(E)を最小にす
    る最適なコード・ベクトルとゲインを選択する評価部(
    16)と、 を備えたことを特徴とする請求項3に記載の音声符号化
    方式。
  5. (5)適応符号帳(1)の各ピッチ予測残差ベクトル(
    P)に聴覚重み付け(A)しゲイン(b)を乗じて生成
    されたピッチ予測再生信号(bAP)と聴覚重み付けさ
    れた入力音声信号ベクトル(AX)とのピッチ予測誤差
    信号ベクトル(AY)を求め、該ピッチ予測誤差信号ベ
    クトル(AY)を最小にするピッチ予測残差ベクトルを
    評価部(10)が該適応符号帳(1)から選択すると共
    にゲイン(b)を選択し、更に白色雑音の固定符号帳(
    2)の各コード・ベクトル(C)を、該聴覚重み付けさ
    れた各ピッチ予測残差ベクトルの内の最適時の聴覚重み
    付けされたピッチ予測残差ベクトル(AP)に直交した
    聴覚重み付け再生コード・ベクトル(AC’)に重み付
    け直交変換部(60)で変換し、ゲイン(g)を乗じて
    線形予測再生信号(gAC’)を生成し、該線形予測再
    生信号(gAC’)と該聴覚重み付けされた入力音声信
    号ベクトル(AX)とから線形予測誤差信号ベクトル(
    E)を最小にするコード・ベクトルを評価部(11)が
    該固定符号帳(2)から選択しゲイン(g)を選択する
    音声符号化方式において、該固定符号帳(2)が各々1
    サンプルづつの+1と−1とそれ以外が0の六角格子ベ
    クトルで構成されていることを特徴とした音声符号化方
    式。
  6. (6)該聴覚重み付けされた入力音声信号ベクトル(A
    X)から時間反転聴覚重み付け入力音声信号ベクトル(
    ^tAAX)を算出する演算手段(70)と、該最適時
    の聴覚重み付けされたピッチ予測残差ベクトル(AP)
    に対して時間反転聴覚重み付け直交変換された入力音声
    信号ベクトル(^t(AH)AX)を算出する時間反転
    直交変換部(71)と、該時間反転聴覚重み付け直交変
    換入力音声信号ベクトル(^t(AH)AX)と該六角
    格子固定符号帳(2)の各コード・ベクトル(C)とを
    乗算して両者の相関値(^t(AHC)AX)を発生す
    る乗算部(65)と、 該最適時のピッチ予測残差ベクトル(AP)に対して聴
    覚重み付け直交変換されたコード・ベクトル(AHC)
    を算出する直交変換部(72)と、該聴覚重み付け直交
    変換されたコード・ベクトル(AHC)の自己相関値(
    ^t(AHC)AHC)を求める乗算部(66)と、 両相関値に基づいて該聴覚重み付けされた入力音声信号
    ベクトル(AX)に対する誤差信号(E)を最小にする
    最適なコード・ベクトル及びゲインを選択する評価部(
    11)と、を備えたことを特徴とする請求項5に記載の
    音声符号化方式。
  7. (7)該聴覚重み付けされた入力音声信号ベクトル(A
    X)から時間反転聴覚重み付け入力音声信号ベクトル(
    ^tAAX)を算出する演算手段(70)と、該最適時
    のピッチ予測残差ベクトル(AP)に対して時間反転聴
    覚重み付け直交変換された入力音声信号ベクトル(^t
    (AH)AX)を算出する時間反転直交変換部(71)
    と、 該時間反転聴覚重み付け直交変換入力音声信号ベクトル
    (^t(AH)AX)と該六角格子固定符号帳(2)の
    各コード・ベクトル(C)とを乗算して両者の相関値(
    ^t(AHC)AX)を発生する乗算部(65)と、 該演算手段(70)と該時間反転直交変換部(71)に
    よる時間反転変換マトリックス^t(AH)の自己相関
    マトリックス(^t(AH)AH)であってフレーム毎
    に更新されるものを含み、該マトリックスから該六角格
    子固定符号帳(2)の各コード・ベクトル(C)に対応
    する3つの要素(n、n)(n、m)(m、m)を取り
    出して該最適時の聴覚重み付けされたピッチ予測残差ベ
    クトル(AP)に対して聴覚重み付け直交変換されたコ
    ード・ベクトル(AC’)の自己相関値(^t(AC’
    )AC’)を算出する直交変換部(73)と、 両相関値に基づいて該聴覚重み付けされた入力音声信号
    ベクトル(AX)に対する誤差信号(E)を最小にする
    最適なコード・ベクトル及びゲインを選択する評価部(
    11)と、を備えたことを特徴とする請求項5に記載の
    音声符号化方式。
JP2161042A 1990-06-18 1990-06-18 音声符号化方式 Pending JPH0451200A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2161042A JPH0451200A (ja) 1990-06-18 1990-06-18 音声符号化方式
CA002044751A CA2044751C (en) 1990-06-18 1991-06-17 Speech coding system
US07/716,882 US5245662A (en) 1990-06-18 1991-06-18 Speech coding system
DE69129385T DE69129385T2 (de) 1990-06-18 1991-06-18 Sprachkodiersystem
EP91109946A EP0462558B1 (en) 1990-06-18 1991-06-18 Speech coding system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2161042A JPH0451200A (ja) 1990-06-18 1990-06-18 音声符号化方式

Publications (1)

Publication Number Publication Date
JPH0451200A true JPH0451200A (ja) 1992-02-19

Family

ID=15727495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2161042A Pending JPH0451200A (ja) 1990-06-18 1990-06-18 音声符号化方式

Country Status (5)

Country Link
US (1) US5245662A (ja)
EP (1) EP0462558B1 (ja)
JP (1) JPH0451200A (ja)
CA (1) CA2044751C (ja)
DE (1) DE69129385T2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008010795A (ja) * 2006-06-30 2008-01-17 Hitachi High-Tech Instruments Co Ltd プリント基板支持装置
US7373295B2 (en) 1997-10-22 2008-05-13 Matsushita Electric Industrial Co., Ltd. Speech coder and speech decoder

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2051304C (en) * 1990-09-18 1996-03-05 Tomohiko Taniguchi Speech coding and decoding system
JP3077944B2 (ja) * 1990-11-28 2000-08-21 シャープ株式会社 信号再生装置
US5195137A (en) * 1991-01-28 1993-03-16 At&T Bell Laboratories Method of and apparatus for generating auxiliary information for expediting sparse codebook search
AU675322B2 (en) * 1993-04-29 1997-01-30 Unisearch Limited Use of an auditory model to improve quality or lower the bit rate of speech synthesis systems
WO1995006310A1 (en) * 1993-08-27 1995-03-02 Pacific Communication Sciences, Inc. Adaptive speech coder having code excited linear prediction
US5488665A (en) * 1993-11-23 1996-01-30 At&T Corp. Multi-channel perceptual audio compression system with encoding mode switching among matrixed channels
KR960009530B1 (en) * 1993-12-20 1996-07-20 Korea Electronics Telecomm Method for shortening processing time in pitch checking method for vocoder
US5797118A (en) * 1994-08-09 1998-08-18 Yamaha Corporation Learning vector quantization and a temporary memory such that the codebook contents are renewed when a first speaker returns
JPH11513813A (ja) * 1995-10-20 1999-11-24 アメリカ オンライン インコーポレイテッド 反復的な音の圧縮システム
JP3707154B2 (ja) * 1996-09-24 2005-10-19 ソニー株式会社 音声符号化方法及び装置
EP2154679B1 (en) * 1997-12-24 2016-09-14 BlackBerry Limited Method and apparatus for speech coding
US7072832B1 (en) 1998-08-24 2006-07-04 Mindspeed Technologies, Inc. System for speech encoding having an adaptive encoding arrangement
US6584437B2 (en) 2001-06-11 2003-06-24 Nokia Mobile Phones Ltd. Method and apparatus for coding successive pitch periods in speech signal
JP5159279B2 (ja) * 2007-12-03 2013-03-06 株式会社東芝 音声処理装置及びそれを用いた音声合成装置。
EP2515299B1 (en) 2009-12-14 2018-06-20 Fraunhofer Gesellschaft zur Förderung der Angewand Vector quantization device, voice coding device, vector quantization method, and voice coding method
CN113948085B (zh) * 2021-12-22 2022-03-25 中国科学院自动化研究所 语音识别方法、系统、电子设备和存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL94119A (en) * 1989-06-23 1996-06-18 Motorola Inc Digital voice recorder

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7373295B2 (en) 1997-10-22 2008-05-13 Matsushita Electric Industrial Co., Ltd. Speech coder and speech decoder
US7499854B2 (en) 1997-10-22 2009-03-03 Panasonic Corporation Speech coder and speech decoder
US7533016B2 (en) 1997-10-22 2009-05-12 Panasonic Corporation Speech coder and speech decoder
US7546239B2 (en) 1997-10-22 2009-06-09 Panasonic Corporation Speech coder and speech decoder
US7925501B2 (en) 1997-10-22 2011-04-12 Panasonic Corporation Speech coder using an orthogonal search and an orthogonal search method
US8332214B2 (en) 1997-10-22 2012-12-11 Panasonic Corporation Speech coder and speech decoder
US8352253B2 (en) 1997-10-22 2013-01-08 Panasonic Corporation Speech coder and speech decoder
JP2008010795A (ja) * 2006-06-30 2008-01-17 Hitachi High-Tech Instruments Co Ltd プリント基板支持装置

Also Published As

Publication number Publication date
EP0462558A3 (en) 1992-08-12
EP0462558B1 (en) 1998-05-13
DE69129385D1 (de) 1998-06-18
CA2044751C (en) 1996-01-16
EP0462558A2 (en) 1991-12-27
US5245662A (en) 1993-09-14
CA2044751A1 (en) 1991-12-19
DE69129385T2 (de) 1998-10-08

Similar Documents

Publication Publication Date Title
JPH0451200A (ja) 音声符号化方式
JP5400701B2 (ja) 音声符号化のための方法と装置
CA2051304C (en) Speech coding and decoding system
EP0515138B1 (en) Digital speech coder
CA2044750C (en) Speech coding and decoding system
JP3112681B2 (ja) 音声符号化方式
JP6456412B2 (ja) Celp符号器および復号器で使用するための柔軟で拡張性のある複合革新コードブック
JP3541680B2 (ja) 音声音楽信号の符号化装置および復号装置
JP3064947B2 (ja) 音声・楽音符号化及び復号化装置
JPH0341500A (ja) 低遅延低ビツトレート音声コーダ
JP3095133B2 (ja) 音響信号符号化方法
US6078881A (en) Speech encoding and decoding method and speech encoding and decoding apparatus
JP3100082B2 (ja) 音声符号化・復号化方式
US5777249A (en) Electronic musical instrument with reduced storage of waveform information
JP3263347B2 (ja) 音声符号化装置及び音声符号化におけるピッチ予測方法
JP3233184B2 (ja) 音声符号化方法
JP3002299B2 (ja) 音声符号化装置
JP3192051B2 (ja) 音声符号化装置
Nagarajan et al. Efficient implementation of linear predictive coding algorithms
JPH0444100A (ja) 音声符号化方式
JP3095769B2 (ja) Vselp符号化器
JPH03243999A (ja) 音声符号化装置
JPH1078799A (ja) コードブック
JP3083574B2 (ja) 音声符号化装置
JPH1020889A (ja) 音声符号化装置および記録媒体